Пентагон против Anthropic: 5 фактов о конфликте из-за военного ИИ
Дата публикации

Почему Пентагон угрожает Anthropic статусом «угрозы безопасности»
Военное ведомство США готовится нанести беспрецедентный удар по одной из ведущих ИИ-компаний мира. Пентагон близок к тому, чтобы разорвать отношения с Anthropic и присвоить ей статус «риска для цепочки поставок». Обычно такой ярлык получают компании из враждебных государств вроде Китая или России, но теперь под раздачу попала американская фирма.
Причина конфликта проста: Anthropic устанавливает ограничения на то, как военные могут использовать её флагманскую модель Claude. Представители Пентагона настаивают на праве применять ИИ «для всех законных целей» без каких-либо оговорок. Компания же готова к диалогу, но хочет гарантий: её технологии не будут задействованы для массовой слежки за гражданами США или разработки полностью автономного оружия.
Если военное ведомство выполнит свою угрозу, последствия будут катастрофическими для Anthropic. Все оборонные подрядчики США получат предписание немедленно прекратить сотрудничество с компанией, что серьёзно подорвёт её позиции на рынке. Сейчас Claude остаётся единственной ИИ-системой, развёрнутой в закрытых военных сетях Пентагона, и её уже успели применить в реальных операциях — например, через платформу Palantir для захвата венесуэльского лидера Николаса Мадуро в январе этого года.
Для практических рекомендаций по внедрению ИИ-решений в вашем бизнесе посетите AI Projects.
Битва за контроль над военным искусственным интеллектом
Конфликт между Anthropic и Пентагоном выходит далеко за рамки обычного корпоративного спора. Это столкновение двух философий: должны ли создатели передовых технологий диктовать правила их использования, или заказчики вправе требовать полной свободы действий?
Эксперты по этике ИИ давно бьют тревогу насчёт бесконтрольного применения машинного обучения в военных целях. Риски включают случайные жертвы среди мирного населения из-за ошибок алгоритмов, эскалацию конфликтов через автоматизированные системы принятия решений и потенциальное нарушение международного гуманитарного права. Anthropic пытается установить барьеры, которые предотвратят худшие сценарии.
С другой стороны, военные аргументируют свою позицию необходимостью сохранять технологическое преимущество перед противниками. Китай и Россия активно развивают собственные ИИ-системы для оборонных нужд, и любые ограничения могут замедлить темпы американских разработок. По мнению представителей Пентагона, решения о допустимом использовании технологий должны приниматься на уровне правительства, а не частными корпорациями.
Ситуация осложняется тем, что чёткого законодательного регулирования применения ИИ в военной сфере пока не существует. Правовой вакуум заставляет компании самостоятельно формулировать этические принципы, что неизбежно приводит к конфликтам с заказчиками.
Новые меры безопасности от OpenAI
Пока Anthropic воюет с Пентагоном, её главный конкурент OpenAI представил обновление, которое может изменить стандарты защиты ИИ-систем. Компания добавила в ChatGPT режим «Локдаун», предназначенный для пользователей с повышенными требованиями к безопасности.
Режим блокирует функции, которые потенциально могут быть использованы злоумышленниками для атак типа «инъекция промптов» — когда ИИ обманом заставляют выдать конфиденциальные данные или выполнить вредоносные действия. Например, веб-поиск в режиме «Локдаун» работает только с кешированным контентом, исключая любые запросы к внешним сетям за пределами инфраструктуры OpenAI.
Администраторы корпоративных аккаунтов могут активировать защиту для всей организации, при этом сохраняя доступ к избранным приложениям через функцию белого списка. Дополнительно OpenAI вводит метки «Повышенный риск», которые будут появляться во всех продуктах компании — ChatGPT, Atlas и Codex — для предупреждения о потенциально опасных функциях.
Обновление признаёт важный факт: по мере превращения ИИ из простых чат-ботов в полноценных агентов, способных самостоятельно путешествовать по интернету и выполнять сложные задачи, ставки в области безопасности резко возрастают. Детерминированные блокировки могут оказаться единственным надёжным способом защиты от некоторых угроз.
Китайский прорыв в области открытых моделей
Компания Alibaba представила Qwen3.5-397B-A17B — открытую мультимодальную языковую модель, которая приближается по возможностям к закрытым гигантам вроде GPT-5.2 от OpenAI и Gemini 3 Pro от Google. Разработка использует гибридную архитектуру, активирующую лишь 17 миллиардов параметров из общих 397 миллиардов для каждого запроса.
Такой подход обеспечивает баланс между высокой производительностью и низкой задержкой ответов. Модель показывает результаты, близкие к лидерам рынка, а в некоторых областях — вроде агентного поиска, распознавания документов и следования инструкциям — даже превосходит их. При этом Alibaba заявляет о снижении затрат на использование на 60% и восьмикратном ускорении обработки больших объёмов данных по сравнению с предыдущей версией Qwen3-Max.
Релиз нацелен на поддержку непрерывного мультимодального рассуждения, необходимого для работы ИИ-агентов, хотя в некоторых практических задачах — например, управлении торговыми автоматами — модель пока справляется не идеально. Тем не менее, китайские лаборатории демонстрируют впечатляющий прогресс, смещая фокус конкуренции с наращивания размера моделей на повышение их эффективности и доступности.
Для получения консультаций по интеграции передовых ИИ-решений обратитесь к специалистам AI Projects.
Другие важные новости из мира ИИ
Meta запатентовала систему социальных сетей, которая использует ИИ для имитации ответов пользователя на основе истории его взаимодействий — в том числе во время длительного отсутствия или даже после смерти. Технология вызывает этические вопросы о границах цифрового бессмертия.
Индия провела саммит AI Impact Summit, собрав руководителей крупнейших ИИ-компаний планеты. Сэм Альтман из OpenAI и Дарио Амодеи из Anthropic подтвердили, что Индия стала вторым по величине рынком для ChatGPT и Claude соответственно. Амодеи также анонсировал открытие офиса Anthropic в Бенгалуру.
Комиссия Ирландии по защите данных начала расследование в отношении Grok от xAI после сообщений о том, что система способна генерировать сексуализированные изображения женщин и детей. Аналогичные проверки уже проводятся в Великобритании и Евросоюзе.
SpaceX и xAI примут участие в конкурсе Пентагона с призовым фондом 100 миллионов долларов на разработку технологии автономных роёв дронов с голосовым управлением. Компании Илона Маска конкурируют за контракт, который может определить будущее беспилотной военной авиации.
ElevenLabs запустила инициативу «ElevenLabs для правительства», помогая государственным учреждениям внедрять безопасные многоязычные голосовые и чат-системы на базе ИИ. Проект направлен на повышение доступности государственных услуг для граждан с разным уровнем владения языком.
Выводы
Конфликт между Anthropic и Пентагоном обнажил фундаментальное противоречие эпохи искусственного интеллекта: кто должен определять границы применения передовых технологий в военной сфере. С одной стороны, разработчики стремятся предотвратить злоупотребления и защитить гражданские права. С другой — военные требуют полной свободы действий для сохранения стратегического превосходства.
Решение этого спора повлияет не только на судьбу одной компании, но и на всю индустрию. Если Пентагон добьётся своего, другие ИИ-лаборатории могут отказаться от этических ограничений под давлением рынка. Если победит Anthropic, это создаст прецедент корпоративного контроля над применением технологий двойного назначения.
Параллельно китайские компании наращивают темпы разработки открытых моделей, приближающихся по качеству к западным лидерам, но доступных за меньшую цену. Это меняет расклад сил в глобальной гонке ИИ, где эффективность начинает цениться выше абсолютной мощности.
Будущее искусственного интеллекта формируется прямо сейчас — в залах судов, переговорных комнатах и лабораториях по всему миру. От исхода текущих конфликтов зависит, какой станет эта технология: инструментом защиты или угрозой для человечества.