
Противостояние между Пентагоном и компанией Anthropic набирает обороты. Военное ведомство США готово присвоить разработчику Claude статус «угрозы цепочке поставок» — ярлык, который обычно получают враждебные иностранные компании. Причина? Anthropic отказывается давать армии неограниченный доступ к своим ИИ-моделям. Компания готова к компромиссу, но настаивает: её технологии не должны использоваться для слежки за американцами или создания автономного оружия. Пентагон требует права применять искусственный интеллект «для всех законных целей» без исключений. Сейчас Claude — единственная ИИ-система в закрытых военных сетях США, её даже задействовали через Palantir для поимки Николаса Мадуро в январе. Если Пентагон выполнит угрозу, все оборонные подрядчики будут обязаны разорвать контракты с Anthropic, что нанесёт серьёзный удар по бизнесу компании. Этот конфликт показывает растущее напряжение в индустрии: кто должен контролировать применение передовых моделей в военных операциях — те, кто их создаёт, или те, кто их использует? Эксперты давно предупреждали о рисках бесконтрольного применения ИИ в войнах, и сейчас мы наблюдаем первое серьёзное столкновение между этическими ограничениями разработчиков и оперативными потребностями военных.










