Anthropic привлекла $30 млрд: почему CEO верит в AGI через 3 года, но боится банкротства

Дата публикации

Экспоненциальный рост в таблицах, но не в кошельках

Anthropic привлекла $30 миллиардов в раунде Series G при пост-инвестиционной оценке в $380 миллиардов. Годовая выручка компании достигла $14 миллиардов, увеличившись в 10 раз за последний год. Один только Claude Code принес $2,5 миллиарда выручки, удвоившись с начала года. Semianalysis подсчитала, что 4% всех публичных коммитов на GitHub теперь создаются Claude Code, и эта доля удвоилась всего за месяц. К концу 2026 года прогнозируется, что ИИ будет создавать более 20% всех ежедневных коммитов.

Дарио Амодеи, CEO Anthropic, в разговоре с Дваркешем Пателем заявил: "Самое удивительное - это отсутствие общественного понимания того, насколько близко мы к концу экспоненты". Он дает 90% вероятности достижения "страны гениев в дата-центре" в течение десяти лет, и примерно 50 на 50 - что это произойдет через 1-3 года.

Но вот парадокс: если вы верите, что AGI появится через 1-3 года, почему не тратите все деньги на вычислительные мощности? Амодеи честно ответил: компания не может выделить триллион долларов на вычисления в 2027 году, потому что если сроки сдвинутся хотя бы на год, "не существует хеджирования, способного спасти меня от банкротства".

Разрыв между тем, во что верит CEO относительно технологии, и тем, что финансовый директор может ответственно потратить, показывает реальное положение дел. И насколько нестабильна и уязвима вся индустрия перед ошибками в прогнозировании - именно поэтому разговоры о пузыре получили такую широкую огласку.

Амодеи также описал конкурентную перспективу: три-четыре игрока, высокие барьеры входа, дифференцированные продукты. "Все знают, что Claude хорош в одном, GPT - в другом, Gemini - в третьем". Сохранится ли эта дифференциация - другой вопрос. Он признал, что Anthropic "не идеально справляется с предотвращением использования наших моделей внутри других компаний".

Anthropic - это компания, которая верит, что создает бога, но беспокоится о счетах за электричество. Это одновременно благоразумие и когнитивный диссонанс, и мы можем увидеть больше подобного по мере приближения к концу экспоненты в наших хрупких человеческих телах.

Для практических рекомендаций по внедрению ИИ-решений посетите AI Projects.

Пентагон недоволен красными линиями Anthropic

Axios сообщил на этой неделе, что Пентагон может прекратить партнерство с Anthropic. Военные хотят, чтобы ИИ-лаборатории делали свои модели доступными для "всех законных целей", а Anthropic отказывается. Компания поддерживает два жестких ограничения: никакой массовой слежки за американцами и никакого полностью автономного оружия. Три другие лаборатории, работающие с Пентагоном (OpenAI, Google, xAI), были более сговорчивыми - одна из них уже приняла условия военных.

Отношения ухудшились после операции по захвату венесуэльского лидера Николаса Мадуро, проведенной через партнерство Anthropic с Palantir. По данным Axios, высокопоставленный чиновник администрации заявил, что руководитель Anthropic связался с Palantir, чтобы узнать, использовался ли Claude в рейде, намекая на неодобрение, поскольку операция включала применение смертельной силы. Anthropic это отрицает, говоря, что разговоры с Пентагоном сосредоточены на политических вопросах вокруг двух жестких ограничений и не касаются конкретных операций.

История выглядит как кампания давления: анонимный чиновник, специфическое представление Anthropic как трудного партнера, акцент на гибкости конкурентов. Объединяется ли индустрия против странных чудаков из Anthropic, помешанных на безопасности и правах ИИ? Неизвестно. Но сработает ли это, покажет, насколько долговечны обязательства по безопасности, когда клиент - Министерство обороны.

ИИ экономит время, поэтому теперь у вас есть время работать больше

Исследование, опубликованное в Harvard Business Review на этой неделе, отслеживало 200 сотрудников технологической компании в течение восьми месяцев и обнаружило, что ИИ-инструменты не сократили работу, как ожидалось, а наоборот, интенсифицировали её. Работники двигались быстрее, брали на себя более широкий спектр задач и работали в обеденные перерывы и вечера, причем никто их об этом не просил. Как выразился один инженер: "Вы думали, что, возможно, раз вы можете быть более продуктивным с ИИ, вы сэкономите время и сможете работать меньше. Но на самом деле вы не работаете меньше. Вы просто работаете столько же или даже больше".

Лично для меня это правда. Будучи самозанятым, я всегда так живу, поэтому не чувствую такой резкой разницы, но понимаю, что воспринимаю ИИ, особенно новейшие инструменты, как средство для всего, на что раньше не хватало времени. Поэтому свободное время теперь тратится на эти вещи.

Исследователи выявили три паттерна: "расширение задач" (люди поглощают работу, которая раньше принадлежала другим, потому что ИИ делает её доступной), "размытые границы" (промпты ИИ во время обеда или перед уходом с работы "чтобы ИИ мог работать, пока они отходят") и "компульсивная многозадачность", замаскированная под импульс.

Результатом стал самоусиливающийся цикл: "ИИ ускорил определенные задачи, что повысило ожидания скорости; более высокая скорость сделала работников более зависимыми от ИИ. Возросшая зависимость расширила спектр того, что работники пытались сделать, а более широкий спектр еще больше увеличил количество и плотность работы".

Вы можете вспомнить исследование о том, что текстовые процессоры не сделали написание налогового кодекса более эффективным, а вместо этого увеличили длину документов. Это точно то же самое, дополнение к закону Паркинсона: работа расширяется, чтобы заполнить доступное время, и если вам удается стать более эффективным, вы найдете что-то еще, чем заняться.

Отдельно инженер Сиддхант Кхаре опубликовал личный отчет об усталости от ИИ, который читается как индивидуальная версия того же явления. К счастью, он предлагает практические решения.

Кхаре, профессионально создающий инфраструктуру ИИ-агентов, описывает "удар об стену" несмотря на то, что выпускает больше кода, чем когда-либо. Он говорит, что "ИИ снижает стоимость производства, но увеличивает стоимость координации, проверки и принятия решений. И эти издержки полностью ложатся на человека". Когда вы перестаете заниматься задачами "как", вы понимаете, что задачи "что" непросты. Он превратился из создателя в "инспектора качества на сборочной линии, которая никогда не останавливается".

Его решение - границы: сеансы с ограничением по времени (он не использует ИИ вечно, а ставит таймер, а затем пишет сам), правило трех промптов (если ИИ не достигает 70% пригодности за три попытки, он пишет сам) и намеренные утренние часы без ИИ, чтобы сохранить остроту собственного мышления. Возможно, немного ограничивающе, но определенно хорошая отправная точка!

Философия и будущее ИИ

The Wall Street Journal опубликовал профиль философа, формирующего душу Claude. Вопросы, которые поднимает её работа, имеют значение для всего мира. По мере того как ИИ-системы становятся более мощными и интегрированными в повседневную жизнь, философские основы их поведения и ценностей становятся критически важными.

Anthropic вкладывает значительные ресурсы в то, чтобы Claude следовал определенным этическим принципам - отсюда и красные линии с Пентагоном. Но эти принципы не появляются из вакуума. Они формируются философскими рамками, культурными ценностями и конкретными решениями о том, что считается "правильным" поведением для ИИ.

Вопрос в том, чьи ценности будут встроены в системы, которые потенциально станут умнее людей? Как обеспечить, чтобы эти ценности были универсальными, а не отражали узкие интересы создателей? И возможно ли вообще создать "нейтральный" ИИ, или любая система неизбежно несет в себе предубеждения своих создателей?

Эти вопросы становятся еще более острыми, когда мы приближаемся к AGI. Если Амодеи прав и "страна гениев в дата-центре" появится в ближайшие годы, философские решения, принимаемые сегодня, могут определить траекторию человечества на десятилетия вперед.

Для получения консультаций по этическому внедрению ИИ-технологий обратитесь к экспертам AI Projects.

Выводы

Неделя показала глубокие противоречия в индустрии ИИ. Anthropic привлекает рекордное финансирование и демонстрирует впечатляющий рост, но её CEO признает, что компания не может позволить себе инвестиции, необходимые для реализации собственных прогнозов. Пентагон готов разорвать отношения с компанией из-за этических принципов, которые конкуренты готовы игнорировать ради контрактов.

Исследования показывают, что ИИ-инструменты не освобождают людей от работы, а создают новые формы интенсификации труда. Пользователи становятся контролерами качества на бесконечном конвейере, работая больше и интенсивнее, чем раньше.

Все это происходит на фоне философских дебатов о том, какие ценности должны быть встроены в системы, которые могут стать умнее людей. Разрыв между технологическими возможностями, финансовыми реалиями, этическими обязательствами и человеческим опытом использования ИИ показывает, насколько сложным и непредсказуемым будет путь к AGI - если мы вообще до него доберемся.