Как дефицит AI-чипов в 2025 разрушил планы компаний: 7 уроков

Дата публикации

Экспортный контроль перекроил доступ к чипам

Решение администрации Трампа в декабре 2025 года разрешить условные продажи чипов Nvidia H200 в Китай показало, насколько быстро может меняться полупроводниковая политика. H200 - самый мощный AI-чип, когда-либо одобренный для экспорта. Условия жесткие: 25% выручки достается правительству США, продажи идут только утвержденным китайским покупателям. Это отменило апрельский запрет 2025 года.

Но политический разворот случился слишком поздно, чтобы предотвратить масштабные сбои. Министр торговли США Говард Лутник заявил: китайская Huawei произведет в 2025 году всего 200 000 AI-чипов, тогда как Китай легально импортировал около миллиона урезанных чипов Nvidia, специально разработанных для соблюдения экспортных требований.

Производственный разрыв подтолкнул китайские компании к масштабной контрабанде. В декабре федеральные прокуроры раскрыли документы о группировке, пытавшейся экспортировать GPU Nvidia H100 и H200 на сумму минимум 160 миллионов долларов с октября 2024 по май 2025.

Для глобальных корпораций эти ограничения создали непредсказуемые проблемы с закупками. Компании с операциями в Китае или дата-центрами там столкнулись с внезапными ограничениями доступа. Другие обнаружили, что их глобальные планы развертывания предполагали наличие чипов, которое геополитика больше не гарантирует.

Кризис памяти усугубил боль AI-инфраструктуры

Пока экспортный контроль занимал заголовки, возник более глубокий кризис поставок: чипы памяти стали главным ограничителем AI-инфраструктуры по всему миру. Высокопропускная память (HBM), специализированная память для работы AI-ускорителей, столкнулась с жестким дефицитом. Производители Samsung, SK Hynix и Micron работали на пределе мощностей, сроки поставки растянулись до 6-12 месяцев.

Цены на память взлетели соответственно. Стоимость DRAM в некоторых категориях выросла более чем на 50% в 2025 году. Серверная память по контрактам подорожала до 50% за квартал, по данным Counterpoint Research. Samsung, по сообщениям, поднял цены на серверную память на 30-60%. Прогнозы указывают на дальнейший рост цен еще на 20% в начале 2026 года - спрос продолжает опережать расширение мощностей.

Дефицит не ограничился специализированными AI-компонентами. Запасы DRAM у поставщиков упали до 2-4 недель к октябрю 2025 года - с 13-17 недель в конце 2024, по данным TrendForce. SK Hynix сообщил аналитикам, что нехватка может сохраняться до конца 2027 года. Вся память, запланированная к производству в 2026 году, уже распродана.

Корпоративные AI-лаборатории ощутили это на себе. Крупные облачные провайдеры Google, Amazon, Microsoft и Meta разместили открытые заказы у Micron, заявив, что возьмут столько, сколько компания сможет поставить. Китайские фирмы Alibaba, Tencent и ByteDance давили на Samsung и SK Hynix за приоритетный доступ.

Давление распространилось на будущие годы. OpenAI подписал предварительные соглашения с Samsung и SK Hynix для проекта Stargate, требующего до 900 000 пластин ежемесячно к 2029 году - примерно вдвое больше сегодняшнего глобального месячного выпуска HBM.

Сроки внедрения растянулись за пределы прогнозов

Дефицит AI-чипов не просто увеличил затраты - он фундаментально изменил корпоративные сроки развертывания. Корпоративные кастомные AI-решения, которые обычно требовали 6-12 месяцев для полного внедрения в начале 2025 года, растянулись до 12-18 месяцев или дольше к концу года, по оценкам отраслевых аналитиков.

Партнер Bain & Company Питер Хэнбери, выступая на CNBC, отметил: сроки подключения к электросетям стали крупнейшим ограничителем роста дата-центров. Некоторые проекты сталкиваются с пятилетними задержками только для обеспечения доступа к электричеству. Фирма прогнозирует рост глобального потребления электроэнергии дата-центрами на 163 ГВт к 2030 году, большая часть связана с интенсивными вычислительными требованиями генеративного AI.

Глава Microsoft Сатья Наделла сформулировал парадокс в жестких выражениях: "Главная проблема сейчас не избыток вычислительных мощностей, а энергия - способность завершить строительство достаточно быстро рядом с источниками питания. Если вы не можете этого сделать, у вас может оказаться куча чипов на складе, которые я не могу подключить. Это моя проблема сегодня".

Традиционные технологические покупатели в корпоративной среде столкнулись с еще более крутыми вызовами. "Покупателям в этой среде придется переплачивать и делать ставки сейчас, чтобы обеспечить поставки позже", - предупредил Чад Бикли из Bain & Company в анализе марта 2025. "Планирование с учетом задержек в производстве может потребовать от покупателей принятия дорогостоящих запасов передовых технологических продуктов, которые могут быстро устареть".

Для практических рекомендаций по оптимизации AI-инфраструктуры посетите AI Projects.

Скрытые расходы усилили бюджетное давление

Видимый рост цен - HBM вырос на 20-30% год к году, облачные GPU подорожали на 40-300% в зависимости от региона - представлял лишь часть общего влияния на затраты. Организации обнаружили множество скрытых категорий расходов, которые не учитывались в котировках вендоров.

Мощности продвинутой упаковки стали критическим узким местом. Упаковка CoWoS от TSMC, необходимая для объединения HBM с AI-процессорами, была полностью забронирована до конца 2025 года. Спрос на эту технику интеграции взорвался по мере роста производства пластин, создав вторичное узкое место, добавившее месяцы к срокам поставки.

Инфраструктурные расходы за пределами чипов резко выросли. Корпоративные NVMe SSD подорожали на 15-20% по сравнению с годом ранее, поскольку AI-нагрузки требовали значительно более высокой выносливости и пропускной способности, чем традиционные приложения. Организации, планирующие AI-развертывания, обнаружили рост стоимости спецификаций на 5-10% только из-за увеличения цен на компоненты памяти, по анализу Bain.

Затраты на внедрение и управление еще больше усугубили ситуацию. Организации тратили от 50 000 до 250 000 долларов ежегодно на мониторинг, управление и инфраструктуру поддержки помимо основных лицензионных сборов. Превышения на основе использования вызывали неожиданные скачки ежемесячных платежей для команд с высокой плотностью AI-взаимодействий, особенно занимающихся интенсивным обучением моделей или частыми инференс-нагрузками.

Стратегические уроки для 2026 года и далее

Корпоративные лидеры, успешно прошедшие через дефицит AI-чипов 2025 года, вынесли выстраданные уроки, которые будут формировать стратегию закупок на годы вперед.

Диверсифицируйте поставки заранее: Организации, обеспечившие долгосрочные соглашения с несколькими вендорами до обострения дефицита, поддерживали более предсказуемые сроки развертывания, чем те, кто полагался на спотовые закупки.

Закладывайте бюджет на волатильность компонентов: Эра стабильного, предсказуемого ценообразования на инфраструктуру закончилась для AI-нагрузок. Технические директора научились закладывать 20-30% буферы затрат в бюджеты AI-инфраструктуры для поглощения колебаний цен на память и пробелов в доступности компонентов.

Оптимизируйте перед масштабированием: Техники вроде квантизации моделей, обрезки и оптимизации инференса сократили потребности в GPU на 30-70% в некоторых внедрениях. Организации, инвестировавшие в эффективность до наращивания железа, достигли лучшей экономики, чем те, кто фокусировался только на закупках.

Рассмотрите гибридные инфраструктурные модели: Мультиоблачные стратегии и гибридные установки, сочетающие облачные GPU с выделенными кластерами, улучшили надежность и предсказуемость затрат. Для высокообъемных AI-нагрузок владение или аренда инфраструктуры все чаще оказывалась более рентабельной, чем аренда облачных GPU по завышенным спотовым ценам.

Учитывайте геополитику в архитектурных решениях: Быстрые политические сдвиги вокруг экспорта чипов научили компании, что глобальная AI-инфраструктура не может предполагать стабильную регуляторную среду. Организации с присутствием в Китае научились проектировать архитектуры развертывания с учетом регуляторной гибкости.

Чтобы узнать больше о стратегиях адаптации к новым реалиям рынка AI, загляните на AI Projects.

Прогноз на 2026 год: продолжающиеся ограничения

Дисбаланс спроса и предложения не показывает признаков быстрого разрешения. Новые фабрики по производству чипов памяти строятся годами - большинство расширений мощностей, объявленных в 2025 году, не заработают до 2027 года или позже. Прогнозы SK Hynix предполагают сохранение дефицита как минимум до конца 2027 года.

Политика экспортного контроля остается изменчивой. Ожидается новое правило "Trump AI Controls" для замены более ранних рамок позже в 2025 году, вместе с потенциальным контролем экспорта в Малайзию и Таиланд, выявленные как маршруты перенаправления для Китая. Каждый политический сдвиг создает новые неопределенности в закупках для глобальных компаний.

Макроэкономические последствия выходят за рамки IT-бюджетов. Нехватка памяти может задержать сотни миллиардов инвестиций в AI-инфраструктуру, замедляя прирост производительности, на который компании поставили, оправдывая массивные расходы на AI. Рост стоимости компонентов грозит добавить инфляционное давление в момент, когда глобальные экономики остаются чувствительными к росту цен.

Главный вывод для корпоративных лидеров

Для руководителей компаний дефицит AI-чипов 2025 года преподал окончательный урок: программное обеспечение движется с цифровой скоростью, но железо движется с физической скоростью, а геополитика - с политической скоростью. Разрыв между этими тремя временными шкалами определяет, что реально развертывается - независимо от того, что обещают вендоры или проектируют дорожные карты.

Преуспели не те организации, у которых были самые большие бюджеты или самые амбициозные AI-видения. Это были те, кто понял, что в 2025 году реальность цепочки поставок важнее стратегических амбиций - и планировал соответственно.