Как хакеры из 4 стран используют ИИ для кибератак - шокирующие факты

Дата публикации

Государственные хакеры превращают ИИ в кибероружие

Государственные хакерские группировки научились использовать возможности искусственного интеллекта для ускорения и усиления своих атак. Согласно свежему отчету Google Threat Intelligence Group (GTIG), злоумышленники из Ирана, Северной Кореи, Китая и России активно применяют AI-модели, включая Google Gemini, для создания сложных фишинговых схем и разработки вредоносного программного обеспечения.

Квартальный отчет AI Threat Tracker показывает шокирующую тенденцию: киберпреступники, работающие на правительства, внедрили искусственный интеллект во все стадии атак. В последнем квартале 2025 года они достигли значительного роста производительности в разведке, социальной инженерии и создании малвари.

"Для хакеров, поддерживаемых государствами, большие языковые модели превратились в незаменимые инструменты технических исследований, выбора целей и быстрого создания детализированных фишинговых приманок", - отмечают специалисты GTIG.

Иранские хакеры используют Gemini для разведки в оборонном секторе

Иранская группировка APT42 применяет Gemini для усиления разведывательных операций и целенаправленной социальной инженерии. Злоумышленники используют AI-модель для сбора официальных email-адресов конкретных организаций и проведения исследований, чтобы создавать правдоподобные легенды для контакта с жертвами.

Загружая в Gemini биографию потенциальной цели, APT42 создает убедительные персонажи и сценарии, рассчитанные на вовлечение жертвы в диалог. Группа также использует ИИ для перевода между языками и понимания незнакомых фраз - эти возможности помогают государственным хакерам обходить традиционные признаки фишинга вроде грамматических ошибок или неестественного синтаксиса.

Северокорейская хакерская группа UNC2970, специализирующаяся на атаках в оборонной сфере и выдающая себя за корпоративных рекрутеров, применяет Gemini для анализа открытых источников и составления профилей ценных целей. Разведка группы включает поиск информации о крупных компаниях в сфере кибербезопасности и обороны, определение конкретных технических должностей и сбор данных о зарплатах.

"Эта деятельность стирает границу между обычными профессиональными исследованиями и злонамеренной разведкой, поскольку злоумышленники собирают необходимые компоненты для создания персонализированных, высококачественных фишинговых персонажей", - подчеркивает GTIG.

Для получения практических рекомендаций по защите от AI-атак посетите AI Projects, где эксперты делятся актуальными решениями.

Взрывной рост атак на AI-модели для кражи технологий

Помимо операционного злоупотребления, Google DeepMind и GTIG зафиксировали резкое увеличение попыток извлечения моделей - так называемых "атак дистилляции", нацеленных на кражу интеллектуальной собственности из AI-систем.

Одна кампания, направленная на способности Gemini к рассуждениям, включала более 100 000 запросов, спроектированных так, чтобы заставить модель выдать полные процессы рассуждений. Широта вопросов указывает на попытку воспроизвести способность Gemini к рассуждениям на неанглийских целевых языках в различных задачах.

Хотя GTIG не наблюдала прямых атак на передовые модели со стороны продвинутых постоянных угроз, команда выявила и пресекла частые атаки извлечения моделей от частных компаний по всему миру и исследователей, стремящихся клонировать проприетарную логику. Системы Google распознали эти атаки в реальном времени и развернули защиту для охраны внутренних следов рассуждений.

Появление вредоносов с интеграцией искусственного интеллекта

GTIG обнаружила образцы вредоносного ПО, отслеживаемого как HONESTCUE, которое использует API Gemini для аутсорсинга генерации функциональности. Малварь спроектирована так, чтобы подрывать традиционное сетевое обнаружение и статический анализ через многослойный подход к обфускации.

HONESTCUE работает как фреймворк загрузчика и запуска, отправляющий промпты через API Gemini и получающий в ответ исходный код на C#. Бесфайловая вторая стадия компилирует и исполняет полезные нагрузки напрямую в памяти, не оставляя следов на диске.

Отдельно GTIG идентифицировала COINBAIT - фишинговый набор, создание которого, вероятно, было ускорено инструментами генерации кода с помощью ИИ. Набор маскируется под крупную криптовалютную биржу для сбора учетных данных и был построен с использованием AI-платформы Lovable AI.

ClickFix-кампании злоупотребляют AI-чат-платформами

В новаторской кампании социальной инженерии, впервые замеченной в декабре 2025 года, Google обнаружила, как злоумышленники злоупотребляют функциями публичного обмена генеративных AI-сервисов - включая Gemini, ChatGPT, Copilot, DeepSeek и Grok - для размещения обманного контента, распространяющего малварь ATOMIC, нацеленную на системы macOS.

Атакующие манипулировали AI-моделями для создания реалистично выглядящих инструкций для обычных компьютерных задач, встраивая вредоносные скрипты командной строки в качестве "решения". Создавая общедоступные ссылки на эти транскрипты чатов с ИИ, киберпреступники использовали доверенные домены для размещения начальной стадии атаки.

Трехэтапная цепочка атак ClickFix эксплуатирует доверие пользователей к AI-платформам, превращая безобидные на вид диалоги в смертельные ловушки.

Подпольный рынок процветает на украденных API-ключах

Наблюдения GTIG за англоязычными и русскоязычными подпольными форумами указывают на устойчивый спрос на инструменты и сервисы с поддержкой ИИ. Однако государственные хакеры и киберпреступники испытывают трудности с разработкой собственных AI-моделей, вместо этого полагаясь на зрелые коммерческие продукты, доступ к которым осуществляется через украденные учетные данные.

Один набор инструментов, "Xanthorox", рекламировал себя как кастомный ИИ для автономной генерации малвари и разработки фишинговых кампаний. Расследование GTIG показало, что Xanthorox не является специализированной моделью, а на самом деле работает на нескольких коммерческих AI-продуктах, включая Gemini, доступ к которым осуществляется через украденные API-ключи.

Эта находка раскрывает грязную изнанку AI-революции: преступники не создают собственные технологии, а крадут доступ к легитимным сервисам.

Ответ Google и меры защиты

Google предприняла действия против выявленных киберугроз, отключив аккаунты и ресурсы, связанные со злонамеренной деятельностью. Компания также применила полученную разведывательную информацию для усиления классификаторов и моделей, позволяя им отказывать в помощи при похожих атаках в будущем.

"Мы привержены смелой и ответственной разработке ИИ, что означает проактивные шаги по пресечению злонамеренной деятельности через отключение проектов и аккаунтов, связанных с плохими актерами, при одновременном постоянном улучшении наших моделей, чтобы сделать их менее восприимчивыми к злоупотреблениям", - говорится в отчете.

GTIG подчеркивает, что, несмотря на эти события, ни одна APT-группа или актор информационных операций не достигла прорывных способностей, которые фундаментально изменили бы ландшафт угроз.

Находки подчеркивают эволюционирующую роль искусственного интеллекта в кибербезопасности, поскольку и защитники, и атакующие соревнуются в использовании возможностей технологии.

Что это значит для бизнеса

Для команд корпоративной безопасности, особенно в Азиатско-Тихоокеанском регионе, где китайские и северокорейские государственные хакеры остаются активными, отчет служит важным напоминанием о необходимости усиления защиты от социальной инженерии и разведывательных операций, усиленных искусственным интеллектом.

Эксперты AI Projects рекомендуют организациям пересмотреть свои стратегии кибербезопасности с учетом новых AI-угроз и внедрить многоуровневую защиту.

Гонка вооружений в киберпространстве вышла на новый уровень. Искусственный интеллект больше не просто помощник - он стал полноценным оружием в руках тех, кто готов его использовать для атак. Вопрос не в том, будут ли хакеры использовать ИИ, а в том, насколько быстро мы сможем адаптировать наши защитные механизмы к этой новой реальности.