Почему защита от ИИ-фейков провалилась: 3 шокирующих факта
Дата публикации

Кризис доверия уже здесь
Представьте: вы видите фотографию, которая вызывает сильные эмоции. Позже выясняется, что изображение отредактировано с помощью ИИ. Логично предположить, что разоблачение обнулит эффект, верно? Как бы не так. Недавнее исследование показало: даже когда люди знают, что смотрят на дипфейк, они все равно принимают решения под его влиянием.
В январе Белый дом опубликовал цифровую фотографию женщины, арестованной на протесте против ICE. Снимок изменили так, что она выглядела истеричной и рыдающей. Заместитель директора по коммуникациям Белого дома Кейлан Дорр не стал отвечать на вопросы о манипуляции, написав лишь: «Мемы продолжатся».
Примерно в то же время новостная сеть MS Now (бывшая MSNBC) показала в эфире ИИ-отредактированное изображение Алекса Претти, которое сделало его более привлекательным. Представитель MS Now заявил изданию Snopes, что редакция не знала о редактировании.
Эти два случая нельзя ставить в один ряд. Первый - правительство публикует явно измененное фото и отказывается объясняться. Второй - новостная организация допустила ошибку, но признала промах. Разница колоссальная.
Инструменты проверки не справляются
Годы предупреждений об ИИ-кризисе строились на простой идее: если мы не сможем отличить реальное от фальшивого, нас ждет катастрофа. Решение казалось очевидным - создать инструменты независимой проверки истины.
В 2024 году много говорили о Content Authenticity Initiative - проекте, созданном Adobe совместно с крупными технологическими компаниями. Система должна была прикреплять к контенту метки с информацией о создании: когда, кем и использовался ли ИИ. Звучало многообещающе.
Реальность оказалась печальнее. Даже сама Adobe применяет эти метки только к полностью сгенерированному ИИ-контенту, игнорируя частично отредактированные материалы. Платформы вроде X могут просто удалять такие метки при загрузке. Сайт Пентагона DVIDS, который должен был показывать метки для подтверждения подлинности, сегодня их не отображает.
Получается, технология есть, но работает она выборочно или не работает вообще.
Правда больше не защищает от манипуляций
Самое тревожное открытие пришло из исследования, опубликованного в журнале Communications Psychology. Участникам показывали дипфейк-«признание» в преступлении. Затем им прямо говорили, что видео поддельное. Казалось бы, эффект должен исчезнуть.
Но нет. Люди продолжали полагаться на фальшивое признание, оценивая виновность человека. Эмоциональное воздействие пережило разоблачение.
«Прозрачность помогает, но сама по себе недостаточна», - написал эксперт по дезинформации Кристофер Неринг. «Нам нужен новый мастер-план борьбы с дипфейками».
Фотография арестованной женщины от Белого дома получила огромный охват даже после того, как пользователи добавили пометку о редактировании. Люди видели, что снимок изменен, но это не остановило распространение.
Для практических рекомендаций по защите от ИИ-манипуляций посетите AI Projects - там собраны актуальные решения для бизнеса и частных лиц.
Государство активно использует ИИ-генераторы
Министерство внутренней безопасности США официально подтвердило использование ИИ-генераторов видео от Google и Adobe для создания публичного контента. Это первое такое признание.
Временные рамки говорят сами за себя: иммиграционные агентства наводнили социальные сети материалами в поддержку программы массовой депортации президента Трампа. Некоторые ролики явно созданы с помощью ИИ - например, видео о «Рождестве после массовых депортаций».
Инструменты для генерации и редактирования контента становятся мощнее, проще в использовании и дешевле. Неудивительно, что правительство все чаще платит за их применение.
Оружие сомнения
Реакция читателей на новость об использовании ИИ правительством разделилась на два лагеря. Первые не удивились - мол, после истории с фотографией от Белого дома чего еще ждать. Вторые не увидели проблемы - дескать, новостные организации делают то же самое, так что «око за око».
Обе реакции показывают, насколько глубока проблема. Люди либо смирились с манипуляциями, либо считают их нормой для всех.
Мы готовились к миру, где главная опасность - путаница между реальным и фальшивым. Вместо этого мы попали в реальность, где влияние переживает разоблачение, сомнение легко превращается в оружие, а установление истины не служит кнопкой сброса.
Отставание защитников правды
Защитники истины катастрофически отстают. Пока эксперты разрабатывали системы меток и проверки подлинности, манипуляторы научились обходить эти барьеры или игнорировать их.
Платформы не обязаны показывать метки. Правительственные структуры могут использовать ИИ без раскрытия информации. Даже когда обман вскрывается, эмоциональный след остается.
Клип с отредактированным фото Алекса Претти разлетелся по интернету, попав даже в подкаст Джо Рогана. Миллионы людей увидели его, и далеко не все узнали о том, что изображение было изменено.
Для защиты вашего бизнеса от ИИ-угроз и эффективного использования технологий обращайтесь к специалистам AI Projects.
Что дальше
Мы вступили в эпоху, когда технические решения проверки подлинности недостаточны. Нужны новые подходы - образовательные программы, законодательное регулирование, этические стандарты для создателей контента.
Исследование о дипфейк-признаниях показывает: человеческая психология уязвима перед манипуляциями даже при осознании обмана. Значит, защита должна включать не только проверку фактов, но и понимание механизмов влияния.
Правительственные структуры используют ИИ все активнее. Новостные организации допускают ошибки. Платформы не справляются с контролем. В этих условиях общественное доверие размывается быстрее, чем мы успеваем его восстанавливать.
Время действовать - сейчас. Пока разрыв между манипуляторами и защитниками правды не стал непреодолимым.