Microsoft раскрыла план борьбы с AI-подделками в интернете
Дата публикации

Как AI превратил интернет в поле битвы за правду
Обман с помощью искусственного интеллекта проник во все уголки нашей цифровой жизни. Иногда это громкие скандалы - когда представители Белого дома распространяют отредактированное фото протестующего и насмехаются над теми, кто задает неудобные вопросы. В других случаях фальшивки незаметно просачиваются в ленты соцсетей и набирают миллионы просмотров, как видеоролики из российских пропагандистских кампаний, отговаривающие украинцев от мобилизации.
Именно в этой атмосфере цифрового хаоса Microsoft представила свою дорожную карту для проверки подлинности онлайн-контента. Документ был передан изданию MIT Technology Review.
Что предлагает Microsoft для борьбы с фейками
Группа специалистов по безопасности AI из Microsoft изучила, насколько эффективны существующие методы выявления цифровых манипуляций против современных угроз - интерактивных дипфейков и доступных всем гиперреалистичных моделей. Результатом стали технические стандарты, которые могут принять AI-компании и социальные платформы.
Представьте, что вы владеете картиной Рембрандта и хотите доказать ее подлинность. Вы бы составили детальную историю происхождения полотна, указав всех предыдущих владельцев. Добавили бы водяной знак, невидимый для человека, но считываемый машиной. И создали бы цифровой скан, генерирующий математическую подпись на основе мазков кисти - своего рода отпечаток пальца. Посетитель музея мог бы проверить все эти доказательства и убедиться в оригинальности произведения.
Все эти подходы уже используются для проверки контента в сети, но в разной степени. Microsoft протестировала 60 различных комбинаций таких методов, моделируя их работу в разных сценариях сбоев - от удаления метаданных до намеренных искажений контента. Команда определила, какие сочетания дают надежные результаты для показа пользователям, а какие настолько ненадежны, что только усилят путаницу.
Почему Microsoft взялась за эту задачу
Главный научный директор компании Эрик Хорвиц объясняет, что толчком стало законодательство - например, Закон о прозрачности AI в Калифорнии, который вступит в силу в августе - и скорость развития AI, способного объединять видео и голос с поразительной точностью.
"Можно назвать это саморегулированием", - говорит Хорвиц. Но очевидно, что он видит в этой работе способ улучшить имидж Microsoft: "Мы также стремимся стать выбранным, желанным поставщиком для людей, которые хотят знать, что происходит в мире".
Тем не менее Хорвиц отказался гарантировать, что Microsoft будет использовать собственные рекомендации на своих платформах. Компания находится в центре гигантской экосистемы AI-контента: она управляет Copilot, генерирующим изображения и тексты; предоставляет Azure - облачный сервис для доступа к OpenAI и другим крупным AI-моделям; владеет LinkedIn, одной из крупнейших профессиональных платформ в мире; и имеет значительную долю в OpenAI. На вопрос о внутреннем внедрении Хорвиц ответил в заявлении: "Продуктовые группы и руководители по всей компании участвовали в этом исследовании для формирования дорожных карт продуктов и инфраструктуры, и наши инженерные команды предпринимают действия на основе выводов отчета".
Хотите узнать, как защитить свой бизнес от AI-манипуляций и внедрить передовые технологии проверки контента? Эксперты AI Projects помогут разработать индивидуальную стратегию цифровой безопасности.
Ограничения технологии - что она может и не может
Важно понимать, что у этих инструментов есть естественные границы. Как они не расскажут вам о смысле картины Рембрандта, так и не определят точность контента. Они только выявляют факт манипуляции. Хорвиц подчеркивает, что постоянно объясняет этот момент законодателям и тем, кто скептически относится к Big Tech как арбитру истины.
"Речь не о принятии решений о том, что правда, а что нет", - говорит он. "Речь о создании меток, которые просто показывают людям, откуда взялся контент".
Хэни Фарид, профессор Калифорнийского университета в Беркли, специализирующийся на цифровой криминалистике (он не участвовал в исследовании Microsoft), утверждает: если индустрия примет план компании, обманывать публику манипулированным контентом станет значительно сложнее. Опытные хакеры или государства могут обходить такие инструменты, но новый стандарт способен устранить существенную долю вводящего в заблуждение материала.
"Я не думаю, что это решает проблему полностью, но это убирает хороший большой кусок", - говорит он.
Почему технооптимизм Microsoft может быть наивным
Есть основания рассматривать подход Microsoft как пример несколько наивного технооптимизма. Растет количество доказательств того, что люди поддаются влиянию AI-сгенерированного контента, даже когда знают о его фальшивости. В недавнем исследовании пророссийских AI-роликов о войне в Украине комментарии, указывающие на искусственное происхождение видео, получали гораздо меньше откликов, чем комментарии, воспринимающие их как настоящие.
"Есть ли люди, которые, что бы вы им ни говорили, будут верить в то, во что хотят верить?" - спрашивает Фарид. "Да". Но, добавляет он, "подавляющее большинство американцев и граждан по всему миру действительно хотят знать правду".
Почему технологические гиганты медлят с внедрением
Это желание пока не привело к срочным действиям со стороны технологических компаний. Google начал добавлять водяные знаки к контенту, созданному его AI-инструментами, в 2023 году, что, по словам Фарида, помогло в его расследованиях. Некоторые платформы используют C2PA - стандарт происхождения, запущенный Microsoft в 2021 году. Но полный набор изменений, предлагаемых Microsoft, какими бы мощными они ни были, может остаться лишь предложениями, если они угрожают бизнес-моделям AI-компаний или социальных платформ.
"Если Марк Цукерберг и Илон Маск считают, что метки 'Создано AI' снизят вовлеченность, то, конечно, у них есть стимул этого не делать", - говорит Фарид. Платформы вроде Meta и Google уже заявили о намерении включать метки для AI-контента, но аудит, проведенный Indicator в прошлом году, показал, что только 30% тестовых публикаций в Instagram, LinkedIn, Pinterest, TikTok и YouTube были корректно помечены как созданные AI.
Роль законодательства в борьбе с AI-фейками
Более решительные шаги к проверке контента могут прийти из множества законопроектов по регулированию AI, находящихся на рассмотрении по всему миру. Закон об AI Европейского союза, а также предлагаемые правила в Индии и других странах обязали бы AI-компании требовать какой-либо формы раскрытия информации о том, что контент создан с помощью AI.
Один из приоритетов Microsoft - неудивительно - сыграть роль в формировании этих правил. Компания вела лоббистскую кампанию во время разработки Закона о прозрачности AI в Калифорнии, что, по словам Хорвица, сделало требования законодательства к раскрытию AI-контента "немного более реалистичными".
Но есть и реальная обеспокоенность тем, что может произойти, если внедрение технологии проверки контента будет проведено плохо. Законодатели требуют инструменты, способные проверить подлинность, но эти инструменты хрупкие. Если системы маркировки будут поспешно запущены, непоследовательно применены или часто ошибочны, люди могут полностью потерять к ним доверие, и все усилия обернутся провалом. Поэтому исследователи утверждают, что в некоторых случаях лучше не показывать ничего, чем вердикт, который может оказаться неверным.
Неадекватные инструменты также могут создать новые возможности для так называемых социотехнических атак. Представьте, что кто-то берет настоящее изображение острого политического события и использует AI-инструмент, чтобы изменить лишь незначительную долю пикселей. Когда оно распространяется онлайн, платформы могут ошибочно классифицировать его как манипулированное AI. Но комбинация инструментов проверки происхождения и водяных знаков позволила бы платформам уточнить, что контент был лишь частично изменен AI, и указать, где были внесены изменения.
Калифорния как испытательный полигон
Закон о прозрачности AI в Калифорнии станет первым крупным тестом этих инструментов в США, но исполнение может быть затруднено указом президента Трампа от конца прошлого года, направленным на ограничение государственных регуляций AI, которые являются "обременительными" для индустрии. Администрация также в целом заняла позицию против усилий по сдерживанию дезинформации, а в прошлом году через DOGE отменила гранты, связанные с борьбой против дезинформации. И, конечно, официальные правительственные каналы в администрации Трампа распространяли контент, манипулированный с помощью AI (MIT Technology Review сообщил, что Министерство внутренней безопасности, например, использует видеогенераторы от Google и Adobe для создания контента, который делится с общественностью).
На вопрос, беспокоит ли его фейковый контент из этого источника так же сильно, как из остальных соцсетей, Хорвиц сначала отказался комментировать, но затем сказал: "Правительства не были в стороне от секторов, стоящих за различными видами манипулятивной дезинформации, и это происходит по всему миру".
Готовы внедрить надежные системы проверки контента и защитить свою компанию от AI-угроз? Команда AI Projects предлагает комплексные решения для бизнеса любого масштаба.
Выводы - что дальше
План Microsoft представляет собой амбициозную попытку навести порядок в хаосе AI-контента. Технология проверки подлинности может существенно затруднить массовое распространение фейков, но она не панацея. Успех зависит от готовности технологических гигантов жертвовать краткосрочной прибылью ради долгосрочного доверия пользователей, от грамотного законодательного регулирования и от желания самих людей отличать правду от лжи. Битва за подлинность в интернете только начинается, и Microsoft делает первый серьезный ход.