
Искусственный интеллект изменил правила игры в онлайн-пространстве, и теперь отличить правду от лжи становится все сложнее. Недавно Белый дом поделился манипулированным снимком протестующего, а российские боты наводняют соцсети фейковыми роликами о войне в Украине. В ответ на этот хаос Microsoft представила детальный план проверки подлинности контента. Команда исследователей безопасности AI протестировала 60 различных методов выявления цифровых манипуляций и предложила стандарты для AI-компаний и социальных платформ. Эти инструменты работают как экспертиза картины Рембрандта - проверяют происхождение, добавляют невидимые водяные знаки и создают цифровые отпечатки. Однако эксперты предупреждают: технология не всесильна. Она показывает только факт изменения контента, но не определяет его достоверность. Более того, исследования доказывают, что люди верят AI-фейкам даже когда знают об их искусственном происхождении. Главный вопрос остается открытым - захотят ли гиганты вроде Meta и X внедрять эти решения, если они снизят вовлеченность пользователей и ударят по прибыли.










