Эксперты по безопасности ИИ не сдаются: 5 причин их уверенности

Дата публикации

Почему разочарование в GPT-5 не изменило взглядов экспертов

Последние полгода стали настоящим испытанием для сообщества специалистов по безопасности ИИ. Выход GPT-5 в августе прошлого года многие восприняли как провал - модель оказалась далека от обещанного "эксперта уровня PhD" во всех областях. Технические баги, странное решение OpenAI временно закрыть доступ к старым моделям и ощущение, что новая версия в повседневном использовании даже хуже предыдущей, создали впечатление застоя.

Но двадцать ведущих исследователей и экспертов, с которыми мы поговорили, смотрят на ситуацию совершенно иначе. Джеффри Хинтон, получивший Нобелевскую премию по физике за пионерскую работу в области глубокого обучения, отмечает: если посмотреть на научные данные и тренды, GPT-5 находится ровно там, где и должен быть на этом этапе развития.

"Некоторые люди подумали, что GPT-5 означает, что мы упёрлись в стену, но это не совсем то, что показывают научные данные", - объясняет Йошуа Бенжио, обладатель премии Тьюринга. По его словам, если взглянуть на различные бенчмарки, модели сейчас показывают именно те результаты, которые ожидались. Более того, в областях, где ИИ-системы раньше справлялись плохо - например, в тестах Humanity's Last Exam или FrontierMath - они демонстрируют значительно лучшие показатели, чем в начале года.

Временные рамки сдвинулись, но угроза осталась реальной

Одно из главных заблуждений критиков - уверенность, что сторонники безопасности ИИ всегда предсказывали скорое появление AGI. "Это вообще не про неизбежность", - подчеркивает Стюарт Рассел, профессор Беркли и автор книги "Human Compatible". Большинство опрошенных специалистов признают, что их прогнозы немного изменились за последний год - сроки появления опасных систем слегка удлинились.

Джеффри Лэдиш, исполнительный директор Palisade Research, делится своими обновленными оценками. За последний год два фактора повлияли на его прогнозы. Во-первых, нехватка качественных данных оказалась более серьезной проблемой, чем он ожидал. Во-вторых, первая "рассуждающая" модель o1 от OpenAI показала, что обучение с подкреплением работает эффективнее, чем предполагалось. В итоге его медианная оценка начала полностью автоматизированных исследований и разработок в области ИИ сдвинулась с трех лет до примерно пяти-шести.

"Слава богу, у нас есть больше времени", - говорит Лэдиш. Но он тут же добавляет важную оговорку: это всё равно очень короткий срок, чтобы понять системы до того, как они станут достаточно способными и стратегическими, чтобы представлять реальную угрозу нашей способности их контролировать.

Для практических рекомендаций по внедрению безопасных ИИ-решений стоит обратиться к экспертам AI Projects, которые специализируются на ответственной разработке технологий.

Почему срочность не исчезла, даже если AGI далеко

Хелен Тонер, бывший член совета директоров OpenAI и исполнительный директор Центра безопасности и новых технологий Джорджтаунского университета, обращает внимание на важный момент: одна из главных историй эпохи ChatGPT - это драматическое сжатие прогнозов появления AGI во всем мире ИИ. Долгое время AGI ожидался через много десятилетий. Теперь большинство предсказаний варьируются от нескольких лет до 20 лет.

"Даже если у нас есть немного больше времени, это всё равно огромная чертова проблема", - говорит Тонер. По её мнению, если AGI возможен в течение следующих 30 лет, над этим должно работать множество людей.

Стюарт Рассел приводит яркую аналогию: "Если бы кто-то сказал, что астероид диаметром четыре мили врежется в Землю в 2067 году, мы бы не сказали: 'Напомни мне в 2066, и мы подумаем об этом'". Вопрос безопасности ИИ - не про неизбежность, а про то, что у нас до сих пор нет решения проблемы контроля.

Дэвид Крюгер, профессор машинного обучения в Монреальском университете, подчеркивает: даже если опасный ИИ появится через несколько десятилетий, это уже срочная проблема. "Нам нужны десятилетия для решения проблемы международной координации. Так что даже если опасный ИИ далеко, это уже актуально", - объясняет он.

Что раздражает экспертов в текущей ситуации

Многие специалисты выражают разочарование реакцией политиков и общественности. Дэниел Кокотайло, бывший сотрудник OpenAI и ведущий автор прогноза "AI 2027", называет твиты советника Белого дома по ИИ Срирама Кришнана и "ИИ-царя" администрации Трампа Дэвида Сакса "безумными и/или нечестными".

Оба чиновника публично заявили, что "нарративы думеров были ошибочны" и что "представление о неизбежном AGI было отвлекающим маневром и вредным, а теперь фактически доказано ошибочным". Для экспертов по безопасности это звучит как передергивание фактов.

"Мы сказали на первой странице 'AI 2027', что наши временные рамки несколько длиннее, чем 2027", - напоминает Кокотайло. Он и его коллеги ожидали, что в 2028 году появится множество критиков, которые будут торжествующе заявлять об их дискредитации. Но они продолжают считать, что взрыв интеллекта, вероятно, произойдет в течение следующих 5-10 лет.

Хелен Тонер беспокоится о другом аспекте: "Я переживаю, что некоторые агрессивные оценки сроков появления AGI от части людей из сообщества безопасности ИИ создают для них ситуацию 'мальчика, который кричал "волки"'". Когда предсказания о появлении AGI в 2027 году не сбудутся, люди скажут: "Посмотрите на всех этих людей, которые выставили себя дураками. Вы никогда больше не должны их слушать".

Прогресс продолжается, просто стал менее заметным

Одна из ключевых проблем - прогресс ИИ становится менее очевидным для обычных людей. Джеффри Лэдиш объясняет: "Если вы спросите GPT-4 и GPT-5, почему небо голубое, они дадут вам практически одинаковый ответ. Это правильный ответ. Способность объяснить, почему небо голубое, уже достигла насыщения".

Но это не означает отсутствие прогресса. Люди, которые лучше всего понимают развитие ИИ сейчас - это те, кто действительно строит с помощью ИИ или использует его для решения очень сложных научных задач. В некоторых областях прогресс очевиден - например, Sora 2 явно и значительно лучше предыдущих версий. Но в других сферах улучшения менее заметны неспециалистам.

Йошуа Бенжио подчеркивает: "Это не только GPT-5, это Claude и модели Google тоже. В некоторых областях, где ИИ-системы не были очень хороши, они получают гораздо лучшие оценки сейчас, чем в начале года".

Почему эксперты не сдаются

Несмотря на сложный момент, специалисты по безопасности ИИ остаются глубоко преданными своему делу. Их главный тезис прост: неважно, когда именно придет AGI (а они говорят, что это очень вероятно), мир далек от готовности.

Джеффри Хинтон выражает эту позицию так: "Есть огромная неопределенность во всём. Мы никогда не были здесь раньше. Любой, кто уверен, что знает, что произойдет, кажется мне глупым". Но на основе баланса доказательств, по его мнению, справедливо сказать, что большинство экспертов, которые много знают об ИИ, считают очень вероятным, что у нас будет сверхинтеллект в течение следующих 20 лет.

Стюарт Рассел указывает на важный момент о рисках: "Приемлемый уровень риска для ядерной электростанции - примерно один на миллион в год. Вымирание намного хуже этого. Так что, может быть, установить приемлемый риск на уровне один на миллиард. Но компании говорят, что это что-то вроде один к пяти. Они не знают, как сделать это приемлемым. И это проблема".

Для получения консультаций по безопасной интеграции ИИ-технологий в бизнес-процессы рекомендуем обратиться к специалистам AI Projects.

Выводы: время есть, но его всё равно мало

Главный вывод из разговоров с ведущими экспертами по безопасности ИИ: они не чувствуют себя побежденными или потерянными. Да, их прогнозы немного скорректировались - AGI теперь ожидается через 5-20 лет вместо более коротких сроков. Но это не делает проблему менее актуальной.

Как отмечает Дэниел Кокотайло: "Я чувствую себя довольно хорошо по поводу более длинных временных рамок до AGI. Это похоже на то, как будто я только что получил лучший прогноз от своего врача. Но ситуация в основном остается той же".

Эксперты продолжают настаивать на необходимости серьезного регулирования и подготовки к появлению сверхразумных систем. Их беспокоит, что прогресс в политике - принятие закона ЕС об ИИ, первый крупный американский закон о безопасности ИИ SB 53 в Калифорнии, новый интерес Конгресса к рискам AGI - может быть остановлен из-за чрезмерной реакции на краткосрочные неудачи в соответствии ожиданиям.

В конечном счете, даже если у человечества появилось чуть больше времени, мир категорически не готов к тому, что может произойти. И это делает работу по безопасности ИИ не менее, а возможно, даже более важной.