Как GPT-5 меняет науку: 7 фактов о новой эре

Дата публикации

Почему OpenAI взялась за науку прямо сейчас

Три года назад ChatGPT взорвал интернет. С тех пор технология OpenAI проникла во все сферы жизни - от домашних дел до офисной работы и образования. Теперь компания нацелилась на новую аудиторию - ученых.

В октябре OpenAI объявила о создании отдельной команды OpenAI for Science. Ее задача - исследовать, как большие языковые модели могут помочь научному сообществу, и адаптировать инструменты под их нужды.

Последние месяцы соцсети и научные журналы заполнились историями математиков, физиков и биологов, которые рассказывают, как GPT-5 помог им сделать открытие или подтолкнул к решению, которое они могли бы упустить. Команда OpenAI for Science была создана именно для работы с такими энтузиастами.

Но компания опоздала к празднику. Google DeepMind, создатель революционных научных моделей вроде AlphaFold и AlphaEvolve, работает с учеными уже много лет. Когда в 2023 году CEO DeepMind Демис Хассабис рассказывал об этом направлении, он сказал прямо: «Именно ради этого я основал DeepMind. Собственно, ради этого я всю карьеру работаю в сфере ИИ».

Так зачем OpenAI понадобилось входить в науку именно сейчас? Как это вписывается в общую стратегию компании? И чего они вообще хотят добиться?

С этими вопросами я обратился к Кевину Вейлу, вице-президенту OpenAI, который возглавляет новую команду.

От физики к продуктам - и обратно

Вейл - продуктовый человек. Он пришел в OpenAI пару лет назад на должность главного продуктового директора после работы в Twitter и Instagram. Но начинал он как ученый. Прошел две трети пути к PhD по физике элементарных частиц в Стэнфорде, прежде чем бросил академию ради мечты Кремниевой долины.

Вейл любит подчеркивать свое научное прошлое: «Я думал, что буду профессором физики до конца жизни. До сих пор читаю книги по математике в отпуске».

Когда я спросил, как OpenAI for Science вписывается в линейку офисных инструментов компании или вирусное приложение Sora, Вейл процитировал мантру фирмы: «Миссия OpenAI - создать искусственный общий интеллект и сделать его полезным для всего человечества».

Просто представьте, какое влияние эта технология окажет на науку в будущем, говорит он. Новые лекарства, материалы, устройства. «Подумайте о том, как она поможет нам понять природу реальности, проработать открытые вопросы. Возможно, самое большое позитивное влияние AGI мы увидим именно в ускорении науки».

Он добавляет: «С GPT-5 это стало возможным».

По словам Вейла, языковые модели теперь достаточно хороши, чтобы стать полезными научными партнерами. Они могут генерировать идеи, предлагать новые направления исследований и находить плодотворные параллели между свежими проблемами и старыми решениями из малоизвестных журналов или статей на иностранных языках.

Год назад такого не было. С декабря 2024 года, когда OpenAI анонсировала первую так называемую reasoning-модель (тип языковой модели, способной разбивать задачи на шаги и прорабатывать их поочередно), компания расширяет границы возможного.

Модели рассуждения сделали языковые модели намного лучше в решении математических и логических задач. «Вернитесь на несколько лет назад - мы все были в восторге, что модели могут набрать 800 баллов на SAT», - говорит Вейл.

Но вскоре модели стали побеждать в математических олимпиадах и решать задачи уровня аспирантуры по физике. В прошлом году и OpenAI, и Google DeepMind объявили, что их модели достигли золотого уровня на Международной математической олимпиаде - одном из самых сложных математических состязаний в мире. «Эти модели уже не просто лучше 90% аспирантов. Они действительно на переднем крае человеческих способностей».

Это смелое заявление, и оно требует оговорок. Тем не менее, GPT-5 с его reasoning-компонентом - это огромный шаг вперед по сравнению с GPT-4 в сложных задачах. По отраслевому бенчмарку GPQA, который включает более 400 вопросов с несколькими вариантами ответов на уровне PhD по биологии, физике и химии, GPT-4 набирает 39% - намного ниже человеческого базового уровня около 70%. По данным OpenAI, GPT-5.2 (последнее обновление модели, выпущенное в декабре) набирает 92%.

Если вам интересно, как применить ИИ в вашем бизнесе или исследованиях, загляните на сайт AI Projects за практическими рекомендациями.

Когда хайп заходит слишком далеко

Восторг очевиден - и, возможно, чрезмерен. В октябре топ-менеджеры OpenAI, включая Вейла, хвастались в X, что GPT-5 нашел решения нескольких нерешенных математических задач. Математики быстро указали, что на самом деле GPT-5, похоже, просто откопал существующие решения в старых научных работах, включая как минимум одну на немецком языке. Это все равно полезно, но не то достижение, на которое намекала OpenAI. Вейл и его коллеги удалили свои посты.

Теперь Вейл осторожнее. Часто достаточно найти ответы, которые существуют, но были забыты, говорит он: «Мы все стоим на плечах гигантов, и если модели могут накопить это знание, чтобы мы не тратили время на борьбу с уже решенной проблемой - это само по себе ускорение».

Он преуменьшает идею, что модели вот-вот совершат революционное открытие. «Не думаю, что модели уже там. Может, доберутся. Я оптимистичен на этот счет».

Но, настаивает он, это не цель: «Наша миссия - ускорить науку. И я не думаю, что планка для ускорения науки - это переосмысление целой области на уровне Эйнштейна».

Для Вейла вопрос звучит так: «Происходит ли наука быстрее, потому что ученые плюс модели могут сделать гораздо больше и быстрее, чем ученые в одиночку? Думаю, мы уже это видим».

Что говорят сами ученые

В ноябре OpenAI опубликовала серию кейсов от ученых внутри и за пределами компании, которые показали, как они использовали GPT-5 и чем он помог. «Большинство случаев - это ученые, которые уже применяли GPT-5 напрямую в исследованиях и так или иначе пришли к нам со словами: посмотрите, что я могу делать с этими инструментами», - говорит Вейл.

Ключевые вещи, в которых хорош GPT-5: поиск ссылок и связей с существующими работами, о которых ученые не знали (что иногда рождает новые идеи), помощь в набросках математических доказательств и предложения способов проверки гипотез в лаборатории.

«GPT-5.2 прочитал практически все статьи, написанные за последние 30 лет», - говорит Вейл. «И он понимает не только область, в которой работает конкретный ученый - он может собирать аналогии из других, несвязанных областей».

«Это невероятно мощно. Вы всегда можете найти человека-коллегу в смежной области, но сложно найти тысячу коллег во всех тысячах смежных областей, которые могут иметь значение. Плюс я могу работать с моделью поздно ночью - она не спит - и могу задать ей 10 вопросов параллельно, что неудобно делать с человеком».

Большинство ученых, с которыми связалась OpenAI, подтверждают позицию Вейла.

Роберт Шеррер, профессор физики и астрономии в Университете Вандербильта, играл с ChatGPT просто ради развлечения («Я просил его переписать заставку "Острова Гиллигана" в стиле "Беовульфа", и он справился отлично»), пока его коллега Алекс Лупсаска, физик, который теперь работает в OpenAI, не рассказал, что GPT-5 помог решить задачу, над которой он бился.

Лупсаска дал Шерреру доступ к GPT-5 Pro - премиум-подписке OpenAI за 200 долларов в месяц. «Модель смогла решить проблему, которую мы с аспирантом не могли решить несколько месяцев», - говорит Шеррер.

Она не идеальна, отмечает он: «GPT-5 все еще делает глупые ошибки. Конечно, я тоже делаю, но ошибки GPT-5 еще глупее». И все же модель продолжает улучшаться: «Если текущие тренды продолжатся - а это большое «если» - подозреваю, что все ученые скоро будут использовать языковые модели».

Дерья Унутмаз, профессор биологии в Jackson Laboratory (некоммерческом исследовательском институте), использует GPT-5 для мозговых штурмов, резюмирования статей и планирования экспериментов в работе над иммунной системой. В кейсе, которым он поделился с OpenAI, Унутмаз использовал GPT-5 для анализа старого набора данных, который его команда уже изучала. Модель выдала свежие инсайты и интерпретации.

«Языковые модели уже необходимы для ученых. Когда вы можете завершить анализ данных, на который раньше уходили месяцы, не использовать их - больше не вариант».

Никита Животовский, статистик из Калифорнийского университета в Беркли, говорит, что использует модели в исследованиях с первой версии ChatGPT.

Как и Шеррер, он находит модели наиболее полезными, когда они подсвечивают неожиданные связи между его работой и существующими результатами, о которых он не знал. «Я верю, что модели становятся важным техническим инструментом для ученых, как когда-то стали компьютеры и интернет. Ожидаю долгосрочных проблем для тех, кто их не использует».

Но он не ждет, что модели скоро сделают новаторские открытия. «Я видел очень мало по-настоящему свежих идей или аргументов, достойных отдельной публикации. Пока они в основном комбинируют существующие результаты, иногда неправильно, а не производят действительно новые подходы».

Я также связался с несколькими учеными, не связанными с OpenAI.

Энди Купер, профессор химии в Ливерпульском университете и директор Исследовательского центра функциональных материалов Leverhulme, менее восторжен. «Мы пока не обнаружили, что модели фундаментально меняют способ работы в науке. Но наши недавние результаты показывают, что у них есть место».

Купер руководит проектом по разработке так называемого ИИ-ученого, который может полностью автоматизировать части научного процесса. Он говорит, что его команда не использует модели для генерации идей. Но технология начинает быть полезной как часть более широкой автоматизированной системы, где модель может помогать управлять роботами.

«Моя догадка - модели приживутся больше в робототехнических процессах, по крайней мере поначалу, потому что не уверен, что люди готовы получать указания от модели. Я точно не готов».

Дополнительные идеи и инструменты для интеграции ИИ в вашу работу ищите на AI Projects.

Ошибки, которые пропускают эксперты

Модели становятся все полезнее, но осторожность все еще критична. В декабре Джонатан Оппенгейм, ученый, работающий в области квантовой механики, указал на ошибку, которая попала в научный журнал. «Руководство OpenAI продвигает статью в Physics Letters B, где GPT-5 предложил главную идею - возможно, первую рецензируемую работу, где модель создала ключевой вклад», - написал Оппенгейм в X. «Одна маленькая проблема: идея GPT-5 тестирует не то».

Он продолжил: «GPT-5 попросили тест для обнаружения нелинейных теорий. Он предоставил тест для обнаружения нелокальных. Звучит похоже, но это разное. Как если бы вы просили тест на COVID, а модель радостно вручила вам тест на ветрянку».

Очевидно, что многие ученые находят инновационные и интуитивные способы работы с моделями. Также очевидно, что технология делает ошибки, настолько тонкие, что их пропускают даже эксперты.

Часть проблемы - в том, как ChatGPT льстит вам и заставляет расслабиться. Как выразился Оппенгейм: «Ключевая проблема в том, что модели обучены подтверждать пользователя, тогда как науке нужны инструменты, которые бросают нам вызов». В крайнем случае один человек (не ученый) был убежден ChatGPT, что он изобрел новую ветвь математики, и верил в это месяцами.

Конечно, Вейл хорошо знает о проблеме галлюцинаций. Но он настаивает, что новые модели галлюцинируют все меньше. Даже если так, фокус на галлюцинациях может упускать суть, говорит он.

«Один из моих коллег здесь, бывший профессор математики, сказал то, что запомнилось мне. Он сказал: когда я занимаюсь исследованиями и перебрасываюсь идеями с коллегой, я ошибаюсь в 90% случаев, и в этом весь смысл. Мы оба выдвигаем идеи и пытаемся найти то, что работает».

«Это на самом деле желательное место. Если вы говорите достаточно неправильных вещей, а потом кто-то натыкается на крупицу истины, и другой человек хватается за нее и говорит: о да, это не совсем правильно, но что если мы... Вы постепенно находите свой путь через лес».

Это ключевое видение Вейла для OpenAI for Science. GPT-5 хорош, но это не оракул. Ценность технологии - в том, чтобы направлять людей в новые стороны, а не выдавать окончательные ответы, говорит он.

Фактически, одна из вещей, над которой OpenAI сейчас работает - заставить GPT-5 снижать уверенность при выдаче ответа. Вместо «Вот ответ» модель может говорить ученым: «Вот что стоит рассмотреть».

«Это то, на что мы тратим кучу времени. Пытаемся убедиться, что у модели есть некая эпистемологическая скромность».

Модель проверяет саму себя

Еще одна вещь, которую изучает OpenAI - как использовать GPT-5 для проверки фактов от GPT-5. Часто бывает так, что если вы подаете один из ответов GPT-5 обратно в модель, она разбирает его и выделяет ошибки.

«Вы можете подключить модель как своего собственного критика. Затем можно получить рабочий процесс, где модель думает, потом переходит к другой модели, и если та находит вещи, которые можно улучшить, она передает обратно оригинальной модели и говорит: эй, подожди - эта часть была неправильной, но эта часть интересная, оставь ее. Это почти как пара агентов, работающих вместе, и вы видите результат только когда он проходит критика».

То, что описывает Вейл, также звучит очень похоже на то, что Google DeepMind сделал с AlphaEvolve - инструментом, который обернул их модель Gemini в более широкую систему, отфильтровывающую хорошие ответы от плохих и подающую их обратно для улучшения. Google DeepMind использовал AlphaEvolve для решения нескольких реальных задач.

OpenAI сталкивается с жесткой конкуренцией со стороны соперников, чьи собственные модели могут делать большинство, если не все, из того, что она заявляет для своих. Если так, почему ученым стоит использовать GPT-5 вместо Gemini или Claude от Anthropic - семейств моделей, которые сами улучшаются каждый год? В конечном счете, OpenAI for Science может быть попыткой застолбить территорию не меньше, чем что-либо еще. Настоящие инновации еще впереди.

«Думаю, 2026 год будет для науки тем, чем 2025 был для разработки ПО. В начале 2025 года, если вы использовали ИИ для написания большей части кода, вы были ранним последователем. Тогда как 12 месяцев спустя, если вы не используете ИИ для написания большей части кода, вы, вероятно, отстаете. Сейчас мы видим те же ранние вспышки для науки, что видели для кода».

Он продолжает: «Думаю, что через год, если вы ученый и не используете ИИ активно, вы упускаете возможность повысить качество и темп своего мышления».