3 IT-гиганта выпустили медицинские ИИ за 6 дней - что они скрывают?
Дата публикации

Три анонса за неделю - случайность или стратегия
В начале января 2025 года произошло событие, которое сложно назвать совпадением. Три крупнейших игрока рынка искусственного интеллекта представили медицинские решения практически одновременно. 7 января OpenAI объявила о запуске ChatGPT Health, 11 января Anthropic показала Claude for Healthcare, а 13 января Google выпустила MedGemma 1.5. Временной промежуток составил всего шесть дней.
Такая координация запусков говорит о жесткой конкуренции в сегменте медицинского ИИ. Компании явно следят друг за другом и стремятся не упустить момент. Однако за яркими презентациями скрывается важная деталь - все эти продукты не являются медицинскими устройствами в юридическом смысле и не могут использоваться для постановки диагнозов.
Что предлагают новые платформы
Каждая из трех систем нацелена на решение схожих проблем в здравоохранении - упрощение документооборота, ускорение обработки страховых случаев, помощь в оформлении медицинских записей. Технологическая основа тоже похожа - все используют мультимодальные языковые модели, обученные на медицинской литературе и клинических данных.
ChatGPT Health от OpenAI работает как потребительский сервис. Американские пользователи могут подключить свои медицинские записи через партнерские платформы b.well, Apple Health, Function и MyFitnessPal. Доступ предоставляется подписчикам ChatGPT Free, Plus и Pro, за исключением жителей ЕЭЗ, Швейцарии и Великобритании.
Google выбрала другой путь - MedGemma 1.5 распространяется как открытая модель через программу Health AI Developer Foundations. Разработчики могут скачать её с Hugging Face или развернуть через Google Cloud Vertex AI. Система научилась интерпретировать трехмерные КТ и МРТ-снимки, а также гистопатологические изображения.
Anthropic сфокусировалась на корпоративном сегменте. Claude for Healthcare интегрируется в существующие рабочие процессы медучреждений через платформу Claude for Enterprise. Система соответствует требованиям HIPAA и подключается к базам данных CMS, системам кодирования ICD-10 и реестру национальных идентификаторов поставщиков медуслуг.
Все три компании подчеркивают - их продукты лишь помогают врачам, но не заменяют профессиональное суждение. OpenAI прямо заявляет, что Health "не предназначен для диагностики или лечения". Google позиционирует MedGemma как "отправную точку для разработчиков". Anthropic указывает, что результаты работы Claude "не должны напрямую влиять на клинические диагнозы, решения по ведению пациентов или рекомендации по лечению".
Для практических рекомендаций по внедрению ИИ-решений в бизнес-процессы посетите AI Projects.
Впечатляющие цифры тестов против реальной клиники
Результаты тестирования новых медицинских ИИ-систем выглядят убедительно. Google сообщает, что MedGemma 1.5 показала точность 92,3% на MedAgentBench - стэнфордском бенчмарке для оценки выполнения медицинских задач. Это на 22,7 процентных пункта выше предыдущего базового показателя Sonnet 3.5. При классификации заболеваний по МРТ улучшение составило 14 процентных пунктов, по КТ - 3 пункта.
Claude Opus 4.5 от Anthropic достиг 61,3% точности в медицинских расчетах MedCalc при включенном выполнении Python-кода и тех же 92,3% на MedAgentBench. Компания также заявляет об улучшениях в "оценках честности", связанных с фактическими галлюцинациями, хотя конкретные метрики не раскрыла.
OpenAI не публиковала сравнительных бенчмарков специально для ChatGPT Health. Вместо этого компания отметила, что "более 230 миллионов человек по всему миру еженедельно задают вопросы о здоровье и благополучии в ChatGPT" - данные получены из деперсонализированного анализа существующих паттернов использования.
Но здесь кроется подвох. Бенчмарки измеряют производительность на тщательно подобранных тестовых наборах данных, а не клинические результаты в реальной практике. Медицинские ошибки могут стоить жизни, поэтому перевод точности бенчмарков в клиническую полезность намного сложнее, чем в других областях применения ИИ.
Регуляторный туман
Регуляторная структура для медицинских ИИ-инструментов остается размытой. В США надзор FDA зависит от заявленного назначения продукта. Программное обеспечение, которое "поддерживает или предоставляет рекомендации медицинскому работнику о профилактике, диагностике или лечении заболевания", может требовать предварительной проверки как медицинское устройство. Ни один из анонсированных инструментов не получил разрешения FDA.
Вопросы ответственности также не решены. Когда технический директор Banner Health Майк Риджин заявляет, что медицинская система "привлечена фокусом Anthropic на безопасности ИИ", это касается критериев выбора технологии, но не правовых рамок ответственности. Если врач полагается на анализ предварительного разрешения Claude, а пациент страдает от задержки медпомощи, существующая судебная практика дает мало ясности относительно распределения ответственности.
Регуляторные подходы сильно различаются по рынкам. В то время как FDA и европейский регламент по медицинским устройствам предоставляют устоявшиеся рамки для программного обеспечения как медицинского устройства, многие регуляторы АТР не выпустили конкретных указаний по генеративным ИИ-диагностическим инструментам. Эта регуляторная неопределенность влияет на сроки внедрения на рынках, где пробелы в медицинской инфраструктуре могли бы ускорить реализацию - создавая напряжение между клинической потребностью и регуляторной осторожностью.
Бумажная работа вместо диагностики
Реальные внедрения остаются тщательно ограниченными по масштабу. Луиза Линд Сков, директор по цифровизации контента Novo Nordisk, описала использование Claude для "автоматизации документов и контента в фармацевтической разработке", сосредоточившись на документах для регуляторных заявок, а не на диагностике пациентов. Национальная администрация медицинского страхования Тайваня применила MedGemma для извлечения данных из 30 000 патологических отчетов для анализа политики, но не для принятия решений о лечении.
Паттерн показывает - институциональное внедрение концентрируется на административных рабочих процессах, где ошибки менее опасны - выставление счетов, документация, составление протоколов. А не на прямой поддержке клинических решений, где возможности медицинского ИИ оказали бы наиболее драматическое влияние на результаты лечения пациентов.
Узнайте больше о стратегиях интеграции ИИ-технологий на AI Projects.
Технологии опережают систему
Возможности медицинского ИИ развиваются быстрее, чем институты, внедряющие их, могут справиться со сложностями регулирования, ответственности и интеграции рабочих процессов. Технология существует. Подписка за 20 долларов в месяц предоставляет доступ к сложным инструментам медицинского анализа.
Но превратится ли это в трансформацию здравоохранения - зависит от вопросов, которые эти скоординированные анонсы оставляют без ответа. Кто несет ответственность за ошибки ИИ? Как встроить новые инструменты в существующие клинические протоколы? Какие стандарты валидации применять к системам, которые постоянно обучаются?
Пока эти вопросы остаются открытыми, медицинский ИИ будет оставаться в зоне административных задач - полезным, но далеким от обещанной революции в диагностике и лечении. Гонка технологических гигантов продолжается, но финишная черта пока скрыта в регуляторном тумане.