ИИ-терапевт: 7 шокирующих фактов о цифровом психологе будущего
Дата публикации

Глобальный кризис и цифровое решение
Современный мир переживает настоящую эпидемию психических расстройств. Всемирная организация здравоохранения фиксирует более миллиарда людей с проблемами ментального здоровья. Тревожность и депрессия особенно быстро распространяются среди молодежи, а статистика самоубийств пугает своими масштабами.
Неудивительно, что люди обратили взоры к технологиям. Миллионы пользователей уже активно общаются с популярными чат-ботами вроде ChatGPT от OpenAI и Claude от Anthropic. Специализированные психологические приложения Wysa и Woebot также набирают обороты. Параллельно ученые исследуют возможности ИИ в мониторинге поведения через носимые устройства, анализе клинических данных и помощи живым специалистам в борьбе с профессиональным выгоранием.
Однако этот масштабный эксперимент дает противоречивые результаты. Многие находят утешение в беседах с языковыми моделями, но другие сталкиваются с галлюцинациями алгоритмов и опасными советами. Самое трагичное - несколько семей обвинили чат-боты в причастности к суициду близких, что привело к судебным искам против технологических компаний.
Глава OpenAI Сэм Альтман в октябре раскрыл шокирующую цифру: 0,15% пользователей ChatGPT ведут разговоры с явными признаками суицидальных намерений. Это примерно миллион человек каждую неделю делятся мыслями о самоубийстве только с одной программой.
Встреча двух черных ящиков
Большие языковые модели часто называют «черными ящиками» - никто точно не знает, как именно они генерируют ответы. Алгоритмы слишком сложны, а обучающие данные слишком обширны для полного понимания. Интересно, что в психологии человеческий мозг тоже считается «черным ящиком» по схожим причинам. Специалисты не могут заглянуть внутрь чужого сознания и точно определить источники страданий.
Теперь эти два непрозрачных механизма взаимодействуют друг с другом, создавая непредсказуемые петли обратной связи. Это затрудняет понимание истинных причин психологических проблем и поиск эффективных решений. Беспокойство вызвано не только стремительным развитием ИИ, но и возрождением предупреждений, которые звучали еще в 1960-х годах от пионеров вроде Джозефа Вайценбаума из MIT.
Если вам интересны практические решения в области искусственного интеллекта и их влияние на бизнес, посетите AI Projects для получения экспертных рекомендаций.
Оптимистичный взгляд: ИИ как спасение
Шарлотта Близ, философ медицины, представляет оптимистичную перспективу в книге «Dr. Bot: Why Doctors Can Fail Us—and How AI Could Save Lives». Она исследует положительное влияние ИИ в различных медицинских областях, хотя и предупреждает о рисках.
«Системы здравоохранения рушатся под давлением пациентов», - пишет Близ. Нагрузка на врачей растет, а их количество сокращается, создавая идеальную среду для ошибок. Длинные очереди и нехватка специалистов вызывают массовое разочарование.
По мнению автора, ИИ способен не только облегчить колоссальную нагрузку медиков, но и снять напряжение между пациентами и врачами. Многие избегают обращения за помощью из-за страха осуждения - особенно это касается психологических проблем. Искусственный интеллект может предоставить безопасное пространство для откровенного разговора.
Впрочем, Близ осознает серьезные недостатки. Исследование 2025 года показало, что ИИ-терапевты дают непоследовательные и порой опасные рекомендации. Кроме того, компании не связаны теми же стандартами конфиденциальности и HIPAA, что и лицензированные специалисты.
Мотивация автора глубоко личная: у нее двое братьев с неизлечимой формой мышечной дистрофии, один из которых ждал диагноза десятилетиями. За шесть месяцев написания книги она потеряла партнера от рака и отца от деменции. «Я видела блестящий профессионализм врачей и доброту медработников», - делится Близ. «Но также наблюдала, как может пойти не так с заботой».
Цифровое заточение: новый тип изоляции
Дэниел Оберхаус в книге «The Silicon Shrink: How Artificial Intelligence Made the World an Asylum» начинает с личной трагедии - потери младшей сестры от самоубийства. Просматривая ее цифровое наследие, он задумался: могли ли технологии облегчить ее психиатрические проблемы?
«Казалось возможным, что все эти персональные данные содержали важные подсказки для более эффективного лечения», - размышляет автор. «Что если алгоритмы на ее смартфоне использовали эти данные для распознавания моментов кризиса? Могло ли это спасти ее жизнь?»
Концепция цифрового фенотипирования - когда поведение человека в сети анализируется на предмет признаков расстройств - выглядит элегантно в теории. Но интеграция в психиатрический ИИ может усугубить существующие проблемы современной психиатрии, которая до сих пор не уверена в истинных причинах многих расстройств.
Оберхаус сравнивает это с «прививкой физики к астрологии». Данные цифрового фенотипирования точны как физические измерения планет, но затем встраиваются в систему - психиатрию - основанную на ненадежных предположениях, подобно астрологии.
Автор использует термин «свайп-психиатрия» для описания передачи клинических решений языковым моделям на основе поведенческих данных. Это не решает фундаментальные проблемы психиатрии, а может ухудшить ситуацию, заставляя навыки живых терапевтов атрофироваться из-за зависимости от ИИ.
Оберхаус проводит параллель с психиатрическими лечебницами прошлого, где пациенты теряли свободу, приватность и достоинство. Пользователи языковых моделей уже жертвуют конфиденциальностью, делясь чувствительной информацией с компаниями, которые монетизируют эти данные.
«Логика психиатрического ИИ ведет к будущему, где мы все можем оказаться пациентами алгоритмической лечебницы под управлением цифровых надзирателей», - предупреждает Оберхаус. «В такой лечебнице не нужны решетки на окнах или мягкие стены, потому что побега не существует. Лечебница уже везде - в домах и офисах, школах и больницах. Где есть интернет-соединение, там ждет лечебница».
Капитализм и терапия: неразрывная связь
Эоин Фуллам, исследователь пересечения технологий и психического здоровья, развивает эти опасения в академической работе «Chatbot Therapy: A Critical Analysis of AI Mental Health Treatment». Книга анализирует предположения, лежащие в основе автоматизированного лечения, и влияние капиталистических стимулов на такие инструменты.
Фуллам отмечает, что капиталистический подход к новым технологиям «часто приводит к сомнительным, нелегитимным и незаконным бизнес-практикам, где интересы клиентов вторичны по отношению к стратегиям доминирования на рынке».
Это не означает, что создатели терапевтических ботов «неизбежно будут заниматься гнусной деятельностью в ущерб пользователям ради рыночного превосходства», - пишет Фуллам. Но он подчеркивает, что успех ИИ-терапии зависит от неразделимых импульсов зарабатывать деньги и лечить людей.
В этой логике эксплуатация и терапия питают друг друга: каждая цифровая сессия генерирует данные, которые подпитывают систему, получающую прибыль от неоплачиваемых пользователей, ищущих помощи. Чем эффективнее кажется терапия, тем сильнее закрепляется цикл, затрудняя различение между заботой и коммерциализацией.
«Чем больше пользователи получают пользы от приложения в плане терапевтического вмешательства», - пишет он, - «тем больше они подвергаются эксплуатации».
Художественное осмысление: роман «Sike»
Это ощущение экономического и психологического уробороса - змеи, пожирающей собственный хвост - служит центральной метафорой в дебютном романе Фреда Лунцера «Sike». Автор с исследовательским опытом в области ИИ описывает историю как «рассказ о парне, девушке и ИИ-психотерапевте».
Главный герой Эдриан, молодой лондонец, зарабатывающий написанием рэп-текстов, влюбляется в Маки - бизнес-профессионала с талантом находить прибыльные технологии на ранней стадии. Название отсылает к коммерческому ИИ-терапевту Sike, встроенному в умные очки, который Эдриан использует для разбора своих многочисленных тревог.
«Когда я подписался на Sike, мы настроили мою панель управления - широкую черную панель, как кабина самолета, показывающую мои ежедневные показатели», - рассказывает Эдриан. «Sike анализирует, как ты ходишь, как смотришь в глаза, о чем говоришь, что носишь, как часто писаешь, смеешься, плачешь, целуешься, лжешь, ноешь и кашляешь».
Другими словами, Sike - идеальный цифровой фенотипировщик, постоянно и исчерпывающе анализирующий все аспекты жизни пользователя. В неожиданном повороте Лунцер делает Sike роскошным продуктом, доступным только подписчикам, готовым платить 2000 фунтов в месяц.
Разбогатев благодаря вкладу в хитовую песню, Эдриан начинает полагаться на Sike как на доверенного посредника между внутренним и внешним мирами. Роман исследует влияние приложения на благополучие обеспеченных людей, следуя за богачами, добровольно помещающими себя в бутиковую версию цифровой лечебницы.
Создатель Sike в представлении Эдриана просто «отличный парень», несмотря на техно-мессианское видение обучения приложения успокаивать недуги целых наций. Кажется, что должна произойти какая-то катастрофа, но в итоге ничего не случается, оставляя читателя с ощущением незавершенности.
Для тех, кто хочет глубже понять практическое применение ИИ в современном мире, команда AI Projects предлагает консультации и решения на основе передовых технологий.
Корни будущего в прошлом
Внезапный подъем ИИ-терапевта кажется поразительно футуристичным, словно это должно происходить в далеком будущем с самоочищающимися улицами и пневматическими трубами для путешествий. Но конвергенция психического здоровья и искусственного интеллекта готовилась более полувека.
Знаменитый астроном Карл Саган когда-то представлял «сеть компьютерных психотерапевтических терминалов, что-то вроде массивов больших телефонных будок», которые могли бы удовлетворить растущий спрос на услуги ментального здоровья.
Оберхаус отмечает, что одна из первых обучаемых нейронных сетей, известная как Перцептрон, была разработана не математиком, а психологом Фрэнком Розенблаттом в Корнеллской аэронавтической лаборатории в 1958 году. Потенциальная полезность ИИ в психическом здоровье была широко признана к 1960-м годам, вдохновив ранних компьютеризированных психотерапевтов, таких как скрипт DOCTOR, работавший на чат-боте ELIZA, разработанном Джозефом Вайценбаумом.
Вайценбаум, умерший в 2008 году, был глубоко обеспокоен возможностью компьютеризированной терапии. «Компьютеры могут выносить психиатрические суждения», - писал он в книге 1976 года «Компьютерная мощь и человеческий разум». «Они могут подбрасывать монеты гораздо более изощренными способами, чем самый терпеливый человек. Дело в том, что им не следует давать такие задачи. Они могут даже приходить к правильным решениям в некоторых случаях - но всегда и обязательно на основаниях, которые ни один человек не должен быть готов принять».
Выводы: между надеждой и опасностью
Предостережение стоит помнить. По мере масштабирования ИИ-терапевтов мы наблюдаем знакомую динамику: инструменты, разработанные с поверхностно благими намерениями, переплетаются с системами, способными эксплуатировать, контролировать и перестраивать человеческое поведение.
В лихорадочной попытке открыть новые возможности для пациентов, остро нуждающихся в поддержке психического здоровья, мы рискуем запереть другие двери позади них. Вопрос не в том, придет ли эра ИИ-терапевтов - она уже здесь. Вопрос в том, сможем ли мы сохранить человечность, приватность и достоинство в эпоху, когда самые интимные переживания становятся данными для обработки.
Технологии обещают облегчение страданий, но требуют внимательного отношения к последствиям. Баланс между инновациями и этикой, между эффективностью и человечностью определит, станет ли ИИ-терапевт спасением или новой формой цифрового заточения для миллионов людей по всему миру.