ИИ без контроля: 95% проектов терпят крах из-за этого

Дата публикации

Когда машина решает, а человек отвечает

Поездка в беспилотном Uber через деловой центр Лос-Анджелеса дарит странное ощущение неопределенности. Нет водителя, нет разговоров - только тихий автомобиль, строящий предположения о мире вокруг. Все кажется нормальным, пока машина не принимает тень за препятствие или резко не тормозит перед чем-то совершенно безопасным. В этот момент становится ясна настоящая проблема автономности: система не паникует, когда следовало бы, и именно этот разрыв между уверенностью и способностью оценивать ситуацию определяет, заслужит ли технология доверие или потеряет его.

Современный корпоративный ИИ работает поразительно похоже. Он компетентен, но не уверен в себе, эффективен, но лишен эмпатии. Именно поэтому решающим фактором успешного внедрения становится уже не вычислительная мощность, а доверие людей.

Цифры, которые не врут: провал 95% проектов

Отчет MLQ State of AI in Business 2025 приводит резкую статистику: 95% ранних пилотных проектов ИИ не приносят измеримой окупаемости инвестиций. Причина не в слабости технологий, а в том, что они не соответствуют проблемам, которые организации пытаются решить. Эта закономерность повторяется во всех отраслях. Руководители нервничают, когда не могут определить правильность результата, команды сомневаются в достоверности дашбордов, а клиенты быстро теряют терпение, когда взаимодействие кажется автоматизированным, а не поддерживающим.

Любой, кто хоть раз был заблокирован в своем банковском аккаунте, пока автоматическая система восстановления упорно настаивала на неправильности ответов, знает, как быстро испаряется уверенность.

История Klarna: рост выручки и квартальные убытки

Klarna остается самым публичным примером масштабной автоматизации в действии. Компания сократила штат вдвое с 2022 года и заявляет, что внутренние системы ИИ выполняют работу 853 сотрудников на полной ставке - рост с 700 ранее в этом году. Выручка выросла на 108%, средняя зарплата сотрудников увеличилась на 60%, что частично профинансировано операционной экономией.

Однако картина сложнее. Klarna по-прежнему фиксирует квартальные убытки в 95 миллионов долларов, а ее генеральный директор предупреждает о вероятных дальнейших сокращениях персонала. Это показывает: автоматизация сама по себе не создает стабильности. Без подотчетности и структуры опыт разрушается задолго до того, как откажет ИИ.

Как говорит Джейсон Рус, CEO провайдера CCaaS Cirrus: «Любая трансформация, подрывающая уверенность внутри или снаружи бизнеса, несет издержки, которые нельзя игнорировать. Она может оставить вас в худшем положении».

Если вы хотите узнать, как правильно внедрять ИИ с учетом человеческого фактора, посетите AI Projects для практических рекомендаций.

Когда алгоритм обвиняет невиновных

Мы уже видели, что происходит, когда автономность опережает подотчетность. Британское Министерство труда и пенсий использовало алгоритм, который ошибочно пометил около 200 тысяч заявок на жилищное пособие как потенциально мошеннические, хотя большинство были законными. Проблема была не в технологии - проблема в отсутствии четкой ответственности за ее решения.

Когда автоматизированная система блокирует не тот аккаунт, отклоняет не ту заявку или создает необоснованный страх, вопрос никогда не звучит просто как «почему модель ошиблась?». Вопрос звучит так: «кто отвечает за результат?». Без этого ответа доверие становится хрупким.

Готовность важнее скорости

«Пропущенный шаг - это всегда готовность», - говорит Рус. «Если процесс, данные и защитные механизмы не на месте, автономность не ускоряет производительность, а усиливает слабости. Подотчетность должна быть на первом месте. Начните с результата, найдите, где тратятся усилия впустую, проверьте готовность и управление, и только потом автоматизируйте. Пропустите эти шаги - и подотчетность исчезнет так же быстро, как появятся выгоды от эффективности».

Часть проблемы - одержимость масштабом без фундамента, делающего масштаб устойчивым. Многие организации стремятся к автономным агентам, способным действовать решительно, но очень немногие останавливаются, чтобы подумать, что произойдет, когда эти действия выйдут за ожидаемые границы.

Доверие падает пять лет подряд

Барометр доверия Edelman показывает устойчивое снижение общественного доверия к ИИ за последние пять лет, а совместное исследование KPMG и Мельбурнского университета выявило, что работники предпочитают больше человеческого участия почти в половине изученных задач. Выводы подкрепляют простую мысль: доверие редко возникает от усиления давления на модели. Оно возникает, когда люди тратят время на понимание того, как принимаются решения, и когда управление ведет себя не как педаль тормоза, а как руль.

Та же динамика проявляется на стороне клиентов. Исследование доверия PwC выявляет широкую пропасть между восприятием и реальностью. Большинство руководителей верят, что клиенты доверяют их организации, в то время как лишь меньшинство клиентов согласны с этим. Другие опросы показывают, что прозрачность помогает закрыть этот разрыв: подавляющее большинство потребителей хотят четкого раскрытия информации, когда ИИ используется в сервисных взаимодействиях. Без этой ясности люди не чувствуют себя успокоенными - они чувствуют себя обманутыми, и отношения напрягаются.

Агентный ИИ - это не магия, а структурированная автоматизация

Часть путаницы проистекает из самого термина «агентный ИИ». Большая часть рынка трактует его как нечто непредсказуемое или самонаправляемое, хотя в реальности это автоматизация рабочих процессов с рассуждением и памятью. Это структурированный способ для систем принимать скромные решения внутри параметров, разработанных людьми.

Все развертывания, которые масштабируются безопасно, следуют одной и той же последовательности. Они начинают с результата, который хотят улучшить, затем смотрят, где в рабочем процессе сидят ненужные усилия, затем оценивают готовность систем и команд к автономности, и только потом выбирают технологию. Изменение этого порядка ничего не ускоряет - оно просто создает более быстрые ошибки.

Как говорит Рус: ИИ должен расширять человеческое суждение, а не заменять его.

Эмоциональное измерение технологии

Все это указывает на более широкую истину. Каждая волна автоматизации в конечном счете становится социальным вопросом, а не чисто техническим. Amazon построил свое доминирование через операционную последовательность, но он также построил уровень уверенности, что посылка прибудет. Когда эта уверенность падает, клиенты уходят. ИИ следует той же схеме. Вы можете развернуть сложные самокорректирующиеся системы, но если клиент чувствует себя обманутым или введенным в заблуждение в любой момент, доверие ломается.

Внутри компании действуют те же давления. Глобальное исследование KPMG подчеркивает, как быстро сотрудники теряют вовлеченность, когда не понимают, как принимаются решения или кто за них отвечает. Без этой ясности внедрение застопоривается.

По мере того как агентные системы берут на себя больше разговорных ролей, эмоциональное измерение становится еще более значимым. Ранние обзоры автономных чат-взаимодействий показывают, что люди теперь судят о своем опыте не только по тому, помогли ли им, но и по тому, казалось ли взаимодействие внимательным и уважительным. Клиент, который чувствует себя отвергнутым, редко держит разочарование при себе. Эмоциональный тон ИИ становится подлинным операционным фактором, и системы, которые не могут соответствовать этому ожиданию, рискуют стать обузой.

Для более глубокого понимания того, как строить доверие к ИИ-системам, обратитесь к экспертам AI Projects.

Технология движется быстрее доверия

Трудная правда в том, что технология будет продолжать двигаться быстрее, чем инстинктивный комфорт людей с ней. Доверие всегда будет отставать от инноваций. Это не аргумент против прогресса - это аргумент в пользу зрелости. Каждый лидер в области ИИ должен спрашивать себя, доверил бы он системе свои собственные данные, может ли он объяснить ее последнее решение простым языком и кто вмешается, когда что-то пойдет не так. Если эти ответы неясны, организация не ведет трансформацию - она готовит извинения.

Рус формулирует просто: «Агентный ИИ - не проблема. Проблема - ИИ без подотчетности».

Когда уходит доверие, уходит внедрение, и проект, который выглядел трансформационным, становится еще одной записью в статистике 95% провалов. Автономность - не враг. Враг - забыть, кто несет ответственность. Организации, которые держат человеческую руку на руле, будут теми, кто сохранит контроль, когда шумиха вокруг самоуправляемых систем в конечном счете угаснет.

Выводы: ответственность как основа успеха

Главный урок прост: технология без человеческого контроля - это бомба замедленного действия. 95% проектов ИИ терпят крах не потому, что алгоритмы слабы, а потому что компании забывают о главном - о людях, которые должны отвечать за решения машин. Доверие строится не на мощности процессоров, а на прозрачности, подотчетности и готовности взять ответственность, когда система ошибается. Автоматизация без этих столпов превращается из инструмента роста в источник репутационных и финансовых потерь. Будущее за теми, кто помнит: ИИ должен усиливать человеческое суждение, а не заменять его.