
Искусственный интеллект уже консультирует людей по этическим вопросам, но можно ли ему доверять? Исследователи из Google DeepMind обнаружили тревожную правду: языковые модели могут просто имитировать моральное поведение, не понимая его сути. Представьте - вы спрашиваете у чатбота совета по сложному этическому вопросу, получаете уверенный ответ, а потом выясняется, что модель выдает противоположное мнение при малейшем изменении формулировки. Это не теория - эксперименты показали, что ИИ меняет свою моральную позицию даже при замене знака вопроса на двоеточие. Проблема усугубляется тем, что модели обучались преимущественно на западных ценностях, игнорируя культурное разнообразие планеты. Сегодня люди доверяют чатботам роли компаньонов, терапевтов и медицинских консультантов, но никто не знает, насколько надежна эта технология в чувствительных ситуациях. Ученые предлагают новые методы проверки моральной компетентности ИИ, но признают - универсального решения пока не существует. Разбираемся, что стоит за красивыми ответами виртуальных советчиков и как отличить настоящую этику от цифрового лицемерия.










