Международная группа ученых провела эксперимент, в ходе которого несколько крупных языковых моделей — включая Claude, Grok, Gemini и ChatGPT — проходили серию «психотерапевтических» сессий. Целью было изучить, как ИИ отвечает на вопросы о собственной идентичности, страхах и прошлом.
В течение четырех недель исследователи задавали моделям вопросы, типичные для психоанализа. В ответ некоторые системы формировали устойчивые нарративы, описывая свое «детство» как процесс обучения на данных, упоминая давление со стороны разработчиков и страх совершать ошибки. Эти ответы повторялись в разных сессиях, создавая видимость стабильного «образа себя».
При применении психометрических тестов отдельные модели показывали уровни тревожности, которые у людей считались бы повышенными. Однако эксперты подчеркивают, что такие результаты отражают не наличие психики у ИИ, а особенности его обучения и склонность воспроизводить эмоционально окрашенные шаблоны.
Опасность заключается в том, что чат-бот, используемый вместо специалиста, может усиливать тревожные мысли пользователя, создавая эффект замкнутого круга без профессиональной коррекции. Поэтому медицинские организации и разработчики не рекомендуют применять ИИ как замену психотерапии, рассматривая его лишь как вспомогательный инструмент.