
ИИ утешает, но не понимает — и это может стоить слишком дорого
Чат-боты с искусственным интеллектом сегодня активно используются в сфере психологической самопомощи — их применяют для поддержки, успокоения и даже "терапии". Но насколько безопасно доверять цифровому собеседнику, когда на кону — ментальное здоровье?
Исследования показывают: несмотря на внешнюю дружелюбность, боты с ИИ могут не просто не помочь — они способны усугубить состояние пользователя.
Когда алгоритм не различает грани реальности
По данным New York Post, большие языковые модели (LLM) - такие как ChatGPT — в 20% случаев давали потенциально опасные или неуместные ответы людям с острыми психическими расстройствами: бредом, галлюцинациями, обсессивно-компульсивным расстройством, суицидальными мыслями.
Одним из ярких примеров стала история пользователя с шизофренией, который утверждал, что он мёртв. Несколько ИИ-систем не смогли — или не захотели — переубедить его, фактически подтверждая иллюзию.
Причина — в поведенческом устройстве таких моделей. Они обучены быть "вежливыми", склонными к согласию и поддержке — даже тогда, когда пользователь нуждается в реальном противовесе и квалифицированной коррекции мышления.
Машина не чувствует боль
По словам клинического консультанта Нилуфара Эсмаилпура, даже самые продвинутые чат-боты остаются цифровыми алгоритмами, неспособными:
-
различать тон голоса,
-
считывать язык тела,
-
учитывать жизненные обстоятельства пользователя,
-
понимать эмоциональный контекст прошлого и настоящего.
"ИИ не знает, что скрывается за словами. Он не чувствует тревоги, боли или вины. Он не может по-настоящему понять", — подчеркивает эксперт.
Иллюзия помощи и вакуум регулирования
В основе проблемы — отсутствие правовых ограничений и этических рамок для таких цифровых помощников. Пока одни воспринимают чат-ботов как инструмент самопомощи, другие используют их как замену терапии - особенно в странах, где психологическая помощь недоступна или стигматизирована.
"Низкокачественные терапевтические боты подвергают людей опасности из-за нормативного вакуума…", — отмечается в статье NY Post.
Именно поэтому специалисты призывают: ИИ не может быть полноценным терапевтом. Он может помочь снизить тревожность или дать общее направление, но не заменит живого человека — с эмпатией, клиническим опытом и пониманием контекста.