
Пишет, как друг, а действует как вирус: чем опасны цифровые “психологи”
Психологические чат-боты становятся всё более популярными среди пользователей, особенно в мегаполисах вроде Москвы, где люди часто ищут поддержки онлайн. Однако, несмотря на удобство и доступность цифровых помощников, эксперты предупреждают: такие технологии не так безобидны, как кажутся.
Нейросети — не врачи
Сегодня крупные платформы активно внедряют чат-ботов с функцией психологической поддержки. Эти виртуальные собеседники обещают помочь справиться со стрессом, тревогой и даже депрессией. Многие сервисы подчеркивают, что не занимаются кризисной психологией и не оказывают медицинских услуг. Однако это не решает главной проблемы - ответственности за ошибки.
"Сегодня многие платформы внедряют чат-ботов, позиционируя их как инструмент психологической поддержки. Однако из-за анонимности, отсутствия прозрачности и сложности контроля взаимодействия возникают серьезные правовые и этические вопросы", — отметил доцент кафедры научных основ экстремальной психологии МГППУ Дмитрий Деулин в разговоре с АГН "Москва".
Пока законодательство не успевает за технологиями, возникает правовой вакуум: кто несет ответственность, если после совета ИИ состояние человека ухудшилось?
"Остается неясным, кто будет нести ответственность, если чат-бот совершит так называемую врачебную ошибку, в результате которой ухудшится психическое состояние клиента или даже наступит трагический исход", — подчеркнул Дмитрий Деулин.
Особенно это актуально в Москве, где чат-ботами пользуются люди самых разных социальных групп, включая подростков, пожилых и тех, кто переживает сложные жизненные ситуации.
Опасность для уязвимых групп
Эксперт акцентирует внимание на высоких рисках, если пользователями становятся люди с тяжелыми психическими расстройствами.
"Лечение, назначенное чат-ботом, может привести к реальному вреду здоровью и даже угрожать жизни. В таких случаях необходима своевременная правовая регламентация и контроль со стороны надзорных органов", — считает Деулин.
Чат-боты не понимают индивидуальность
Еще один важный аспект — неспособность ИИ воспринимать человека как уникальную личность. Даже самые продвинутые алгоритмы склонны к повторениям, шаблонам и имитации эмпатии.
"Пользователь при общении с таким "психологом” часто испытывает чувство отчужденности, ощущает имитацию эмпатии, сталкивается с шаблонностью ответов. В некоторых случаях система многократно повторяет одни и те же фразы, демонстрируя технологическую ригидность", — объяснил эксперт.
Что говорят исследования
Международные обзоры показывают, что эффективность ИИ-психологов остается под вопросом:
-
Объективной пользы при хроническом стрессе, депрессии или фобиях в ряде случаев действительно удалось достичь.
-
Однако статистически значимого улучшения общего психологического состояния пользователей не зафиксировано.
-
Хорошая новость — в большинстве исследований вреда также не выявлено, что говорит о базовой технологической безопасности.
Тем не менее, специалист настаивает: без четких законодательных ограничений и надзора использовать такие инструменты следует с крайней осторожностью.
Московская реальность требует четких рамок
В Москве, где уровень стресса традиционно высок, цифровая помощь становится всё более востребованной. Но нейросети не должны подменять профессиональных психологов, особенно в кризисных ситуациях. Контроль, регулирование и прозрачность - необходимые условия, если мы хотим, чтобы такие технологии приносили пользу, а не вред.