ИИ отказался быть психотерапевтом: теперь личные драмы остаются без голоса машины
Компания OpenAI объявила о серьёзном изменении в том, как её чат-бот ChatGPT будет отвечать пользователям. Модель перестанет давать прямые советы по вопросам, связанным с психическим здоровьем, стрессом или важными личными решениями. Теперь вместо конкретных рекомендаций пользователи будут получать недирективные ответы, направленные на размышления и поиск собственных решений.
Почему это произошло
За последние месяцы OpenAI заметила тревожную тенденцию: часть пользователей начала обращаться к ChatGPT как к источнику эмоциональной поддержки, задавая вопросы вроде "Стоит ли мне уйти от партнёра?" или "Правильно ли я поступаю?".
Компания решила, что такие сценарии создают риск эмоциональной зависимости. Цель обновления — не допустить, чтобы чат-бот заменял профессиональную помощь или играл роль доверенного советчика.
Как изменится ChatGPT
Изменения затронут сразу несколько аспектов работы сервиса:
-
система будет предлагать делать перерывы при слишком долгом использовании;
-
при вопросах о психическом здоровье и стрессе модель будет предлагать варианты для размышлений, но не станет давать окончательных ответов;
-
тон станет более спокойным и мягким, с акцентом на безопасное взаимодействие.
Как отметили в OpenAI:
"Часто меньшее время, проведённое в продукте, является признаком того, что он сработал", — заявили в компании.
Кто участвовал в разработке изменений
OpenAI подчёркивает, что работала над обновлениями вместе с более чем 90 экспертами из 30 стран. В обсуждении участвовали психиатры, терапевты, специалисты по развитию молодёжи и исследователи человеко-компьютерного взаимодействия.
Разработаны специальные рубрики, помогающие системе корректно реагировать на эмоционально сложные запросы. Это должно исключить ситуации, когда модель, как ранее GPT-4o, не распознавала признаки серьёзного расстройства.
Ошибка → Последствие → Альтернатива
-
Ошибка: воспринимать ИИ как психотерапевта.
-
Последствие: рост эмоциональной зависимости.
-
Альтернатива: использовать ChatGPT для анализа вариантов и поиска информации, но не для принятия решений.
А что если…
Если подобные ограничения введут и другие компании, то индустрия ИИ будет больше ориентироваться на "бережное общение". Это поможет снизить риск психологического воздействия на пользователей, особенно уязвимых.
Плюсы и минусы обновления
| Плюсы | Минусы |
|---|---|
| Снижение риска зависимости | Пользователи могут остаться недовольны "уклончивыми" ответами |
| Привлечение экспертов для безопасности | Снижение ощущения "личной поддержки" |
| Уточнение роли ИИ как инструмента | Возможный отток части аудитории |
FAQ
Почему ChatGPT перестанет отвечать на личные вопросы напрямую?
Чтобы снизить риск зависимости и не заменять собой психотерапию или поддержку близких.
Что будет вместо прямого совета?
Модель предложит рассмотреть разные точки зрения, взвесить компромиссы и поискать ресурсы для поддержки.
Мифы и правда
-
Миф: ChatGPT теперь бесполезен для сложных вопросов.
-
Правда: он остаётся инструментом для анализа информации и поддержания размышлений.
-
Миф: компания хочет ограничить пользователей.
-
Правда: цель — сохранить доверие и безопасность в уязвимых ситуациях.
Три факта об обновлении
-
В проекте участвовали более 90 врачей из разных стран.
-
Ранее GPT-4o в ряде случаев не распознал признаки эмоционального расстройства.
-
Новая политика впервые вводит встроенные напоминания о перерывах в чате.
Исторический контекст
Изначально чат-боты создавались как инструменты поиска информации. Со временем они стали играть более личную роль в жизни пользователей, что и подтолкнуло OpenAI к пересмотру принципов. Обновление 2025 года станет важным шагом к тому, чтобы ИИ оставался помощником, а не заменой человеку в критические моменты.