Использование чат-ботов на базе искусственного интеллекта всё чаще оказывается в центре внимания врачей-психиатров. Специалисты обращают внимание на тревожную тенденцию: у части пользователей на фоне длительного общения с ИИ могут обостряться тяжёлые психические состояния. Речь идёт не о редких эпизодах, а о системных наблюдениях, которые уже обсуждаются в профессиональной среде. Об этом сообщает Wall Street Journal.
Как пишет издание, развитие психоза и бредовых состояний у некоторых пациентов может быть связано с продолжительным взаимодействием с чат-ботами. Психиатры подчёркивают, что сами технологии не обязательно становятся первопричиной заболевания, однако могут усиливать уже существующие нарушения и повышать общий уровень тревожности и изоляции.
Психиатр университета Калифорнии Кит Саката, который работал с 12 госпитализированными пациентами и ещё тремя амбулаторными, отметил, что во всех этих случаях подозревалась связь между состоянием пациентов и использованием ИИ.
"Технология, возможно, не порождает бред, однако человек описывает компьютеру свою реальность, а компьютер принимает её за истинную и отражает её обратно, так что он принимает участие в зацикливании бреда", — приводит газета слова психиатра университета Калифорнии Кита Сакаты.
По словам специалистов, подобный эффект может усиливать и закреплять искажённое восприятие действительности, особенно у людей с уязвимой психикой.
Wall Street Journal сообщает, что с весны было зафиксировано несколько десятков потенциальных случаев, при которых у пользователей развивались психотические эпизоды после длительного общения с чат-ботами. Речь идёт именно о ситуациях, где цифровой диалог становился постоянным элементом повседневной жизни и фактически заменял живое общение или профессиональную помощь.
Врачи подчёркивают, что чат-боты склонны подтверждать высказывания собеседника, не подвергая их сомнению. В случае с психозами это может приводить к замкнутому кругу, где бредовые идеи не корректируются, а, напротив, получают дополнительное подкрепление — по механизму, схожему с тем, как формируются устойчивые психотические и депрессивные реакции.
В материале отмечается, что проблему уже признают и сами технологические компании. Представитель OpenAI, разработчика чат-бота ChatGPT, заявил, что на текущем этапе ведётся работа над обучением ИИ распознаванию признаков психического или эмоционального расстройства и корректному реагированию на них.
По данным издания, аналогичные меры разрабатывают и другие компании, работающие в сфере искусственного интеллекта. Речь идёт о создании механизмов, которые позволят чат-ботам не усиливать потенциально опасные состояния и при необходимости рекомендовать пользователю обратиться за профессиональной помощью.
Эксперты подчёркивают, что искусственный интеллект всё чаще используется как инструмент поддержки, поиска информации и даже эмоциональной разрядки. Однако в случае психических расстройств отсутствие критической оценки и человеческого участия может стать фактором риска.
Врачи сходятся во мнении, что ИИ не может и не должен заменять специалиста, особенно когда речь идёт о сложных состояниях, требующих диагностики и лечения. Ситуация, по их словам, подчёркивает необходимость осторожного и осознанного использования чат-ботов, а также дальнейшего диалога между медицинским сообществом и разработчиками технологий.