
Соль, которая свела с ума: как совет ИИ едва не убил 60—летнего мужчину
В недавно опубликованном клиническом отчёте описан тревожный случай: 60-летний мужчина из-за совета ChatGPT оказался в больнице с тяжёлым отравлением. Он решил заменить обычную поваренную соль и обратился за советом к искусственному интеллекту. Вместо безопасной рекомендации ChatGPT предложил использовать бромид натрия — вещество, токсичное для организма.
Как всё произошло
Мужчина три месяца употреблял бромид натрия в пищу. Со временем у него появились галлюцинации, параноидальные идеи, бессонница, усталость, проблемы с координацией, угревая сыпь и сильная жажда. В итоге его госпитализировали в отделение интенсивной терапии, а затем в психиатрическое отделение.
Врачи диагностировали бромизм — отравление, вызванное накоплением брома в организме. В начале XX века это состояние было широко распространено: считалось, что до 10 % пациентов психиатрических клиник страдали именно от бромизма. Но после того как в 1970—80—х годах бромид натрия перестали использовать как лекарство, случаи стали крайне редкими.
Лечение и последствия
Пациенту проводили инфузионную терапию и назначили антипсихотические препараты. Спустя несколько дней его состояние улучшилось, а через три недели его выписали.
Врачи подчеркнули, что этот случай стал возможен из—за доверия пациента к цифровому помощнику.
"Важно учитывать, что ChatGPT и другие системы ИИ могут генерировать научные неточности, не способны критически оценивать результаты и в итоге распространяют дезинформацию", — отметили авторы отчёта.
Реакция специалистов
Компания OpenAI напомнила, что её продукт не предназначен для лечения заболеваний и не заменяет медицинскую помощь.
"Это инструменты для прогнозирования на основе языка — им не хватает здравого смысла, и они могут привести к ужасным результатам, если пользователь бездумно следует их рекомендациям", — добавил эксперт по биотехнологиям Джейкоб Глэнвилл.
"Необходим международный надзор за применением ИИ в медицине. По его словам, важно внедрять автоматические системы проверки рисков, базы медицинских знаний и обязательное участие специалистов в оценке рекомендаций", — подчеркнул кардиолог Харви Кастро.
Почему это важно
Случай наглядно показывает, что ИИ без встроенной медицинской экспертизы может быть опасен при использовании в здравоохранении. Даже редкие ошибки способны приводить к серьёзным последствиям.