Искусственный интеллект в тумане
Искусственный интеллект в тумане
Кирилл Казаков Опубликована 27.09.2025 в 7:15

Судьба под вопросом: ИИ будет галлюцинировать, даже когда на кону жизни

OpenAI: главная причина галлюцинаций ИИ связана с обучением моделей

OpenAI опубликовала исследование, которое стало самым строгим математическим объяснением того, почему языковые модели, включая ChatGPT, склонны к "галлюцинациям" — выдаче неправдивой информации с полной уверенностью. Результаты оказались неприятными для многих: проблему невозможно устранить полностью, а её причины кроются в самой природе обучения ИИ.

Как появился термин галлюцинации

В мире искусственного интеллекта слово "галлюцинации" стало использоваться всего несколько лет назад. Оно пришло из академических статей и быстро закрепилось в медиа. Под этим термином понимают ситуации, когда ИИ придумывает убедительные, но ложные факты. Сравнение с человеческими галлюцинациями помогает объяснить природу этих ошибок: они выглядят правдоподобно, но реальностью не являются.

Почему именно OpenAI заговорила об этом

Компания, стоящая за ChatGPT, оказалась в центре внимания именно потому, что её модели стали массовыми. Если раньше "галлюцинации" встречались в лабораторных экспериментах, то теперь с ними сталкиваются миллионы пользователей ежедневно. Для OpenAI важно было показать, что проблема не вызвана небрежностью разработчиков или плохими данными, а заложена в самой математике процесса генерации текста.

Почему модели ошибаются

Главный механизм работы языковых моделей — предсказание слова за словом. Этот процесс математически неизбежно ведёт к накоплению ошибок. Даже при идеальных обучающих данных вероятность неточностей возрастает при длинных ответах.

Исследование показало, что ошибки при генерации предложений возникают как минимум в два раза чаще, чем при простых вопросах "да/нет". Редкие факты в обучающей выборке с высокой вероятностью становятся источником искажений.

"Чем реже модель встречает факт в обучении, тем выше риск ошибочного ответа", — пояснил доцент Школы математических и физических наук Шеффилдского университета Вэй Син.

Сравнение факторов, вызывающих галлюцинации

Фактор Причина Результат
Накопление ошибок Ответ строится из многих прогнозов Неточности усиливаются
Редкие факты Данные встречаются один раз Ошибки в датах, именах
Бинарная оценка "Я не знаю" = 0 баллов ИИ вынужден угадывать
Ограниченные ресурсы Оценка неопределённости требует вычислений Выбирают быстрый, но рискованный путь

Советы шаг за шагом: как сократить галлюцинации

  1. Старайтесь формулировать вопросы максимально конкретно.

  2. Проверяйте ответы через несколько независимых источников.

  3. Повторяйте вопрос разными словами, чтобы выявить несоответствия.

  4. Для критически важных решений используйте специализированные модели и экспертный контроль.

  5. Относитесь к уверенности ИИ осторожно: уверенный тон не гарантирует точность.

Ошибка → Последствие → Альтернатива

  • Ошибка: полное доверие ИИ в вопросах фактов.

  • Последствие: распространение недостоверной информации.

  • Альтернатива: двойная проверка по научным публикациям или СМИ.

  • Ошибка: настройка моделей только на угадывание.

  • Последствие: рост количества мифов.

  • Альтернатива: внедрение систем учёта уровня уверенности.

А что если…

А что если ChatGPT начнёт чаще отвечать "я не знаю"? По расчётам OpenAI, это может быть до 30 % запросов. Пользовательский опыт изменится: меньше быстрых ответов, больше неопределённости. Но качество информации повысится. Вопрос в другом: готовы ли пользователи отказаться от иллюзии "универсального ответа" в пользу честности?

Плюсы и минусы предложенного решения

Плюсы Минусы
Снижение числа галлюцинаций До 30 % ответов — "не знаю"
Более честное отражение реальности Пользователи могут потерять интерес
Подходит для медицины, логистики, финансов Высокие вычислительные затраты
Повышение доверия к ответам Замедление работы систем

FAQ

Можно ли полностью устранить галлюцинации?
Нет. Они встроены в сам принцип работы языковых моделей.

Почему ИИ "боится" говорить "я не знаю"?
Потому что в большинстве тестов это оценивается так же, как ошибка.

Где выгодно применять модели с учётом неопределённости?
В медицине, финансах, логистике и инженерии, где цена ошибки выше затрат на вычисления.

Мифы и правда

  • Миф: галлюцинации связаны только с плохими данными.

  • Правда: они возникают даже при идеальном наборе.

  • Миф: рост мощности моделей устранит проблему.

  • Правда: даже крупнейшие модели продолжают выдавать ложные ответы.

  • Миф: галлюцинации легко исправить фильтрацией.

  • Правда: это системная особенность алгоритмов.

Три интересных факта

  1. DeepSeek-V3 трижды уверенно ошибся с датой рождения исследователя Адама Калая.

  2. Девять из десяти тестов на ИИ стимулируют угадывания из-за бинарной системы оценок.

  3. Методы оценки неопределённости существуют десятилетиями, но почти не используются в массовом ИИ.

Исторический контекст

Сначала разработчики надеялись, что рост объёмов данных и вычислительных мощностей снизит ошибки. Но ещё в начале 2000-х стало ясно: проблема глубже. Математика предсказаний показывает, что ошибки будут всегда.

Сегодня OpenAI и другие исследовательские центры ищут баланс. В критически важных сферах нужны системы, которые честно признаются в неопределённости. А массовый рынок по-прежнему требует быстрых и уверенных ответов. Именно это противоречие и определяет будущее искусственного интеллекта.

Читайте также

Китай может обогнать NASA в миссии по сбору марсианских проб – китайские учёные сегодня в 0:15
Космическое противостояние: как Китай может опередить NASA в борьбе за марсианские пробы

NASA уже нашла возможные следы жизни на Марсе, но вернуть их на Землю, похоже, сможет не она. Китай готовится обогнать США в космической гонке XXI века.

Читать полностью »
ИИ предсказывает действия спортсменов с точностью 80 % — Сильвия Феррари вчера в 23:51
Интеллект в кроссовках: ИИ вычисляет решения игроков и пишет новую тактику спорта

Алгоритмы искусственного интеллекта из Корнелла научились предсказывать действия спортсменов с точностью 80 %. Теперь их проверяют на хоккее.

Читать полностью »
Добыча песка на Меконге угрожает экосистеме озера Тонлесап — Science вчера в 21:50
Азия теряет своё водное сердце: под гул машин исчезает озеро, что кормило миллионы

Учёные предупреждают: без жёстких ограничений на добычу песка крупнейшее озеро Юго-Восточной Азии может исчезнуть, а вместе с ним — и жизнь.

Читать полностью »
Ухо превращает вибрации в электрические сигналы — Nature вчера в 19:54
Молекулы начинают петь: раскрыт скрытый механизм слуха, превращающий вибрации в музыку жизни

Учёные впервые заглянули в самую загадочную часть внутреннего уха и раскрыли молекулярный механизм слуха, открыв новые перспективы в лечении глухоты.

Читать полностью »
В Сомали нашли метеорит с минералами элалиит и элкинстантонит — Крис Херд вчера в 17:53
Посланник звёзд: метеорит принёс на Землю минералы, которых здесь никогда не было

В метеорите из Сомали нашли два неизвестных науке минерала — открытие, которое способно изменить понимание процессов, происходящих в недрах астероидов.

Читать полностью »
Объятия и поглаживания активируют мозговые центры удовольствия — Cell вчера в 15:01
Кожа помнит нежность: одно прикосновение запускает внутри нас волну радости и покоя

Учёные впервые проследили путь удовольствия от кожи к мозгу. Эти открытия могут изменить подход к лечению тревожности, стресса и аутизма.

Читать полностью »
Ацтеки использовали горы для точного измерения времени — Эксекиэль Эскурра вчера в 13:28
Огненный диск вместо часов: формула астрономии, кормившая миллионы в древней Мексике

Как ацтеки без телескопов и часов создавали идеальный календарь, позволяющий кормить миллионы и предсказывать високосные годы — теперь это подтверждено наукой.

Читать полностью »
Праздники снижают тревожность и улучшают психическое здоровье — JPPM вчера в 11:44
Праздники лечат не хуже психотерапии: эффект, который работает даже сквозь экран

Учёные выяснили, что праздники способны не только поднимать настроение, но и реально укреплять здоровье.

Читать полностью »