Искусственный интеллект в тумане
Искусственный интеллект в тумане
Кирилл Казаков Опубликована сегодня в 7:15

Судьба под вопросом: ИИ будет галлюцинировать, даже когда на кону жизни

OpenAI: главная причина галлюцинаций ИИ связана с обучением моделей

OpenAI опубликовала исследование, которое стало самым строгим математическим объяснением того, почему языковые модели, включая ChatGPT, склонны к "галлюцинациям" — выдаче неправдивой информации с полной уверенностью. Результаты оказались неприятными для многих: проблему невозможно устранить полностью, а её причины кроются в самой природе обучения ИИ.

Как появился термин галлюцинации

В мире искусственного интеллекта слово "галлюцинации" стало использоваться всего несколько лет назад. Оно пришло из академических статей и быстро закрепилось в медиа. Под этим термином понимают ситуации, когда ИИ придумывает убедительные, но ложные факты. Сравнение с человеческими галлюцинациями помогает объяснить природу этих ошибок: они выглядят правдоподобно, но реальностью не являются.

Почему именно OpenAI заговорила об этом

Компания, стоящая за ChatGPT, оказалась в центре внимания именно потому, что её модели стали массовыми. Если раньше "галлюцинации" встречались в лабораторных экспериментах, то теперь с ними сталкиваются миллионы пользователей ежедневно. Для OpenAI важно было показать, что проблема не вызвана небрежностью разработчиков или плохими данными, а заложена в самой математике процесса генерации текста.

Почему модели ошибаются

Главный механизм работы языковых моделей — предсказание слова за словом. Этот процесс математически неизбежно ведёт к накоплению ошибок. Даже при идеальных обучающих данных вероятность неточностей возрастает при длинных ответах.

Исследование показало, что ошибки при генерации предложений возникают как минимум в два раза чаще, чем при простых вопросах "да/нет". Редкие факты в обучающей выборке с высокой вероятностью становятся источником искажений.

"Чем реже модель встречает факт в обучении, тем выше риск ошибочного ответа", — пояснил доцент Школы математических и физических наук Шеффилдского университета Вэй Син.

Сравнение факторов, вызывающих галлюцинации

Фактор Причина Результат
Накопление ошибок Ответ строится из многих прогнозов Неточности усиливаются
Редкие факты Данные встречаются один раз Ошибки в датах, именах
Бинарная оценка "Я не знаю" = 0 баллов ИИ вынужден угадывать
Ограниченные ресурсы Оценка неопределённости требует вычислений Выбирают быстрый, но рискованный путь

Советы шаг за шагом: как сократить галлюцинации

  1. Старайтесь формулировать вопросы максимально конкретно.

  2. Проверяйте ответы через несколько независимых источников.

  3. Повторяйте вопрос разными словами, чтобы выявить несоответствия.

  4. Для критически важных решений используйте специализированные модели и экспертный контроль.

  5. Относитесь к уверенности ИИ осторожно: уверенный тон не гарантирует точность.

Ошибка → Последствие → Альтернатива

  • Ошибка: полное доверие ИИ в вопросах фактов.

  • Последствие: распространение недостоверной информации.

  • Альтернатива: двойная проверка по научным публикациям или СМИ.

  • Ошибка: настройка моделей только на угадывание.

  • Последствие: рост количества мифов.

  • Альтернатива: внедрение систем учёта уровня уверенности.

А что если…

А что если ChatGPT начнёт чаще отвечать "я не знаю"? По расчётам OpenAI, это может быть до 30 % запросов. Пользовательский опыт изменится: меньше быстрых ответов, больше неопределённости. Но качество информации повысится. Вопрос в другом: готовы ли пользователи отказаться от иллюзии "универсального ответа" в пользу честности?

Плюсы и минусы предложенного решения

Плюсы Минусы
Снижение числа галлюцинаций До 30 % ответов — "не знаю"
Более честное отражение реальности Пользователи могут потерять интерес
Подходит для медицины, логистики, финансов Высокие вычислительные затраты
Повышение доверия к ответам Замедление работы систем

FAQ

Можно ли полностью устранить галлюцинации?
Нет. Они встроены в сам принцип работы языковых моделей.

Почему ИИ "боится" говорить "я не знаю"?
Потому что в большинстве тестов это оценивается так же, как ошибка.

Где выгодно применять модели с учётом неопределённости?
В медицине, финансах, логистике и инженерии, где цена ошибки выше затрат на вычисления.

Мифы и правда

  • Миф: галлюцинации связаны только с плохими данными.

  • Правда: они возникают даже при идеальном наборе.

  • Миф: рост мощности моделей устранит проблему.

  • Правда: даже крупнейшие модели продолжают выдавать ложные ответы.

  • Миф: галлюцинации легко исправить фильтрацией.

  • Правда: это системная особенность алгоритмов.

Три интересных факта

  1. DeepSeek-V3 трижды уверенно ошибся с датой рождения исследователя Адама Калая.

  2. Девять из десяти тестов на ИИ стимулируют угадывания из-за бинарной системы оценок.

  3. Методы оценки неопределённости существуют десятилетиями, но почти не используются в массовом ИИ.

Исторический контекст

Сначала разработчики надеялись, что рост объёмов данных и вычислительных мощностей снизит ошибки. Но ещё в начале 2000-х стало ясно: проблема глубже. Математика предсказаний показывает, что ошибки будут всегда.

Сегодня OpenAI и другие исследовательские центры ищут баланс. В критически важных сферах нужны системы, которые честно признаются в неопределённости. А массовый рынок по-прежнему требует быстрых и уверенных ответов. Именно это противоречие и определяет будущее искусственного интеллекта.

Читайте также

Discover Wildlife: в Непале после 185 лет обнаружили азиатскую бескоготную выдру вчера в 19:39

Непал подарил сенсацию: самая маленькая в мире выдра объявилась после полутора веков

В Непале спустя 185 лет вновь нашли самую маленькую выдру в мире, и это открытие стало символом надежды для всей программы по сохранению природы.

Читать полностью »
Шерф и Ламмер: для развития цивилизаций нужен кислород и тектоника плит вчера в 18:35

Много миров, мало шансов: почему Галактика пуста, несмотря на миллиарды планет

Новое исследование показало, что условия для появления технологических цивилизаций во Вселенной крайне редки, а соседи по Галактике могут быть недостижимо далеки.

Читать полностью »
NASA: исчезновение озера Чад угрожает миллионам жителей Африки вчера в 17:21

Африка теряет сердце: крупнейший источник воды превращается в пыль и трещины

НАСА зафиксировало резкое сокращение озера Чад — жизненно важного источника воды для миллионов людей в Африке, и последствия могут быть катастрофическими.

Читать полностью »
Андрин Стокер и Люк Швейцер разработали кирпич Bloc для охлаждения городов вчера в 16:05

Терракотовый щит против жары: кирпич, который умеет охлаждать сам по себе

Швейцарские студенты придумали Bloc — терракотовый кирпич, который охлаждает города на 9 °C, используя воду, солнце и воздух без хладагента.

Читать полностью »
Ocearch: у берегов Флориды поймали белую акулу длиной 4,2 метра вчера в 15:14

Встреча раз в жизни: у берегов Флориды поймали акулу-гиганта, которая ломает все рекорды

У берегов Флориды поймали гигантскую белую акулу, которая побила рекорды по размерам и дала учёным редкий шанс изучить жизнь этих хищников.

Читать полностью »
NASA: астероид 2024 YR4 может столкнуться с Луной в 2032 году вчера в 15:02

Семь лет до удара: в сторону Луны несётся астероид, и люди готовят ядерный ответ

NASA рассматривает крайний сценарий: первый в истории ядерный взрыв в космосе для защиты Луны от астероида, угроза которого всё ещё остаётся.

Читать полностью »
Франц фон Хольцхаузен: новая система ручек Tesla должна работать в ЧП вчера в 14:36

Ручки Tesla превратились в ловушку: стиль обернулся угрозой для жизни

Расследование NHTSA и давление со стороны Китая заставляют Tesla пересмотреть конструкцию дверных ручек, чтобы совместить дизайн и безопасность.

Читать полностью »
SETI: горбатые киты выпускают кольца из пузырей рядом с людьми вчера в 13:01

Киты играют в дымовое шоу под водой: они пытаются сказать нам нечто важное

Горбатые киты удивили учёных новым поведением — они выдувают идеальные кольца из пузырьков в сторону людей. Может ли это быть формой приветствия.

Читать полностью »