Цифровое искажение новостей
Цифровое искажение новостей
Алексей Костин Опубликована сегодня в 3:12

Доверие на грани: машины уже формируют реальность — но не всегда ту, что существует

Когда миллионы людей по всему миру обращаются к искусственному интеллекту, чтобы узнавать новости, возникает главный вопрос: насколько точны ответы таких ассистентов? Новое исследование BBC совместно с Европейским вещательным союзом (EBU) показало, что нейросети нередко искажают факты, выдают вымышленные источники и создают иллюзию достоверности, не подтверждённую реальными данными.

Как проходило исследование

Исследование BBC и EBU охватило 22 общественные телерадиокомпании из 18 стран. Профессиональные журналисты проверили более трёх тысяч ответов от ChatGPT, Copilot, Gemini и Perplexity. Проверка проводилась по ключевым критериям: точность, надёжность источников, отделение мнения от факта и наличие контекста.

Оказалось, что проблемы есть практически у всех.
• В 45% ответов ИИ была обнаружена хотя бы одна серьёзная ошибка.
• В 31% случаев нейросети ссылались на вымышленные или вводящие в заблуждение источники.
• 20% ответов содержали неточные данные, нереалистичные детали или устаревшую информацию.

"Исследование убедительно показывает, что подобные недостатки — не единичные случаи. Они носят системный, трансграничный и мультиязычный характер, и мы считаем, что это подрывает доверие общественности", — заявил заместитель генерального директора EBU Жан Филип де Тендер.

Кто справился хуже всех

Среди протестированных систем худший результат показал Gemini: 76% ответов были признаны проблемными. Это более чем вдвое превышает показатели других ассистентов. Эксперты связывают провал с низкой эффективностью поисковых алгоритмов и сложностями при определении надёжных источников.

Сравнение систем искусственного интеллекта

Ассистент Доля ответов с проблемами Основные ошибки Комментарий экспертов
Gemini 76% Искажённые факты, ложные источники Самый высокий уровень ошибок
Perplexity 43% Недостаток контекста, устаревшие данные Стабильно, но неточно
ChatGPT 37% Противоречивость данных, упрощения Лучший баланс точности и ясности
Copilot 32% Ошибки в источниках и логике ответов Иногда смешивает мнение и факт

Второй этап проверки показал, что в целом уровень ошибок по сравнению с началом года снизился, но, по словам исследователей, "всё ещё остаётся высоким".

Почему пользователи всё же доверяют ИИ

Согласно опросу BBC, 7% онлайн-пользователей уже получают новости через ИИ-ассистентов, а среди молодых людей до 25 лет — 15%. Более трети взрослых британцев доверяют сводкам, составленным нейросетью, и почти половина респондентов младше 35 лет считают эти источники надёжными. При этом большинство признаёт, что не всегда способны отличить машинный текст от журналистского материала.

Советы шаг за шагом: как распознать искажённый ответ ИИ

  1. Проверяй источники. Если ассистент не приводит ссылок или называет неизвестные сайты, стоит усомниться в достоверности.

  2. Сравни информацию.

  3. Следи за эмоциональными оценками. Если текст звучит слишком субъективно — это не журналистика, а генерация.

  4. Проверяй даты. ИИ часто цитирует старые материалы как актуальные.

  5. Используй фактчекинговые сервисы.

Такая привычка поможет избежать попадания в ловушку ложной уверенности, которую создают нейросети.

Ошибка → Последствие → Альтернатива

Ошибка: полностью доверять новостям от искусственного интеллекта.
Последствие: распространение фейков, утрата доверия к СМИ и неверные решения на основе ложных данных.
Альтернатива: комбинировать использование ИИ с проверенными источниками, развивать медиаграмотность и требовать прозрачности алгоритмов.

А что если журналисты и ИИ начнут работать вместе

Если объединить точность профессиональных редакций и вычислительные возможности ИИ, новостные материалы могут стать не только оперативнее, но и глубже. Уже сейчас некоторые издания тестируют гибридные редакции: человек задаёт контекст, а ИИ предлагает факты и аналитику. При контроле экспертов такой подход способен сократить время проверки данных, но при этом сохранить качество и ответственность.

Плюсы и минусы ИИ-ассистентов в новостях

Плюсы Минусы
Быстро анализируют большие массивы данных Могут придумывать факты и источники
Работают на разных языках Слабо различают мнение и факт
Доступны 24/7 Используют устаревшие данные
Помогают журналистам с первичной аналитикой Не способны нести ответственность за ошибки

FAQ

Почему ИИ ошибается в новостях?
Ассистенты часто опираются на старые или неточные источники, а также генерируют вероятные, но вымышленные ответы.

Можно ли доверять новостям от ChatGPT или Copilot?
Частично. Эти системы могут быть полезны для справки, но не заменяют профессиональные СМИ.

Как улучшить качество ответов ИИ?
BBC и EBU предлагают внедрять "медиафильтры" — системы, проверяющие источники до генерации ответа.

Зачем проводить такие исследования?
Чтобы сформировать стандарты прозрачности ИИ и защитить пользователей от информационных искажений.

Мифы и правда

Миф 1: ИИ — нейтральный и не ошибается.
Правда: алгоритмы обучаются на человеческих данных и наследуют их ошибки и предвзятость.

Миф 2: нейросеть всегда знает источник.
Правда: часто ИИ генерирует ссылки, которых не существует.

Миф 3: чем новее модель, тем она точнее.
Правда: качество зависит от обучения, фильтров и обновления базы, а не только от версии.

Исторический контекст

Первые эксперименты с автоматическим созданием новостей начались в начале 2010-х, когда агентство Associated Press внедрило алгоритм для генерации финансовых отчётов. Тогда это казалось прорывом, но уже к 2020 году исследователи столкнулись с проблемой — машины начали искажать контекст и выдавать вымышленные данные. Современные ИИ, включая ChatGPT, сделали шаг вперёд в качестве языка, но сохраняют старые слабые места: отсутствие проверки фактов и ответственности. Исследование BBC и EBU лишь подтвердило, что вопрос доверия к новостям, созданным машиной, остаётся открытым.

Читайте также

Небо древней Австралии принадлежало ему: гигант с крыльями длиннее авто держал океан в страхе вчера в 11:58

В Квинсленде нашли новый вид птерозавра Haliskia peterseni. 100 миллионов лет назад этот летающий хищник парил над древним морем, охотясь на рыбу.

Читать полностью »
Генная инженерия наносит удар по нефти: скромное растение превратилось в источник чистой энергии вчера в 9:42

Учёные увеличили выработку масла в рыжике посевном на 21,4 %, удалив ген TT8. Это открытие меняет подход снижает зависимость от нефти.

Читать полностью »
Слова помнят больше, чем люди: язык хранит культурные коды, способные влиять на ИИ вчера в 7:37

Учёные доказали, что язык формирует неосознанные предубеждения и передаёт их из поколения в поколение. Эти скрытые установки проявляются даже в ИИ.

Читать полностью »
Наука научилась прятать жар: новый материал делает тепло невидимым даже для спутников вчера в 5:26

Учёные разработали метод управления тепловым излучением с помощью топологических интерфейсов, открыв новые возможности для терморегуляции и теплового камуфляжа.

Читать полностью »
Вкус можно выключить: горечь исчезает, а лекарства наконец можно пить без гримасы вчера в 3:12

Учёные из Центра Монелла создали первый временный универсальный блокатор вкуса, позволяющий без усилий принимать горькие лекарства.

Читать полностью »
Деревья творят чудеса: прогулка среди листвы перезагружает мозг сильнее, чем отпуск вчера в 1:09

Учёные выяснили, что наблюдение за деревьями во время прогулок снижает тревожность и улучшает настроение. Даже короткое внимание к природе помогает мозгу восстановиться.

Читать полностью »
Новый король мелового мира: рога этого гиганта напоминают оружие скандинавских богов 26.10.2025 в 23:10

Учёные описали нового рогатого динозавра Lokiceratops — гиганта с изогнутыми рогами, как у Локи. Его находка раскрывает тайны эволюции цератопсов.

Читать полностью »
Мозг не ленится — он выжидает: откладывая дела, человек следуем глубоко заложенному инстинкту 26.10.2025 в 21:09

Учёные из Общества Макса Планка объяснили, почему мозг выбирает откладывание дел и как понимание нейробиологии прокрастинации помогает повысить продуктивность.

Читать полностью »