Искусственный интеллект
Искусственный интеллект
Алексей Костин Опубликована сегодня в 15:02

Ошибка машины кажется предательством: ИИ срывает доверие, опираясь на ложные ожидания

Доверие к ИИ зависит от понимания процессов — The Conversation

Системы искусственного интеллекта уже прочно вошли в нашу повседневную жизнь: от ChatGPT, пишущего письма, до систем, которые помогают диагностировать заболевания. Но несмотря на все преимущества технологий, многие люди всё равно испытывают тревогу и недоверие к ИИ. Почему так? Всё дело в том, как наш мозг воспринимает риски и доверяет новым технологиям.

"Человеческое доверие строится не только на логике. Мы считываем интонацию, выражение лица, колебания и зрительный контакт. У ИИ этого нет", — отметил психолог Клод Стил.

Психология принятия решений и доверие к ИИ

Не все системы ИИ вызывают у нас подозрения, но многие из них работают по принципу "чёрного ящика" — мы не понимаем, как они делают свои выводы. В традиционных инструментах мы легко видим причинно-следственные связи: например, поворачиваете ключ в машине — она заводится. В случае с ИИ многие решения скрыты, и это вызывает у нас беспокойство. Мы чувствуем себя беспомощными, когда не понимаем, как работает система.

Неприятие алгоритмов и антропоморфизм

Неудовлетворение ошибками ИИ объясняется через антропоморфизм — мы часто приписываем машине человеческие черты. Когда ИИ ведёт себя "слишком вежливо" или система рекомендаций становится слишком точной, это вызывает у нас ощущение манипуляции. Это отражение нашего восприятия: нам некомфортно, когда система действует как человек, но не выглядит как таковой.

"Когда система делает ошибку, мы ощущаем это как предательство", — отметил исследователь в области коммуникации Клиффорд Насс.

Почему ошибки ИИ болезненные

Когда человек ошибается, мы склонны проявлять к нему сочувствие. Однако, если ошибается алгоритм, особенно тот, который позиционируется как объективный и беспристрастный, мы испытываем разочарование и тревогу. Это объясняется нарушением ожиданий: мы ожидаем, что ИИ будет точным, но когда этого не происходит, наше доверие рушится. Мы чувствуем себя преданными, несмотря на то что ИИ не обладает намерениями.

Идентичность и угроза от технологий

Для некоторых ИИ — это не просто незнакомая технология, а угроза их профессиональной идентичности. Системы, которые частично выполняют работу людей, могут вызывать тревогу за будущее своей профессии. Это приводит к защитным реакциям и сопротивлению.

"Сопротивление ИИ — это не ошибка, а психологический защитный механизм", — сказал Стил.

Эмоциональный отклик и зловещая долина

Человеческое доверие строится не только на логике, но и на эмоциональном отклике. ИИ, даже если он выглядит или звучит привлекательно, не может передать эмоции так, как это делает человек. Это приводит к тому, что мы испытываем чувство дискомфорта и неловкости, что напоминает эффект "зловещей долины" — когда объект выглядит почти как человек, но не совсем. В результате мы не знаем, как к нему относиться.

"В мире, полном дипфейков и алгоритмических решений, отсутствие эмоционального отклика становится проблемой", — исследователи в области психологии.

Почему недоверие к ИИ обосновано

Не все опасения по поводу ИИ беспочвенны. В ряде сфер, таких как подбор персонала или оценка кредитоспособности, алгоритмы усиливают предвзятость. Если кто-то столкнулся с ошибками алгоритмов или оказался в невыгодном положении, его недоверие к системе — это не паранойя, а естественная осторожность. Это пример усвоенного недоверия: когда системы регулярно ошибаются или ущемляют определённые группы, скептицизм становится не просто оправданным, но и защитным механизмом.

Доверие, которое нужно заслужить

Призывы "доверять системе" редко работают. Чтобы заслужить доверие, ИИ должен быть прозрачным, поддающимся проверке и подотчётным. Люди доверяют тому, что могут понять и что им объясняют. Это означает, что ИИ должен быть не "чёрным ящиком", а инструментом для сотрудничества, которому можно верить и с которым можно работать.

Советы шаг за шагом: как улучшить доверие к ИИ

  1. Упростите объяснения. ИИ должен объяснять свои решения простым и понятным языком.

  2. Признайте ошибки. Важно честно сообщать пользователю, если ИИ ошибся, и объяснять, почему это произошло.

  3. Прозрачность алгоритмов. Алгоритмы должны быть открыты для анализа, чтобы пользователи могли их проверять и адаптировать.

  4. Учёт интересов пользователей. ИИ должен работать в интересах людей, а не только ради оптимизации процессов.

  5. Долгосрочные отношения. Люди должны привыкать к ИИ и доверять ему через последовательное и честное взаимодействие.

Ошибка → Последствие → Альтернатива

  • Ошибка: считать ИИ нейтральным и неэмоциональным.
    Последствие: отсутствие доверия и желание избежать использования.
    Альтернатива: воспринимать ИИ как инструмент, требующий взаимодействия и человеческого участия.

  • Ошибка: ожидать от ИИ идеальных решений.
    Последствие: разочарование и отчуждение от технологий.
    Альтернатива: воспринимать ИИ как помощника, который помогает, но не заменяет человека.

Сравнение: человек vs ИИ

Параметр Человек ИИ
Эмоциональный отклик Является частью коммуникации Отсутствует
Ошибки Понимаем и прощаем Ощущаем как предательство
Прозрачность решений Ясна и понятна Часто скрыта

FAQ

Как снизить уровень недоверия к ИИ?
Улучшить объяснение алгоритмов и повышение прозрачности принятия решений.
Почему ИИ вызывает чувство манипуляции?
Из-за отсутствия эмпатии и недостаточного понимания, как он работает.
Можно ли полностью доверять алгоритмам?
Алгоритмы могут быть полезными, но всегда нужно понимать их ограничения и возможные ошибки.

Мифы и правда

  • Миф: ИИ всегда логичен и беспристрастен.
    Правда: ИИ может отражать и усиливать человеческие предвзятости.

  • Миф: Недоверие к ИИ — это просто страх перед технологиями.
    Правда: Это часто результат реальных ошибок и предвзятости алгоритмов.

  • Миф: Алгоритмы могут работать без человеческого вмешательства.
    Правда: Алгоритмы требуют постоянной проверки и адаптации.

3 интересных факта

  1. ИИ находит ошибки в данных, которые мы можем не заметить, повышая точность анализа.

  2. Эмоциональные сигналы, такие как интонация и выражения лиц, часто отсутствуют у ИИ, что делает его взаимодействие с людьми сложным.

  3. Алгоритмы, предвзятые в своей основе, могут усиливать социальные различия, особенно в таких сферах, как право и медицина.

Исторический контекст

От первых механических калькуляторов до современных систем ИИ — технологии всегда вызывали восторг и страх. И хотя в последние десятилетия ИИ стал мощным инструментом в многих областях, для большинства людей он остаётся загадкой. Важно понимать, что для построения доверия ИИ должен быть не только эффективным, но и прозрачным, поддающимся анализу и проверке.

Источник: The Conversation.

Читайте также

Древний монумент майя оказался точной картой космоса — Университет Аризоны сегодня в 14:01
Майя предсказывали будущее через архитектуру: тайны древних сооружений, которые опережали своё время

В Мексике найден древнейший памятник майя, который переворачивает наше представление о древних цивилизациях и их организации.

Читать полностью »
Распад суперконтинента Нуны увеличил площадь мелководий Земли — EPSL сегодня в 13:38
Земля пережила свой первый апокалипсис: катастрофа, которая привела к зарождению сложной жизни

Учёные выяснили, что распад суперконтинента Нуна изменил климат Земли и стал толчком к зарождению сложной жизни.

Читать полностью »
Бутилированная вода не чище из-под крана: подтвердили ученые сегодня в 12:35
Вода не бывает чистой? Почему даже бутилированная вода — это не идеальный продукт

Вода, которую мы считаем чистой, на самом деле далека от идеала. Узнайте, что происходит с водой, когда её очищают и что скрывается за этикеткой "питьевая вода".

Читать полностью »
Комета 3I/ATLAS излучила радиосигнал в Солнечной системе — Live Science сегодня в 11:27
Комета подала голос: сигнал, который приняли за привет от инопланетян, оказался дыханием льда

Астрономы впервые зафиксировали радиосигнал от межзвёздной кометы 3I/ATLAS. Но вместо послания от инопланетян — это следствие естественных процессов.

Читать полностью »
Физик Роджер Пенроуз представил циклическую модель Вселенной сегодня в 10:44
Вселенная без начала и конца: что скрывают самые смелые гипотезы о её рождении

Исследование гипотезы о рождении Вселенной: от Большого взрыва до циклических моделей и концепции мультивселенной, что открывает новые горизонты науки.

Читать полностью »
Нейроны спинного мозга передают сигналы о тепловой боли — Neuron сегодня в 9:48
Жара становится пыткой: мозг включает боль, будто в теле загорается лампа тревоги

Учёные выяснили, как мозг ощущает жгучую боль от тепла. Новое открытие нейронной цепи даёт шанс на эффективное лечение хронических болей.

Читать полностью »
Разрушение ледника Твейтса ускоряется — зафиксировали учёные из Манитобы сегодня в 8:36
Ледник Апокалипсиса трещит по швам: как трещины Твейтса угрожают будущему Земли

Недавнее исследование ледника Твейтса в Антарктиде показывает, как разломы ускоряют его разрушение и повышение уровня моря. Какие последствия ждут планету.

Читать полностью »
Гештальт-кора помогает осмысливать неоднозначную информацию — PR сегодня в 7:40
Реальность треснула на миллионы версий: мозг сам решает, какую из них вам показать

Учёные выяснили, что часть мозга — гештальт-кора — формирует нашу субъективную версию реальности. Именно она делает то, как мы видим мир, неповторимым.

Читать полностью »