Люди не доверяют ИИ. Как это исправить?

Люди не доверяют ИИ. Как это исправить?
  • 17.01.18
  • 0
  • 9270
  • фон:

Искусственный интеллект уже может предсказывать будущее. Полиция использует его для составления карты, отражающей, когда и где может произойти преступление. Врачи используют его для прогнозирования, когда у пациента может случиться инсульт или сердечный приступ. Ученые даже пытаются дать ИИ воображение, чтобы он мог предвидеть неожиданные события.

Многие решения в нашей жизни требуют хороших прогнозов, и агенты ИИ почти всегда лучше справляются с ними, чем люди. Тем не менее для всех этих технологических достижений нам по-прежнему не хватает уверенности в прогнозах, которые дает искусственный интеллект. Люди не привыкли полагаться на ИИ и предпочитают доверять экспертам в лице людей, даже если эти эксперты ошибаются.

Если мы хотим, чтобы искусственный интеллект нес пользу людям, нам нужно научиться доверять ему. Для этого нам нужно понять, почему люди так настойчиво отказываются доверять ИИ.

Доверьтесь доктору Роботу

Попытка IBM представить суперкомпьютерную программу врачам-онкологам (Watson for Oncology) стала провальной. ИИ обещал предоставить высококачественные рекомендации по лечению 12 видов рака, на долю которых приходится 80% случаев в мире. На сегодняшний день более 14 000 пациентов получили рекомендации на основании его расчетов.

Но когда врачи впервые столкнулись с Watson, они оказались в довольно сложной ситуации. С одной стороны, если Watson давал указания относительно лечения, совпадающие с их собственными мнениями, медики не видели большой ценности в рекомендациях ИИ. Суперкомпьютер просто рассказывал им то, что они уже знали, и эти рекомендации не меняли фактического лечения. Это, возможно, давало врачам спокойствие и уверенность в собственных решениях. Но IBM еще не доказала, что Watson действительно увеличивает процент выживаемости с раком.

С другой стороны, если Watson давал рекомендации, которые расходились с мнением экспертов, врачи заключали, что Watson некомпетентен. И машина не могла объяснить, почему ее лечение должно сработать, потому что ее алгоритмы машинного обучения были слишком сложными, чтобы их могли понять люди. Соответственно, это приводило к еще большему недоверию, и многие врачи просто игнорировали рекомендации ИИ, полагаясь на собственный опыт.

В результате главный медицинский партнер IBM Watson — MD Anderson Cancer Center — недавно сообщил об отказе от программы. Датская больница также сообщила, что отказывается от программы после того, как обнаружила, что врачи-онкологи не согласны с Watson в двух случаях из трех.

Проблема онкологического Watson была в том, что врачи ему просто не доверяли. Доверие людей часто зависит от нашего понимания того, как думают другие люди, и собственного опыта, укрепляющего уверенность в их мнении. Это создает психологическое чувство безопасности. ИИ же, с другой стороны, относительно новая и непонятная для людей штука. Он принимает решения, основываясь на сложной системе анализа для выявления потенциальных скрытых закономерностей и слабых сигналов, вытекающих из больших объемов данных.

Даже если его можно объяснить техническим языком, процесс принятия решений ИИ, как правило, слишком сложный, чтобы его могли понять большинство людей. Взаимодействие с чем-то, чего мы не понимаем, может вызвать тревогу и создать ощущение утраты контроля. Многие люди попросту не понимают, как и с чем работает ИИ, потому что это происходит где-то за ширмой, в фоновом режиме.

По этой же причине они острее подмечают случаи, когда ИИ ошибается: вспомните алгоритм Google, который классифицирует цветных людей как горилл; чатбот Microsoft, который стал нацистом менее чем за день; автомобиль Tesla, работающий в режиме автопилота, в результате которого произошел несчастный случай со смертельным исходом. Эти неудачные примеры получили непропорционально большое внимание средств массовой информации, подчеркивающих повестку того, что мы не можем полагаться на технологии. Машинное обучение не является на 100% надежным, отчасти потому что его проектируют люди.

Раскол общества?

Чувства, которые вызывает искусственный интеллект, уходят глубоко в природу человеческого существа. Недавно ученые провели эксперимент, в ходе которого опросили людей, смотревших фильмы про искусственный интеллект (фантастические), на тему автоматизации в повседневной жизни. Выяснилось, что независимо от того, был ИИ в фильме изображен в позитивном или негативном ключе, простой просмотр кинематографического представления нашего технологического будущего поляризует отношения участников. Оптимисты становятся еще более оптимистичными, а скептики закрываются еще сильнее.

Это говорит о том, что люди предвзято относятся к ИИ, отталкиваясь от собственных рассуждений, такова глубоко укоренившаяся тенденция предвзятого подтверждения: тенденция искать или интерпретировать информацию таким образом, чтобы подтвердить заранее имевшиеся концепции. Поскольку ИИ все чаще мелькает в медиа, это может способствовать глубокому разделению общества, расколу между теми, кто пользуется ИИ, и теми, кто его отвергает. Преобладающая группа людей может получить серьезное преимущество или гандикап.

Три выхода из кризиса доверия ИИ

К счастью, у нас есть мысли на тему того, как справиться с доверием к ИИ. Одно только наличие опыта работы с ИИ может значительно улучшить отношение людей к этой технологии. Есть также свидетельства, указывающие на то, что чем чаще вы используете определенные технологии (например, Интернет), тем больше вы им доверяете.

Другое решение может заключаться в том, чтобы открыть «черный ящик» алгоритмов машинного обучения и сделать их работу более прозрачной. Такие компании, как Google, Airbnb и Twitter, уже публикуют отчеты прозрачности о государственных запросах и раскрытии информации. Подобная практика в системах ИИ поможет людям получить нужное понимание того, как алгоритмы принимают решения.

Исследования показывают, что вовлечение людей в процесс принятия решений ИИ также повысит степень доверия и позволит ИИ учиться на человеческом опыте. Исследование показало, что люди, которым давали возможность слегка модифицировать алгоритм, чувствовали большую удовлетворенность от результатов его работы, по всей видимости, из-за чувства превосходства и возможности влиять на будущий исход.

Нам необязательно понимать сложную внутреннюю работу систем ИИ, но если предоставить людям хотя бы немного информации и контроля над тем, как эти системы реализуются, у них появится больше доверия и желания принять ИИ в повседневную жизнь.

Источник