Люди готовы воспользоваться доброжелательным ИИ

  • Home
  • blog
  • Люди готовы воспользоваться доброжелательным ИИ
blog image

Люди ожидают, что ИИ доброжелателен и заслуживает доверия. Новое исследование показывает, что в то же время люди не желают сотрудничать и идти на компромисс с машинами. Они даже их эксплуатируют.

Представьте, что вы едете по узкой дороге в ближайшем будущем, когда впереди из поворота внезапно появляется другая машина. Это беспилотный автомобиль без пассажиров. Будете ли вы продвигаться вперед и отстаивать свое право преимущественного проезда или уступите дорогу, чтобы его пропустить? В настоящее время большинство из нас ведет себя доброжелательно в подобных ситуациях с другими людьми. Будем ли мы проявлять такую ​​же доброту к беспилотным автомобилям?

Используя методы теории поведенческих игр , международная группа исследователей из LMU Мюнхена и Лондонского университета провела крупномасштабные онлайн-исследования, чтобы выяснить, будут ли люди вести себя так же совместно с системами искусственного интеллекта (ИИ), как и с другими людьми.

Сотрудничество объединяет общество. Нам часто приходится идти на компромисс с другими и соглашаться на риск, что они нас подведут. Пробки — хороший пример. Мы теряем немного времени, когда пропускаем других людей впереди нас, и возмущаемся, когда другие не отвечают на нашу доброту взаимностью. Будем ли мы делать то же самое с машинами?

Исследование, опубликованное в журнале iScience, показало, что при первом знакомстве люди испытывают такой же уровень доверия к ИИ, как и к человеку : большинство ожидает встретить кого-то, кто готов к сотрудничеству. Разница приходит потом. Люди гораздо менее готовы отвечать на ИИ взаимностью и вместо этого используют его доброжелательность в своих интересах. Возвращаясь к примеру с дорожным движением, человек-водитель уступит дорогу другому человеку, но не беспилотному автомобилю. Исследование определяет это нежелание идти на компромисс с машинами как новую проблему для будущего взаимодействия человека и ИИ.

«Мы ставим людей на место тех, кто впервые взаимодействует с искусственным агентом, поскольку это могло произойти в дороге», — объясняет Юргис Карпус, доктор философии, теоретик поведенческих игр и философ из LMU в Мюнхене и первый автор исследования. «Мы смоделировали различные типы социальных контактов и обнаружили закономерность. Люди ожидали, что искусственные агенты будут сотрудничать так же, как и люди. Однако они не отвечали на свою доброжелательность в такой степени и использовали ИИ больше, чем люди».

С точки зрения теории игр, когнитивной науки и философии, исследователи обнаружили, что «использование алгоритмов» является устойчивым явлением. Они повторили свои выводы в девяти экспериментах с участием почти 2000 человек. Каждый эксперимент исследует различные виды социальных взаимодействий и позволяет человеку решить, идти ли на компромисс и сотрудничать или действовать эгоистично. Ожидания других игроков также были взвешенными. В известной игре «Дилемма заключенного» люди должны верить, что другие персонажи их не подведут. Они в равной степени шли на риск как с людьми, так и с ИИ, но гораздо чаще предавали доверие ИИ, чтобы заработать больше денег.

«Сотрудничество поддерживается взаимным пари: я верю, что вы будете добр ко мне, и вы верите, что я буду добр к вам. Самое большое беспокойство в нашей области — это то, что люди не будут доверять машинам. Но мы показываем, что они верят!» отмечает доктор Бахадор Бахрами, социальный нейробиолог из LMU и один из старших исследователей в исследовании. «Тем не менее, они не возражают против того, чтобы машина вышла из строя, и в этом большая разница. Люди даже не сообщают о большой вине, когда они это делают», — добавляет он.

Предвзятый и неэтичный ИИ сделал много заголовков — от фиаско на экзаменах 2020 года в Соединенном Королевстве до систем правосудия, — но это новое исследование вызывает новое предостережение. Промышленность и законодатели стремятся обеспечить доброжелательность искусственного интеллекта . Но доброжелательность может иметь неприятные последствия. Если люди думают, что ИИ запрограммирован на благосклонность к ним, у них будет меньше соблазна сотрудничать. Некоторые из аварий с участием беспилотных автомобилей могут уже показывать примеры из реальной жизни: водители узнают автономный автомобиль на дороге и ожидают, что он уступит дорогу. Между тем, беспилотный автомобиль ожидает нормальных компромиссов между водителями «.

Эксплуатация алгоритма имеет дальнейшие последствия. «Если люди не хотят позволять вежливому беспилотному автомобилю присоединяться к боковой дороге, должен ли беспилотный автомобиль быть менее вежливым и более агрессивным, чтобы быть полезным?» — спрашивает Юргис Карпус.

«Доброжелательный и заслуживающий доверия ИИ — это модное слово, которое вызывает всеобщий энтузиазм. Но исправление ИИ — это еще не все. Если мы поймем, что робот перед нами будет сотрудничать, несмотря ни на что, мы будем использовать его в наших эгоистических интересах, — говорит профессор Офелия Дерой, философ и старший автор исследования, которая также работает с норвежским институтом исследования проблем мира в Осло над этическими последствиями интеграции автономных роботов-солдат с людьми-солдатами.

«Компромиссы — это масло, которое заставляет общество работать. Для каждого из нас это выглядит лишь небольшим актом личных интересов. Для общества в целом это может иметь гораздо более серьезные последствия. Если никто не позволит автономным автомобилям присоединиться к движению, они сами создадут пробки на обочине, а не облегчат транспорт».