Окей, Google, какой фильм мне сегодня посмотреть? Как ИИ может повлиять на наши решения

  • Home
  • blog
  • Окей, Google, какой фильм мне сегодня посмотреть? Как ИИ может повлиять на наши решения
blog image

Вы когда-нибудь использовали Google Assistant, Apple Siri или Amazon Alexa, чтобы принимать решения за вас? Возможно, вы спрашивали, какие новые фильмы имеют хорошие отзывы или узнавали про рекомендации классного ресторана в вашем районе.

Искусственный интеллект и виртуальные помощники постоянно совершенствуются, и вскоре они могут назначать вам встречи, предлагать медицинские консультации или пытаться продать вам бутылку вина.

Хотя технологиям искусственного интеллекта еще предстоит многое сделать для развития социальных навыков наравне с нашими, некоторые ИИ продемонстрировали впечатляющее понимание языка и могут выполнять относительно сложные интерактивные задачи.

В нескольких демонстрациях 2018 года искусственный интеллект Google делал стрижки и бронировал столик в ресторане, так что администраторы не понимали, что разговаривают с нечеловеком.

Вероятно, возможности искусственного интеллекта, разработанные такими технологическими гигантами, как Amazon и Google, станут еще более способными влиять на нас в будущем.

Но что на самом деле кажется нам убедительным?

Мой коллега Адам Духачек и я обнаружили, что сообщения ИИ более убедительны, когда они подчеркивают «как» действие должно быть выполнено, а не «почему». Например, люди были более склонны наносить солнцезащитный крем, когда ИИ объяснял, как наносить солнцезащитный крем перед выходом на улицу, а не почему им следует использовать солнцезащитный крем.

Мы обнаружили, что люди обычно не верят, что машина может понять человеческие цели и желания. Возьмите AlphaGo от Google , алгоритм, разработанный для настольной игры Go. Мало кто скажет, что алгоритм может понять, почему играть в го — это весело или почему важно стать чемпионом в го. Скорее, он просто следует заранее запрограммированному алгоритму, говорящему ему, как двигаться по игровому полю.

Наши исследования показывают, что люди находят рекомендации ИИ более убедительными в ситуациях, когда ИИ показывает простые шаги по созданию персонализированной медицинской страховки , как избежать лимонной машины или как выбрать правильную теннисную ракетку для вас, а не почему что-то из этого важно. делать в человеческом смысле.

Есть ли у ИИ свобода воли?

Большинство из нас считает, что у людей есть свобода воли. Мы делаем комплименты тем, кто помогает другим, потому что думаем, что они делают это свободно, и наказываем тех, кто причиняет вред другим. Более того, мы готовы уменьшить уголовное наказание, если человек был лишен свободы воли, например, если он был охвачен шизофренической иллюзией.

Но думают ли люди, что у ИИ есть свобода воли? Мы провели эксперимент, чтобы выяснить это.

Кому-то дают 100 долларов и предлагают разделить их с вами. Они получат 80 долларов, а вы получите 20 долларов. Если вы отклоните это предложение, и вы, и предлагающий ничего не потеряете. Получить 20 долларов лучше, чем ничего, но предыдущие исследования показывают, что предложение за 20 долларов, скорее всего, будет отклонено, потому что мы считаем его несправедливым. Конечно, мы должны получить 50 долларов, верно?

Но что, если предлагающий — ИИ? В исследовательском проекте, который еще не был опубликован, мы с коллегами обнаружили, что коэффициент отклонения значительно снижается. Другими словами, люди с гораздо большей вероятностью примут это «несправедливое» предложение, если оно будет предложено ИИ.

Это потому, что мы не думаем, что ИИ, разработанный для обслуживания людей, имеет злонамеренное намерение эксплуатировать нас — это просто алгоритм, у него нет свободы воли, поэтому мы могли бы просто принять 20 долларов.

Меня беспокоит тот факт, что люди могут принимать несправедливые предложения от ИИ, потому что это может означать, что это явление может использоваться злонамеренно. Например, компания, занимающаяся ипотечным кредитованием, может попытаться установить неоправданно высокие процентные ставки, представив решение как рассчитываемое с помощью алгоритма. Или производственная компания может манипулировать рабочими, заставляя их соглашаться с несправедливой заработной платой, говоря, что это решение было принято компьютером.

Чтобы защитить потребителей, нам нужно понимать, когда люди уязвимы для манипуляций со стороны ИИ. Правительствам следует учитывать это при рассмотрении вопроса о регулировании ИИ.

Мы на удивление готовы раскрыть ИИ

В других работах, которые еще не были опубликованы, я и мои коллеги обнаружили, что люди склонны раскрывать свою личную информацию и неприятный опыт более охотно ИИ, чем человеку.

Мы сказали участникам представить, что они обращаются к врачу с инфекцией мочевыводящих путей. Мы разделили участников, так что половина говорила с врачом-человеком, а половина — с врачом искусственного интеллекта. Мы сказали им, что врач задаст несколько вопросов, чтобы найти лучшее лечение, и вам решать, какой объем личной информации вы предоставите.

Участники раскрыли больше личной информации врачу искусственного интеллекта, чем человеку, относительно потенциально смущающих вопросов об использовании секс-игрушек, презервативов или других сексуальных действиях. Мы обнаружили, что это произошло потому, что люди не думают, что ИИ судит о нашем поведении, в отличие от людей. Действительно, мы спросили участников, насколько они обеспокоены негативной оценкой, и обнаружили, что беспокойство, связанное с оценкой, было основным механизмом, определяющим, сколько они разглашают.

Похоже, мы меньше стесняемся разговаривать с ИИ. Это интересно, потому что многие люди серьезно обеспокоены ИИ и конфиденциальностью, и все же мы, возможно, с большей охотой делимся своими личными данными с ИИ.

Но что, если у ИИ есть свобода воли?

Мы также изучали оборотные: что происходит , когда люди начинают верить AI действительно есть свобода воли? Мы обнаружили, что наделение ИИ человеческими функциями или человеческим именем может означать, что люди с большей вероятностью поверит, что у ИИ есть свобода воли.

Это имеет несколько последствий:

  • Тогда ИИ может лучше убедить людей в вопросах «почему», потому что люди думают, что ИИ, подобный человеку, может понимать человеческие цели и мотивации.
  • Нечестное предложение ИИ с меньшей вероятностью будет принято, потому что ИИ, похожий на человека, может рассматриваться как имеющий собственные намерения, которые могут быть эксплуататорскими.
  • люди начинают чувствовать, что их оценивает похожий на человека ИИ, стесняются и раскрывают меньше личной информации
  • люди начинают чувствовать себя виноватыми, причиняя вред ИИ, внешне похожему на человека, и поэтому действуют более благосклонно к ИИ.

Вероятно, в будущем мы увидим все больше и больше различных типов ИИ и роботов. Они могут готовить, обслуживать, продавать нам машины, ухаживать за нами в больнице и даже сидеть за обеденным столом в качестве партнера для свиданий. Важно понимать, как ИИ влияет на наши решения, чтобы мы могли регулировать ИИ, чтобы защитить себя от возможного вреда.