Если робот в сознании, можно ли его выключить? Моральные последствия создания настоящего ИИ

  • Home
  • blog
  • Если робот в сознании, можно ли его выключить? Моральные последствия создания настоящего ИИ
blog image

Философ Питер Сингер утверждает, что существа, которые могут чувствовать боль или страдать, претендуют на моральное положение. Он утверждает, что нечеловеческие животные обладают моральными качествами, поскольку они могут чувствовать боль и страдать. Ограничение его людьми было бы формой спесишизма, что-то вроде расизма и сексизма.

Не подтверждая рассуждения Зингера, мы могли бы задаться вопросом, можно ли расширить его до робота-Android, такого как Data. Для этого потребуется, чтобы Дейта чувствовал боль или страдал. И то, как вы ответите, зависит от того, как вы понимаете сознание и интеллект.

По мере того как настоящая технология искусственного интеллекта приближается к воображаемым версиям Голливуда, вопрос морального статуса становится все более важным. Философы вроде меня считают, что если у ИИ есть моральные устои , из этого может следовать, что они имеют право на жизнь. Это означает, что вы не можете просто их демонтировать, а также может означать, что люди не должны мешать достижению своих целей.

Два вкуса интеллекта и тест

Шахматная машина Deep Blue от IBM была успешно обучена, чтобы обыграть гроссмейстера Гари Каспарова. Но ничего другого он сделать не мог. Этот компьютер обладал так называемым предметно-ориентированным интеллектом.

С другой стороны, есть такой интеллект, который позволяет хорошо выполнять множество вещей. Это называется общим интеллектом. Это то, что позволяет людям готовить, кататься на лыжах и растить детей — задачи, которые связаны, но при этом очень разные.

Общий искусственный интеллект, AGI, — это термин, обозначающий машины, обладающие общим интеллектом. Пожалуй, ни одна машина еще не продемонстрировала такого интеллекта. Этим летом стартап OPENAI выпустил новую версию своей языковой модели Generative Pre-Training . GPT-3 — это система обработки естественного языка, обученная чтению и письму, чтобы ее могли легко понять люди.

Он сразу привлек внимание не только из-за его впечатляющей способности имитировать стилистические расцветки и собирать правдоподобный контент, но и из-за того, насколько далеко он ушел от предыдущей версии. Несмотря на такую ​​впечатляющую производительность, GPT-3 на самом деле ничего не знает, кроме того, как соединять слова различными способами. AGI остается довольно далеким.

Названный в честь исследователя ИИ Алана Тьюринга, тест Тьюринга помогает определить, является ли ИИ разумным. Может ли человек, разговаривающий со скрытым ИИ, сказать, ИИ это или человек? Если он не может, то для всех практических целей ИИ умен. Но этот тест ничего не говорит о том, может ли ИИ быть в сознании.

Два вида сознания

Сознание состоит из двух частей . Во-первых, это аспект опыта «каково мне», сенсорная часть сознания. Философы называют это феноменальным сознанием. Речь идет о том, как вы переживаете такое явление, как запах розы или ощущение боли.

Напротив, есть также доступное сознание. Это способность сообщать, рассуждать, вести себя и действовать скоординированно и быстро реагировать на стимулы на основе целей. Например, когда я передаю футбольный мяч своему другу, играющему в ворота, я реагирую на визуальные стимулы, действуя на основе предшествующей тренировки и преследую цель, определенную правилами игры. Я делаю пас автоматически, без сознательного обдумывания, в процессе игры.

Слепое зрение прекрасно иллюстрирует разницу между двумя типами сознания. Кто-то с этим неврологическим заболеванием может сообщить, например, что он ничего не видит в левой части поля зрения. Но если их попросят взять ручку из массива объектов в левой части их поля зрения, они с уверенностью смогут это сделать. Они не могут видеть ручку, но могут взять ее, когда им предложат — пример доступа к сознанию без феноменального сознания.

Данные — это андроид. Как эти различия проявляются по отношению к нему?

Дилемма данных

Данные андроида демонстрируют, что он самосознает, так как он может отслеживать, например, оптимально ли он заряжен или есть внутренние повреждения его роботизированной руки.

Данные также разумны в общем смысле. Он делает много разных вещей на высоком уровне мастерства. Он может управлять «Энтерпрайзом», выполнять приказы капитана Пикарда и обсуждать с ним лучший путь.

Он также может играть в покер со своими товарищами по плаванию, готовить, обсуждать актуальные вопросы с близкими друзьями, сражаться с врагами на чужих планетах и ​​заниматься различными видами физического труда. Данные имеют доступ к сознанию. Он явно пройдет тест Тьюринга.

Однако Дейту, скорее всего, не хватает феноменального сознания — он, например, не наслаждается ароматом роз и не испытывает боли. Он олицетворяет увеличенную версию слепого зрения. Он осознает себя и имеет доступ к сознанию — может схватиться за ручку, — но во всех своих чувствах ему не хватает феноменального сознания.

Теперь, если Дейта не чувствует боли, по крайней мере, одна из причин, по которой Зингер предлагает создать моральное положение существа, не выполняется. Но Дейта может выполнять другое условие — страдать, даже не чувствуя боли. Страдание может не требовать феноменального сознания, в отличие от боли.

Например, что, если бы страдание также определялось как идея препятствования преследованию правого дела без причинения вреда другим? Предположим, что цель Дейты — спасти своего товарища по команде, но он не может добраться до нее из-за повреждения одной из конечностей. Снижение активности Дейта, которое мешает ему спасти своего товарища по команде, является своего рода нефеноменальным страданием. Он предпочел бы спасти товарища по команде, и ему было бы лучше, если бы он это сделал.

В эпизоде ​​вопрос заканчивается не в том, осознает ли Дейта самосознание — это не вызывает сомнений. Не вызывает сомнений также, что он умен — он легко демонстрирует, что он умный в общем смысле. Неясно, обладает ли он феноменальным сознанием. Данные не разбираются, потому что, в конце концов, его человеческие судьи не могут прийти к согласию о значении сознания для нравственного положения.

Должен ли ИИ получить моральный статус?

Дейта добрый — он действует, чтобы поддерживать благополучие своих товарищей по команде и тех, кого он встречает на чужих планетах. Он подчиняется приказам людей и, похоже, вряд ли причинит им вред, и, кажется, защищает свое собственное существование. По этим причинам он кажется мирным, и его легче принять в мир вещей, имеющих моральное значение.

А как же Скайнет в фильмах «Терминатор» ? Или опасения, недавно высказанные Илоном Маском по поводу того, что ИИ более опасен, чем ядерное оружие , и Стивеном Хокингом по поводу ИИ, уничтожающего человечество ?

Люди не теряют своего морального статуса только потому, что действуют против интересов другого человека. Точно так же нельзя автоматически сказать, что только потому, что ИИ действует против интересов человечества или другого ИИ, он не имеет морального статуса. Вы можете иметь право сопротивляться ИИ, подобному Скайнету, но это не снижает его морального статуса. Если моральное положение дается в силу способности нефеноменально страдать, то и Скайнет, и Дейта получают его, даже если только Дейта хочет помочь людям.

Машин общего искусственного интеллекта пока нет. Но сейчас самое время подумать, что нужно сделать, чтобы дать им моральное положение. То, как человечество решит ответить на вопрос о моральном статусе небиологических существ, будет иметь большое значение для того, как мы будем иметь дело с будущими ИИ — будь то добрые и полезные, как Дейта, или настроенные на разрушение, как Скайнет.