Эксперты ООН бьют тревогу по поводу расового профилирования с применением ИИ

  • Home
  • blog
  • Эксперты ООН бьют тревогу по поводу расового профилирования с применением ИИ
blog image

Эксперты ООН по правам человека заявили в четверг, что страны должны сделать больше для борьбы с расовым профилированием, предупредив, что программы искусственного интеллекта, такие как распознавание лиц и прогнозирование полиции, рискуют усилить вредную практику.

Расовое профилирование не ново, но технологии, которые когда-то рассматривались как инструменты для обеспечения большей объективности и справедливости в полицейской деятельности, во многих местах, по-видимому, усугубляют проблему.

«Существует большой риск того, что (технологии искусственного интеллекта) будут воспроизводить и усиливать предубеждения и усугублять или приводить к дискриминационной практике», — сказала AFP ямайский эксперт по правам человека Верен Шеперд.

Она является одним из 18 независимых экспертов, входящих в Комитет ООН по ликвидации расовой дискриминации (КЛРД), который в четверг опубликовал руководство о том, как странам мира следует работать, чтобы положить конец расовому профилированию со стороны правоохранительных органов .

Комитет, который следит за соблюдением 182 странами, подписавшими Международную конвенцию о ликвидации всех форм расовой дискриминации, выразил особую озабоченность по поводу использования алгоритмов искусственного интеллекта для так называемой «прогнозирующей полицейской деятельности» и «оценки рисков».

Рекламируется, что системы помогают лучше использовать ограниченные бюджеты полиции, но исследования показывают, что они могут увеличить количество развертываний в сообществах, которые уже были правильно или ошибочно определены как зоны с высоким уровнем преступности.

‘Опасная петля обратной связи’

«Исторические данные об арестах в районе могут отражать расовые предубеждения полиции», — предупредил Шеперд.

«Такие данные увеличивают риск чрезмерного контроля в том же районе, что, в свою очередь, может привести к большему количеству арестов, создавая опасную петлю обратной связи».

Когда искусственный интеллект и алгоритмы используют предвзятые исторические данные, их прогнозы профилирования будут это отражать.

«Плохие данные, плохие результаты», — сказал Шеперд.

«Мы озабочены тем, что делает эти предположения и прогнозы».

Рекомендации CERD также ставят под сомнение растущее использование технологий распознавания лиц и наблюдения в полиции.

Шеперд сказал, что комитет получил ряд жалоб на неправильную идентификацию с помощью таких технологий, иногда с ужасными последствиями, но не привел конкретных примеров.

Проблема вышла на первый план с незаконным арестом в Детройте в начале этого года афроамериканца Роберта Уильямса, основанного на некорректном алгоритме, который идентифицировал его как подозреваемого в ограблении.

Различные исследования показывают, что системы распознавания лиц , разработанные в западных странах, гораздо менее точны в различении лиц с более темной кожей, возможно, потому, что они полагаются на базы данных, содержащие больше белых мужских лиц.

«Неправильная идентификация»

«У нас были жалобы на такую ​​неправильную идентификацию из-за того, откуда берутся технологии, кто их производит и какие образцы они имеют в своей системе», — сказал Шеперд.

«Это реальная проблема».

CERD призывает страны регулировать деятельность частных компаний, которые разрабатывают, продают или эксплуатируют системы алгоритмического профилирования для правоохранительных органов.

В нем говорится, что страны несут ответственность за то, чтобы такие системы соответствовали международному праву в области прав человека, подчеркнув важность прозрачности при разработке и применении.

Комитет настаивал на том, чтобы общественность была проинформирована о том, когда такие системы используются, и рассказала, как они работают, какие наборы данных используются и какие меры предосторожности существуют для предотвращения нарушений прав.

Тем временем рекомендации выходят за рамки воздействия новых технологий, призывая страны принять законы против всех форм расовой дискриминации со стороны правоохранительных органов.

«Этим технологиям предшествует расовое профилирование, — сказал Шеперд.

Она сказала, что 2020 год — год, отмеченный ростом расовой напряженности во многих частях мира — был хорошим временем для представления новых руководящих принципов.

Комитет, по ее словам, «надеется, что интенсификация и глобализация Black Lives Matter … и другие кампании, призывающие обратить внимание на дискриминацию определенных уязвимых групп, помогут (подчеркнут) важность рекомендаций».