Саммит по искусственному интеллекту не должен игнорировать риски нарушения прав человека — Amnesty International

В преддверии Саммита по безопасности искусственного интеллекта, который начался в Великобритании в среду, 1 ноября, Дамини Сатия, руководитель Лаборатории отчётности алгоритмов Amnesty International, отметила:

«Проходящий в Великобритании глобальный саммит по безопасности искусственного интеллекта должен устанавливать правильный пример в глобальной гонке за регулированием искусственного интеллекта. Его участники должны руководствоваться не спекулятивными дискуссиями о «существенных угрозах», исходящих от этих технологий, а сконцентрироваться на тех, чьи права человека самым серьёзным образом попираются системами искусственного интеллекта». 

«На прошлой неделе британский премьер-министр Риши Сунак пропагандировал использование инструментов искусственного интеллекта для «выявления махинаций с пособиями» как положительный пример технологического развития, полностью проигнорировав исследования, которые показывают дискриминационный характер и частое злоупотребление такими системами», — указала она.

«Где признание правительством вредных последствий от использования ИИ и где внимание к регулированию и защите наиболее маргинализированных сообществ? Повестка дня саммита явно благоприятствует интересам технологической индустрии, и это вызывает беспокойство, поскольку наблюдается тенденция задействования подобных технологий против уязвимых групп», — напомнила Дамини Сатия.

«Экспериментируя с такой технологией в прошлый раз министерство труда и пенсий Великобритании несправедливо нацеливалось на лиц с ограниченными возможностями, подвергая их проверке на мошенничество при получении пособий и загоняя их в бесконечный бюрократический лабиринт, без прозрачности и справедливости», — привела пример она.

«В 2021 году исследование Amnesty International выявило разрушительные последствия дискриминационной системы искусственного интеллекта, используемой налоговыми органами Нидерландов для выявления мошеннических заявлений на получение детских пособий. При её помощи право на социальное обеспечение подвергалось расистскому фильтру. Четыре года спустя пострадавшие люди всё ещё ждут справедливости», — также указала Дамини Сатия.

«Государства склонны внедрять системы ИИ в качестве «технических решений» социальных проблем, но на самом деле это часто меры по сокращению затрат, которые ужесточают карательную политику против уязвимых людей, — считает она. — Обязательства, принятые на саммите, не должны фокусироваться на панических нарративах вокруг ИИ, а, скорее, приближать нас к такому регулированию, которое бы гарантировало защиту от потенциального вреда для затрагиваемых сообществ».

Государства склонны внедрять системы ИИ в качестве «технических решений» социальных проблем, но на самом деле это часто меры по сокращению затрат, которые ужесточают карательную политику против уязвимых людей

Дамини Сатия, руководитель Лаборатории отчётности алгоритмов Amnesty International


Дополнительная информация:

Amnesty International в сотрудничестве с более чем 100 организациями гражданского общества призвала правительство Великобритании поддержать сообщества и работников, наиболее пострадавших от ИИ, и включать их в принятие решений, касающихся таких технологий.

Amnesty International, входящая в коалицию организаций гражданского общества во главе с Европейской сетью цифровых прав (EDRi), призывает ЕС разработать регулирование искусственного интеллекта, которое защищает и продвигает права человека, включая права мигрантов.