Социальные сети и Big Tech-решения по всему миру способствуют гендерному неравенству — исследование Amnesty International

Во всём мире различные технические системы усиливают гендерное неравенство и закрепляют доминирующие расовые и социально-экономические властные иерархии, заявила сегодня Amnesty International в исследовательском брифинге под названием «Гендер и права человека в цифровую эпоху».

Маргинализированные группы, включая женщин и ЛГБТИ людей, сталкиваются с угрозами их правам человека из-за обширной и недолжной практики сбора данных, которая не отражает их личного положения и предпочтений. Правительства оправдывают такие тактики сбора данных, например, как выгодное экономичное решение для внедрения автоматизированных систем в государственном секторе для выплаты пособий, в то время как крупные технологические компании накапливают и используют личные данные пользователей для извлечение больших прибылей благодаря моделям бизнеса, основанным на наблюдении.

Подобные недостаточно регулируемые сбор и обработка огромного количества данных не только представляют собой вредоносную массовую слежку, но и закрепляет дискриминацию против женщин и ЛГБТИ-людей.

«От неконтролируемого внедрения цифровых систем идентификации до использования алгоритмов в системах социальных пособий, мы наблюдаем растущую тенденцию интеграции технологий в каждый аспект повседневной жизни. Это происходит на фоне существующего глобального гендерного «цифрового разрыва», когда доступ к технологиям ограничен для некоторых групп из-за исторической несправедливости и неравенства,» – заявила Имоджен Ричмонд-Бишоп, исследовательница по вопросам технологий и экономических, социальных и культурных прав в Amnesty International.

От неконтролируемого внедрения цифровых систем идентификации до использования алгоритмов в системах социальных пособий, мы наблюдаем растущую тенденцию интеграции технологий в каждый аспект повседневной жизни

Имоджен Ричмонд-Бишоп, исследовательница по вопросам технологий и экономических, социальных и культурных прав в Amnesty International

«Любая технология, внедряемая для управления, помещена в дискриминационный контекст существующего «цифрового разрыва», — указала она.

Например, в Пакистане Национальное управление баз данных и регистрации (NADRA) приостанавливало использование гендерно-нейтральной категории «X» при выдаче компьютеризированных национальных удостоверениях личности (CNIC). Эта категория позволяла людям идентифицировать себя с гендером, отличным от мужского или женского. Решение оставило тысячи трансгендерных и гендерно-разнообразных людей без действительных удостоверений личности, лишая их возможности осуществлять свои основные права, такие как голосование или доступ к медицинскому обслуживанию и возможностям трудоустройства. Однако регистрация документов с гендерным маркером «X» была возобновлена в сентябре 2023 года.

В дополнение к «цифровому разрыву», существуют несколько других барьеров, с которыми сталкиваются женщины, девочки и ЛГБТИ-люди при осуществлении своих прав человека в цифровом пространстве, включая доступ к информации о сексуальном и репродуктивном здоровье, правах и услугах здравоохранения, таких как аборты.

Когда правительства или платформы социальных сетей ограничивают доступ к информации о здоровье, особенно к ключевым услугам для женщин и ЛГБТИ-людей, это может составлять нарушение права на здоровье. Эта тенденция растёт в Соединённых Штатах, где активисты и организации за права на аборт сообщили о удалении контента, связанного с абортами, на Meta и TikTok, что эффективно препятствует людям в доступе к жизненно важной информации.

Системы, использующие алгоритмы для продвижения контента на платформах социальных сетей, также могут способствовать предвзятости, умножая эффект вредноносного и дискриминационного контента. Исследования Amnesty International в TikTok показали, что компания делает выводы о личных характеристиках пользователя, включая гендер и интересы, на основе имеющейся о них информации, чтобы персонализировать и настраивать контент и рекламу.

Целевая цифровая слежка с использованием шпионского ПО также может составлять форму технологически-обусловленного гендерного насилия (TfGBV). Женщины и ЛГБТИ-люди подвергаются слежке за участие в правозащитной деятельности и сталкиваются с рядом гендерно обусловленных последствий из-за такого преследования.

Исследования Amnesty International в Таиланде выявили, как активисты стали объектами злонамеренной и незаконной цифровой слежки и онлайн-преследования со стороны государственных и негосударственных акторов, что привело к глубоким вредным гендерно обусловленным последствиям для женщин и ЛГБТИ-правозащитников. Такое вредоносное преследование, включая использование печально известного шпионского ПО Pegasus, создало «охлаждающий эффект», что привело к самоцензуре или отказу от активизма в некоторых случаях.

Женщины и ЛГБТИ-активисты в Таиланде также подверглись формам онлайн-преследования, включая доксинг, клеветнические кампании, угрозы и оскорбительные сообщения, с целью запугивания, причинения стресса и для того, чтобы они прекратили свою публичную деятельность.

Очень важно, чтобы правительства и частные акторы приняли явно гендерно-инклюзивный подход к регулированию технологий и устранению их вредных последствий

Имоджен Ричмонд-Бишоп, исследовательница по вопросам технологий и экономических, социальных и культурных прав в Amnesty International

«Очень важно, чтобы правительства и частные акторы приняли явно гендерно-инклюзивный подход к регулированию технологий и устранению их вредных последствий. Если эти системы способствуют дискриминации и неравенству для женщин и ЛГБТИ-людей, то их не следует использовать,» – заявила Имоджен Ричмонд-Бишоп.

Предыстория

В 2024 году Amnesty International опубликовала технический разбор системы Samagra Vedika, используемой в штате Телангана в Индии. Изыскание было начато после сообщений СМИ, обвиняющих Samagra Vedika в якобы исключении тысяч людей из доступа к мерам социальной защиты, включая те, которые связаны с продовольственной безопасностью, доходом и жильём.

В 2023 году исследования Amnesty International, под названием «Захваченные автоматизацией: бедность и дискриминация в системе социального обеспечения Сербии», задокументировали, как многие люди, особенно рома и лица с инвалидностью, не могли оплачивать счета, покупать еду и едва сводили концы с концами после исключения их из системы социальной поддержки после введения автоматизированного реестра социальных карт.