Репрезентативный вред

Репрезентативный вред (англ. representational harm) — вред, наносимый системами при искажённом или негативном представлении определённых социальных групп. К проявлениям репрезентативного вреда относят закрепление вредоносных стереотипов, умаление существования или значимости социальной группы (расовой, этнической, гендерной, религиозной и др.)[1]. Часто алгоритмы машинного обучения приводят к репрезентативному вреду при обучении на данных с алгоритмической предвзятостью; данный эффект подтверждён и для больших языковых моделей[2]. Несмотря на важность предотвращения данного вреда, у учёных долгое время не существовало чёткого определения репрезентативного вреда, его часто путали с аллокативным вредом (неравное распределение ресурсов между группами), который проще фиксировать и изучать[1]. Однако интерес к проблеме растёт, появляются методы количественной оценки и снижения репрезентативного вреда в алгоритмах[3][4].

Виды

Среди ключевых видов репрезентативного вреда выделяют стереотипизацию, очернение и ошибочное распознавание[5]. Все они несут опасности для отдельных людей и сообществ.

Стереотипы — это чрезмерно упрощённые и обычно негативные представления о группе, чаще всего по признаку расы или пола. В результате людям может отказываться в доступе к образованию, трудоустройству, жилью и пр[6].. Так, стереотип «примерного меньшинства» об азиатских американцах как исключительно способных к математике и высоким достижениям негативно отражается на их профессиональной и учебной среде[7].

Репрезентативный вред возникает, если представление о социальной группе усиливает вредные стереотипы, формируя социальную изоляцию и предвзятость. Особенно часто это проявляется в отношении маргинализованных групп: цветные люди, женщины, ЛГБТК+, люди с инвалидностью. В медиа такие группы часто изображаются однобоко, что закрепляет общественные предрассудки. Такие шаблонные представления поддерживают опасные стереотипы и маргинализацию.

Очернение — это несправедливая критика, умышленное преуменьшение достоинств целых групп[6]. Например, по запросу с «чёрным» именем некоторые поисковые системы показывают рекламу залоговых агентств, поддерживая ложное представление о преступности[8]. Система может формировать образ группы как обладающей низким социальным статусом, что ведёт к стигматизации и общественной маргинализации[6].

Оценки показывают, что вредные образы в медиа ведут к эмоциональным и социальным последствиям для личностей и сообществ. Лоренс Бобо анализировал этнические стереотипы в кино и рекламе — афроамериканцы обычно представлены как «агрессивные», «ленивые» или предназначенные только для комических ролей. Формально разнообразные, такие образы сохраняют систему господства белого населения и расового неравенства[9]. Примером является частое изображение темнокожих как преступников или в второстепенных ролях — это закрепляет этнические стереотипы и поддерживает институциональный расизм.

Ошибочное распознавание (или неправильная идентификация) проявляется в стирании и отчуждении групп, а также в лишении возможности самоидентификации[6]. Если социальная группа систематически слабо видна или исключается в алгоритмических системах, это ведёт к недостаточному представлению и повторному неравенству[6]. Запрет человеку на самоидентификацию равнозначен «стиранию» или исключению, что влечёт психологический вред, изоляцию и эмоциональную неуверенность[6].

Количественная оценка

По мере повышения осведомленности об опасности репрезентативного вреда появились методы количественного измерения этого эффекта в алгоритмах.

Моделирование стереотипизации — один из способов выявления репрезентативного вреда. Его можно оценить сравнением предсказанных моделью результатов для одной социальной группы с реальными (эталонными) результатами для этой группы в данных[3]. Например, если вероятность наступления события для группы A равна 60 %, а модель выдаёт систематически более высокую вероятность, это может свидетельствовать о стереотипизации[3]. Подобную оценку осуществляли для задач классификации, регрессии и кластеризации, с выведением формальных правил наличия стереотипизации в этих случаях.

Другие методы оценки фокусируются на анализе алгоритмов в специфичных областях, например, в генерации подписей к изображениям. В одном из исследований измерялись пять видов репрезентативного вреда. Оценка стереотипизации проводилась по числу ошибочных слов, вставленных моделью в подпись по сравнению с эталонной подписью[4]. Неправильные слова вручную анализировали на предмет соответствия стереотипам или случайным ошибкам, что позволяло косвенно количественно оценить масштабы стереотипизации[4]. Также исследовалась частота, с которой на изображениях люди вообще упоминаются в созданных моделью подписях — если люди не назывались, это трактовалось как проявление дегуманизации[4].

Примеры

Один из самых известных случаев репрезентативного вреда связан с компанией Google, алгоритм которой в 2015 году пометил афроамериканцев на фото как обезьян[10]. Разработчики объяснили проблему недостаточным числом лиц афроамериканцев в обучающей выборке алгоритма[11]. Google принесла извинения и исправила ошибку, заблокировав возможность классификации как примата вообще[11]. По состоянию на 2023 год алгоритмы компании по-прежнему не идентифицировали животных-обезьян на фотографиях[11].

Другой пример — закрепление стереотипов в векторных представлениях слов (word embeddings), которые обучаются на больших корпусах текстов. Эти векторы позволяют вычислять сходство между словами как массивами чисел в векторном пространстве[12]. Однако исследования показывают, что такие векторные представления могут кодировать вредоносные стереотипы — например, близость словосочетания «программист» к «мужчина», а не к «женщина», что трактуется как миcрепрезентация профессии и проявление репрезентативного вреда[13].

Преодоление репрезентативного вреда

Среди инициатив по снижению репрезентативного вреда — продвижение инклюзивных и достоверных образов в медиа. Учёные и активисты подчёркивают необходимость увеличения разнообразия авторов и героев, чтобы избежать односторонних стереотипов — то есть более широкое представительство маргинализованных групп за и перед камерой способствует коррекции стереотипов и аутентичному описанию опыта.

В последние годы появились позитивные примеры репрезентации людей из числа расовых меньшинств, женщин, ЛГБТК+ в крупном медиа — например, фильм «Сельма» режиссёра Авы ДюВерней и сериал «Поза», созданный Райаном Мёрфи, получили признание за глубокое и уважительное изображение маргинализованных сообществ, показывая сложных, неоднородных персонажей, выходящих за рамки упрощённых шаблонов.

Важным способом преодоления репрезентативного вреда является также самопредставление, т. е. создание и продвижение собственных историй силами маргинализованных групп. Это влечёт как выпуск медиа-контента представителями этих сообществ, так и сознательное сопротивление исторически укоренённым шаблонам их исключения.

Примечания