Нет идеального решения для профилирования платформ в соответствии с Законом о цифровых услугах

Блог

ДомДом / Блог / Нет идеального решения для профилирования платформ в соответствии с Законом о цифровых услугах

Jun 29, 2023

Нет идеального решения для профилирования платформ в соответствии с Законом о цифровых услугах

Джесси Маккроски — руководитель отдела ответственных технологий в Финляндии компании Thoughtworks и главный специалист по анализу данных. Клэр Першан — руководитель отдела адвокации в ЕС Mozilla Foundation. Регуляторы в Европе требуют

Джесси Маккроски — руководитель отдела ответственных технологий в компании Thoughtworks в Финляндии и главный специалист по анализу данных. Клэр Першан — руководитель отдела адвокации в ЕС Mozilla Foundation.

Регуляторы в Европе требуют, чтобы платформы обеспечивали большую прозрачность и контроль пользователей над профилированием рекомендательных систем, в том числе ориентированных на рекламу. Закон ЕС о цифровых услугах (DSA) устанавливает правила, повышающие прозрачность рекламы и предоставляющие пользователям больше информации и контроля над рекомендациями по контенту. Многие требования DSA к крупнейшим онлайн-платформам и поисковым системам вступают в силу 25 августа, а объявления о соблюдении требований от соответствующих служб уже поступают. Например:

С этими требованиями жестко боролись эксперты по подотчетности платформ и конфиденциальности во время переговоров по DSA. Теперь следующей задачей является осмысленная реализация на платформах. Однако это может быть непросто, поскольку за целевыми рекомендациями стоят модели машинного обучения, основанные на «профилировании». Эти системы предназначены для дискриминации между пользователями и фактически могут создавать «непреднамеренные выводы», которые трудно смягчить, что затрудняет соблюдение требований.

Чтобы понять эти требования, нам необходимо лучше понять нюансы таргетинга контента; Таргетинг рекламы — наглядный пример, который также поможет нам понять органический контент. Обычно мы можем рассматривать таргетированную рекламу в двух слоях (см. «Неотъемлемая дискриминация микротаргетинга»):

Этот первый уровень таргетинга может быть ограничен довольно детальными параметрами таргетинга. Однако второй уровень обычно будет использовать все данные, доступные платформе — подробный профиль каждого пользователя — на основе лайков, истории просмотров и любых других данных, которые платформе удалось собрать.

Этот второй уровень называется микротаргетингом. Нерекламный контент (или «органический контент») также обычно подвергается микротаргетингу — например, Facebook может отображать сообщения от ваших друзей, которые вам, скорее всего, «нравятся», а YouTube может рекомендовать видео, которые, по его прогнозам, вы, скорее всего, потратите большую часть времени смотрю.

Чтобы обеспечить прозрачность таргетинга рекламы, как того требует DSA, довольно просто предоставить информацию о первом уровне: это, вероятно, сводится к тому, какие характеристики рекламодатель выбрал для таргетинга. Однако, как мы увидим ниже, второй уровень также влияет на то, какие пользователи увидят рекламу. Даже без прямого ведома рекламодателя или платформы могут возникнуть определенные непреднамеренные выводы, вызывающие своего рода автоматическую дискриминацию. По этой причине также очень сложно предотвратить таргетинг по конкретным характеристикам.

Это имеет последствия для обязательств DSA, связанных с персонализацией, особенно статьи 26, требующей разъяснений пользователям таргетинга их рекламы и запрещающего таргетинг на основе конфиденциальных личных данных. Существует множество интерпретаций, но кажется разумным ожидать, что если реклама показывается в первую очередь пользователям определенного пола, этнической принадлежности или политической ориентации, то эти характеристики составляют «основные параметры» и поэтому должны быть раскрыты, даже если ни рекламодатель, ни платформа не намерены принимать такое решение о таргетинге.

Действительно, вполне возможно, что реклама непреднамеренно показывается пользователям, ориентированным на их личные характеристики. Это возможно из-занепреднамеренные выводы.

Непреднамеренный вывод — это случай, когда рекомендательная система может рекомендовать разный контент разным социально-демографическим или иным образом определенным группам. Для упрощения мы назовем это дискриминацией и будем использовать пол в качестве примера группировки. Эти непреднамеренные выводы происходят без того, чтобы платформа имела какие-либо данные о поле своих пользователей и, что особенно важно, без какого-либо способа узнать, что имеет место дискриминация. Система может дискриминировать по признаку пола, не зная пола отдельного пользователя.