«Надзорный» орган Facebook отменяет четыре удаления и выдвигает множество политических предложений | Предприниматель

«Надзорный» орган Facebook отменяет четыре удаления и выдвигает множество политических предложений

Саморегулируемый «Совет по надзору» (FOB) Facebook вынес свой первый пакет решений по оспариваемым решениям о модерации контента почти через два месяца после отбора своих первых дел.

Создавался долгое время, FOB является частью Кризисный PR-подход Facebook призван дистанцировать свой бизнес от воздействия неоднозначных решений о модерации контента – путем создания контрольного органа, который будет обрабатывать крошечную часть жалоб, которые привлекает удаление контента. Он начал принимать заявки на рассмотрение в октябре 2020 года – и столкнулся с критикой за медлительность в работе.

Объявив сегодня первые решения, FOB показывает, что он решил поддержать только одно из решений о модерации контента, принятых ранее Facebook, отменив четыре решения технологического гиганта.

Самопровозглашенный «надзорный» совет Facebook выбирает первые дела, в основном связанные с разжиганием ненависти

Решения по делам принимались комиссией из пяти человек, в которую входил хотя бы один член из рассматриваемого региона и смешанного пола, согласно FOB. Затем большинству полного Правления пришлось изучить выводы каждой комиссии, чтобы утвердить решение, прежде чем оно могло быть вынесено.

Единственным случаем, когда Правление поддержало решение Facebook об удалении контента, является дело 2020-003-FB-UA, где Facebook удалил сообщение в соответствии со своим стандартом сообщества о языке вражды, в котором для описания азербайджанцев использовалось русское слово «тазики» («тазики»), у которых, по утверждению пользователя, нет истории по сравнению с армянами.

В четырех других случаях Правление отменило удаление Facebook, отвергнув более ранние оценки, сделанные техническим гигантом в отношении политики в отношении языка ненависти, наготы взрослых, опасных лиц / организаций, а также насилия и подстрекательства. (Вы можете ознакомиться с описанием этих случаев на его веб-сайте.)

Каждое решение относится к определенному фрагменту контента, но правление также выпустило девять рекомендаций по политике.

К ним относятся предложения Facebook [emphasis ours] :

  • Создать новый стандарт Сообщества по дезинформации о здоровье объединяющий и уточняющий существующие правила в одном месте. Здесь должны быть определены ключевые термины, такие как «дезинформация».
  • Использовать менее навязчивые средства обеспечения соблюдения политики дезинформации в отношении здоровья где контент не достигает порога Facebook для неизбежного физического вреда.
  • Повышение прозрачности того, как он сдерживает дезинформацию о здоровье включая публикацию отчета о прозрачности применения Стандартов Сообщества во время пандемии COVID-19. Эта рекомендация основана на общественных комментариях, полученных Правлением.
  • Убедитесь, что пользователи всегда уведомляются о причинах любого применения Стандартов сообщества против них, включая конкретное правило, которое применяет Facebook. (Правление сделало две идентичные рекомендации по политике в этой области, относящиеся к рассматриваемым им делам, а также отметив в отношении второго случая разжигания ненависти, что «непрозрачность Facebook оставила его решение открытым для ошибочного убеждения, что компания удалила контент, потому что Пользователь выразил мнение, с которым он не согласен ».)
  • Объясните и приведите примеры применения ключевых терминов из Политики в отношении опасных лиц и организаций включая значения« похвала »,« поддержка »и« представление ». Стандарт сообщества также должен лучше информировать пользователей о том, как четко обозначить свои намерения при обсуждении опасных лиц или организаций.
  • Предоставьте публичный список организаций и лиц, обозначенных как «опасные» в соответствии со стандартом сообщества опасных лиц и организаций или, по крайней мере, список примеров.
  • Информируйте пользователей, когда автоматическое принудительное исполнение используется для модерирования их контента, убедитесь, что пользователи могут обжаловать автоматизированные решения для человека в определенных случаях и улучшите автоматическое обнаружение изображения с наложенным текстом, чтобы сообщения, повышающие осведомленность о симптомах рака груди, не были ошибочно помечены для проверки. Facebook также следует улучшить прозрачность отчетности об использовании автоматизированного контроля.
  • Пересмотреть Правила сообщества Instagram, чтобы указать, что женские соски могут быть показаны для повышения осведомленности о раке груди и уточнить, что там, где есть несоответствия между Принципами сообщества Instagram и Принципами сообщества Facebook Стандарты сообщества, последние имеют приоритет.

Там, где оно отменило удаление Facebook, правление заявляет, что оно ожидает, что Facebook восстановит определенные части удаленного контента в течение семи дней.

Кроме того, Правление пишет, что Facebook также будет «изучать» должен ли идентичный контент с параллельным контекстом, связанный с решениями Правления, оставаться на его платформе ». И говорит, что у Facebook есть 30 дней, чтобы публично отреагировать на его рекомендации по политике.

Так что, безусловно, будет интересно посмотреть, как технический гигант отреагирует на подробный список предлагаемых изменений политики – возможно, особенно на рекомендации по повышению прозрачности (включая предложение он информирует пользователей, когда контент был удален исключительно его ИИ) – и готов ли Facebook полностью соответствовать руководящим принципам, выпущенным механизмом саморегулирования (или нет).

Спорный совет по надзору Facebook начинает рассмотрение случаев модерации контента

Facebook создал структуру и устав совета и назначил его членов – но поддержал идею о том, что он «независим» от Facebook, хотя он также финансирует FOB (косвенно, через фонд, созданный для управления органом). [19659002] И хотя Правление заявляет, что его решения по проверке являются обязательными для Facebook, у Facebook нет такого требования следовать его политическим рекомендациям.

Также примечательно, что усилия FOB по проверке полностью сосредоточены на удалении, а не на том, что Facebook предпочитает размещать на своей платформе.

Учитывая все это, невозможно количественно оценить, какое влияние Facebook оказывает на решения Совета по надзору Facebook. И даже если Facebook проглотит все вышеупомянутые политические рекомендации – или, что более вероятно, создаст PR-линию, приветствующую «продуманный» вклад FOB в «сложную область» и заявив, что «примет их во внимание по мере продвижения вперед», – он делает это. из места, где он сохранил максимальный контроль над обзором контента, определяя, формируя и финансируя задействованный «надзор».

tl; dr: На самом деле это не верховный суд.

В ближайшие недели FOB будет вероятно, будет наиболее пристально следить за делом, которое было рассмотрено недавно, – связанным с бессрочным отстранением от работы Facebook бывшего президента США Дональда Трампа после того, как он спровоцировал насильственное нападение на столицу США в начале этого месяца. общественный комментарий по этому делу «в ближайшее время».

«Недавние события в Соединенных Штатах и ​​во всем мире высветили огромное влияние, которое решения о содержании, принимаемые интернет-службами, оказывают на права человека и свободу выражения», – пишет он. и далее добавит: «Проблемы и ограничения существующих подходов к модерации контента привлекают внимание к ценности независимого надзора за наиболее важными решениями таких компаний, как Facebook».

Но, конечно, этот «Наблюдательный совет» – это не может быть полностью независимым от своего основателя, Facebook.

Наблюдательный совет Facebook рассмотрит решение о приостановлении полномочий Трампа

Вы можете оставить комментарий, или ссылку на Ваш сайт.