Когда адвокаты обеих сторон предложили свои заключительные заявления на суде над Дереком Човеном в понедельник, в тысяче миль отсюда, руководители в Facebook готовился к отмене приговора.
Стремясь избежать инцидентов, подобных тому прошлым летом, когда 17-летний Кайл Риттенхаус застрелил двух протестующих в Кеноша, штат Висконсин., компания социальных сетей заявила что будет принимать меры, направленные на «предотвращение связи онлайн-контента с оффлайн вредом».
(Шовен — бывший офицер полиции Миннеаполиса, признанный виновным во вторник в убийстве второй степени Джорджа Флойда в мае прошлого года; расстрел Кеноши произошел в августе 2020 года после того, как местная милиция группа призвала вооруженных мирных жителей защищать город на фоне протестов против расстрела полицией другого черного человека, Джейкоба Блейка.)
В качестве меры предосторожности Facebook заявил, что «удалит страницы, группы, события и аккаунты в Instagram, которые нарушают нашу политику в отношении насилия и подстрекательства », а также« удаляют мероприятия, организованные во временных местах с повышенным риском и содержащие призывы принести оружие ». Он также пообещал удалить контент, нарушающий запреты на «разжигание ненависти, издевательства и преследования, сцены насилия, а также насилие и подстрекательство», а также «ограничить распространение» сообщений, которые, по прогнозам его системы, впоследствии могут быть удалены за нарушения.
«Наши команды работают круглосуточно, чтобы искать потенциальные угрозы как в Facebook и Instagram, так и за их пределами, чтобы мы могли защитить мирные протесты и ограничить контент, который может привести к гражданским беспорядкам или насилию», — говорит Моника Бикерт, вице-президент Facebook политика в отношении содержания, написано в сообщении в блоге.
Но, демонстрируя свою способность контролировать проблемный контент, когда он чувствует необходимость срочно, Facebook предложил своим многочисленным критикам спросить: почему бы не принимать такие меры все время?
«Ненависть продолжается. проблема на Facebook, и тот факт, что Facebook, в ответ на этот инцидент, заявляет, что он может применять определенные средства управления к чрезвычайным ситуациям, означает, что они могут сделать больше, чтобы бороться с ненавистью, и что … по большей части Facebook является решил не делать этого », — сказал Дэниел Келли, заместитель директора Центра технологий и общества Антидиффамационной лиги.
«Очень обидно представить себе, что существуют средства контроля, которые они могут ввести в так называемые« чрезвычайные ситуации », которые увеличат чувствительность их инструментов, их продуктов к ненависти и преследованиям [generally]».
Это не единственный раз, когда Facebook «прибавил обороты» в ожидании политического насилия. Только в этом году он предпринял аналогичные шаги в связи с инаугурацией президента Байдена переворотом в Мьянме и выборами в Индии .
Facebook отказался обсуждать почему эти меры не используются платформой по умолчанию или какой недостаток может иметь их постоянное применение. В эссе 2018 года генеральный директор Марк Цукерберг сказал, что контент, который заигрывает с нарушением политик сайта, привлекает больше внимания в виде кликов, лайков, комментариев и репостов. Цукерберг назвал это «основной проблемой стимулов» и сказал, что Facebook сократит распространение такого «пограничного контента».
Центральным моментом в ответе Facebook, кажется, является определение Миннеаполиса как временного «места повышенного риска» — По словам компании, статус может быть применен к дополнительным объектам по мере развития ситуации в Миннеаполисе. Facebook ранее описывал сопоставимые меры модерации как ответы специально предназначенные для «стран, которым грозит конфликт»
.
«Они пытаются опередить… любую вспышку насилия, которая может произойти, если приговор суда пойдет так или иначе», — сказал Келли. «С их стороны это усилия по смягчению последствий, потому что они знают, что это будет… действительно важное решение».
Он сказал, что Facebook необходимо убедиться, что это не мешает законному обсуждению процесса Шовена. — баланс, на который у компании более чем достаточно ресурсов, — добавил он.
Еще один стимул для Facebook с особой осторожностью отнестись к приговору Шовена — это не подпитывать неизбежную критику его надвигающегося решения о том, будет ли бывшему президенту Трампу по-прежнему запрещен доступ к платформе. Трамп был уволен ранее в этом году за его роль в беспорядках в Капитолии 6 января; Дело в настоящее время рассматривается сторонним надзорным комитетом Facebook .
Ширин Митчелл — основательница организации Stop Online Violence Against Women и член The Real Facebook Oversight Board, сторожевой группы, ориентированной на Facebook, — рассматривает шаги, предпринимаемые на этой неделе, как попытку превентивно «смягчить удар» это решение.
Трамп, «который подстрекал к насилию, в том числе к восстанию; нацелился на чернокожих людей и чернокожих избирателей; собирается вернуться на свою платформу », — предсказал Митчелл. «И в этот момент они собираются притвориться, будто заботятся о черных, заботясь об этом деле. Это то, с чем мы имеем дело, и это такой ложный флаг за десятилетия… того, что они делали в прошлом, что это явно стратегическая акция ».
По мере того, как общественное давление на веб-платформы усиливается. Чтобы усилить модерацию пользовательского контента, Facebook — не единственная компания, которая разработала мощные инструменты модерации, а затем столкнулась с вопросами, почему она развертывает их только выборочно.
Ранее в этом месяце Intel подверглась критике и издевательства над «Bleep», инструментом модерации с искусственным интеллектом, направленным на то, чтобы дать игрокам более детальный контроль над тем, с какими языками они сталкиваются в голосовом чате, включая скользящие шкалы того, сколько женоненавистничества и белого национализма они хотят слышать, и кнопка для включения и выключения N-слова.
А на этой неделе Nextdoor запустил систему оповещения которая уведомляет пользователей, если они пытаются опубликовать что-то расистское, но на самом деле не останавливается их из публикации ng it.