ИИ Facebook научился находить 95% экстремистских высказываний, но соцсеть всё ещё требует от модераторов ходить в офисы

Алгоритмы Facebook в третьем квартале 2020 года смогли обнаружить 95% экстремистских высказываний на платформе до того, как они попали к модераторам, говорится в официальном сообщении соцсети. Несмотря на это, компания всё ещё требует от модераторов приходить на работу в офис — сотрудники направили руководству Facebook открытое письмо с требованием разрешить удалённую работу. 

Всего за третий квартал на платформе было выявлено 22,1 миллиона материалов с разжиганием ненависти, 19,2 миллиона постов с элементами жестокого графического содержания, 12,4 миллиона изображений детской порнографии и сексуальной эксплуатации, а также 3,5 миллиона материалов с издевательствами и домогательствами. Всего на подобный контент приходится 0,11% всего контента на Facebook — учитывая, что в соцсети зарегистрировано 2,7 миллиарда активных пользователей, это указывает на достаточно широкое распространение экстремистских и запрещённых материалов. 

Соцсеть впервые раскрыла цифру о распространённости запрещённого контента, поэтому неизвестно, была ли его доля на платформе больше или меньше до июля 2020 года. 

Facebook уточняет, что добиться удаления такого большого количества контента удалось с помощью искусственного интеллекта. Благодаря нему запрещённые посты оказываются удалены ещё до того, как пользователи сообщат о них модераторам. 

Несмотря на улучшение показателей, соцсеть по-прежнему требует от модераторов ходить на работу в офисы. Об этом говорится в открытом письме сотрудников Facebook, направленном на имя Марка Цукерберга и Шерил Сандберг. В письме говорится, что работа модераторов была одной из самых тяжёлых в компании и до пандемии COVID-19, поскольку им приходится иметь дело с большим количеством жестокого контента, включая насилие и жестокое обращение с детьми. 

Сотрудники возмущены, что компания заставляет их рисковать своей жизнью и здоровьем, требуя посещать офисы, при этом никак не доплачивая за риск. Они раскритиковали работу искусственного интеллекта, призванного модерировать контент на площадке — по мнению сотрудников, он далёк от того, чтобы вводить автоматизированную систему модерации.

«Ваши алгоритмы не могут обнаружить сарказм. Они не могут отделить журналистику от дезинформации. Они не могут достаточно быстро реагировать на насилие или жестокое обращение с детьми. Мы можем», — говорится в письме. 

Модераторы требуют, чтобы руководство компании обеспечило их безопасность и максимизировало количество удалённой работы. По их мнению, их обязанности можно исполнять и дистанционно, не подвергаясь риску заразиться COVID. При этом, если удалённая модерация контента не соответствует соображениям безопасности, как настаивает Facebook, то организацию работы следует изменить, считают модераторы. Кроме того, сотрудники требуют ввести доплату за риск и дать возможность воспользоваться реальной медицинской и психиатрической помощью — сейчас модераторам предлагают только еженедельные 45-минутные сеансы с «тренерами по оздоровлению», не имеющими психологического или психиатрического образования и потому не имеющими права ставить диагнозы и лечить.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»