← Социальные сети
Почему фильтрация Facebook в конечном итоге потерпит неудачу
В своем отчете о модерации контента, опубликованном на этой неделе, Facebook сообщил, что с марта по сентябрь 2019 года он удалил колоссальные 3,2 миллиарда фальшивых аккаунтов.
Facebook также утверждает, что он пометил 54 миллиона единиц контента, как слишком токсичный, 18,5 миллиона единиц считается сексуальной эксплуатацией, 11,4 миллиона постов нарушают правила противозаконных высказываний и 5,7 миллиона нарушают правила преследования.
Мы должны рассмотреть эти большие цифры в контексте астрономического роста гиганта социальных медиа. Сейчас Facebook, Inc. размещает столько контента, что трудно представить себе какое-либо фильтрующее устройство, способное разобраться во всем.
Генеральный директор Facebook Марк Цукерберг признался Конгрессу в прошлом месяце, что более 100 миллиардов единиц контента распространяются через сущности Facebook (включая Instagram и WhatsApp) каждый день.
Сто миллиардов единиц контента в день составляют примерно 18 триллионов единиц контента за шестимесячный период, описанный в отчете модератора Facebook.
Или, говоря словами Шриваставы, это сравнимо с тем, что каждый живущий человек на Земле публикует контент на платформах Facebook 13 раз каждый день.
Вот где мы сегодня.
Для фильтрации этого цунами изображений и текста в поисках подозрительных постов Facebook развернул армию из более чем 30 000 модераторов контента, и в этом ему помогает искусственный интеллект, предназначенный для пометки контента, который может нарушать правила.
Но защита не справляется.
Доклад, опубликованный Avaaz в конце октября, кажется, подтверждает это. Avaaz обнаружил, что Facebook удалил только 96 из 213 постов, которые он пометил как токсичные.
Итак, опять же, что это значит?
Это означает, что даже при работе на оптимальном уровне схемы модерирования контента в Facebook по-прежнему будут пропускать посты, которые побуждают людей совершать настоящее насилие.
После почти двух десятилетий, посвященных росту любой ценой, сеть компании стала слишком большой, чтобы справляться — даже если учесть, что ресурсы Facebook теперь используются для фильтрации и пометки нежелательного контента. И эти неудачи имеют опасные последствия в реальном мире.
Наша задача состоит не только в том, чтобы исправить Facebook. Facebook так много может сделать, чтобы решить проблему по своей сути. Но возможно решение находится в другом месте, там, где кто-то хочет создать лучшую платформу с нуля.
Когда такие объемы сложно. Если алгоритм пропускает допустим даже 1%, то на таких объемах получаются, что тысячи, десятки тысяч сообщений пропущено. По большому счету стоит вопрос фильтрации по определенным признакам. Токсичный контент, повторяющийся контент, спам..., нет особой разницы. Это лишь фильтры с условиями по большому счету. Даже 1% пропуска — очень много, а меньше не думаю, что будет. Не будет никогда алгоритма 100% правого.
Это особенно заметно на сайтах ВиО. Повторяющиеся вопросы.
Stack Overflow, Quora убирает посты. Но допустим, пропускаются 1%, это вроде не особо много. Но количество вопросом велико. И этот 1% бросается в глаза. Люди говорю, что устали от повторов. Пример.