Кількість зображень, що містять сцени насильства, за цей період зросла на платформі на 183%. Причиною цього у Facebook вважають ескалацію війни в Сирії.
Крім того, автоматичні алгоритми Facebook розпізнають лише 38% постів, що розпалюють ненависть. Решта 62% виявляються завдяки скаргам користувачів. З іншого боку, компанії вдалося розробити алгоритми, які з ймовірністю 99,5% визначають пропагандистські пости ІДІЛ, Аль-Каїди та інших екстремістських угруповань. За три місяці з соцмережі було видалено 1,9 млн повідомлень такого змісту. Зі слів голови відділу управління продуктами Facebook Гая Розена, методика буде вдосконалюватися і надалі.
Все о свободе слова в Украине и мире (ОБНОВЛЯЕТСЯ)
Компанія також відзвітувала про свої дані щодо фейкових акаунтів у соцмережі. Такими на сьогодні є близько 3-4% усіх профілів, причому в першому кварталі 2018 року було закрито 583 млн акаунтів-фейків.
Головною проблемою модерації, як і раніше, залишається необхідність робити це вручну. Часом навіть працівники компанії, на яких лягає левова частка відповідальності за видалення забороненого контенту, зазнають труднощів з тим, де провести межу між дозволеним і екстремістським вмістом. Голова відділу опрацювання даних Facebook Алекс Шульц наводить як приклад слова, які є образою, коли їх вживає гомофоб, але прийнятні в середовищі самих гомосексуалів.
Нагадаємо, у квітні журналісти BBC розпитали колишню працівницю відділу модерації Facebook про те, як вплинула робота на її психічний стан.