В течение трех месяцев (с апреля по июнь 2020-го) YouTube удалил 11,4 млн роликов, содержащих вредоносный контент. Об этом компания сообщила в своем блоге.
Большинство роликов были удалены, так как содержали опасный для детей контент. Доля таких видео составила 33,5% от общего количества. 28,3% видео были помечены как «спам» или «вводящие в заблуждение», 14,6% содержали изображения обнаженных людей, 10,6% демонстрировали чрезмерную жестокость и 8,1% удалили за призывы к насилию.
Также известно, что из 11,4 млн удаленных видеороликов 42% не успели набрать ни одного просмотра, 33,7% посмотрели менее 10-ти раз, а 24,3% — более 10-ти раз.
Какие ролики удалять, а какие оставить, решал искусственный интеллект. Он удалил 10,9 млн видео, которые не прошли модерацию. В компании пояснили, что из-за вынужденных сокращений ресурсов и рабочих мест, топ-менеджменту пришлось выбирать между потенциально недостаточными и потенциально избыточными мерами модерации. В итоге выбрали второе, считая ответственность за содержание контента своим приоритетом.
Ранее мы сообщали, что данные 235 миллионов профилей Youtube, TikTok и Instagram слиты в сеть.
Читайте также:
TikTok больше года незаконно собирал пользовательские данные — WSJ
В сети обнаружили данные миллионов пользователей VPN-сервисов
Инициатива «Чистое небо» сделала заявление относительно досудебного расследования MGID
ИТК присоединился к инициативе «Чистое небо»
Фото: «Телекритика»
Подписывайтесь на «Телекритику» в Telegram и Facebook!