Сервис коротких видео TikTok сообщил об изменениях в системе модерации контента. Соцсеть начнет использовать автоматизированные системы проверки, которые будут искать и удалять ролики с недопустимым содержанием: обнаженным телом, сценами секса, насилия, незаконными действиями и запрещенными товарами.
Если система обнаружит подобное видео, оно будет удалено, уведомление об этом с объяснением причин сразу же направят пользователю, который загрузил ролик.
В случае ошибки пользователи смогут подать апелляцию. Как сообщили в компании, автоматическая проверка контента будет запущена в США и Канаде в течение ближайших недель.
Читать на nep.co.il