Компания Oracle запустила проверку алгоритмов TikTok и модели модерации контента на предмет манипуляций со стороны китайских властей.
Об этом пишет Axios. Согласно отчету, Oracle хочет убедиться, что отображение контента в TikTok «соответствует ожиданиям» пользователей, а алгоритмы рекомендаций не подвергаются манипуляциям.
Также видеосервис будет регулярно проверять методы модерации, включая автоматизированные и ручные системы. В TikTok подтвердили информацию из отчета Axios.
Читать на forklog.com