Компания Apple планирует внедрить в iOS функцию, которая будет автоматически проверять медиатеку пользователей на наличие изображений жестокого обращения с детьми (CSAM).
Новая система будет анонсирована в ближайшее время, сообщил в твиттере эксперт по криптографии и кибербезопасности Мэтью Грин.
По его словам, эта информация поступила к нему сразу от нескольких независимых друг от друга источников. Как ожидается, в iOS начнут применяться алгоритмы хэширования контента, которые будут сопоставлять цифровые отпечатки фотографий и видео, хранящихся в памяти айфона, с имеющейся базой материалов насилия над детьми, включая детскую порнографию.
Читать на vesti.ru