Исследователи обнаружили конфликт во встроенной хеш-функции iOS, что вызвало новые опасения по поводу работы системы сканирования Apple CSAM (Child Sexual Abuse Material).
Напомним, для борьбы с распространением контента с сексуальным насилием над детьми компания Apple проверяет фотографии пользователей iOS-устройств.
При этом используемая технология не предусматривает сканирование изображений в привычном смысле. Она сопоставляет цифровые хеш-сигнатуры фотографий с базой данных изображений сексуального насилия над детьми и способна выявлять характерные цифровые отпечатки.
Читать на itc.ua