Компания Apple отказалась от планов внедрения системы сканирования изображений в iCloud на наличие признаков материалов сексуального насилия над детьми (CSAM).
Об этом пишет Wired. Во время анонса новых функций безопасности для облачного хранилища техгигант сообщил, что не будет анализировать фотографии.
По словам представителя Apple, компания пойдет другим путем для борьбы с незаконным контентом. «Дети могут быть защищены без корпораций, просматривающих личные данные.
Читать на forklog.com