Apple без лишней шумихи убрала все упоминания о функции обнаружения на своих устройствах изображений, содержащих сцены жестокого обращения с детьми (CSAM), со своей веб-страницы, посвящённой безопасности детей.
Предполагается, что спорный план компании по сканированию всех изображений на iPhone и iPad на предмет запрещённых фотографий может быть остановлен после волны критики в адрес компании.
В августе Apple объявила о планах по внедрению новых функций для обеспечения безопасности детей, включая сканирование пользовательских фотографий на iPhone и iPad на предмет наличия материалов, содержащих изображения насилия над детьми, а также функции, направленные на определение отправки или получения детьми изображений откровенного характера и
Читать на goodnews.ua