Компания Apple подтвердила информацию о том, что на айфонах появится система, которая будет автоматически проверять медиатеку пользователей на наличие изображений жестокого обращения с детьми, включая детскую порнографию (CSAM).
Первой новая функция заработает в США позднее в этом году, после выхода операционных систем iOS 15, iPadOS 15 и macOS Monterey.
К CSAM относится контент, на котором изображены действия сексуального характера в отношении несовершеннолетнего. В Apple заявили, что "новая технология в iOS и iPadOS" будет сопоставлять хэши (то есть не сами изображения, а их цифровое представление) фото и видео, хранящихся в галерее устройства, с имеющейся базой материалов насилия над детьми, а в случае совпадений — уведомлять об этом.
Читать на vesti.ru