США технологии Apple насилие США
/ vesti.ru

Официально: галерея iPhone будет сканироваться на предмет насилия над детьми

Компания Apple подтвердила информацию о том, что на айфонах появится система, которая будет автоматически проверять медиатеку пользователей на наличие изображений жестокого обращения с детьми, включая детскую порнографию (CSAM).

Первой новая функция заработает в США позднее в этом году, после выхода операционных систем iOS 15, iPadOS 15 и macOS Monterey.

К CSAM относится контент, на котором изображены действия сексуального характера в отношении несовершеннолетнего. В Apple заявили, что "новая технология в iOS и iPadOS" будет сопоставлять хэши (то есть не сами изображения, а их цифровое представление) фото и видео, хранящихся в галерее устройства, с имеющейся базой материалов насилия над детьми, а в случае совпадений — уведомлять об этом.

Читать на vesti.ru
Сайт imag.one - агрегатор новостей из открытых источников. Источник указан в начале и в конце анонса. Вы можете пожаловаться на новость, если находите её недостоверной.

Сейчас читают

DMCA