Apple искусственный интеллект отслеживание
/ forklog.com

Apple отказалась от сканирования iCloud на наличие CSAM-изображений

Компания Apple отказалась от планов внедрения системы сканирования изображений в iCloud на наличие признаков материалов сексуального насилия над детьми (CSAM).

Об этом пишет Wired. Во время анонса новых функций безопасности для облачного хранилища техгигант сообщил, что не будет анализировать фотографии.

По словам представителя Apple, компания пойдет другим путем для борьбы с незаконным контентом. «Дети могут быть защищены без корпораций, просматривающих личные данные.

Читать на forklog.com
Сайт imag.one - агрегатор новостей из открытых источников. Источник указан в начале и в конце анонса. Вы можете пожаловаться на новость, если находите её недостоверной.

Сейчас читают

DMCA