Apple искусственный интеллект отслеживание
/ forklog.com

Apple отложила запуск функции обнаружения незаконного контента на устройствах

Компания Apple перенесла развертывание инструмента для сканирования фотографий пользователей на предмет жестокого обращения с детьми (CSAM).

Об этом пишет 9to5Mac. В Apple заявили, что отложили запуск средств обнаружения материалов о сексуальном насилии над детьми для «внесения улучшений» после критики.

В компании не сообщили о новых сроках релиза инструмента. «На основании отзывов клиентов, групп защиты интересов, исследователей и других людей мы решили выделить дополнительное время в ближайшие месяцы, чтобы собрать информацию и внести улучшения, прежде чем выпускать эти критически важные функции для безопасности детей», — сообщили представители компании.

Читать на forklog.com
Сайт imag.one - агрегатор новостей из открытых источников. Источник указан в начале и в конце анонса. Вы можете пожаловаться на новость, если находите её недостоверной.

Сейчас читают

DMCA