Украина Мариуполь Apple насилие конфиденциальность Украина Мариуполь
/ itc.ua

Отказ Apple от системы проверки фотографий iCloud на детскую порнографию спровоцировал новые споры

В декабре Apple объявила, что прекращает разработку CSAM — инструмента сканирования фото в iCloud для противодействия проявлениям насилия над детьми, в частности, выявления случаев сексуальной эксплуатации несовершеннолетних, путем автоматического сравнения снимков по хэш-суммам с базой.

Помогаем Детям из Мариуполя нужно 120 ноутбуков для обучения - подари старое "железо", пусть оно работает на будущее Украины Анонсированный еще в августе 2021 года проект сразу вызвал споры — впервые Apple приостановила его в сентябре из-за беспокойства групп по цифровым правам и исследователей относительно потенциальных проблем с конфиденциальностью для всех пользователей iCloud.

Впрочем, на этой неделе другая группа по безопасности Heat Initiative заявила, что начинает кампанию, которая потребует от Apple «находить, сообщать и удалять» материалы сексуального насилия над детьми из iCloud и предлагать пользователям больше инструментов для сообщения о нарушении.

Читать на itc.ua
Сайт imag.one - агрегатор новостей из открытых источников. Источник указан в начале и в конце анонса. Вы можете пожаловаться на новость, если находите её недостоверной.

Сейчас читают

DMCA