Стремление компании противостоять насилию над детьми — цель благородная, но вся суть внедрения ИИ-сканера фотоконтента сводится к банальной слежке за пользователями.
Недавно Фокус сообщал о том, что компания Apple планирует использовать новые криптографические технологии, чтобы ограничить распространение Child Sexual Abuse Material (CSAM) в Интернете, сохраняя при этом конфиденциальность источников.
Иными словами, ИИ-алгоритм, встроенный по умолчанию в операционные системы iOS и iPadOS, будет сканировать все файлы, оправляемые пользователями в облачное хранилище iCloud, на предмет CSAM-контента.
Читать на focus.ua