Компания Apple перенесла развертывание инструмента для сканирования фотографий пользователей на предмет жестокого обращения с детьми (CSAM).
Об этом пишет 9to5Mac. В Apple заявили, что отложили запуск средств обнаружения материалов о сексуальном насилии над детьми для «внесения улучшений» после критики.
В компании не сообщили о новых сроках релиза инструмента. «На основании отзывов клиентов, групп защиты интересов, исследователей и других людей мы решили выделить дополнительное время в ближайшие месяцы, чтобы собрать информацию и внести улучшения, прежде чем выпускать эти критически важные функции для безопасности детей», — сообщили представители компании.
Читать на forklog.com