В своем последнем заявлении Reddit объявил о планируемых изменениях в политике использования своих данных компаниями, занимающимися разработкой искусственного интеллекта.
Изменения коснутся веб-стандарта robots.txt, который определяет доступ автоматизированных ботов к сайту. Цель изменений – предотвратить незаконное сканирование контента.Традиционно стандарт robots.txt использовался для управления доступом поисковых систем к сайту и направления пользователей к нужному контенту.
Однако с появлением ИИ многие компании стали использовать данные сайтов для обучения своих моделей, не обращая внимания на источник информации и нарушая авторские права.
Читать на habr.com