Защитный механизм от нерадивых студентов и школьников, использующих нейросеть, далек от идеала. Компания OpenAI, которая является разработчиком самого нашумевшего чат-бота ChatGPT попробовала ввести защитный механизм от использования своей нейросети для написания дипломов, сочинений и школьных работ нерадивыми учащимися, но у нее это не получилось, сообщает The Vice.
Компания выпустила специальный классификатор, который должен был сравнивать работы написанные человеком и собственным чат-ботом и определять авторство.
Но, как признает сама OpenAI, ее механизм работает очень плохо и может найти различия только в 26% случаев. Кроме того, в 9% случаев классификатор помечает текст написанный человеком, под авторством ИИ.
Читать на focus.ua