Англия общество самит Англия
/ novostiua.net

Сможет ли искусственный интеллект «сломаться» от собственных данных

Использование наборов данных, сгенерированных ИИ, для обучения будущих поколений моделей машинного обучения может испортить их результаты – концепция, известная как «коллапс модели».

Исследования показывают, что в течение «срока жизни» нескольких поколений моделей ИИ исходный контент заменяется несвязанной чепухой.Инструменты генеративного искусственного интеллекта, такие как большие языковые модели (LLM), приобрели популярность и в основном обучаются на данных, созданных человеком.

Однако, как утверждают исследователи, по мере того, как эти модели ИИ распространяются по Интернету, сгенерированный компьютером контент может использоваться для обучения других моделей ИИ (или самих себя) в так называемом рекурсивном цикле.Как снижается опыт ИИ?Илья Шумайлов из Оксфордского университета в Великобритании и его коллеги использовали математические модели, чтобы продемонстрировать, как модели ИИ могут разрушаться.

Читать на novostiua.net
Сайт imag.one - агрегатор новостей из открытых источников. Источник указан в начале и в конце анонса. Вы можете пожаловаться на новость, если находите её недостоверной.

Сейчас читают

DMCA