Эксперты задаются вопросом, как модели ИИ будут развиваться в будущем, когда уже неоткуда будет брать новые тексты или изображения.
Несколько вариантов они уже придумали. Искусственному интеллекту будет нечему обучаться из-за нехватки данных если к 2026 году человечество сохранит ритм и методику тренировок больших языковых моделей (LLM), что замедлит или даже изменит развитие ИИ, считают ученые.
Об этом пишет портал The Conversation. В своей опубликованной работе они указывают, что, например, ChatGPT обучался на 570 гигабайтах текстовых данных, или около 300 миллиардов слов.
Читать на focus.ua