Нейросети не признаются, что чего-то не знают. Исследователи заметили очевидный недостаток самых умных чат-ботов с искусственным интеллектом.
Они скорее сгенерируют неправильный ответ, чем признают, что задача выходит за рамки их возможностей. Хотя модели искусственного интеллекта предсказуемо становятся более точными по мере своего развития, они также становятся более склонными неправильно отвечать на вопросы, которые выходят за рамки их возможностей, чем избегать ответов, показало новое исследование, опубликованное в Nature.
Команда изучила три семейства больших языковых моделей (LLM), включая серию GPT от OpenAI, LLaMA от Meta и BLOOM с открытым кодом.