Компания Google опубликовала разъяснения по поводу того, почему нейросеть Gemini начала предлагать пользователям странные, а иной раз вредные ответы на их вопросы, например, об использовании клея для пиццы и поедания камней.
В своём блоге корпорация утверждает, что функция нейропоиска AI Overview не выдумает что‑то самостоятельно и не «галлюцинирует».
По словам представителей Google, Gemini попросту «неверно» интерпретирует нюансы языка в интернете», при этом не имея доступа к полезной информации.
Читать на habr.com