Исследователи Пекинской академии искусственного интеллекта объявили о создании нейросети Wu Dao 2.0, обученной на 1,75 триллиона параметров.
По словам разработчиков, новая языковая модель в десять раз мощнее алгоритма генерации текста GPT-3 от компании OpenAI, который до сих пор считался наиболее сложным и объемным.
GPT — это самообучаемый алгоритм для написания текстов, разработку которого ведет некоммерческая организация OpenAI (создана при участии главы Tesla Илона Маска).
Читать на vesti.ru