Вчера OpenAI представила модели o1, демонстрирующие улучшенные возможности логического мышления, решения сложных математических задач и ответов на научные вопросы.
Согласно внутренней оценке OpenAI, новые модели получили "средний" уровень риска в отношении химического, биологического, радиологического и ядерного оружия.
Это самый высокий уровень риска когда-либо присваиваемый моделям компании, и он свидетельствует о возросшей вероятности использования ИИ для разработки биологического оружия.Ведущий эксперт по искусственному интеллекту, профессор Монреальского университета Йошуа Бенджио, подчеркнул, что присвоение новым моделям OpenAI "среднего" уровня риска в контексте разработки химического и биологического оружия подтверждает острую необходимость в принятии законодательных мер.
Читать на habr.com