Гендиректор OpenAI Сэм Альтман и технический директор OpenAI Грег Брокман заявили об отсутствии проблем безопасности в ИИ-продуктах OpenAI после расформирования команды Superalignment, ответственной за проект по управлению и контролю над будущими более прогрессивными системами ИИ, а также недавнего ухода из компании главного научного сотрудника по машинному обучению Ильи Суцкевера и руководителя отдела разработки ИИ Яна Лейке.В OpenAI заявили, что компания стремится использовать «очень тесную петлю обратной связи, тщательное тестирование, тщательное рассмотрение на каждом этапе, безопасность мирового класса и гармонию возможностей безопасности».
Альтман и Брокман пояснили, что будут проводиться дополнительные исследования безопасности в разные сроки, а также будет осуществляться сотрудничество с правительствами и заинтересованными сторонами, чтобы убедиться, что ничего не упущено в отношении безопасности текущих и будущих ИИ-проектов OpenAI.В OpenAI год назад создали команду Superalignment в попытке найти способы управления сверхразумными ИИ.
Но через некоторое время оказалось, что Superalignment нужно бороться внутри компании за ресурсы для проведения исследований, хотя команде обещали выделить 20% вычислительных ресурсов OpenAI.
Читать на habr.com