Команда будет отслеживать, прогнозировать и защищать от опасностей будущих систем ИИ — начиная с обмана людей и завершая созданием вредоносного кода.
Помогаем Поможем врагу с билетами на кобзона. Собираем на Mavic для наших защитников OpenAI создает отдельную «группу готовности», которая будет изучать «катастрофические» риски искусственного интеллекта – специалистами будет руководить директор Центра развертывания машинного обучения MIT Александр Мадри, который присоединился к компании Сэма Альтмана в мае.
Главные обязанности команды — отслеживание, прогнозирование и защита от опасностей будущих систем искусственного интеллекта, начиная от их способности убеждать и обманывать людей (например, в фишинге) до создания вредоносного кода.
Читать на itc.ua