Сэм Альтман Украина искусственный интеллект нейросети ИИ OpenAI Сэм Альтман Украина
/ itc.ua

OpenAI формирует команду для изучения «катастрофических» рисков искусственного интеллекта — включая ядерные угрозы

Команда будет отслеживать, прогнозировать и защищать от опасностей будущих систем ИИ — начиная с обмана людей и завершая созданием вредоносного кода.

Помогаем Поможем врагу с билетами на кобзона. Собираем на Mavic для наших защитников OpenAI создает отдельную «группу готовности», которая будет изучать «катастрофические» риски искусственного интеллекта – специалистами будет руководить директор Центра развертывания машинного обучения MIT Александр Мадри, который присоединился к компании Сэма Альтмана в мае.

Главные обязанности команды — отслеживание, прогнозирование и защита от опасностей будущих систем искусственного интеллекта, начиная от их способности убеждать и обманывать людей (например, в фишинге) до создания вредоносного кода.

Читать на itc.ua
Сайт imag.one - агрегатор новостей из открытых источников. Источник указан в начале и в конце анонса. Вы можете пожаловаться на новость, если находите её недостоверной.

Сейчас читают

DMCA