Илон Маск Стив Возняк Сэм Альтман США Латвия технологии происшествия Apple общество самит Илон Маск Стив Возняк Сэм Альтман США Латвия
/ rus.delfi.lv

Искусственный интеллект как угроза человечеству. Маск и Возняк призвали сделать паузу в развитии технологий

Илона Маска и сооснователя Apple Стива Возняка, предлагают сделать паузу в развитии технологий искусственного интеллекта до тех пор, пока не будут разработаны и применены надежные протоколы безопасности.Их призыв содержится в открытом письме, опубликованном некоммерческим исследовательским Институтом будущего жизни (Future of Life Institute) и подписанном более чем тысячей ведущих предпринимателей и экспертов.Авторы письма, опубликованного спустя всего две недели после того, как американская исследовательская лаборатория OpenAI раскрыла подробности нового, самого продвинутого на сегодняшний день чат-бота GPT-4, предлагают ввести полугодовой мораторий на обучение более мощных систем.

Свой собственный чат-бот Bard также открыла для тестирования компания Google.В письме цитируется строчка из блога основателя OpenAI Сэма Альтмана, который предположил, что "в какой-то момент, прежде, чем начинать обучать новые системы, важно будет заручиться независимой оценкой"."Мы согласны с этим, — пишут авторы открытого послания, — и этот момент уже наступил.

Мощные ИИ-системы следует разрабатывать только после того, как мы убедимся, что последствия их применения будут положительными, а связанные с ними риски — управляемыми".В письме подробно описываются эти потенциальные риски для общества и цивилизации в целом.

Читать на rus.delfi.lv
Сайт imag.one - агрегатор новостей из открытых источников. Источник указан в начале и в конце анонса. Вы можете пожаловаться на новость, если находите её недостоверной.

Сейчас читают

DMCA