Илон Маск Стив Возняк Узбекистан Twitter технологии закон общество Евросоюз google Илон Маск Стив Возняк Узбекистан Twitter
/ www.gazeta.uz

Крупнейшие разработчики ИИ предупредили об опасности их технологий

говорится в заявлении, состоящем всего из одного предложения и опубликованном на сайте центра.Открытое письмо подписали более 350 руководителей, исследователей и инженеров, работающих в области ИИ.

В их числе лидеры в разработке ИИ — глава компании OpenAI Сэм Олтмен, исполнительный директор Google DeepMind Демис Хассабис и руководитель Anthropic Дарио Амодей.Свои подписи также поставили получившие премию Тьюринга за свою работу над нейронными сетями Джеффри Хинтон и Йошуа Бенджио, которых часто называют «крестными отцами» ИИ.Исполнительный директор Центра безопасности искусственного интеллекта Дэн Хендрикс объяснил краткость письма тем, что оно должно было объединить экспертов в ИИ, которые могли не согласиться с определёнными рисками, но разделяли общие опасения. «Мы не хотели публиковать список из 30 возможных рекомендаций, чтобы … не разбавлять нашу мысль», — сказал он.Нынешнее заявление не первое предупреждение о риске ИИ.

В марте более 1000 инженеров и исследователей, включая владельца Twitter, SpaceX и Tesla Илона Маска и сооснователя Apple Стива Возняка, подписали ещё одно открытое письмо, призвав приостановить разработки в этой области на полгода, пока не будут разработаны надёжные протоколы безопасности.Авторы письма выразили опасения по поводу «неконтролируемой гонки по разработке все более мощных цифровых умов» и описали потенциальные риски, которые, с их точки зрения, которые могут сопровождать развитие ИИ.

Читать на gazeta.uz
Сайт imag.one - агрегатор новостей из открытых источников. Источник указан в начале и в конце анонса. Вы можете пожаловаться на новость, если находите её недостоверной.

Сейчас читают

DMCA