Дэн Хендрикс - главные новости

18.04 / 14:16
искусственный интеллект апокалипсис нейросеть чат-бот Захватит ядерное оружие, поработит и оставит без работы: как ИИ уничтожит человечество
Эксперт описал ряд гипотетических сценариев апокалипсиса, связанных с нейросетями. Дэн Хендрикс, директор Центра безопасности ИИ, призывает срочно разработать функции защиты, которые бы не позволили нейросетям бесконтрольно развиваться, пишет Business Insider. Пока еще ИИ находится на зачаточном уровне развития, эксперт выделил ряд рисков, которым подвергнется человечество, если люди утратят контроль над искусственным интеллектом.
06.01 / 12:57
ученые искусственный интеллект человечество назвали апокалипсис ИИ Человечество может исчезнуть из-за ИИ: ученые назвали дату "точки невозврата"
Мнения экспертов по поводу сроков, когда машины превзойдут людей в выполнении всех задач, разделились: 10 процентов предполагают, что это произойдет к 2027 году, а половина – к 2047 году. Опрос 2700 исследователей искусственного интеллекта показал, что большинство считает возможное развитие сверхчеловеческого ИИ в будущем может привести к вымиранию человечества. Об этом говорится в материале медиа New Scientist.
31.05 / 10:59
технологии закон общество Евросоюз google Крупнейшие разработчики ИИ предупредили об опасности их технологий
говорится в заявлении, состоящем всего из одного предложения и опубликованном на сайте центра.Открытое письмо подписали более 350 руководителей, исследователей и инженеров, работающих в области ИИ. В их числе лидеры в разработке ИИ — глава компании OpenAI Сэм Олтмен, исполнительный директор Google DeepMind Демис Хассабис и руководитель Anthropic Дарио Амодей.Свои подписи также поставили получившие премию Тьюринга за свою работу над нейронными сетями Джеффри Хинтон и Йошуа Бенджио, которых часто называют «крестными отцами» ИИ.Исполнительный директор Центра безопасности искусственного интеллекта Дэн Хендрикс объяснил краткость письма тем, что оно должно было объединить экспертов в ИИ, которые могли не согласиться с определёнными рисками, но разделяли общие опасения.
DMCA