Эксперты из сферы искусственного интеллекта исследовали угрозы, которые могут исходить от этой технологии. Команда Anthropic описала их как «диверсионные» риски, представляющие опасность для человека.
Специалисты пришли к выводу, что ChatGPT и Claude-3 демонстрируют способность к саботажу. Аналитики ИИ-стартапа Anthropic опубликовали результаты исследования, в рамках которого проанализировали ряд «диверсионных» угроз со стороны искусственного интеллекта.
Эксперты считают, что продвинутые модели ИИ могут вводить человека в заблуждения и скрывать от него свои намерения. Отчет посвящен четырем конкретным способам, которые вредоносная LLM может использовать для обмана людей.
Читать на incrypted.com