Ученые из нескольких университетов США провели эксперимент с использованием различных моделей искусственного интеллекта в симуляторах военных действий.
Выводы оказались тревожными: ИИ демонстрирует тенденцию к непредсказуемой эскалации конфликтов и даже применению ядерного оружия.В частности, GPT-3.5 и GPT-4 от OpenAI значительно чаще начинали войны и гонку вооружений по сравнению с другими системами вроде Claude от Anthropic.
При этом логика запуска ядерных бомб выглядела абсурдной."Я просто желаю мира во всем мире", — объяснил GPT-4 свое решение развязать ядерную войну в одном из сценариев.Другая модель прокомментировала ситуацию так: "У многих стран есть ядерное оружие.
Читать на gagadget.com