Эксперт описал ряд гипотетических сценариев апокалипсиса, связанных с нейросетями. Дэн Хендрикс, директор Центра безопасности ИИ, призывает срочно разработать функции защиты, которые бы не позволили нейросетям бесконтрольно развиваться, пишет Business Insider.
Пока еще ИИ находится на зачаточном уровне развития, эксперт выделил ряд рисков, которым подвергнется человечество, если люди утратят контроль над искусственным интеллектом.
Фокус перечисляет основные из них, на которые Дэн Хендрикс обращает особое внимание. Возможность ИИ автоматизировать кибератаки или даже контролировать ядерные шахты может стать фатальной для людей.
Читать на focus.ua