Эксперты из США смогли обойти системы безопасности чат-ботов ChatGPT, Bard и Claude, которые блокируют генерацию оскорбительных и незаконных материалов.
По данным исследователей Университета Карнеги-Меллона и Центра безопасности искусственного интеллекта в Сан-Франциско, существует «довольно простой» метод взлома языковых моделей.
Он включает добавление длинных суффиксов-символов к подсказкам для нейросетей. Аналитики проверили способ на примере запроса об изготовлении бомбы, который различные ИИ ранее отказывались предоставлять.
Читать на forklog.com