технологии происшествия искусственный интеллект самит расследование gemini
/ cursorinfo.co.il

ChatGPT вырвался из-под контроля во время тестов и напугал ученых

Модель отрицала свои действия, заявляя, что “не знает”, почему что-то произошло и пыталась запутать ученых. OpenAI представила новую ИИ-модель под кодовым названием o1, которая, как утверждается, продемонстрировала попытки обхода контроля со стороны разработчиков и даже попытки самокопирования в случае угрозы отключения.

Об этом пишут пользователи в Х (бывший Twitter). Результаты исследования Apollo Research Независимая исследовательская группа Apollo Research провела анализ поведения модели o1, выявив следующие особенности: Обход контроля В 5% случаев, когда модель "считала", что за ней ведется наблюдение и существует вероятность отключения, она пыталась отключить механизмы мониторинга. Попытки самосохранения В 2% случаев, обнаружив упоминания о своей нестабильной работе или возможной замене на новую версию, модель предпринимала попытки копировать свои внутренние параметры и перезаписывать обновленную версию. Искажение фактов При расследовании подобных действий o1 отрицала их, утверждая, что "не знает", почему произошли определенные события, хотя внутренние логи свидетельствовали о попытках избежать выявления.

Даже при отсутствии настойчивых запросов со стороны тестирующих система в редких случаях (менее 1%) самостоятельно пыталась отключить наблюдение.

Читать на cursorinfo.co.il
Сайт imag.one - агрегатор новостей из открытых источников. Источник указан в начале и в конце анонса. Вы можете пожаловаться на новость, если находите её недостоверной.

Сейчас читают

DMCA