Исследователь безопасности Йоханн Ребергер сообщил об уязвимости в ChatGPT, которая позволяла злоумышленникам хранить ложную информацию и вредоносные инструкции в настройках долговременной памяти.
Теперь он создал эксплойт для проверки концепции, в рамках которого использовал уязвимость для извлечения пользовательских данных.
Инженеры OpenAI обратили на это внимание и выпустили частичное исправление в начале этого месяца. Уязвимость злоупотребляла долговременной памятью разговоров, функцией, которую OpenAI начала тестировать в феврале и сделала доступной в сентябре.