Функція довготривалої пам'яті ChatGPT — це нова функція, представлена OpenAI у лютому 2024 року та розширена у вересні.
Нещодавно дослідник безпеки Йоганн Ребергер виявив серйозну вразливість, пов'язану з цією функцією.
Відомо, що ця нова функція допомагає чат-ботам зберігати інформацію з попередніх розмов. Завдяки цьому користувачам не потрібно повторно вводити таку інформацію, як вік, інтереси чи особисті погляди, щоразу, коли вони спілкуються в чаті. Однак це стало слабкістю, яку можуть використовувати зловмисники.
Йоганн Ребергер показав, що хакери можуть використовувати техніку, яка називається «промовою ін’єкцією» — вставляння шкідливих інструкцій у пам’ять, змушуючи штучний інтелект виконувати їх. Ці команди будуть передаватися через ненадійний контент, такий як електронні листи, документи або вебсайти.
Після того, як ці фальшиві спогади будуть збережені, штучний інтелект продовжуватиме використовувати їх як справжню інформацію в розмовах з користувачами, що може призвести до збору та неправомірного використання персональних даних користувачів.
Ребергер навів конкретний приклад, надіславши посилання зі шкідливим зображенням, яке змусило ChatGPT зберігати хибну пам'ять. Ця інформація вплине на майбутні відповіді ChatGPT. Зокрема, будь-яка інформація, яку введе користувач, також буде надіслана на сервер хакера.
Відповідно, щоб запустити атаку, хакеру потрібно лише переконати користувачів ChatGPT натиснути на посилання, що містить шкідливе зображення. Після цього всі чати користувача з ChatGPT будуть перенаправлені на сервер зловмисника без жодних слідів.
Ребергер повідомив про помилку OpenAi у травні 2024 року, але компанія вважала це лише недоліком безпеки. Отримавши докази того, що дані користувачів можуть бути викрадені, компанія випустила тимчасовий патч для веб-версії ChatGPT.
Хоча проблему тимчасово вирішено, Ребергер зазначає, що ненадійний контент все ще може використовувати Prompt injection для вставки фальшивої інформації в довготривалу пам'ять ChatGPT. Це означає, що в певних випадках хакери все ще можуть використовувати вразливість для зберігання шкідливих спогадів з метою довгострокової крадіжки особистої інформації.
OpenAI рекомендує користувачам регулярно перевіряти збережені в ChatGPT спогади на наявність хибнопозитивних результатів, а також надає детальні інструкції щодо керування та видалення спогадів, що зберігаються в інструменті.
Джерело: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html
Коментар (0)