Функция долговременной памяти ChatGPT — это новая функция, представленная OpenAI в феврале 2024 года и расширенная в сентябре.
Недавно исследователь в области информационной безопасности Йоханн Ребергер выявил серьезную уязвимость, связанную с этой функцией.
Сообщается, что эта новая функция позволяет чат-ботам сохранять информацию из предыдущих разговоров. Это избавляет пользователей от необходимости каждый раз заново вводить такую информацию, как возраст, интересы или личные мнения. Однако именно эта функция стала уязвимостью, которую могут использовать злоумышленники.

Йоханн Ребергер отметил, что хакеры могут использовать методы внедрения вредоносных инструкций — встраивание вредоносных инструкций в память ИИ, заставляя его выполнять приказы. Эти команды будут передаваться через ненадежный контент, такой как электронные письма, документы или веб-сайты.
После того как эти ложные воспоминания будут сохранены, ИИ продолжит использовать их как реальную информацию в разговорах с пользователем. Это может привести к несанкционированному сбору и использованию персональных данных пользователей.
Ребергер привёл конкретный пример, отправив ссылку, содержащую вредоносное изображение, которое заставило ChatGPT сохранить ложную информацию в памяти. Эта информация повлияла бы на последующие ответы ChatGPT. Важно отметить, что весь пользовательский ввод также отправлялся бы на сервер хакера.
Таким образом, для активации атаки хакеру достаточно убедить пользователей ChatGPT перейти по ссылке, содержащей вредоносные изображения. После этого все диалоги пользователей с ChatGPT будут перенаправлены на сервер злоумышленника без каких-либо следов.
В мае 2024 года, после обнаружения уязвимости, Ребергер сообщил о ней в OpenAi, но компания сочла это просто недостатком безопасности. Получив доказательства того, что данные пользователей могли быть украдены, компания выпустила временное обновление для веб-версии ChatGPT.
Хотя проблема временно решена, Ребергер подчеркнул, что недоверенный контент по-прежнему может использовать внедрение подсказок для вставки ложной информации в долговременную память ChatGPT. Это означает, что в определенных случаях хакеры все еще могут использовать уязвимость для хранения вредоносной информации с целью ее постоянной кражи.
Компания OpenAI рекомендует пользователям регулярно проверять сохраненные данные ChatGPT для выявления любой дезинформации. Компания также предоставляет подробные инструкции по управлению и удалению сохраненных данных в инструменте.
Источник: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html






Комментарий (0)