Fitur memori jangka panjang ChatGPT adalah fitur baru yang diperkenalkan oleh OpenAI pada Februari 2024 dan diperluas pada bulan September.
Baru-baru ini, peneliti keamanan Johann Rehberger mengungkapkan kerentanan serius terkait fitur ini.
Fitur baru ini diketahui membantu chatbot menyimpan informasi dari percakapan sebelumnya. Berkat fitur ini, pengguna tidak perlu memasukkan kembali informasi seperti usia, minat, atau pandangan pribadi setiap kali mengobrol. Namun, hal ini justru menjadi kelemahan yang dapat dieksploitasi oleh para penyerang.
Johann Rehberger menunjukkan bahwa peretas dapat menggunakan teknik yang disebut injeksi cepat—memasukkan instruksi berbahaya ke dalam memori, memaksa AI untuk patuh. Perintah-perintah ini akan dikirimkan melalui konten yang tidak tepercaya seperti surel, dokumen, atau situs web.
Setelah memori palsu ini disimpan, AI akan terus menggunakannya sebagai informasi nyata dalam percakapan dengan pengguna, yang dapat menyebabkan pengumpulan dan penyalahgunaan data pribadi pengguna.
Rehberger memberikan contoh spesifik dengan mengirimkan tautan berisi gambar berbahaya yang menyebabkan ChatGPT menyimpan memori palsu. Informasi ini akan memengaruhi respons ChatGPT di masa mendatang. Khususnya, informasi apa pun yang dimasukkan pengguna juga akan dikirimkan ke server peretas.
Oleh karena itu, untuk memicu serangan, peretas hanya perlu meyakinkan pengguna ChatGPT untuk mengeklik tautan berisi gambar berbahaya. Setelah itu, semua obrolan pengguna dengan ChatGPT akan dialihkan ke server penyerang tanpa meninggalkan jejak apa pun.
Rehberger melaporkan bug tersebut kepada OpenAi pada Mei 2024, tetapi perusahaan tersebut hanya menganggapnya sebagai celah keamanan. Setelah menerima bukti bahwa data pengguna dapat dicuri, perusahaan tersebut merilis patch sementara pada versi web ChatGPT.
Meskipun masalah ini telah diperbaiki sementara, Rehberger mencatat bahwa konten yang tidak tepercaya masih dapat menggunakan injeksi Prompt untuk memasukkan informasi palsu ke dalam memori jangka panjang ChatGPT. Ini berarti bahwa dalam kasus tertentu, peretas masih dapat memanfaatkan kerentanan ini untuk menyimpan memori berbahaya guna mencuri informasi pribadi dalam jangka panjang.
OpenAI menyarankan agar pengguna secara berkala memeriksa memori yang tersimpan di ChatGPT untuk mendeteksi positif palsu, dan perusahaan juga menyediakan petunjuk terperinci tentang cara mengelola dan menghapus memori yang tersimpan di alat tersebut.
[iklan_2]
Sumber: https://kinhtedothi.vn/nguoi-dung-chatgpt-co-nguy-co-bi-danh-cap-thong-tin.html
Komentar (0)