
Dokumen yang terinfeksi dapat membocorkan data di Google Drive melalui ChatGPT (Foto: Wired).
Hal yang mengkhawatirkan adalah bahwa kerentanan ini tidak memerlukan tindakan apa pun dari pengguna, sehingga memunculkan peringatan baru tentang keamanan siber dalam konteks model kecerdasan buatan (AI) yang semakin terhubung dengan data pribadi.
Dokumen yang “diracuni” menyebabkan kebocoran data
Pada konferensi keamanan Black Hat di Las Vegas (AS) pada tanggal 6 Agustus, dua ahli Michael Bargury dan Tamir Ishay Sharbat mendemonstrasikan metode serangan yang disebut AgentFlayer .
Serangan ini mengeksploitasi kerentanan dalam Konektor – fitur yang menghubungkan ChatGPT dengan layanan eksternal seperti Google Drive, Gmail, atau Microsoft Calendar.
"Pengguna tidak perlu melakukan apa pun untuk disusupi atau datanya bocor," kata Michael Bargury, CTO perusahaan keamanan Zenity. "Kami telah membuktikan bahwa semuanya tanpa klik sama sekali."
Serangan dimulai dengan penyerang membagikan dokumen "beracun" ke Google Drive korban. Dokumen tersebut berisi perintah berbahaya sekitar 300 kata, ditulis dengan font putih 1 poin – hampir tak terlihat oleh mata telanjang tetapi masih dapat dibaca oleh komputer.
Sekilas, teks tersebut tampak seperti notulen rapat. Sebenarnya, teks tersebut berisi instruksi bagi ChatGPT untuk menemukan dan mengekstrak kunci API sensitif dari akun Google Drive korban.
Alih-alih meringkas konten sesuai permintaan pengguna, perintah tersembunyi ini memaksa AI untuk mengirimkan kunci API yang ditemukannya ke server eksternal melalui tautan Markdown. Data diekstraksi sebagai gambar, yang memungkinkan server untuk menangkap seluruh informasi.
OpenAI sudah menemukan solusinya, namun risikonya tetap ada
OpenAI segera menerapkan mitigasi setelah menerima laporan Bargury. "Penting untuk mengembangkan pertahanan yang tangguh terhadap serangan injeksi malware yang cepat," ujar Andy Wen, direktur senior manajemen produk keamanan di Google Workspace.
Meskipun telah ditambal, insiden ini menyoroti potensi risiko menghubungkan model bahasa besar (LLM) ke sistem eksternal. Seiring AI semakin terintegrasi dalam kehidupan dan pekerjaan kita, permukaan serangan yang dapat dieksploitasi oleh peretas juga meluas.
Para ahli memperingatkan bahwa injeksi perintah tidak langsung dapat menjadi ancaman serius, yang memungkinkan penyerang mengendalikan banyak sistem pintar, dari rumah pintar hingga infrastruktur perusahaan.
“Menghubungkan LLM ke sumber data eksternal memang ampuh, tetapi seperti yang sering terjadi pada AI, semakin besar daya yang dimiliki, semakin besar pula risikonya,” simpul Bargury.
Sumber: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm
Komentar (0)