Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Kerentanan Kopilot Microsoft: Peringatan Baru tentang Risiko Kebocoran Data AI

Sebuah celah keamanan serius di Microsoft Copilot memungkinkan data pengguna dicuri tanpa tindakan apa pun. Insiden ini menimbulkan pertanyaan besar: Apakah kecerdasan buatan membantu kita, atau justru membahayakan kita?

Báo Tuổi TrẻBáo Tuổi Trẻ20/06/2025

Lỗ hổng bảo mật - Ảnh 1.

EchoLeak dan Potensi Risiko Kecerdasan Buatan

Seiring kecerdasan buatan (AI) menjadi bagian dari segala hal, mulai dari menulis laporan, membalas email, hingga menganalisis data, rasanya kita hidup di era kemudahan yang belum pernah ada sebelumnya. Namun, sisi negatif dari kemudahan ini juga mulai terlihat, terutama dalam hal keamanan.

Kerentanan keamanan terkini yang dijuluki EchoLeak telah membuat pengguna layanan Microsoft Copilot berisiko mengalami kebocoran data sensitif tanpa mereka mengambil tindakan apa pun.

Ketika AI menjadi kerentanan keamanan

Menurut penelitian Tuoi Tre Online , EchoLeak adalah kerentanan keamanan yang baru tercatat dengan kode CVE-2025-32711, yang oleh para ahli dinilai berbahaya pada skala 9,3/10 menurut skala NIST.

Yang mengkhawatirkan para pakar keamanan adalah sifatnya yang "tanpa klik" : penyerang dapat mengeksploitasi data dari Copilot tanpa pengguna harus mengklik, membuka berkas, atau bahkan mengetahui apa yang sedang terjadi.

Ini bukan bug biasa. Tim peneliti di Aim Labs, yang menemukan celah tersebut, yakin EchoLeak mencerminkan cacat desain umum pada sistem AI berbasis agen dan RAG. Karena Copilot merupakan bagian dari rangkaian aplikasi Microsoft 365 yang menyimpan email, dokumen, spreadsheet, dan jadwal rapat jutaan pengguna, potensi kebocoran datanya sangat serius.

Masalahnya bukan hanya terletak pada kode spesifiknya, tetapi juga pada cara kerja model bahasa besar (LLM). AI membutuhkan banyak konteks untuk merespons secara akurat, sehingga mereka diberi akses ke banyak data latar belakang. Tanpa kontrol yang jelas pada input dan output, AI dapat "digerakkan" dengan cara yang tidak disadari oleh pengguna. Hal ini menciptakan jenis "pintu belakang" baru yang bukan disebabkan oleh cacat dalam kode, melainkan karena AI berperilaku di luar pemahaman manusia.

Microsoft segera merilis patch, dan sejauh ini belum ada laporan kerusakan di dunia nyata. Namun, pelajaran dari EchoLeak jelas: Ketika AI terintegrasi secara mendalam ke dalam sistem yang berfungsi, kesalahan kecil sekalipun dalam cara memahami konteks dapat menimbulkan konsekuensi keamanan yang serius.

Semakin mudah AI digunakan, semakin rapuh pula data pribadi

Insiden EchoLeak menimbulkan pertanyaan yang meresahkan: Apakah orang-orang begitu percaya pada AI sehingga mereka tidak menyadari bahwa mereka dapat dilacak atau informasi pribadi mereka terekspos hanya dengan pesan teks? Kerentanan yang baru ditemukan yang memungkinkan peretas mengekstrak data secara diam-diam tanpa pengguna perlu menekan tombol apa pun adalah sesuatu yang dulunya hanya terlihat di film-film fiksi ilmiah, tetapi kini menjadi kenyataan.

Sementara aplikasi AI semakin populer, dari asisten virtual seperti Copilot, chatbot di perbankan, pendidikan , hingga platform AI yang menulis konten dan memproses email, kebanyakan orang tidak diperingatkan tentang bagaimana data mereka diproses dan disimpan.

"Mengobrol" dengan sistem AI tidak lagi sekadar mengajukan beberapa pertanyaan demi kenyamanan, tetapi juga dapat secara tidak sengaja mengungkapkan lokasi, kebiasaan, emosi, atau bahkan informasi akun Anda.

Di Vietnam, banyak orang yang terbiasa menggunakan AI di ponsel dan komputer tanpa pengetahuan dasar tentang keamanan digital . Banyak orang berbagi informasi pribadi dengan AI karena mereka percaya bahwa "AI hanyalah sebuah mesin". Namun kenyataannya, di baliknya terdapat sistem yang dapat merekam, mempelajari, dan mengirimkan data ke tempat lain, terutama ketika platform AI tersebut berasal dari pihak ketiga dan belum teruji keamanannya secara ketat.

Untuk membatasi risiko, pengguna tidak harus meninggalkan teknologi, tetapi perlu lebih waspada: mereka harus memeriksa dengan cermat apakah aplikasi AI yang mereka gunakan memiliki sumber yang dapat diandalkan, apakah datanya dienkripsi, dan terutama jangan membagikan informasi sensitif seperti nomor identitas, rekening bank, informasi kesehatan... dengan sistem AI apa pun tanpa diperingatkan secara jelas.

Sama seperti saat internet pertama kali lahir, AI juga perlu waktu untuk menyempurnakannya dan selama waktu itu, pengguna harus menjadi orang pertama yang secara proaktif melindungi diri mereka sendiri.

Pernahkah Anda berbagi terlalu banyak dengan AI?

Saat mengetik perintah seperti "tulis ulang laporan ini untuk saya dengan cara yang lebih ramah" atau "ringkas rapat kemarin", banyak orang tidak berpikir bahwa semua informasi yang mereka masukkan, termasuk detail internal, perasaan pribadi, dan kebiasaan kerja, dapat direkam oleh AI. Kita sudah begitu terbiasa mengobrol dengan perangkat pintar sehingga kita melupakan batasan antara kenyamanan dan privasi.

Kembali ke topik
TUAN VI

Sumber: https://tuoitre.vn/lo-hong-bao-mat-trong-microsoft-copilot-canh-bao-moi-ve-nguy-co-ro-ri-du-lieu-tu-ai-20250620103045262.htm


Komentar (0)

No data
No data

Dalam topik yang sama

Dalam kategori yang sama

Close-up 'monster baja' yang memamerkan kekuatan mereka di A80
Ringkasan latihan A80: Kekuatan Vietnam bersinar di bawah malam ibu kota berusia seribu tahun
Kekacauan lalu lintas di Hanoi setelah hujan lebat, pengemudi meninggalkan mobil di jalan yang banjir
Momen-momen mengesankan dari formasi penerbangan yang bertugas di Upacara Agung A80

Dari penulis yang sama

Warisan

Angka

Bisnis

No videos available

Berita

Sistem Politik

Lokal

Produk