
EchoLeak dan potensi risiko daripada kecerdasan buatan.
Memandangkan kecerdasan buatan (AI) menjadi bahagian penting dalam setiap tugasan, daripada membantu penulisan laporan dan respons e-mel hinggalah analisis data, pengguna seolah-olah hidup dalam era kemudahan yang belum pernah terjadi sebelumnya. Tetapi kelemahan kemudahan ini juga mula muncul, terutamanya dalam hal ehwal keselamatan.
Satu kelemahan keselamatan baru-baru ini, yang digelar EchoLeak, telah meletakkan pengguna perkhidmatan Microsoft Copilot berisiko mengalami kebocoran data sensitif tanpa memerlukan sebarang tindakan.
Apabila AI menjadi kelemahan keselamatan
Menurut siasatan Tuoi Tre Online , EchoLeak ialah kelemahan keselamatan yang baru dikenal pasti dengan kod CVE-2025-32711, yang dinilai oleh pakar sebagai berbahaya pada 9.3/10 pada skala NIST.
Apa yang membimbangkan pakar keselamatan ialah sifat "klik sifar" nya: penyerang boleh mengeksploitasi data daripada Copilot tanpa pengguna mengklik, membuka fail atau mengetahui bahawa apa-apa sedang berlaku.
Ini bukanlah pepijat yang mudah. Pasukan penyelidikan Aim Labs, yang menemui kelemahan tersebut, percaya EchoLeak mencerminkan kecacatan reka bentuk yang biasa dalam sistem dan ejen AI berasaskan RAG (penjanaan tambahan pengambilan). Oleh kerana Copilot adalah sebahagian daripada suit aplikasi Microsoft 365, yang menyimpan e-mel, dokumen, hamparan dan kalendar mesyuarat untuk berjuta-juta pengguna, risiko kebocoran data adalah sangat serius.
Masalahnya bukan sahaja pada coretan kod tertentu, tetapi juga pada bagaimana bahasa model besar (LLM) beroperasi. AI memerlukan banyak konteks untuk memberikan respons yang tepat, dan oleh itu, ia diberikan akses kepada sejumlah besar data latar belakang. Tanpa kawalan yang jelas ke atas aliran input-output, AI boleh dimanipulasi sepenuhnya tanpa pengetahuan pengguna. Ini mewujudkan sejenis "pintu belakang" yang baharu, bukan disebabkan oleh kerentanan dalam kod, tetapi kerana AI bertindak di luar pemahaman manusia.
Microsoft dengan pantas mengeluarkan tampalan, dan tiada kerugian sebenar yang dilaporkan setakat ini. Tetapi pengajaran daripada EchoLeak adalah jelas: Apabila AI disepadukan secara mendalam ke dalam sistem kerja, kesilapan kecil dalam cara ia memahami konteks boleh membawa kepada akibat keselamatan yang besar.
Semakin mudah AI, semakin terdedah data peribadi.
Insiden EchoLeak menimbulkan persoalan yang membimbangkan: adakah pengguna terlalu mempercayai AI tanpa menyedari bahawa mereka boleh dijejaki atau maklumat peribadi mereka terdedah selepas hanya satu mesej? Kerentanan yang baru ditemui, yang membolehkan penggodam mengekstrak data secara senyap tanpa pengguna menekan sebarang butang, adalah sesuatu yang pernah hanya dilihat dalam fiksyen sains, tetapi kini telah menjadi kenyataan.
Walaupun aplikasi AI menjadi semakin popular, daripada pembantu maya seperti Copilot dan chatbot dalam perbankan dan pendidikan , kepada platform AI untuk penulisan kandungan dan pemprosesan e-mel, kebanyakan orang tidak diberi amaran tentang cara data mereka diproses dan disimpan.
"Bersembang" dengan sistem AI bukan lagi sekadar menghantar beberapa soalan yang mudah; ia secara tidak sengaja boleh mendedahkan lokasi, tabiat, emosi atau maklumat akaun anda.
Di Vietnam, ramai orang biasa menggunakan AI pada telefon dan komputer mereka tanpa pengetahuan asas tentang keselamatan digital . Ramai yang berkongsi maklumat peribadi dengan AI, mempercayai bahawa "ia hanyalah sebuah mesin." Walau bagaimanapun, pada hakikatnya, di sebalik AI terdapat sistem yang mampu merekod, mempelajari dan menghantar data ke tempat lain, terutamanya apabila platform AI datang daripada pihak ketiga dan belum diperiksa keselamatannya secara menyeluruh.
Untuk mengurangkan risiko, pengguna tidak semestinya perlu meninggalkan teknologi, tetapi mereka perlu lebih peka: mereka harus memeriksa dengan teliti sama ada aplikasi AI yang mereka gunakan berasal dari sumber yang boleh dipercayai, sama ada data tersebut disulitkan, dan khususnya, mereka tidak seharusnya berkongsi maklumat sensitif seperti nombor ID, butiran akaun bank, maklumat kesihatan, dll., dengan mana-mana sistem AI tanpa amaran yang jelas.
Sama seperti ketika internet pertama kali muncul, AI juga memerlukan masa untuk matang, dan dalam tempoh itu, pengguna harus menjadi orang pertama yang melindungi diri mereka secara proaktif.
Pernahkah anda berkongsi terlalu banyak maklumat dengan AI?
Apabila menaip arahan seperti "tulis semula laporan ini untuk saya, tetapi dengan cara yang lebih lembut" atau "ringkaskan mesyuarat semalam," ramai orang tidak menyedari bahawa semua maklumat yang mereka masukkan, termasuk butiran dalaman, perasaan peribadi atau tabiat kerja, boleh direkodkan oleh AI. Kita semakin biasa berinteraksi dengan alatan pintar, melupakan sempadan antara kemudahan dan privasi.
Sumber: https://tuoitre.vn/lo-hong-bao-mat-trong-microsoft-copilot-canh-bao-moi-ve-nguy-co-ro-ri-du-lieu-tu-ai-20250620103045262.htm






Komen (0)