Ciri perkongsian sembang melalui pautan awam di ChatGPT - Foto: Techradar
ChatGPT kini mencapai lebih 2.5 bilion pertanyaan daripada pengguna global setiap hari, menunjukkan peningkatan populariti chatbot ini.
Walau bagaimanapun, alat ini menghadapi tindak balas yang kuat daripada pengguna, kerana ciri "perkongsian" telah menyebabkan beribu-ribu perbualan membocorkan maklumat sensitif kepada Google dan beberapa enjin carian di Internet.
Risiko keselamatan yang tinggi
Encik Vu Ngoc Son - ketua teknologi Persatuan Keselamatan Siber Kebangsaan (NCA) - menilai bahawa insiden di atas menunjukkan tahap risiko keselamatan yang tinggi untuk pengguna ChatGPT.
"Insiden di atas tidak semestinya kecacatan teknikal kerana terdapat inisiatif tertentu pengguna dalam mengklik butang kongsi. Namun, boleh dikatakan bahawa masalahnya terletak pada reka bentuk produk chatbot AI, apabila ia telah mengelirukan pengguna dan tidak ada langkah amaran yang cukup kuat tentang risiko data peribadi dibocorkan jika pengguna berkongsi," analisa Encik Vu Ngoc Son.
Pada ChatGPT, ciri ini dilaksanakan selepas pengguna memilih untuk berkongsi sembang melalui pautan awam, kandungan akan disimpan pada pelayan OpenAI sebagai tapak web awam (chatgpt.com/share/...), tiada log masuk atau kata laluan diperlukan untuk mengakses.
Perangkak Google mengimbas dan mengindeks halaman ini secara automatik, menjadikannya muncul dalam hasil carian, termasuk teks, imej atau data sembang sensitif.
Ramai pengguna tidak menyedari risiko itu, menganggap mereka berkongsi sembang dengan rakan atau kenalan. Ini menyebabkan beribu-ribu perbualan didedahkan, sesetengahnya mengandungi maklumat peribadi yang sensitif.
Walaupun OpenAI dengan cepat mengalih keluar ciri itu pada akhir Julai 2025 selepas tindak balas daripada komuniti, ia masih mengambil masa untuk menyelaraskan dengan Google untuk mengalih keluar indeks lama. Terutama dengan sistem storan yang kompleks, yang termasuk pelayan cache Google, ini tidak boleh dilakukan dengan cepat.
Jangan anggap AI chatbots sebagai "kotak hitam keselamatan"
Pakar keselamatan data Vu Ngoc Son - ketua teknologi di National Cyber Security Association (NCA) - Foto: CHI HIEU
Kebocoran ribuan sembang boleh menimbulkan risiko kepada pengguna seperti mendedahkan rahsia peribadi, rahsia perniagaan; kerosakan reputasi, risiko kewangan atau bahkan bahaya keselamatan apabila mendedahkan alamat rumah.
“Bot sembang berkuasa AI berguna tetapi bukan ‘kotak hitam’, kerana data yang dikongsi boleh hidup di web selama-lamanya jika dibiarkan tanpa tanda.
Insiden itu sememangnya satu pengajaran untuk kedua-dua pembekal dan pengguna. Pembekal perkhidmatan AI lain boleh belajar daripada pengalaman dan ciri reka bentuk ini dengan amaran yang lebih jelas dan lebih telus.
Pada masa yang sama, pengguna juga perlu mengehadkan secara proaktif penyiaran maklumat yang boleh dikenal pasti secara peribadi atau sulit secara tidak terkawal pada platform AI," pakar keselamatan Vu Ngoc Son mengesyorkan.
Menurut pakar keselamatan data, insiden di atas menunjukkan bahawa terdapat keperluan untuk koridor undang-undang dan piawaian keselamatan siber untuk AI. Pembekal dan pembangun AI juga perlu mereka bentuk sistem yang memastikan keselamatan, mengelakkan risiko kebocoran data seperti: kebocoran melalui kelemahan buruk; kelemahan perisian yang membawa kepada serangan pangkalan data; kawalan yang lemah membawa kepada keracunan, penyalahgunaan untuk menjawab soalan yang mengelirukan dan diputarbelitkan.
Pengguna juga perlu mengawal perkongsian maklumat peribadi dengan AI, dan tidak berkongsi maklumat sensitif. Dalam kes di mana ia benar-benar perlu, adalah dinasihatkan untuk menggunakan mod tanpa nama atau secara aktif menyulitkan maklumat untuk mengelakkan data dipautkan secara langsung kepada individu tertentu.
Sumber: https://tuoitre.vn/hang-ngan-cuoc-tro-chuyen-voi-chatgpt-bi-lo-tren-google-nguoi-dung-luu-y-gi-20250805152646255.htm
Komen (0)