Vietnam.vn - Nền tảng quảng bá Việt Nam

Keselamatan data dalam era AI

Deepfakes, serangan pancingan data, maklumat dan kecurian identiti digital... menjadi lebih canggih dan boleh menyerang pada bila-bila masa, kepada sesiapa sahaja yang tidak mempunyai kemahiran pertahanan digital.

Báo Sài Gòn Giải phóngBáo Sài Gòn Giải phóng18/11/2025

Serangan dari setiap sudut

Google telah melancarkan produk kecerdasan buatan (AI) baharu yang dipanggil "Gemini Nano Banana", yang bukan bahasa besar AI (LLM) dengan keupayaan untuk menulis dan menaakul, tetapi AI yang pakar dalam penyuntingan foto... Ramai pengguna teruja dengan alat ini, tetapi ia juga membawa banyak kesan berbahaya.

S4c.jpg
Sekolah Rendah Tran Hung Dao, Wad Cau Ong Lanh, Bandar Ho Chi Minh menggunakan sistem pengecaman muka untuk mengambil kehadiran pelajar dan menghantar pemberitahuan melalui aplikasi kepada ibu bapa. Foto: HOANG HUNG

"Ia seperti "regresi" teknologi dan etika AI," kata Nguyen Hong Phuc, Pengarah Sains di Conductify AI. "Gemini Nano Banana mempunyai keupayaan untuk mengedit foto dengan berkesan. Tetapi penyahcensoran Google terhadap Gemini Nano Banana, yang melonggarkan halangan dan mekanisme pengehadan, membolehkan AI ini mencipta imej yang kelihatan sangat serupa dengan selebriti, imej seksi, imej sensitif...", kata En. Phuc.

Menurut Encik Nguyen Hong Phuc, keupayaan ini menjadikan Gemini Nano Banana sebagai alat untuk mencipta imej palsu yang begitu realistik sehinggakan pakar AI pun tidak dapat membezakan, membawa kepada risiko baharu penipuan dan risiko keselamatan siber, seperti mencipta foto bersama ahli politik dan ahli politik terkenal untuk menyebarkan maklumat palsu, malah individu mempunyai foto mereka diedit oleh AI dan difitnah di rangkaian sosial...

Selain itu, dengan berpuluh-puluh alat AI pengeditan foto lain yang "membuat gelombang" dalam talian, penipuan deepfake tiada penghujungnya. Statistik daripada organisasi keselamatan menunjukkan bahawa teknologi deepfake mencipta kempen penipuan yang menyasarkan individu yang bernilai tinggi, terutamanya pemimpin perniagaan. Pada tahun 2024, terdapat 140,000-150,000 kes di seluruh dunia, yang mana 75% menyasarkan CEO dan pemimpin kanan... Deepfake boleh meningkatkan kerugian ekonomi global sebanyak 32%, kira-kira 40 bilion USD/tahun menjelang 2027.

Baru-baru ini, Syarikat AI Anthropic telah mengesan dan menghalang kempen serangan siber yang dijalankan oleh penggodam asing, di mana buat pertama kalinya merekodkan penggunaan AI untuk menyelaraskan aktiviti serangan automatik. Khususnya, penggodam menggunakan sistem AI untuk merancang, mengarahkan dan menggunakan aktiviti pencerobohan - perkembangan yang "membimbangkan", dengan risiko mengembangkan skala dan kelajuan kempen serangan siber...

Encik Ngo Minh Hieu, Pengarah Pertubuhan Anti-Penipuan Persatuan Keselamatan Siber Kebangsaan, berkongsi bahawa alat bersepadu AI mempunyai kelajuan penipuan kira-kira 20 kali lebih tinggi daripada menggunakan orang sebenar. Subjek memberikan senario penipuan kepada AI untuk dianalisis, dan dengan serta-merta sistem akan berbual secara automatik dengan mangsa. Daripada data awal, AI boleh mengetahui apa yang mangsa mahu dan berbual dengan mangsa dalam masa nyata. Helah yang paling canggih ialah serangan "Man-in-the-Middle", yang bermaksud apabila pengguna melakukan pengesahan video seperti memalingkan muka, membaca arahan, penggodam akan berdiri di tengah-tengah untuk mengganggu data yang dihantar. Pada masa itu, penjenayah siber memasukkan video palsu yang disediakan, menggantikan aliran data sebenar pengguna untuk memintas pengesahan... Dengan kaedah di atas, sistem keselamatan bank dan institusi kewangan juga berisiko ditipu.

Pengurusan data yang lebih baik

Apabila AI menjadi lebih popular, risiko keselamatan dan privasi juga meningkat dengan ketara. Data yang disimpan dan diproses pada pelayan jauh akan menjadi sasaran menarik untuk penggodam dan organisasi penjenayah siber. Menurut data Persatuan Keselamatan Siber Kebangsaan, pada suku kedua 2025 sahaja, jumlah serangan siber menggunakan AI meningkat sebanyak 62%, menyebabkan kerugian global sehingga 18 bilion USD...

Pakar mengatakan perlindungan data adalah penting. Walau bagaimanapun, pengumpulan dan penjualan data masih berlaku secara terbuka pada banyak platform "pasaran gelap", dengan bayaran serendah $20 sebulan. Penjenayah siber boleh menggunakan alat yang berfungsi serupa dengan model bahasa tetapi disesuaikan untuk tujuan jenayah. Alat ini mampu mencipta kod berniat jahat, dan juga memintas perisian anti-virus.

Di Vietnam, Dekri No. 13/2023/ND-CP (berkuat kuasa dari 17 April 2023) mengawal selia perlindungan data peribadi. Di samping itu, Undang-undang mengenai Perlindungan Data Peribadi dijangka berkuat kuasa mulai 1 Januari 2026, membuka mekanisme undang-undang yang lebih kukuh untuk bertindak balas terhadap risiko kebocoran dan penyalahgunaan data peribadi. Bagaimanapun, menurut Persatuan Keselamatan Siber Kebangsaan, keberkesanan penguatkuasaan masih perlu diperkukuh pada ketiga-tiga tonggak: meningkatkan kesedaran orang ramai, meningkatkan tanggungjawab perniagaan, dan meningkatkan kapasiti pengendalian agensi pengurusan. Sebagai tambahan kepada langkah teknikal, setiap orang perlu membina keupayaan untuk mengenal pasti tanda-tanda luar biasa dan mencurigakan dan secara proaktif melindungi diri mereka daripada interaksi digital yang berbahaya...

Firma keselamatan Kaspersky telah memberi amaran terhadap penyalahgunaan Dark AI (istilah yang digunakan untuk menggambarkan penggunaan model bahasa besar (LLM) yang beroperasi di luar kawalan keselamatan standard, selalunya membenarkan tindakan seperti penipuan, manipulasi, serangan siber atau penyalahgunaan data). Organisasi dan individu perlu bersedia untuk serangan siber yang semakin canggih dan sukar untuk dikesan disebabkan oleh kebangkitan AI Gelap di rantau Asia-Pasifik.

Sergey Lozhkin, Ketua Pasukan Penyelidikan dan Analisis Global (GReAT) yang bertanggungjawab ke atas Timur Tengah, Turki, Afrika dan rantau Asia-Pasifik di Kaspersky, berkongsi bahawa salah satu manifestasi penyalahgunaan AI hari ini ialah kemunculan model Black Hat GPT. Ini ialah model AI yang dibangunkan atau dilaraskan khas untuk melaksanakan tujuan yang tidak beretika dan menyalahi undang-undang seperti mencipta perisian hasad, merangka e-mel pancingan data yang fasih dan sangat meyakinkan untuk menyampaikan serangan berskala besar, mencipta suara dan video palsu, malah menyokong operasi serangan simulasi...

Pakar Kaspersky mengesyorkan agar individu dan perniagaan menggunakan penyelesaian keselamatan generasi akan datang untuk mengesan perisian hasad yang dijana AI, dan mengenal pasti perlindungan data sebagai matlamat penting. Untuk perniagaan, adalah perlu untuk menggunakan alat pemantauan masa nyata untuk memantau eksploitasi dipacu AI; mengukuhkan kawalan akses dan latihan kakitangan untuk mengehadkan fenomena AI dalam gelap serta risiko kebocoran data; tubuhkan pusat operasi keselamatan siber untuk memantau ancaman dan bertindak balas dengan pantas terhadap insiden...

Sumber: https://www.sggp.org.vn/bao-mat-du-lieu-thoi-ai-post824210.html


Komen (0)

No data
No data

Dalam topik yang sama

Dalam kategori yang sama

Kali ke-4 melihat gunung Ba Den dengan jelas dan jarang dari Ho Chi Minh City
Manjakan mata anda dengan pemandangan indah Vietnam dalam MV Soobin Muc Ha Vo Nhan
Kedai kopi dengan hiasan awal Krismas membuat jualan melambung tinggi, menarik ramai golongan muda
Apakah keistimewaan pulau berhampiran sempadan maritim dengan China?

Daripada pengarang yang sama

Warisan

Rajah

Perniagaan

Mengagumi kostum kebangsaan 80 jelita yang bertanding dalam Miss International 2025 di Jepun

Peristiwa semasa

Sistem Politik

Tempatan

produk