Vietnam.vn - Nền tảng quảng bá Việt Nam

Risiko AI memulakan perang nuklear bukanlah fiksyen sains

(CLO) Perang nuklear yang dimulakan oleh AI kedengaran seperti sesuatu daripada filem fiksyen sains. Tetapi ramai saintis dan ahli politik terkemuka dunia mengatakan tidak.

Công LuậnCông Luận23/03/2025

Risiko kehilangan kawalan AI

Kemanusiaan seolah-olah mengabaikan momok di kaki langit: momok perang nuklear global yang disebabkan oleh kecerdasan buatan (AI). Setiausaha Agung PBB Antonio Guterres telah memberi amaran mengenainya. Tetapi setakat ini, negara-negara bersenjata nuklear tidak bersatu untuk merundingkan ancaman bencana ini.

Bahaya perang nuklear bukanlah mitos.

Perkembangan pesat kecerdasan buatan (AI) menimbulkan risiko bahawa AI boleh campur tangan dalam proses pelancaran senjata nuklear. Foto ilustrasi

Sudah lama wujud konsensus tidak rasmi antara lima kuasa nuklear terbesar - AS, Rusia, China, UK dan Perancis - mengenai prinsip "manusia dalam gelung", yang bermaksud bahawa setiap negara mempunyai sistem untuk memastikan manusia terlibat dalam keputusan untuk melancarkan senjata nuklear.

Tiada satu pun daripada lima kuasa itu mengatakan mereka telah menggunakan AI dalam sistem arahan pelancaran nuklear mereka. Ini adalah benar tetapi mengelirukan, menurut Dr. Sundeep Waslekar, presiden Strategic Foresight Group, sebuah organisasi penyelidikan antarabangsa di Mumbai, India.

AI sudah digunakan untuk pengesanan ancaman dan pemilihan sasaran. Sistem berkuasa AI menganalisis sejumlah besar data daripada penderia, satelit dan radar dalam masa nyata, menganalisis serangan peluru berpandu masuk dan mencadangkan pilihan tindak balas.

Pengendali kemudian menyemak balas ancaman daripada sumber yang berbeza dan memutuskan sama ada untuk memintas peluru berpandu musuh atau melancarkan serangan balas.

"Pada masa ini, masa tindak balas yang tersedia untuk pengendali manusia ialah 10 hingga 15 minit. Menjelang 2030, ini akan dikurangkan kepada 5 hingga 7 minit," kata Sundeep Waslekar. "Walaupun manusia akan membuat keputusan muktamad, mereka akan dipengaruhi oleh analisis ramalan dan preskriptif AI. AI boleh menjadi penggerak di sebalik keputusan pelancaran seawal tahun 2030-an."

Masalahnya ialah AI boleh menjadi salah. Algoritma pengesanan ancaman boleh menunjukkan serangan peluru berpandu apabila tiada yang berlaku. Ini mungkin disebabkan oleh ralat komputer, pencerobohan rangkaian atau faktor persekitaran yang mengaburkan isyarat. Melainkan pengendali manusia boleh mengesahkan penggera palsu daripada sumber lain dalam masa dua hingga tiga minit, mereka boleh mencetuskan serangan balas.

Kesilapan yang sangat kecil, bencana besar

Penggunaan AI dalam banyak fungsi awam seperti meramal jenayah, pengecaman muka dan prognosis kanser diketahui mempunyai margin ralat sebanyak 10%. Dalam sistem amaran awal nuklear, margin ralat boleh menjadi sekitar 5%, menurut Sundeep Waslekar.

Memandangkan ketepatan algoritma pengecaman imej bertambah baik sepanjang dekad yang akan datang, margin ralat ini boleh jatuh kepada 1-2%. Tetapi walaupun 1% margin kesilapan boleh memulakan perang nuklear global.

Bahaya perang nuklear bukanlah mitos.

Keputusan untuk menyerang atau bertindak balas terhadap senjata nuklear boleh dicetuskan oleh kesilapan AI. Foto: Institut Perang Moden

Risiko boleh meningkat dalam tempoh dua hingga tiga tahun akan datang apabila perisian hasad baharu muncul yang mampu mengelak sistem pengesanan ancaman. Malware ini akan menyesuaikan diri untuk mengelakkan pengesanan, mengenal pasti sasaran secara automatik dan menyerangnya.

Terdapat beberapa situasi "brinkmanship" semasa Perang Dingin. Pada tahun 1983, satelit Soviet tersilap mengesan lima peluru berpandu yang dilancarkan oleh Amerika Syarikat. Stanislaw Petrov, seorang pegawai di pusat komando Sepukhov-15 Rusia, menyimpulkan bahawa ia adalah penggera palsu dan tidak memaklumkan pihak atasannya supaya mereka boleh melancarkan serangan balas.

Pada tahun 1995, stesen radar Olenegorsk mengesan serangan peluru berpandu di luar pantai Norway. Pasukan strategik Rusia diletakkan dalam keadaan berjaga-jaga dan ketika itu Presiden Boris Yeltsin telah diserahkan beg bimbit nuklear. Dia mengesyaki itu satu kesilapan dan tidak menekan butang. Ternyata ia adalah peluru berpandu saintifik . Jika AI digunakan untuk menentukan tindak balas dalam kedua-dua situasi, hasilnya boleh menjadi bencana.

Peluru berpandu hipersonik hari ini menggunakan automasi konvensional dan bukannya AI. Mereka boleh bergerak pada kelajuan antara Mach 5 dan Mach 25, mengelakkan pengesanan radar dan mengawal laluan penerbangan mereka. Kuasa besar itu merancang untuk meningkatkan peluru berpandu hipersonik dengan AI untuk mengesan serta-merta dan memusnahkan sasaran yang bergerak, mengalihkan keputusan untuk membunuh daripada manusia kepada mesin.

Terdapat juga perlumbaan untuk membangunkan kecerdasan buatan am, yang boleh membawa kepada model AI yang beroperasi di luar kawalan manusia. Apabila ini berlaku, sistem AI akan belajar untuk meningkatkan dan mereplikasi diri mereka sendiri, mengambil alih proses membuat keputusan. Jika AI sedemikian disepadukan ke dalam sistem sokongan keputusan untuk senjata nuklear, mesin akan dapat memulakan peperangan yang dahsyat.

Masa untuk bertindak

Berdepan dengan risiko di atas, ramai pakar percaya bahawa manusia memerlukan perjanjian yang komprehensif antara kuasa besar untuk meminimumkan risiko perang nuklear, melangkaui mengulangi slogan "manusia dalam gelung".

Perjanjian ini harus merangkumi langkah-langkah ketelusan, akauntabiliti dan kerjasama; piawaian antarabangsa untuk ujian dan penilaian; saluran komunikasi krisis; lembaga pengawasan negara; dan peraturan untuk melarang model AI yang agresif yang mampu memintas pengendali manusia.

Bahaya perang nuklear bukan pakar imej 3D

Setiausaha Agung António Guterres menghadiri upacara peringatan keamanan di Hiroshima, yang dilanda bom atom pada tahun 1945. Foto: PBB

Peralihan geopolitik mewujudkan peluang untuk pakatan sedemikian. Pakar AI terkemuka dari China dan AS, misalnya, telah terlibat dalam beberapa dialog trek-dua mengenai risiko AI, yang membawa kepada kenyataan bersama oleh bekas Presiden AS Joe Biden dan Presiden China Xi Jinping pada November lalu.

Jutawan Elon Musk ialah penyokong kuat untuk keperluan menyelamatkan manusia daripada risiko wujud yang ditimbulkan oleh AI, dan dia mungkin menggesa Presiden AS semasa Donald Trump untuk mengubah kenyataan bersama antara Joe Biden dan Xi Jinping menjadi perjanjian, menurut Dr Sundeep Waslekar.

Cabaran AI-nuklear juga memerlukan penyertaan Rusia, menurut Dr Sundeep Waslekar. Sehingga Januari tahun ini, Rusia enggan membincangkan sebarang langkah pengurangan risiko nuklear, termasuk penumpuan dengan AI, melainkan Ukraine dibincangkan.

Dengan Presiden Donald Trump terlibat dalam dialog dengan Presiden Rusia Vladimir Putin untuk memperbaiki hubungan dua hala dan menamatkan perang di Ukraine, Rusia kini mungkin terbuka untuk perbincangan.

Pada Februari tahun ini, berikutan ucapan Naib Presiden AS JD Vance di Sidang Kemuncak Tindakan AI Paris, Pusat Keselamatan Amerika Baru (CNAS) turut menerbitkan laporan bertajuk “Mencegah Kiamat AI: Persaingan AS-China-Rusia di Nexus Senjata Nuklear dan Kepintaran Buatan”.

Laporan itu mengenal pasti risiko paling ketara perhubungan AI-nuklear dan menggesa pentadbiran AS untuk mewujudkan satu set komprehensif mitigasi risiko dan mekanisme pengurusan krisis dengan China dan Rusia.

Terdahulu, pada September tahun lalu, kira-kira 60 negara termasuk AS mengguna pakai "pelan tindakan" untuk menguruskan penggunaan AI yang bertanggungjawab dalam tentera pada Sidang Kemuncak AI Bertanggungjawab dalam Tentera (REAIM) yang diadakan di Seoul, Korea Selatan. Ini adalah persidangan kedua seumpamanya, selepas persidangan yang diadakan di The Hague tahun lepas. Pergerakan tersebut menunjukkan bahawa risiko perang nuklear yang dimulakan oleh AI bukanlah fiksyen sains.

Dunia jelas menghadapi masalah eksistensi yang semakin mendesak yang memerlukan tindakan sebenar daripada kuasa nuklear untuk memastikan bahawa "setiap keputusan mengenai penggunaan senjata nuklear dibuat oleh manusia, bukan mesin atau algoritma" - seperti yang diseru oleh Setiausaha Agung PBB Antonio Guterres.

Nguyen Khanh


Komen (0)

Sila tinggalkan komen untuk berkongsi perasaan anda!

Dalam kategori yang sama

Katedral Notre Dame di Ho Chi Minh City diterangi terang untuk menyambut Krismas 2025
Gadis Hanoi "berdandan" cantik untuk musim Krismas
Dicerahkan selepas ribut dan banjir, perkampungan kekwa Tet di Gia Lai berharap tiada bekalan elektrik terputus untuk menyelamatkan loji.
Ibu kota aprikot kuning di wilayah Tengah mengalami kerugian besar selepas bencana alam berganda

Daripada pengarang yang sama

Warisan

Rajah

Perniagaan

Kedai kopi Dalat menyaksikan peningkatan 300% pelanggan kerana pemilik memainkan peranan 'filem seni mempertahankan diri'

Peristiwa semasa

Sistem Politik

Tempatan

produk

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC