Risiko kehilangan kendali atas AI
Umat manusia tampaknya mengabaikan momok yang mengancam: momok perang nuklir global yang disebabkan oleh kecerdasan buatan (AI). Sekretaris Jenderal PBB Antonio Guterres telah memperingatkannya. Namun sejauh ini, negara-negara bersenjata nuklir belum bersatu untuk mengatasi ancaman dahsyat ini.
Perkembangan pesat kecerdasan buatan (AI) menimbulkan risiko bahwa AI dapat mengintervensi proses peluncuran senjata nuklir. Foto ilustrasi
Sudah lama ada konsensus informal di antara lima negara pemilik senjata nuklir terbesar – AS, Rusia, Tiongkok, Inggris, dan Prancis – mengenai prinsip “manusia dalam lingkaran”, yang berarti bahwa setiap negara memiliki sistem untuk memastikan keterlibatan manusia dalam keputusan peluncuran senjata nuklir.
Tak satu pun dari kelima negara tersebut menyatakan telah menerapkan AI dalam sistem komando peluncuran nuklir mereka. Hal ini memang benar, tetapi menyesatkan, menurut Dr. Sundeep Waslekar, presiden Strategic Foresight Group, sebuah organisasi riset internasional di Mumbai, India.
AI sudah digunakan untuk deteksi ancaman dan pemilihan target. Sistem bertenaga AI menganalisis data dalam jumlah besar dari sensor, satelit, dan radar secara real-time, menganalisis serangan rudal yang masuk, dan menyarankan opsi respons.
Operator kemudian memeriksa ulang ancaman dari berbagai sumber dan memutuskan apakah akan mencegat rudal musuh atau melancarkan serangan balasan.
"Saat ini, waktu reaksi yang tersedia bagi operator manusia adalah 10 hingga 15 menit. Pada tahun 2030, waktu ini akan berkurang menjadi 5 hingga 7 menit," ujar Sundeep Waslekar. "Meskipun manusia akan mengambil keputusan akhir, mereka akan dipengaruhi oleh analitik prediktif dan preskriptif AI. AI dapat menjadi kekuatan pendorong di balik keputusan peluncuran sejak awal tahun 2030-an."
Masalahnya, AI bisa saja salah. Algoritma pendeteksi ancaman dapat mengindikasikan serangan rudal padahal sebenarnya tidak terjadi. Hal ini bisa disebabkan oleh kesalahan komputer, intrusi jaringan, atau faktor lingkungan yang mengaburkan sinyal. Kecuali operator manusia dapat mengonfirmasi alarm palsu dari sumber lain dalam dua hingga tiga menit, mereka dapat memicu serangan balasan.
Kesalahan sangat kecil, bencana besar
Penggunaan AI dalam berbagai fungsi sipil seperti prediksi kejahatan, pengenalan wajah, dan prognosis kanker diketahui memiliki margin kesalahan 10%. Dalam sistem peringatan dini nuklir, margin kesalahannya bisa mencapai sekitar 5%, menurut Sundeep Waslekar.
Seiring meningkatnya akurasi algoritma pengenalan gambar selama dekade mendatang, margin kesalahan ini dapat turun menjadi 1-2%. Namun, margin kesalahan 1% saja dapat memicu perang nuklir global.
Keputusan untuk menyerang atau membalas senjata nuklir dapat dipicu oleh kesalahan AI. Foto: Modern War Institute
Risikonya dapat meningkat dalam dua hingga tiga tahun ke depan seiring munculnya malware baru yang mampu menghindari sistem deteksi ancaman. Malware ini akan beradaptasi untuk menghindari deteksi, mengidentifikasi target secara otomatis, dan menyerang mereka.
Terdapat beberapa situasi "brinkmanship" selama Perang Dingin. Pada tahun 1983, sebuah satelit Soviet secara keliru mendeteksi lima rudal yang diluncurkan oleh Amerika Serikat. Stanislaw Petrov, seorang perwira di pusat komando Sepukhov-15 Rusia, menyimpulkan bahwa itu adalah alarm palsu dan tidak memberi tahu atasannya agar mereka dapat melancarkan serangan balasan.
Pada tahun 1995, stasiun radar Olenegorsk mendeteksi serangan rudal di lepas pantai Norwegia. Pasukan strategis Rusia disiagakan dan Presiden Boris Yeltsin saat itu diberi tas kerja nuklir. Ia curiga itu adalah kesalahan dan tidak menekan tombol. Ternyata itu adalah rudal ilmiah . Jika AI digunakan untuk menentukan respons dalam kedua situasi tersebut, hasilnya bisa sangat buruk.
Rudal hipersonik saat ini menggunakan otomatisasi konvensional, alih-alih AI. Rudal ini dapat melaju dengan kecepatan antara Mach 5 dan Mach 25, menghindari deteksi radar, dan mengendalikan jalur penerbangannya. Negara-negara adidaya berencana untuk meningkatkan kemampuan rudal hipersonik dengan AI agar dapat langsung menemukan dan menghancurkan target bergerak, menggeser keputusan untuk membunuh dari manusia ke mesin.
Terdapat pula persaingan untuk mengembangkan kecerdasan buatan umum, yang dapat mengarah pada model-model AI yang beroperasi di luar kendali manusia. Ketika ini terjadi, sistem AI akan belajar untuk meningkatkan dan mereplikasi diri, sehingga mengambil alih proses pengambilan keputusan. Jika AI semacam itu diintegrasikan ke dalam sistem pendukung keputusan untuk senjata nuklir, mesin akan mampu memulai perang yang dahsyat.
Saatnya bertindak
Menghadapi risiko-risiko di atas, banyak ahli percaya bahwa umat manusia membutuhkan kesepakatan komprehensif antara negara-negara besar untuk meminimalkan risiko perang nuklir, bukan hanya mengulang slogan “manusia terlibat”.
Perjanjian ini harus mencakup langkah-langkah transparansi, akuntabilitas, dan kerja sama; standar internasional untuk pengujian dan evaluasi; saluran komunikasi krisis; dewan pengawasan nasional; dan aturan untuk melarang model AI agresif yang mampu melewati operator manusia.
Sekretaris Jenderal António Guterres menghadiri upacara peringatan perdamaian di Hiroshima, yang dilanda bom atom pada tahun 1945. Foto: PBB
Pergeseran geopolitik menciptakan peluang bagi pakta semacam itu. Para pakar AI terkemuka dari Tiongkok dan AS, misalnya, telah terlibat dalam sejumlah dialog jalur kedua tentang risiko AI, yang menghasilkan pernyataan bersama oleh mantan Presiden AS Joe Biden dan Presiden Tiongkok Xi Jinping November lalu.
Miliarder Elon Musk adalah pendukung kuat perlunya menyelamatkan umat manusia dari risiko eksistensial yang ditimbulkan oleh AI, dan ia mungkin mendesak Presiden AS saat ini Donald Trump untuk mengubah pernyataan bersama antara Joe Biden dan Xi Jinping menjadi sebuah perjanjian, menurut Dr. Sundeep Waslekar.
Tantangan nuklir AI juga membutuhkan partisipasi Rusia, menurut Dr. Sundeep Waslekar. Hingga Januari tahun ini, Rusia menolak membahas langkah-langkah pengurangan risiko nuklir apa pun, termasuk konvergensi dengan AI, kecuali jika Ukraina dibahas.
Dengan Presiden Donald Trump terlibat dalam dialog dengan Presiden Rusia Vladimir Putin untuk meningkatkan hubungan bilateral dan mengakhiri perang di Ukraina, Rusia sekarang mungkin terbuka untuk berdiskusi.
Pada bulan Februari tahun ini, menyusul pidato Wakil Presiden AS JD Vance di Paris AI Action Summit, Center for a New American Security (CNAS) juga menerbitkan laporan berjudul “Mencegah Kiamat AI: Persaingan AS-Tiongkok-Rusia di Titik Temu Senjata Nuklir dan Kecerdasan Buatan”.
Laporan tersebut mengidentifikasi risiko paling signifikan dari hubungan AI-nuklir dan mendesak pemerintah AS untuk membangun seperangkat mekanisme mitigasi risiko dan manajemen krisis yang komprehensif dengan China dan Rusia.
Sebelumnya, pada bulan September tahun lalu, sekitar 60 negara, termasuk AS, mengadopsi "rencana aksi" untuk mengelola penggunaan AI yang bertanggung jawab di militer pada Konferensi Tingkat Tinggi AI yang Bertanggung Jawab dalam Militer (REAIM) di Seoul, Korea Selatan. Ini merupakan konferensi kedua yang diselenggarakan di bidang serupa, setelah konferensi yang diadakan di Den Haag tahun lalu. Gerakan-gerakan ini menunjukkan bahwa risiko perang nuklir yang dipicu oleh AI bukanlah fiksi ilmiah.
Dunia jelas menghadapi masalah eksistensial yang semakin mendesak yang memerlukan tindakan nyata dari negara-negara nuklir untuk memastikan bahwa “setiap keputusan tentang penggunaan senjata nuklir dibuat oleh manusia, bukan mesin atau algoritma” - seperti yang diminta oleh Sekretaris Jenderal PBB Antonio Guterres.
Nguyen Khanh










Komentar (0)