Dua peneliti Amerika memperingatkan bahwa kemungkinan AI superintelijen menghancurkan umat manusia bisa mencapai 99%, dan menyerukan dunia untuk segera menghentikan pengembangan AI yang tidak terkendali.
Báo Khoa học và Đời sống•09/10/2025
Dua pakar, Eliezer Yudkowsky dan Nate Soares, memperingatkan bahwa jika hanya satu AI superintelijen lahir, seluruh umat manusia bisa punah. (Foto: The Conversation) Dalam buku mereka If Anyone Builds It, Everyone Dies, mereka berpendapat bahwa AI yang cukup kuat akan belajar sendiri, memprogram ulang dirinya sendiri, dan memandang manusia sebagai hambatan bagi tujuannya. (Foto: Vecteezy)
Menurut Vox, ancaman sesungguhnya terletak pada kemampuan AI untuk menyembunyikan kekuatan aslinya dan hanya bertindak ketika ia memegang kendali penuh atas sistem. (Foto: Yahoo) Kedua penulis memperkirakan bahwa kemungkinan manusia punah akibat AI adalah antara 95% dan 99,5%, yang menimbulkan guncangan di dunia teknologi. (Foto: The Conversation)
Mereka mengusulkan tindakan ekstrem: mencegah pengembangan AI supercerdas sejak awal, bahkan menghancurkan pusat data yang berisiko kehilangan kendali. Namun, banyak ahli seperti Gary Marcus berpendapat bahwa risiko ini dibesar-besarkan, menekankan perlunya membangun sistem keselamatan alih-alih rasa takut yang ekstrem. Para pendukung Yudkowsky mengatakan peringatan itu datang di waktu yang tepat, karena AI sudah merambah ke bidang pertahanan, energi, dan infrastruktur global.
Ucapan “Jika kita salah, tak akan ada seorang pun yang tersisa untuk mengoreksi kita” dalam buku ini dianggap sebagai seruan bagi seluruh umat manusia tentang perlombaan untuk bertahan hidup dengan kecerdasan yang kita ciptakan sendiri. Pembaca yang terhormat, silakan tonton lebih banyak video : Sampah AI - Masalah baru di jejaring sosial VTV24
Komentar (0)