Dalam wawancara dengan The Guardian , penulis buku “Sapiens: A Brief History of Humankind” mengatakan bahwa, tidak seperti senjata nuklir, masalah yang ditimbulkan oleh model AI tidak terbatas pada satu skenario besar.
Dengan AI, ada skenario berbahaya yang tak terhitung jumlahnya, yang masing-masing memiliki potensi untuk bergabung dan menimbulkan ancaman eksistensial bagi peradaban manusia.
Deklarasi multilateral pada KTT Keamanan AI Global di Bletchley Park, Inggris, merupakan “langkah maju yang sangat penting” karena pemerintah-pemerintah terkemuka bersatu untuk mengungkapkan kekhawatiran mereka tentang teknologi ini dan mengambil tindakan, komentar Bapak Harari.
“Tanpa kerja sama global, akan sangat sulit, bahkan mustahil, untuk membendung potensi AI yang paling berbahaya,” ujarnya.
KTT tersebut ditutup dengan kesepakatan antara 10 pemerintah dan perusahaan AI besar, termasuk pengembang ChatGPT OpenAI dan Google, untuk berkolaborasi dalam pengujian model AI canggih sebelum dan sesudah dirilis.
Para penulis Sapiens berpendapat bahwa salah satu masalah dalam pengujian keamanan model adalah harus meramalkan setiap masalah yang mungkin ditimbulkannya.
AI berbeda dari setiap teknologi sebelumnya dalam sejarah manusia karena merupakan teknologi pertama yang dapat membuat keputusan, menghasilkan ide-ide baru, dan belajar serta berkembang sendiri.
Berdasarkan definisinya, sangat sulit bagi manusia – bahkan “bapak” AI – untuk memprediksi semua potensi bahaya dan masalah.
Pemerintah telah meningkatkan ancaman sistem AI yang membantu menciptakan senjata biologis, tetapi ada skenario lain yang dapat dipertimbangkan.
Bapak Harari menunjukkan bahwa keuangan merupakan bidang ideal yang cocok untuk sistem AI karena data dan AI saja dapat menciptakan krisis yang serius.
“Bagaimana jika AI tidak hanya diberi kendali lebih besar atas sistem keuangan dunia , tetapi juga mulai menciptakan perangkat keuangan baru yang hanya dapat dipahami oleh AI dan tidak dapat dipahami oleh manusia,” tanya Harari.
Krisis keuangan 2007-2008 disebabkan oleh instrumen utang seperti collateralized debt obligations (CDO) yang kurang dipahami dan karena itu tidak diatur secara memadai, sejarawan menambahkan.
"AI berpotensi menciptakan perangkat keuangan yang lebih kompleks daripada CDO. Bayangkan saja situasi di mana kita memiliki sistem keuangan yang tidak dapat dipahami manusia dan karenanya tidak dapat diatur," ujarnya. "Lalu terjadilah krisis keuangan di mana tidak seorang pun mengerti apa yang sedang terjadi."
Bulan lalu, pemerintah Inggris menyuarakan kekhawatiran tentang model AI canggih yang dapat menimbulkan ancaman eksistensial dengan mengendalikan dan memanipulasi sistem keuangan.
Namun, Bapak Harari yakin krisis keuangan yang disebabkan oleh AI tidak akan menghancurkan peradaban manusia, “setidaknya tidak secara langsung”.
"Bisa saja, secara tidak langsung, jika memicu perang atau konflik. Ini adalah risiko bencana – ekonomi, sosial, politik ," tambahnya.
Penulis Israel, yang mendukung seruan untuk menghentikan pengembangan AI canggih selama enam bulan dan meminta pertanggungjawaban perusahaan AI atas kerusakan yang disebabkan produk mereka, mengatakan fokusnya seharusnya tidak diberikan pada regulasi dan undang-undang tertentu, tetapi pada organisasi regulasi yang paham teknologi yang dapat bereaksi cepat saat terobosan baru muncul.
“Kita perlu menciptakan lembaga regulasi yang kuat secepat mungkin, yang mampu mengidentifikasi dan merespons bahaya saat muncul, berdasarkan pemahaman bahwa kita tidak dapat memprediksi semua bahaya dan masalah sebelumnya.”
“Ini seharusnya menjadi upaya utama, bukan menulis regulasi yang sangat panjang dan rumit yang ketika disahkan Kongres mungkin sudah ketinggalan zaman,” ujarnya.
Lembaga penelitian keamanan AI harus merekrut ahli yang memahami dampak potensial AI pada dunia keuangan, kata Tn. Harari.
Bulan lalu, Kanselir Inggris Rishi Sunak mengumumkan pembentukan lembaga keamanan AI Inggris. Beberapa hari kemudian, Gedung Putih mengumumkan rencana pembentukan badan serupa. Keduanya diharapkan memainkan peran kunci dalam menguji model AI tingkat lanjut.
Berbicara di pertemuan puncak itu, Tn. Sunak mengatakan Inggris perlu memahami kemampuan model AI canggih sebelum memperkenalkan undang-undang untuk mengatasinya.
(Menurut The Guardian)
Aplikasi AI, GraphCast meramalkan ramalan cuaca 10 hari paling akurat di dunia
Laboratorium DeepMind Google di Inggris telah mengembangkan sistem GraphCast, aplikasi kecerdasan buatan (AI) yang mampu memberikan prakiraan cuaca 10 hari paling akurat di dunia.
Kekuatan gabungan AI dan komputasi awan
Kombinasi kecerdasan buatan (AI) dan komputasi awan adalah tren yang tak terhentikan yang membentuk kembali industri global.
[iklan_2]
Sumber
Komentar (0)