Dalam sebuah wawancara dengan The Guardian , penulis buku "Sapiens: A Brief History of Humankind" menyatakan bahwa, tidak seperti senjata nuklir, masalah yang ditimbulkan oleh model AI tidak terbatas pada satu skenario besar saja.
Dengan AI, terdapat banyak sekali skenario berbahaya, yang masing-masing memiliki kemungkinan untuk bergabung dan membentuk ancaman nyata bagi peradaban manusia.
Bapak Harari berkomentar bahwa deklarasi multilateral pada KTT Keamanan AI Global di Bletchley Park, Inggris, merupakan "langkah maju yang sangat penting" karena pemerintah-pemerintah terkemuka telah berkumpul untuk menyatakan keprihatinan tentang teknologi ini dan melakukan sesuatu untuk mengatasinya.
"Tanpa kerja sama global, akan sangat sulit, jika bukan tidak mungkin, untuk membendung potensi paling berbahaya dari AI," katanya.
KTT tersebut diakhiri dengan kesepakatan antara 10 pemerintah dan perusahaan AI besar, termasuk pengembang ChatGPT, OpenAI, dan Google, untuk berkolaborasi dalam pengujian model AI canggih sebelum dan sesudah peluncurannya.
Penulis Sapiens berpendapat bahwa salah satu masalah ketika menguji keamanan model adalah harus mengantisipasi semua masalah yang mungkin ditimbulkannya.
AI berbeda dari semua teknologi sebelumnya dalam sejarah manusia karena ini adalah teknologi pertama yang dapat mengambil keputusan sendiri, menghasilkan ide-ide baru, serta belajar dan berkembang sendiri.
Sesuai definisinya, manusia – bahkan "bapak" AI – merasa sangat sulit untuk memprediksi semua potensi bahaya dan masalah.
Pemerintah telah menyampaikan kekhawatiran tentang ancaman yang ditimbulkan oleh sistem AI dalam menciptakan senjata biologis, tetapi skenario lain juga dapat dipertimbangkan.
Pak Harari menunjukkan bahwa keuangan adalah bidang yang ideal untuk sistem AI karena di bidang ini, data dan AI lah yang dapat menciptakan krisis serius.
"Apa yang akan terjadi jika AI tidak hanya diberi kendali lebih besar atas sistem keuangan dunia , tetapi juga mulai menciptakan perangkat keuangan baru yang hanya dapat dipahami oleh AI, dan tidak dapat dipahami oleh manusia?" tanya Harari.
Sejarawan itu menambahkan bahwa krisis keuangan 2007-2008 disebabkan oleh instrumen utang seperti obligasi utang berbasis hipotek (CDO) yang hanya sedikit orang yang memahaminya dan oleh karena itu tidak diatur secara memadai.
"AI berpotensi menciptakan perangkat keuangan yang lebih kompleks daripada CDO. Bayangkan saja situasi di mana kita memiliki sistem keuangan yang tidak dapat dipahami oleh manusia dan karenanya tidak dapat diatur," katanya. "Dan kemudian terjadi krisis keuangan di mana tidak ada yang mengerti apa yang sedang terjadi."
Bulan lalu, pemerintah Inggris menyampaikan kekhawatiran tentang model AI canggih yang dapat menimbulkan ancaman eksistensial dengan mengendalikan dan memanipulasi sistem keuangan.
Namun Harari percaya bahwa krisis keuangan yang disebabkan oleh AI tidak akan menghancurkan peradaban manusia, "setidaknya tidak secara langsung."
Dia menambahkan: "Secara tidak langsung, hal itu dapat menyebabkan semacam perang atau konflik. Itu adalah risiko yang sangat besar – ekonomi, sosial, dan politik ."
Penulis asal Israel tersebut, yang mendukung seruan untuk menghentikan pengembangan AI tingkat lanjut selama enam bulan dan meminta pertanggungjawaban perusahaan AI atas kerusakan yang disebabkan oleh produk mereka, mengatakan bahwa fokusnya seharusnya bukan pada peraturan dan undang-undang tertentu, melainkan pada badan pengatur yang memiliki kemampuan teknologi yang dapat merespons dengan cepat ketika terobosan baru muncul.
"Kita perlu menciptakan, secepat mungkin, lembaga pemerintahan yang kuat yang mampu mengidentifikasi dan menanggapi bahaya saat muncul, berdasarkan pemahaman bahwa kita tidak dapat mengantisipasi semua bahaya dan masalah."
Dia menyampaikan: "Inilah yang seharusnya menjadi upaya utama, bukan menulis beberapa peraturan yang sangat panjang dan rumit yang mungkin sudah usang pada saat disahkan oleh Parlemen."
Lembaga penelitian keamanan AI harus mempekerjakan para ahli yang memahami potensi dampak AI pada dunia keuangan, kata Harari.
Bulan lalu, Perdana Menteri Inggris Rishi Sunak mengumumkan pembentukan institut keamanan AI Inggris. Beberapa hari kemudian, Gedung Putih mengumumkan rencana untuk mendirikan badan serupa. Keduanya diharapkan memainkan peran penting dalam menguji model AI canggih.
Berbicara di KTT tersebut, Sunak mengatakan bahwa Inggris perlu memahami kemampuan model AI canggih sebelum memberlakukan undang-undang untuk menanganinya.
(Menurut The Guardian)
Dengan menggunakan AI, GraphCast menyediakan prakiraan cuaca 10 hari paling akurat di dunia.
Laboratorium DeepMind milik Google di Inggris telah mengembangkan GraphCast, sebuah sistem kecerdasan buatan (AI) yang mampu memberikan prakiraan cuaca 10 hari paling akurat di dunia.
Kekuatan sinergis AI dan komputasi awan
Kombinasi kecerdasan buatan (AI) dan komputasi awan adalah tren yang tak terbendung yang membentuk kembali industri global.
Sumber






Komentar (0)