Sekelompok pakar internasional terkemuka bertemu di Beijing minggu lalu, di mana mereka mengidentifikasi “garis merah” dalam pengembangan AI, termasuk pembuatan senjata biologis dan melakukan serangan siber.
Dalam sebuah pernyataan beberapa hari setelah pertemuan tersebut, para akademisi memperingatkan bahwa pendekatan umum terhadap keamanan AI diperlukan untuk mencegah "risiko bencana atau bahkan risiko eksistensial bagi umat manusia dalam hidup kita."
"Pada puncak Perang Dingin, kerja sama ilmiah dan pemerintah internasional membantu mencegah bencana nuklir. Umat manusia harus kembali bekerja sama untuk mencegah bencana yang dapat muncul akibat teknologi yang belum pernah terjadi sebelumnya," demikian pernyataan tersebut.
Para pakar di Dialog Internasional tentang Keamanan AI di Beijing telah mengidentifikasi “garis merah” dalam pengembangan AI. Foto: FT
Para penandatangannya termasuk Geoffrey Hinton dan Yoshua Bengio, yang sering disebut sebagai “bapak” AI; Stuart Russell, seorang profesor ilmu komputer di Universitas California; dan Andrew Yao, salah satu ilmuwan komputer paling terkemuka di Tiongkok.
Pernyataan itu muncul setelah Dialog Keamanan AI Internasional di Beijing minggu lalu, sebuah pertemuan yang dihadiri oleh pejabat pemerintah China untuk menyatakan persetujuan mereka terhadap forum tersebut dan hasilnya.
Presiden AS Joe Biden dan Presiden Tiongkok Xi Jinping bertemu pada November tahun lalu dan membahas keamanan AI, serta sepakat untuk membangun dialog mengenai isu tersebut. Perusahaan-perusahaan AI terkemuka dunia juga telah bertemu secara tertutup dengan para pakar AI Tiongkok dalam beberapa bulan terakhir.
Pada bulan November 2023, 28 negara, termasuk Tiongkok, dan perusahaan-perusahaan AI terkemuka sepakat untuk berkomitmen secara luas guna bekerja sama mengatasi risiko eksistensial yang berasal dari AI canggih pada pertemuan puncak keselamatan AI yang diselenggarakan oleh Kanselir Inggris Rishi Sunak.
Di Beijing minggu lalu, para ahli membahas ancaman yang terkait dengan pengembangan "Kecerdasan Umum Buatan — AGI," atau sistem AI yang setara atau lebih unggul dari manusia.
“Fokus utama diskusi ini adalah garis merah yang tidak boleh dilanggar oleh sistem AI yang kuat dan yang harus diberlakukan oleh pemerintah di seluruh dunia dalam pengembangan dan penerapan AI,” ujar Bengio.
Garis merah ini akan memastikan bahwa “tidak ada sistem AI yang dapat mereplikasi atau meningkatkan dirinya sendiri tanpa persetujuan dan dukungan manusia secara eksplisit” atau “mengambil tindakan yang secara tidak wajar meningkatkan kekuatan dan pengaruhnya.”
Para ilmuwan menambahkan bahwa tidak ada sistem yang akan "secara signifikan meningkatkan kemampuan aktor untuk merancang senjata pemusnah massal, melanggar konvensi senjata biologis atau kimia" atau mampu "secara otomatis melakukan serangan siber yang mengakibatkan kerugian finansial serius atau kerugian yang setara."
Hoang Hai (menurut FT)
[iklan_2]
Sumber
Komentar (0)