Dunia belum siap untuk kecerdasan umum buatan (AGI), atau momen ketika kecerdasan buatan sama cerdasnya dengan otak manusia, menurut seorang peneliti senior di OpenAI.
Apakah Kecerdasan Buatan Umum Merupakan Risiko?
Selama bertahun-tahun, para peneliti telah berspekulasi tentang kemunculan kecerdasan umum buatan, atau AGI, ketika sistem buatan akan mampu menangani berbagai tugas sebaik manusia. Banyak yang memandang kemunculannya sebagai risiko eksistensial, karena dapat memungkinkan komputer bertindak dengan cara yang tak terbayangkan oleh manusia.
Menurut Tn. Miles Brindage, dunia belum siap untuk momen kecerdasan umum buatan (AGI).
Kini, pria yang bertugas memastikan pengembang ChatGPT, OpenAI, siap untuk AGI, mengakui bahwa baik dunia maupun perusahaan itu sendiri belum "siap" untuk langkah selanjutnya. Miles Brundage adalah "penasihat senior OpenAI untuk kesiapan AGI," tetapi mengumumkan kepergiannya minggu ini seiring perusahaan membubarkan grup tersebut.
"Baik OpenAI maupun lab pionir lainnya belum siap [untuk AGI], begitu pula dunia. Untuk lebih jelasnya, saya rasa ini bukan pernyataan kontroversial di antara para pemimpin OpenAI, melainkan pertanyaan tentang apakah perusahaan dan dunia berada di jalur yang tepat untuk siap pada waktu yang tepat," ujar Brundage, yang telah menghabiskan enam tahun membantu membentuk inisiatif keamanan AI perusahaan.
Kepergian Brundage menandai kepergian terbaru dari serangkaian tokoh penting dari tim keamanan OpenAI. Jan Leike, seorang peneliti terkemuka, mengundurkan diri setelah mengatakan bahwa "budaya dan proses keselamatan telah dikesampingkan demi produk yang unggul." Salah satu pendiri, Ilya Sutskever, juga mengundurkan diri untuk meluncurkan startup AI miliknya sendiri yang berfokus pada pengembangan AGI yang aman.
Pembubaran grup "AGI Readiness" oleh Brundage terjadi hanya beberapa bulan setelah perusahaan tersebut membubarkan grup "Superalignment" yang didedikasikan untuk memitigasi risiko AI jangka panjang, yang mengungkap ketegangan antara misi awal OpenAI dan ambisi komersial perusahaan.
Tekanan keuntungan mendorong OpenAI menjauh dari keamanan
OpenAI dilaporkan menghadapi tekanan untuk beralih dari perusahaan nirlaba menjadi perusahaan profit dalam dua tahun — atau berisiko kehilangan pendanaan dari putaran investasi terbarunya senilai $6,6 miliar. Pergeseran ke arah komersialisasi ini telah lama menjadi kekhawatiran Brundage, yang telah menyatakan keraguannya sejak tahun 2019 ketika OpenAI pertama kali mendirikan divisi profitnya.
CEO OpenAI Sam Altman mengalami "sakit kepala" karena tekanan yang dihadapi perusahaan untuk mencari laba.
Dalam menjelaskan kepergiannya, Brundage menyebutkan semakin ketatnya pembatasan kebebasannya untuk meneliti dan mempublikasikan karya di perusahaan ikonik tersebut. Ia menekankan perlunya suara independen dalam diskusi kebijakan AI, bebas dari bias industri dan konflik kepentingan. Setelah memberikan nasihat kepada pimpinan OpenAI tentang persiapan internal, ia yakin kini dapat memberikan dampak yang lebih besar terhadap tata kelola AI global dari luar organisasi.
Kepergian para peneliti ini juga mencerminkan kesenjangan budaya yang semakin dalam di dalam OpenAI. Banyak peneliti bergabung untuk memajukan penelitian AI dan kini berada dalam lingkungan yang semakin berorientasi pada produk. Alokasi sumber daya internal telah menjadi titik kritis — laporan menunjukkan bahwa tim Leike tidak diberi daya komputasi untuk penelitian keselamatan sebelum akhirnya dibubarkan.
OpenAI telah menghadapi pertanyaan dalam beberapa bulan terakhir tentang rencananya untuk mengembangkan kecerdasan buatan dan seberapa serius mereka memperhatikan keamanan. Meskipun didirikan sebagai lembaga nirlaba yang didedikasikan untuk meneliti cara membangun kecerdasan buatan yang aman, kesuksesan ChatGPT telah mendatangkan investasi besar dan tekanan untuk menggunakan teknologi baru ini demi keuntungan.
[iklan_2]
Sumber: https://www.baogiaothong.vn/the-gioi-chua-san-sang-phat-trien-ai-thong-minh-nhu-bo-nao-con-nguoi-192241027005459507.htm
Komentar (0)