Menurut sumber Tech.co , sementara kontroversi seputar pemecatan Ketua Pegawai Eksekutif Sam Altman dan kepulangannya ke OpenAI sedang berlaku, salah satu khabar angin yang beredar berkaitan dengan surat yang dihantar oleh penyelidik syarikat itu kepada lembaga pengarah, yang menyatakan kebimbangan mengenai model kecerdasan buatan (AI) yang sedang membangun yang berpotensi menimbulkan ancaman kepada manusia.
(Imej ilustrasi)
Projek Q*
Model ini, yang dikenali secara dalaman sebagai Project Q* (disebut Q-star), disebut-sebut berpotensi mewakili satu kejayaan besar dalam usaha OpenAI untuk mencapai kecerdasan buatan umum (AGI) – cabang superintelligence yang sangat autonomi yang mampu melakukan pembelajaran kumulatif dan mengatasi manusia dalam kebanyakan tugas.
Menurut sumber yang rapat dengan perkara itu, Q* boleh menandakan satu lonjakan besar dalam bidang kecerdasan buatan dengan meningkatkan keupayaan penaakulan AI secara radikal dan membawa OpenAI lebih dekat kepada satu kejayaan besar dalam pembangunan AGI.
Tidak seperti model AI semasa, yang menumpukan pada penjanaan respons berdasarkan maklumat pra-pembelajaran, AGI ialah sistem autonomi yang boleh menggunakan "alasan" untuk membuat keputusan, memberikannya keupayaan untuk menyelesaikan masalah pada peringkat manusia.
Walaupun AGI belum direalisasikan sepenuhnya, ramai pakar percaya bahawa teknologi ini juga akan mempunyai potensi untuk pembelajaran kumulatif, satu lagi ciri yang membolehkan manusia meningkatkan kebolehan mereka.
Sesetengah sumber mencadangkan bahawa Q* – satu projek OpenAI – telah dapat menunjukkan sifat-sifat yang dinyatakan di atas semasa menyelesaikan masalah. Tambahan pula, hasil daripada kuasa pengkomputeran model yang sangat besar, Q* telah dapat mengatasi pelajar sekolah rendah, mempamerkan kemahiran penaakulan dan kebolehan kognitif yang jauh lebih unggul daripada teknologi AI semasa.
Tidak jelas berapa lama Q* telah dibangunkan dan apakah potensi aplikasinya, tetapi OpenAI telah memaklumkan pekerja dan ahli lembaga pengarah tentang projek tersebut sebelum kontroversi kakitangan berlaku.
Kebimbangan etika
Walaupun Ketua Pegawai Eksekutif OpenAI, Sam Altman yakin bahawa teknologi AGI akan memacu inovasi, sesetengah penyelidik telah cepat menunjukkan potensi bahaya projek itu.
Dalam sepucuk surat kepada lembaga pengarah, para penyelidik memberi amaran tentang potensi bahaya yang ditimbulkan oleh algoritma berkuasa ini kepada manusia. Kebimbangan etika khusus mengenai AI yang digariskan dalam surat itu tidak didedahkan, tetapi amaran tersebut mencukupi untuk mewajarkan keputusan lembaga untuk memecat Altman.
Sementara itu, sebab awal yang diberikan untuk pemecatan Altman adalah kerana CEO tersebut mempunyai "kemahiran komunikasi yang lemah." Tidak lama kemudian, beliau mendapat jawatan baharu di Microsoft. Tindakan ini menyebabkan 700 daripada 770 pekerja OpenAI mengugut untuk melakukan perkara yang sama jika CEO tersebut tidak dikembalikan ke jawatannya.
Dengan syarikat itu di ambang kejatuhan, lembaga pengarah OpenAI terpaksa melantik semula Altman ke jawatan tertinggi – yang turut membawa kepada rombakan besar-besaran pasukan eksekutif syarikat dan menonjolkan perpecahan yang mendalam dalam kepimpinannya.
Kini Altman kembali memegang peranan tersebut dan Projek Q* kemungkinan besar akan diberi lampu hijau sekali lagi, ini menimbulkan persoalan baharu.
Sejauh manakah realistiknya Projek Q*?
Walaupun zaman pergolakan di OpenAI telah membawa konsep AGI menjadi tumpuan, ini bukan kali pertama Altman menyebut tentang teknologi tersebut.
Pada bulan September lalu, usahawan Silicon Valley itu mendapati dirinya dalam masalah selepas membandingkan AGI dengan “manusia biasa yang boleh anda upah sebagai rakan sekerja.” Beliau kemudiannya mengulangi komen yang dibuatnya tahun lalu tentang bagaimana AI ini boleh “melakukan apa sahaja yang anda boleh dengan rakan sekerja jarak jauh,” termasuk belajar menjadi seorang doktor dan pengaturcara yang baik.
Walaupun membandingkan AGI dengan kecerdasan "manusia biasa" bukanlah sesuatu yang baharu, penggunaan frasa itu oleh Altman dianggap "menjijikkan" oleh ahli etika AI dan profesor Universiti Cambridge Henry Shevlin, ketika kebimbangan mengenai impak AI terhadap keselamatan pekerjaan semakin meningkat.
Penemuan berpotensi dalam AGI juga membunyikan penggera untuk penyelidik lain - bahawa teknologi itu berkembang lebih cepat daripada yang dapat difahami sepenuhnya oleh orang ramai.
OpenAI percaya bahawa keputusan positif AGI menjadikan "ladang ranjau" yang berisiko ini berbaloi untuk dicuba. Walau bagaimanapun, ketika syarikat terus berusaha ke arah ini, ramai yang bimbang bahawa Altman mengutamakan kejayaan komersial berbanding manfaat pengguna dan masyarakat.
Phuong Anh (Sumber: Tech.co, The Guardian)
[iklan_2]
Sumber






Komen (0)