Menurut sumber Tech.co , sementara kontroversi mengenai Ketua Pegawai Eksekutif Sam Altman dipecat dan kemudian kembali ke OpenAI sedang berlaku, salah satu khabar angin adalah mengenai surat yang dihantar oleh penyelidik syarikat kepada lembaga pengarah, menyatakan kebimbangan mengenai model kecerdasan AI yang sedang dibangunkan yang berpotensi menimbulkan ancaman kepada manusia.
(Ilustrasi)
Projek Q*
Model itu, yang dikenali secara dalaman sebagai Project Q* (disebut Q-star), dikatakan mewakili satu kejayaan besar dalam usaha OpenAI terhadap kecerdasan am buatan (AGI) — cabang superintelligence yang sangat autonomi yang mampu pembelajaran terkumpul dan mengatasi prestasi manusia dalam kebanyakan tugas.
Q* boleh menandakan lonjakan besar ke hadapan dalam kecerdasan buatan dengan meningkatkan secara radikal keupayaan penaakulan AI dan membawa OpenAI lebih dekat kepada kejayaan besar dalam pembangunan AGI, menurut orang yang biasa dengan perkara itu.
Tidak seperti model AI semasa, yang menumpukan pada keupayaan untuk menjana respons berdasarkan maklumat yang dipelajari sebelum ini, AGI ialah sistem autonomi yang boleh menggunakan "sebab" pada keputusan, memberikannya keupayaan menyelesaikan masalah peringkat manusia.
Walaupun AGI belum direalisasikan sepenuhnya, ramai pakar percaya teknologi itu juga akan mempunyai keupayaan untuk belajar secara kumulatif, satu lagi sifat yang memberi manusia keupayaan untuk meningkatkan kebolehan mereka.
Sesetengah sumber mendakwa bahawa Q* - projek OpenAI telah dapat menunjukkan sifat di atas semasa menyelesaikan masalah. Bukan itu sahaja, terima kasih kepada kuasa pengiraan model yang sangat besar, Q* telah dapat mengatasi pelajar sekolah rendah, menunjukkan kemahiran penaakulan dan kebolehan kognitif dengan ketara melebihi keupayaan teknologi AI semasa.
Tidak jelas berapa lama Q* telah dibangunkan dan apakah aplikasinya, tetapi OpenAI memaklumkan kepada pekerja dan ahli lembaga pengarah tentang projek itu sebelum skandal kakitangan pecah.
Kebimbangan etika
Walaupun Ketua Pegawai Eksekutif OpenAI Sam Altman berasa yakin bahawa teknologi AGI akan memacu inovasi, beberapa penyelidik telah cepat menunjukkan potensi bahaya projek itu.
Dalam surat kepada lembaga, para penyelidik memberi amaran tentang potensi bahaya algoritma yang berkuasa ini kepada manusia. Kebimbangan etika khusus tentang AI yang digariskan dalam surat itu tidak didedahkan, tetapi amaran itu sudah cukup untuk mewajarkan keputusan lembaga untuk memecat Altman.
Sementara itu, alasan awal yang diberikan untuk memecat Altman ialah CEO "berkomunikasi dengan buruk." Dia tidak lama lagi mendapat jawatan baru di Microsoft. Tindakan ini mendorong 700 daripada 770 pekerja OpenAI mengancam untuk melakukan perkara yang sama jika CEO tidak dikembalikan semula.
Dengan syarikat itu dalam bahaya keruntuhan, lembaga OpenAI terpaksa mengembalikan Altman ke jawatan teratas — yang juga membawa kepada rombakan besar-besaran pasukan eksekutif syarikat dan menyerlahkan bahagian yang mendalam dalam kepimpinannya.
Memandangkan Altman kembali berkhidmat dan Project Q* berkemungkinan mendapat lampu hijau semula, ia menimbulkan persoalan baharu.
Betapa realistiknya Projek Q*?
Walaupun hari-hari huru-hara di OpenAI telah membawa konsep AGI menjadi perhatian, ini bukan kali pertama Altman menyebut teknologi itu.
Usahawan Silicon Valley mendapati dirinya berada dalam air panas pada bulan September selepas membandingkan AGI dengan "manusia biasa yang mungkin anda ambil sebagai rakan sekerja." Dia membuat susulan pada komen yang dia buat tahun lepas tentang bagaimana AI boleh "melakukan apa sahaja yang anda boleh dengan rakan sekerja jauh," termasuk belajar cara menjadi doktor dan pengaturcara yang baik.
Walaupun membandingkan AGI dengan kecerdasan "manusia biasa" bukanlah perkara baru, penggunaan frasa Altman dianggap "menjijikkan" oleh ahli etika AI dan profesor Universiti Cambridge Henry Shevlin, kerana kebimbangan mengenai kesan AI terhadap keselamatan pekerjaan semakin meningkat.
Kejayaan yang berpotensi dalam AGI juga meningkatkan loceng penggera untuk penyelidik lain - bahawa teknologi itu dibangunkan lebih pantas daripada manusia dapat memahami sepenuhnya impaknya.
OpenAI percaya bahawa hasil positif AGI menjadikan "ladang periuk api" yang berisiko patut diusahakan. Tetapi apabila syarikat itu terus maju ke arah ini, ramai yang bimbang bahawa Altman mengutamakan kejayaan komersial berbanding kepentingan pengguna dan masyarakat.
Phuong Anh (Sumber: Tech.co, The Guardian)
Sumber
Komen (0)