Vietnam.vn - Nền tảng quảng bá Việt Nam

Model 'superintelligence' di sebalik skandal OpenAI

VTC NewsVTC News01/12/2023


Menurut sumber Tech.co , sementara kontroversi mengenai Ketua Pegawai Eksekutif Sam Altman dipecat dan kemudian kembali ke OpenAI sedang berlaku, salah satu khabar angin timbul mengenai surat yang dihantar oleh penyelidik syarikat kepada lembaga pengarah, menyatakan kebimbangan mengenai model pengawasan kecerdasan AI yang sedang dibangunkan yang berpotensi menimbulkan ancaman kepada manusia.

(Ilustrasi)

(Ilustrasi)

Projek Q*

Model itu, yang dikenali secara dalaman sebagai Project Q* (disebut Q-star), dikatakan mewakili satu kejayaan besar dalam usaha OpenAI untuk mendapatkan kecerdasan am buatan (AGI) – cabang superintelligence yang sangat autonomi yang mampu pembelajaran kumulatif dan mengatasi prestasi manusia dalam kebanyakan tugas.

Q* boleh menandakan lonjakan besar ke hadapan dalam kecerdasan buatan dengan meningkatkan secara radikal keupayaan penaakulan AI dan membawa OpenAI lebih dekat kepada kejayaan besar dalam pembangunan AGI, menurut orang yang biasa dengan perkara itu.

Tidak seperti model AI semasa, yang menumpukan pada keupayaan untuk menjana respons berdasarkan maklumat yang dipelajari sebelum ini, AGI ialah sistem autonomi yang boleh menggunakan "sebab" pada keputusan, memberikannya keupayaan menyelesaikan masalah peringkat manusia.

Walaupun AGI belum direalisasikan sepenuhnya, ramai pakar percaya teknologi itu juga akan mempunyai keupayaan untuk belajar secara kumulatif, satu lagi sifat yang memberi manusia keupayaan untuk meningkatkan kebolehan mereka.

Sesetengah sumber mendakwa bahawa Q* - projek OpenAI telah dapat menunjukkan sifat di atas semasa menyelesaikan masalah. Bukan itu sahaja, terima kasih kepada kuasa pengiraan model yang sangat besar, Q* telah dapat mengatasi pelajar sekolah rendah, menunjukkan kemahiran penaakulan yang ketara dan kebolehan kognitif berbanding dengan fungsi teknologi AI semasa.

Tidak jelas berapa lama Q* telah dibangunkan dan apakah aplikasinya, tetapi OpenAI memaklumkan kepada pekerja dan ahli lembaga pengarah tentang projek itu sebelum skandal kakitangan pecah.

Kebimbangan etika

Walaupun Ketua Pegawai Eksekutif OpenAI Sam Altman berasa yakin bahawa teknologi AGI akan memacu inovasi, beberapa penyelidik telah cepat menunjukkan potensi bahaya projek itu.

Dalam surat kepada lembaga, para penyelidik memberi amaran tentang potensi bahaya algoritma yang berkuasa ini kepada manusia. Kebimbangan etika khusus tentang AI yang digariskan dalam surat itu tidak didedahkan, tetapi amaran itu sudah cukup untuk mewajarkan keputusan lembaga untuk memecat Altman.

Sementara itu, alasan awal yang diberikan untuk memecat Altman ialah CEO "berkomunikasi dengan buruk." Dia tidak lama lagi mendapat jawatan baru di Microsoft. Tindakan ini mendorong 700 daripada 770 pekerja OpenAI mengancam untuk melakukan perkara yang sama jika CEO tidak dikembalikan semula.

Dengan syarikat itu dalam bahaya keruntuhan, lembaga OpenAI terpaksa mengembalikan Altman ke jawatan teratas – yang juga membawa kepada rombakan besar-besaran pasukan eksekutif syarikat dan menyerlahkan bahagian yang mendalam dalam kepimpinannya.

Kini, dengan Altman kembali berkhidmat dan Project Q* berpotensi mendapat lampu hijau semula, ini menimbulkan persoalan baharu.

Betapa realistiknya Projek Q*?

Walaupun hari-hari huru-hara di OpenAI membawa konsep AGI menjadi perhatian, ini bukan kali pertama Altman menyebut teknologi itu.

Usahawan Silicon Valley mendapati dirinya berada dalam air panas pada bulan September selepas membandingkan AGI dengan "manusia biasa yang mungkin anda ambil sebagai rakan sekerja." Dia membuat susulan pada komen yang dia buat tahun lepas tentang bagaimana AI boleh "melakukan apa sahaja yang anda boleh dengan rakan sekerja jauh," termasuk belajar menjadi doktor dan pengaturcara yang baik.

Walaupun membandingkan AGI dengan kecerdasan "manusia biasa" bukanlah sesuatu yang baru, penggunaan frasa tersebut oleh Altman dianggap "menjijikkan" oleh ahli etika AI dan profesor Universiti Cambridge Henry Shevlin, kerana kebimbangan mengenai kesan AI terhadap keselamatan pekerjaan semakin meningkat.

Kejayaan yang berpotensi dalam AGI juga meningkatkan loceng penggera untuk penyelidik lain - bahawa teknologi itu dibangunkan lebih pantas daripada manusia dapat memahami sepenuhnya impaknya.

OpenAI percaya keputusan positif AGI menjadikan "medan periuk api" yang berisiko patut diteruskan. Tetapi apabila syarikat itu terus maju ke arah ini, ramai yang bimbang bahawa Altman mengutamakan kejayaan komersial berbanding kepentingan pengguna dan masyarakat.

Phuong Anh (Sumber: Tech.co, The Guardian)



Sumber

Komen (0)

No data
No data

Dalam topik yang sama

Dalam kategori yang sama

Bandar Raya Ho Chi Minh menarik pelaburan daripada perusahaan FDI dalam peluang baharu
Banjir bersejarah di Hoi An, dilihat dari pesawat tentera Kementerian Pertahanan Negara
'Banjir besar' di Sungai Thu Bon melebihi banjir bersejarah pada tahun 1964 sebanyak 0.14 m.
Dong Van Stone Plateau - 'muzium geologi hidup' yang jarang ditemui di dunia

Daripada pengarang yang sama

Warisan

Rajah

Perniagaan

Kagumi 'Ha Long Bay on land' baru sahaja memasuki destinasi kegemaran teratas di dunia

Peristiwa semasa

Sistem Politik

Tempatan

produk