Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Model 'superintelijen' di balik skandal OpenAI

VTC NewsVTC News01/12/2023

[iklan_1]

Menurut sumber Tech.co , sementara kontroversi mengenai pemecatan CEO Sam Altman dan kemudian kembali ke OpenAI sedang berlangsung, salah satu rumor yang beredar adalah tentang surat yang dikirim oleh para peneliti perusahaan kepada dewan direksi, yang menyatakan kekhawatiran tentang model superintelijen AI yang sedang dikembangkan yang berpotensi menimbulkan ancaman bagi umat manusia.

(Ilustrasi)

(Ilustrasi)

Proyek Q*

Model tersebut, yang secara internal dikenal sebagai Proyek Q* (diucapkan Q-star), dikatakan mewakili terobosan besar dalam upaya OpenAI untuk mencapai kecerdasan umum buatan (AGI) — cabang kecerdasan super yang sangat otonom yang mampu melakukan pembelajaran kumulatif dan mengungguli manusia dalam sebagian besar tugas.

Q* dapat menandai lompatan maju yang besar dalam kecerdasan buatan dengan secara radikal meningkatkan kemampuan penalaran AI dan membawa OpenAI lebih dekat ke terobosan besar dalam pengembangan AGI, menurut orang-orang yang mengetahui masalah tersebut.

Berbeda dengan model AI saat ini yang berfokus pada kemampuan menghasilkan respons berdasarkan informasi yang telah dipelajari sebelumnya, AGI merupakan sistem otonom yang mampu menerapkan “akal” pada keputusan, sehingga memberikannya kemampuan pemecahan masalah setara manusia.

Meskipun AGI belum sepenuhnya terwujud, banyak ahli meyakini teknologi ini juga akan memiliki kemampuan untuk belajar secara kumulatif, sifat lain yang memberi manusia kemampuan untuk meningkatkan kemampuan mereka.

Beberapa sumber mengklaim bahwa proyek Q* - OpenAI telah mampu menunjukkan sifat-sifat di atas saat memecahkan masalah. Tak hanya itu, berkat daya komputasi model yang luar biasa, Q* mampu mengungguli siswa sekolah dasar, menunjukkan kemampuan penalaran dan kognitif yang jauh melampaui kemampuan teknologi AI saat ini.

Tidak jelas berapa lama Q* telah dikembangkan dan apa saja kemungkinan penerapannya, tetapi OpenAI memberi tahu karyawan dan anggota dewan tentang proyek tersebut sebelum skandal personalia terbongkar.

Kekhawatiran etika

Sementara CEO OpenAI Sam Altman merasa yakin bahwa teknologi AGI akan mendorong inovasi, beberapa peneliti dengan cepat menunjukkan potensi bahaya proyek tersebut.

Dalam surat kepada dewan, para peneliti memperingatkan potensi bahaya algoritma canggih ini bagi umat manusia. Kekhawatiran etis spesifik tentang AI yang diuraikan dalam surat tersebut tidak diungkapkan, tetapi peringatan tersebut cukup untuk membenarkan keputusan dewan untuk memecat Altman.

Sementara itu, alasan awal pemecatan Altman adalah karena sang CEO "berkomunikasi dengan buruk". Ia segera mendapatkan posisi baru di Microsoft. Tindakan ini mendorong 700 dari 770 karyawan OpenAI untuk mengancam akan melakukan hal yang sama jika sang CEO tidak dipekerjakan kembali.

Karena perusahaan berada dalam bahaya kebangkrutan, dewan direksi OpenAI terpaksa mengembalikan Altman ke jabatan teratas — yang juga menyebabkan perombakan besar-besaran pada tim eksekutif perusahaan dan menyoroti perpecahan yang mendalam dalam kepemimpinannya.

Sekarang Altman kembali menjabat dan Proyek Q* kemungkinan mendapat lampu hijau lagi, hal itu menimbulkan pertanyaan baru.

Seberapa realistiskah Proyek Q*?

Meskipun hari-hari penuh gejolak di OpenAI telah membawa konsep AGI menjadi sorotan, ini bukan pertama kalinya Altman menyebutkan teknologi tersebut.

Pengusaha Silicon Valley ini terjerat masalah pada bulan September setelah membandingkan AGI dengan "manusia biasa yang mungkin Anda pekerjakan sebagai rekan kerja." Ia menindaklanjuti komentarnya tahun lalu tentang bagaimana AI dapat "melakukan apa pun yang Anda bisa dengan rekan kerja jarak jauh," termasuk belajar menjadi dokter dan programmer yang baik.

Meskipun membandingkan AGI dengan kecerdasan "manusia rata-rata" bukanlah hal baru, penggunaan frasa tersebut oleh Altman dianggap "menjijikkan" oleh ahli etika AI dan profesor Universitas Cambridge, Henry Shevlin, karena kekhawatiran seputar dampak AI terhadap keamanan kerja meningkat.

Terobosan potensial dalam AGI juga membunyikan alarm bagi peneliti lain — bahwa teknologi ini dikembangkan lebih cepat daripada kemampuan manusia untuk sepenuhnya memahami dampaknya.

OpenAI yakin bahwa hasil positif AGI menjadikan "ladang ranjau" yang berisiko ini layak untuk dikejar. Namun, seiring perusahaan terus bergerak maju ke arah ini, banyak yang khawatir Altman memprioritaskan kesuksesan komersial daripada kepentingan pengguna dan masyarakat.

Phuong Anh (Sumber: Tech.co, The Guardian)


[iklan_2]
Sumber

Komentar (0)

No data
No data

Dalam topik yang sama

Dalam kategori yang sama

Close-up 'monster baja' yang memamerkan kekuatan mereka di A80
Ringkasan latihan A80: Kekuatan Vietnam bersinar di bawah malam ibu kota berusia seribu tahun
Kekacauan lalu lintas di Hanoi setelah hujan lebat, pengemudi meninggalkan mobil di jalan yang banjir
Momen-momen mengesankan dari formasi penerbangan yang bertugas di Upacara Agung A80

Dari penulis yang sama

Warisan

Angka

Bisnis

No videos available

Berita

Sistem Politik

Lokal

Produk