(Dan Tri) - Jumlah data yang digunakan untuk melatih kecerdasan buatan hampir habis, memaksa penyelidik menggunakan AI untuk melatih satu sama lain. Ini boleh menjadi satu kejayaan untuk membantu AI mengatasi kecerdasan manusia.
Elon Musk mencadangkan cara baharu membangunkan AI boleh berbahaya
Jutawan teknologi Elon Musk, pengasas syarikat kecerdasan buatan xAI, baru sahaja mengeluarkan maklumat yang mengejutkan tentang proses latihan dan mendidik model kecerdasan buatan (AI).
"Kami kini telah kehabisan jumlah pengetahuan manusia dalam melatih dan mendidik AI. Ini pada asasnya telah berlaku sejak tahun lepas," kata Elon Musk dalam wawancara yang disiarkan secara langsung di rangkaian sosial X pada 9 Januari.
Model AI seperti GPT-4, Gemini, Grok atau Llama... dilatih berdasarkan sejumlah besar data yang dikumpul daripada Internet, daripada jurnal saintifik , penyelidikan yang diterbitkan, data pengguna pada rangkaian sosial...
Elon Musk mencadangkan menggunakan data AI untuk melatih AI, tetapi ini mempunyai banyak potensi risiko (Ilustrasi: Getty).
Walau bagaimanapun, kadar pembangunan model AI sangat pantas sehingga jumlah data yang tersedia tidak lagi mencukupi untuk melatih dan meningkatkan kecerdasan model AI ini.
Untuk mengatasi masalah ini, Elon Musk telah mencadangkan penyelesaian, iaitu beralih kepada menggunakan data yang dihasilkan oleh AI sendiri untuk melatih model AI. Dengan kata lain, AI boleh melatih dirinya sendiri dan melatih satu sama lain tanpa bergantung kepada data yang disediakan oleh manusia.
"Satu-satunya cara untuk menyelesaikan masalah ini ialah menambah data sintetik yang dihasilkan oleh model AI sendiri dan menggunakan data ini untuk melatih AI itu sendiri," kongsi Elon Musk.
Sistem AI yang melatih diri mereka sendiri berdasarkan data sintetik yang dihasilkan oleh AI sendiri akan membantu menjimatkan kos pembangunan dan mengurangkan pergantungan kepada data manusia. Ini membuatkan ramai orang bimbang bahawa AI boleh melatih dirinya untuk mengatasi kecerdasan manusia, di luar kawalan manusia.
Walau bagaimanapun, pakar kecerdasan buatan mengatakan bahawa menggunakan data sintetik yang dijana oleh AI sendiri untuk melatih model AI boleh menyebabkan model ini runtuh, apabila data yang dihasilkan kurang kreativiti, berat sebelah dan tidak dikemas kini dengan data terkini.
"Apabila anda menggunakan data sintetik untuk melatih model AI, prestasi mereka secara beransur-ansur merosot, dengan data output menjadi tidak bersemangat dan berat sebelah," kata Andrew Duncan, pengarah AI di Institut Alan Turing di UK.
Data berkualiti tinggi dianggap sebagai "lombong sumber" yang tidak ternilai yang dipertandingkan oleh syarikat pembangunan AI. Walau bagaimanapun, tidak semua saintis bersedia untuk menyediakan kerja penyelidikan mereka untuk melatih model AI.
Google telah dapat mencipta AI yang berfikir dan bertindak sama seperti manusia.
Bayangkan mempunyai cara untuk menentukan personaliti, sikap dan gaya seseorang dan kemudian buat replika AI orang itu.
Ini bukan fiksyen sains tetapi matlamat asas kajian terobosan oleh penyelidik di Universiti Stanford dan Google.
Dengan hanya 2 jam temu duga, Google boleh mencipta AI yang berfikir dan bertindak sama seperti anda (Foto: ZipRecruiter).
Penyelidik mencipta replika AI lebih daripada 1,000 peserta menggunakan maklumat daripada temu bual yang berlangsung hanya dua jam. AI ini boleh meniru tingkah laku manusia.
Aplikasi berpotensi ciptaan ini sangat besar. Pembuat dasar dan perniagaan boleh menggunakan simulasi AI ini untuk meramalkan reaksi orang ramai terhadap dasar atau produk baharu, dan bukannya bergantung semata-mata pada kumpulan fokus atau tinjauan berulang.
Penyelidik percaya teknologi itu boleh membantu meneroka struktur sosial, campur tangan perintis, dan membangunkan teori bernuansa tingkah laku manusia.
Walau bagaimanapun, ia juga mempunyai beberapa risiko, seperti kebimbangan etika tentang penyalahgunaan klon AI. Pelakon berniat jahat boleh mengeksploitasi AI ini untuk memanipulasi pendapat umum, menyamar sebagai individu atau mensimulasikan pilihan awam berdasarkan data sintetik palsu.
Kebimbangan ini juga berada di bawah kebimbangan lama bahawa percambahan model AI yang serupa boleh mempunyai implikasi negatif untuk masa depan manusia.
Sumber: https://dantri.com.vn/suc-manh-so/ai-sap-dat-duoc-buoc-dot-pha-moi-co-the-vuot-qua-tri-tue-con-nguoi-20250111132229246.htm
Komen (0)