Pasukan penyelidik kecerdasan buatan (AI) di Universiti Politeknik Valencia, Sepanyol, telah mendapati bahawa apabila model bahasa yang besar menjadi lebih besar dan lebih canggih, mereka cenderung untuk tidak mengakui kepada pengguna bahawa mereka tidak tahu jawapannya.
| Semakin pintar AI, semakin kecil kemungkinannya untuk mengakui kepada pengguna bahawa ia tidak tahu jawapannya. (ilustrasi AI) |
Dalam penyelidikan yang diterbitkan dalam jurnal Nature , pasukan itu menguji versi terkini tiga daripada chatbot AI paling popular mengenai responsif, ketepatan dan keupayaan pengguna untuk mengesan jawapan yang salah.
Untuk menguji ketepatan tiga LLM yang paling popular, BLOOM, LLaMA dan GPT, pasukan itu bertanya beribu-ribu soalan dan membandingkan respons yang diterima dengan versi sebelumnya bagi soalan yang sama. Mereka juga mempelbagaikan topik, termasuk matematik, sains , masalah perkataan dan geografi, serta keupayaan untuk menjana teks atau melakukan tindakan seperti menyusun senarai.
Kajian itu mendedahkan beberapa trend yang ketara. Ketepatan keseluruhan chatbots bertambah baik dengan setiap versi baharu, tetapi masih merosot apabila berhadapan dengan soalan yang lebih sukar. Yang menghairankan, apabila LLM menjadi lebih besar dan lebih canggih, mereka cenderung untuk menjadi kurang terbuka tentang keupayaan mereka untuk menjawab dengan betul.
Dalam versi terdahulu, kebanyakan LLM akan memberitahu pengguna secara terbuka apabila mereka tidak dapat mencari jawapan atau memerlukan maklumat lanjut. Sebaliknya, versi yang lebih baharu cenderung meneka lebih banyak, menghasilkan lebih banyak jawapan secara keseluruhan, betul dan salah. Lebih membimbangkan, kajian mendapati bahawa semua LLM masih kadangkala memberikan jawapan yang salah walaupun kepada soalan mudah, menunjukkan bahawa kebolehpercayaan mereka kekal sebagai isu yang memerlukan penambahbaikan.
Penemuan ini menyerlahkan paradoks dalam evolusi AI: sementara model menjadi lebih berkuasa, mereka juga mungkin menjadi kurang telus tentang batasannya.
Ini menimbulkan cabaran baharu dalam penggunaan dan kepercayaan sistem AI, yang memerlukan pengguna lebih berhati-hati dan pembangun menumpukan pada meningkatkan bukan sahaja ketepatan tetapi juga "kesedaran diri" model.
Sumber: https://baoquocte.vn/cang-thong-minh-tri-tue-nhan-tao-cang-co-xu-huong-giau-dot-287987.html






Komen (0)