Program kecerdasan buatan telah mencapai banyak kejayaan dalam beberapa tahun kebelakangan ini - Foto: REUTERS
Kami tidak dapat melihat keseluruhan proses daripada data input kepada hasil output model bahasa besar (LLM).
Untuk memudahkan pemahaman, saintis telah menggunakan istilah biasa seperti "penaakulan" untuk menerangkan cara program ini berfungsi. Mereka juga mengatakan bahawa program boleh "berfikir," "menaakul," dan "memahami" cara manusia lakukan.
Melebihkan keupayaan AI
Sepanjang dua tahun yang lalu, ramai eksekutif AI telah menggunakan hiperbola untuk membesar-besarkan pencapaian teknikal yang mudah, menurut ZDNET pada 6 September.
Pada September 2024, OpenAI mengumumkan bahawa model penaakulan o1 "menggunakan rantaian inferens semasa menyelesaikan masalah, sama seperti cara manusia berfikir untuk masa yang lama apabila berhadapan dengan soalan yang sukar."
Walau bagaimanapun, saintis AI membantah. Mereka percaya bahawa AI tidak mempunyai kecerdasan manusia.
Satu kajian mengenai pangkalan data arXiv oleh sekumpulan pengarang di Arizona State University (AS) telah mengesahkan keupayaan penaakulan AI dengan eksperimen mudah.
Hasilnya menunjukkan bahawa "inferens melalui rantaian pemikiran adalah ilusi yang rapuh", bukan mekanisme logik sebenar, tetapi hanya bentuk pemadanan corak yang canggih.
Istilah "rantaian pemikiran" (CoT) membolehkan AI bukan sahaja menghasilkan jawapan akhir tetapi juga membentangkan setiap langkah penaakulan logik, seperti dalam model GPT-o1 atau DeepSeek V1.
Ilustrasi model bahasa GPT-2 OpenAI - Foto: ECHOCRAFTAI
Semak apa sebenarnya yang dilakukan oleh AI
Analisis berskala besar menunjukkan bahawa LLM cenderung bergantung pada semantik dan petunjuk permukaan daripada proses penaakulan logik, kata para penyelidik.
"LLM membina rantaian logik cetek berdasarkan persatuan input yang dipelajari, sering gagal dalam tugas yang menyimpang daripada kaedah penaakulan konvensional atau corak biasa," jelas pasukan itu.
Untuk menguji hipotesis bahawa LLM hanya memadankan corak dan tidak benar-benar membuat inferens, pasukan itu melatih GPT-2, model sumber terbuka yang dikeluarkan oleh OpenAI pada 2019.
Model ini pada mulanya dilatih mengenai tugas yang sangat mudah pada 26 huruf Inggeris, seperti membalikkan beberapa huruf, contohnya menukar "APPLE" kepada "EAPPL". Kemudian pasukan itu menukar tugas dan meminta GPT-2 untuk mengendalikannya.
Keputusan menunjukkan bahawa untuk tugasan yang tidak termasuk dalam data latihan, GPT-2 tidak dapat menyelesaikannya dengan tepat menggunakan CoT.
Sebaliknya, model cuba menggunakan tugasan yang dipelajari yang paling serupa. Jadi "inferens"nya mungkin terdengar munasabah, tetapi hasilnya sering salah.
Kumpulan itu membuat kesimpulan bahawa seseorang tidak seharusnya terlalu bergantung atau mempercayai secara membuta tuli jawapan LLM, kerana mereka boleh menghasilkan "karut yang terdengar sangat meyakinkan".
Mereka juga menekankan keperluan untuk memahami sifat sebenar AI, mengelakkan gembar-gembur, dan berhenti mempromosikan bahawa AI mempunyai keupayaan untuk menaakul seperti manusia.
Sumber: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm
Komen (0)