
Program kecerdasan buatan telah mencapai banyak kejayaan dalam beberapa tahun kebelakangan ini - Foto: REUTERS
Kita tidak dapat memerhatikan keseluruhan proses daripada data input hingga hasil output model bahasa besar (LLM).
Untuk memudahkan pemahaman, saintis telah menggunakan istilah umum seperti "penaakulan" untuk menggambarkan cara program ini berfungsi. Mereka juga mengatakan bahawa program tersebut boleh "berfikir," "menaakulan," dan "memahami" seperti manusia.
Membesar-besarkan keupayaan AI.
Sepanjang dua tahun yang lalu, ramai eksekutif AI telah menggunakan bahasa yang dibesar-besarkan untuk menggembar-gemburkan pencapaian teknikal yang mudah, menurut ZDNET pada 6 September.
Pada bulan September 2024, OpenAI mengumumkan bahawa model penaakulan o1 "menggunakan rantaian inferens ketika menyelesaikan masalah, serupa dengan cara manusia berfikir untuk jangka masa yang lama ketika berhadapan dengan soalan yang sukar."
Walau bagaimanapun, saintis AI tidak bersetuju. Mereka berhujah bahawa AI tidak mempunyai kecerdasan seperti manusia.
Satu kajian berdasarkan pangkalan data arXiv oleh sekumpulan penulis di Arizona State University (AS) telah menguji keupayaan penaakulan AI melalui eksperimen mudah.
Keputusan menunjukkan bahawa "inferens melalui rantaian pemikiran adalah ilusi yang rapuh", bukan mekanisme logik yang sebenar, tetapi hanyalah satu bentuk pemadanan corak yang canggih.
Istilah "rantai pemikiran" (CoT) membolehkan AI bukan sahaja menghasilkan jawapan muktamad tetapi juga membentangkan setiap langkah penaakulan logik, seperti dalam model GPT-o1 atau DeepSeek V1.

Ilustrasi model bahasa GPT-2 oleh OpenAI - Foto: ECHOCRAFTAI
Lihat apa yang sebenarnya dilakukan oleh AI.
Pasukan penyelidikan menyatakan bahawa analisis berskala besar menunjukkan bahawa LLM cenderung lebih bergantung pada semantik dan petunjuk permukaan daripada proses penaakulan logik.
"LLM membina rantaian logik dangkal berdasarkan persatuan input yang dipelajari, selalunya gagal dalam tugasan yang menyimpang daripada kaedah penaakulan konvensional atau corak yang biasa," jelas pasukan itu.
Untuk menguji hipotesis bahawa LLM hanya memadankan corak dan tidak benar-benar membuat inferens, pasukan tersebut melatih GPT-2, model sumber terbuka yang dikeluarkan oleh OpenAI pada tahun 2019.
Model ini pada mulanya dilatih tentang tugasan yang sangat mudah mengenai 26 huruf Inggeris, seperti membalikkan beberapa huruf, contohnya menukar "APPLE" kepada "EAPPL". Kemudian pasukan itu menukar tugasan tersebut dan meminta GPT-2 untuk mengendalikannya.
Keputusan menunjukkan bahawa untuk tugasan yang tidak termasuk dalam data latihan, GPT-2 tidak dapat menyelesaikannya dengan tepat menggunakan CoT.
Sebaliknya, model ini cuba mengaplikasikan tugasan yang dipelajari sedekat mungkin. Oleh itu, "penaakulannya" mungkin kedengaran logik, tetapi hasilnya sering salah.
Kumpulan itu menyimpulkan bahawa seseorang tidak seharusnya terlalu bergantung atau mempercayai jawapan LLM secara membuta tuli, kerana jawapan tersebut boleh menghasilkan "karut yang kedengaran sangat meyakinkan".
Mereka juga menekankan perlunya memahami sifat sebenar AI, mengelakkan gembar-gembur dan berhenti mempromosikan bahawa AI mempunyai keupayaan untuk berfikir seperti manusia.
Sumber: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






Komen (0)