
Program kecerdasan buatan telah mencapai banyak terobosan dalam beberapa tahun terakhir - Foto: REUTERS
Kita tidak dapat mengamati keseluruhan proses dari data masukan hingga hasil keluaran dari model bahasa besar (LLM).
Untuk mempermudah pemahaman, para ilmuwan telah menggunakan istilah umum seperti "penalaran" untuk menggambarkan cara kerja program-program ini. Mereka juga mengatakan bahwa program-program tersebut dapat "berpikir," "bernalar," dan "memahami" seperti halnya manusia.
Melebih-lebihkan kemampuan AI.
Menurut ZDNET pada tanggal 6 September, selama dua tahun terakhir, banyak eksekutif AI telah menggunakan bahasa yang berlebihan untuk membesar-besarkan pencapaian teknis sederhana.
Pada September 2024, OpenAI mengumumkan bahwa model penalaran o1 "menggunakan rangkaian inferensi saat memecahkan masalah, mirip dengan cara manusia berpikir lama ketika dihadapkan pada pertanyaan-pertanyaan sulit."
Namun, para ilmuwan AI tidak setuju. Mereka berpendapat bahwa AI tidak memiliki kecerdasan seperti manusia.
Sebuah studi di basis data arXiv oleh sekelompok penulis di Arizona State University (AS) telah memverifikasi kemampuan penalaran AI dengan sebuah eksperimen sederhana.
Hasil penelitian menunjukkan bahwa "inferensi melalui rangkaian pemikiran adalah ilusi yang rapuh", bukan mekanisme logis yang nyata, melainkan hanya bentuk pencocokan pola yang canggih.
Istilah “rantai pemikiran” (CoT) memungkinkan AI tidak hanya menghasilkan jawaban akhir tetapi juga menyajikan setiap langkah penalaran logis, seperti pada model GPT-o1 atau DeepSeek V1.

Ilustrasi model bahasa GPT-2 oleh OpenAI - Foto: ECHOCRAFTAI
Cari tahu apa yang sebenarnya dilakukan AI.
Tim peneliti menyatakan bahwa analisis skala besar menunjukkan bahwa LLM cenderung lebih mengandalkan semantik dan petunjuk permukaan daripada proses penalaran logis.
"LLM membangun rantai logika dangkal berdasarkan asosiasi masukan yang dipelajari, dan seringkali gagal pada tugas-tugas yang menyimpang dari metode penalaran konvensional atau pola yang sudah dikenal," jelas tim tersebut.
Untuk menguji hipotesis bahwa LLM hanya mencocokkan pola dan tidak benar-benar membuat kesimpulan, tim tersebut melatih GPT-2, sebuah model sumber terbuka yang dirilis oleh OpenAI pada tahun 2019.
Model ini awalnya dilatih pada tugas-tugas yang sangat sederhana pada 26 huruf bahasa Inggris, seperti membalik beberapa huruf, misalnya mengubah "APPLE" menjadi "EAPPL". Kemudian tim mengubah tugas tersebut dan meminta GPT-2 untuk menanganinya.
Hasil penelitian menunjukkan bahwa untuk tugas-tugas yang tidak termasuk dalam data pelatihan, GPT-2 tidak dapat menyelesaikannya secara akurat menggunakan CoT.
Sebaliknya, model tersebut berupaya menerapkan tugas-tugas yang telah dipelajari sedekat mungkin. Oleh karena itu, "penalaran" yang digunakannya mungkin terdengar logis, tetapi hasilnya seringkali salah.
Kelompok tersebut menyimpulkan bahwa seseorang tidak boleh terlalu bergantung atau mempercayai jawaban LLM secara memb盲盲, karena jawaban tersebut dapat menghasilkan "omong kosong yang terdengar sangat meyakinkan".
Mereka juga menekankan perlunya memahami sifat sejati AI, menghindari sensasi berlebihan, dan berhenti mempromosikan bahwa AI memiliki kemampuan untuk bernalar seperti manusia.
Sumber: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






Komentar (0)