Program kecerdasan buatan telah mencapai banyak keberhasilan dalam beberapa tahun terakhir - Foto: REUTERS
Kita tidak dapat mengamati keseluruhan proses dari data masukan hingga hasil keluaran model bahasa besar (LLM).
Agar lebih mudah dipahami, para ilmuwan menggunakan istilah umum seperti "penalaran" untuk menggambarkan cara kerja program-program ini. Mereka juga mengatakan bahwa program-program ini dapat "berpikir", "bernalar", dan "memahami" seperti manusia.
Melebih-lebihkan kemampuan AI
Selama dua tahun terakhir, banyak eksekutif AI menggunakan hiperbola untuk melebih-lebihkan pencapaian teknis yang sederhana, menurut ZDNET pada tanggal 6 September.
Pada bulan September 2024, OpenAI mengumumkan bahwa model penalaran o1 "menggunakan rantai inferensi saat memecahkan masalah, mirip dengan cara manusia berpikir dalam waktu lama ketika menghadapi pertanyaan sulit."
Namun, para ilmuwan AI keberatan. Mereka percaya bahwa AI tidak memiliki kecerdasan manusia.
Sebuah studi pada basis data arXiv oleh sekelompok penulis di Arizona State University (AS) telah memverifikasi kemampuan penalaran AI dengan eksperimen sederhana.
Hasilnya menunjukkan bahwa "inferensi melalui rantai pemikiran merupakan ilusi yang rapuh", bukan mekanisme logika yang nyata, tetapi hanya bentuk pencocokan pola yang canggih.
Istilah “rantai pemikiran” (CoT) memungkinkan AI tidak hanya menghasilkan jawaban akhir tetapi juga menyajikan setiap langkah penalaran logis, seperti pada model GPT-o1 atau DeepSeek V1.
Ilustrasi model bahasa GPT-2 OpenAI - Foto: ECHOCRAFTAI
Lihat apa yang sebenarnya dilakukan AI
Analisis skala besar menunjukkan bahwa LLM cenderung mengandalkan semantik dan petunjuk permukaan daripada proses penalaran logis, kata para peneliti.
"LLM membangun rantai logika yang dangkal berdasarkan asosiasi masukan yang dipelajari, dan sering kali gagal dalam tugas-tugas yang menyimpang dari metode penalaran konvensional atau pola-pola yang sudah dikenal," jelas tim tersebut.
Untuk menguji hipotesis bahwa LLM hanyalah pencocokan pola dan bukan benar-benar menyimpulkan, tim melatih GPT-2, model sumber terbuka yang dirilis oleh OpenAI pada tahun 2019.
Model ini awalnya dilatih dengan tugas-tugas yang sangat sederhana pada 26 huruf bahasa Inggris, seperti membalik beberapa huruf, misalnya mengubah "APPLE" menjadi "EAPPL". Kemudian tim mengubah tugas tersebut dan meminta GPT-2 untuk menanganinya.
Hasilnya menunjukkan bahwa untuk tugas yang tidak termasuk dalam data pelatihan, GPT-2 tidak dapat menyelesaikannya secara akurat menggunakan CoT.
Sebaliknya, model tersebut mencoba menerapkan tugas-tugas yang dipelajari yang paling mirip. Jadi, "inferensinya" terdengar masuk akal, tetapi hasilnya seringkali salah.
Kelompok tersebut menyimpulkan bahwa seseorang hendaknya tidak terlalu bergantung atau memercayai jawaban LLM secara membabi buta, karena jawaban tersebut dapat menghasilkan "omong kosong yang kedengarannya sangat meyakinkan".
Mereka juga menekankan perlunya memahami hakikat AI yang sebenarnya, menghindari sensasi yang berlebihan, dan berhenti mempromosikan bahwa AI memiliki kemampuan untuk berpikir seperti manusia.
Sumber: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm
Komentar (0)