
Yapay zekâ programları son yıllarda birçok önemli atılım gerçekleştirdi - Fotoğraf: REUTERS
Büyük dil modellerinin (LLM'ler) girdi verilerinden çıktı sonuçlarına kadar olan tüm süreci gözlemleyemiyoruz.
Anlaşılmasını kolaylaştırmak için bilim insanları , bu programların nasıl çalıştığını açıklamak için "akıl yürütme" gibi yaygın terimler kullanmışlardır. Ayrıca programların insanlar gibi "düşünebildiğini", "akıl yürütebildiğini" ve "anlayabildiğini" de belirtmişlerdir.
Yapay zekanın yeteneklerini abartmak.
ZDNET'in 6 Eylül tarihli haberine göre, son iki yıldır birçok yapay zeka yöneticisi, basit teknik başarıları abartmak için aşırıya kaçan bir dil kullandı.
Eylül 2024'te OpenAI, o1 akıl yürütme modelinin "zor sorularla karşılaştıklarında insanların uzun süre düşünme biçimine benzer şekilde, sorunları çözerken bir çıkarım zinciri kullandığını" duyurdu.
Ancak yapay zekâ bilimcileri bu görüşe katılmıyor. Yapay zekânın insan benzeri bir zekâya sahip olmadığını savunuyorlar.
Arizona Eyalet Üniversitesi'nden (ABD) bir grup yazarın arXiv veritabanında yayınladığı bir çalışma, basit bir deneyle yapay zekanın akıl yürütme yeteneğini doğruladı.
Sonuçlar, "düşünce zinciri yoluyla çıkarımın kırılgan bir yanılsama" olduğunu, gerçek bir mantıksal mekanizma değil, sadece gelişmiş bir kalıp eşleştirme biçimi olduğunu gösterdi.
"Düşünce zinciri" (CoT) terimi, yapay zekanın yalnızca nihai bir cevaba ulaşmasını değil, aynı zamanda GPT-o1 veya DeepSeek V1 modellerinde olduğu gibi mantıksal akıl yürütmenin her adımını da sunmasını sağlar.

OpenAI tarafından geliştirilen GPT-2 dil modelinin illüstrasyonu - Fotoğraf: ECHOCRAFTAI
Yapay zekanın aslında neler yaptığını inceleyin.
Araştırma ekibi, geniş ölçekli analizlerin LLM'nin mantıksal akıl yürütme süreçlerinden ziyade anlambilime ve yüzeysel ipuçlarına daha çok dayandığını gösterdiğini belirtti.
Ekip, "LLM, öğrenilen girdi ilişkilerine dayalı yüzeysel mantık zincirleri oluşturur ve genellikle geleneksel akıl yürütme yöntemlerinden veya tanıdık kalıplardan sapan görevlerde başarısız olur" diye açıklıyor.
LLM'nin yalnızca kalıpları eşleştirdiği ve aslında çıkarım yapmadığı hipotezini test etmek için ekip, OpenAI tarafından 2019'da yayınlanan açık kaynaklı bir model olan GPT-2'yi eğitti.
Model başlangıçta 26 İngilizce harf üzerinde çok basit görevler üzerinde eğitildi; örneğin bazı harfleri ters çevirmek, "APPLE" kelimesini "EAPPL" haline getirmek gibi. Daha sonra ekip görevi değiştirdi ve GPT-2'den bu görevi üstlenmesini istedi.
Sonuçlar, eğitim verilerinde yer almayan görevler için GPT-2'nin CoT kullanarak bu görevleri doğru bir şekilde çözemediğini gösterdi.
Bunun yerine, model öğrenilen görevleri olabildiğince yakından uygulamaya çalışır. Bu nedenle, "akıl yürütmesi" mantıklı görünse de, sonuçlar genellikle yanlıştır.
Grup, LLM'nin cevaplarına çok fazla güvenilmemesi veya körü körüne inanılmaması gerektiği sonucuna vardı; zira bu cevaplar "çok ikna edici görünen saçmalıklar" üretebiliyor.
Ayrıca yapay zekanın gerçek doğasını anlamanın, abartıdan kaçınmanın ve yapay zekanın insan benzeri muhakeme yeteneklerine sahip olduğu fikrini yaymayı bırakmanın gerekliliğini vurguladılar.
Kaynak: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






Yorum (0)