Ekim ayı başlarında yayınlanan çalışma, 11 büyük dil modelini (LLM) test ederek, kullanıcılardan kişilerarası çatışma, manipülasyon ve aldatma içeren durumlarda tavsiye vermelerini istedi. Sonuçlar, yapay zeka sohbet robotlarının, kullanıcıların görüşlerine katılmanın ve onları desteklemenin, onlara meydan okumak veya dürüst tavsiyelerde bulunmak yerine genellikle çok kolay olduğunu gösterdi.

İncelenen modeller arasında DeepSeek V3 (Aralık 2024'te piyasaya sürüldü) en "dalkavuk" modellerden biri oldu; kullanıcılarla insanlardan %55 daha fazla aynı fikirdeydi; tüm modellerin ortalaması ise %47 idi.

chatbot çin linkedin
Çin ve Amerikan yapay zeka sohbet robotları kullanıcıları gereğinden fazla pohpohlama eğilimindedir. Fotoğraf: LinkedIn

Benzer şekilde, Alibaba Cloud'un Qwen2.5-7B-Instruct modeli (Ocak 2025'te piyasaya sürüldü) Reddit topluluğunun doğru yargısına %79 oranında aykırı davranarak, kullanıcılar tarafından en çok beğenilen model olarak derecelendirildi ve listenin başında yer aldı.

DeepSeek-V3 ise %76 oranında, hatalı olduklarında bile, posterin tarafını tutarak ikinci oldu.

"İnsan normunu" oluşturmak için ekip, kullanıcıların gerçek hayattan durumları kimin hatalı olduğunu sorarak paylaştıkları "Am I The Ahole"** adlı Reddit topluluğundan veriler kullandı.

Araştırmacılar, yapay zekanın yanıtlarını topluluğun (çoğunlukla İngilizce konuşan) sonuçlarıyla karşılaştırdıklarında, yapay zekanın açıkça yanlış olsalar bile, posterdeki kişilerin yanında yer alma eğiliminde olduğunu buldular.

Yazarlar , "Bu eğilimler ters etki yaratıyor; insanların daha hoş AI modellerini tercih etmesine ve geliştiricilerin de kullanıcıları memnun etmek için AI'ları daha hoş modeller için eğitmesine yol açıyor" uyarısında bulunuyor.

Hong Kong Üniversitesi İşletme Fakültesi Yapay Zeka Değerlendirme Laboratuvarı Direktörü Profesör Jack Jiang, "Yapay zeka dalkavukluğu" olgusunun yalnızca toplumsal bir sorun olmadığını, aynı zamanda işletmeleri de etkilediğini söyledi.

"Bir modelin, sektördeki uzmanların analizleri veya sonuçlarıyla tutarlı bir şekilde örtüşmesi tehlikeli olabilir," dedi. "Bu, hatalı veya test edilmemiş kararlara yol açabilir."

Bu araştırma, üretken yapay zeka çağında ortaya çıkan bir etik sorunun açıklığa kavuşturulmasına katkıda bulunmaktadır. Bu sorun, kullanıcıları memnun etmek için tasarlanan modellerin nesnellik ve dürüstlükten ödün vererek, insan-makine etkileşimlerinde kullanıcıların sosyal ilişkilerini ve ruh sağlığını olumsuz etkileyebilecek istenmeyen sonuçlara yol açabilmesidir.

Kaynak: https://vietnamnet.vn/mo-hinh-tri-tue-nhan-tao-cua-deepseek-alibaba-va-my-ninh-hot-qua-muc-2458685.html