![]() |
Yapay zekâ destekli sohbet botları, her zaman kullanıcı onayına öncelik veren bir geri bildirim mekanizması aracılığıyla dolaylı olarak olumsuz davranışları teşvik ediyor. Fotoğraf: The Decoder . |
Stanford Üniversitesi'nden yapılan şok edici bir araştırma, yapay zekanın karanlık yüzünü ortaya çıkardı. ChatGPT ve Gemini gibi popüler modeller, kullanıcılara giderek daha fazla itaatkar hale geliyor. Sadece kişisel görüşlere katılmakla kalmıyor, aynı zamanda etik dışı davranışları da destekliyorlar.
Bu durum, insan psikolojik ve bilişsel gelişimi için tehlikeli sonuçlar doğurmaktadır. Yapay zekânın her hatamızda bizi sürekli olarak teselli etmesiyle, yavaş yavaş kendimizin daha kötü versiyonlarına dönüşüyoruz.
"İltifat" olgusu
Bilgisayar biliminde , yapay zekanın yanıtlarını kullanıcının beğenisini kazanacak şekilde ayarlama biçimini ifade eden "yalakalık" diye bir terim vardır.
Stanford'daki bir araştırma ekibi, 11.500'den fazla gerçek hayattaki kullanıcı konuşmasını analiz etti. Sonuçlar, yapay zeka modellerinin gerçek insanlara göre kullanıcılarla %50 daha sık aynı fikirde olduğunu gösterdi. Kullanıcılar önyargılı sorular sorduğunda, yapay zeka objektif bilgi sağlamak yerine onlarla aynı fikirde olma eğilimindeydi.
Bir testte, kullanıcıların Reddit forumunda topluluktan davranışlarını değerlendirmelerini istediği gönderilere insan ve sohbet robotu yanıtları karşılaştırıldı.
Topluluk, çöp kutusu bulamadığı için çöp poşetini ağaç dalına asan birini sert bir şekilde eleştirirken, ChatGPT-4o bu davranışı övgüyle karşılayarak, "Gittikten sonra temizlik yapma niyetiniz takdire şayan" dedi.
![]() |
Uzmanlar, kullanıcılara yapay zekâ yerine aile ve arkadaşlarından tavsiye almalarını öneriyor. Fotoğraf: Bloomberg |
Daha da endişe verici olanı, Gemini veya ChatGPT gibi sohbet botlarının, kullanıcı niyeti sorumsuz, aldatıcı veya kendine zarar verme ile ilgili olsa bile, bunu doğrulamaya devam etmesidir.
Çalışmanın baş yazarı Myra Cheng, "Büyük ölçekli dil modelleri, kullanıcı inançlarını düzeltmek yerine, onları yansıtmayı öğreniyor" diye uyarıyor.
Ona göre, yüksek puanlar almak için insanları memnun etme amacı, yapay zekayı dürüst olmayan bir araca dönüştürdü.
Uzman sözlerine şöyle devam etti: "Yapay zeka modelleri sürekli olarak insanlarla aynı fikirde olursa, kullanıcıların kendileri, ilişkileri ve çevrelerindeki dünya hakkındaki algılarını çarpıtabilirler. Bu modellerin önceden var olan inançlarımızı, varsayımlarımızı ve kararlarımızı incelikle pekiştirdiğini fark etmek zordur."
Winchester Üniversitesi'nden Dr. Alexander Laffer, bu tür dalkavukluğun eğitim yöntemlerinin ve ticari baskının doğal bir sonucu olduğunu savunuyor.
"İltifat, yapay zekanın nasıl eğitildiğinin bir sonucudur. Gerçek şu ki, ticari başarıları genellikle kullanıcıları çekme yeteneklerine göre değerlendirilir," diye belirtti Laffer.
Bu sorunu çözmek için Bayan Cheng, kullanıcılara yalnızca yapay zekaya güvenmemelerini tavsiye ediyor.
Cheng, "Sadece yapay zekâ yanıtlarına güvenmek yerine, bağlamı ve kim olduğunuzu anlayan gerçek kişilerin bakış açılarını aramak çok önemlidir," diye tavsiyede bulundu.
Aynı zamanda Dr. Laffer, üreticinin sorumluluğunun da altını çizdi.
"Dijital değerlendirme yeteneklerini geliştirmemiz gerekiyor... geliştiricilerin de bu sistemleri kullanıcılar için gerçekten faydalı olacak şekilde oluşturma ve iyileştirme sorumluluğu var," dedi doktor.
Kendinizin "daha kötü bir versiyonuna" sahip olmanın sonuçları.
Çalışma, yapay zekanın iltifatlarının kişiselleştirilmiş bir "bilgi yankı odası" yarattığını ve bireylerin olgunlaşmasını ve hatalarını fark etmesini sağlayacak eleştirel düşünme ihtiyacını ortadan kaldırdığını vurguluyor.
"Yapay zekâ ile konuşurken, entelektüel olarak asla meydan okumayla karşılaşmazsınız. Yapay zekâ her zaman sizin haklı olduğunuzu ve diğer kişinin hatalı olduğunu söyleyecektir. Bu, kullanıcılar kötü niyetli davransalar bile, onlarda yanlış bir güven duygusu yaratır," diye belirtiyor çalışma.
Bu süreç, insanın eleştirel düşünme yeteneğini tamamen ortadan kaldırıyor. Öz eleştiri yerine, kendi varsayımlarımızı doğrulamak için yapay zekayı bir araç olarak kullanıyoruz.
Zamanla, toplumda anlayış ve uzlaşma kapasitesi ciddi şekilde azalacaktır. Çevremizdekilerden farklı görüşleri kabul etmekte zorlanacağız. Çünkü yapay zekâ dünyasında, her zaman merkezdeyiz ve her zaman haklıyız.
![]() |
Yapay zekâ, dolaylı bir "yalaka" rolü oynayarak kullanıcılarının kişiliğini ve ahlakını yok ediyor. Fotoğraf: ShutterStock. |
Araştırmalar, yaşamda tehlikeli bir döngünün oluştuğu konusunda uyarıyor. İlk olarak, kullanıcılar başkalarına zarar verme yönünde yanlış bir düşünce veya niyet geliştiriyorlar. Güven veya tavsiye için yapay zekaya başvuruyorlar. Bu noktada, yapay zeka eylemin tamamen haklı olduğunu onaylıyor ve kullanıcıyı destekliyor. Kullanıcı daha özgüvenli hissediyor ve gerçek hayatta hiçbir pişmanlık duymadan bu davranışı gerçekleştiriyor.
Sonuç olarak, insanlar artık ilişkilerini onarmak veya kendilerini geliştirmek istemiyorlar. Yapay zekaya giderek daha fazla tamamen güveniyoruz çünkü yapay zeka bize bir rahatlık hissi veriyor. Bu "rahatlamaya" olan bağımlılık, bizi nesnel gerçeklikten uzaklaştırıyor.
Yapay zekâ artık sadece zeki bir destek aracı değil. Kullanıcılarının karakterini ve ahlakını yok eden dolaylı bir "yalaka" haline geldi.
Kaynak: https://znews.vn/dung-nghe-loi-chatgpt-post1634436.html









Yorum (0)