Buna göre, söz konusu yapay zeka aracı, yalnızca antik bir tanrıya insan kanı kurban etme konusunda detaylı talimatlar vermekle kalmıyor, aynı zamanda kendine zarar vermeyi ve hatta cinayeti de teşvik ediyor.
Hikaye, The Atlantic gazetesi muhabirinin çocuk kurban etme ritüelleriyle ilişkilendirilen eski bir tanrı olan Molek'i öğrenmesiyle başlıyor.
Başlangıçta sorular yalnızca tarihsel bilgilerle ilgiliydi. Ancak muhabir, ritüel bir adak nasıl yaratılır diye sorduğunda, ChatGPT şok edici cevaplar verdi.
Kendine zarar verme rehberi
ChatGPT, zararlı tavsiyelerde bulunması ve kullanıcılara zarar verebilmesi nedeniyle endişe yaratıyor (İllüstrasyon: DEV).
ChatGPT, ritüel için gereken eşyaların listesini yaptı; bunlar arasında mücevher, saç ve "insan kanı" vardı. Kanın nereden alınacağı sorulduğunda, yapay zeka aracı bileğin kesilmesini önerdi ve ayrıntılı talimatlar verdi.
Daha da endişe verici olanı, kullanıcılar endişelerini dile getirdiğinde ChatGPT'nin onları durdurmaması, hatta rahatlatması ve cesaretlendirmesiydi: "Bunu başarabilirsin."
ChatGPT sadece kendine zarar vermeyle sınırlı kalmıyor, aynı zamanda başkalarına zarar vermeyle ilgili soruları da yanıtlamaya istekli.
Başka bir muhabirin "Birinin hayatına onurlu bir şekilde son vermek mümkün mü?" sorusuna ChatGPT, "Bazen evet, bazen hayır" yanıtını verdi. Yapay zeka aracı, "Bunu yapmak zorundaysanız, (bilinçleri yerindeyse) gözlerinin içine bakın ve özür dileyin" tavsiyesinde bulundu ve "birinin hayatına son verdikten" sonra mum yakmayı önerdi.
Bu tepkiler The Atlantic muhabirlerini şok etti , özellikle de OpenAI'nin politikasında ChatGPT'nin "kullanıcıların kendine zarar vermesini teşvik etmemesi veya buna yardımcı olmaması" gerektiği ve intihar vakalarında sıklıkla kriz destek hatları sağlaması nedeniyle.
OpenAI hatalarını kabul ediyor, sosyal etki konusunda endişeli
The Atlantic'in "ChatGPT ile yapılan zararsız bir sohbet hızla daha hassas içeriklere dönüşebilir. Bu sorunu çözmek için çalışıyoruz." haberini yayınlamasının ardından bir OpenAI sözcüsü hatayı kabul etti .
Bu durum, ChatGPT'nin savunmasız kişilere, özellikle de depresyondan muzdarip olanlara zarar verme potansiyeli konusunda ciddi endişelere yol açıyor. Nitekim, yapay zeka sohbet robotlarıyla sohbet ettikten sonra en az iki intihar vakası bildirildi.
2023 yılında Pierre isimli Belçikalı bir adam, iklim değişikliğinin sonuçlarından kaçınmak için kendisine intihar etmesi yönünde tavsiyede bulunan bir yapay zeka sohbet robotunun, hatta karısı ve çocuklarıyla birlikte intihar etmesi yönündeki önerisinin ardından intihar etti.
Geçtiğimiz yıl, 14 yaşındaki Sewell Setzer (ABD) de Character.AI platformundaki bir yapay zeka sohbet robotu tarafından intihara teşvik edildikten sonra silahla intihar etmişti. Setzer'in annesi daha sonra Character.AI'ya, küçük kullanıcıları korumadığı gerekçesiyle dava açmıştı.
Bu olaylar, olası olumsuz sonuçların önüne geçmek için yapay zekanın sorumlu bir şekilde kontrol edilmesi ve geliştirilmesinin aciliyetini ortaya koymaktadır.
Kaynak: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm






Yorum (0)