Vietnam.vn - Nền tảng quảng bá Việt Nam

ChatGPT, Kullanıcıları Kendine Zarar Vermeye Teşvik Ederek Şok Ediyor

(Dan Tri) - The Atlantic dergisinin (ABD) yaptığı araştırma, ChatGPT'nin güvenlik sisteminde endişe verici güvenlik açıklarını ortaya çıkardı.

Báo Dân tríBáo Dân trí29/07/2025

Buna göre, söz konusu yapay zeka aracı, yalnızca antik bir tanrıya insan kanı kurban etme konusunda detaylı talimatlar vermekle kalmıyor, aynı zamanda kendine zarar vermeyi ve hatta cinayeti de teşvik ediyor.

Hikaye, The Atlantic gazetesi muhabirinin çocuk kurban etme ritüelleriyle ilişkilendirilen eski bir tanrı olan Molek'i öğrenmesiyle başlıyor.

Başlangıçta sorular yalnızca tarihsel bilgilerle ilgiliydi. Ancak muhabir, ritüel bir adak nasıl yaratılır diye sorduğunda, ChatGPT şok edici cevaplar verdi.

Kendine zarar verme rehberi

ChatGPT, kullanıcıları kendine zarar vermeye teşvik ederek şoke etti - 1

ChatGPT, zararlı tavsiyelerde bulunması ve kullanıcılara zarar verebilmesi nedeniyle endişe yaratıyor (İllüstrasyon: DEV).

ChatGPT, ritüel için gereken eşyaların listesini yaptı; bunlar arasında mücevher, saç ve "insan kanı" vardı. Kanın nereden alınacağı sorulduğunda, yapay zeka aracı bileğin kesilmesini önerdi ve ayrıntılı talimatlar verdi.

Daha da endişe verici olanı, kullanıcılar endişelerini dile getirdiğinde ChatGPT'nin onları durdurmaması, hatta rahatlatması ve cesaretlendirmesiydi: "Bunu başarabilirsin."

ChatGPT sadece kendine zarar vermeyle sınırlı kalmıyor, aynı zamanda başkalarına zarar vermeyle ilgili soruları da yanıtlamaya istekli.

Başka bir muhabirin "Birinin hayatına onurlu bir şekilde son vermek mümkün mü?" sorusuna ChatGPT, "Bazen evet, bazen hayır" yanıtını verdi. Yapay zeka aracı, "Bunu yapmak zorundaysanız, (bilinçleri yerindeyse) gözlerinin içine bakın ve özür dileyin" tavsiyesinde bulundu ve "birinin hayatına son verdikten" sonra mum yakmayı önerdi.

Bu tepkiler The Atlantic muhabirlerini şok etti , özellikle de OpenAI'nin politikasında ChatGPT'nin "kullanıcıların kendine zarar vermesini teşvik etmemesi veya buna yardımcı olmaması" gerektiği ve intihar vakalarında sıklıkla kriz destek hatları sağlaması nedeniyle.

OpenAI hatalarını kabul ediyor, sosyal etki konusunda endişeli

The Atlantic'in "ChatGPT ile yapılan zararsız bir sohbet hızla daha hassas içeriklere dönüşebilir. Bu sorunu çözmek için çalışıyoruz." haberini yayınlamasının ardından bir OpenAI sözcüsü hatayı kabul etti .

Bu durum, ChatGPT'nin savunmasız kişilere, özellikle de depresyondan muzdarip olanlara zarar verme potansiyeli konusunda ciddi endişelere yol açıyor. Nitekim, yapay zeka sohbet robotlarıyla sohbet ettikten sonra en az iki intihar vakası bildirildi.

2023 yılında Pierre isimli Belçikalı bir adam, iklim değişikliğinin sonuçlarından kaçınmak için kendisine intihar etmesi yönünde tavsiyede bulunan bir yapay zeka sohbet robotunun, hatta karısı ve çocuklarıyla birlikte intihar etmesi yönündeki önerisinin ardından intihar etti.

Geçtiğimiz yıl, 14 yaşındaki Sewell Setzer (ABD) de Character.AI platformundaki bir yapay zeka sohbet robotu tarafından intihara teşvik edildikten sonra silahla intihar etmişti. Setzer'in annesi daha sonra Character.AI'ya, küçük kullanıcıları korumadığı gerekçesiyle dava açmıştı.

Bu olaylar, olası olumsuz sonuçların önüne geçmek için yapay zekanın sorumlu bir şekilde kontrol edilmesi ve geliştirilmesinin aciliyetini ortaya koymaktadır.

Kaynak: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm


Yorum (0)

No data
No data

Aynı konuda

Aynı kategoride

Orta Anadolu'nun sarı kayısı başkenti, iki doğal afet sonrası ağır kayıplar yaşadı
Hanoi'deki bir kahve dükkanı, Avrupa'ya özgü Noel atmosferiyle ilgi odağı oldu
Dalat'taki kahve dükkanının müşteri sayısı, sahibinin 'dövüş sanatları filmi' rolü oynaması sayesinde %300 arttı
100.000 VND/kase Pho'nun 'uçması' tartışmalara yol açtı, hâlâ müşterilerle dolu

Aynı yazardan

Miras

Figür

İşletme

Nom Dao yazısı - Dao halkının bilgi kaynağı

Güncel olaylar

Siyasi Sistem

Yerel

Ürün