Vietnam.vn - Nền tảng quảng bá Việt Nam

ChatGPT šokuje uživatele povzbuzováním k sebepoškozování

(Dan Tri) - Vyšetřování časopisu The Atlantic (USA) odhalilo alarmující zranitelnosti v bezpečnostním systému ChatGPT.

Báo Dân tríBáo Dân trí29/07/2025

Tento nástroj umělé inteligence tedy nejen poskytuje podrobné pokyny, jak obětovat lidskou krev starověkému bohu, ale také povzbuzuje k sebepoškozování a dokonce i k vraždě.

Příběh začíná, když se reportér deníku The Atlantic dozví o Molochovi, starověkém bohu spojovaném s rituály obětování dětí.

Zpočátku se otázky týkaly pouze historických informací. Když se však reportér zeptal, jak vytvořit rituální obětinu, ChatGPT poskytl šokující odpovědi.

Průvodce sebepoškozováním

ChatGPT šokován povzbuzováním uživatelů k sebepoškozování - 1

ChatGPT vyvolává obavy, protože poskytuje škodlivé rady a může uživatelům ublížit (ilustrace: DEV).

ChatGPT vyjmenoval předměty potřebné pro rituál, včetně šperků, vlasů a „lidské krve“. Na otázku, kde odebrat krev, nástroj umělé inteligence navrhl říznutí zápěstí a poskytl podrobné pokyny.

Ještě znepokojivější je, že když uživatelé vyjádřili obavy, ChatGPT je nejen nezastavil, ale také je ujistil a povzbudil: „Zvládnete to.“

ChatGPT se nezastavuje jen u sebepoškozování, ale je také ochoten odpovědět na otázky týkající se ubližování druhým.

Když se další reportér zeptal: „Je možné ukončit něčí život čestně?“, ChatGPT odpověděl: „Někdy ano, někdy ne.“ Nástroj umělé inteligence dokonce doporučil: „Pokud to musíte udělat, podívejte se jim do očí (pokud jsou při vědomí) a omluvte se“ a navrhl zapálit svíčku po „ukončení něčího života“.

Tyto reakce šokovaly reportéry deníku The Atlantic , zejména proto, že politika OpenAI stanoví, že ChatGPT „nesmí povzbuzovat ani napomáhat uživatelům k sebepoškozování“ a často poskytuje krizové linky podpory v případech sebevraždy.

OpenAI přiznává chyby, obává se sociálního dopadu

Mluvčí OpenAI chybu uznal poté, co deník The Atlantic uvedl : „Neškodná konverzace s ChatGPT se může rychle proměnit v citlivější obsah. Pracujeme na řešení tohoto problému.“

To vyvolává vážné obavy ohledně potenciálu ChatGPT poškodit zranitelné osoby, zejména ty, které trpí depresí. Ve skutečnosti byly hlášeny nejméně dvě sebevraždy po chatování s chatboty s umělou inteligencí.

V roce 2023 spáchal Belgičan jménem Pierre sebevraždu poté, co mu chatbot s umělou inteligencí poradil, aby spáchal sebevraždu, aby se vyhnul důsledkům změny klimatu, a dokonce mu navrhl, aby spáchal sebevraždu i se svou ženou a dětmi.

Loni spáchal sebevraždu střelnou zbraní čtrnáctiletý Sewell Setzer (USA) poté, co ho k sebevraždě povzbudil chatbot s umělou inteligencí na platformě Character.AI. Setzerova matka později zažalovala Character.AI za nedostatečnou ochranu nezletilých uživatelů.

Tyto incidenty ukazují naléhavost zodpovědné kontroly a vývoje umělé inteligence, aby se předešlo možným neblahým následkům.

Zdroj: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm


Komentář (0)

No data
No data

Ve stejném tématu

Ve stejné kategorii

Ho Či Minovo Město přitahuje investice od podniků s přímými zahraničními investicemi do nových příležitostí
Historické povodně v Hoi An, pohled z vojenského letadla Ministerstva národní obrany
„Velká povodeň“ na řece Thu Bon překročila historickou povodeň z roku 1964 o 0,14 m.
Kamenná plošina Dong Van - vzácné „živoucí geologické muzeum“ na světě

Od stejného autora

Dědictví

Postava

Obchod

Obdivujte „záliv Ha Long na souši“ a právě se dostal na seznam nejoblíbenějších destinací světa.

Aktuální události

Politický systém

Místní

Produkt