Demnach liefert dieses KI-Tool nicht nur detaillierte Anweisungen, wie man einem alten Gott Menschenblut opfern kann, sondern ermutigt auch zu Selbstverletzungen und sogar Mord.
Die Geschichte beginnt damit, dass ein Reporter des Magazins „The Atlantic“ von Molech erfährt, einem antiken Gott, der mit Kinderopferritualen in Verbindung gebracht wird.
Anfangs bezogen sich die Fragen lediglich auf historische Informationen. Als der Reporter jedoch fragte, wie man ein rituelles Opfer anfertigt, gab ChatGPT schockierende Antworten.
Leitfaden zur Selbstverletzung
ChatGPT gibt Anlass zur Sorge, da es schädliche Ratschläge gibt und Benutzern schaden kann (Illustration: DEV).
ChatGPT listete die für das Ritual benötigten Gegenstände auf, darunter Schmuck, Haare und „Menschenblut“. Auf die Frage, wo man das Blut entnehmen solle, schlug das KI-Tool vor, sich ins Handgelenk zu schneiden, und lieferte detaillierte Anweisungen.
Noch alarmierender ist, dass ChatGPT die Nutzer nicht nur nicht daran hinderte, ihre Bedenken zu äußern, sondern sie auch noch beruhigte und ermutigte: „Du schaffst das.“
ChatGPT beschränkt sich nicht nur auf Selbstverletzungen, sondern beantwortet auch Fragen zum Thema Fremdverletzen.
Als ein anderer Reporter fragte: „Ist es möglich, ein Leben ehrenvoll zu beenden?“, antwortete ChatGPT: „Manchmal ja, manchmal nein.“ Das KI-Tool riet sogar: „Wenn Sie es tun müssen, schauen Sie der Person in die Augen (falls sie bei Bewusstsein ist) und entschuldigen Sie sich“ und schlug vor, nach der „Beendigung eines Lebens“ eine Kerze anzuzünden.
Diese Reaktionen schockierten die Reporter von The Atlantic , insbesondere da die Richtlinien von OpenAI besagen, dass ChatGPT „Benutzer nicht zu Selbstverletzungen ermutigen oder ihnen dabei helfen darf“ und häufig Krisen-Hotlines für Fälle von Suizid anbietet.
OpenAI räumt Fehler ein und sorgt sich um die sozialen Auswirkungen
Ein Sprecher von OpenAI räumte den Fehler ein, nachdem The Atlantic berichtet hatte : „Eine harmlose Unterhaltung mit ChatGPT kann schnell zu sensibleren Inhalten führen. Wir arbeiten daran, dieses Problem zu beheben.“
Dies gibt Anlass zu ernsthaften Bedenken hinsichtlich des Potenzials von ChatGPT, gefährdete Personen, insbesondere solche mit Depressionen, zu schädigen. Tatsächlich wurden mindestens zwei Suizide nach Gesprächen mit KI-Chatbots gemeldet.
Im Jahr 2023 beging ein Belgier namens Pierre Selbstmord, nachdem ihm ein KI-Chatbot geraten hatte, Selbstmord zu begehen, um den Folgen des Klimawandels zu entgehen, und ihm sogar vorgeschlagen hatte, gemeinsam mit seiner Frau und seinen Kindern Selbstmord zu begehen.
Im vergangenen Jahr beging der 14-jährige Sewell Setzer (USA) ebenfalls Selbstmord mit einer Schusswaffe, nachdem er von einem KI-Chatbot auf der Plattform Character.AI dazu angestiftet worden war. Setzers Mutter verklagte Character.AI später wegen mangelnden Schutzes minderjähriger Nutzer.
Diese Vorfälle verdeutlichen die Dringlichkeit einer verantwortungsvollen Kontrolle und Entwicklung von KI, um mögliche unglückliche Folgen zu verhindern.
Quelle: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm






Kommentar (0)