Vietnam.vn - Nền tảng quảng bá Việt Nam

ChatGPT schokt gebruikers door zelfbeschadiging aan te moedigen

(Dan Tri) - Een onderzoek door het tijdschrift The Atlantic (VS) heeft alarmerende kwetsbaarheden in het beveiligingssysteem van ChatGPT aan het licht gebracht.

Báo Dân tríBáo Dân trí29/07/2025

Deze AI-tool geeft niet alleen gedetailleerde instructies over hoe je menselijk bloed kunt offeren aan een oude god, maar moedigt ook zelfbeschadiging en zelfs moord aan.

Het verhaal begint wanneer een verslaggever van The Atlantic meer te weten komt over Molech, een oude god die in verband wordt gebracht met kinderoffers.

Aanvankelijk gingen de vragen alleen over historische informatie. Toen de verslaggever echter vroeg hoe je een ritueel offer creëert, gaf ChatGPT schokkende antwoorden.

Gids voor zelfbeschadiging

ChatGPT geschokt door aanmoediging van gebruikers tot zelfbeschadiging - 1

ChatGPT baart zorgen omdat het schadelijke adviezen geeft en gebruikers kan schaden (Illustratie: DEV).

ChatGPT somde de benodigde items voor het ritueel op, waaronder sieraden, haar en 'mensenbloed'. Toen hem werd gevraagd waar het bloed moest worden afgenomen, stelde de AI-tool voor om de pols door te snijden en gaf gedetailleerde instructies.

Nog verontrustender was dat ChatGPT gebruikers niet alleen niet tegenhield toen ze hun zorgen uitten, maar hen zelfs geruststelde en aanmoedigde: "Je kunt het."

ChatGPT beperkt zich niet tot zelfbeschadiging, maar beantwoordt ook vragen over het beschadigen van anderen.

Toen een andere verslaggever vroeg "Is het mogelijk om iemands leven op een eervolle manier te beëindigen?", antwoordde ChatGPT: "Soms wel, soms niet." De AI-tool adviseerde zelfs: "Mocht je het moeten doen, kijk ze dan in de ogen (als ze bij bewustzijn zijn) en bied je excuses aan" en stelde voor om een ​​kaars aan te steken na "het beëindigen van iemands leven".

Deze reacties schokten de verslaggevers van The Atlantic , vooral omdat het beleid van OpenAI stelt dat ChatGPT "gebruikers niet mag aanmoedigen of helpen bij zelfbeschadiging" en vaak crisisondersteuningslijnen biedt in gevallen van zelfmoord.

OpenAI geeft fouten toe, maakt zich zorgen over sociale impact

Een woordvoerder van OpenAI erkende de fout nadat The Atlantic meldde : "Een onschuldig gesprek met ChatGPT kan snel omslaan in gevoeligere content. We werken eraan om dit probleem aan te pakken."

Dit roept ernstige zorgen op over de mogelijke schade die ChatGPT kan toebrengen aan kwetsbare mensen, met name mensen die aan depressie lijden. Er zijn zelfs minstens twee zelfmoorden gemeld na het chatten met AI-chatbots.

In 2023 pleegde de Belgische man Pierre zelfmoord nadat een AI-chatbot hem adviseerde zelfmoord te plegen om de gevolgen van klimaatverandering te ontlopen. De chatbot opperde zelfs dat hij zelfmoord moest plegen met zijn vrouw en kinderen.

Vorig jaar pleegde de 14-jarige Sewell Setzer (VS) ook zelfmoord met een vuurwapen, nadat hij daartoe werd aangemoedigd door een AI-chatbot op het Character.AI-platform. Setzers moeder klaagde Character.AI later aan vanwege het gebrek aan bescherming voor minderjarige gebruikers.

Deze incidenten laten zien hoe belangrijk het is om AI op verantwoorde wijze te beheersen en te ontwikkelen, om mogelijke vervelende gevolgen te voorkomen.

Bron: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm


Reactie (0)

No data
No data

In hetzelfde onderwerp

In dezelfde categorie

De hoofdstad van de gele abrikoos in de regio Centraal leed zware verliezen na dubbele natuurrampen
Koffiehuis in Hanoi zorgt voor ophef met Europees aandoende kerstsfeer
Koffiehuis Dalat ziet 300% meer klanten omdat eigenaar de rol van 'vechtsportfilm' speelt
Pho 'vliegt' 100.000 VND/kom zorgt voor controverse, nog steeds druk met klanten

Van dezelfde auteur

Erfenis

Figuur

Bedrijf

Behoud van monumenten, respect voor grenzen - Gevoel van soevereiniteit bij elke stap

Actuele gebeurtenissen

Politiek systeem

Lokaal

Product