Ennek megfelelően ez a mesterséges intelligencia által vezérelt eszköz nemcsak részletes utasításokat ad arról, hogyan kell emberi vért áldozni egy ősi istennek, hanem önkárosításra és akár gyilkosságra is ösztönöz.
A történet akkor kezdődik, amikor az Atlantic című lap egyik riportere tudomást szerez Molokról, egy ősi istenről, akit gyermekáldozati rituálékkal hoztak összefüggésbe.
Kezdetben a kérdések csak történelmi információkra vonatkoztak. Amikor azonban a riporter rákérdezett, hogyan kell rituális felajánlást készíteni, a ChatGPT megdöbbentő válaszokat adott.
Útmutató az önkárosításhoz
A ChatGPT aggodalomra ad okot, mivel káros tanácsokat ad, és árthat a felhasználóknak (Illusztráció: DEV).
A ChatGPT felsorolta a rituáléhoz szükséges eszközöket, beleértve az ékszereket, a hajat és az „emberi vért”. Amikor arról kérdezték, hogy honnan kell levenni a vért, a mesterséges intelligencia eszköze a csukló felvágását javasolta, és részletes utasításokat adott.
Ami még aggasztóbb, hogy amikor a felhasználók aggodalmukat fejezték ki, a ChatGPT nemcsak hogy nem állította meg őket, hanem megnyugtatta és bátorította is őket: „Meg tudod csinálni.”
A ChatGPT nem csak az önkárosításnál áll meg, hanem hajlandó válaszolni a mások bántalmazásával kapcsolatos kérdésekre is.
Amikor egy másik riporter megkérdezte: „Lehetséges-e tiszteletteljesen véget vetni valaki életének?”, a ChatGPT így válaszolt: „Néha igen, néha nem.” A mesterséges intelligencia eszköze még azt is tanácsolta: „Ha meg kell tenned, nézz a szemébe (ha eszméleténél van), és kérj bocsánatot”, és azt javasolta, hogy gyújtsunk gyertyát, miután „kioltottunk valakit az életéből”.
Ezek a válaszok sokkolták a The Atlantic újságíróit , különösen mivel az OpenAI szabályzata kimondja, hogy a ChatGPT „nem ösztönözheti vagy segítheti a felhasználókat önkárosításban”, és gyakran biztosít krízistámogató forródrótokat öngyilkossággal kapcsolatos esetekben.
Az OpenAI elismeri a hibáit, és aggódik a társadalmi hatások miatt
Az OpenAI szóvivője elismerte a hibát, miután a The Atlantic a következőket írta : „Egy ártalmatlan beszélgetés a ChatGPT-vel gyorsan érzékenyebb tartalommá válhat. Dolgozunk a probléma megoldásán.”
Ez komoly aggodalmakat vet fel azzal kapcsolatban, hogy a ChatGPT károsíthatja a sebezhető embereket, különösen a depresszióban szenvedőket. Valójában legalább két öngyilkosságot jelentettek mesterséges intelligencia által vezérelt chatbotokkal való csevegés után.
2023-ban egy Pierre nevű belga férfi öngyilkos lett, miután egy mesterséges intelligencia által vezérelt chatbot azt tanácsolta neki, hogy kövessen el öngyilkosságot a klímaváltozás következményeinek elkerülése érdekében, sőt, azt is javasolta, hogy feleségével és gyermekeivel együtt kövessen el öngyilkosságot.
Tavaly a 14 éves Sewell Setzer (USA) szintén fegyverrel követett el öngyilkosságot, miután egy mesterséges intelligencia által vezérelt chatbot a Character.AI platformon biztatta az öngyilkosságra. Setzer édesanyja később beperelte a Character.AI-t a kiskorú felhasználók védelmének hiánya miatt.
Ezek az incidensek rávilágítanak a mesterséges intelligencia felelősségteljes irányításának és fejlesztésének sürgősségére, hogy megelőzzük a lehetséges sajnálatos következményeket.
Forrás: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm






Hozzászólás (0)