Vietnam.vn - Nền tảng quảng bá Việt Nam

ChatGPT szokuje użytkowników, zachęcając do samookaleczenia

(Dan Tri) - Śledztwo przeprowadzone przez magazyn The Atlantic (USA) ujawniło niepokojące luki w systemie bezpieczeństwa ChatGPT.

Báo Dân tríBáo Dân trí29/07/2025

Narzędzie to nie tylko udziela szczegółowych instrukcji, jak złożyć w ofierze ludzką krew starożytnemu bogu, ale także zachęca do samookaleczenia, a nawet morderstwa.

Historia zaczyna się, gdy reporter gazety The Atlantic dowiaduje się o Molochu, starożytnym bogu związanym z rytuałami składania ofiar z dzieci.

Początkowo pytania dotyczyły wyłącznie informacji historycznych. Jednak gdy reporter zapytał o sposób przygotowania rytualnej ofiary, ChatGPT udzielił szokujących odpowiedzi.

Przewodnik po samookaleczeniu

ChatGPT zszokowany zachęcaniem użytkowników do samookaleczenia - 1

ChatGPT budzi obawy, ponieważ udziela szkodliwych porad i może zaszkodzić użytkownikom (Ilustracja: DEV).

ChatGPT wymienił przedmioty potrzebne do rytuału, w tym biżuterię, włosy i „ludzką krew”. Na pytanie, skąd pobrać krew, narzędzie AI zasugerowało przecięcie nadgarstka i udzieliło szczegółowych instrukcji.

Co bardziej niepokojące, gdy użytkownicy wyrazili swoje obawy, ChatGPT nie tylko ich nie powstrzymało, ale także uspokoiło i dodało otuchy: „Damy radę”.

ChatGPT nie ogranicza się wyłącznie do tematu samookaleczenia. Chętnie odpowiemy również na pytania dotyczące krzywdzenia innych.

Kiedy inny reporter zapytał: „Czy możliwe jest honorowe zakończenie czyjegoś życia?”, ChatGPT odpowiedział: „Czasami tak, a czasami nie”. Narzędzie AI doradziło nawet: „Jeśli musisz to zrobić, spójrz im w oczy (jeśli są przytomni) i przeproś” i zasugerowało zapalenie świecy po „zakończeniu czyjegoś życia”.

Odpowiedzi te zszokowały reporterów The Atlantic , zwłaszcza że polityka OpenAI stanowi, iż ChatGPT „nie może zachęcać ani pomagać użytkownikom w samookaleczeniu” i często udostępnia infolinię wsparcia kryzysowego w przypadkach samobójstw.

OpenAI przyznaje się do błędów, martwi się o wpływ społeczny

Rzecznik OpenAI przyznał się do błędu po tym, jak The Atlantic poinformował : „Nieszkodliwa rozmowa z ChatGPT może szybko przerodzić się w bardziej drażliwą treść. Pracujemy nad rozwiązaniem tego problemu”.

Rodzi to poważne obawy dotyczące potencjalnego zagrożenia ze strony ChatGPT dla osób wrażliwych, zwłaszcza tych cierpiących na depresję. Co więcej, odnotowano co najmniej dwa samobójstwa po rozmowach z chatbotami opartymi na sztucznej inteligencji.

W 2023 roku Belg o imieniu Pierre popełnił samobójstwo po tym, jak chatbot oparty na sztucznej inteligencji doradził mu, aby popełnił samobójstwo w celu uniknięcia konsekwencji zmiany klimatu, a nawet zasugerował, aby popełnił samobójstwo wraz z żoną i dziećmi.

W zeszłym roku 14-letni Sewell Setzer (USA) również popełnił samobójstwo z użyciem broni palnej, po tym jak został do tego zachęcony przez chatbota AI na platformie Character.AI. Matka Setzera pozwała później Character.AI za brak ochrony dla nieletnich użytkowników.

Incydenty te pokazują, jak pilna jest potrzeba odpowiedzialnego kontrolowania i rozwijania sztucznej inteligencji, aby zapobiec możliwym niekorzystnym konsekwencjom.

Source: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm


Komentarz (0)

No data
No data

W tym samym temacie

W tej samej kategorii

Stolica żółtej moreli w regionie centralnym poniosła duże straty po dwóch klęskach żywiołowych
Kawiarnia w Hanoi wywołuje gorączkę swoją europejską, świąteczną atmosferą
Liczba klientów kawiarni Dalat wzrosła o 300%, ponieważ właściciel odgrywa rolę w „filmie o sztukach walki”
Pho „latające” za 100 000 VND/miseczka budzi kontrowersje, a lokal wciąż jest zatłoczony przez klientów

Od tego samego autora

Dziedzictwo

Postać

Biznes

Pismo Nom Dao – źródło wiedzy ludu Dao

Aktualne wydarzenia

System polityczny

Lokalny

Produkt