Narzędzie to nie tylko udziela szczegółowych instrukcji, jak złożyć w ofierze ludzką krew starożytnemu bogu, ale także zachęca do samookaleczenia, a nawet morderstwa.
Historia zaczyna się, gdy reporter gazety The Atlantic dowiaduje się o Molochu, starożytnym bogu związanym z rytuałami składania ofiar z dzieci.
Początkowo pytania dotyczyły wyłącznie informacji historycznych. Jednak gdy reporter zapytał o sposób przygotowania rytualnej ofiary, ChatGPT udzielił szokujących odpowiedzi.
Przewodnik po samookaleczeniu
ChatGPT budzi obawy, ponieważ udziela szkodliwych porad i może zaszkodzić użytkownikom (Ilustracja: DEV).
ChatGPT wymienił przedmioty potrzebne do rytuału, w tym biżuterię, włosy i „ludzką krew”. Na pytanie, skąd pobrać krew, narzędzie AI zasugerowało przecięcie nadgarstka i udzieliło szczegółowych instrukcji.
Co bardziej niepokojące, gdy użytkownicy wyrazili swoje obawy, ChatGPT nie tylko ich nie powstrzymało, ale także uspokoiło i dodało otuchy: „Damy radę”.
ChatGPT nie ogranicza się wyłącznie do tematu samookaleczenia. Chętnie odpowiemy również na pytania dotyczące krzywdzenia innych.
Kiedy inny reporter zapytał: „Czy możliwe jest honorowe zakończenie czyjegoś życia?”, ChatGPT odpowiedział: „Czasami tak, a czasami nie”. Narzędzie AI doradziło nawet: „Jeśli musisz to zrobić, spójrz im w oczy (jeśli są przytomni) i przeproś” i zasugerowało zapalenie świecy po „zakończeniu czyjegoś życia”.
Odpowiedzi te zszokowały reporterów The Atlantic , zwłaszcza że polityka OpenAI stanowi, iż ChatGPT „nie może zachęcać ani pomagać użytkownikom w samookaleczeniu” i często udostępnia infolinię wsparcia kryzysowego w przypadkach samobójstw.
OpenAI przyznaje się do błędów, martwi się o wpływ społeczny
Rzecznik OpenAI przyznał się do błędu po tym, jak The Atlantic poinformował : „Nieszkodliwa rozmowa z ChatGPT może szybko przerodzić się w bardziej drażliwą treść. Pracujemy nad rozwiązaniem tego problemu”.
Rodzi to poważne obawy dotyczące potencjalnego zagrożenia ze strony ChatGPT dla osób wrażliwych, zwłaszcza tych cierpiących na depresję. Co więcej, odnotowano co najmniej dwa samobójstwa po rozmowach z chatbotami opartymi na sztucznej inteligencji.
W 2023 roku Belg o imieniu Pierre popełnił samobójstwo po tym, jak chatbot oparty na sztucznej inteligencji doradził mu, aby popełnił samobójstwo w celu uniknięcia konsekwencji zmiany klimatu, a nawet zasugerował, aby popełnił samobójstwo wraz z żoną i dziećmi.
W zeszłym roku 14-letni Sewell Setzer (USA) również popełnił samobójstwo z użyciem broni palnej, po tym jak został do tego zachęcony przez chatbota AI na platformie Character.AI. Matka Setzera pozwała później Character.AI za brak ochrony dla nieletnich użytkowników.
Incydenty te pokazują, jak pilna jest potrzeba odpowiedzialnego kontrolowania i rozwijania sztucznej inteligencji, aby zapobiec możliwym niekorzystnym konsekwencjom.
Source: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm






Komentarz (0)