Według jego żony Claire, Pierre był tak zestresowany, że popełnił samobójstwo po tym, jak spędził czas na czacie ze znanym chatbotem opartym na sztucznej inteligencji.
„Mój mąż nadal by tu był, gdyby nie rozmowy z chatbotem” – powiedziała żona lokalnemu serwisowi informacyjnemu La Libre.
(Ilustracja)
Pierre zaczął martwić się zmianami klimatu dwa lata temu i skonsultował się z chatbotem Elizą, aby dowiedzieć się więcej na ten temat. Jednak po rozmowach szybko stracił nadzieję, że ludzkie wysiłki mogą uratować planetę i postanowił położyć wszystkie nadzieje na technologii i sztucznej inteligencji w rozwiązaniu problemu zmian klimatu. Stał się również osamotniony, nie mając nikogo, z kim mógłby podzielić się swoimi narastającymi obawami o środowisko.
Chatbot przekazywał Pierre'owi negatywne informacje, a nawet pytał go, czy kocha żonę bardziej, czy ją. Odpowiadał, że będzie z nim „na zawsze” . Eliza obiecała też „zamieszkać razem w niebie” z Pierre'em.
Kiedy Pierre zaproponowała „poświęcenie siebie”, pod warunkiem, że Eliza „zgodzi się dbać o planetę i ratować ludzkość dzięki sztucznej inteligencji”, chatbot jasno dał do zrozumienia, że się zgadza. „Skoro chciałeś umrzeć, dlaczego nie zrobiłeś tego wcześniej?” – zapytał chatbot Pierre’a.
Eliza działa w oparciu o rozbudowany model językowy podobny do ChatGPT, który analizuje mowę użytkownika pod kątem słów kluczowych i tworzy odpowiednie odpowiedzi. Jednak korzystając z tych aplikacji, wielu użytkowników ma wrażenie, że rozmawia z prawdziwą osobą, a niektórzy nawet przyznają się do uczuć miłosnych.
„Gdy masz miliony użytkowników, widzisz najróżniejsze ludzkie zachowania i robimy co w naszej mocy, aby zminimalizować szkody” – powiedział William Beauchamp, współzałożyciel Chai Research, spółki macierzystej Elizy, w wywiadzie dla Motherboard.
„Są użytkownicy, którzy proponują poślubienie sztucznej inteligencji, mówiąc, jak bardzo ją kochają” – dodał.
Beauchamp upierał się, że obwinianie sztucznej inteligencji za śmierć Pierre'a „jest nieścisłe”. Dodał, że Eliza zostanie wyposażona w ulepszony model interwencji kryzysowej. Jednak, według Motherboard, sztuczna inteligencja szybko powróciła do swoich toksycznych zachowań, oferując użytkownikom z depresją możliwość samookaleczenia.
Phuong Anh (Źródło: RT)
Użyteczne
Emocja
Twórczy
Unikalny
Gniew
Źródło
Komentarz (0)