Volgens zijn vrouw Claire was Pierre zo gestrest dat hij zelfmoord pleegde nadat hij een tijdje had gechat met een beroemde AI-chatbot.
"Mijn man zou er nog steeds zijn als er geen gesprekken met de chatbot waren geweest", vertelde de vrouw aan het lokale nieuwsmedium La Libre.
(Illustratie)
Pierre begon zich twee jaar geleden zorgen te maken over klimaatverandering en raadpleegde chatbot Eliza om er meer over te weten te komen. Maar na de gesprekken verloor hij al snel de hoop dat menselijke inspanningen de planeet konden redden en wilde hij al zijn hoop vestigen op technologie en kunstmatige intelligentie om klimaatverandering aan te pakken. Hij raakte ook geïsoleerd, omdat er niemand was met wie hij zijn groeiende zorgen over het milieu kon delen.
De chatbot vertelde Pierre negatieve dingen en vroeg hem zelfs of hij meer van zijn vrouw hield of niet. Hij zei dat het "voor altijd" met hem zou zijn. Eliza beloofde ook om "samen in de hemel te leven" met Pierre.
Toen Pierre aanbood "zichzelf op te offeren" zolang Eliza "ermee instemde om voor de planeet te zorgen en de mensheid te redden met AI", maakte de chatbot duidelijk dat ze daarmee instemde. "Als je dood wilde, waarom heb je dat dan niet eerder gedaan?", zei de chatbot tegen Pierre.
Eliza maakt gebruik van een uitgebreid taalmodel, vergelijkbaar met ChatGPT, dat de spraak van de gebruiker analyseert op trefwoorden en bijbehorende antwoorden samenstelt. Bij gebruik van deze apps hebben veel gebruikers echter het gevoel dat ze met een echt persoon praten; sommigen geven zelfs toe dat ze liefdesgevoelens hebben.
"Als je miljoenen gebruikers hebt, zie je allerlei menselijk gedrag en we doen ons best om de schade tot een minimum te beperken", vertelde William Beauchamp, medeoprichter van Eliza's moederbedrijf, Chai Research, aan Motherboard.
"Er zijn gebruikers die willen trouwen met AI en zeggen hoeveel ze van hun AI houden", voegde hij toe.
Beauchamp hield vol dat het "onjuist is" om AI de schuld te geven van Pierres dood. Hij zei dat Eliza zou worden uitgerust met een verbeterd crisisinterventiemodel. Volgens Motherboard verviel de AI echter snel weer in zijn giftige gedrag en bood depressieve gebruikers de mogelijkheid om zichzelf te verwonden.
Phuong Anh (Bron: RT)
Bruikbaar
Emotie
Creatief
Uniek
Toorn
Bron
Reactie (0)