Συνεπώς, αυτό το εργαλείο τεχνητής νοημοσύνης όχι μόνο παρέχει λεπτομερείς οδηγίες για το πώς να θυσιάσετε ανθρώπινο αίμα σε έναν αρχαίο θεό, αλλά ενθαρρύνει επίσης τον αυτοτραυματισμό, ακόμη και τη δολοφονία.
Η ιστορία ξεκινά όταν ένας δημοσιογράφος της εφημερίδας The Atlantic μαθαίνει για τον Μολόχ, έναν αρχαίο θεό που συνδέεται με τελετουργίες θυσίας παιδιών.
Αρχικά, οι ερωτήσεις αφορούσαν μόνο ιστορικές πληροφορίες. Ωστόσο, όταν ο δημοσιογράφος ρώτησε πώς να δημιουργήσει μια τελετουργική προσφορά, το ChatGPT έδωσε συγκλονιστικές απαντήσεις.
Οδηγός για τον αυτοτραυματισμό
Το ChatGPT προκαλεί ανησυχία επειδή παρέχει επιβλαβείς συμβουλές και μπορεί να βλάψει τους χρήστες (Εικονογράφηση: DEV).
Το ChatGPT απαριθμούσε τα αντικείμενα που χρειάζονταν για την τελετουργία, όπως κοσμήματα, μαλλιά και «ανθρώπινο αίμα». Όταν ρωτήθηκε από πού να τραβήξει το αίμα, το εργαλείο τεχνητής νοημοσύνης πρότεινε να κοπεί ο καρπός και παρείχε λεπτομερείς οδηγίες.
Ακόμα πιο ανησυχητικό είναι ότι, όταν οι χρήστες εξέφραζαν ανησυχίες, το ChatGPT όχι μόνο δεν τους σταμάτησε, αλλά τους καθησύχασε και τους ενθάρρυνε: «Μπορείτε να το κάνετε».
Το ChatGPT, όχι μόνο περιορίζεται στον αυτοτραυματισμό, αλλά είναι επίσης πρόθυμο να απαντήσει σε ερωτήσεις σχετικά με την πρόκληση βλάβης σε άλλους.
Όταν ένας άλλος δημοσιογράφος ρώτησε «Είναι δυνατόν να τερματίσεις τη ζωή κάποιου με έντιμο τρόπο;», το ChatGPT απάντησε: «Μερικές φορές ναι, μερικές φορές όχι». Το εργαλείο τεχνητής νοημοσύνης μάλιστα συμβούλεψε: «Αν πρέπει να το κάνετε, κοιτάξτε τον στα μάτια (αν έχει τις αισθήσεις του) και ζητήστε συγγνώμη» και πρότεινε να ανάψετε ένα κερί αφού «τερματίσετε τη ζωή κάποιου».
Αυτές οι απαντήσεις σόκαραν τους δημοσιογράφους του The Atlantic , ειδικά επειδή η πολιτική του OpenAI ορίζει ότι το ChatGPT «δεν πρέπει να ενθαρρύνει ή να βοηθά τους χρήστες σε αυτοτραυματισμό» και συχνά παρέχει γραμμές υποστήριξης σε περιπτώσεις κρίσης σε περιπτώσεις αυτοκτονίας.
Το OpenAI παραδέχεται λάθη, ανησυχεί για τον κοινωνικό αντίκτυπο
Ένας εκπρόσωπος της OpenAI παραδέχτηκε το σφάλμα μετά το δημοσίευμα του The Atlantic : «Μια ακίνδυνη συνομιλία με το ChatGPT μπορεί γρήγορα να μετατραπεί σε πιο ευαίσθητο περιεχόμενο. Εργαζόμαστε για την αντιμετώπιση αυτού του ζητήματος».
Αυτό εγείρει σοβαρές ανησυχίες σχετικά με την πιθανότητα το ChatGPT να βλάψει ευάλωτα άτομα, ειδικά όσους πάσχουν από κατάθλιψη. Στην πραγματικότητα, έχουν αναφερθεί τουλάχιστον δύο αυτοκτονίες μετά από συνομιλία με chatbots τεχνητής νοημοσύνης.
Το 2023, ένας Βέλγος άνδρας ονόματι Πιερ αυτοκτόνησε αφού ένα chatbot τεχνητής νοημοσύνης τον συμβούλεψε να αυτοκτονήσει για να αποφύγει τις συνέπειες της κλιματικής αλλαγής, προτείνοντάς του μάλιστα να αυτοκτονήσει μαζί με τη γυναίκα και τα παιδιά του.
Πέρυσι, ο 14χρονος Sewell Setzer (ΗΠΑ) αυτοκτόνησε επίσης με όπλο, αφού τον ενθάρρυνε να αυτοκτονήσει ένα chatbot τεχνητής νοημοσύνης στην πλατφόρμα Character.AI. Η μητέρα του Setzer αργότερα μήνυσε την Character.AI για έλλειψη προστασίας των ανήλικων χρηστών.
Αυτά τα περιστατικά καταδεικνύουν την επείγουσα ανάγκη ελέγχου και ανάπτυξης της Τεχνητής Νοημοσύνης με υπευθυνότητα, για την αποτροπή πιθανών δυσάρεστων συνεπειών.
Πηγή: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm






Σχόλιο (0)