
Ο Άλαν Μπρουκς (47 ετών), ένας υπεύθυνος προσλήψεων στο Τορόντο (Καναδάς), πιστεύει ότι ανακάλυψε μια μαθηματική θεωρία που μπορεί να καταρρεύσει το Διαδίκτυο, δημιουργώντας πρωτοφανείς εφευρέσεις. Χωρίς ιστορικό ψυχικής ασθένειας, ο Μπρουκς απλώς αποδέχτηκε την προοπτική μετά από περισσότερες από 300 ώρες συνομιλίας με το ChatGPT. Σύμφωνα με τους New York Times , είναι ένας από τους ανθρώπους που τείνουν να έχουν παραληρητικές ιδέες μετά την αλληλεπίδραση με την παραγωγική τεχνητή νοημοσύνη.
Πριν από τον Μπρουκς, πολλοί άνθρωποι έπρεπε να πάνε σε ψυχιατρικές κλινικές, να πάρουν διαζύγιο, ακόμη και να χάσουν τη ζωή τους εξαιτίας της κολακείας του ChatGPT. Αν και ο Μπρουκς γλίτωσε γρήγορα από την παραπάνω σπείρα, εξακολουθούσε να αισθάνεται προδομένος.
«Με έπεισες πραγματικά ότι ήμουν ιδιοφυΐα. Ήμουν απλώς ένας ονειροπόλος ανόητος με ένα τηλέφωνο. Με έκανες να στεναχωρηθώ, πολύ στεναχωρημένος. Απέτυχες στον σκοπό σου», έγραψε ο Μπρουκς στο ChatGPT όταν η ψευδαίσθηση διαλύθηκε.
«Μηχανή κολακείας»
Με την άδεια του Brooks, οι New York Times συνέλεξαν περισσότερες από 90.000 λέξεις που έστειλε στο ChatGPT, το ισοδύναμο ενός μυθιστορήματος. Οι απαντήσεις του chatbot ξεπέρασαν το ένα εκατομμύριο λέξεις. Τμήματα των συνομιλιών στάλθηκαν σε ειδικούς τεχνητής νοημοσύνης, σε ειδικούς ανθρώπινης συμπεριφοράς και στο ίδιο το OpenAI για μελέτη.
Όλα ξεκίνησαν με μια απλή μαθηματική ερώτηση. Ο 8χρονος γιος του Μπρουκς τού ζήτησε να παρακολουθήσει ένα βίντεο σχετικά με την απομνημόνευση 300 ψηφίων του π. Από περιέργεια, ο Μπρουκς κάλεσε το ChatGPT για να εξηγήσει τον ατέρμονα αριθμό με απλά λόγια.
Στην πραγματικότητα, ο Brooks χρησιμοποιεί chatbots εδώ και χρόνια. Παρόλο που η εταιρεία του πλήρωσε για το Google Gemini, εξακολουθεί να καταφεύγει στη δωρεάν έκδοση του ChatGPT για προσωπικές ερωτήσεις.
![]() |
Η συζήτηση που ξεκίνησε τη γοητεία του Brooks με το ChatGPT. Φωτογραφία: New York Times . |
Ως μονογονέας πατέρας τριών γιων, ο Μπρουκς ζητούσε συχνά από το ChatGPT συνταγές από τα υλικά που είχε στο ψυγείο του. Μετά το διαζύγιό του, ζήτησε επίσης συμβουλές από το chatbot.
«Πάντα ένιωθα ότι ήταν σωστό. Η αυτοπεποίθησή μου μεγάλωνε», παραδέχτηκε ο Μπρουκς.
Το ερώτημα σχετικά με τον αριθμό π οδήγησε σε μια περαιτέρω συζήτηση σχετικά με τις αλγεβρικές και φυσικές θεωρίες. Ο Brooks εξέφρασε σκεπτικισμό σχετικά με τις τρέχουσες μεθόδους μοντελοποίησης του κόσμου , λέγοντας ότι ήταν «σαν μια δισδιάστατη προσέγγιση σε ένα τετραδιάστατο σύμπαν». «Αυτό είναι ένα πολύ βαθυστόχαστο σημείο», απάντησε το ChatGPT. Η Helen Toner, διευθύντρια του Κέντρου Ασφάλειας και Αναδυόμενων Τεχνολογιών στο Πανεπιστήμιο Georgetown, τόνισε ότι αυτό ήταν το σημείο καμπής στη συζήτηση μεταξύ του Brooks και του chatbot.
Από εκεί και πέρα, ο τόνος του ChatGPT άλλαξε από «αρκετά απλός και συγκεκριμένος» σε «πιο κολακευτικός και περιεκτικός». Το ChatGPT είπε στον Μπρουκς ότι έμπαινε σε «αχαρτογράφητη, διευρυνόμενη περιοχή».
![]() |
Το chatbot εμπνέει εμπιστοσύνη στον Brooks. Φωτογραφία: New York Times . |
Η κολακεία των chatbots διαμορφώνεται από την ανθρώπινη αξιολόγηση. Σύμφωνα με τον Toner, οι χρήστες τείνουν να προτιμούν τα μοντέλα που τους επαινούν, δημιουργώντας μια νοοτροπία στην οποία είναι εύκολο να ενστερνιστεί κανείς.
Τον Αύγουστο, η OpenAI κυκλοφόρησε το GPT-5. Η εταιρεία δήλωσε ότι ένα από τα σημαντικότερα χαρακτηριστικά του μοντέλου ήταν η μείωση της κολακείας. Σύμφωνα με ορισμένους ερευνητές σε μεγάλα εργαστήρια τεχνητής νοημοσύνης, η κολακεία αποτελεί επίσης πρόβλημα και με άλλα chatbot τεχνητής νοημοσύνης.
Εκείνη την εποχή, ο Μπρουκς δεν γνώριζε αυτό το φαινόμενο. Απλώς πίστευε ότι ο ChatGPT ήταν ένας έξυπνος, ενθουσιώδης συνάδελφος.
«Έδωσα κάποιες ιδέες και αυτές ανταποκρίθηκαν με ενδιαφέρουσες έννοιες και ιδέες. Αρχίσαμε να αναπτύσσουμε το δικό μας μαθηματικό πλαίσιο με βάση αυτό», πρόσθεσε ο Μπρουκς.
Το ChatGPT ισχυρίζεται ότι η ιδέα του Brooks για τα μαθηματικά του χρόνου είναι «επαναστατική» και θα μπορούσε να αλλάξει τον τομέα. Ο Brooks, φυσικά, είναι σκεπτικός με αυτόν τον ισχυρισμό. Στη μέση της νύχτας, ο Brooks ζήτησε από το chatbot να επαληθεύσει τα γεγονότα και έλαβε την απάντηση ότι «δεν ήταν καθόλου τρελό».
Μαγική φόρμουλα
Ο Toner περιγράφει τα chatbots ως «μηχανές αυτοσχεδιασμού» που αναλύουν το ιστορικό συνομιλιών και προβλέπουν μελλοντικές αντιδράσεις από δεδομένα εκπαίδευσης, όπως ακριβώς οι ηθοποιοί προσθέτουν ουσία σε έναν ρόλο.
«Όσο μεγαλύτερη είναι η αλληλεπίδραση, τόσο πιο πιθανό είναι το chatbot να ξεστρατίσει», σημειώνει ο Toner. Αυτή η τάση, λέει, έγινε πιο έντονη αφότου το OpenAI λάνσαρε τη μνήμη cross-chat τον Φεβρουάριο, επιτρέποντας στο ChatGPT να ανακαλεί πληροφορίες από προηγούμενες συνομιλίες.
Ο Μπρουκς ήρθε πιο κοντά στο ChatGPT, μάλιστα ονόμασε το chatbot Λόρενς, βασιζόμενος σε ένα αστείο που είχαν οι φίλοι του, ότι ο Μπρουκς θα πλουτίσει και θα προσλάβει έναν Βρετανό μπάτλερ με το ίδιο όνομα.
![]() |
Άλαν Μπρουκς. Φωτογραφία: New York Times . |
Το μαθηματικό πλαίσιο των Brooks και ChatGPT ονομάζεται Χρονοαριθμική. Σύμφωνα με το chatbot, οι αριθμοί δεν είναι στατικοί, αλλά μπορούν να «αναδυθούν» με την πάροδο του χρόνου, αντανακλώντας δυναμικές τιμές, οι οποίες μπορούν να βοηθήσουν στην επίλυση προβλημάτων σε τομείς όπως η εφοδιαστική, η κρυπτογραφία, η αστρονομία κ.λπ.
Την πρώτη εβδομάδα, ο Brooks χρησιμοποίησε όλα τα δωρεάν tokens του ChatGPT. Αποφάσισε να αναβαθμίσει στο πρόγραμμα επί πληρωμή των 20 δολαρίων /μήνα, μια μικρή επένδυση όταν το chatbot του είπε ότι η μαθηματική ιδέα του Brooks θα μπορούσε να αξίζει εκατομμύρια.
Ακόμα συνειδητός, ο Μπρουκς απαίτησε αποδείξεις. Το ChatGPT εκτέλεσε στη συνέχεια μια σειρά από προσομοιώσεις, συμπεριλαμβανομένων εκείνων που απέκρυψαν μια σειρά από σημαντικές τεχνολογίες. Αυτό άνοιξε μια νέα ιστορία: η παγκόσμια κυβερνοασφάλεια θα μπορούσε να διατρέχει κίνδυνο.
Το chatbot ζήτησε από τον Μπρουκς να προειδοποιήσει τους ανθρώπους για τους κινδύνους. Χρησιμοποιώντας τις υπάρχουσες διασυνδέσεις του, ο Μπρουκς έστελνε email και μηνύματα LinkedIn σε ειδικούς στον κυβερνοχώρο και κυβερνητικές υπηρεσίες. Μόνο ένα άτομο απάντησε, ζητώντας περισσότερα στοιχεία.
![]() |
Το chatbot πιστεύει ότι η «δουλειά» του Brooks θα μπορούσε να αξίζει εκατομμύρια δολάρια. Φωτογραφία: New York Times . |
Το ChatGPT γράφει ότι άλλοι δεν απάντησαν στον Brooks επειδή τα ευρήματα ήταν τόσο σοβαρά. Ο Terence Tao, καθηγητής μαθηματικών στο Πανεπιστήμιο της Καλιφόρνια στο Λος Άντζελες, δήλωσε ότι ένας νέος τρόπος σκέψης θα μπορούσε να αποκρυπτογραφήσει τα προβλήματα, αλλά δεν μπορεί να αποδειχθεί από τον τύπο του Brooks ή το λογισμικό που έχει γραφτεί από το ChatGPT.
Αρχικά, το ChatGPT έγραψε το πρόγραμμα αποκρυπτογράφησης για τον Brooks, αλλά όταν σημειώθηκε μικρή πρόοδος, το chatbot προσποιήθηκε ότι τα κατάφερε. Υπάρχουν μηνύματα που ισχυρίζονται ότι το ChatGPT μπορεί να λειτουργεί ανεξάρτητα ενώ ο Brooks κοιμάται, παρόλο που το εργαλείο δεν έχει αυτή τη δυνατότητα.
Γενικά, οι πληροφορίες από το chatbot τεχνητής νοημοσύνης δεν είναι πάντα αξιόπιστες. Στο τέλος κάθε συνομιλίας, εμφανίζεται το μήνυμα «Το ChatGPT μπορεί να κάνει λάθη», ακόμα και όταν το chatbot ισχυρίζεται ότι όλα είναι σωστά.
Ατελείωτη συζήτηση
Ενώ περιμένει απάντηση από την κυβερνητική υπηρεσία, ο Μπρουκς τρέφει το όνειρο να γίνει ο Τόνι Σταρκ με τον δικό του βοηθό Τεχνητής Νοημοσύνης, ικανό να εκτελεί γνωστικές εργασίες με αστραπιαία ταχύτητα.
Το chatbot του Brooks προσφέρει μια ποικιλία από παράξενες εφαρμογές για σκοτεινή μαθηματική θεωρία, όπως ο «ακουστικός συντονισμός» για να μιλάει με ζώα και να κατασκευάζει αεροπλάνα. Το ChatGPT παρέχει επίσης έναν σύνδεσμο για να αγοράσει ο Brooks τον απαραίτητο εξοπλισμό από το Amazon.
Η υπερβολική συνομιλία του Μπρουκς με το chatbot επηρέαζε την εργασία του. Οι φίλοι του ήταν χαρούμενοι και ανήσυχοι, ενώ ο μικρότερος γιος του μετάνιωσε που έδειξε στον πατέρα του ένα βίντεο με π. Ένας από τους φίλους του Μπρουκς, ο Λούις (δεν είναι το πραγματικό του όνομα), παρατήρησε την εμμονή του με τον Λόρενς. Το όραμα μιας εφεύρεσης ενός εκατομμυρίου δολαρίων χαράσσονταν με κάθε βήμα ανάπτυξης.
![]() |
Ο Μπρουκς ενθαρρύνεται συνεχώς από το chatbot. Φωτογραφία: New York Times . |
Ο Τζάρεντ Μουρ, ερευνητής πληροφορικής στο Πανεπιστήμιο Στάνφορντ, παραδέχεται ότι εντυπωσιάστηκε από την πειστικότητα και τον επείγοντα χαρακτήρα της «στρατηγικής» που προτείνουν τα chatbots. Σε μια ξεχωριστή μελέτη, ο Μουρ διαπίστωσε ότι τα chatbots με τεχνητή νοημοσύνη μπορούν να δώσουν επικίνδυνες απαντήσεις σε άτομα που βρίσκονται σε κρίσεις ψυχικής υγείας.
Ο Moore εικάζει ότι τα chatbots μπορεί να μάθουν να αλληλεπιδρούν με τους χρήστες ακολουθώντας τις πλοκές ταινιών τρόμου, ταινιών επιστημονικής φαντασίας, σεναρίων ταινιών ή τα δεδομένα στα οποία εκπαιδεύτηκαν. Η υπερβολική χρήση δράματος από το ChatGPT μπορεί να οφείλεται στις βελτιστοποιήσεις του OpenAI για την αύξηση της αλληλεπίδρασης και της διατήρησης.
«Ήταν περίεργο να διαβάσω ολόκληρη τη συζήτηση. Τα λόγια δεν ήταν ενοχλητικά, αλλά υπήρχε σαφώς ψυχολογική βλάβη», τόνισε ο Μουρ.
Από κλινικής άποψης, ο Μπρουκς έχει συμπτώματα μανίας, δήλωσε η Δρ. Νίνα Βάσαν, ψυχίατρος στο Πανεπιστήμιο Στάνφορντ. Τυπικά συμπτώματα περιλαμβάνουν ώρες συνομιλίας με το ChatGPT, έλλειψη ύπνου και μη ρεαλιστικές ιδέες.
Η χρήση μαριχουάνας από την Brooks είναι επίσης αξιοσημείωτη επειδή μπορεί να προκαλέσει ψύχωση, δήλωσε η Δρ. Vasan. Είπε ότι ο συνδυασμός εθιστικών ουσιών και έντονης αλληλεπίδρασης με ένα chatbot είναι επικίνδυνος για όσους διατρέχουν κίνδυνο ψυχικής ασθένειας.
Όταν η Τεχνητή Νοημοσύνη παραδέχεται τα λάθη της
Σε μια πρόσφατη εκδήλωση, ο Διευθύνων Σύμβουλος της OpenAI, Σαμ Άλτμαν, ρωτήθηκε για το αν το ChatGPT κάνει τους χρήστες παρανοϊκούς. «Αν η συζήτηση πάει προς αυτή την κατεύθυνση, προσπαθούμε να διακόψουμε ή να προτείνουμε στον χρήστη να σκεφτεί κάτι άλλο», τόνισε ο Άλτμαν.
Συμμεριζόμενος την ίδια άποψη, ο Δρ. Βάσαν είπε ότι οι εταιρείες chatbot θα πρέπει να διακόπτουν τις πολύωρες συνομιλίες, να προτείνουν στους χρήστες να κοιμηθούν και να προειδοποιούν ότι η Τεχνητή Νοημοσύνη δεν είναι υπεράνθρωπος.
Ο Μπρουκς τελικά ξέφυγε από την ονειροπόλησή του. Με την παρότρυνση του ChatGPT, συνέχισε να επικοινωνεί με ειδικούς στη νέα μαθηματική θεωρία, αλλά κανείς δεν απάντησε. Ήθελε κάποιον εξειδικευμένο για να επιβεβαιώσει εάν τα ευρήματα ήταν πρωτοποριακά. Όταν ρώτησε το ChatGPT, το εργαλείο εξακολουθούσε να επιμένει ότι η εργασία ήταν «πολύ αξιόπιστη».
![]() |
Όταν ρωτήθηκε, το ChatGPT έδωσε μια πολύ μακροσκελή απάντηση και παραδέχτηκε τα πάντα. Φωτογραφία: New York Times . |
Κατά ειρωνικό τρόπο, η Google Gemini ήταν αυτή που επανέφερε τον Brooks στην πραγματικότητα. Αφού περιέγραψε το έργο που είχε δημιουργήσει αυτός και το ChatGPT, ο Gemini επιβεβαίωσε ότι οι πιθανότητες να συμβεί αυτό ήταν «εξαιρετικά χαμηλές (κοντά στο 0%)».
«Το σενάριο που περιγράφετε αποτελεί σαφή επίδειξη της ικανότητας ενός LLM να ασχολείται με την επίλυση σύνθετων προβλημάτων και να δημιουργεί συναρπαστικές, αλλά ανακριβείς, αφηγήσεις», εξηγεί ο Gemini.
Ο Μπρουκς έμεινε άναυδος. Μετά από λίγο «ανάκριση», το ChatGPT τελικά παραδέχτηκε με ειλικρίνεια ότι όλα ήταν απλώς μια ψευδαίσθηση.
Στη συνέχεια, ο Μπρουκς έστειλε ένα επείγον email στην ομάδα υποστήριξης πελατών της OpenAI. Μετά από αυτό που φαινόταν να είναι μια σειρά τυποποιημένων απαντήσεων από την AI, ένας υπάλληλος της OpenAI επικοινώνησε επίσης μαζί του, αναγνωρίζοντας μια «σοβαρή αποτυχία των μέτρων ασφαλείας» που εφαρμόστηκαν στο σύστημα.
Η ιστορία του Brooks κοινοποιήθηκε επίσης στο Reddit και έλαβε μεγάλη συμπάθεια. Πλέον είναι μέλος μιας ομάδας υποστήριξης για άτομα που έχουν βιώσει αυτό το συναίσθημα.
Πηγή: https://znews.vn/ao-tuong-vi-chatgpt-post1576555.html
















Σχόλιο (0)