
Τα προγράμματα τεχνητής νοημοσύνης έχουν σημειώσει πολλές σημαντικές ανακαλύψεις τα τελευταία χρόνια - Φωτογραφία: REUTERS
Δεν μπορούμε να παρατηρήσουμε ολόκληρη τη διαδικασία, από τα δεδομένα εισόδου έως τα αποτελέσματα εξόδου των μεγάλων γλωσσικών μοντέλων (LLM).
Για να γίνει πιο κατανοητό, οι επιστήμονες έχουν χρησιμοποιήσει κοινούς όρους όπως «συλλογιστική» για να περιγράψουν πώς λειτουργούν αυτά τα προγράμματα. Λένε επίσης ότι τα προγράμματα μπορούν να «σκέφτονται», να «λογίζονται» και να «κατανοούν» τον τρόπο που το κάνουν οι άνθρωποι.
Υπερβολή στις δυνατότητες της Τεχνητής Νοημοσύνης.
Τα τελευταία δύο χρόνια, πολλά στελέχη Τεχνητής Νοημοσύνης έχουν χρησιμοποιήσει υπερβολική γλώσσα για να προωθήσουν απλά τεχνικά επιτεύγματα, σύμφωνα με το ZDNET στις 6 Σεπτεμβρίου.
Τον Σεπτέμβριο του 2024, η OpenAI ανακοίνωσε ότι το μοντέλο συλλογισμού o1 «χρησιμοποιεί μια αλυσίδα συμπερασμάτων κατά την επίλυση προβλημάτων, παρόμοια με τον τρόπο που οι άνθρωποι σκέφτονται για μεγάλο χρονικό διάστημα όταν αντιμετωπίζουν δύσκολα ερωτήματα».
Ωστόσο, οι επιστήμονες της Τεχνητής Νοημοσύνης διαφωνούν. Υποστηρίζουν ότι η Τεχνητή Νοημοσύνη δεν διαθέτει ανθρώπινη νοημοσύνη.
Μια μελέτη βασισμένη στη βάση δεδομένων arXiv από μια ομάδα συγγραφέων στο Κρατικό Πανεπιστήμιο της Αριζόνα (ΗΠΑ) εξέτασε την ικανότητα συλλογισμού της Τεχνητής Νοημοσύνης μέσω ενός απλού πειράματος.
Τα αποτελέσματα έδειξαν ότι «η εξαγωγή συμπερασμάτων μέσω αλυσίδας σκέψης είναι μια εύθραυστη ψευδαίσθηση», όχι ένας πραγματικός λογικός μηχανισμός, αλλά απλώς μια εξελιγμένη μορφή αντιστοίχισης προτύπων.
Ο όρος «αλυσίδα σκέψης» (CoT) επιτρέπει στην Τεχνητή Νοημοσύνη όχι μόνο να καταλήξει σε μια τελική απάντηση, αλλά και να παρουσιάσει κάθε βήμα της λογικής συλλογιστικής, όπως στα μοντέλα GPT-o1 ή DeepSeek V1.

Απεικόνιση του γλωσσικού μοντέλου GPT-2 από το OpenAI - Φωτογραφία: ECHOCRAFTAI
Δείτε τι κάνει στην πραγματικότητα η Τεχνητή Νοημοσύνη.
Η ερευνητική ομάδα δήλωσε ότι οι αναλύσεις μεγάλης κλίμακας έδειξαν ότι η LLM τείνει να βασίζεται περισσότερο στη σημασιολογία και τις επιφανειακές ενδείξεις παρά σε διαδικασίες λογικής συλλογισμού.
«Το LLM κατασκευάζει επιφανειακές λογικές αλυσίδες βασισμένες σε μαθησιακές συσχετίσεις εισροών, συχνά αποτυγχάνοντας σε εργασίες που αποκλίνουν από τις συμβατικές μεθόδους συλλογισμού ή τα γνωστά μοτίβα», εξηγεί η ομάδα.
Για να ελέγξει την υπόθεση ότι το LLM αντιστοιχούσε μόνο σε μοτίβα και δεν έκανε στην πραγματικότητα συμπεράσματα, η ομάδα εκπαίδευσε το GPT-2, ένα μοντέλο ανοιχτού κώδικα που κυκλοφόρησε από την OpenAI το 2019.
Το μοντέλο αρχικά εκπαιδεύτηκε σε πολύ απλές εργασίες σχετικά με τα 26 αγγλικά γράμματα, όπως η αντιστροφή ορισμένων γραμμάτων, για παράδειγμα η μετατροπή του "APPLE" σε "EAPPL". Στη συνέχεια, η ομάδα άλλαξε την εργασία και ζήτησε από το GPT-2 να την χειριστεί.
Τα αποτελέσματα έδειξαν ότι για εργασίες που δεν συμπεριλήφθηκαν στα δεδομένα εκπαίδευσης, το GPT-2 δεν μπορούσε να τις λύσει με ακρίβεια χρησιμοποιώντας το CoT.
Αντίθετα, το μοντέλο επιχειρεί να εφαρμόσει τις μαθησιακές εργασίες όσο το δυνατόν πιο πιστά. Επομένως, η «συλλογιστική» του μπορεί να ακούγεται λογική, αλλά τα αποτελέσματα είναι συχνά λανθασμένα.
Η ομάδα κατέληξε στο συμπέρασμα ότι δεν πρέπει κανείς να βασίζεται υπερβολικά ή να εμπιστεύεται τυφλά τις απαντήσεις του LLM, καθώς μπορούν να παράγουν «ανοησίες που ακούγονται πολύ πειστικές».
Τόνισαν επίσης την ανάγκη να κατανοήσουμε την πραγματική φύση της Τεχνητής Νοημοσύνης, να αποφύγουμε τον υπερβολικό ενθουσιασμό και να σταματήσουμε να προωθούμε ότι η Τεχνητή Νοημοσύνη έχει την ικανότητα να συλλογίζεται όπως οι άνθρωποι.
Πηγή: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm






Σχόλιο (0)