Τα προγράμματα τεχνητής νοημοσύνης έχουν σημειώσει πολλές επιτυχίες τα τελευταία χρόνια - Φωτογραφία: REUTERS
Δεν μπορούμε να παρατηρήσουμε ολόκληρη τη διαδικασία, από τα δεδομένα εισόδου έως τα αποτελέσματα εξόδου των μεγάλων γλωσσικών μοντέλων (LLM).
Για να γίνει πιο κατανοητό, οι επιστήμονες έχουν χρησιμοποιήσει κοινούς όρους όπως «συλλογιστική» για να περιγράψουν πώς λειτουργούν αυτά τα προγράμματα. Λένε επίσης ότι τα προγράμματα μπορούν να «σκέφτονται», να «λογίζονται» και να «κατανοούν» τον τρόπο που το κάνουν οι άνθρωποι.
Υπερεκτίμηση των δυνατοτήτων της Τεχνητής Νοημοσύνης
Τα τελευταία δύο χρόνια, πολλά στελέχη Τεχνητής Νοημοσύνης έχουν χρησιμοποιήσει υπερβολές για να υπερτονίσουν απλά τεχνικά επιτεύγματα, σύμφωνα με το ZDNET στις 6 Σεπτεμβρίου.
Τον Σεπτέμβριο του 2024, η OpenAI ανακοίνωσε ότι το μοντέλο συλλογισμού o1 «χρησιμοποιεί μια αλυσίδα συμπερασμάτων κατά την επίλυση προβλημάτων, παρόμοια με τον τρόπο που οι άνθρωποι σκέφτονται για μεγάλο χρονικό διάστημα όταν αντιμετωπίζουν δύσκολα ερωτήματα».
Ωστόσο, οι επιστήμονες της Τεχνητής Νοημοσύνης αντιτίθενται. Πιστεύουν ότι η Τεχνητή Νοημοσύνη δεν διαθέτει ανθρώπινη νοημοσύνη.
Μια μελέτη στη βάση δεδομένων arXiv από μια ομάδα συγγραφέων στο Πανεπιστήμιο της Αριζόνα (ΗΠΑ) επαλήθευσε την ικανότητα συλλογισμού της Τεχνητής Νοημοσύνης με ένα απλό πείραμα.
Τα αποτελέσματα έδειξαν ότι «η εξαγωγή συμπερασμάτων μέσω αλυσίδας σκέψης είναι μια εύθραυστη ψευδαίσθηση», όχι ένας πραγματικός λογικός μηχανισμός, αλλά απλώς μια εξελιγμένη μορφή αντιστοίχισης προτύπων.
Ο όρος «αλυσίδα σκέψης» (CoT) επιτρέπει στην Τεχνητή Νοημοσύνη όχι μόνο να καταλήξει σε μια τελική απάντηση, αλλά και να παρουσιάσει κάθε βήμα της λογικής συλλογιστικής, όπως στα μοντέλα GPT-o1 ή DeepSeek V1.
Απεικόνιση του γλωσσικού μοντέλου GPT-2 του OpenAI - Φωτογραφία: ECHOCRAFTAI
Δείτε τι κάνει στην πραγματικότητα η Τεχνητή Νοημοσύνη
Οι αναλύσεις μεγάλης κλίμακας δείχνουν ότι η LLM τείνει να βασίζεται σε σημασιολογία και επιφανειακές ενδείξεις παρά σε διαδικασίες λογικής συλλογισμού, λένε οι ερευνητές.
«Το LLM κατασκευάζει επιφανειακές λογικές αλυσίδες βασισμένες σε μαθησιακές συσχετίσεις εισροών, συχνά αποτυγχάνοντας σε εργασίες που αποκλίνουν από τις συμβατικές μεθόδους συλλογισμού ή τα γνωστά μοτίβα», εξηγεί η ομάδα.
Για να ελέγξει την υπόθεση ότι το LLM αντιστοιχούσε μόνο σε μοτίβα και δεν έκανε στην πραγματικότητα συμπεράσματα, η ομάδα εκπαίδευσε το GPT-2, ένα μοντέλο ανοιχτού κώδικα που κυκλοφόρησε από την OpenAI το 2019.
Το μοντέλο αρχικά εκπαιδεύτηκε σε πολύ απλές εργασίες σχετικά με τα 26 αγγλικά γράμματα, όπως η αντιστροφή ορισμένων γραμμάτων, για παράδειγμα η μετατροπή του "APPLE" σε "EAPPL". Στη συνέχεια, η ομάδα άλλαξε την εργασία και ζήτησε από το GPT-2 να την χειριστεί.
Τα αποτελέσματα δείχνουν ότι για εργασίες που δεν περιλαμβάνονται στα δεδομένα εκπαίδευσης, το GPT-2 δεν μπορεί να τις λύσει με ακρίβεια χρησιμοποιώντας το CoT.
Αντίθετα, το μοντέλο προσπαθεί να εφαρμόσει τις πιο παρόμοιες μαθησιακές εργασίες. Έτσι, τα «συμπεράσματά» του μπορεί να ακούγονται λογικά, αλλά τα αποτελέσματα είναι συχνά λανθασμένα.
Η ομάδα κατέληξε στο συμπέρασμα ότι δεν πρέπει κανείς να βασίζεται υπερβολικά ή να εμπιστεύεται τυφλά τις απαντήσεις του LLM, καθώς μπορούν να παράγουν «ανοησίες που ακούγονται πολύ πειστικές».
Τόνισαν επίσης την ανάγκη να κατανοήσουμε την πραγματική φύση της Τεχνητής Νοημοσύνης, να αποφύγουμε τον υπερβολικό ενθουσιασμό και να σταματήσουμε να προωθούμε ότι η Τεχνητή Νοημοσύνη έχει την ικανότητα να συλλογίζεται όπως οι άνθρωποι.
Πηγή: https://tuoitre.vn/nghien-cuu-moi-ai-khong-suy-luan-nhu-con-nguoi-20250907152120294.htm
Σχόλιο (0)