Το chatbot της OpenAI συνεχίζει να βελτιώνεται μέσω νέων τεχνολογιών. Φωτογραφία: New York Times . |
Τον Σεπτέμβριο του 2024, η OpenAI κυκλοφόρησε μια έκδοση του ChatGPT που ενσωματώνει το μοντέλο o1, το οποίο μπορεί να συλλογιστεί σε εργασίες που σχετίζονται με τα μαθηματικά, τις επιστήμες και τον προγραμματισμό υπολογιστών.
Σε αντίθεση με την προηγούμενη έκδοση του ChatGPT, η νέα τεχνολογία θα χρειαστεί χρόνο για να «σκεφτεί» λύσεις σε σύνθετα προβλήματα προτού δώσει μια απάντηση.
Μετά το OpenAI, πολλοί ανταγωνιστές όπως η Google, η Anthropic και η DeepSeek εισήγαγαν επίσης παρόμοια μοντέλα συλλογισμού. Αν και δεν είναι τέλεια, εξακολουθεί να αποτελεί μια τεχνολογία βελτίωσης chatbot στην οποία εμπιστεύονται πολλοί προγραμματιστές.
Πώς η Τεχνητή Νοημοσύνη Λόγοι
Βασικά, η συλλογιστική σημαίνει ότι το chatbot μπορεί να αφιερώσει περισσότερο χρόνο στην επίλυση του προβλήματος που παρουσιάζει ο χρήστης.
«Η συλλογιστική είναι ο τρόπος με τον οποίο το σύστημα εκτελεί πρόσθετη εργασία αφού λάβει μια ερώτηση», δήλωσε στους New York Times ο Dan Klein, καθηγητής πληροφορικής στο Πανεπιστήμιο της Καλιφόρνια.
Το σύστημα συλλογισμού μπορεί να αναλύσει ένα πρόβλημα σε επιμέρους βήματα ή να το λύσει μέσω δοκιμής και λάθους.
Όταν κυκλοφόρησε για πρώτη φορά, το ChatGPT μπορούσε να απαντήσει σε ερωτήσεις άμεσα, εξάγοντας και συνθέτοντας πληροφορίες. Εν τω μεταξύ, το σύστημα συλλογισμού χρειαζόταν μερικά δευτερόλεπτα (ή και λεπτά) ακόμα για να λύσει το πρόβλημα και να δώσει μια απάντηση.
![]() |
Παράδειγμα της διαδικασίας συλλογισμού του μοντέλου o1 σε ένα chatbot εξυπηρέτησης πελατών. Φωτογραφία: OpenAI . |
Σε ορισμένες περιπτώσεις, το σύστημα συλλογισμού θα αλλάξει την προσέγγισή του στο πρόβλημα, βελτιώνοντας συνεχώς τη λύση. Εναλλακτικά, το μοντέλο μπορεί να δοκιμάσει πολλαπλές λύσεις πριν καταλήξει στη βέλτιστη επιλογή ή να ελέγξει την ακρίβεια προηγούμενων απαντήσεων.
Γενικά, το σύστημα συλλογισμού θα εξετάσει όλες τις πιθανές απαντήσεις στην ερώτηση. Αυτό είναι σαν ένας μαθητής δημοτικού που γράφει πολλές πιθανές απαντήσεις σε ένα κομμάτι χαρτί πριν επιλέξει τον καταλληλότερο τρόπο για να λύσει ένα μαθηματικό πρόβλημα.
Σύμφωνα με τους New York Times , η Τεχνητή Νοημοσύνη είναι πλέον ικανή να συλλογίζεται για οποιοδήποτε θέμα. Ωστόσο, η εργασία θα είναι πιο αποτελεσματική με ερωτήσεις που σχετίζονται με τα μαθηματικά, τις επιστήμες και τον προγραμματισμό υπολογιστών.
Πώς εκπαιδεύεται το θεωρητικό σύστημα;
Σε ένα τυπικό chatbot, οι χρήστες μπορούν ακόμα να ζητήσουν μια εξήγηση της διαδικασίας ή να ελέγξουν την ορθότητα μιας απάντησης. Στην πραγματικότητα, πολλά σύνολα δεδομένων εκπαίδευσης ChatGPT περιλαμβάνουν ήδη μια διαδικασία επίλυσης προβλημάτων.
Ένα σύστημα συλλογισμού προχωρά ακόμη παραπέρα όταν μπορεί να εκτελέσει μια ενέργεια χωρίς να χρειάζεται να τη ζητήσει ο χρήστης. Η διαδικασία είναι πιο περίπλοκη και εκτεταμένη. Οι εταιρείες χρησιμοποιούν τη λέξη «συλλογισμός» επειδή το σύστημα λειτουργεί με παρόμοιο τρόπο με την ανθρώπινη σκέψη.
Πολλές εταιρείες όπως η OpenAI στοιχηματίζουν ότι τα συστήματα συλλογισμού είναι ο καλύτερος τρόπος για τη βελτίωση των chatbots. Για χρόνια, πίστευαν ότι τα chatbots θα λειτουργούσαν καλύτερα αν εκπαιδεύονταν σε όσο το δυνατόν περισσότερες πληροφορίες στο διαδίκτυο.
Μέχρι το 2024, τα συστήματα τεχνητής νοημοσύνης θα έχουν καταναλώσει σχεδόν όλο το κείμενο που είναι διαθέσιμο στο διαδίκτυο. Αυτό σημαίνει ότι οι εταιρείες θα πρέπει να βρουν νέες λύσεις για την αναβάθμιση των chatbots, συμπεριλαμβανομένων των συστημάτων συλλογισμού.
![]() |
Η νεοσύστατη εταιρεία DeepSeek κάποτε «προκάλεσε αναταραχή» με ένα μοντέλο συλλογισμού που κόστιζε λιγότερο από το OpenAI. Φωτογραφία: Bloomberg . |
Από πέρυσι, εταιρείες όπως η OpenAI έχουν επικεντρωθεί σε μια τεχνική που ονομάζεται ενισχυτική μάθηση, μια διαδικασία που συνήθως διαρκεί αρκετούς μήνες, κατά την οποία η Τεχνητή Νοημοσύνη μαθαίνει συμπεριφορά μέσω δοκιμών και σφαλμάτων.
Για παράδειγμα, λύνοντας χιλιάδες προβλήματα, το σύστημα μπορεί να μάθει τη βέλτιστη μέθοδο για να λάβει τη σωστή απάντηση. Από εκεί, οι ερευνητές κατασκεύασαν πολύπλοκους μηχανισμούς ανατροφοδότησης που βοηθούν το σύστημα να μάθει τις σωστές και τις λάθος λύσεις.
«Είναι σαν να εκπαιδεύεις έναν σκύλο. Αν είναι καλός, του δίνεις μια λιχουδιά. Αν είναι κακός, λες, "Αυτός ο σκύλος είναι κακός"», δήλωσε ο Τζέρι Τουόρεκ, ερευνητής στην OpenAI.
Είναι η Τεχνητή Νοημοσύνη το μέλλον;
Σύμφωνα με τους New York Times , η ενισχυτική μάθηση λειτουργεί καλά με ερωτήσεις στα μαθηματικά, τις φυσικές επιστήμες και τον προγραμματισμό υπολογιστών, όπου υπάρχουν σαφώς καθορισμένες σωστές ή λάθος απαντήσεις.
Αντιθέτως, η ενισχυτική μάθηση δεν είναι τόσο αποτελεσματική στη δημιουργική γραφή, τη φιλοσοφία ή την ηθική, τομείς όπου είναι δύσκολο να διακρίνει κανείς μεταξύ καλού και κακού. Ωστόσο, οι ερευνητές λένε ότι η τεχνική μπορεί να βελτιώσει την απόδοση της Τεχνητής Νοημοσύνης, ακόμη και σε ερωτήσεις εκτός των μαθηματικών.
«Τα συστήματα θα μάθουν τις διαδρομές που οδηγούν σε θετικά και αρνητικά αποτελέσματα», δήλωσε ο Jared Kaplan, Chief Science Officer στην Anthropic.
![]() |
Ιστότοπος της Anthropic, της νεοσύστατης επιχείρησης που κατέχει το μοντέλο τεχνητής νοημοσύνης Claude. Φωτογραφία: Bloomberg . |
Είναι σημαντικό να σημειωθεί ότι η ενισχυτική μάθηση και τα συστήματα συλλογισμού είναι δύο διαφορετικές έννοιες. Συγκεκριμένα, η ενισχυτική μάθηση είναι μια μέθοδος δημιουργίας συστημάτων συλλογισμού. Αυτό είναι το τελικό στάδιο εκπαίδευσης για τα chatbots ώστε να αποκτήσουν δυνατότητες συλλογισμού.
Επειδή είναι ακόμη σχετικά καινούργια, οι επιστήμονες δεν μπορούν να είναι σίγουροι αν τα chatbot συλλογισμού ή η ενισχυτική μάθηση μπορούν να βοηθήσουν την Τεχνητή Νοημοσύνη να σκέφτεται σαν τους ανθρώπους. Είναι σημαντικό να σημειωθεί ότι πολλές από τις τρέχουσες τάσεις στην εκπαίδευση στην Τεχνητή Νοημοσύνη εξελίσσονται πολύ γρήγορα στην αρχή και στη συνέχεια σταδιακά εξομαλύνονται.
Επιπλέον, τα chatbots που συλλογίζονται μπορούν να κάνουν λάθη. Με βάση την πιθανότητα, το σύστημα θα επιλέξει τη διαδικασία που είναι πιο παρόμοια με τα δεδομένα που έχει μάθει, είτε προέρχονται από το διαδίκτυο είτε μέσω ενισχυτικής μάθησης. Επομένως, τα chatbots μπορούν να επιλέξουν λάθος ή παράλογη λύση.
Πηγή: https://znews.vn/ai-ly-luan-nhu-the-nao-post1541477.html













Σχόλιο (0)