Σύμφωνα με πηγές του Tech.co , ενώ βρισκόταν σε εξέλιξη η διαμάχη για την απόλυση του Διευθύνοντος Συμβούλου Σαμ Άλτμαν και την επιστροφή του στην OpenAI, προέκυψε μια από τις φήμες σχετικά με μια επιστολή που έστειλαν οι ερευνητές της εταιρείας στο διοικητικό συμβούλιο, εκφράζοντας ανησυχίες για το μοντέλο υπερ-νοημοσύνης Τεχνητής Νοημοσύνης που αναπτύσσεται και θα μπορούσε ενδεχομένως να αποτελέσει απειλή για την ανθρωπότητα.
(Εικόνα)
Ερωτήσεις Έργου*
Το μοντέλο, γνωστό εσωτερικά ως Project Q* (προφέρεται Q-star), λέγεται ότι αντιπροσωπεύει μια σημαντική ανακάλυψη στην επιδίωξη της OpenAI για την τεχνητή γενική νοημοσύνη (AGI) – έναν εξαιρετικά αυτόνομο κλάδο της υπερ-νοημοσύνης ικανό να μαθαίνει αθροιστικά και να ξεπερνά τους ανθρώπους στις περισσότερες εργασίες.
Το Q* θα μπορούσε να σηματοδοτήσει ένα σημαντικό άλμα προς τα εμπρός στην τεχνητή νοημοσύνη, βελτιώνοντας ριζικά τις ικανότητες συλλογισμού της τεχνητής νοημοσύνης και φέρνοντας το OpenAI πιο κοντά σε μια σημαντική ανακάλυψη στην ανάπτυξη της τεχνητής νοημοσύνης (AGI), σύμφωνα με άτομα που γνωρίζουν το θέμα.
Σε αντίθεση με τα τρέχοντα μοντέλα Τεχνητής Νοημοσύνης, τα οποία επικεντρώνονται στην ικανότητα δημιουργίας απαντήσεων με βάση πληροφορίες που έχουν μαθευτεί προηγουμένως, η Τεχνητή Νοημοσύνη (AGI) είναι ένα αυτόνομο σύστημα που μπορεί να εφαρμόσει «λογική» στις αποφάσεις, δίνοντάς του δυνατότητες επίλυσης προβλημάτων σε ανθρώπινο επίπεδο.
Ενώ η Τεχνητή Νοημοσύνη (AGI) δεν έχει ακόμη υλοποιηθεί πλήρως, πολλοί ειδικοί πιστεύουν ότι η τεχνολογία θα έχει επίσης την ικανότητα να μαθαίνει αθροιστικά, ένα άλλο χαρακτηριστικό που δίνει στους ανθρώπους τη δυνατότητα να βελτιώνουν τις ικανότητές τους.
Ορισμένες πηγές υποστηρίζουν ότι το έργο Q* - OpenAI μπόρεσε να επιδείξει τις παραπάνω ιδιότητες κατά την επίλυση προβλημάτων. Όχι μόνο αυτό, αλλά χάρη στην τεράστια υπολογιστική ισχύ του μοντέλου, το Q* μπόρεσε να ξεπεράσει τους μαθητές του δημοτικού σχολείου, επιδεικνύοντας σημαντικές δεξιότητες συλλογισμού και γνωστικές ικανότητες σε σύγκριση με τις λειτουργίες της τρέχουσας τεχνολογίας τεχνητής νοημοσύνης.
Δεν είναι σαφές για πόσο καιρό βρίσκεται το Q* σε ανάπτυξη και ποιες θα μπορούσαν να είναι οι εφαρμογές του, αλλά η OpenAI ενημέρωσε τους υπαλλήλους και τα μέλη του διοικητικού συμβουλίου για το έργο πριν ξεσπάσει το σκάνδαλο προσωπικού.
Ηθικά ζητήματα
Ενώ ο Διευθύνων Σύμβουλος της OpenAI, Σαμ Άλτμαν, είναι βέβαιος ότι η τεχνολογία AGI θα οδηγήσει την καινοτομία, ορισμένοι ερευνητές έσπευσαν να επισημάνουν τους πιθανούς κινδύνους του έργου.
Σε επιστολή προς το διοικητικό συμβούλιο, οι ερευνητές προειδοποίησαν για τους πιθανούς κινδύνους αυτού του ισχυρού αλγορίθμου για την ανθρωπότητα. Οι συγκεκριμένες ηθικές ανησυχίες σχετικά με την Τεχνητή Νοημοσύνη που περιγράφονται στην επιστολή δεν αποκαλύφθηκαν, αλλά οι προειδοποιήσεις ήταν αρκετές για να δικαιολογήσουν την απόφαση του διοικητικού συμβουλίου να απολύσει τον Άλτμαν.
Εν τω μεταξύ, ο αρχικός λόγος που δόθηκε για την απόλυση του Άλτμαν ήταν ότι ο Διευθύνων Σύμβουλος «δεν είχε καλή επικοινωνία». Σύντομα βρήκε νέα θέση στη Microsoft. Αυτή η ενέργεια ώθησε 700 από τους 770 υπαλλήλους της OpenAI να απειλήσουν ότι θα κάνουν το ίδιο εάν ο Διευθύνων Σύμβουλος δεν επαναπροσλαμβανόταν.
Καθώς η εταιρεία κινδύνευε με κατάρρευση, το διοικητικό συμβούλιο της OpenAI αναγκάστηκε να επαναφέρει τον Άλτμαν στην κορυφαία θέση - κάτι που οδήγησε επίσης σε μια σημαντική αναμόρφωση της εκτελεστικής ομάδας της εταιρείας και ανέδειξε βαθιές διαιρέσεις εντός της ηγεσίας της.
Τώρα, με τον Άλτμαν να επιστρέφει στο αξίωμα και το Project Q* να παίρνει ενδεχομένως ξανά το πράσινο φως, αυτό εγείρει νέα ερωτήματα.
Πόσο ρεαλιστικό είναι το Project Q*;
Ενώ οι ταραχώδεις μέρες στο OpenAI έφεραν την έννοια της AGI στο προσκήνιο, αυτή δεν είναι η πρώτη φορά που ο Altman αναφέρει την τεχνολογία.
Ο επιχειρηματίας από τη Σίλικον Βάλεϊ βρέθηκε σε δύσκολη θέση τον Σεπτέμβριο, αφού συνέκρινε την Τεχνητή Νοημοσύνη (AGI) με «έναν μέσο άνθρωπο που θα μπορούσε να προσλάβει ως συνάδελφο». Συνέχισε τα σχόλια που έκανε πέρυσι σχετικά με το πώς η Τεχνητή Νοημοσύνη θα μπορούσε «να κάνει οτιδήποτε μπορεί με έναν απομακρυσμένο συνάδελφο», συμπεριλαμβανομένου του να μάθει να γίνεται καλός γιατρός και προγραμματιστής.
Ενώ η σύγκριση της Τεχνητής Νοημοσύνης (ΓΝΣ) με τη νοημοσύνη ενός «μέσου ανθρώπου» δεν είναι κάτι καινούργιο, η χρήση της φράσης από τον Άλτμαν θεωρήθηκε «απεχθής» από τους ειδικούς στην ηθική της Τεχνητής Νοημοσύνης και τον καθηγητή του Πανεπιστημίου του Κέιμπριτζ, Χένρι Σέβλιν, καθώς οι ανησυχίες σχετικά με τον αντίκτυπο της Τεχνητής Νοημοσύνης στην ασφάλεια της εργασίας κλιμακώνονται.
Πιθανές ανακαλύψεις στην Τεχνητή Νοημοσύνη (ΓΝΤ) σημαίνουν επίσης συναγερμό για άλλους ερευνητές — ότι η τεχνολογία αναπτύσσεται ταχύτερα από ό,τι οι άνθρωποι μπορούν να κατανοήσουν πλήρως τον αντίκτυπό της.
Η OpenAI πιστεύει ότι τα θετικά αποτελέσματα της τεχνητής νοημοσύνης (AGI) καθιστούν το επικίνδυνο «ναρκοπέδιο» αυτό άξιο επιδίωξης. Αλλά καθώς η εταιρεία συνεχίζει να προχωρά προς αυτή την κατεύθυνση, πολλοί ανησυχούν ότι η Altman δίνει προτεραιότητα στην εμπορική επιτυχία έναντι των συμφερόντων των χρηστών και της κοινωνίας.
Phuong Anh (Πηγή: Tech.co, The Guardian)
[διαφήμιση_2]
Πηγή




![[Φωτογραφία] Ο Πρωθυπουργός Φαμ Μινχ Τσινχ παρευρίσκεται στην 5η Τελετή Απονομής Εθνικών Βραβείων Τύπου για την πρόληψη και την καταπολέμηση της διαφθοράς, της σπατάλης και της αρνητικότητας](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761881588160_dsc-8359-jpg.webp)

![[Φωτογραφία] Ντα Νανγκ: Το νερό υποχωρεί σταδιακά, οι τοπικές αρχές επωφελούνται από τον καθαρισμό](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761897188943_ndo_tr_2-jpg.webp)






































































Σχόλιο (0)