Σύμφωνα με την ανακοίνωση στο επίσημο ιστολόγιο της OpenAI, η Επιτροπή Ασφάλειας και Προστασίας θα γίνει ανεξάρτητη ομάδα εποπτείας στο πλαίσιο του διοικητικού συμβουλίου. Ο καθηγητής του Πανεπιστημίου Carnegie Mellon, Zico Kolter, θα προεδρεύει της Επιτροπής, μαζί με άλλα μέλη, όπως ο Διευθύνων Σύμβουλος της Quora, Adam D'Angelo, ο απόστρατος στρατηγός του Αμερικανικού Στρατού, Paul Nakasone, και η πρώην Εκτελεστική Αντιπρόεδρος της Sony, Nicole Seligman. Όλα αυτά τα μέλη είναι επί του παρόντος μέλη του διοικητικού συμβουλίου της OpenAI.
Μετά την παραίτηση του Άλτμαν, η επιτροπή ολοκλήρωσε την αξιολόγηση ασφάλειας του τελευταίου μοντέλου τεχνητής νοημοσύνης της εταιρείας, o1. Η ομάδα θα συνεχίσει να λαμβάνει ενημερώσεις από την ομάδα ασφάλειας και προστασίας της OpenAI και διατηρεί το δικαίωμα να καθυστερήσει την κυκλοφορία εάν δεν αντιμετωπιστούν οι ανησυχίες σχετικά με την ασφάλεια.
Σύμφωνα με την OpenAI, η Επιτροπή θα διατηρήσει σημαντικό ρόλο στην παροχή τεχνικής εποπτείας για τα τρέχοντα και μελλοντικά μοντέλα, καθώς και στην παρακολούθηση μετά την κυκλοφορία. Η εταιρεία έχει δεσμευτεί να δημιουργήσει ενσωματωμένες διαδικασίες ασφαλείας με σαφή κριτήρια αξιολόγησης, ώστε να διασφαλίσει ότι όλα τα μοντέλα τεχνητής νοημοσύνης της θα κυκλοφορήσουν με ασφάλεια.
Η απόφαση του Άλτμαν να αποχωρήσει από την επιτροπή έρχεται μετά την αποστολή επιστολής από μια ομάδα πέντε Αμερικανών γερουσιαστών ζητώντας από την OpenAI να διευκρινίσει τις πολιτικές ασφαλείας της. Σχεδόν το ήμισυ του προσωπικού της OpenAI, το οποίο επικεντρώθηκε στη μελέτη των μακροπρόθεσμων κινδύνων της Τεχνητής Νοημοσύνης, έχει αποχωρήσει από την εταιρεία τα τελευταία χρόνια. Πρώην ερευνητές της OpenAI έχουν επικρίνει την Άλτμαν επειδή δεν υποστηρίζει την ισχυρή ρύθμιση της Τεχνητής Νοημοσύνης, αλλά αντίθετα ευνοεί πολιτικές που προωθούν τους εμπορικούς στόχους της εταιρείας.
Πίστωση εικόνας: Justin Sullivan / Getty Images
Επιπλέον, η OpenAI έχει αυξήσει σημαντικά τις δαπάνες της για άσκηση πίεσης στο Κογκρέσο των ΗΠΑ. Η εταιρεία έχει προϋπολογίσει 800.000 δολάρια για το πρώτο εξάμηνο του 2024, σε σύγκριση με 260.000 δολάρια για ολόκληρο το 2023. Ο Άλτμαν εντάχθηκε επίσης στο Συμβούλιο Ασφάλειας και Προστασίας Τεχνητής Νοημοσύνης του Υπουργείου Εσωτερικής Ασφάλειας των ΗΠΑ, όπου συνέβαλε στη διατύπωση συστάσεων σχετικά με την Τεχνητή Νοημοσύνη σε όλες τις κρίσιμες υποδομές της χώρας.
Παρόλο που ο Άλτμαν αποχώρησε από την Επιτροπή Ασφάλειας και Απορρήτου, φαίνεται ότι υπάρχουν ελάχιστα σημάδια ότι η επιτροπή θα λάβει αποφάσεις που θα μπορούσαν να εμποδίσουν σοβαρά την εμπορική πορεία της OpenAI. Τον Μάιο, η OpenAI δήλωσε ότι θα επιδιώξει να αντιμετωπίσει «βάσιμες κριτικές» για το έργο της μέσω της επιτροπής, αν και οι «βάσιμες κριτικές» είναι σε μεγάλο βαθμό υποκειμενικές.
Σε ένα κύριο άρθρο στο The Economist τον Μάιο, δύο πρώην μέλη του διοικητικού συμβουλίου της OpenAI, η Helen Toner και η Tasha McCauley, εξέφρασαν ανησυχίες σχετικά με την ικανότητα της εταιρείας να αυτοδιοικείται, υποστηρίζοντας ότι η OpenAI δεν είναι επί του παρόντος σε θέση να λογοδοτήσει υπό την πίεση του κέρδους.
Τα κέρδη γίνονται ολοένα και πιο σημαντικός μοχλός για την OpenAI. Η εταιρεία βρίσκεται στη διαδικασία άντλησης 6,5 δισεκατομμυρίων δολαρίων σε έναν νέο γύρο χρηματοδότησης που θα την αποτιμούσε σε περισσότερα από 150 δισεκατομμύρια δολάρια. Για να προσελκύσει επενδυτές, η OpenAI μπορεί να εξετάσει το ενδεχόμενο εγκατάλειψης της υβριδικής μη κερδοσκοπικής δομής της, η οποία έχει σχεδιαστεί για να περιορίζει τις αποδόσεις για τους επενδυτές, προκειμένου να διασφαλίσει τον στόχο της ανάπτυξης της Τεχνητής Νοημοσύνης για το κοινό καλό της ανθρωπότητας.
Χουνγκ Νγκουγιέν (Σύμφωνα με το TechCrunch)
[διαφήμιση_2]
Πηγή: https://www.congluan.vn/sam-altman-roi-uy-ban-an-toan-cua-openai-nhuong-quyen-cho-nhom-doc-lap-post312681.html
Σχόλιο (0)