![]() |
Το μοντέλο GPT-5.4-Cyber βοηθά τους ειδικούς να ελέγχουν για τρωτά σημεία σε συστήματα ασφαλείας. Φωτογραφία: Bloomberg . |
Η OpenAI μόλις ανακοίνωσε την έναρξη της ανάπτυξης του GPT-5.4-Cyber, μιας ειδικής έκδοσης του GPT-5.4 βελτιστοποιημένης για ασφάλεια. Αυτή η κίνηση έρχεται ακριβώς μία εβδομάδα αφότου η Anthropic κυκλοφόρησε το Mythos Preview, ένα μοντέλο τεχνητής νοημοσύνης ασφαλείας, η κυκλοφορία του οποίου περιορίστηκε λόγω της υποτιθέμενης ευπάθειάς του σε λάθος χέρια.
«Βελτιστοποιούμε τα μοντέλα μας για να εξυπηρετούν την περίπτωση χρήσης ασφάλειας, ξεκινώντας σήμερα με μια παραλλαγή του GPT-5.4 που έχει εκπαιδευτεί με έμφαση στην κυβερνοασφάλεια», ανέφερε η OpenAI σε επίσημη ανακοίνωση.
Η πρόσβαση GPT-5.4-Cyber παραχωρήθηκε σε μέλη του προγράμματος Trusted Access for Cyber το οποίο ξεκίνησε τον Φεβρουάριο με επιχορήγηση πίστωσης API ύψους 10 εκατομμυρίων δολαρίων . Αρχικά, εκατοντάδες χρήστες απέκτησαν πρόσβαση, η οποία αργότερα επεκτάθηκε σε χιλιάδες επαγγελματίες ασφαλείας.
Το ξεχωριστό χαρακτηριστικό του μοντέλου είναι η αντίστροφη μηχανική δυαδικής επεξεργασίας (binary reverse engineering), η οποία επιτρέπει την ανάλυση μεταγλωττισμένου λογισμικού για την εύρεση κακόβουλου λογισμικού και τρωτών σημείων χωρίς να χρειάζεται ο αρχικός πηγαίος κώδικας. Η OpenAI δηλώνει ότι το Codex Security, το προϊόν ασφαλείας που κυκλοφόρησε νωρίτερα, έχει συμβάλει στην επιδιόρθωση πάνω από 3.000 κρίσιμων τρωτών σημείων ασφαλείας από την επέκταση της ανάπτυξής του.
Η στρατηγική της OpenAI διαφέρει σημαντικά από αυτήν της Anthropic. Ενώ ο ανταγωνιστής της παρέχει πρόσβαση στο Mythos μόνο σε περίπου 40 προσεκτικά επιλεγμένους οργανισμούς, η OpenAI επιλέγει μια σταδιακή προσέγγιση επέκτασης που βασίζεται στην επαλήθευση ταυτότητας και την εποπτεία.
«Πρόκειται για ένα ομαδικό άθλημα και πρέπει να διασφαλίσουμε ότι κάθε ομάδα έχει την εξουσία να προστατεύει τα συστήματά της. Κανείς δεν πρέπει να είναι σε θέση να επιλέγει ποιος κερδίζει ή ποιος χάνει στην κυβερνοασφάλεια», δήλωσε ο Fouad Matin, ερευνητής ασφάλειας στην OpenAI.
Τεχνικά, η OpenAI πιστεύει ότι οι τρέχουσες δικλείδες ασφαλείας επαρκούν για τον μετριασμό των κινδύνων από την ευρεία ανάπτυξη συμβατικών μοντέλων. Ωστόσο, το μοντέλο έχει βελτιωθεί ώστε να παρέχει υψηλότερο επίπεδο ασφάλειας συστήματος.
Η κούρσα μεταξύ των δύο εταιρειών αντικατοπτρίζει μια ευρύτερη συζήτηση στον κλάδο της ασφάλειας σχετικά με το πώς να χειριστεί κανείς την Τεχνητή Νοημοσύνη ικανή να επιτίθεται σε συστήματα. Η μία πλευρά υποστηρίζει ότι οι αυστηροί περιορισμοί, όπως αυτοί που επιβλήθηκαν από την Anthropic στη Mythos, θα έδιναν στους υπερασπιστές ένα πλεονέκτημα έναντι των επιτιθέμενων. Η άλλη πλευρά, ιδιαίτερα οι υποστηρικτές του λογισμικού ανοιχτού κώδικα, υποστηρίζει ότι ο κόσμος θα ήταν ασφαλέστερος εάν όλοι οι υπερασπιστές είχαν πρόσβαση στην τεχνολογία, και όχι απλώς μια επιλεγμένη ομάδα που επιλέγεται από μεγάλες εταιρείες.
Πηγή: https://znews.vn/openai-dap-tra-anthropic-post1643820.html







Σχόλιο (0)