![]() |
Το νέο μοντέλο τεχνητής νοημοσύνης Anthropic είναι ικανό να εντοπίσει οποιαδήποτε ευπάθεια ασφαλείας. Φωτογραφία: Bloomberg . |
Η Anthropic ανακοίνωσε πρόσφατα ένα νέο μοντέλο τεχνητής νοημοσύνης που ονομάζεται Claude Mythos Preview, αλλά αρνήθηκε να το κυκλοφορήσει ευρέως λόγω ανησυχιών ότι θα μπορούσε να χρησιμοποιηθεί λανθασμένα για επιθέσεις σε κρίσιμες υποδομές. Αντ' αυτού, η εταιρεία επέτρεψε σε περισσότερους από 40 σημαντικούς τεχνολογικούς συνεργάτες, συμπεριλαμβανομένων των Apple, Amazon, Microsoft και Google, πρόσβαση στο μοντέλο για να εντοπίσουν και να διορθώσουν τρωτά σημεία ασφαλείας λογισμικού.
Αυτή η συμμαχία, που ονομάζεται Project Glasswing, περιλαμβάνει προμηθευτές υλικού όπως η Cisco και η Broadcom, μαζί με το Linux Foundation, έναν οργανισμό που συντηρεί μεγάλο μέρος του σημαντικού λογισμικού ανοιχτού κώδικα. Η Anthropic έχει δεσμευτεί να συνεισφέρει έως και 100 εκατομμύρια δολάρια σε πιστώσεις με βάση το Claude σε αυτήν την προσπάθεια.
Νέο Υπερμοντέλο Τεχνητής Νοημοσύνης
Αυτό που κάνει το Claude Mythos Preview ιδιαίτερα ανησυχητικό είναι η ικανότητά του να εντοπίζει αυτόματα τρωτά σημεία zero-day — ελαττώματα λογισμικού που ακόμη και οι προγραμματιστές δεν γνωρίζουν. Προηγουμένως, αυτοί οι τύποι τρωτών σημείων συνήθως εντοπίζονταν μετά από μήνες έρευνας από κορυφαίους ειδικούς ασφαλείας. Ωστόσο, το τελευταίο μοντέλο τεχνητής νοημοσύνης της Anthropic μπορεί να το κάνει αυτό σε μεγάλη κλίμακα, αυτόματα και συνεχώς.
![]() |
Ο Κλοντ Μίθος άφησε άναυδο την κοινότητα της κυβερνοασφάλειας. Φωτογραφία: Bloomberg . |
Σύμφωνα με το Anthropic, ο Claude Mythos ανακάλυψε χιλιάδες ατέλειες σε δημοφιλή λειτουργικά συστήματα και προγράμματα περιήγησης. Ένα από αυτά ήταν μια ευπάθεια που υπήρχε εδώ και 27 χρόνια στο OpenBSD, ένα λειτουργικό σύστημα ανοιχτού κώδικα ειδικά σχεδιασμένο για ασφάλεια και ενσωματωμένο σε πολλούς δρομολογητές. Μια άλλη ευπάθεια βρισκόταν σε ένα δημοφιλές λογισμικό βίντεο που οι αυτοματοποιημένες σαρώσεις δεν είχαν εντοπίσει 5 εκατομμύρια φορές.
«Το μοντέλο Claude Mythos εντόπισε τρωτά σημεία που οι ερευνητές ασφαλείας είχαν παραβλέψει για δεκαετίες», δήλωσε ο Logan Graham, επικεφαλής της ομάδας δοκιμών τρωτών σημείων του μοντέλου στην Anthropic.
Ο Elia Zaitsev, Chief Technology Officer της CrowdStrike, πιστεύει ότι αυτό το μοντέλο θέτει σε κίνδυνο την παγκόσμια κυβερνοασφάλεια.
«Πράγματα που παλιά διαρκούσαν μήνες, τώρα διαρκούν μόνο λίγα λεπτά χάρη στην Τεχνητή Νοημοσύνη», δήλωσε ο Ζάιτσεφ. Προειδοποίησε επίσης ότι οι ανταγωνιστές θα προσπαθήσουν να εκμεταλλευτούν παρόμοιες δυνατότητες χάρη στον Κλοντ Μίθος.
Πιθανοί κίνδυνοι
Ο Nikesh Arora, Διευθύνων Σύμβουλος της Palo Alto Networks, περιέγραψε τον Claude Mythos ως μια απρόβλεπτη απειλή.
«Φανταστείτε ότι είναι σαν ένα σμήνος πρακτόρων που καταγράφει συνεχώς και σχολαστικά κάθε αδυναμία στην τεχνολογική σας υποδομή», παρατήρησε ο Nikesh Arora.
Ο Jared Kaplan, Επιστημονικός Διευθυντής της Anthropic, εξηγεί ότι οι δυνατότητες ασφαλείας του Claude Mythos δεν είναι αποτέλεσμα ειδικής εκπαίδευσης. Είναι φυσική συνέπεια των εξαιρετικών δεξιοτήτων προγραμματισμού του μοντέλου και της ικανότητας αυτόματης διόρθωσης σφαλμάτων με την πάροδο του χρόνου. Προβλέπει ότι και άλλα μοντέλα τεχνητής νοημοσύνης σύντομα θα έχουν παρόμοιες δυνατότητες, κλιμακώνοντας τον ανταγωνισμό μεταξύ χάκερ και ομάδων ασφαλείας σε νέο επίπεδο.
![]() |
Ο Κλοντ Μίθος είναι απίθανο να κυκλοφορήσει ευρέως. Φωτογραφία: Bloomberg . |
Η απόφαση διατήρησης του μοντέλου ασφαλείας έχει προηγούμενο από το 2019, όταν η OpenAI αρνήθηκε να κυκλοφορήσει το GPT-2 λόγω ανησυχιών ότι θα μπορούσε να χρησιμοποιηθεί για την αυτοματοποίηση της παραγωγής παραπληροφόρησης. Όσοι ηγήθηκαν του έργου GPT-2 αργότερα έφυγαν από την OpenAI και ίδρυσαν την Anthropic.
Αυτή η ανακοίνωση έρχεται μια μέρα αφότου η Anthropic ανακοίνωσε την προβλεπόμενη ετήσια αύξηση εσόδων άνω του τριπλάσιου το 2026, από 9 δισεκατομμύρια δολάρια σε πάνω από 30 δισεκατομμύρια δολάρια . Μεγάλο μέρος αυτής της αύξησης προέρχεται από τη ζήτηση για το Claude ως εργαλείο προγραμματισμού. Αυτή η ανώτερη δυνατότητα είναι που επιτρέπει στο μοντέλο να εντοπίζει τρωτά σημεία ασφαλείας με τρόπους που δεν έχουν ξαναδεί.
Η Anthropic βρίσκεται σε μια πολύ αντιφατική θέση στο τρέχον τοπίο της Τεχνητής Νοημοσύνης. Η εταιρεία αγωνίζεται ταυτόχρονα να αναπτύξει ισχυρά συστήματα για τη δημιουργία εσόδων και ταυτόχρονα πρέπει συνεχώς να προειδοποιεί για τους κινδύνους της ίδιας της τεχνολογίας που δημιουργεί.
Πηγή: https://znews.vn/anthropic-lai-gay-chan-dong-post1641929.html









Σχόλιο (0)