Σύμφωνα με το BGR , μια νέα ερευνητική έκθεση μόλις αποκάλυψε μια ανησυχητική τεχνική που ονομάζεται «Fun-Tuning», η οποία χρησιμοποιεί τεχνητή νοημοσύνη (AI) για την αυτόματη δημιουργία εξαιρετικά αποτελεσματικών επιθέσεων άμεσης έγχυσης που στοχεύουν άλλα προηγμένα μοντέλα τεχνητής νοημοσύνης, συμπεριλαμβανομένου του Gemini της Google.
Αυτή η μέθοδος καθιστά το «hacking» της Τεχνητής Νοημοσύνης (AI) ταχύτερο, φθηνότερο και ευκολότερο από ποτέ, σηματοδοτώντας μια νέα κλιμάκωση στη μάχη της κυβερνοασφάλειας που αφορά την Τεχνητή Νοημοσύνη.
Ο κίνδυνος κακόβουλων παραγόντων να χρησιμοποιούν την Τεχνητή Νοημοσύνη για να την παραβιάσουν.
Η άμεση έγχυση είναι μια τεχνική όπου κακόβουλοι δράστες εισάγουν κρυφά επιβλαβείς οδηγίες στα δεδομένα εισόδου ενός μοντέλου τεχνητής νοημοσύνης (π.χ. μέσω σχολίων στον πηγαίο κώδικα, κρυφού κειμένου στον ιστό). Στόχος είναι να «ξεγελάσουν» την τεχνητή νοημοσύνη, αναγκάζοντάς την να αγνοήσει προγραμματισμένους κανόνες ασφαλείας, οδηγώντας σε σοβαρές συνέπειες, όπως διαρροή ευαίσθητων δεδομένων, παροχή παραπληροφόρησης ή εκτέλεση άλλων επικίνδυνων ενεργειών.
Οι χάκερ χρησιμοποιούν την Τεχνητή Νοημοσύνη για να επιτεθούν στην Τεχνητή Νοημοσύνη.
ΦΩΤΟΓΡΑΦΙΑ: ΣΤΙΓΜΙΟΤΥΠΟ ΟΘΟΝΗΣ ΑΠΟ LINKEDIN
Προηγουμένως, η επιτυχής εκτέλεση αυτών των επιθέσεων, ειδικά σε «κλειστά» μοντέλα όπως το Gemini ή το GPT-4, συχνά απαιτούσε πολύπλοκες και χρονοβόρες χειροκίνητες δοκιμές.
Αλλά το Fun-Tuning άλλαξε εντελώς το τοπίο. Αναπτύχθηκε από μια ομάδα ερευνητών από πολλά πανεπιστήμια, αυτή η μέθοδος εκμεταλλεύεται έξυπνα την εκλεπτυσμένη διεπαφή προγραμματισμού εφαρμογών (API) που η Google παρέχει δωρεάν στους χρήστες του Gemini.
Αναλύοντας τις ανεπαίσθητες αντιδράσεις του μοντέλου Gemini κατά τη διάρκεια της διαδικασίας συντονισμού (για παράδειγμα, πώς αντιδρά σε σφάλματα στα δεδομένα), το Fun-Tuning μπορεί να εντοπίσει αυτόματα τα πιο αποτελεσματικά «προθέματα» και «επιθήματα» για την κάλυψη μιας κακόβουλης δήλωσης. Αυτό αυξάνει σημαντικά την πιθανότητα η Τεχνητή Νοημοσύνη να συμμορφωθεί με την κακόβουλη πρόθεση του εισβολέα.
Τα αποτελέσματα των δοκιμών δείχνουν ότι το Fun-Tuning πέτυχε ποσοστό επιτυχίας έως και 82% σε ορισμένες εκδόσεις του Gemini, ένα ποσοστό πολύ ανώτερο από το λιγότερο από 30% που επιτυγχάνεται με τις παραδοσιακές μεθόδους επίθεσης.
Αυτό που αυξάνει τον κίνδυνο του Fun-Tuning είναι το εξαιρετικά χαμηλό κόστος εκτέλεσης. Επειδή το API ρύθμισης της Google παρέχεται δωρεάν, το υπολογιστικό κόστος για τη δημιουργία μιας αποτελεσματικής επίθεσης μπορεί να φτάσει τα 10 δολάρια. Επιπλέον, οι ερευνητές έχουν διαπιστώσει ότι μια επίθεση που έχει σχεδιαστεί για μια έκδοση του Gemini μπορεί εύκολα να εφαρμοστεί με επιτυχία σε άλλες εκδόσεις, ανοίγοντας τον κίνδυνο εκτεταμένων επιθέσεων.
Η Google επιβεβαίωσε ότι γνωρίζει την απειλή που θέτει η τεχνική Fun-Tuning, αλλά δεν έχει ακόμη σχολιάσει εάν θα αλλάξει τον τρόπο λειτουργίας του API ρύθμισης. Η ερευνητική ομάδα επεσήμανε επίσης τη δυσκολία στην άμυνα κατά αυτού: εάν οι πληροφορίες που εκμεταλλεύεται το Fun-Tuning αφαιρεθούν από τη διαδικασία ρύθμισης, το API θα καταστεί λιγότερο χρήσιμο για τους νόμιμους προγραμματιστές. Αντίθετα, εάν παραμείνει αμετάβλητο, θα συνεχίσει να αποτελεί εφαλτήριο για την εκμετάλλευση από κακόβουλους παράγοντες.
Η εμφάνιση του Fun-Tuning αποτελεί σαφή προειδοποίηση, που υποδεικνύει ότι η αντιπαράθεση στον κυβερνοχώρο έχει εισέλθει σε μια νέα, πιο σύνθετη φάση. Η Τεχνητή Νοημοσύνη δεν είναι πλέον μόνο στόχος αλλά και εργαλείο και όπλο στα χέρια κακόβουλων παραγόντων.
[διαφήμιση_2]
Πηγή: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm






Σχόλιο (0)