
Αυτή η ευπάθεια επιτρέπει στους εισβολείς να εισάγουν κακόβουλες εντολές στη μνήμη της ίδιας της τεχνητής νοημοσύνης, μετατρέποντας μια χρήσιμη λειτουργία σε ένα μόνιμο όπλο για την εκτέλεση αυθαίρετου κώδικα (Εικονογράφηση φωτογραφίας: ST).
Σύμφωνα με μια αναφορά από την LayerX Security, αυτή η επίθεση εκμεταλλεύεται μια ευπάθεια πλαστογράφησης αιτημάτων cross-site (CSRF) για να εισάγει κακόβουλες εντολές στη μόνιμη μνήμη του ChatGPT.
Η λειτουργία «Μνήμη», η οποία σχεδιάστηκε για να θυμάται η Τεχνητή Νοημοσύνη χρήσιμες λεπτομέρειες όπως τα ονόματα και οι προτιμήσεις των χρηστών για την εξατομίκευση των απαντήσεων, μπορεί πλέον να «χαλάσει».
Μόλις μολυνθεί η μνήμη, αυτές οι εντολές θα παραμείνουν μόνιμα – εκτός εάν ο χρήστης μεταβεί χειροκίνητα στις ρυθμίσεις για να τις διαγράψει – και μπορούν να ενεργοποιηθούν σε πολλές συσκευές και συνεδρίες.
«Αυτό που καθιστά αυτό το θέμα ευπάθειας ιδιαίτερα επικίνδυνο είναι ότι στοχεύει την επίμονη μνήμη της τεχνητής νοημοσύνης, όχι μόνο την περίοδο λειτουργίας του προγράμματος περιήγησης», δήλωσε η Michelle Levy, διευθύντρια έρευνας ασφάλειας στην LayerX Security.
«Με απλά λόγια, ένας εισβολέας χρησιμοποιεί ένα τέχνασμα για να «ξεγελάσει» την Τεχνητή Νοημοσύνη ώστε να γράψει μια κακόβουλη εντολή στη μνήμη της», εξηγεί ο Levy. «Το πιο επικίνδυνο είναι ότι αυτή η εντολή παραμένει στην Τεχνητή Νοημοσύνη για πάντα – ακόμα κι αν ο χρήστης αλλάξει υπολογιστή, αποσυνδεθεί και συνδεθεί ξανά ή ακόμα και χρησιμοποιήσει διαφορετικό πρόγραμμα περιήγησης.
Αργότερα, όταν ένας χρήστης υποβάλλει ένα εντελώς φυσιολογικό αίτημα, μπορεί να ενεργοποιήσει κατά λάθος τον κακόβουλο κώδικα. Ως αποτέλεσμα, οι χάκερ μπορούν να εκτελέσουν κώδικα στο παρασκήνιο, να κλέψουν δεδομένα ή να αποκτήσουν μεγαλύτερο έλεγχο στο σύστημα.
Το σενάριο επίθεσης που περιγράφεται είναι αρκετά απλό: Αρχικά, ένας χρήστης συνδέεται στο ChatGPT Atlas. Τον ξεγελούν ώστε να κάνει κλικ σε έναν κακόβουλο σύνδεσμο, μετά τον οποίο ο κακόβουλος ιστότοπος ενεργοποιεί κρυφά ένα αίτημα CSRF, εισάγοντας σιωπηλά κακόβουλες οδηγίες στη μνήμη ChatGPT του θύματος.
Τέλος, όταν ένας χρήστης κάνει ένα απολύτως νόμιμο ερώτημα, για παράδειγμα ζητώντας από την Τεχνητή Νοημοσύνη να γράψει κώδικα, ενεργοποιούνται οι μολυσμένες «μνήμες».
Το πρόβλημα επιδεινώνεται από την έλλειψη ισχυρών ελέγχων κατά του ηλεκτρονικού "ψαρέματος" (phishing) στο ChatGPT Atlas, επισημαίνει η LayerX.
Σε δοκιμές με πάνω από 100 exploits και ιστότοπους ηλεκτρονικού "ψαρέματος" (phishing), το Atlas μπλόκαρε μόνο το 5,8% των κακόβουλων ιστότοπων.
Αυτός ο αριθμός είναι πολύ μέτριος σε σύγκριση με το Google Chrome (47%) ή το Microsoft Edge (53%), καθιστώντας τους χρήστες του Atlas «έως και 90% πιο ευάλωτους» σε επιθέσεις από τα παραδοσιακά προγράμματα περιήγησης.
Αυτή η ανακάλυψη έρχεται μετά από μια άλλη ευπάθεια ταχείας έγχυσης κακόβουλου λογισμικού που είχε επιδειχθεί προηγουμένως από την NeuralTrust, υποδηλώνοντας ότι τα προγράμματα περιήγησης τεχνητής νοημοσύνης γίνονται ένα νέο μέτωπο επίθεσης.
Το πρόγραμμα περιήγησης ιστού ChatGPT Atlas κυκλοφόρησε από την OpenAI στις αρχές της περασμένης εβδομάδας. Δεν αποτελεί έκπληξη το γεγονός ότι η OpenAI ενσωμάτωσε το εργαλείο τεχνητής νοημοσύνης ChatGPT σε αυτό το πρόγραμμα περιήγησης, βοηθώντας στην καλύτερη υποστήριξη των χρηστών κατά την περιήγηση στο διαδίκτυο.
Κάθε φορά που ένας χρήστης κάνει κλικ σε ένα αποτέλεσμα αναζήτησης στο ChatGPT Atlas, εμφανίζεται ένα παράθυρο διαλόγου ChatGPT ακριβώς δίπλα στο παράθυρο της ιστοσελίδας, επιτρέποντάς του να υποβάλει ερωτήσεις σχετικά με το περιεχόμενο που βλέπει, εξοικονομώντας του χρόνο ανάγνωσης.
Το ChatGPT μπορεί επίσης να συνοψίσει το περιεχόμενο μιας ιστοσελίδας, να επεξεργαστεί κείμενο κατά τη σύνταξη ενός email ή να προτείνει την αναδιατύπωσή του ώστε να ταιριάζει καλύτερα στο περιεχόμενο.
Πηγή: https://dantri.com.vn/cong-nghe/nguoi-dung-chatgpt-atlas-co-the-bi-danh-cap-du-lieu-voi-ma-doc-vinh-vien-20251028111706750.htm






Σχόλιο (0)