
Ένα μολυσμένο έγγραφο μπορεί να διαρρεύσει δεδομένα στο Google Drive μέσω ChatGPT (Φωτογραφία: Wired).
Το ανησυχητικό σημείο είναι ότι αυτή η ευπάθεια δεν απαιτεί καμία ενέργεια από τον χρήστη, γεγονός που εγείρει νέες προειδοποιήσεις σχετικά με την κυβερνοασφάλεια στο πλαίσιο μοντέλων τεχνητής νοημοσύνης (AI) που συνδέονται ολοένα και περισσότερο με προσωπικά δεδομένα.
«Δηλητηριασμένα» έγγραφα οδηγούν σε διαρροές δεδομένων
Στο συνέδριο ασφαλείας Black Hat στο Λας Βέγκας (ΗΠΑ) στις 6 Αυγούστου, δύο ειδικοί, ο Michael Bargury και ο Tamir Ishay Sharbat, παρουσίασαν μια μέθοδο επίθεσης που ονομάζεται AgentFlayer .
Αυτή η επίθεση εκμεταλλεύεται μια ευπάθεια στις Συνδέσεις – μια λειτουργία που συνδέει το ChatGPT με εξωτερικές υπηρεσίες όπως το Google Drive, το Gmail ή το Microsoft Calendar.
«Ο χρήστης δεν χρειάζεται να κάνει τίποτα για να χακαριστεί ή να διαρρεύσουν τα δεδομένα του. Έχουμε αποδείξει ότι είναι εντελώς χωρίς κλικ», δήλωσε ο Michael Bargury, CTO της εταιρείας ασφαλείας Zenity.
Η επίθεση ξεκινά με τον εισβολέα να μοιράζεται ένα «δηλητηριασμένο» έγγραφο στο Google Drive του θύματος. Το έγγραφο περιέχει μια κακόβουλη προτροπή περίπου 300 λέξεων, γραμμένη σε λευκή γραμματοσειρά μεγέθους 1 – σχεδόν αόρατη με γυμνό μάτι, αλλά εξακολουθεί να είναι ευανάγνωστη από τον υπολογιστή.
Επιφανειακά, το κείμενο είναι μεταμφιεσμένο σε σημειώσεις σύσκεψης. Στην πραγματικότητα, περιέχει οδηγίες για το ChatGPT να βρει και να εξαγάγει ευαίσθητα κλειδιά API από τον λογαριασμό Google Drive του θύματος.
Αντί να συνοψίζει το περιεχόμενο όπως το ζήτησε ο χρήστης, αυτή η κρυφή προτροπή αναγκάζει την Τεχνητή Νοημοσύνη να στείλει τα κλειδιά API που βρίσκει σε έναν εξωτερικό διακομιστή μέσω ενός συνδέσμου Markdown. Τα δεδομένα εξάγονται ως εικόνα, επιτρέποντας στον διακομιστή να καταγράψει όλες τις πληροφορίες.
Το OpenAI το έχει αντιμετωπίσει, αλλά οι κίνδυνοι παραμένουν
Αφού έλαβε την έκθεση του Bargury, η OpenAI εφάρμοσε γρήγορα μέτρα μετριασμού. «Είναι σημαντικό να αναπτύξουμε ισχυρές άμυνες ενάντια σε επιθέσεις ταχείας έγχυσης κακόβουλου λογισμικού», δήλωσε ο Andy Wen, ανώτερος διευθυντής διαχείρισης προϊόντων ασφαλείας στην Google Workspace.
Παρόλο που έχει διορθωθεί, το περιστατικό υπογραμμίζει τους πιθανούς κινδύνους που προκύπτουν από τη σύνδεση μεγάλων γλωσσικών μοντέλων (LLM) με εξωτερικά συστήματα. Καθώς η Τεχνητή Νοημοσύνη ενσωματώνεται όλο και περισσότερο στη ζωή και την εργασία μας, η επιφάνεια επίθεσης που μπορούν να εκμεταλλευτούν οι χάκερ επεκτείνεται επίσης.
Οι ειδικοί προειδοποιούν ότι η έμμεση άμεση έγχυση μπορεί να αποτελέσει σοβαρή απειλή, επιτρέποντας στους εισβολείς να πάρουν τον έλεγχο πολλών έξυπνων συστημάτων, από έξυπνα σπίτια έως εταιρικές υποδομές.
«Η σύνδεση του LLM με εξωτερικές πηγές δεδομένων είναι ισχυρή, αλλά όπως συμβαίνει συχνά με την Τεχνητή Νοημοσύνη, με περισσότερη ισχύ έρχεται και μεγαλύτερος κίνδυνος», καταλήγει ο Bargury.
Πηγή: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm
Σχόλιο (0)