Vietnam.vn - Nền tảng quảng bá Việt Nam

Προειδοποίηση για διαρροή δεδομένων που είναι αποθηκευμένα στο Google Drive μέσω ChatGPT

(Dan Tri) - Ερευνητές ασφαλείας μόλις ανακάλυψαν ένα κενό ασφαλείας στη λειτουργία Connectors του OpenAI, το οποίο επιτρέπει σε κακόβουλους χρήστες να εξάγουν κρυφά δεδομένα από λογαριασμούς Google Drive μέσω του ChatGPT.

Báo Dân tríBáo Dân trí11/08/2025

Cảnh báo lộ dữ liệu lưu trữ trên Google Drive thông qua ChatGPT - 1

Ένα μολυσμένο έγγραφο μπορεί να διαρρεύσει δεδομένα στο Google Drive μέσω ChatGPT (Φωτογραφία: Wired).

Το ανησυχητικό σημείο είναι ότι αυτή η ευπάθεια δεν απαιτεί καμία ενέργεια από τον χρήστη, γεγονός που εγείρει νέες προειδοποιήσεις σχετικά με την κυβερνοασφάλεια στο πλαίσιο μοντέλων τεχνητής νοημοσύνης (AI) που συνδέονται ολοένα και περισσότερο με προσωπικά δεδομένα.

«Δηλητηριασμένα» έγγραφα οδηγούν σε διαρροές δεδομένων

Στο συνέδριο ασφαλείας Black Hat στο Λας Βέγκας (ΗΠΑ) στις 6 Αυγούστου, δύο ειδικοί, ο Michael Bargury και ο Tamir Ishay Sharbat, παρουσίασαν μια μέθοδο επίθεσης που ονομάζεται AgentFlayer .

Αυτή η επίθεση εκμεταλλεύεται μια ευπάθεια στις Συνδέσεις – μια λειτουργία που συνδέει το ChatGPT με εξωτερικές υπηρεσίες όπως το Google Drive, το Gmail ή το Microsoft Calendar.

«Ο χρήστης δεν χρειάζεται να κάνει τίποτα για να χακαριστεί ή να διαρρεύσουν τα δεδομένα του. Έχουμε αποδείξει ότι είναι εντελώς χωρίς κλικ», δήλωσε ο Michael Bargury, CTO της εταιρείας ασφαλείας Zenity.

Η επίθεση ξεκινά με τον εισβολέα να μοιράζεται ένα «δηλητηριασμένο» έγγραφο στο Google Drive του θύματος. Το έγγραφο περιέχει μια κακόβουλη προτροπή περίπου 300 λέξεων, γραμμένη σε λευκή γραμματοσειρά μεγέθους 1 – σχεδόν αόρατη με γυμνό μάτι, αλλά εξακολουθεί να είναι ευανάγνωστη από τον υπολογιστή.

Επιφανειακά, το κείμενο είναι μεταμφιεσμένο σε σημειώσεις σύσκεψης. Στην πραγματικότητα, περιέχει οδηγίες για το ChatGPT να βρει και να εξαγάγει ευαίσθητα κλειδιά API από τον λογαριασμό Google Drive του θύματος.

Αντί να συνοψίζει το περιεχόμενο όπως το ζήτησε ο χρήστης, αυτή η κρυφή προτροπή αναγκάζει την Τεχνητή Νοημοσύνη να στείλει τα κλειδιά API που βρίσκει σε έναν εξωτερικό διακομιστή μέσω ενός συνδέσμου Markdown. Τα δεδομένα εξάγονται ως εικόνα, επιτρέποντας στον διακομιστή να καταγράψει όλες τις πληροφορίες.

Το OpenAI το έχει αντιμετωπίσει, αλλά οι κίνδυνοι παραμένουν

Αφού έλαβε την έκθεση του Bargury, η OpenAI εφάρμοσε γρήγορα μέτρα μετριασμού. «Είναι σημαντικό να αναπτύξουμε ισχυρές άμυνες ενάντια σε επιθέσεις ταχείας έγχυσης κακόβουλου λογισμικού», δήλωσε ο Andy Wen, ανώτερος διευθυντής διαχείρισης προϊόντων ασφαλείας στην Google Workspace.

Παρόλο που έχει διορθωθεί, το περιστατικό υπογραμμίζει τους πιθανούς κινδύνους που προκύπτουν από τη σύνδεση μεγάλων γλωσσικών μοντέλων (LLM) με εξωτερικά συστήματα. Καθώς η Τεχνητή Νοημοσύνη ενσωματώνεται όλο και περισσότερο στη ζωή και την εργασία μας, η επιφάνεια επίθεσης που μπορούν να εκμεταλλευτούν οι χάκερ επεκτείνεται επίσης.

Οι ειδικοί προειδοποιούν ότι η έμμεση άμεση έγχυση μπορεί να αποτελέσει σοβαρή απειλή, επιτρέποντας στους εισβολείς να πάρουν τον έλεγχο πολλών έξυπνων συστημάτων, από έξυπνα σπίτια έως εταιρικές υποδομές.

«Η σύνδεση του LLM με εξωτερικές πηγές δεδομένων είναι ισχυρή, αλλά όπως συμβαίνει συχνά με την Τεχνητή Νοημοσύνη, με περισσότερη ισχύ έρχεται και μεγαλύτερος κίνδυνος», καταλήγει ο Bargury.

Πηγή: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm


Ετικέτα: OPENAI

Σχόλιο (0)

No data
No data

Στο ίδιο θέμα

Στην ίδια κατηγορία

Ανακαλύψτε το μοναδικό χωριό στο Βιετνάμ που βρίσκεται στη λίστα με τα 50 πιο όμορφα χωριά του κόσμου
Γιατί τα φανάρια με κόκκινες σημαίες και κίτρινα αστέρια είναι δημοφιλή φέτος;
Το Βιετνάμ κερδίζει τον μουσικό διαγωνισμό Intervision 2025
Κυκλοφοριακή συμφόρηση στο Μου Κανγκ Τσάι μέχρι το βράδυ, οι τουρίστες συρρέουν για να κυνηγήσουν την εποχή του ώριμου ρυζιού

Από τον ίδιο συγγραφέα

Κληρονομία

Εικόνα

Επιχείρηση

No videos available

Νέα

Πολιτικό Σύστημα

Τοπικός

Προϊόν