
Το EchoLeak και οι πιθανοί κίνδυνοι της τεχνητής νοημοσύνης
Καθώς η τεχνητή νοημοσύνη (ΤΝ) γίνεται μέρος κάθε εργασίας, από την παροχή βοήθειας στη σύνταξη αναφορών και την απάντηση σε email έως την ανάλυση δεδομένων, οι χρήστες φαίνεται να ζουν σε μια εποχή πρωτοφανούς ευκολίας. Αλλά και η σκοτεινή πλευρά της ευκολίας αρχίζει να αναδύεται, ειδικά όσον αφορά την ασφάλεια.
Ένα πρόσφατο κενό ασφαλείας με την ονομασία EchoLeak έχει θέσει τους χρήστες της υπηρεσίας Microsoft Copilot σε κίνδυνο διαρροής ευαίσθητων δεδομένων χωρίς οι ίδιοι να λάβουν καμία ενέργεια.
Όταν η Τεχνητή Νοημοσύνη γίνεται ευπάθεια ασφαλείας
Σύμφωνα με την έρευνα του Tuoi Tre Online , το EchoLeak είναι ένα κενό ασφαλείας που μόλις καταγράφηκε με τον κωδικό CVE-2025-32711, το οποίο οι ειδικοί έχουν αξιολογήσει ως επικίνδυνο με 9,3/10 σύμφωνα με την κλίμακα του NIST.
Αυτό που ανησυχεί τους ειδικούς ασφαλείας είναι η φύση του "μηδενικού κλικ" : οι εισβολείς μπορούν να εκμεταλλευτούν δεδομένα από το Copilot χωρίς ο χρήστης να χρειάζεται να κάνει κλικ, να ανοίξει ένα αρχείο ή ακόμα και να γνωρίζει ότι συμβαίνει κάτι.
Αυτό δεν είναι ένα απλό σφάλμα. Η ερευνητική ομάδα της Aim Labs, η οποία ανακάλυψε το θέμα ευπάθειας, πιστεύει ότι το EchoLeak αντικατοπτρίζει ένα κοινό ελάττωμα σχεδιασμού στα συστήματα RAG (γεννήτρια με επαυξημένη ανάκτηση) και AI που βασίζονται σε πράκτορες. Επειδή το Copilot είναι μέρος της σουίτας εφαρμογών του Microsoft 365 που περιέχει τα email, τα έγγραφα, τα υπολογιστικά φύλλα και τα χρονοδιαγράμματα συναντήσεων εκατομμυρίων χρηστών, ο κίνδυνος διαρροής δεδομένων είναι πολύ σοβαρός.
Το πρόβλημα δεν έγκειται μόνο στον συγκεκριμένο κώδικα, αλλά και στον τρόπο λειτουργίας των μεγάλων γλωσσικών μοντέλων (LLM). Οι τεχνητές νοημοσύνης χρειάζονται πολύ περιεχόμενο για να ανταποκριθούν με ακρίβεια και έτσι τους δίνεται πρόσβαση σε μεγάλες ποσότητες δεδομένων υποβάθρου. Χωρίς σαφείς ελέγχους στην είσοδο και την έξοδο, οι τεχνητές νοημοσύνης μπορούν να «οδηγούνται» με τρόπους που οι χρήστες δεν γνωρίζουν. Αυτό δημιουργεί ένα νέο είδος «κερκόπορτας» όχι λόγω κάποιου ελαττώματος στον κώδικα, αλλά επειδή οι τεχνητές νοημοσύνης συμπεριφέρονται εκτός της ανθρώπινης κατανόησης.
Η Microsoft κυκλοφόρησε γρήγορα μια ενημέρωση κώδικα και μέχρι στιγμής δεν έχει αναφερθεί καμία πραγματική ζημιά. Αλλά το μάθημα από το EchoLeak είναι σαφές: Όταν η Τεχνητή Νοημοσύνη είναι βαθιά ενσωματωμένη σε λειτουργικά συστήματα, ακόμη και μικρά σφάλματα στον τρόπο με τον οποίο κατανοεί το περιβάλλον μπορούν να έχουν σημαντικές συνέπειες για την ασφάλεια.
Όσο πιο βολική είναι η Τεχνητή Νοημοσύνη, τόσο πιο εύθραυστα είναι τα προσωπικά δεδομένα
Το περιστατικό EchoLeak εγείρει ένα ανησυχητικό ερώτημα: μήπως οι χρήστες εμπιστεύονται τόσο πολύ την Τεχνητή Νοημοσύνη που δεν συνειδητοποιούν ότι μπορούν να παρακολουθούνται ή να εκτίθενται τα προσωπικά τους στοιχεία μόνο με ένα μήνυμα κειμένου; Ένα πρόσφατα ανακαλυφθέν κενό ασφαλείας που επιτρέπει στους χάκερ να εξάγουν σιωπηλά δεδομένα χωρίς οι χρήστες να χρειάζεται να πατήσουν κανένα κουμπί είναι κάτι που κάποτε το έβλεπαν μόνο σε ταινίες επιστημονικής φαντασίας, αλλά τώρα είναι πραγματικότητα.
Ενώ οι εφαρμογές τεχνητής νοημοσύνης γίνονται ολοένα και πιο δημοφιλείς, από εικονικούς βοηθούς όπως το Copilot, chatbots στον τραπεζικό τομέα και την εκπαίδευση , έως πλατφόρμες τεχνητής νοημοσύνης που γράφουν περιεχόμενο και επεξεργάζονται email, οι περισσότεροι άνθρωποι δεν προειδοποιούνται για τον τρόπο επεξεργασίας και αποθήκευσης των δεδομένων τους.
Η «συνομιλία» με ένα σύστημα τεχνητής νοημοσύνης δεν περιορίζεται πλέον στο να κάνετε μερικές ερωτήσεις για λόγους ευκολίας, αλλά μπορεί επίσης να αποκαλύψει ακούσια την τοποθεσία, τις συνήθειες, τα συναισθήματά σας ή ακόμα και τις πληροφορίες του λογαριασμού σας.
Στο Βιετνάμ, πολλοί άνθρωποι είναι εξοικειωμένοι με τη χρήση της Τεχνητής Νοημοσύνης σε τηλέφωνα και υπολογιστές χωρίς βασικές γνώσεις ψηφιακής ασφάλειας . Πολλοί άνθρωποι μοιράζονται προσωπικές πληροφορίες με την Τεχνητή Νοημοσύνη επειδή πιστεύουν ότι «είναι απλώς μια μηχανή». Αλλά στην πραγματικότητα, πίσω από αυτήν κρύβεται ένα σύστημα που μπορεί να καταγράφει, να μαθαίνει και να μεταδίδει δεδομένα αλλού, ειδικά όταν η πλατφόρμα Τεχνητής Νοημοσύνης προέρχεται από τρίτο μέρος και δεν έχει δοκιμαστεί σαφώς για ασφάλεια.
Για να περιοριστούν οι κίνδυνοι, οι χρήστες δεν χρειάζεται απαραίτητα να εγκαταλείψουν την τεχνολογία, αλλά πρέπει να είναι πιο προσεκτικοί: θα πρέπει να ελέγχουν προσεκτικά εάν η εφαρμογή τεχνητής νοημοσύνης που χρησιμοποιούν διαθέτει αξιόπιστη πηγή, εάν τα δεδομένα είναι κρυπτογραφημένα και, ιδίως, να μην κοινοποιούν ευαίσθητες πληροφορίες, όπως αριθμούς ταυτότητας, τραπεζικούς λογαριασμούς, πληροφορίες υγείας... με κανένα σύστημα τεχνητής νοημοσύνης χωρίς να έχουν προειδοποιηθεί σαφώς.
Όπως ακριβώς όταν πρωτοεμφανίστηκε το διαδίκτυο, η Τεχνητή Νοημοσύνη χρειάζεται επίσης χρόνο για να τελειοποιηθεί και κατά τη διάρκεια αυτής της περιόδου, οι χρήστες θα πρέπει να είναι οι πρώτοι που θα προστατεύσουν προληπτικά τον εαυτό τους.
Μοιράζεσαι ποτέ πάρα πολλά με την Τεχνητή Νοημοσύνη;
Όταν πληκτρολογούμε την εντολή «ξαναγράψτε αυτήν την αναφορά για μένα αλλά με πιο φιλικό τρόπο» ή «συνοψίστε τη χθεσινή συνάντηση», πολλοί άνθρωποι δεν πιστεύουν ότι όλες οι πληροφορίες που εισάγουν, συμπεριλαμβανομένων εσωτερικών λεπτομερειών, προσωπικών συναισθημάτων ή εργασιακών συνηθειών, μπορούν να καταγραφούν από την Τεχνητή Νοημοσύνη. Σταδιακά έχουμε συνηθίσει να συνομιλούμε με έξυπνα εργαλεία, ξεχνώντας τα όρια μεταξύ ευκολίας και απορρήτου.
Πηγή: https://tuoitre.vn/lo-hong-bao-mat-trong-microsoft-copilot-canh-bao-moi-ve-nguy-co-ro-ri-du-lieu-tu-ai-20250620103045262.htm






Σχόλιο (0)