Τι πιστεύετε για την τάση των χάκερ να «οπλίζουν» την Τεχνητή Νοημοσύνη για την πραγματοποίηση κυβερνοεπιθέσεων και απάτης;

Δρ. Nguyen Tuan Khang: Σύμφωνα με τον Δείκτη Πληροφόρησης Απειλών X-Force της IBM για το 2024, η περιοχή Ασίας- Ειρηνικού , συμπεριλαμβανομένου του Βιετνάμ, είναι η περιοχή που δέχτηκε τις περισσότερες κυβερνοεπιθέσεις στον κόσμο το 2023. Εκ των οποίων, η μεταποίηση είναι ο κλάδος που επηρεάζεται περισσότερο από τις κυβερνοεπιθέσεις.

Η κύρια μέθοδος των κακών εξακολουθεί να είναι οι επιθέσεις ηλεκτρονικού "ψαρέματος" (phishing) που στοχεύουν ευάλωτα άτομα και εκμεταλλεύονται τρωτά σημεία για την εγκατάσταση κακόβουλου λογισμικού. Επιπλέον, η αναδυόμενη τάση το 2024 είναι οι κυβερνοεπιθέσεις που χρησιμοποιούν τεχνητή νοημοσύνη (AI).

Η έκθεση του Wired επισημαίνει ότι πολλοί κακοί χρησιμοποιούν γενετική τεχνητή νοημοσύνη για να καθοδηγήσουν τις επιθέσεις hack, να δημιουργήσουν δόλια chatbot ή ψεύτικες εικόνες και βίντεο με τα πρόσωπα και τις φωνές άλλων ανθρώπων χρησιμοποιώντας το Deepfake.

Ωστόσο, παράλληλα με αυτήν την τάση, τα συστήματα ασφάλειας πληροφοριών αρχίζουν επίσης να ενσωματώνουν λειτουργίες Τεχνητής Νοημοσύνης, όπως το Watsonx. Η τεχνητή νοημοσύνη μπορεί να αξιοποιηθεί, αλλά μπορεί επίσης να αντικαταστήσει τους ανθρώπους στην ανάλυση, την παρακολούθηση, την αναγνώριση αριθμών, την πρόβλεψη σεναρίων επιθέσεων, βελτιώνοντας έτσι τις αμυντικές δυνατότητες και ελαχιστοποιώντας τους κινδύνους για την ασφάλεια των πληροφοριών.

W-nguyen-tuan-khang-ibm-1.jpg
Ο ειδικός σε θέματα κυβερνοασφάλειας Nguyen Tuan Khang. Φωτογραφία: Trong Dat

Οι απάτες deepfake γίνονται ολοένα και πιο συνηθισμένες. Με την ραγδαία ανάπτυξη της τεχνητής νοημοσύνης, πόσο επικίνδυνες θα είναι αυτές οι επιθέσεις στο μέλλον;

Δρ. Νγκουγιέν Τουάν Κανγκ: Βασικά, το Deepfake είναι μια τεχνολογία που βοηθά τους χάκερ να δημιουργούν ψεύτικες ψηφιακές ταυτότητες, μιμούμενοι έτσι άλλους. Το Deepfake θα αποτελέσει ένα επικίνδυνο πρόβλημα επειδή αυτή η τεχνολογία γίνεται όλο και πιο εξελιγμένη.

Για την καταπολέμηση των Deepfakes, το πρώτο πράγμα που πρέπει να κάνετε είναι να διαπιστώσετε εάν η εικόνα ή η φωνή ενός ατόμου δημιουργείται από τεχνητή νοημοσύνη. Προς το παρόν δεν υπάρχει κάποιο καθολικό εργαλείο που να μπορεί να ανιχνεύσει αμέσως τα Deepfakes, επειδή οι εισβολείς αναπτύσσουν συνεχώς νέα μοντέλα.

Εκτός από την ανίχνευση Deepfake, υπάρχει μια άλλη τεχνική για την αντιμετώπισή της, η οποία είναι η χρήση τεχνολογίας για την ανάλυση συμπεριφοράς. Από οργανωτική και επιχειρηματική άποψη, είναι απαραίτητο να αναπτυχθεί ένα σύστημα που συνδυάζει και τις δύο αυτές τεχνικές.

Τον τελευταίο καιρό, έχουν σημειωθεί κυβερνοεπιθέσεις όπου χάκερ έχουν εγκαταστήσει κρυφά κακόβουλο λογισμικό στο σύστημα της εταιρείας. Το κακόβουλο λογισμικό παραμονεύει και αναλύει όλες τις δραστηριότητες, δημιουργώντας έτσι μια ψεύτικη ταυτότητα για την εκτέλεση κακόβουλων προθέσεων. Με την ανάπτυξη της τεχνολογίας Deepfake, σε συνδυασμό με τη δυνατότητα δημιουργίας βίντεο που δημιουργούνται από την Τεχνητή Νοημοσύνη, αυτού του είδους οι επιθέσεις θα είναι πολύ πιο επικίνδυνες στο μέλλον.

Με την κλιμάκωση των κυβερνοεπιθέσεων Deepfake, πώς μπορούμε να προστατεύσουμε τους ηλικιωμένους, τα παιδιά και άλλες ευάλωτες ομάδες από τους απατεώνες;

Δρ. Nguyen Tuan Khang: Οι ηλικιωμένοι και τα παιδιά συχνά δέχονται επιθέσεις από απατεώνες που χρησιμοποιούν μια τεχνική που ονομάζεται κοινωνική μηχανική. Αυτός είναι ένας όρος που περιγράφει επιθέσεις μέσω της χειραγώγησης της ανθρώπινης συμπεριφοράς.

Οι χάκερ μπορούν πλέον να χρησιμοποιούν την Τεχνητή Νοημοσύνη σε συνδυασμό με τη συλλογή, την εξόρυξη και την ανάλυση δεδομένων για να εντοπίζουν άτομα που είναι πιθανό να πέσουν θύματα απάτης και στη συνέχεια να βρίσκουν τρόπους να επιτεθούν. Εκτός από την ευαισθητοποίηση της κοινότητας, πρέπει επίσης να αποδεχτούμε ότι θα προκύψουν καταστάσεις όπου οι χρήστες θα πέσουν θύματα απάτης και πρέπει να χρησιμοποιήσουμε την τεχνολογία για να τις εντοπίσουμε και να τις αποτρέψουμε.

W-online-απάτη-1.jpg
Προειδοποίηση για περιπτώσεις πλαστοπροσωπίας αστυνομικών με σκοπό την εξαπάτηση χρηματικών μεταφορών από την αστυνομία του διαμερίσματος Thanh Luong ( Ανόι ). Φωτογραφία: Trong Dat

Πρόσφατα, υπήρξε μια περίπτωση όπου ένας υπάλληλος τράπεζας υποψιάστηκε ότι μια ηλικιωμένη γυναίκα που ήρθε να μεταφέρει χρήματα είχε σημάδια απάτης. Το άτομο αυτό σταμάτησε αμέσως τη συναλλαγή και το ανέφερε στις αρχές. Τα συστήματα πληροφορικής των τραπεζών διαθέτουν πλέον τεχνολογία που αντικαθιστά τους ανθρώπους σε τέτοιες εργασίες.

Ο ρόλος της τεχνολογίας είναι ότι ακόμη και αν είναι γνωστό ότι ο αποστολέας είναι το πραγματικό πρόσωπο, το σύστημα θα αποτρέψει αυτήν τη συμπεριφορά εάν υπάρχει υποψία ότι κάποιος άλλος την χειραγωγεί. Τέτοια εργαλεία ονομάζονται συστήματα μετριασμού απάτης και πλαστογραφίας.

Είναι καιρός το Βιετνάμ να επιβάλει κυρώσεις για τη διαχείριση της Τεχνητής Νοημοσύνης και να θέσει την έρευνα, την ανάπτυξη και τη χρήση της σε ένα πλαίσιο;

Δρ. Nguyen Tuan Khang: Οι κυρώσεις για τη διαχείριση της Τεχνητής Νοημοσύνης έχουν αναφερθεί εδώ και πολύ καιρό, ωστόσο, εξακολουθούν να υπάρχουν πολλές αντιπαραθέσεις. Για παράδειγμα, το πάρκινγκ στην περιοχή μου διαθέτει σύστημα Τεχνητής Νοημοσύνης για την αναγνώριση πινακίδων κυκλοφορίας, αλλά εξακολουθούσαν να υπάρχουν κλοπές. Εκείνη την εποχή, άρχισε να προκύπτει η διαμάχη σχετικά με το ποιος έφταιγε. Θα έπρεπε να είναι υπεύθυνος ο ιδιοκτήτης του διαμερίσματος, ο φύλακας ασφαλείας ή η μονάδα που ανέπτυξε το σύστημα Τεχνητής Νοημοσύνης;

Έκτοτε, το κτίριο έχει αλλάξει τους κανόνες του, ορίζοντας ότι οι κάτοικοι μπορούν να επιλέξουν να χρησιμοποιούν την Τεχνητή Νοημοσύνη για την αναγνώριση πινακίδων κυκλοφορίας για λόγους ευκολίας, αλλά πρέπει να αποδεχτούν τους κινδύνους. Όσοι συμφωνούν θα μπορούν να χρησιμοποιούν τις αυτόματες πόρτες, όσοι δεν συμφωνούν θα πρέπει να παρκάρουν τα αυτοκίνητά τους με τον παλιό τρόπο. Χρειαζόμαστε τέτοιες κυρώσεις.

Ομοίως, η IBM κάποτε ανέπτυξε ένα σύστημα τεχνητής νοημοσύνης για την πρόληψη του καρκίνου. Όταν το σύστημα συνταγογραφεί ένα φάρμακο αλλά ο ασθενής δεν μπορεί να σωθεί μετά τη λήψη του, φταίει ο γιατρός ή η τεχνητή νοημοσύνη;

Πιστεύω ότι η ρύθμιση της Τεχνητής Νοημοσύνης πρέπει να είναι συγκεκριμένη, δηλώνοντας με σαφήνεια τι μπορεί και τι δεν μπορεί να γίνει κατά την ανάπτυξη εφαρμογών Τεχνητής Νοημοσύνης. Για να κάνουμε τον κόσμο ασφαλέστερο, η πιο βασική ρύθμιση που μπορούμε να θεσπίσουμε είναι να απαιτήσουμε βιομετρική επαλήθευση της ταυτότητας των μεγάλων μεταφορών χρημάτων. Σε μια τέτοια περίπτωση, τα άτομα που χάνουν τα στοιχεία ταυτότητάς τους μπορούν να αποφύγουν εντελώς την απώλεια χρημάτων.

Ευχαριστώ κύριε.

Οι απάτες deepfake, τα ψεύτικα πρόσωπα και οι φωνές θα αυξηθούν το 2024 Σύμφωνα με την πρόβλεψη της VSEC, οι κυβερνοεπιθέσεις με χρήση τεχνητής νοημοσύνης, συμπεριλαμβανομένων των απατήσεων deepfake με ψεύτικα πρόσωπα και φωνές, θα αυξηθούν το 2024.