Ποια είναι η εκτίμησή σας για την τάση των χάκερ να «εξοπλίζουν» την Τεχνητή Νοημοσύνη για την πραγματοποίηση κυβερνοεπιθέσεων και απάτων;
Δρ. Nguyen Tuan Khang: Σύμφωνα με την έκθεση X-Force Threat Intelligence Index της IBM για το 2024, η περιοχή Ασίας- Ειρηνικού , συμπεριλαμβανομένου του Βιετνάμ, ήταν μεταξύ των τριών κορυφαίων περιοχών στον κόσμο σε κυβερνοεπιθέσεις το 2023. Η μεταποίηση ήταν ο τομέας που επηρεάστηκε περισσότερο από αυτά τα περιστατικά κυβερνοεπιθέσεων.
Η κύρια τακτική που χρησιμοποιούν οι κακόβουλοι παράγοντες παραμένουν οι επιθέσεις ηλεκτρονικού "ψαρέματος" (phishing) που στοχεύουν ευάλωτα άτομα και εκμεταλλεύονται τρωτά σημεία για την εγκατάσταση κακόβουλου λογισμικού. Επιπλέον, μια νέα τάση που αναδύεται το 2024 είναι οι κυβερνοεπιθέσεις που αφορούν την τεχνητή νοημοσύνη (AI).
Μια αναφορά του Wired δείχνει ότι πολλοί κακόβουλοι παράγοντες χρησιμοποιούν περιεχόμενο που δημιουργείται από τεχνητή νοημοσύνη για να βοηθήσουν στην καθοδήγηση προσπαθειών hacking, να δημιουργήσουν δόλια chatbots ή να παράγουν ψεύτικες εικόνες και βίντεο που μιμούνται τα πρόσωπα και τις φωνές άλλων ανθρώπων χρησιμοποιώντας τεχνολογία Deepfake.
Ωστόσο, παράλληλα με αυτήν την τάση, τα συστήματα ασφάλειας πληροφοριών αρχίζουν επίσης να ενσωματώνουν λειτουργίες Τεχνητής Νοημοσύνης, όπως το WatsonX. Η τεχνητή νοημοσύνη μπορεί να αξιοποιηθεί, αλλά μπορεί επίσης να αντικαταστήσει τους ανθρώπους στην ανάλυση, την παρακολούθηση, την ψηφιακή ταυτοποίηση και την πρόβλεψη σεναρίων επιθέσεων, ενισχύοντας έτσι τις αμυντικές δυνατότητες και ελαχιστοποιώντας τους κινδύνους για την ασφάλεια των πληροφοριών.
Οι απάτες deepfake γίνονται ολοένα και πιο συνηθισμένες. Με την ραγδαία ανάπτυξη της τεχνητής νοημοσύνης, πόσο επικίνδυνες θα γίνουν αυτές οι επιθέσεις στο μέλλον;
Δρ. Νγκουγιέν Τουάν Κανγκ: Βασικά, το Deepfake είναι μια τεχνολογία που επιτρέπει στους χάκερ να δημιουργούν ψεύτικες ψηφιακές ταυτότητες, μιμούμενοι έτσι άλλους. Το Deepfake θα αποτελέσει ένα επικίνδυνο πρόβλημα επειδή αυτή η τεχνολογία γίνεται ολοένα και πιο εξελιγμένη.
Για την καταπολέμηση του Deepfake, το πρώτο βήμα είναι να προσδιοριστεί εάν η εικόνα ή η φωνή κάποιου δημιουργήθηκε από τεχνητή νοημοσύνη. Προς το παρόν, δεν υπάρχει κάποιο καθολικό εργαλείο για την άμεση ανίχνευση του Deepfake, επειδή οι εισβολείς αναπτύσσουν συνεχώς νέα μοντέλα.
Εκτός από τον εντοπισμό των Deepfakes, μια άλλη τεχνική για την καταπολέμησή τους είναι η χρήση τεχνολογίας για την ανάλυση συμπεριφοράς. Από οργανωτική ή επιχειρηματική άποψη, είναι απαραίτητο να αναπτυχθεί ένα σύστημα που συνδυάζει και τις δύο αυτές τεχνικές.
Τον τελευταίο καιρό, έχουν σημειωθεί κυβερνοεπιθέσεις όπου χάκερ καλλιεργούν κρυφά κακόβουλο λογισμικό μέσα στο σύστημα μιας εταιρείας. Το κακόβουλο λογισμικό παραμένει αδρανές, αναλύοντας κάθε δραστηριότητα και δημιουργώντας μια ψεύτικη ταυτότητα για την εκτέλεση κακόβουλων προθέσεων. Με την ανάπτυξη της τεχνολογίας Deepfake, σε συνδυασμό με τις δυνατότητες δημιουργίας βίντεο με τεχνητή νοημοσύνη, αυτοί οι τύποι επιθέσεων θα γίνουν ακόμη πιο επικίνδυνοι στο μέλλον.
Με τις κλιμακούμενες κυβερνοεπιθέσεις Deepfake, πώς μπορούμε να προστατεύσουμε τους ηλικιωμένους, τα παιδιά και άλλες ευάλωτες ομάδες από τους απατεώνες;
Δρ. Nguyen Tuan Khang: Οι ηλικιωμένοι και τα παιδιά συχνά γίνονται στόχος απατεώνων που χρησιμοποιούν μια τεχνική που ονομάζεται κοινωνική μηχανική. Αυτός ο όρος περιγράφει επιθέσεις που χειραγωγούν την ανθρώπινη συμπεριφορά.
Οι χάκερ μπορούν πλέον να χρησιμοποιούν την Τεχνητή Νοημοσύνη σε συνδυασμό με τη συλλογή, την εκμετάλλευση και την ανάλυση δεδομένων για να εντοπίζουν άτομα που είναι ιδιαίτερα ευάλωτα σε απάτες και στη συνέχεια να τα στοχεύουν. Εκτός από την ευαισθητοποίηση του κοινού, πρέπει επίσης να αποδεχτούμε ότι θα προκύψουν καταστάσεις όπου οι χρήστες θα πέσουν θύματα απάτης και πρέπει να χρησιμοποιήσουμε την τεχνολογία για την ανίχνευση και την πρόληψη τέτοιων περιστατικών.
Πρόσφατα, υπήρξε ένα περιστατικό όπου ένας υπάλληλος τράπεζας υποψιάστηκε ότι μια ηλικιωμένη γυναίκα έπεφτε θύμα απάτης ενώ έκανε μια μεταφορά χρημάτων. Ο υπάλληλος παρενέβη αμέσως και ανέφερε το περιστατικό στις αρχές. Τα συστήματα πληροφορικής των τραπεζών χρειάζονται πλέον τεχνολογία για να αντικαταστήσουν την ανθρώπινη παρέμβαση σε τέτοια θέματα.
Ο ρόλος της τεχνολογίας είναι ότι ακόμη και αν ο αποστολέας είναι γνωστός ως ο νόμιμος κάτοχος, το σύστημα θα λάβει μέτρα για να μπλοκάρει τη συναλλαγή εάν υποψιαστεί χειραγώγηση από κάποιον άλλο. Τέτοια εργαλεία ονομάζονται συστήματα πρόληψης απάτης.
Είναι καιρός το Βιετνάμ να εφαρμόσει κανονισμούς για τη διαχείριση της Τεχνητής Νοημοσύνης, εντάσσοντας την έρευνα, την ανάπτυξη και τη χρήση της σε ένα δομημένο πλαίσιο;
Δρ. Nguyen Tuan Khang: Το ζήτημα της ρύθμισης της Τεχνητής Νοημοσύνης συζητείται εδώ και πολύ καιρό, αλλά εξακολουθούν να υπάρχουν πολλά αμφιλεγόμενα σημεία. Για παράδειγμα, το πάρκινγκ στη γειτονιά μου διαθέτει σύστημα Τεχνητής Νοημοσύνης για την αναγνώριση πινακίδων κυκλοφορίας, ωστόσο οι κλοπές εξακολουθούν να συμβαίνουν. Τότε ξεκίνησε η συζήτηση για το ποιος έφταιγε. Θα έπρεπε να θεωρηθεί υπεύθυνος ο ιδιοκτήτης του κτιρίου, ο φύλακας ασφαλείας ή ο προγραμματιστής του συστήματος Τεχνητής Νοημοσύνης;
Από τότε και στο εξής, το κτίριο άλλαξε τους κανονισμούς του, ορίζοντας ότι οι κάτοικοι μπορούσαν να επιλέξουν να χρησιμοποιούν την αναγνώριση πινακίδων κυκλοφορίας με τεχνητή νοημοσύνη για λόγους ευκολίας, αλλά έπρεπε να αποδεχτούν τους κινδύνους. Όσοι συμφωνούσαν μπορούσαν να χρησιμοποιήσουν τις αυτόματες πύλες, ενώ όσοι διαφωνούσαν έπρεπε να παρκάρουν τα αυτοκίνητά τους με τον παλιό τρόπο. Χρειαζόμαστε ένα τέτοιο σύστημα.
Ομοίως, η IBM κάποτε ανέπτυξε ένα σύστημα τεχνητής νοημοσύνης για την πρόληψη του καρκίνου. Όταν το σύστημα συνταγογράφησε φάρμακα και ο ασθενής τα πήρε αλλά παρόλα αυτά δεν μπορούσε να σωθεί, μήπως το λάθος έφταιγε ο γιατρός ή η τεχνητή νοημοσύνη;
Πιστεύω ότι οι κανονισμοί για την Τεχνητή Νοημοσύνη πρέπει να είναι συγκεκριμένοι, δηλώνοντας με σαφήνεια τι επιτρέπεται και τι δεν επιτρέπεται κατά την ανάπτυξη εφαρμογών Τεχνητής Νοημοσύνης. Για να κάνουμε τον κόσμο ασφαλέστερο, ο πιο βασικός κανονισμός που μπορούμε να εφαρμόσουμε είναι να απαιτήσουμε την βιομετρική επαλήθευση μεγάλων χρηματικών μεταφορών. Σε μια τέτοια περίπτωση, τα άτομα των οποίων η ταυτότητα έχει παραβιαστεί θα μπορούσαν να αποφύγουν εντελώς την απώλεια χρημάτων.
Ευχαριστώ, κύριε.
[διαφήμιση_2]
Πηγή






Σχόλιο (0)