Τα deepfakes αποτελούν πλέον σημαντική ανησυχία, καθώς ο αριθμός των απάτων που χρησιμοποιούν αυτήν την τεχνολογία συνεχίζει να αυξάνεται.
Αφού έψαξαν σε φόρουμ του Darknet, όπου δραστηριοποιούνται συχνά οι κυβερνοεγκληματίες, οι ειδικοί ασφαλείας διαπίστωσαν ότι τόσοι πολλοί εγκληματίες χρησιμοποιούν λογισμικό Deepfake για απάτες που η ζήτηση υπερβαίνει κατά πολύ την προσφορά λογισμικού Deepfake που διατίθεται αυτήν τη στιγμή στην αγορά.
Καθώς η ζήτηση υπερβαίνει την προσφορά, οι ειδικοί της Kaspersky προβλέπουν μια αύξηση στις απάτες Deepfake, με ολοένα και πιο ποικίλες και εξελιγμένες μεθόδους: από την παροχή βίντεο πλαστοπροσωπίας υψηλής ποιότητας έως τη χρήση εικόνων διασημοτήτων σε ψεύτικες ζωντανές ροές στα μέσα κοινωνικής δικτύωσης, υπόσχοντας να διπλασιάσουν τον αριθμό των απατήσεων που τους έστειλαν τα θύματα.
Σύμφωνα με το σύστημα αναφοράς πληροφοριών Regula, το 37% των επιχειρήσεων παγκοσμίως έχουν βιώσει απάτες Deepfake μέσω φωνητικών μηνυμάτων και το 29% έχει πέσει θύμα απάτης Deepfake μέσω βίντεο.
Αυτή η τεχνολογία έχει γίνει απειλή για την κυβερνοασφάλεια του Βιετνάμ, όπου οι κυβερνοεγκληματίες συχνά χρησιμοποιούν ψεύτικες βιντεοκλήσεις για να μιμηθούν άτομα προκειμένου να δανειστούν χρήματα από συγγενείς και φίλους τους.
Μια βιντεοκλήση Deepfake μπορεί να διαρκέσει μόλις ένα λεπτό, γεγονός που καθιστά πολύ δύσκολο για τα θύματα να διακρίνουν μεταξύ μιας πραγματικής και μιας ψεύτικης κλήσης.
Τα deepfakes σταδιακά γίνονται «εφιάλτης» στις εξελιγμένες διαδικτυακές απάτες.
« Τα deepfakes έχουν γίνει εφιάλτης για τις γυναίκες και την κοινωνία. Οι κυβερνοεγκληματίες εκμεταλλεύονται την τεχνητή νοημοσύνη (AI) για να επικαλύπτουν τα πρόσωπα των θυμάτων σε πορνογραφικές εικόνες και βίντεο, καθώς και σε προπαγανδιστικές εκστρατείες.»
«Αυτές οι μορφές χειραγώγησης στοχεύουν στον έλεγχο της κοινής γνώμης μέσω της διάδοσης παραπληροφόρησης, βλάπτοντας ακόμη και τη φήμη οργανισμών ή ατόμων», δήλωσε η κα Vo Duong Tu Diem, Περιφερειακή Διευθύντρια της Kaspersky Vietnam.
Παρόλο που η τεχνητή νοημοσύνη χρησιμοποιείται κατάχρηση από εγκληματίες για κακόβουλους σκοπούς, τα άτομα και οι επιχειρήσεις μπορούν ακόμα να χρησιμοποιούν την τεχνητή νοημοσύνη για τον εντοπισμό deepfakes, μειώνοντας την πιθανότητα επιτυχημένων απάτων.
Συνεπώς, οι χρήστες θα έχουν στη διάθεσή τους αρκετές χρήσιμες λύσεις για να προστατευτούν από απάτες, όπως η χρήση λογισμικού ανίχνευσης περιεχομένου που δημιουργείται από τεχνητή νοημοσύνη (το οποίο χρησιμοποιεί προηγμένους αλγόριθμους για την ανάλυση και τον προσδιορισμό του βαθμού στον οποίο έχουν υποστεί επεξεργασία εικόνες/βίντεο/ήχος).
Για τα deepfake βίντεο, υπάρχουν πλέον εργαλεία που βοηθούν στον εντοπισμό ασύμβατων κινήσεων μεταξύ του στόματος και της ομιλίας. Ορισμένα προγράμματα είναι ακόμη και αρκετά «ισχυρά» για να ανιχνεύσουν μη φυσιολογική ροή αίματος κάτω από το δέρμα αναλύοντας την ανάλυση του βίντεο, επειδή όταν η καρδιά αντλεί αίμα, οι φλέβες στο σώμα ενός ατόμου αλλάζουν χρώμα.
Επιπλέον, τα υδατογραφήματα χρησιμεύουν ως αναγνωριστικά σημάδια σε εικόνες, βίντεο κ.λπ., βοηθώντας τους δημιουργούς να προστατεύσουν τα πνευματικά δικαιώματα των προϊόντων τεχνητής νοημοσύνης τους. Αυτή η λειτουργία μπορεί να γίνει όπλο κατά των Deepfakes, επειδή βοηθά στην ανίχνευση της προέλευσης της πλατφόρμας που δημιούργησε την τεχνητή νοημοσύνη. Οι χρήστες με τεχνολογικές γνώσεις μπορούν να βρουν τρόπους να εντοπίσουν την πηγή του περιεχομένου για να συγκρίνουν πώς τα αρχικά δεδομένα έχουν τροποποιηθεί από την τεχνητή νοημοσύνη.
Προς το παρόν, ορισμένες αναδυόμενες τεχνολογίες χρησιμοποιούν αλγόριθμους κρυπτογράφησης για την εισαγωγή τιμών κατακερματισμού σε καθορισμένα χρονικά διαστήματα μέσα στο βίντεο. Εάν το βίντεο έχει υποστεί επεξεργασία, η τιμή κατακερματισμού θα αλλάξει, επιτρέποντας στους χρήστες να επαληθεύσουν εάν το περιεχόμενο έχει παραβιαστεί.
Προηγουμένως, υπήρχαν ορισμένες οδηγίες για την εύρεση ανωμαλιών σε βίντεο, όπως η παραμόρφωση των χρωμάτων, οι αφύσικες μυϊκές κινήσεις, οι κινήσεις των ματιών κ.λπ. Ωστόσο, καθώς η Τεχνητή Νοημοσύνη γίνεται ολοένα και πιο έξυπνη, αυτές οι τιμές δεν αποδίδουν πάντα ακριβή αποτελέσματα.
Η διαδικασία επαλήθευσης της αξιοπιστίας των βίντεο δεν βασίζεται πλέον στην οπτική επιθεώρηση, αλλά απαιτεί τεχνολογικά εργαλεία σχεδιασμένα για την πρόληψη και την ανίχνευση ψεύτικου περιεχομένου.
Καν Λιν
[διαφήμιση_2]
Πηγή






Σχόλιο (0)