Το deepfake αποτελεί πλέον σημαντική ανησυχία, καθώς ο αριθμός των απάτων που βασίζονται στην τεχνολογία συνεχίζει να αυξάνεται.
Μετά από έρευνα σε φόρουμ του Darknet, όπου δραστηριοποιούνται συχνά οι κυβερνοεγκληματίες, οι ειδικοί ασφαλείας διαπίστωσαν ότι υπήρχαν τόσοι πολλοί εγκληματίες που χρησιμοποιούσαν το Deepfake για απάτες, που η ζήτηση ξεπερνούσε κατά πολύ την προσφορά λογισμικού Deepfake που κυκλοφορεί αυτήν τη στιγμή στην αγορά.
Καθώς η ζήτηση ξεπερνά την προσφορά, οι ειδικοί της Kaspersky προβλέπουν ότι οι απάτες Deepfake θα αυξηθούν, με πιο ποικίλες και εξελιγμένες μορφές: από την προσφορά ενός βίντεο πλαστοπροσωπίας υψηλής ποιότητας έως τη χρήση εικόνων διασημοτήτων σε ψεύτικες ζωντανές μεταδόσεις στα μέσα κοινωνικής δικτύωσης, με την υπόσχεση πληρωμής του διπλάσιου ποσού από το ποσό που τους έστειλε το θύμα.
Σύμφωνα με το σύστημα αναφοράς πληροφοριών Regula, το 37% των επιχειρήσεων παγκοσμίως έχουν αντιμετωπίσει απάτη μέσω Deepfake και το 29% έχει πέσει θύμα βίντεο Deepfake.
Αυτή η τεχνολογία έχει γίνει απειλή για την κυβερνοασφάλεια στο Βιετνάμ, όπου οι κυβερνοεγκληματίες συχνά χρησιμοποιούν ψεύτικες βιντεοκλήσεις για να μιμηθούν άτομα προκειμένου να δανειστούν χρήματα από συγγενείς και φίλους τους.
Μια βιντεοκλήση Deepfake μπορεί να διαρκέσει μόνο ένα λεπτό, γεγονός που δυσκολεύει τα θύματα να διακρίνουν μεταξύ πραγματικού και ψεύτικου.
Το Deepfake σταδιακά μετατρέπεται σε «εφιάλτη» στις εξελιγμένες διαδικτυακές απάτες.
« Το deepfake έχει γίνει εφιάλτης για τις γυναίκες και την κοινωνία. Οι κυβερνοεγκληματίες εκμεταλλεύονται την τεχνητή νοημοσύνη (AI) για να εισάγουν τα πρόσωπα των θυμάτων σε πορνογραφικές φωτογραφίες και βίντεο, καθώς και σε προπαγανδιστικές εκστρατείες.»
«Αυτές οι μορφές στοχεύουν στη χειραγώγηση της κοινής γνώμης μέσω της διάδοσης ψευδών πληροφοριών, ακόμη και βλάπτοντας τη φήμη οργανισμών ή ατόμων», δήλωσε η κα Vo Duong Tu Diem, Περιφερειακή Διευθύντρια της Kaspersky για το Βιετνάμ.
Παρόλο που η Τεχνητή Νοημοσύνη γίνεται αντικείμενο κατάχρησης από εγκληματίες για κακόβουλους σκοπούς, άτομα και επιχειρήσεις μπορούν ακόμα να χρησιμοποιήσουν την ίδια την τεχνητή νοημοσύνη για να εντοπίσουν Deepfakes, μειώνοντας την πιθανότητα επιτυχίας των απάτων.
Συνεπώς, οι χρήστες θα έχουν στη διάθεσή τους ορισμένες χρήσιμες λύσεις για να προστατευτούν από απάτες, όπως η χρήση λογισμικού ανίχνευσης περιεχομένου που δημιουργείται από τεχνητή νοημοσύνη (χρησιμοποιώντας προηγμένους αλγόριθμους για την ανάλυση και τον προσδιορισμό του επιπέδου επεξεργασίας εικόνων/βίντεο/ήχων).
Για τα βίντεο Deepfake, υπάρχουν διαθέσιμα εργαλεία που μπορούν να ανιχνεύσουν ασύμβατες κινήσεις του στόματος και ομιλία. Ορισμένα προγράμματα είναι ακόμη και αρκετά ισχυρά για να ανιχνεύσουν μη φυσιολογική ροή αίματος κάτω από το δέρμα αναλύοντας την ανάλυση του βίντεο, επειδή οι ανθρώπινες φλέβες αλλάζουν χρώμα όταν η καρδιά αντλεί αίμα.
Επιπλέον, υπάρχει επίσης ένα υδατογράφημα που λειτουργεί ως αναγνωριστικό σήμα σε εικόνες, βίντεο κ.λπ. για να βοηθήσει τους δημιουργούς να προστατεύσουν τα πνευματικά δικαιώματα των προϊόντων Τεχνητής Νοημοσύνης. Αυτή η λειτουργία μπορεί να γίνει όπλο κατά του Deepfake, επειδή βοηθά στην ανίχνευση της προέλευσης της πλατφόρμας που δημιουργεί τεχνητή νοημοσύνη. Οι χρήστες με ένα επίπεδο τεχνολογικών γνώσεων μπορούν να βρουν έναν τρόπο να εντοπίσουν την προέλευση του περιεχομένου για να συγκρίνουν πώς τα αρχικά δεδομένα έχουν υποστεί επεξεργασία από τα «χέρια» της Τεχνητής Νοημοσύνης.
Προς το παρόν, ορισμένες αναδυόμενες τεχνολογίες χρησιμοποιούν αλγόριθμους κρυπτογράφησης για την εισαγωγή τιμών κατακερματισμού σε καθορισμένα χρονικά διαστήματα στο βίντεο. Εάν το βίντεο έχει υποστεί επεξεργασία, η τιμή κατακερματισμού θα αλλάξει και από εκεί οι χρήστες μπορούν να επαληθεύσουν εάν το περιεχόμενο έχει παραποιηθεί ή όχι.
Στο παρελθόν έχουν υπάρξει κάποια tutorials σχετικά με την εύρεση ανωμαλιών σε βίντεο, για παράδειγμα, αποκλίσεις χρώματος, αφύσικες κινήσεις μυϊκών ομάδων, μάτια... Ωστόσο, η Τεχνητή Νοημοσύνη γίνεται όλο και πιο έξυπνη, επομένως αυτές οι τιμές δεν δίνουν πάντα σωστά αποτελέσματα.
Η διαδικασία επαλήθευσης της αξιοπιστίας των βίντεο δεν βασίζεται πλέον στο γυμνό μάτι, αλλά απαιτεί τεχνολογικά εργαλεία που έχουν δημιουργηθεί με σκοπό την πρόληψη και την ανίχνευση ψεύτικου περιεχομένου.
Καν Λιν
[διαφήμιση_2]
Πηγή
Σχόλιο (0)