
Κακόβουλοι δράστες μπορούν να χρησιμοποιήσουν την Τεχνητή Νοημοσύνη για να χειραγωγήσουν ευαίσθητες εικόνες και βίντεο με σκοπό τη δυσφήμιση ή την εκβίαση άλλων - Φωτογραφία: Σχέδιο Τεχνητής Νοημοσύνης.
Προηγουμένως, όταν συζητούσαν την τεχνική της επικάλυψης του προσώπου ενός ατόμου πάνω στο σώμα ενός άλλου, οι άνθρωποι συχνά χρησιμοποιούσαν το Photoshop ή άλλο εξειδικευμένο λογισμικό επεξεργασίας φωτογραφιών – κάτι που ήταν επίπονο και εύκολα αντιληπτό με γυμνό μάτι.
Τώρα, με τα εργαλεία τεχνητής νοημοσύνης, οι άνθρωποι μπορούν να το κάνουν αυτό πολύ εύκολα σε «λίγα λεπτά», αλλά δεν ανιχνεύεται εύκολα με γυμνό μάτι.
Ανταλλαγή προσώπων σε βίντεο σεξ για εκβιασμό.
Λόγω επαγγελματικών διασυνδέσεων, ο κ. Χ. (διευθυντής μιας επιχείρησης στην πόλη Χο Τσι Μινχ) αλληλεπιδρά συχνά στα μέσα κοινωνικής δικτύωσης.
Σε μια περίπτωση, μια νεαρή γυναίκα τον ρώτησε για τη δουλειά του. Αφού συζήτησαν για λίγο και αντάλλαξαν ιστορίες για τη δουλειά και την προσωπική του ζωή, έγιναν αρκετά δεμένες.
Υπήρχαν επίσης πολλά γραπτά μηνύματα μεταξύ των δύο, γεμάτα με στοργικά λόγια, μαζί με φωτογραφίες που ανταλλάσσονταν μεταξύ τους και βιντεοκλήσεις για να μπορούν να δουν ο ένας το πρόσωπο του άλλου.
Μια μέρα, ο κ. Χ. έλαβε ένα τηλεφώνημα από κάποιον που ισχυριζόταν ότι ήταν ο σύζυγος της κοπέλας. Μετά από μια «προειδοποιητική» συνεδρία, ο «σύζυγος» απαίτησε από τον κ. Χ. να μεταφέρει χρήματα αποζημίωσης ή να διακινδυνεύσει να στείλει στιγμιότυπα οθόνης από τα αρχεία καταγραφής συνομιλιών τους και βίντεο σεξ σε συγγενείς και επιχειρηματικούς συνεργάτες του.
Στη συνέχεια, ο «σύζυγός» του έδειξε στον κ. Χ. ένα βίντεο με σεξ, όπου απεικονιζόταν αυτός και η άλλη γυναίκα, μαζί με ένα βίντεο από την τηλεφωνική τους κλήση και στιγμιότυπα οθόνης από τα προσωπικά τους μηνύματα...
«Δεν έχω γνωρίσει ποτέ αυτό το κορίτσι, οπότε είμαι σίγουρος ότι το βίντεο με το σεξ είναι μονταρισμένο», υποστήριξε ο κ. Χ. Ωστόσο, το πρόσωπο του κοριτσιού στο βίντεο με το σεξ και το κορίτσι στην βιντεοκλήση του ήταν πανομοιότυπα, μαζί με στιγμιότυπα οθόνης από ρομαντικά μηνύματα, αναγκάζοντας τον κ. Χ. να μεταφέρει επανειλημμένα χρήματα στον «σύζυγο» για να προστατεύσει τη φήμη του.
Σύμφωνα με την έρευνα της εφημερίδας Tuoi Tre , ο κ. H. έπεσε θύμα μιας οργανωμένης απάτης που ακολούθησε ένα τέλεια ενορχηστρωμένο σενάριο. Σε αυτήν την απάτη, ο κ. H. ξεγελάστηκε δύο φορές από την τεχνολογία deepfake. Η πρώτη φορά ήταν μια βιντεοκλήση και η δεύτερη ήταν ένα σεξουαλικό βίντεο.
Είναι αξιοσημείωτο ότι στο βίντεο με το σεξ, το πρόσωπο του κ. Χ. ήταν τόσο επιδέξια τοποθετημένο πάνω από το πρόσωπο που οι θεατές δυσκολεύονταν να πιστέψουν ότι επρόκειτο για ψεύτικο βίντεο. Ένας ειδικός στην τεχνητή νοημοσύνη επιβεβαίωσε στην εφημερίδα Tuổi Trẻ ότι ο δράστης χρησιμοποίησε ένα νέο εργαλείο τεχνητής νοημοσύνης ικανό να τοποθετεί τέλεια πρόσωπα στα βίντεο... κάνοντάς τα να φαίνονται απίστευτα ρεαλιστικά.
Υπάρχουν αμέτρητα εργαλεία τεχνητής νοημοσύνης για την ανταλλαγή προσώπων.
Υπάρχουν πλέον πολλά εργαλεία που υποστηρίζονται από τεχνητή νοημοσύνη και διαθέτουν λειτουργίες όπως η δημιουργία οποιασδήποτε ανθρώπινης φιγούρας με το επιθυμητό πρόσωπο ή η επικάλυψη ενός επιθυμητού προσώπου στο σώμα ενός άλλου ατόμου.
Μεταξύ αυτών των εργαλείων είναι εκείνα με λειτουργίες που εξυπηρετούν κακόβουλους σκοπούς, όπως η μετατροπή συνηθισμένων φωτογραφιών σε γυμνές εικόνες «αφαιρώντας» το άτομο στη φωτογραφία ή η αντικατάσταση του προσώπου ενός ατόμου σε βίντεο με ένα επιθυμητό πρόσωπο...
Τα περισσότερα από αυτά τα εργαλεία τεχνητής νοημοσύνης προσφέρουν μια δοκιμαστική περίοδο. Μια πληρωμένη έκδοση παρέχει πλήρη λειτουργικότητα και πολύ γρήγορους χρόνους μετασχηματισμού.
Για παράδειγμα, με τη λειτουργία που ανταλλάσσει πρόσωπα με σώματα άλλων ανθρώπων, οι χρήστες απλώς ανεβάζουν δύο αντίστοιχες φωτογραφίες και περιμένουν λίγα δευτερόλεπτα για το αποτέλεσμα.
Ή, με τη δυνατότητα δημιουργίας γυμνών εικόνων από κανονικές φωτογραφίες, τα εργαλεία τεχνητής νοημοσύνης μπορούν να το κάνουν πολύ γρήγορα, σε λίγες μόνο δεκάδες δευτερόλεπτα, σοκάροντας τους θεατές.
Ακόμη και η λειτουργία αντικατάστασης προσώπων σε βίντεο σεξ γίνεται πολύ γρήγορα από το εργαλείο τεχνητής νοημοσύνης, καθώς διαρκεί λιγότερο από ένα λεπτό για βίντεο που διαρκούν μόνο λίγα δευτερόλεπτα.
Μιλώντας στην εφημερίδα Tuổi Trẻ , ο κ. Nguyen Kim Tho, επικεφαλής της ομάδας έρευνας και ανάπτυξης στην εταιρεία κυβερνοασφάλειας VNetwork, ανέλυσε τον όρο «deepfake», ο οποίος αναφέρεται σε ψεύτικα βίντεο και εικόνες που δημιουργούνται με χρήση τεχνητής νοημοσύνης για να παραπλανήσουν τους θεατές ώστε να πιστέψουν ότι είναι αληθινά.
Η τεχνολογία deepfake χρησιμοποιεί μοντέλα βαθιάς μάθησης, όπως νευρωνικά δίκτυα, για να αναλύσει τα δεδομένα προσώπου και φωνής ενός ατόμου και να δημιουργήσει ψεύτικο περιεχόμενο που μοιάζει ακριβώς με αυτό το άτομο.
«Χάρη σε ισχυρούς αλγόριθμους, κακόβουλοι δράστες μπορούν να επικαλύψουν τα πρόσωπα των θυμάτων σε ευαίσθητα βίντεο (π.χ. βίντεο σεξ, πορνογραφία) ή να επεξεργαστούν εικόνες για να δημιουργήσουν ψεύτικες γυμνές φωτογραφίες».
«Το λογισμικό και οι εφαρμογές Deepfake είναι πλέον πολύ συνηθισμένα στο Διαδίκτυο, συμπεριλαμβανομένων ακόμη και εφαρμογών για κινητά, λογισμικού ανοιχτού κώδικα ή δωρεάν διαδικτυακών υπηρεσιών – καθιστώντας εύκολη την πρόσβαση σε εργαλεία για τη δημιουργία ψεύτικων βίντεο και φωτογραφιών σε οποιονδήποτε, επομένως οι άνθρωποι πρέπει να είναι σε εγρήγορση», δήλωσε ο κ. Tho.
Μείνετε μακριά από τις «συζητήσεις για σεξ».
Πολλές απάτες ξεκινούν με τη δημιουργία φιλικών σχέσεων με άτομα στο διαδίκτυο και στη συνέχεια την προσέλκυση θυμάτων σε «σεξουαλικές συνομιλίες» ή την αποστολή ευαίσθητων φωτογραφιών. Επομένως, οι χρήστες δεν πρέπει σε καμία περίπτωση να στέλνουν ιδιωτικές εικόνες ή βίντεο σε άτομα που γνωρίζουν μόνο στο διαδίκτυο, ανεξάρτητα από υποσχέσεις ή απειλές.
Να θυμάστε πάντα ότι οποιοδήποτε περιεχόμενο κοινοποιείτε (ακόμα και μέσω προσωπικών μηνυμάτων) μπορεί να καταγραφεί (στιγμιότυπα οθόνης, βίντεο) και στη συνέχεια να υποστεί επεξεργασία και να χρησιμοποιηθεί εναντίον σας.
Αν πραγματοποιείτε βιντεοκλήση, να είστε επιφυλακτικοί με αγνώστους που προσφέρουν ευαίσθητο περιεχόμενο – μπορεί να είναι ψεύτικη οθόνη ή να σας ηχογραφούν.
Οι ειδικοί στον κυβερνοχώρο συμβουλεύουν τους χρήστες να αποφεύγουν απολύτως την εμπιστοσύνη σε οποιονδήποτε με βάση αποκλειστικά τις διαδικτυακές αλληλεπιδράσεις και να επαληθεύουν την ταυτότητα και τις προθέσεις του άλλου μέρους πριν κοινοποιήσουν οτιδήποτε ευαίσθητο.
Επιπλέον, εάν λάβετε ένα απειλητικό μήνυμα ή κλήση σχετικά με την κυκλοφορία «γυμνών» φωτογραφιών για εκβιασμό, δεν χρειάζεται να φοβάστε ή να βιαστείτε να μεταφέρετε χρήματα.
Σύμφωνα με τους ειδικούς, η πληρωμή χρημάτων δεν εγγυάται ότι οι δράστες θα διαγράψουν το βίντεο. Ενδέχεται να συνεχίσουν να απαιτούν περισσότερα ή να ανεβάσουν το περιεχόμενο στο διαδίκτυο.
Αντί να συμμορφώνονται με τις απαιτήσεις των εγκληματιών, οι χρήστες θα πρέπει να συλλέγουν αποδεικτικά στοιχεία (μηνύματα, αριθμούς τηλεφώνου, λογαριασμούς επαφών, απειλητικό περιεχόμενο κ.λπ.) και να τα αναφέρουν αμέσως στο πλησιέστερο αστυνομικό τμήμα ή να αναφέρουν το περιστατικό μέσω της εφαρμογής VNeID του Υπουργείου Δημόσιας Ασφάλειας για έγκαιρη βοήθεια.
Πώς μπορούμε να τα αναγνωρίσουμε;
Σύμφωνα με τον κ. Nguyen Kim Tho, η διάκριση μεταξύ πραγματικών και deepfake εικόνων και βίντεο γίνεται ολοένα και πιο δύσκολη, αλλά εξακολουθούν να υπάρχουν ορισμένα σημάδια και εργαλεία αναγνώρισης που μπορούν να βοηθήσουν.
Οι χρήστες μπορούν να το παρατηρήσουν αυτό χειροκίνητα, καθώς το deepfake περιεχόμενο έχει μερικές φορές οπτικές και ηχητικές ανωμαλίες.
Για παράδειγμα, μια σύνθετη εικόνα μπορεί να αποκαλύψει θόρυβο και χρωματικές αποκλίσεις μεταξύ του προσώπου και του σώματος που επικαλύπτονται. Ένα ψεύτικο βίντεο μπορεί να έχει ασύμβατο ήχο και βίντεο (κινήσεις των χειλιών που δεν ταιριάζουν με την ομιλία) ή εκφράσεις του προσώπου που φαίνονται δύσκαμπτες και αφύσικες.
Προηγουμένως, ορισμένα deepfake βίντεο έδειχναν χαρακτήρες να μην ανοιγοκλείζουν τα μάτια τους ή ο φωτισμός και οι σκιές στα πρόσωπά τους δεν ταίριαζαν με το φόντο – αυτά ήταν ενδείξεις ότι το βίντεο είχε υποστεί επεξεργασία.
Παρόλο που η τεχνολογία βελτιώνεται (για παράδειγμα, τα νέα deepfakes έχουν προσθέσει ρεαλιστικές κινήσεις ανοιγοκλεισίματος των ματιών), οι απαιτητικοί θεατές μπορούν ακόμα να εντοπίσουν ορισμένες παράλογες λεπτομέρειες σε βίντεο και φωτογραφίες.
Οι ερευνητές αναπτύσσουν τώρα διάφορους αλγόριθμους για την αυτόματη ανίχνευση ιχνών deepfakes.
Το περιεχόμενο που δημιουργείται από τεχνητή νοημοσύνη συχνά αφήνει ένα μοναδικό «ψηφιακό αποτύπωμα» σε κάθε pixel που μπορεί να αναγνωρίσει η μηχανή.
Για παράδειγμα, η Intel παρουσίασε τον πρώτο ανιχνευτή deepfake σε πραγματικό χρόνο, ικανό να αναλύει βίντεο και να προσδιορίζει εάν οι χαρακτήρες σε αυτό είναι πραγματικοί άνθρωποι ή δημιουργούνται από τεχνητή νοημοσύνη.
Επιπλέον, ορισμένοι ιστότοποι επιτρέπουν στους χρήστες να ανεβάζουν βίντεο και φωτογραφίες για να ελέγχουν την αυθεντικότητά τους (για παράδειγμα, Deepware, Sensity AI...). Αυτά τα συστήματα ενημερώνονται συνεχώς ώστε να συμβαδίζουν με τις νέες τεχνικές deepfake.
Συγκεκριμένα, οι χρήστες μπορούν να ελέγξουν την πηγή και το πλαίσιο όταν συναντούν ένα ευαίσθητο βίντεο ή εικόνα, καθώς πολλά deepfake βίντεο διαδίδονται μέσω ψεύτικων λογαριασμών ή bots στα μέσα κοινωνικής δικτύωσης.
«Εάν το ευαίσθητο περιεχόμενο για ένα άτομο προέρχεται από ανεπίσημη πηγή ή ανώνυμο λογαριασμό, η αυθεντικότητά του θα πρέπει να αμφισβητηθεί. Ίσως αξίζει να προσπαθήσετε να επικοινωνήσετε απευθείας με το άτομο που εμφανίζεται στο περιεχόμενο για να επαληθεύσετε εάν το έκανε όντως.»
Επιπλέον, έργα όπως αυτό προωθούν την ενσωμάτωση πληροφοριών ελέγχου ταυτότητας (ψηφιακές υπογραφές) σε εικόνες και βίντεο αμέσως μετά τη δημιουργία, βοηθώντας στη διάκριση μεταξύ πρωτότυπου περιεχομένου και επεξεργασμένου περιεχομένου. Στο μέλλον, οι χρήστες ενδέχεται να μπορούν να χρησιμοποιούν αυτούς τους δείκτες ελέγχου ταυτότητας για να αναγνωρίζουν αξιόπιστο περιεχόμενο», δήλωσε ο κ. Tho.
5 συμβουλές για αυτοπροστασία
1. Περιορίστε την κοινοποίηση ευαίσθητων και ιδιωτικών φωτογραφιών και βίντεο (ειδικά γυμνών φωτογραφιών, οικογενειακών φωτογραφιών και φωτογραφιών παιδιών).
2. Ορίστε τους λογαριασμούς σας στα μέσα κοινωνικής δικτύωσης ως ιδιωτικούς (κοινοποιήστε τους μόνο με άτομα που εμπιστεύεστε).
3. Αποφύγετε την παροχή πολλών προσωπικών πληροφοριών (ονοματεπώνυμο, αριθμό τηλεφώνου, διεύθυνση κ.λπ.) στα δημόσια μέσα κοινωνικής δικτύωσης.
4. Ορίστε ισχυρούς κωδικούς πρόσβασης και ενεργοποιήστε τον έλεγχο ταυτότητας δύο παραγόντων για τους λογαριασμούς σας για να αποτρέψετε την πειρατεία.
5. Αναζητάτε τακτικά το όνομα και την εικόνα σας στην Google (ή χρησιμοποιήστε εργαλεία αντίστροφης αναζήτησης εικόνων όπως το Google Image ή το TinEye) για να δείτε εάν κάποια από τις φωτογραφίες σας έχει δημοσιευτεί παράνομα και ζητήστε αμέσως την αφαίρεσή της.
Πηγή: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm






Σχόλιο (0)