Vietnam.vn - Nền tảng quảng bá Việt Nam

Χρήση Τεχνητής Νοημοσύνης για τον συνδυασμό ευαίσθητων εικόνων για εκβιασμό

Από μια εικονική φωτογραφία που δημοσιεύεται στα μέσα κοινωνικής δικτύωσης, οι κακοποιοί μπορούν να χρησιμοποιήσουν εργαλεία τεχνητής νοημοσύνης (AI) για να δημιουργήσουν σέξι, ακόμη και γυμνές φωτογραφίες ή να βάλουν ρεαλιστικά πρόσωπα σε ευαίσθητα βίντεο για να δυσφημίσουν και να εκβιάσουν το θύμα.

Báo Tuổi TrẻBáo Tuổi Trẻ17/03/2025

Dùng AI ghép hình ảnh nhạy cảm để tống tiền - Ảnh 1.

Οι κακοί μπορούν να χρησιμοποιήσουν την Τεχνητή Νοημοσύνη για να συνδυάσουν ευαίσθητες φωτογραφίες και βίντεο για να δυσφημίσουν και να εκβιάσουν άλλους - Φωτογραφία: Σχέδιο Τεχνητής Νοημοσύνης

Στο παρελθόν, όταν μιλούσαν για την τεχνική της κοπής και επικόλλησης του προσώπου ενός ατόμου στο σώμα ενός άλλου, οι άνθρωποι συχνά χρησιμοποιούσαν το photoshop ή εξειδικευμένο λογισμικό επεξεργασίας φωτογραφιών - κάτι που είναι επίπονο και εύκολα αναγνωρίσιμο με γυμνό μάτι.

Τώρα, με τα εργαλεία τεχνητής νοημοσύνης, οι άνθρωποι μπορούν να το κάνουν αυτό πολύ εύκολα σε «λίγες σημειώσεις», αλλά δεν είναι εύκολο να το εντοπίσουν με γυμνό μάτι.

Βίντεο σεξ με ανταλλαγή προσώπων για εκβιασμό

Λόγω επαγγελματικών διασυνδέσεων, ο κ. Χ. (διευθυντής μιας επιχείρησης στην πόλη Χο Τσι Μινχ) αλληλεπιδρά συχνά στα μέσα κοινωνικής δικτύωσης.

Μια φορά, έγινε φίλος με μια νεαρή κοπέλα που τον ρώτησε για τη δουλειά του. Αφού ρωτούσαν ο ένας για τον άλλον, κουβέντιαζαν και μοιράστηκαν πληροφορίες για τη δουλειά και την προσωπική του ζωή, οι δυο τους φάνηκαν αρκετά δεμένοι.

Υπήρχαν επίσης πολλά γραπτά μηνύματα μεταξύ των δύο με πολύ τρυφερά λόγια, μαζί με φωτογραφίες που ανταλλάσσονταν μεταξύ τους και βιντεοκλήσεις για να βγουν ο ένας τον άλλον.

Μια μέρα, ο κ. Χ. έλαβε ξαφνικά ένα τηλεφώνημα από έναν άνδρα που ισχυριζόταν ότι ήταν ο σύζυγος της κοπέλας. Μετά από μια «προληπτική» ενέργεια εναντίον του κ. Χ., ο «σύζυγος» απαίτησε να μεταφέρει χρήματα αποζημίωσης, διαφορετικά θα έστελνε φωτογραφίες από τις συνομιλίες τους και βίντεο σεξ σε συγγενείς και επιχειρηματικούς συνεργάτες του.

Στη συνέχεια, ο «σύζυγός» του έδειξε στον κ. Χ. ένα βίντεο σεξ με αυτόν και την άλλη κοπέλα, μαζί με μια βιντεοκλήση μεταξύ των δύο και ηχογραφημένα προσωπικά μηνύματα κειμένου...

«Δεν έχω γνωρίσει ποτέ αυτό το κορίτσι, οπότε είμαι σίγουρος ότι το βίντεο με το σεξ είναι μια εικόνα με photoshop» - επιβεβαίωσε ο κ. Χ. Ωστόσο, η εικόνα του προσώπου του κοριτσιού στο βίντεο με το σεξ και του κοριτσιού στην βιντεοκλήση του είναι η ίδια, μαζί με μια φωτογραφία του τρυφερού μηνύματος κειμένου, αναγκάζοντας τον κ. Χ. να μεταφέρει χρήματα στον «σύζυγό» του πολλές φορές για να διατηρήσει τη φήμη του.

Μέσω της έρευνας του Tuoi Tre , ο κ. H. εξαπατήθηκε με οργανωμένο τρόπο ακολουθώντας ένα τέλειο σενάριο. Σε αυτήν την απάτη, ο κ. H. εξαπατήθηκε δύο φορές από deepfake. Η πρώτη φορά ήταν μια βιντεοκλήση και η δεύτερη φορά ένα βίντεο σεξ.

Αξίζει να σημειωθεί ότι στο βίντεο με το σεξ, το πρόσωπο του κ. H. είχε υποστεί τόσο επιδέξια μεταμόσχευση που οι θεατές δυσκολεύονταν να πιστέψουν ότι επρόκειτο για βίντεο με μεταμόσχευση προσώπου. Ένας ειδικός στην τεχνητή νοημοσύνη επιβεβαίωσε στον Tuoi Tre ότι οι κακοί χρησιμοποίησαν ένα νέο εργαλείο τεχνητής νοημοσύνης που μπορούσε να μεταμοσχεύσει πρόσωπα σε βίντεο τέλεια... όπως τα πραγματικά.

Τα εργαλεία τεχνητής νοημοσύνης για την ανταλλαγή προσώπων αφθονούν

Αυτή τη στιγμή, υπάρχουν πολλά εργαλεία εφαρμογών τεχνητής νοημοσύνης που διαθέτουν λειτουργίες όπως η δημιουργία οποιουδήποτε ατόμου με το επιθυμητό πρόσωπο και η συγχώνευση του επιθυμητού προσώπου με το σώμα ενός άλλου ατόμου.

Ανάμεσά τους, υπάρχουν εργαλεία με λειτουργίες που εξυπηρετούν κακούς σκοπούς, όπως η μετατροπή κανονικών φωτογραφιών σε γυμνές φωτογραφίες «αφαιρώντας» το άτομο στη φωτογραφία ή η αντικατάσταση του προσώπου ενός ατόμου σε βίντεο με ένα επιθυμητό πρόσωπο...

Τα περισσότερα από αυτά τα εργαλεία τεχνητής νοημοσύνης είναι διαθέσιμα για δοκιμή, αλλά η πληρωμή τους θα σας δώσει όλες τις δυνατότητες με πολύ γρήγορο χρόνο μετασχηματισμού.

Για παράδειγμα, με τη λειτουργία πρόσωπο με σώμα, οι χρήστες απλώς πρέπει να ανεβάσουν δύο αντίστοιχες φωτογραφίες και να περιμένουν λίγα δευτερόλεπτα για τα αποτελέσματα.

Ή με τη δυνατότητα δημιουργίας γυμνών φωτογραφιών από κανονικές φωτογραφίες, το εργαλείο AI μπορεί να το κάνει πολύ γρήγορα, σε λίγες μόνο δεκάδες δευτερόλεπτα, προκαλώντας έκπληξη στους θεατές.

Ακόμα και η δυνατότητα αντικατάστασης προσώπων σε βίντεο σεξ, το εργαλείο τεχνητής νοημοσύνης το κάνει πολύ γρήγορα, σε λιγότερο από ένα λεπτό για βίντεο που διαρκούν λίγα δευτερόλεπτα.

Μιλώντας με τον Tuoi Tre , ο κ. Nguyen Kim Tho, επικεφαλής της ομάδας έρευνας και ανάπτυξης της εταιρείας κυβερνοασφάλειας VNetwork, ανέλυσε τον όρο deepfake, ο οποίος αναφέρεται σε ψεύτικα βίντεο και εικόνες που δημιουργούνται με χρήση τεχνητής νοημοσύνης για να κάνουν τους θεατές να πιστεύουν ότι είναι αληθινά.

Η τεχνολογία deepfake χρησιμοποιεί μοντέλα βαθιάς μάθησης, όπως νευρωνικά δίκτυα, για να αναλύσει τα δεδομένα προσώπου και φωνής ενός ατόμου και να δημιουργήσει ψεύτικο περιεχόμενο που μοιάζει ακριβώς με αυτό το άτομο.

«Χάρη σε ισχυρούς αλγόριθμους, οι κακοποιοί μπορούν να βάλουν το πρόσωπο του θύματος σε ευαίσθητα βίντεο (για παράδειγμα, βίντεο με "κρεβάτι", πορνό) ή να επεξεργαστούν εικόνες για να δημιουργήσουν ψεύτικες γυμνές φωτογραφίες.»

«Το λογισμικό και οι εφαρμογές deepfake είναι πλέον πολύ δημοφιλείς στο Διαδίκτυο, ακόμη και με εφαρμογές για κινητά, ανοιχτό κώδικα ή δωρεάν διαδικτυακές υπηρεσίες - καθιστώντας εύκολη την πρόσβαση σε εργαλεία για τη δημιουργία ψεύτικων βίντεο και φωτογραφιών για οποιονδήποτε, επομένως οι άνθρωποι πρέπει να είναι σε εγρήγορση», δήλωσε ο κ. Tho.

Μείνετε μακριά από τις «συζητήσεις για σεξ»

Πολλές απάτες ξεκινούν με την εύρεση φίλων στο διαδίκτυο και στη συνέχεια την εξαπάτηση του θύματος για «σεξουαλική συνομιλία» ή την αποστολή ευαίσθητων φωτογραφιών. Επομένως, οι χρήστες δεν πρέπει ποτέ να στέλνουν ιδιωτικές φωτογραφίες ή βίντεο σε άτομα που γνωρίζουν μόνο στο διαδίκτυο, ανεξάρτητα από τις υποσχέσεις ή τις απειλές που κάνουν.

Να θυμάστε πάντα ότι οποιοδήποτε περιεχόμενο κοινοποιείται (ακόμα και μέσω προσωπικών μηνυμάτων) μπορεί να καταγραφεί (στιγμιότυπο οθόνης, βίντεο) και στη συνέχεια να υποστεί επεξεργασία και να χρησιμοποιηθεί εναντίον σας.

Εάν πραγματοποιείτε βιντεοκλήσεις, να είστε επιφυλακτικοί με αγνώστους που σας ζητούν ευαίσθητο περιεχόμενο - μπορεί να είναι ψεύτικη οθόνη ή να κάνουν ηχογράφηση.

Οι ειδικοί στον κυβερνοχώρο συμβουλεύουν τους χρήστες να μην εμπιστεύονται ποτέ κανέναν μόνο μέσω της διαδικτυακής επαφής και να επαληθεύουν την ταυτότητα και τις προθέσεις του άλλου ατόμου πριν κοινοποιήσουν οτιδήποτε ευαίσθητο.

Επιπλέον, εάν λάβετε ένα μήνυμα κειμένου ή μια κλήση που σας απειλεί να δημοσιεύσετε «καυτές» φωτογραφίες για εκβιασμό, οι χρήστες δεν χρειάζεται να φοβούνται ή να βιάζονται να μεταφέρουν χρήματα.

Η πληρωμή δεν εγγυάται ότι οι κακοποιοί θα διαγράψουν το βίντεο. Μπορεί να συνεχίσουν να απαιτούν περισσότερα ή να δημοσιεύουν το περιεχόμενο στο διαδίκτυο ούτως ή άλλως, λένε οι ειδικοί.

Αντί να ακολουθούν τα αιτήματα των εγκληματιών, οι χρήστες θα πρέπει να συλλέγουν αποδεικτικά στοιχεία (μηνύματα, αριθμούς τηλεφώνου, λογαριασμούς επαφών, απειλητικό περιεχόμενο...) και να το αναφέρουν αμέσως στην πλησιέστερη αστυνομική υπηρεσία ή να αναφέρουν το περιστατικό μέσω της εφαρμογής VNeID του Υπουργείου Δημόσιας Ασφάλειας για έγκαιρη υποστήριξη.

Πώς να αναγνωρίσετε;

Σύμφωνα με τον κ. Nguyen Kim Tho, η διάκριση μεταξύ πραγματικών εικόνων και βίντεο και deepfakes γίνεται ολοένα και πιο δύσκολη, αλλά εξακολουθούν να υπάρχουν ορισμένα σημάδια αναγνώρισης και υποστηρικτικά εργαλεία.

Οι χρήστες μπορούν να παρατηρήσουν χειροκίνητα, επειδή το deepfake περιεχόμενο μερικές φορές έχει ανωμαλίες στην εικόνα και τον ήχο.

Για παράδειγμα, μια σύνθετη εικόνα μπορεί να εμφανίζει θόρυβο ή διαφορές χρώματος μεταξύ του σύνθετου προσώπου και του σώματος. Ένα ψεύτικο βίντεο μπορεί να έχει αναντιστοιχίες ήχου και βίντεο (κινήσεις των χειλιών που δεν ταιριάζουν με την ομιλία) ή εκφράσεις του προσώπου που φαίνονται δύσκαμπτες και αφύσικες.

Προηγουμένως, ορισμένα deepfake βίντεο έκαναν τους χαρακτήρες να μην ανοιγοκλείσουν τα μάτια τους ή ο φωτισμός και οι σκιές στο πρόσωπο δεν ταίριαζαν με το περιεχόμενο - κάτι που ήταν ενδείξεις ότι το βίντεο είχε υποστεί επεξεργασία.

Παρόλο που η τεχνολογία βελτιώνεται (για παράδειγμα, τα νέα deepfakes έχουν προσθέσει ρεαλιστικές κινήσεις ανοιγοκλεισίματος των ματιών), οι παρατηρητικοί θεατές μπορούν ακόμα να εντοπίσουν κάποιες παράλογες λεπτομέρειες σε βίντεο και φωτογραφίες.

Οι ερευνητές αναπτύσσουν τώρα πολλούς αλγόριθμους για την αυτόματη ανίχνευση ιχνών deepfake.

Το περιεχόμενο που παράγεται από την τεχνητή νοημοσύνη συχνά αφήνει ένα διακριτικό «ψηφιακό αποτύπωμα» σε κάθε pixel που μπορούν να αναγνωρίσουν οι μηχανές.

Για παράδειγμα, η Intel παρουσίασε τον πρώτο ανιχνευτή deepfake σε πραγματικό χρόνο, ικανό να αναλύει βίντεο και να προσδιορίζει εάν οι χαρακτήρες σε αυτά είναι πραγματικοί άνθρωποι ή δημιουργούνται από τεχνητή νοημοσύνη.

Επιπλέον, ορισμένοι ιστότοποι επιτρέπουν στους χρήστες να ανεβάζουν βίντεο και φωτογραφίες για να ελέγχουν την αυθεντικότητα των εικόνων (για παράδειγμα, Deepware, εργαλεία Sensity AI...). Αυτά τα συστήματα ενημερώνονται συνεχώς για να συμβαδίζουν με τις νέες τεχνικές deepfake.

Συγκεκριμένα, οι χρήστες μπορούν να ελέγξουν την πηγή της ανάρτησης και το περιεχόμενο όταν συναντούν ένα ευαίσθητο βίντεο ή εικόνα, επειδή πολλά βίντεο deepfake διαδίδονται μέσω ψεύτικων λογαριασμών ή bots σε κοινωνικά δίκτυα.

«Εάν ευαίσθητο περιεχόμενο για ένα άτομο προέρχεται από ανεπίσημη πηγή ή ανώνυμο λογαριασμό, να είστε επιφυλακτικοί ως προς την αυθεντικότητά του. Ίσως θελήσετε να δοκιμάσετε να επικοινωνήσετε απευθείας με το άτομο που εμφανίζεται στο περιεχόμενο για να επαληθεύσετε ότι το έκανε όντως.»

Επιπλέον, έργα όπως το προωθούν την ενσωμάτωση πληροφοριών ελέγχου ταυτότητας (ψηφιακές υπογραφές) σε φωτογραφίες και βίντεο από τη στιγμή της δημιουργίας τους, συμβάλλοντας στη διάκριση του πρωτότυπου περιεχομένου από το επεξεργασμένο περιεχόμενο. Στο μέλλον, οι χρήστες θα μπορούν να χρησιμοποιούν αυτά τα σήματα ελέγχου ταυτότητας για να αναγνωρίζουν αξιόπιστο περιεχόμενο», δήλωσε ο κ. Tho.

5 σημειώσεις για να προστατεύσετε τον εαυτό σας

1. Περιορίστε την κοινοποίηση ευαίσθητων, ιδιωτικών φωτογραφιών και βίντεο (ειδικά γυμνών φωτογραφιών, οικογενειακών φωτογραφιών, φωτογραφιών παιδιών).

2. Ορίστε τους λογαριασμούς σας στα μέσα κοινωνικής δικτύωσης ως ιδιωτικούς (κοινοποιήστε τους μόνο με έμπιστα άτομα).

3. Μην παρέχετε πάρα πολλές προσωπικές πληροφορίες (ονοματεπώνυμο, αριθμό τηλεφώνου, διεύθυνση...) σε δημόσια μέσα κοινωνικής δικτύωσης.

4. Ορίστε ισχυρούς κωδικούς πρόσβασης και ενεργοποιήστε την επαλήθευση δύο βημάτων για τους λογαριασμούς σας, για να αποφύγετε τυχόν παραβίαση.

5. Αναζητάτε τακτικά το όνομα και την εικόνα σας στην Google (ή χρησιμοποιήστε εργαλεία αντίστροφης αναζήτησης εικόνων όπως το Google Image, το TinEye) για να δείτε αν κάποια από τις φωτογραφίες σας έχει δημοσιευτεί χωρίς άδεια και ζητήστε αμέσως την αφαίρεσή της.

Διαβάστε περισσότερα Επιστροφή στα Θέματα
ΑΡΕΤΗ

Πηγή: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm


Σχόλιο (0)

No data
No data

Στην ίδια κατηγορία

Εγκαίνια της έκθεσης καλλιτεχνικής φωτογραφίας «Χρώματα της ζωής βιετναμέζικων εθνοτικών ομάδων»
Πόλη Χο Τσι Μινχ: Ο δρόμος με τα φανάρια Luong Nhu Hoc είναι πολύχρωμος για να καλωσορίσει το Φεστιβάλ του Μεσοφθινοπώρου
Διατηρώντας το πνεύμα του Φεστιβάλ των Μέσων του Φθινοπώρου μέσα από τα χρώματα των ειδωλίων
Ανακαλύψτε το μοναδικό χωριό στο Βιετνάμ που βρίσκεται στη λίστα με τα 50 πιο όμορφα χωριά του κόσμου

Από τον ίδιο συγγραφέα

Κληρονομία

Εικόνα

Επιχείρηση

No videos available

Τρέχοντα γεγονότα

Πολιτικό Σύστημα

Τοπικός

Προϊόν