Στην τακτική συνέντευξη Τύπου του Υπουργείου Πληροφοριών και Επικοινωνιών σήμερα το πρωί, 5 Μαΐου, ο κ. Tran Quang Hung, Αναπληρωτής Διευθυντής του Τμήματος Ασφάλειας Πληροφοριών (Υπουργείο Πληροφοριών και Επικοινωνιών), εξέδωσε προειδοποίηση σχετικά με τις κλήσεις απάτης deepfake.
Κος Tran Quang Hung, Αναπληρωτής Διευθυντής του Τμήματος Ασφάλειας Πληροφοριών
Σύμφωνα με έναν εκπρόσωπο του Τμήματος Ασφάλειας Πληροφοριών, πρόσφατα, οι διαδικτυακές απάτες με deepfake έχουν εκτοξευθεί στο Βιετνάμ. Τα άτομα χρησιμοποιούν τεχνολογία τεχνητής νοημοσύνης (AI) για να δημιουργήσουν ψεύτικα βίντεο ή εικόνες, να αντιγράψουν πορτρέτα για να δημιουργήσουν ψεύτικα βίντεο συγγενών και φίλων και να πραγματοποιήσουν απάτες.
Αμέσως μετά την παραλαβή των σχολίων από τους ανθρώπους, ειδικοί του Τμήματος Ασφάλειας Πληροφοριών διεξήγαγαν ανάλυση και εξέδωσαν μια εκτεταμένη προειδοποίηση.
«Το Deepfake αποτελεί απειλή για την ακεραιότητα και την αξιοπιστία των βίντεο και των εικόνων. Μπορεί να χρησιμοποιηθεί όχι μόνο για διαδικτυακή απάτη αλλά και για άλλους σκοπούς, όπως πολιτικές επιθέσεις, δημιουργία ψευδών ειδήσεων ή βλάβη της φήμης άλλων. Το μεγαλύτερο μέρος αυτής της μορφής διαδικτυακής απάτης στοχεύει στην οικονομική απάτη», δήλωσε ο κ. Hung.
Για την αναγνώριση των deepfake απατηλών κλήσεων, σύμφωνα με τον εκπρόσωπο του Τμήματος Ασφάλειας Πληροφοριών, με γυμνό μάτι, μπορεί να υπάρχουν ακόμη κάποια αναγνωρίσιμα σημάδια, όπως ο χρόνος κλήσης που είναι συχνά πολύ σύντομος, μόνο λίγα δευτερόλεπτα. Συγκεκριμένα, τα πρόσωπά τους δεν έχουν συναίσθημα και είναι αρκετά «αδιάφορα» όταν μιλούν ή η στάση τους φαίνεται αμήχανη, αφύσικη, η κατεύθυνση του κεφαλιού και του σώματός τους στο βίντεο είναι ασυνεπής μεταξύ τους...
Επιπλέον, είπε ο κ. Hung, είναι επίσης πιθανό να δείτε το χρώμα του δέρματος του χαρακτήρα στο βίντεο να είναι ασυνήθιστο, τον φωτισμό να είναι περίεργο και τις σκιές να μην είναι στη σωστή θέση. Αυτό μπορεί να κάνει το βίντεο να φαίνεται πολύ ψεύτικο και αφύσικο. Επιπλέον, ο ήχος δεν θα είναι συνεπής με την εικόνα, θα υπάρχει πολύς θόρυβος που θα χαθεί στο κλιπ ή το κλιπ δεν θα έχει καθόλου ήχο.
«Αξιοσημείωτο είναι ότι οι απάτες deepfake συχνά συμβαίνουν σε περιπτώσεις όπου ο λογαριασμός μεταφοράς χρημάτων δεν ανήκει στο άτομο που κάνει την κλήση. Συχνά ο απατεώνας αποσυνδέεται στη μέση, λέγοντας ότι το σήμα έχει χαθεί, το σήμα είναι ασθενές... Παράξενοι παράγοντες όπως τα παραπάνω αποτελούν προειδοποιητικά σημάδια deepfake. Οι άνθρωποι θα πρέπει να είναι σε εγρήγορση και απόλυτα ψύχραιμοι», προειδοποίησε ο κ. Hung.
Για την αποτροπή των διαδικτυακών απατήσεων μέσω τεχνητής νοημοσύνης, ένας εκπρόσωπος του Τμήματος Ασφάλειας Πληροφοριών δήλωσε ότι η τεχνολογία αλλάζει καθημερινά, η καταπολέμηση των διαδικτυακών απατών είναι μακροπρόθεσμη. Η καταπολέμηση των διαδικτυακών απατών δεν είναι απλώς θέμα τεχνολογίας, αλλά απαιτεί νομικές λύσεις. Όχι μόνο το Βιετνάμ, αλλά και κυβερνήσεις άλλων χωρών και εταιρείες τεχνολογίας πρέπει να συνεργαστούν για τον εντοπισμό και την πρόληψή τους.
«Ενώ περιμένουμε μια τεχνική λύση για την πλήρη αποτροπή αυτών των μορφών, είναι απαραίτητο τα μέσα ενημέρωσης να διαδώσουν ευρέως στον κόσμο τα σημάδια αναγνώρισης, επαγρύπνησης, έγκαιρης κατανόησης πληροφοριών και κόλπα για την αποτροπή διαδικτυακών απάτων», δήλωσε ο κ. Hung.
[διαφήμιση_2]
Σύνδεσμος πηγής
Σχόλιο (0)