Ήρθε η ώρα κάθε χρήστης να γίνει μια «ψηφιακή ασπίδα», να είναι σε εγρήγορση, σε εγρήγορση και υπεύθυνος για κάθε κλικ και κοινοποίηση.
Οφέλη και η λεπτή γραμμή από την Τεχνητή Νοημοσύνη
Η τεχνητή νοημοσύνη δεν ήταν ποτέ πιο κοντά στην πραγματικότητα από ό,τι είναι σήμερα. Με λίγα μόνο κλικ, μια σύντομη εντολή μπορεί να δημιουργήσει φωνές, εικόνες, ακόμη και βίντεο με εκπληκτικό ρεαλισμό. Η τεχνητή νοημοσύνη βοηθά στην εξοικονόμηση χρόνου, στη μείωση του κόστους παραγωγής περιεχομένου και ανοίγει την εποχή των ευέλικτων ψηφιακών μέσων.
Ωστόσο, η ικανότητα «ρεαλιστικής προσομοίωσης» έχει γίνει δίκοπο μαχαίρι. Πρόσφατα, στα μέσα κοινωνικής δικτύωσης εμφανίζονται συνεχώς βίντεο που δημιουργήθηκαν με τεχνολογία deepfake, στα οποία τα πρόσωπα των ηγετών της αστυνομίας, εικόνες λειτουργικών δυνάμεων σε ευαίσθητες υποθέσεις... κόβονται και επικολλώνται, μεταγλωττίζονται με παραμορφωμένες φωνές για να προκαλέσουν παρεξηγήσεις και να διχάσουν τους ανθρώπους.
Σκηνοθετημένες εικόνες σαν κι αυτή εμφανίζονται ολοένα και περισσότερο στα μέσα κοινωνικής δικτύωσης.
Σε ένα κλιπ που κυκλοφορεί στο TikTok, η εικόνα ενός αστυνομικού της τροχαίας εν ώρα υπηρεσίας συνδυάστηκε με προσβλητικό διάλογο, μαζί με το hashtag "πρόστιμο για χάρη του", για να υπονοηθεί ότι αυτός ο αστυνομικός καταχράται την εξουσία του για προσωπικό όφελος. Πολλοί χρήστες, ειδικά νέοι, πίστεψαν εύκολα αυτό το περιεχόμενο επειδή η εικόνα ήταν τόσο ρεαλιστική, η φωνή ήταν τόσο κοντά στο σχήμα του στόματος που έγινε εξαιρετικά δύσκολο να διακρίνει κανείς μεταξύ πραγματικού και ψεύτικου.
Ακριβώς επειδή ήθελε να «επιδείξει» την ικανότητά του να εφαρμόζει τεχνολογία τεχνητής νοημοσύνης, ένας νεαρός YouTuber στο Ντιέν Μπιέν έπρεπε να πληρώσει το τίμημα, τιμωρούμενος με διοικητικό πρόστιμο και αναγκασμένος να ζητήσει δημόσια συγγνώμη. Το απόγευμα της 24ης Ιανουαρίου, η επαρχιακή αστυνομία του Ντιέν Μπιέν ανακοίνωσε ότι το Τμήμα Κυβερνοασφάλειας και Πρόληψης Εγκλημάτων Υψηλής Τεχνολογίας εξέδωσε απόφαση για την επιβολή διοικητικού προστίμου 7,5 εκατομμυρίων δανικών ντονγκ στον Tong Van T. (γεννημένος το 2001, κάτοικος της περιοχής Muong Ang) για χρήση τεχνητής νοημοσύνης για τη δημιουργία ψεύτικου βίντεο με παραμορφωμένο περιεχόμενο και προσβολή της τροχαίας.
Συγκεκριμένα, στις 7 Ιανουαρίου, ο T. ανέβασε στον λογαριασμό YouTube “Tuyền Vlog” ένα βίντεο διάρκειας άνω των 3 λεπτών με τον σοκαριστικό τίτλο: «Ενώ έκανα παρέα, με κυνήγησε η τροχαία». Στο κλιπ, εικόνες και καταστάσεις σκηνοθετήθηκαν χρησιμοποιώντας τεχνολογία τεχνητής νοημοσύνης, προσομοιώνοντας την καταδίωξη ανθρώπων από την τροχαία, σε συνδυασμό με εφέ και σχόλια που ήταν προσβλητικά και δυσφημιστικά για τις αρχές.
Σε συνεργασία με την αστυνομία, ο Τ. παραδέχτηκε ότι ολόκληρο το περιεχόμενο του βίντεο ήταν ένα ψεύτικο προϊόν με σκοπό την «ψυχαγωγία» και την επίδειξη της ικανότητας χρήσης τεχνολογίας τεχνητής νοημοσύνης. Εκτός από το πρόστιμο, οι αρχές ζήτησαν από τον Τ. να αφαιρέσει το παραπάνω ψευδές βίντεο και να ζητήσει δημόσια συγγνώμη από την τροχαία στο προσωπικό του κανάλι στο YouTube.
Στην εποχή της έκρηξης της ψηφιακής τεχνολογίας , και ιδιαίτερα της ραγδαίας ανάπτυξης της τεχνητής νοημοσύνης, εχθρικές και αντιδραστικές δυνάμεις δεν δίστασαν να εκμεταλλευτούν αυτό το εργαλείο για να δημιουργήσουν κατασκευασμένες εικόνες και ιστορίες με στόχο τη διαστρέβλωση και τη δυσφήμιση της εικόνας των Λαϊκών Δυνάμεων Δημόσιας Ασφάλειας του Βιετνάμ. Η φωτογραφία που κυκλοφορεί τελευταία στα μέσα κοινωνικής δικτύωσης, στην οποία μια έγκυος γυναίκα με αστυνομική στολή απειλείται από δύο άνδρες με «γκάνγκστερική» εμφάνιση, αποτελεί σαφή επίδειξη αυτού του κόλπου.
Η φωτογραφία που δημιουργήθηκε από τεχνητή νοημοσύνη έγινε πρόσφατα viral στα μέσα κοινωνικής δικτύωσης.
Με την πρώτη ματιά, οι θεατές μπορούν εύκολα να μπερδέψουν αυτή τη σκηνή με μια πραγματική σκηνή, συνοδευόμενη από έναν εντυπωσιακό τίτλο όπως: «Ένα καημένο αγόρι σώζει μια έγκυο αστυνομικό από ξυλοδαρμό από γκάνγκστερ, ανοίγει απροσδόκητα μια υπόθεση που σοκάρει ολόκληρη τη χώρα...». Ωστόσο, πρόκειται στην πραγματικότητα για μια σκηνοθετημένη σκηνή, πιθανώς από μια ταινία ή ένα ψυχαγωγικό προϊόν, ή, ακόμα χειρότερα, για μια εικόνα που δημιουργήθηκε από την Τεχνητή Νοημοσύνη για να ξεγελάσει τα συναισθήματα των αναγνωστών, οδηγώντας τους σε οίκτο και αμφιβολία για την αυθεντικότητα των δραστηριοτήτων επιβολής του νόμου.
Ακόμα πιο ανησυχητικό είναι ότι η διάδοση τέτοιου περιεχομένου όχι μόνο βλάπτει τη φήμη και την εικόνα των Λαϊκών Δυνάμεων Δημόσιας Ασφάλειας, οι οποίες προστατεύουν την ασφάλεια και την τάξη στην κοινωνία μέρα και νύχτα, αλλά αποτελεί επίσης μια εξελιγμένη μορφή ψυχολογικού πολέμου. Όταν η εμπιστοσύνη των ανθρώπων στις αρχές διαβρωθεί από ψευδείς εικόνες, ο βαθύς στόχος των εχθρικών δυνάμεων να διχάσουν το μεγάλο μπλοκ εθνικής ενότητας θα υλοποιηθεί σταδιακά.
Συνεπώς, κάθε πολίτης πρέπει να αυξήσει την επαγρύπνησή του, να έχει κριτική σκέψη και δεξιότητες για να εντοπίζει ψευδείς πληροφορίες, καθώς και να καταγγέλλει και να αντικρούει αποφασιστικά ψευδές περιεχόμενο, συμβάλλοντας στην προστασία του ιδεολογικού θεμελίου και στη διατήρηση της κοινωνικής σταθερότητας έναντι του τρέχοντος κύματος τοξικών πληροφοριών στον κυβερνοχώρο.
Στην πόλη Χο Τσι Μινχ, ένα βίντεο διάρκειας σχεδόν 1 λεπτού έγινε ξαφνικά viral στα μέσα κοινωνικής δικτύωσης, καταγράφοντας μια σκηνή ενός ατόμου με αστυνομική στολή να «εκβιάζει για ομολογία» έναν παραβάτη σε ένα γραφείο. Στο βίντεο, το άτομο που πιστεύεται ότι είναι αστυνομικός έχει σκληρή συμπεριφορά, φωνάζοντας και επιπλήττοντας συνεχώς, ακόμη και χρησιμοποιώντας αγενείς λέξεις, προκαλώντας οργή στο κοινό.
Ωστόσο, αμέσως μετά τη διάδοση του βίντεο, η αστυνομία της πόλης Χο Τσι Μινχ διερεύνησε γρήγορα και επιβεβαίωσε ότι επρόκειτο για ένα εξελιγμένο προϊόν deepfake. Σύμφωνα με το συμπέρασμα, το πρόσωπο στο βίντεο εξήχθη από μια ηχογράφηση μιας εσωτερικής διάσκεψης της αστυνομικής δύναμης και στη συνέχεια χρησιμοποιήθηκε τεχνολογία τεχνητής νοημοσύνης από κακούς για να το μετατρέψει σε μια σκηνοθετημένη σκηνή, κάνοντας τους θεατές να πιστέψουν λανθασμένα ότι επρόκειτο για πραγματική δράση.
Συγκεκριμένα, ο συνοδευτικός ήχος περιλαμβάνει μια απειλητική, προσβλητική φωνή που δεν είναι στην πραγματικότητα τα πραγματικά λόγια κανενός αξιωματούχου, αλλά είναι μια συνθετική φωνή τεχνητής νοημοσύνης, προγραμματισμένη και επεξεργασμένη για να παραπλανά τα συναισθήματα του θεατή.
Το περιστατικό αποτελεί τυπικό παράδειγμα χρήσης τεχνολογίας deepfake για τη διαστρέβλωση και δυσφήμιση των Λαϊκών Δυνάμεων Δημόσιας Ασφάλειας, ένα τέχνασμα που εκμεταλλεύονται ολοένα και περισσότερο αντιδραστικές και αντικυβερνητικές δυνάμεις στον κυβερνοχώρο. Αξίζει να σημειωθεί ότι, εάν δεν αποκαλυφθούν άμεσα, τέτοια ψεύτικα προϊόντα μπορούν να οδηγήσουν σε σοβαρές συνέπειες: κλονίζοντας την εμπιστοσύνη των ανθρώπων στις δυνάμεις επιβολής του νόμου, υποκινώντας αντίσταση στην κοινότητα και δημιουργώντας συνθήκες για την εξάπλωση ψευδών επιχειρημάτων. Αυτή είναι μια σαφής προειδοποίηση για την επείγουσα ανάγκη βελτίωσης της ικανότητας των μέσων ενημέρωσης να αντικρούουν, να εντοπίζουν και να καταπολεμούν ψευδείς ειδήσεις, και ταυτόχρονα καλεί κάθε πολίτη να είναι σε εγρήγορση και να μην βιάζεται να κοινοποιεί ή να σχολιάζει μη επαληθευμένο περιεχόμενο από επίσημες πηγές.
Σε μια άλλη πρόσφατη υπόθεση, που σχετίζεται με τον χειρισμό παραβάσεων σε κέντρο τεχνικού ελέγχου οχημάτων στο Νότο, εχθρικά άτομα διέδωσαν ένα ψεύτικο βίντεο ενός αρχηγού της επαρχιακής αστυνομίας να μιλάει υπερασπιζόμενος τους αστυνομικούς που έκαναν λάθη. Αυτό το κλιπ διαδόθηκε στο Telegram και στα μέσα κοινωνικής δικτύωσης με τον τίτλο «υποστηρίζεται από ισχυρές δυνάμεις», αλλά στην πραγματικότητα ήταν προϊόν τεχνητής νοημοσύνης, που δεν εμφανίστηκε καθόλου σε καμία συνέντευξη Τύπου ή επίσημο έγγραφο.
Μια επικίνδυνη τάση εξαπλώνεται αθόρυβα στον κυβερνοχώρο, η οποία είναι ότι οι κακοποιοί χρησιμοποιούν την τεχνολογία τεχνητής νοημοσύνης για να δημιουργήσουν ψεύτικα κλιπ με σκοπό την απάτη και τον εκβιασμό. Πρόσφατα, πολλοί άνθρωποι έχουν πέσει θύματα όταν οι εικόνες τους, ειδικά εκείνες προσωπικοτήτων υψηλού κύρους όπως δικηγόροι, γιατροί και επιχειρηματίες, επεξεργάζονται σε διαφημιστικά βίντεο «ανάκτησης χρημάτων που έχουν εξαπατηθεί στο διαδίκτυο».
Σε αυτά τα κλιπ, η Τεχνητή Νοημοσύνη χρησιμοποιείται για να πλαστογραφήσει τη φωνή και το πρόσωπο του δικηγόρου, κάνοντας τους θεατές να εμπιστευτούν, παρέχοντας έτσι εύκολα προσωπικές πληροφορίες ή μεταφέροντας χρήματα στον απατεώνα. Το πιο επικίνδυνο είναι ότι ορισμένα άτομα χρησιμοποιούν επίσης τεχνολογία deepfake για να βάλουν το πρόσωπο του θύματος σε βίντεο σεξ και στη συνέχεια να τα στείλουν στις συζύγους, τους συζύγους ή τους συναδέλφους τους με σκοπό να τους απειλήσουν και να τους αναγκάσουν να μεταφέρουν χρήματα για να «κρατήσουν το θέμα μυστικό».
Ένα σοκαριστικό περιστατικό συνέβη τον Μάρτιο του 2025, όταν ένα θύμα στο Ανόι κλήθηκε να μεταφέρει δεκάδες εκατομμύρια ντονγκ αφού έλαβε ένα ψεύτικο σεξουαλικό βίντεο με τη δική του εικόνα. Εν τω μεταξύ, στην πόλη Χο Τσι Μινχ, ένα άλλο άτομο εκβιάστηκε με έως και 2 δισεκατομμύρια ντονγκ αν δεν ήθελε να διαδοθεί το ευαίσθητο βίντεο. Το Υπουργείο Δημόσιας Ασφάλειας παρενέβη, εντοπίζοντας πολλές διεθνικές εγκληματικές ομάδες, κυρίως από την Κίνα και τη Νοτιοανατολική Ασία, πίσω από αυτές τις γραμμές και χρησιμοποιώντας ανεπιθύμητες κάρτες SIM, ηλεκτρονικά πορτοφόλια και πλατφόρμες κοινωνικής δικτύωσης για να κρύψουν την ταυτότητά τους.
Δεν πρόκειται πλέον για απάτη μικρής κλίμακας, αλλά για μια μορφή «ψυχολογικού πολέμου υψηλής τεχνολογίας», που εκμεταλλεύεται σε μεγάλο βαθμό τον φόβο της τιμής και των κοινωνικών σχέσεων για να ασκήσει πίεση στο θύμα. Εάν δεν αυξήσετε την επαγρύπνησή σας, τις δεξιότητές σας στην αναγνώριση πληροφοριών και ασυνήθιστης συμπεριφοράς, ο καθένας μπορεί να γίνει «θήραμα» στα χέρια εγκληματιών που χρησιμοποιούν υψηλή τεχνολογία. Απέναντι σε αυτό το εξελιγμένο κύμα πλαστογραφίας, κάθε πολίτης πρέπει να είναι σε εγρήγορση, να μην μοιράζεται καθόλου προσωπικά στοιχεία αδιακρίτως και να είναι έτοιμος να μιλήσει για να καταγγείλει παράνομες πράξεις, συμβάλλοντας στην προστασία της ασφάλειας του εαυτού του και της κοινότητας.
Απαιτείται μια «ψηφιακή ασπίδα» από την κοινότητα για την καταπολέμηση της απειλής του deepfake.
Σύμφωνα με το Υπουργείο Ραδιοφώνου, Τηλεόρασης και Ηλεκτρονικών Πληροφοριών (Υπουργείο Πολιτισμού, Αθλητισμού και Τουρισμού), το 2024, οι ψηφιακές πλατφόρμες στο Βιετνάμ έπρεπε να αφαιρέσουν περισσότερα από 4.000 βίντεο που περιείχαν ψευδείς και παραμορφωμένες πληροφορίες, τα περισσότερα από τα οποία ήταν προϊόντα που δημιουργήθηκαν από τεχνολογία τεχνητής νοημοσύνης, όπως deepfake, κλώνος φωνής... Μόνο το TikTok - μια πλατφόρμα δημοφιλής στους νέους - κλήθηκε να αφαιρέσει περισσότερα από 1.300 κλιπ deepfake, που σχετίζονταν κυρίως με την αστυνομική δύναμη, την κυβέρνηση και την κοινωνική πολιτική.
Στην εποχή της τεχνολογικής έκρηξης, η τεχνητή νοημοσύνη ανοίγει νέες δυνατότητες, αλλά ενέχει και πρωτοφανείς κινδύνους, ειδικά προϊόντα deepfake με παραμορφωμένο περιεχόμενο, που πλήττουν τη φήμη των δημόσιων υπηρεσιών. Μια έρευνα του Ινστιτούτου Έρευνας Μέσων MICRI δείχνει ότι: Το 62% των χρηστών των μέσων κοινωνικής δικτύωσης στο Βιετνάμ δεν μπορεί να διακρίνει μεταξύ πραγματικού και ψεύτικου χωρίς προειδοποιήσεις από τα κυρίαρχα μέσα ενημέρωσης ή τις αρχές. Αυτό είναι ένα «γνωστικό κενό» που οι κακές δυνάμεις εκμεταλλεύονται πλήρως για να διαδώσουν ψευδείς πληροφορίες, προκαλώντας κοινωνικοψυχολογικές διαταραχές.
Ο Τονγκ Βαν Τ. στο αστυνομικό τμήμα.
Σύμφωνα με τον Υποστράτηγο, Αναπληρωτή Καθηγητή, Δρ. Do Canh Thin, ειδικό στην εγκληματολογία, η χρήση της Τεχνητής Νοημοσύνης για τη δημιουργία ψεύτικων βίντεο ηγετών, την επεξεργασία ψευδών δηλώσεων ή την παραμόρφωση των επαγγελματικών ενεργειών της αστυνομικής δύναμης είναι ένα νέο αλλά ιδιαίτερα επικίνδυνο τέχνασμα. «Το Deepfake δεν είναι απλώς ένα προϊόν ψυχαγωγίας, αλλά μια μορφή σύγχρονου πληροφοριακού πολέμου, ικανό να καταστρέψει την εμπιστοσύνη, να προκαλέσει κοινωνική αστάθεια και είναι πολύ δύσκολο να ελεγχθεί», σχολίασε ο Υποστράτηγος Do Canh Thin.
Στην πραγματικότητα, τα χειραγωγημένα από τεχνητή νοημοσύνη κλιπ δεν είναι ακίνδυνα, αλλά συχνά θίγουν ευαίσθητα θέματα όπως η αντιμετώπιση παραβάσεων, η διερεύνηση εγκλημάτων, η καταπολέμηση της διαφθοράς κ.λπ., προκαλώντας σύγχυση και καχυποψία στους ανθρώπους απέναντι στις αρχές επιβολής του νόμου. Το πιο ανησυχητικό είναι ότι πολλά βίντεο κοινοποιούνται σε μεγάλες πλατφόρμες όπως το YouTube και το TikTok με εκατοντάδες χιλιάδες προβολές πριν αφαιρεθούν, δημιουργώντας ένα αρνητικό αποτέλεσμα viral.
Ο ειδικός στα ψηφιακά μέσα, Χοάνγκ Μινχ, προειδοποιεί: «Με ένα μόνο κοινοποίηση ή ένα like χωρίς να είστε προσεκτικοί, μπορείτε να γίνετε διακινητής ψευδών ειδήσεων. Κάθε χρήστης του διαδικτύου πρέπει να καταλάβει ότι η συμπεριφορά στον ψηφιακό χώρο έχει και πραγματικές συνέπειες».
Σε αυτό το πλαίσιο, αυτό που χρειάζεται περισσότερο από ποτέ είναι η οικοδόμηση μιας «ψηφιακής ασπίδας» από την ίδια την κοινότητα: δηλαδή, επαγρύπνηση, ανοσία στις πληροφορίες και ευθύνη για το περιβάλλον δικτύου. Η τεχνολογία μπορεί να είναι ουδέτερη, αλλά ο τρόπος με τον οποίο οι άνθρωποι τη χρησιμοποιούν θα καθορίσει εάν η Τεχνητή Νοημοσύνη θα γίνει κινητήρια δύναμη για την ανάπτυξη ή μια δύναμη που καταστρέφει την κοινωνική εμπιστοσύνη. Η διατήρηση του ιδεολογικού μετώπου, η προστασία της εικόνας του στρατιώτη της Δημόσιας Ασφάλειας του Λαού, προστατεύει τα θεμέλια της εθνικής ασφάλειας, ένα καθήκον όχι μόνο του λειτουργικού τομέα, αλλά και κάθε πολίτη στην ψηφιακή εποχή.
Πηγή: https://baolangson.vn/tinh-hai-mat-cua-ai-5050403.html










Σχόλιο (0)