Αυτοί είναι κακοί που χρησιμοποιούν τεχνολογία τεχνητής νοημοσύνης (AI) για να επεξεργάζονται τα πρόσωπα και τα σώματα κανονικών ανθρώπων, μετατρέποντάς τους σε άτομα με αναπηρία και στη συνέχεια δημιουργώντας θλιβερές ιστορίες για να πουλήσουν προϊόντα ή να ζητήσουν υποστήριξη. Ο μόνος στόχος είναι να εκμεταλλευτούν τη συμπόνια της κοινότητας για παράνομα κέρδη.

Εξελιγμένα κόλπα
Μια τυπική περίπτωση που προκάλεσε δημόσια αγανάκτηση ήταν το κανάλι TikTok με το όνομα NL, το οποίο δημοσίευσε μια σειρά από βίντεο για μια γυναίκα με ακρωτηριασμένα και τα δύο χέρια, η οποία προσπαθούσε να πουλήσει προϊόντα στο διαδίκτυο για να στηρίξει τα μικρά παιδιά της. Στα βίντεο, η γυναίκα εμφανιζόταν σε ένα απλό δωμάτιο, φορώντας απλά ρούχα, χρησιμοποιώντας το ακρωτηριασμένο χέρι της για να παρουσιάσει προϊόντα, προκαλώντας συγκίνηση και συμπόνια στους θεατές. Πολλοί άνθρωποι δεν δίστασαν να κάνουν κλικ για να την ακολουθήσουν, να την κοινοποιήσουν ευρέως, ακόμη και να παραγγείλουν προϊόντα για να βοηθήσουν τη μητέρα να ξεπεράσει τις δυσκολίες. Ωστόσο, όταν τα βίντεο έγιναν viral, η διαδικτυακή κοινότητα συνειδητοποίησε ότι αυτή ήταν στην πραγματικότητα η εικόνα μιας συνηθισμένης πωλήτριας που είχε υποστεί επεξεργασία με τεχνολογία τεχνητής νοημοσύνης ώστε να μοιάζει με ένα πραγματικό άτομο με αναπηρία.
Το κόλπο της επίκλησης των συναισθημάτων οίκτου έχει γίνει παγίδα που κάνει πολλούς ανθρώπους πρόθυμους να μεταφέρουν χρήματα ή να κάνουν παραγγελίες επειδή πιστεύουν ότι βοηθούν ένα αδύναμο και μειονεκτούν άτομο. Ο κ. Dang Minh Quang, στην οδό Ngoc Lam, στο Bo De Ward ( Ανόι ), μοιράστηκε: «Η μητέρα μου πίστεψε στο βίντεο μιας γυναίκας με ακρωτηριασμένο χέρι που πουλάει αγαθά, οπότε λυπήθηκε και παρήγγειλε κάποια προϊόντα που πωλούνταν από αυτό το άτομο. Όταν έμαθε την αλήθεια, ότι το άτομο με αναπηρία ήταν απλώς μια εικόνα που δημιουργήθηκε από την Τεχνητή Νοημοσύνη, λυπήθηκε πολύ και ένιωσε προσβεβλημένη».
Η ιστορία της μητέρας της Quang δεν είναι μοναδική. Εκατοντάδες άλλες έχουν εξαπατηθεί με παρόμοιο τρόπο. Όταν η καλοσύνη εκμεταλλεύεται, οι άνθρωποι σταδιακά χάνουν την πίστη τους και διστάζουν να εκμεταλλευτούν τις γνήσιες εκκλήσεις για βοήθεια. Και η οδυνηρή συνέπεια είναι ότι οι ευάλωτοι πληγώνονται πραγματικά σοβαρά. Στο προσωπικό του Facebook, ο Nguyen Sin μοιράστηκε την περίπτωση της κας Tran Thi Nga (36 ετών στην επαρχία Phu Tho ) - ιδιοκτήτριας του καναλιού "Nga Tic Cuc" η οποία είναι ανάπηρη (στα τέλη του 2024, λόγω οξείας μυοκαρδίτιδας, αναγκάστηκε να ακρωτηριάσει και τα δύο χέρια και τα πόδια της για να σώσει τη ζωή της), γνωστής σε πολλούς για το ότι εμπνέει τακτικά με την αισιόδοξη θέλησή της για ζωή. Ωστόσο, μετά από πολλές περιπτώσεις μίμησης ατόμων με αναπηρία χρησιμοποιώντας Τεχνητή Νοημοσύνη, η κα Nga θεωρήθηκε ύποπτη για χρήση Τεχνητής Νοημοσύνης για μίμηση ατόμων με αναπηρία.
Σε πρόσφατες ζωντανές μεταδόσεις, η κα Nga αναστατώθηκε πολλές φορές όταν ορισμένοι χρήστες των μέσων κοινωνικής δικτύωσης της ζητούσαν επανειλημμένα να «σηκώσει το χέρι της» ή να «σκαρφαλώσει» για να αποδείξει ότι ήταν πραγματικά ανάπηρη. Αυτά τα παράλογα και σκληρά αιτήματα την πλήγωσαν βαθιά. Η ιστορία του «Active Nga» είναι μια σπαρακτική απόδειξη του πόσο επιβλαβής μπορεί να είναι η κατάχρηση της τεχνολογίας.
Δεξιότητες αναγνώρισης ψεύτικου περιεχομένου που δημιουργείται από τεχνητή νοημοσύνη
Σύμφωνα με το Υπουργείο Δημόσιας Ασφάλειας, το 2024, το Βιετνάμ κατέγραψε περισσότερες από 6.000 περιπτώσεις διαδικτυακής απάτης, προκαλώντας εκτιμώμενη απώλεια περίπου 12.000 δισεκατομμυρίων VND. Σε μόλις 8 μήνες του 2025, αποκαλύφθηκαν επίσης σχεδόν 1.500 περιπτώσεις διαδικτυακής απάτης. Αυτός ο αριθμός αντικατοπτρίζει σαφώς το επικίνδυνο επίπεδο εγκληματικότητας υψηλής τεχνολογίας στο πλαίσιο της χώρας μας που έχει περισσότερους από 78 εκατομμύρια χρήστες του διαδικτύου και 72 εκατομμύρια χρήστες κοινωνικών δικτύων. Ο κυβερνοχώρος γίνεται ένα εύφορο έδαφος για ολοένα και πιο εξελιγμένα κόλπα απάτης, στα οποία η χρήση τεχνητής νοημοσύνης για τη δημιουργία ψεύτικου περιεχομένου αποτελεί τη μεγαλύτερη απειλή σήμερα.
Αντιμέτωποι με αυτήν την ανησυχητική πραγματικότητα, οι αρχές και οι ειδικοί στον κυβερνοχώρο συνιστούν ότι οι άνθρωποι πρέπει να εξοπλιστούν με γνώσεις και δεξιότητες για να εντοπίζουν ψεύτικο περιεχόμενο. Ο Αναπληρωτής Γραμματέας της Ένωσης Νέων της Αστυνομίας του Λονγκ Μπιέν (Ανόι), Νγκουγιέν Νατ Χα, σημείωσε ότι οι άνθρωποι θα πρέπει να παρακολουθούν τακτικά τις επίσημες πηγές πληροφοριών, να ενημερώνουν προληπτικά τις γνώσεις τους σχετικά με την τεχνολογία και τις νέες μορφές απάτης. Συγκεκριμένα, πρέπει πάντα να είναι σε εγρήγορση και να θυμούνται τις βασικές αρχές, οι οποίες είναι η προσεκτική επαλήθευση των πηγών πληροφοριών, η μη παροχή προσωπικών πληροφοριών σε μη επαληθευμένες πηγές, η μη πρόσβαση σε παράξενους συνδέσμους και η μη μεταφορά χρημάτων σε μη επαληθευμένους λογαριασμούς.
Για να εντοπίσουν βίντεο που δημιουργούνται από τεχνητή νοημοσύνη, σύμφωνα με τους ειδικούς στον κυβερνοχώρο, οι χρήστες θα πρέπει να παρατηρούν προσεκτικά τις λεπτομέρειες της εικόνας, τις κινήσεις του προσώπου, τα άκρα ή τους ήχους. Σημάδια όπως κενά μάτια, αφύσικες κινήσεις, καθυστέρηση στην ομιλία ή ασύμβατες κινήσεις των χειλιών είναι συχνά σημάδια τεχνολογίας Deepfake.
Επιπλέον, ο έλεγχος των πληροφοριών που δημοσιεύονται από το κανάλι, η ανάγνωση σχολίων και η προβολή του ιστορικού δραστηριότητας είναι επίσης απλοί τρόποι για την αξιολόγηση της αξιοπιστίας. Παράλληλα, οι χρήστες πρέπει να αποκτήσουν τη συνήθεια να επαληθεύουν πριν πιστέψουν κάτι. Όσο συναισθηματικό κι αν είναι ένα βίντεο, δεν πρέπει να κοινοποιείται ή να υποστηρίζεται βιαστικά.
Οι ειδικοί κάλεσαν επίσης τις πλατφόρμες κοινωνικής δικτύωσης να ενισχύσουν τη λογοκρισία, να εντοπίσουν περιεχόμενο που χρησιμοποιεί Τεχνητή Νοημοσύνη για να μιμηθεί άτομα με αναπηρίες και να χειριστούν αυστηρά τους παραβατικούς λογαριασμούς. Οι αρχές πρέπει επίσης να εκδώσουν σύντομα σαφείς κανονισμούς σχετικά με τη χρήση εικόνων και περιεχομένου Τεχνητής Νοημοσύνης, διασφαλίζοντας ότι η τεχνολογία δεν θα γίνει εργαλείο για ανήθικη συμπεριφορά από κακόβουλους παράγοντες.
Πηγή: https://hanoimoi.vn/dung-ai-gia-nguoi-khuet-tat-de-truc-loi-canh-giac-chieu-lua-moi-722565.html






Σχόλιο (0)