Vietnam.vn - Nền tảng quảng bá Việt Nam

Οι ειδικοί συνιστούν την προετοιμασία ενός σεναρίου διαχείρισης κρίσεων ειδικά για deepfakes.

Báo Quốc TếBáo Quốc Tế26/02/2024

Τι λένε οι ειδικοί για τον όρο deepfake και το πρόσφατο πρόβλημα της διάδοσης ψεύτικων γυμνών φωτογραφιών διασημοτήτων, όπως της τραγουδίστριας Taylor Swift στο X...

Παρακάτω παρατίθενται οι απόψεις δύο ειδικών από το Πανεπιστήμιο RMIT σχετικά με τις βλαβερές συνέπειες του deepfake και οι προτεινόμενες λύσεις σε αυτό το πρόβλημα:

Chuyên gia khuyến cáo cách chuẩn bị trước kịch bản xử lý khủng hoảng dành riêng cho deepfake
Δρ. Jonathan Crellin (αριστερά) και Δρ. Nguyen Van Thang Long (δεξιά). (Πηγή: Πανεπιστήμιο RMIT)

Οι κυβερνοεγκληματίες εκμεταλλεύονται τη νέα τεχνολογία με απρόβλεπτους τρόπους

Δρ. Jonathan Crellin, Επικεφαλής Ασφάλειας Πληροφοριών, Σχολή Θετικών Επιστημών , Μηχανικής και Τεχνολογίας, Πανεπιστήμιο RMIT :

Το Deepfake είναι μια εικόνα που δημιουργείται από μηχανή και μπορεί να συνδυάσει εικόνες ή βίντεο από πολλαπλές πηγές, δημιουργώντας μια πολύ ρεαλιστική εικόνα, βίντεο ή ακόμα και ήχο.

Το Deepfake βασίζεται σε μια τεχνική της τεχνητής νοημοσύνης που ονομάζεται μηχανική μάθηση, η οποία μπορεί να αντικαταστήσει και να ενσωματώσει στοιχεία όπως το πρόσωπο ενός ατόμου σε μια άλλη εικόνα ή βίντεο.

Ένα παράδειγμα χρήσης deepfake είναι ο συνδυασμός πορνογραφικού περιεχομένου με φωτογραφίες της Taylor Swift για τη δημιουργία ψεύτικων εικόνων.

Για να το κάνει αυτό, ο εγκέφαλος χρειαζόταν έναν αριθμό εικόνων, ώστε το λογισμικό να μπορεί να μάθει για τις εκφράσεις του προσώπου της τραγουδίστριας και στη συνέχεια να τις συνδυάσει με πορνογραφικό περιεχόμενο για να δημιουργήσει άσεμνες φωτογραφίες, με αποτέλεσμα να αμαυρωθεί η εικόνα της τραγουδίστριας.

Στην πραγματικότητα, φημολογείται ότι αυτές οι φωτογραφίες δημοσιεύθηκαν από μια ομάδα στο Telegram και δημιουργήθηκαν χρησιμοποιώντας το εργαλείο Microsoft Designer με ενσωματωμένη υποστήριξη τεχνητής νοημοσύνης.

Οποιοσδήποτε μπορεί να γίνει θύμα, καθώς οι κακοποιοί χρειάζονται μόνο μια φωτογραφία, βίντεο ή ηχητικό αρχείο του ατόμου που μιμείται.

Τα ψεύτικα νέα, σε πολλές μορφές τους, έχουν τη δυνατότητα να χρησιμοποιηθούν για τη δημιουργία ψευδών ειδήσεων και είναι ασφαλές να πούμε ότι οι επερχόμενες προεδρικές εκλογές των ΗΠΑ θα είναι γεμάτες με τέτοια ψευδή νέα.

Αυτή τη στιγμή, οι νομοθέτες σε όλο τον κόσμο επιδιώκουν να θεσπίσουν νόμους κατά αυτού του είδους των εικόνων.

Αρκετές προσεγγίσεις αρχίζουν να υιοθετούνται στις Ηνωμένες Πολιτείες όσον αφορά τη νομοθεσία, όπως η προσφυγή σε αστικές αγωγές ή νόμοι για την αντιμετώπιση «της διάδοσης σεξουαλικά άσεμνων εικόνων ενός ατόμου που δημιουργούνται από την Τεχνητή Νοημοσύνη χωρίς τη συγκατάθεση αυτού του ατόμου».

Η Κίνα εισήγαγε επίσης νέους κανονισμούς που θα επιτρέπουν τη δίωξη όσων διαδίδουν εικόνες που δημιουργούνται από τεχνητή νοημοσύνη.

Το Ηνωμένο Βασίλειο έχει καταστήσει παράνομη την κοινοποίηση deepfake περιεχομένου βάσει του νόμου περί ασφάλειας στο διαδίκτυο.

Πώς να το εντοπίσετε ή να το αποτρέψετε αυτό;

Το πρώτο βήμα είναι να μειώσετε τον αριθμό των φωτογραφιών, των βίντεο ή των ηχογραφήσεων που έχετε στο διαδίκτυο. Βεβαιωθείτε ότι τα μοιράζεστε μόνο με άτομα που γνωρίζετε και όχι ότι τα δημοσιεύετε ευρέως στο διαδίκτυο. Μόλις κάτι βρεθεί στο διαδίκτυο, είναι σχεδόν αδύνατο να το αφαιρέσετε.

Ο δεύτερος τρόπος είναι να συμφωνήσετε σε μια μυστική λέξη με την οικογένειά σας για να επαληθεύσετε την κλήση, μειώνοντας τον κίνδυνο να πέσετε στην παγίδα μιας ψεύτικης κλήσης.

Οι εικόνες, ειδικά τα βίντεο, μπορεί να έχουν περίεργα (στημένα) σφάλματα. Αν εντοπίσετε αυτά τα σφάλματα, τότε υπάρχει μεγάλη πιθανότητα η εικόνα ή ο ήχος να έχουν παραποιηθεί.

Μια άλλη τεχνική που μπορεί να χρησιμοποιηθεί είναι η αναζήτηση για «αντίστροφη εικόνα» στην Google ή σε άλλες μηχανές αναζήτησης, για να προσδιοριστεί η πηγή της αρχικής εικόνας.

Το τελευταίο μάθημα είναι να μην πιστεύετε τυφλά αυτό που βλέπετε, η κάμερα (ή η τεχνητή νοημοσύνη) μπορεί να πει ψέματα!

Τα deepfakes αποτελούν τεράστια απειλή για διασημότητες και πολιτικούς

Δρ. Nguyen Van Thang Long, Επίκουρη Καθηγήτρια, Σχολή Επικοινωνίας και Σχεδιασμού, Πανεπιστήμιο RMIT :

Με τον πολλαπλασιασμό των ψεύτικων ειδήσεων από τα deepfakes, οι ομάδες των μέσων ενημέρωσης που αποτελούνται από διασημότητες και πολιτικούς πρέπει να έχουν διαθέσιμους πόρους για να παρακολουθούν και να ανταποκρίνονται άμεσα σε ψευδείς ειδήσεις ή να διορθώνουν συνεχώς ψευδείς ειδήσεις.

Αν τα deepfakes συνδυάζονται συστηματικά με οργανωμένες μορφές «βρώμικου δημοσίου συμφέροντος», αυτό το έργο καθίσταται ακόμη πιο δύσκολο λόγω του πολλαπλασιασμού των αντικρουόμενων πληροφοριών, και οι ψεύτικες ειδήσεις και τα αρνητικά νέα θα κοινοποιούνται πάντα περισσότερο από τα θετικά νέα.

Συνήθως, όταν τα άτομα βλέπουν ειδήσεις που κοινοποιούνται στα κοινωνικά δίκτυα, έχουν τη συνήθεια να επαληθεύουν τις πληροφορίες μέσω επίσημων καναλιών των μέσων ενημέρωσης.

Με το deepfake περιεχόμενο να κατακλύζει τα μέσα κοινωνικής δικτύωσης, καθίσταται ολοένα και πιο δύσκολο και χρονοβόρο να επαληθευτεί η ακρίβεια των mainstream ειδήσεων, απαιτώντας εις βάθος έρευνα και τεχνικές επαλήθευσης.

Όσο περισσότερο καθυστερούμε στην επαλήθευση ειδήσεων και πηγών, τόσο πιο πιθανό είναι να διαδοθούν ψευδείς, κατασκευασμένες ή παραπλανητικές πληροφορίες λόγω της ταχείας κοινοποίησης και σχολιασμού στα μέσα κοινωνικής δικτύωσης.

Αυτό επιδεινώνει το υποκείμενο πρόβλημα και έχει τη δυνατότητα να οδηγήσει σε κοινωνική αναταραχή, ειδικά εάν το περιεχόμενο σχετίζεται με πολιτικό λόγο, θρησκεία, φύλο, επιχειρηματικές στρατηγικές ή μακροοικονομικά ζητήματα.

Στο πλαίσιο της διάδοσης του deepfake, η πιο αποτελεσματική στρατηγική διαχείρισης κινδύνου παραμένει η διατήρηση συνεπών καναλιών επικοινωνίας, μέσω δημοφιλών πλατφορμών κοινωνικής δικτύωσης, ιστοσελίδων ή συναντήσεων πρόσωπο με πρόσωπο, μεταξύ επιχειρήσεων, διασημοτήτων, πολιτικών και βασικών ενδιαφερόμενων μερών, όπως θαυμαστές, τύπος, κοινότητες και εργαζόμενοι.

Chuyên gia khuyến cáo cách chuẩn bị trước kịch bản xử lý khủng hoảng dành riêng cho deepfake

Η αυξημένη χρήση της Τεχνητής Νοημοσύνης φέρνει τόσο οφέλη όσο και απροσδόκητα νέα προβλήματα. Φωτογραφία-εικονογράφηση. (Πηγή: Freepik)

Διατηρώντας αυτά τα κανάλια επικοινωνίας, η λήψη πληροφοριών που σχετίζονται με deepfakes γίνεται ταχύτερη, επιτρέποντας την έγκαιρη και αποτελεσματική διόρθωση φημών, αποκαλύπτοντας την παραπληροφόρηση από την αρχή.

Ωστόσο, οι εταιρείες, οι διασημότητες και οι πολιτικοί πρέπει να αναπτύξουν ένα σχέδιο διαχείρισης κρίσεων ειδικά για τα deepfakes. Για παράδειγμα, ποιος κάνει την αναφορά, μέσω ποιων καναλιών μέσων ενημέρωσης, κριτήρια για την επαλήθευση των πληροφοριών μέσω αποδεικτικών στοιχείων και αξιόπιστων πηγών, καθορισμός χρονοδιαγράμματος για την αντιμετώπιση των φημών και σκιαγράφηση μιας στρατηγικής για την αποκατάσταση της φήμης.

Με ένα καλά προετοιμασμένο, μεθοδικό σχέδιο, η αντιμετώπιση της κρίσης deepfake θα είναι πιο εφικτή, ελαχιστοποιώντας τις δυσάρεστες συνέπειες που μπορεί να προκύψουν.


[διαφήμιση_2]
Πηγή

Σχόλιο (0)

No data
No data

Στο ίδιο θέμα

Στην ίδια κατηγορία

Ανακαλύψτε το μοναδικό χωριό στο Βιετνάμ που βρίσκεται στη λίστα με τα 50 πιο όμορφα χωριά του κόσμου
Γιατί τα φανάρια με κόκκινες σημαίες και κίτρινα αστέρια είναι δημοφιλή φέτος;
Το Βιετνάμ κερδίζει τον μουσικό διαγωνισμό Intervision 2025
Κυκλοφοριακή συμφόρηση στο Μου Κανγκ Τσάι μέχρι το βράδυ, οι τουρίστες συρρέουν για να κυνηγήσουν την εποχή του ώριμου ρυζιού

Από τον ίδιο συγγραφέα

Κληρονομία

Εικόνα

Επιχείρηση

No videos available

Νέα

Πολιτικό Σύστημα

Τοπικός

Προϊόν