Συνεπώς, μια φωτογραφία μιας έκρηξης κοντά στο Πεντάγωνο που δημιουργήθηκε από τεχνητή νοημοσύνη (ΤΝ) κοινοποιήθηκε στα αμερικανικά κοινωνικά δίκτυα στις 22 Μαΐου, προκαλώντας κατακόρυφη πτώση της χρηματιστηριακής αγοράς σε σύντομο χρονικό διάστημα, εγείροντας έτσι ανησυχίες για ψευδείς ειδήσεις που προέρχονται από την ΤΝ.
| Ψεύτικη φωτογραφία έκρηξης κοντά στο Πεντάγωνο, δημιουργημένη από τεχνητή νοημοσύνη. |
Ο Νικ Γουότερς της Bellingcat, μιας διαδικτυακής ομάδας επαλήθευσης γεγονότων, έσπευσε να επισημάνει τα αξιοσημείωτα προβλήματα με τη φωτογραφία. Πρώτον, δεν υπάρχουν αυτόπτες μάρτυρες που να επιβεβαιώνουν το περιστατικό. Το κτίριο στη φωτογραφία επίσης δεν μοιάζει με το Πεντάγωνο. Ορισμένες ασυνήθιστες λεπτομέρειες, όπως οι προεξέχοντες στύλοι φωτισμού και οι μαύρες κολώνες που προεξέχουν από το πεζοδρόμιο, αποτελούν ενδείξεις ότι η φωτογραφία δεν είναι αληθινή.
Υπάρχουν πολλά εργαλεία ανακατασκευής τεχνητής νοημοσύνης (AI) όπως τα Midjourney, Dall-e 2 και Stable Diffusion που μπορούν να δημιουργήσουν ρεαλιστικές εικόνες. Ωστόσο, αυτά τα εργαλεία θα καλύψουν τα κενά όταν υπάρχει έλλειψη δεδομένων.
Το Al Jazeera έχει προτείνει ορισμένα μέτρα για τη διαφοροποίηση μεταξύ εικόνων που δημιουργούνται από τεχνητή νοημοσύνη και πραγματικών φωτογραφιών σημαντικών γεγονότων όταν εμφανίζονται στο διαδίκτυο, ως εξής:
- Σε περίπτωση έκρηξης ή κάποιου σημαντικού συμβάντος, συνήθως θα υπάρχουν πραγματικές πληροφορίες από πολλά άτομα και από πολλαπλές οπτικές γωνίες.
- Ποιος δημοσιεύει το περιεχόμενο; Πού βρίσκονται και πού λαμβάνει χώρα η εκδήλωση; Ποιους λογαριασμούς ακολουθούν και ποιος τους ακολουθεί. Μπορείτε να επικοινωνήσετε ή να μιλήσετε μαζί τους;
- Ανάλυση εικόνων και περιβάλλοντος χώρου: Αναζητήστε ενδείξεις στην εικόνα, όπως κοντινές τοποθεσίες, πινακίδες κυκλοφορίας κ.λπ., για να προσδιορίσετε πού ή πότε μπορεί να λάβει χώρα ένα συμβάν.
- Για εικόνες ανθρώπων, δώστε προσοχή στα μάτια, τα χέρια και τη γενική στάση του σώματός τους. Τα βίντεο που δημιουργούνται από τεχνητή νοημοσύνη και μιμούνται ανθρώπους, τα οποία ονομάζονται deep fakes, τείνουν να έχουν προβλήματα με το ανοιγοκλείσιμο των ματιών, επειδή τα περισσότερα σύνολα δεδομένων εκπαίδευσης δεν περιέχουν πρόσωπα με κλειστά μάτια. Τα χέρια δεν πιάνουν σωστά τα αντικείμενα.
- Το δέρμα των ανθρώπων σε εικόνες που δημιουργούνται από τεχνητή νοημοσύνη θα είναι συχνά λείο, ακόμη και τα μαλλιά και τα δόντια τους θα είναι σουρεαλιστικά τέλεια.
[διαφήμιση_2]
Πηγή






Σχόλιο (0)