Οι χρήστες του Διαδικτύου χρησιμοποιούν Τεχνητή Νοημοσύνη για να δημιουργήσουν εικόνες του υπόπτου για τη δολοφονία του Τσάρλι Κερκ. Φωτογραφία: CBC . |
Το Ομοσπονδιακό Γραφείο Ερευνών (FBI) των ΗΠΑ δημοσίευσε δύο φωτογραφίες που δείχνουν τον ύποπτο που εμπλέκεται στην ένοπλη επίθεση που σκότωσε τον ακτιβιστή Τσάρλι Κερκ. Επειδή οι φωτογραφίες είναι αρκετά θολές, η διαδικτυακή κοινότητα αντέδρασε γρήγορα με «αναβαθμισμένες» εκδόσεις των φωτογραφιών χρησιμοποιώντας τεχνητή νοημοσύνη (AI).
Αυτές οι εικόνες φαίνονται πιο ευκρινείς και καθαρές από τις πρωτότυπες, αλλά στην πραγματικότητα είναι απλώς προϊόν εικασιών. Η τεχνητή νοημοσύνη δεν έχει την ικανότητα να « ανακαλύπτει » κρυφές λεπτομέρειες σε μια θολή φωτογραφία. Αντίθετα, το εργαλείο προβλέπει, συμπληρώνοντας τα κενά με βάση τα δεδομένα που έχει αποκτήσει, κάτι που μπορεί να σημαίνει τη δημιουργία λεπτομερειών που δεν υπάρχουν στην πραγματικότητα.
![]() |
Φωτογραφίες του υπόπτου για την πυροβολία στο Τσάρλι Κερκ βελτιώθηκαν με τεχνητή νοημοσύνη, αλλά δεν υπάρχουν δύο ίδια πρόσωπα. Φωτογραφία: Grok. |
Αρκετές βελτιωμένες εκδόσεις των εικόνων δημοσιεύτηκαν στην ανάρτηση του FBI. Ορισμένες από τις εικόνες μπορεί να έχουν δημιουργηθεί χρησιμοποιώντας το εργαλείο Grok στο X, ενώ άλλες πιστεύεται ότι έχουν δημιουργηθεί χρησιμοποιώντας πλατφόρμες όπως το ChatGPT και το Gemini. Ωστόσο, η ακρίβεια αυτών των αποδόσεων ποικίλλει σημαντικά. Ορισμένες εικόνες δείχνουν ακόμη και προφανείς ανακρίβειες, όπως αλλαγή χρώματος στο πουκάμισο ή διαφορετική εμφάνιση του προσώπου του χαρακτήρα με υπερβολικό πηγούνι.
Φαίνεται ότι αυτές οι εικόνες κοινοποιήθηκαν με σκοπό να «βοηθήσουν» την κοινότητα να αναγνωρίσει τον ύποπτο. Στην πραγματικότητα, όμως, έγιναν και εργαλείο για να προσελκύσουν την προσοχή, να αυξήσουν τα likes και τα shares στα κοινωνικά δίκτυα.
Οι ειδικοί προειδοποιούν ότι είναι απίθανο αυτές οι εικόνες τεχνητής νοημοσύνης να είναι πιο χρήσιμες από τις πρωτότυπες του FBI. Μάλιστα, σε ορισμένες περιπτώσεις στο παρελθόν, οι εικόνες βελτιωμένες με τεχνητή νοημοσύνη έχουν παράγει αμφιλεγόμενα αποτελέσματα.
Για παράδειγμα, μια φωτογραφία χαμηλής ανάλυσης του πρώην Προέδρου Μπαράκ Ομπάμα «αναβαθμίστηκε» από την Τεχνητή Νοημοσύνη ώστε να δείχνει έναν λευκό άνδρα. Σε μια άλλη περίπτωση, μια φωτογραφία του Προέδρου Ντόναλντ Τραμπ είχε έναν ανύπαρκτο όγκο που προστέθηκε στο κεφάλι του από την Τεχνητή Νοημοσύνη.
Αυτές οι αποκλίσεις υποδηλώνουν ότι η Τεχνητή Νοημοσύνη απλώς κάνει παρεκβολές από υπάρχοντα δεδομένα, αντί να αναδημιουργεί με ακρίβεια ό,τι χάνεται στις θολές εικόνες. Ενώ η τεχνολογία μπορεί να είναι χρήσιμη σε ορισμένα πλαίσια, οι εικόνες που δημιουργούνται από την Τεχνητή Νοημοσύνη δεν θα πρέπει να θεωρούνται οριστικά αποδεικτικά στοιχεία σε ποινικές έρευνες.
Το ίδιο το FBI, στην ανακοίνωσή του, δημοσίευσε μόνο την αρχική φωτογραφία και κάλεσε το κοινό να παράσχει πληροφορίες εάν μπορούσε να αναγνωρίσει το άτομο στη φωτογραφία. Ωστόσο, το κύμα «αυτοαναβαθμισμένων φωτογραφιών» στα μέσα κοινωνικής δικτύωσης τράβηξε γρήγορα την προσοχή, εγείροντας ερωτήματα σχετικά με την ευθύνη της χρήσης εργαλείων τεχνητής νοημοσύνης σε ευαίσθητες υποθέσεις που σχετίζονται με την ασφάλεια και την ανθρώπινη ζωή.
Καθώς η τεχνητή νοημοσύνη χρησιμοποιείται ευρύτερα, το περιστατικό αυτό αναδεικνύει ένα πρόβλημα: Η τεχνητή νοημοσύνη μπορεί να δημιουργήσει εικόνες που φαίνονται τόσο πραγματικές που είναι οπτικά παραπλανητικές, αλλά αυτό δεν σημαίνει ότι είναι αξιόπιστες. Ειδικά σε εγκληματικές δραστηριότητες, τα ανακριβή δεδομένα μπορούν να οδηγήσουν σε σοβαρές συνέπειες.
Πηγή: https://znews.vn/hinh-anh-nghi-pham-am-sat-charlie-kirk-bi-lam-gia-post1584664.html











Σχόλιο (0)