Κοιτάζοντας ξανά, συνειδητοποίησε ότι επρόκειτο απλώς για μια φωτογραφία τεχνητής νοημοσύνης που χρησιμοποιήθηκε από μια σελίδα στο Facebook για να απεικονίσει μια συναισθηματική ανάρτηση. Αξίζει να σημειωθεί ότι αυτή ήταν η δεύτερη φορά που «παραλίγο» να ξεγελαστεί από την Τεχνητή Νοημοσύνη. Πριν από αυτό, είχε επίσης μπέρδεψε το βίντεο «“συνταξιούχοι” που συναντούν “καλοκαιρινούς παραθεριστές”» με πραγματικούς ανθρώπους και πραγματικά γεγονότα.
Εργαζόμενη στον τομέα των μέσων ενημέρωσης, εκτεθειμένη τακτικά σε περιεχόμενο τεχνητής νοημοσύνης, η κα Λιν αναγκάστηκε να παραδεχτεί ότι αυτή η τεχνολογία έχει αναπτυχθεί τόσο γρήγορα και εξελιγμένα που είναι δύσκολο να διακρίνει κανείς μεταξύ πραγματικού και ψεύτικου.

Οι ειδικοί συμφωνούν επίσης με αυτήν την άποψη. Εργαλεία όπως το Google Veo 3, το Kling AI, το DALL·E 3, το Midjourney... έχουν φτάσει στην ικανότητα να δημιουργούν απίστευτα ρεαλιστικές εικόνες και βίντεο.
Ο κ. Do Nhu Lam, Διευθυντής Εκπαίδευσης, Ινστιτούτο Τεχνολογίας Blockchain και Τεχνητής Νοημοσύνης ABAII, επεσήμανε ότι χάρη στην πολυτροπική τεχνολογία και τα προηγμένα γλωσσικά μοντέλα, αυτά τα εργαλεία μπορούν να συγχρονίσουν εικόνες, ήχους, εκφράσεις προσώπου και φυσικές κινήσεις, δημιουργώντας εξαιρετικά πειστικά προϊόντα.

Ο κ. Λαμ σχολίασε ότι οι πρόοδοι της Τεχνητής Νοημοσύνης ανοίγουν μεγάλες δυνατότητες σε τομείς όπως η δημιουργία περιεχομένου, η διαφήμιση, η ψυχαγωγία και η εκπαίδευση . Ωστόσο, αυτή η «ρεαλιστική» ικανότητα αναδημιουργίας θέτει επίσης πολλές προκλήσεις στην ηθική, τον έλεγχο και την ασφάλεια των πληροφοριών, καθώς τα όρια μεταξύ πραγματικότητας και εικονικότητας γίνονται ολοένα και πιο θολά.
Η ανάρτηση στο Facebook που είδε η κα Λιν προσέλκυσε σχεδόν 300.000 αλληλεπιδράσεις και περισσότερα από 16.000 σχόλια. Πολλοί χρήστες έσπευσαν να συγχαρούν ή να εκφράσουν τα συναισθήματά τους χωρίς να γνωρίζουν ότι επρόκειτο απλώς για ένα παράδειγμα τεχνητής νοημοσύνης. Κάποιοι πιο «νηφάλιοι» άνθρωποι επέκριναν «τους διαδικτυακούς χρήστες ότι ήταν πολύ αφελείς» για να αφήσουν την τεχνητή νοημοσύνη να τους ξεγελάσει.
Σε ομάδες και φόρουμ στο Facebook, δεν είναι δύσκολο να δείτε βίντεο τεχνητής νοημοσύνης που δημιουργούνται και κοινοποιούνται από χρήστες. Συγκεκριμένα, η εμφάνιση του Google Veo 3 έχει βελτιώσει σημαντικά την ποιότητα των βίντεο, ειδικά τη φωνή που ταιριάζει με το σχήμα του στόματος του χαρακτήρα. Αν δεν προσέξετε και δεν παρακολουθήσετε προσεκτικά, οι θεατές μπορεί εύκολα να μπερδευτούν.
Διατηρώντας την ψυχική μας υγεία στην εποχή της Τεχνητής Νοημοσύνης
Οι φωτογραφίες και τα βίντεο που δημιουργούνται από την Τεχνητή Νοημοσύνη είναι δύσκολο να διακριθούν, γεγονός που θέτει μεγάλους κινδύνους για τους χρήστες, ιδίως για τις ευάλωτες ομάδες που δεν είναι εξοικειωμένες με την τεχνολογία. Σύμφωνα με τον κ. Vu Thanh Thang - Διευθυντή Τεχνητής Νοημοσύνης (CAIO) της SCS Cyber Security Joint Stock Company, η Τεχνητή Νοημοσύνη χρησιμοποιείται από τους κυβερνοεγκληματίες για απάτες (παρακάμπτοντας βιομετρικά συστήματα, eKYC...), πλαστοπροσωπώντας διάσημα πρόσωπα για τη διάδοση ψευδών πληροφοριών, προκαλώντας σύγχυση στο κοινό. Υπάρχουν πολλές περιπτώσεις εγκληματιών υψηλής τεχνολογίας που εκμεταλλεύονται την Τεχνητή Νοημοσύνη για να δημιουργήσουν deepfake φωτογραφίες, πλαστογραφώντας συγγενείς για να πραγματοποιούν βιντεοκλήσεις με σκοπό την απάτη.

Σύμφωνα με τον κ. Thang, οι επιχειρήσεις αποτελούν επίσης πιθανούς στόχους για εγκληματίες τεχνητής νοημοσύνης. Μπορούν να χρησιμοποιήσουν το AI Deepfake για να μιμηθούν τους υπαλλήλους, να παρακάμψουν τα συστήματα ασφαλείας για να ξεκλειδώσουν την παρουσία και να μιμηθούν τους ηγέτες των επιχειρήσεων για να δυσφημίσουν και να καταστρέψουν τη φήμη τους.
Συμμεριζόμενος την ίδια άποψη, ο κ. Do Nhu Lam της ABAII επεσήμανε τρεις συνέπειες για τους μεμονωμένους χρήστες που προκαλούνται από την Τεχνητή Νοημοσύνη: οικονομική απάτη, δυσφήμιση και εκμετάλλευση προσωπικών πληροφοριών. Για τις επιχειρήσεις, η εταιρεία Arup έχασε 25 εκατομμύρια δολάρια ΗΠΑ, αφού υπάλληλοι του υποκαταστήματός της στο Χονγκ Κονγκ εξαπατήθηκαν ώστε να συμμετάσχουν σε μια βιντεοσκόπηση deepfake και να μεταφέρουν χρήματα όπως τους ζητήθηκε.
Ένας άλλος εξίσου σοβαρός κίνδυνος είναι ότι όταν οι άνθρωποι δεν μπορούν να διακρίνουν μεταξύ πραγματικού και ψεύτικου, η εμπιστοσύνη του κοινού στα μέσα ενημέρωσης και στις επίσημες πηγές ειδήσεων θα διαβρωθεί.
Ο κ. Λαμ επικαλέστηκε μια έκθεση του Reuters Institute για το 2024, η οποία δείχνει ότι το ποσοστό των παγκόσμιων χρηστών που εμπιστεύονται τις ειδήσεις στις πλατφόρμες μέσων ενημέρωσης έχει μειωθεί στο χαμηλότερο επίπεδο της τελευταίας δεκαετίας, κυρίως λόγω της εμφάνισης deepfake περιεχομένου.
Σύμφωνα με τον ειδικό Vu Thanh Thang, «βρισκόμαστε σε μια εποχή όπου όλες οι πληροφορίες μπορούν να παραποιηθούν και δεν αποτελούν πλέον «κίνδυνο». Επομένως, είναι απαραίτητο να ευαισθητοποιήσουμε τον κόσμο και να εφαρμόσουμε μέτρα ατομικής προστασίας, καθώς και να μάθουμε για την Τεχνητή Νοημοσύνη για να ζήσουμε ειρηνικά .
Οι δύο ειδικοί συνιστούν στους χρήστες να επαληθεύουν και να επικυρώνουν πάντα τις πληροφορίες πριν λάβουν αποφάσεις, να εφοδιάζονται με γνώσεις για τον εντοπισμό ψεύτικου περιεχομένου, να περιορίζουν την κοινοποίηση προσωπικών πληροφοριών στο διαδίκτυο και να αναφέρουν πράξεις διάδοσης ψεύτικου περιεχομένου. «Μόνο με την προληπτική και ενημερωμένη δράση μπορούν οι χρήστες να προστατεύσουν πραγματικά τον εαυτό τους και να συμβάλουν στην οικοδόμηση ενός ασφαλέστερου κυβερνοχώρου στην ψηφιακή εποχή», δήλωσε ο κ. Λαμ.

Πηγή: https://vietnamnet.vn/anh-ai-tran-ngap-facebook-tuong-vo-hai-nhung-cuc-nguy-hiem-2408883.html










Σχόλιο (0)