Τους τελευταίους μήνες, ειδικοί και ερευνητές για την ασφάλεια των παιδιών έχουν προειδοποιήσει για τον κίνδυνο η τεχνητή τεχνητή νοημοσύνη να επιδεινώσει την διαδικτυακή κακοποίηση.
Ο Διευθύνων Σύμβουλος της Meta, Μαρκ Ζάκερμπεργκ, μιλάει σε ακρόαση της Επιτροπής Δικαιοσύνης της Γερουσίας των ΗΠΑ στις 31 Ιανουαρίου 2024, μπροστά σε πλήθος παρευρισκομένων που κουβαλούσαν εικόνες που δημιουργήθηκαν από τεχνητή νοημοσύνη. Φωτογραφία: Reuters
Το NCMEC δεν έχει ακόμη δημοσιεύσει τον συνολικό αριθμό αναφορών για υλικό κακοποίησης παιδιών από όλες τις πηγές που έλαβε το 2023. Ωστόσο, το 2022, έλαβε αναφορές για περίπου 88,3 εκατομμύρια αρχεία σχετικά με το πρόβλημα.
«Λαμβάνουμε αναφορές από τις ίδιες τις καινοτόμες εταιρείες τεχνητής νοημοσύνης, (διαδικτυακές) πλατφόρμες και μέλη του κοινού», δήλωσε ο John Shehan, αντιπρόεδρος της NCMEC.
Οι διευθύνοντες σύμβουλοι των Meta, X, TikTok, Snap και Discord κατέθεσαν σε ακρόαση της Γερουσίας των ΗΠΑ σχετικά με την ασφάλεια των παιδιών σε διαδικτυακές πλατφόρμες την Τετάρτη (31 Ιανουαρίου). Οι Αμερικανοί νομοθέτες έθεσαν ερωτήσεις στις εταιρείες κοινωνικής δικτύωσης σχετικά με τις προσπάθειές τους να προστατεύσουν τα παιδιά από τους «διαδικτυακούς θηρευτές».
Η γενετική τεχνητή νοημοσύνη θα μπορούσε να χρησιμοποιηθεί από κακόβουλους παράγοντες για να βλάπτει επανειλημμένα παιδιά στην πραγματική ζωή δημιουργώντας ψεύτικες εικόνες τους, ανέφεραν ερευνητές του Παρατηρητηρίου Διαδικτύου του Στάνφορντ σε έκθεση τον περασμένο Ιούνιο.
Ο Φάλον ΜακΝάλτι, διευθυντής του CyberTipline του NCMEC, το οποίο λαμβάνει αναφορές για διαδικτυακή εκμετάλλευση παιδιών, δήλωσε ότι το περιεχόμενο που παράγεται από την τεχνητή νοημοσύνη γίνεται «όλο και πιο φωτορεαλιστικό», καθιστώντας δύσκολο να προσδιοριστεί εάν τα θύματα είναι πραγματικά πρόσωπα.
Η OpenAI, η εταιρεία που δημιούργησε το ChatGPT, έχει θεσπίσει μια διαδικασία για την υποβολή αναφορών στο NCMEC και ο οργανισμός βρίσκεται σε συνομιλίες με άλλες εταιρείες τεχνητής νοημοσύνης, δήλωσε ο McNulty.
Χοάνγκ Χάι (σύμφωνα με το Reuters, FT)
[διαφήμιση_2]
Πηγή
Σχόλιο (0)