Τους τελευταίους μήνες, ειδικοί και ερευνητές για την ασφάλεια των παιδιών έχουν προειδοποιήσει ότι η δημιουργική τεχνητή νοημοσύνη θα μπορούσε να επιδεινώσει την κακοποίηση στο διαδίκτυο.
Ο Διευθύνων Σύμβουλος της Meta, Μαρκ Ζάκερμπεργκ, μιλάει σε ακρόαση της Επιτροπής Δικαιοσύνης της Γερουσίας των ΗΠΑ στις 31 Ιανουαρίου 2024, μπροστά σε πλήθος παρευρισκομένων που κουβαλούσαν εικόνες που δημιουργήθηκαν από τεχνητή νοημοσύνη. Φωτογραφία: Reuters
Το NCMEC δεν έχει ακόμη δημοσιεύσει τον συνολικό αριθμό αναφορών για περιεχόμενο κακοποίησης παιδιών από όλες τις πηγές που έλαβε το 2023. Ωστόσο, το 2022, έλαβε αναφορές για περίπου 88,3 εκατομμύρια αρχεία σχετικά με το πρόβλημα.
«Λαμβάνουμε αναφορές από τις ίδιες τις καινοτόμες εταιρείες τεχνητής νοημοσύνης, (διαδικτυακές) πλατφόρμες και μέλη του κοινού», δήλωσε ο John Shehan, αντιπρόεδρος της NCMEC.
Οι διευθύνοντες σύμβουλοι των Meta, X, TikTok, Snap και Discord κατέθεσαν σε ακρόαση της Γερουσίας των ΗΠΑ σχετικά με την ασφάλεια των παιδιών σε διαδικτυακές πλατφόρμες την Τετάρτη (31 Ιανουαρίου). Οι Αμερικανοί νομοθέτες έθεσαν ερωτήσεις στις εταιρείες κοινωνικής δικτύωσης σχετικά με τις προσπάθειές τους να προστατεύσουν τα παιδιά από τους «διαδικτυακούς θηρευτές».
Η γενετική τεχνητή νοημοσύνη θα μπορούσε να χρησιμοποιηθεί από κακόβουλους παράγοντες για να βλάπτει επανειλημμένα παιδιά στην πραγματική ζωή δημιουργώντας ψεύτικες εικόνες τους, ανέφεραν ερευνητές του Παρατηρητηρίου Διαδικτύου του Στάνφορντ σε έκθεση τον περασμένο Ιούνιο.
Ο Φάλον ΜακΝάλτι, διευθυντής του CyberTipline του NCMEC, το οποίο λαμβάνει αναφορές για διαδικτυακή εκμετάλλευση παιδιών, δήλωσε ότι το περιεχόμενο που παράγεται από την τεχνητή νοημοσύνη γίνεται «όλο και πιο φωτορεαλιστικό», καθιστώντας δύσκολο να προσδιοριστεί εάν τα θύματα είναι πραγματικά πρόσωπα.
Ο McNulty δήλωσε ότι η OpenAI, η εταιρεία που δημιούργησε το ChatGPT, έχει θεσπίσει μια διαδικασία για την υποβολή αναφορών στο NCMEC και ο οργανισμός βρίσκεται σε συνομιλίες με άλλες εταιρείες τεχνητής νοημοσύνης.
Χοάνγκ Χάι (σύμφωνα με το Reuters, FT)
[διαφήμιση_2]
Πηγή






Σχόλιο (0)