I de siste månedene har eksperter og forskere på barnesikkerhet advart om risikoen for at kunstig AI kan forverre misbruk på nett.
Metas administrerende direktør Mark Zuckerberg taler under en høring i det amerikanske senatet for justiskomité 31. januar 2024, foran en mengde deltakere som bærer AI-genererte bilder. Foto: Reuters
NCMEC har ennå ikke offentliggjort det totale antallet rapporter om materiale med overgrep mot barn fra alle kilder de mottok i 2023. Men i 2022 mottok de rapporter om rundt 88,3 millioner filer om problemet.
«Vi får rapporter fra innovative AI-selskaper selv, (nett)plattformer og medlemmer av offentligheten», sa John Shehan, visepresident i NCMEC.
Administrerende direktører i Meta, X, TikTok, Snap og Discord vitnet på en høring i det amerikanske senatet om barns sikkerhet på nettplattformer onsdag (31. januar). Amerikanske lovgivere spurte sosiale medieselskaper om deres innsats for å beskytte barn mot «nettrovdyr».
Generativ AI kan brukes av ondsinnede aktører til gjentatte ganger å skade barn i virkeligheten ved å lage falske bilder av dem, sa forskere ved Stanford Internet Observatory i en rapport i juni i fjor.
Fallon McNulty, direktør for NCMECs CyberTipline, som tar imot rapporter om utnyttelse av barn på nett, sa at AI-generert innhold blir «mer og mer fotorealistisk», noe som gjør det vanskelig å avgjøre om ofrene er ekte mennesker.
OpenAI, selskapet som opprettet ChatGPT, har satt opp en prosess for å sende inn rapporter til NCMEC, og organisasjonen er i samtaler med andre AI-selskaper, sa McNulty.
Hoang Hai (ifølge Reuters, FT)
[annonse_2]
Kilde
Kommentar (0)