Under de senaste månaderna har experter och forskare på barnsäkerhet varnat för att kreativ AI kan förvärra övergrepp online.
Metas VD Mark Zuckerberg talar vid en utfrågning i den amerikanska senatens rättsutskott den 31 januari 2024, inför en folkmassa som bär AI-genererade bilder. Foto: Reuters
NCMEC har ännu inte offentliggjort det totala antalet rapporter om innehåll med barnmisshandel från alla källor som de mottog under 2023. Men under 2022 mottog de rapporter om cirka 88,3 miljoner filer om problemet.
”Vi får rapporter från de innovativa AI-företagen själva, (online)plattformar och allmänheten”, säger John Shehan, vice vd för NCMEC.
VD:arna för Meta, X, TikTok, Snap och Discord vittnade vid en utfrågning i den amerikanska senaten om barnsäkerhet på onlineplattformar på onsdagen (31 januari). Amerikanska lagstiftare frågade sociala medieföretag om deras ansträngningar att skydda barn från "onlineförbrytare".
Generativ AI skulle kunna användas av onda aktörer för att upprepade gånger skada verkliga barn genom att skapa falska bilder av dem, konstaterade forskare vid Stanford Internet Observatory i en rapport i juni förra året.
Fallon McNulty, chef för NCMEC:s CyberTipline, som tar emot rapporter om barnexploatering online, sa att AI-genererat innehåll blir "mer och mer fotorealistiskt", vilket gör det svårt att avgöra om offren är riktiga människor.
McNulty sa att OpenAI, företaget som skapade ChatGPT, har infört en process för att skicka in rapporter till NCMEC, och organisationen för samtal med andra AI-företag.
Hoang Hai (enligt Reuters, FT)
[annons_2]
Källa
Kommentar (0)