Az elmúlt hónapokban a gyermekbiztonsági szakértők és kutatók arra figyelmeztettek, hogy a mesterséges intelligencia súlyosbíthatja az online bántalmazást.
Mark Zuckerberg, a Meta vezérigazgatója az Egyesült Államok Szenátusának Igazságügyi Bizottságának meghallgatásán beszél 2024. január 31-én, mesterséges intelligencia által generált képeket hordozó résztvevők előtt. Fotó: Reuters
Az NCMEC még nem hozta nyilvánosságra a 2023-ban kapott gyermekbántalmazási anyagokról szóló bejelentések teljes számát az összes forrásból. 2022-ben azonban körülbelül 88,3 millió fájlról kaptak bejelentést a problémáról.
„Jelentéseket kapunk innovatív mesterséges intelligencia fejlesztő cégektől, (online) platformoktól és a nyilvánosság tagjaitól” – mondta John Shehan, az NCMEC alelnöke.
A Meta, az X, a TikTok, a Snap és a Discord vezérigazgatói szerdán (január 31-én) tanúvallomást tettek az amerikai szenátus meghallgatásán az online platformokon a gyermekek biztonságáról. Az amerikai törvényhozók a közösségi média vállalatokat kérdezték a gyermekek „online ragadozóktól” való védelmére irányuló erőfeszítéseikről.
A Stanford Internet Observatory kutatói egy tavaly júniusi jelentésben azt írták, hogy a generatív mesterséges intelligenciát rosszindulatú szereplők használhatják arra, hogy hamis képeket készítsenek róluk, és ismételten ártsanak a valós életben élő gyermekeknek.
Fallon McNulty, az NCMEC CyberTipline igazgatója, amely az online gyermekkizsákmányolásról szóló bejelentéseket fogadja, azt mondta, hogy a mesterséges intelligencia által generált tartalom „egyre fotorealisztikusabbá” válik, ami megnehezíti annak megállapítását, hogy az áldozatok valódi emberek-e.
Az OpenAI, a ChatGPT-t létrehozó cég, létrehozott egy folyamatot a jelentések NCMEC-nek történő benyújtására, és a szervezet tárgyalásokat folytat más mesterséges intelligencia alapú cégekkel – mondta McNulty.
Hoang Hai (a Reuters és az FT szerint)
[hirdetés_2]
Forrás
Hozzászólás (0)