En los últimos meses, expertos en seguridad infantil e investigadores han advertido que la IA creativa podría exacerbar el abuso en línea.
Mark Zuckerberg, CEO de Meta, interviene en una audiencia del Comité Judicial del Senado de Estados Unidos el 31 de enero de 2024, ante un público que porta imágenes generadas por IA. Foto: Reuters
El NCMEC aún no ha publicado el número total de informes de contenido de abuso infantil procedentes de todas las fuentes que recibió en 2023. Pero en 2022, recibió informes de aproximadamente 88,3 millones de archivos sobre el problema.
“Estamos recibiendo informes de las propias empresas innovadoras de IA, de plataformas (en línea) y de miembros del público”, dijo John Shehan, vicepresidente de NCMEC.
Los directores ejecutivos de Meta, X, TikTok, Snap y Discord testificaron el miércoles (31 de enero) ante el Senado estadounidense sobre la seguridad infantil en las plataformas en línea. Los legisladores estadounidenses interrogaron a las empresas de redes sociales sobre sus esfuerzos para proteger a los niños de los "depredadores en línea".
La IA generativa podría ser utilizada por personas malintencionadas para dañar repetidamente a niños reales mediante la creación de imágenes falsas de ellos, según indicaron investigadores del Observatorio de Internet de Stanford en un informe publicado en junio pasado.
Fallon McNulty, directora de CyberTipline del NCMEC, que recibe denuncias de explotación infantil en línea, dijo que el contenido generado por IA se está volviendo “cada vez más fotorrealista”, lo que dificulta determinar si las víctimas son personas reales.
McNulty dijo que OpenAI, la compañía que creó ChatGPT, ha establecido un proceso para enviar informes a NCMEC, y que la organización está en conversaciones con otras compañías de IA.
Hoang Hai (según Reuters y FT)
Fuente






Kommentar (0)