Nos últimos meses, especialistas em segurança infantil e pesquisadores alertaram sobre o risco de a IA artificial exacerbar o abuso online.
O CEO da Meta, Mark Zuckerberg, discursa em uma audiência do Comitê Judiciário do Senado dos EUA em 31 de janeiro de 2024, diante de uma multidão de participantes carregando imagens geradas por IA. Foto: Reuters
O NCMEC ainda não divulgou o número total de denúncias de material de abuso infantil de todas as fontes que recebeu em 2023. Mas em 2022, recebeu denúncias de cerca de 88,3 milhões de arquivos sobre o problema.
“Estamos recebendo relatórios das próprias empresas inovadoras de IA, de plataformas (online) e de membros do público”, disse John Shehan, vice-presidente do NCMEC.
Os CEOs da Meta, X, TikTok, Snap e Discord testemunharam em uma audiência no Senado dos EUA sobre segurança infantil em plataformas online na quarta-feira (31 de janeiro). Parlamentares americanos questionaram empresas de mídia social sobre seus esforços para proteger crianças de "predadores online".
A IA generativa pode ser usada por pessoas mal-intencionadas para prejudicar repetidamente crianças na vida real, criando imagens falsas delas, disseram pesquisadores do Observatório da Internet de Stanford em um relatório em junho passado.
Fallon McNulty, diretora do CyberTipline do NCMEC, que recebe denúncias de exploração infantil online, disse que o conteúdo gerado por IA está se tornando "cada vez mais fotorrealista", dificultando determinar se as vítimas são pessoas reais.
A OpenAI, empresa que criou o ChatGPT, criou um processo para enviar relatórios ao NCMEC, e a organização está em negociações com outras empresas de IA, disse McNulty.
Hoang Hai (de acordo com Reuters, FT)
Fonte
Comentário (0)