Após o lançamento do primeiro aplicativo de IA da startup OpenAI, o ChatGPT, no final de 2022, uma onda de desenvolvimento de aplicações de IA foi desencadeada, especialmente a IA generativa, trazendo muitas conveniências para todas as áreas da vida. No entanto, isso também acarreta muitos riscos.
Invasão de privacidade
Nos últimos anos, muitas organizações e indivíduos sofreram prejuízos quando criminosos cibernéticos utilizaram inteligência artificial para criar vídeos que falsificavam as imagens e vozes de pessoas reais. Um exemplo disso é o truque "o falso se torna real", conhecido como Deepfake.
De acordo com o Relatório de Fraude de Identidade publicado pela Sumsub no final de novembro de 2023, os golpes com deepfakes aumentaram 10 vezes em todo o mundo entre 2022 e 2023. Este também foi o período em que as aplicações de inteligência artificial explodiram no mundo .
A Status Labs observa que os deepfakes tiveram um grande impacto na cultura, na privacidade e na reputação pessoal. Grande parte das notícias e da atenção em torno dos deepfakes se concentrou em pornografia de celebridades, pornografia de vingança, desinformação, notícias falsas, chantagem e golpes. Por exemplo, em 2019, uma empresa de energia nos EUA foi vítima de um golpe de US$ 243.000 aplicado por um hacker que falsificou a imagem e a voz da liderança da empresa e pediu aos funcionários que transferissem dinheiro para parceiros.
A agência de notícias Reuters informou que, em 2023, cerca de 500 mil conteúdos deepfake, em vídeo e voz, foram compartilhados em redes sociais ao redor do mundo. Além dos deepfakes criados para diversão, existem golpes aplicados por criminosos para enganar a comunidade. Algumas fontes afirmam que, em 2022, os golpes com deepfakes causaram um prejuízo estimado em 11 milhões de dólares em todo o mundo.
Muitos especialistas em tecnologia têm alertado sobre os efeitos negativos da IA, incluindo direitos de propriedade intelectual e autenticidade, e ainda, disputas de propriedade intelectual entre "obras" criadas por IA. Por exemplo, uma pessoa pede a um aplicativo de IA para desenhar uma imagem com um determinado tema, mas outra pessoa pede à IA para fazer o mesmo, resultando em pinturas com muitas semelhanças.
É muito provável que isso leve a disputas sobre a propriedade intelectual. No entanto, até o momento, o mundo ainda não tomou uma decisão sobre o reconhecimento de direitos autorais para conteúdo gerado por IA (reconhecendo a autoria de indivíduos que encomendam IA criativa ou empresas que desenvolvem aplicativos de IA).
Uma imagem gerada por um aplicativo de IA
É difícil distinguir entre o real e o falso.
Então, o conteúdo gerado por IA pode violar direitos autorais? Em termos de tecnologia, o conteúdo gerado por IA é sintetizado por algoritmos a partir de dados com os quais foram treinados. Esses bancos de dados são coletados por desenvolvedores de aplicativos de IA de diversas fontes, principalmente da base de conhecimento da internet. Muitas dessas obras são protegidas por direitos autorais pertencentes a seus respectivos proprietários.
Em 27 de dezembro de 2023, o The New York Times (EUA) processou a OpenAI (com o ChatGPT) e a Microsoft, alegando que milhões de seus artigos foram usados para treinar chatbots e plataformas de IA dessas duas empresas. As evidências apontam para a existência de conteúdo criado por chatbots a pedido dos usuários, que é igual ou semelhante ao conteúdo dos artigos. O jornal não pode ignorar o uso indevido de sua "propriedade intelectual" por empresas com fins lucrativos.
O The New York Times é o primeiro grande jornal dos EUA a entrar com um processo judicial por violação de direitos autorais relacionado à inteligência artificial. É possível que outros jornais sigam o exemplo no futuro, especialmente após o sucesso do The New York Times.
Anteriormente, a OpenAI firmou um acordo de licenciamento de direitos autorais com a agência de notícias Associated Press em julho de 2023 e com a Axel Springer - editora alemã proprietária dos jornais Politico e Business Insider - em dezembro de 2023.
A atriz Sarah Silverman também entrou com um processo em julho de 2023, acusando a Meta e a OpenAI de usarem suas memórias como texto de treinamento para programas de IA. Muitos escritores também expressaram alarme quando foi revelado que sistemas de IA haviam incorporado dezenas de milhares de livros em seus bancos de dados, o que levou a processos judiciais movidos por autores como Jonathan Franzen e John Grisham.
Entretanto, o serviço de fotos Getty Images também processou uma empresa de IA por criar imagens com base em comandos de texto, devido ao uso não autorizado de material de imagem protegido por direitos autorais da empresa...
Os usuários podem ter problemas com direitos autorais quando usam "obras" que solicitaram a ferramentas de IA para "criar" de forma "descuidada". Especialistas sempre recomendam usar ferramentas de IA apenas para pesquisa, coleta de dados e sugestões para fins de referência.
Por outro lado, as aplicações de IA confundem os usuários quando estes não conseguem distinguir entre a verdade e a falsidade de determinado conteúdo. Editoras e redações de jornais podem ficar confusas ao receber manuscritos. Professores também têm dificuldade em saber se os trabalhos dos alunos utilizam IA ou não.
A comunidade agora terá que estar mais vigilante, pois não se sabe o que é real e o que é falso. Por exemplo, será difícil para a pessoa comum detectar se uma foto foi "encantada" ou editada por IA.
É necessário regulamentar legalmente o uso da IA.
Enquanto aguardamos ferramentas capazes de detectar a intervenção da IA, as agências de gestão precisam, em breve, de regulamentações legais claras e específicas sobre o uso dessa tecnologia na criação de conteúdo privado. Essas regulamentações precisam deixar claro para todos quando um conteúdo ou obra foi manipulado por IA, por exemplo, com a inclusão de marcas d'água em imagens que tenham sido alteradas por IA.
Fonte: https://nld.com.vn/mat-trai-cua-ung-dung-tri-tue-nhan-tao-196240227204333618.htm






Comentário (0)