ChatGPT processado
Recentemente, dois autores americanos processaram a OpenAI em um tribunal federal de São Francisco, alegando que a empresa usou seus trabalhos para “treinar” o popular sistema de inteligência artificial ChatGPT.
Os escritores de Massachusetts Paul Tremblay e Mona Awad alegam que o ChatGPT extraiu dados copiados de milhares de livros sem permissão, violando os direitos autorais dos autores. O processo deles argumenta que o ChatGPT criou "resumos altamente precisos" de suas obras sem a permissão dos autores, o que constitui uma violação de direitos autorais.
O The Guardian citou Andres Guadamuz, que estuda direito de propriedade intelectual na Universidade de Sussex, afirmando que este é o primeiro processo judicial relacionado a direitos de propriedade intelectual para o ChatGPT. Nesse sentido, Guadamuz afirmou que este processo revelará os "limites legais" pouco claros no processo de uso de aplicações inovadoras de IA atualmente.
A OpenAI foi processada por violação de direitos autorais em treinamento de IA.
No campo do jornalismo, houve uma série de perguntas sobre as oportunidades e os desafios, e também sobre a raiva e os impactos da inteligência artificial no jornalismo em geral e nos cargos de jornalistas.
O ChatGPT pode gerar textos altamente complexos a partir de comandos simples do usuário, gerando desde ensaios a candidaturas a emprego, poemas e histórias de ficção. O ChatGPT é um grande modelo de linguagem, treinado através do upload de bilhões de palavras da vida cotidiana para o sistema a partir da internet. A partir daí, ele infere frases e palavras de determinadas sequências.
No entanto, a precisão das respostas tem sido questionada. Acadêmicos na Austrália encontraram exemplos do sistema falsificando referências de sites e, em seguida, citando citações falsas. O uso de inteligência artificial no jornalismo também tem sido controverso.
O site de notícias sobre tecnologia CNET utiliza IA para gerar artigos que são verificados por editores humanos antes da publicação. O site reconheceu que o programa tem limitações, após uma reportagem no site de notícias sobre tecnologia Futurism revelar que mais da metade dos artigos gerados por ferramentas de IA tiveram que ser editados para corrigir erros. Em certa ocasião, a CNET foi forçada a emitir correções para um artigo que continha muitos erros simples.
Mas o potencial da IA para gerar desinformação não é a única preocupação. Há também uma série de questões legais e éticas a serem consideradas, incluindo direitos de propriedade intelectual (PI), moderação de conteúdo e a potencial ruptura dos atuais modelos financeiros das redações.
Quem detém a propriedade intelectual e os direitos de publicação de conteúdo?
De acordo com o Sr. Le Quoc Minh – Membro do Comitê Central do Partido, Editor-Chefe do Jornal Nhan Dan, Chefe Adjunto do Departamento Central de Propaganda e Presidente da Associação de Jornalistas do Vietnã –, se as redações começarem a integrar IA para produzir conteúdo, surge uma questão importante: quem detém a propriedade intelectual e os direitos de publicação do conteúdo? A agência de notícias comanda a plataforma de IA ou é a própria plataforma de IA?
Le Quoc Minh citou que, diferentemente dos EUA, a lei do Reino Unido permite a proteção de direitos autorais para obras geradas por computador, embora apenas indivíduos ou organizações tenham o direito de "possuir" propriedade intelectual, nunca a IA. Especificamente, isso significa que, se um sistema de IA fez contribuições mínimas além dos comandos básicos do usuário, e o processo automatizado de tomada de decisão impulsionou o processo criativo, então o criador da plataforma pode ser considerado o "autor" e proprietário do produto intelectual.
O editor-chefe Gideon Lichfield disse que eles não publicarão conteúdo escrito ou editado por IA e não usarão imagens ou vídeos gerados por IA.
Se for necessária muita entrada de dados por meio do upload de documentos para o sistema, e a IA for apenas uma ferramenta de suporte, a propriedade intelectual do resultado pode pertencer ao usuário. De fato, se jornalistas usam IA, eles precisam verificar cuidadosamente os termos de serviço das plataformas para avaliar cuidadosamente as regulamentações de propriedade intelectual. Algumas plataformas "concedem" direitos de propriedade intelectual aos usuários, enquanto outras podem reter esse direito e concedê-lo sob uma "licença" (possivelmente com regulamentações que restrinjam o uso de redações).
“Independentemente de quem detém a propriedade intelectual, as redações devem estar preparadas para assumir a responsabilidade por qualquer conteúdo gerado por IA que publiquem — incluindo a possibilidade de o conteúdo ser considerado difamatório ou enganoso”, disse Minh.
O editor-chefe do jornal Nhan Dan acrescentou que, até o momento, muitas ferramentas de IA não "publicam" respostas para ninguém além dos próprios usuários, e qualquer pessoa que utilize essas tecnologias é responsável pelo conteúdo que publica. O maior risco para redações que publicam trabalhos gerados por IA é a violação acidental de direitos de propriedade intelectual de terceiros. Os jornalistas não conseguem saber quais imagens ou textos são usados para treinar a IA ou quais são extraídos para criar conteúdo sob demanda.
“ As redações devem aceitar o fato de que conteúdo aparentemente original gerado por IA pode ser fortemente influenciado por – ou copiado diretamente de – fontes de terceiros sem permissão”, enfatizou o Sr. Le Quoc Minh.
O Sr. Minh também observou que os termos de serviço das plataformas de IA não garantem que os resultados não infrinjam direitos autorais e, portanto, as redações não terão base legal caso sejam processadas pelo autor. Por exemplo, a empresa de armazenamento de fotos Getty Images iniciou um processo contra a Stability AI – a empresa controladora que produz a ferramenta de criação de imagens Stable Diffusion – por "copiar e processar ilegalmente milhões de fotos protegidas por direitos autorais, de propriedade ou representadas pela Getty Images".
"Mesmo que a Stability AI evite uma ação judicial por direitos autorais, ainda assim será considerada culpada de ter violado os termos de serviço da Getty Images, que proíbem "qualquer mineração de dados, robótica ou métodos semelhantes de coleta de dados. Veículos de comunicação que forem flagrados usando IA para interferir no conteúdo da Getty Images sem permissão também poderão ser processados", disse Minh.
Em um desenvolvimento positivo, o site de notícias de tecnologia Wired se tornou recentemente o primeiro meio de comunicação a publicar regulamentações oficiais sobre IA, descrevendo como eles planejam usar a tecnologia.
Os regulamentos, publicados pelo editor-chefe Gideon Lichfield no início de março, estabelecem uma série de compromissos sobre o que a redação não fará, como não publicar conteúdo escrito ou editado por IA, não usar imagens ou vídeos criados por IA, mas apenas usar a IA para obter ideias para artigos, sugerir manchetes atraentes ou conteúdo postado em redes sociais para maior eficácia. Isso pode ser considerado uma medida positiva e necessária no contexto da IA, que causa muita controvérsia em torno de questões legais e éticas nas atividades jornalísticas atuais.
Hoa Giang
[anúncio_2]
Fonte
Comentário (0)