Vivemos na era da revolução tecnológica 4.0, em que a inteligência artificial (IA) está gradualmente se tornando parte indispensável de muitas áreas da vida social. A mídia, como ponte de informação entre o público e os acontecimentos, não pode ficar de fora dessa tendência.
Sra. Nguyen Thi Hai Van - Diretora do Centro de Treinamento em Jornalismo da Associação de Jornalistas do Vietnã , no Workshop sobre tecnologia de IA. (Fonte: Associação de Jornalistas do Vietnã) |
Para aproveitar ao máximo as vantagens que a IA traz, os comunicadores precisam se equipar com o conhecimento para poder usar a IA de forma eficaz, garantindo confiabilidade e ética na transmissão de informações.
Do “calor” da IA
É evidente que IA (Inteligência Artificial) é uma das palavras-chave mais procuradas atualmente. Em setembro de 2024, uma busca no Google pela palavra-chave "IA" em 0,3 segundos registrou 15 bilhões e 900 milhões de resultados; com a palavra-chave "ferramentas de IA", em 0,4 segundos, registrou mais de 3 bilhões e 400 milhões de resultados. Esses números expressivos demonstram a abrangência e o interesse em IA e ferramentas baseadas em IA em todo o mundo.
Atualmente, há cada vez mais ferramentas de IA surgindo para diversos campos, incluindo a indústria da mídia. Além do amplamente conhecido ChatGPT, existem muitas aplicações de IA desenvolvidas em uma direção especializada, atendendo a tarefas específicas. Não é difícil listar muitas ferramentas aqui, por exemplo: Bing AI, Clause, Zapier Central para o grupo de tarefas Chatbot; Jasper, Copy.ai, Anyword para tarefas de criação de conteúdo; Descript, Wondershare, Runway para tarefas de produção e edição de vídeo ; DALL-E3, Midjourney, Stable Diffusion para tarefas de criação de imagens; Murf, AIVA para tarefas de conteúdo de áudio, etc. E recentemente, a gigante Amazon também apresentou as ferramentas de IA que desenvolveu, Video Generator e Image Generator, com o objetivo de "inspirar a criatividade e agregar mais valor".
Embora as ferramentas de IA variem muito em escala e nível de especialização, a tecnologia tem essencialmente duas coisas em comum: as ferramentas de IA são desenvolvidas com base em algoritmos e dados para "treinar" a ferramenta de IA.
Controle Ético do Uso de IA na Mídia
Os benefícios que as ferramentas de IA trazem são inegáveis e, com o ritmo acelerado das atualizações tecnológicas, haverá cada vez mais ferramentas de IA especializadas em todos os cantos, respondendo a tarefas das mais simples às mais complexas na indústria da mídia. Junto com esse desenvolvimento avassalador, muitas questões surgem em relação à questão do controle ético no desenvolvimento e uso de ferramentas de IA na indústria da mídia. O que acontecerá se os algoritmos e dados dessa ferramenta de IA forem manipulados de forma prejudicial à comunidade? Quem garante os direitos de propriedade intelectual dos dados de entrada que a ferramenta de IA usa para treinamento? Quem avalia o nível de dano que elas causam?
Existe desigualdade entre aqueles que têm acesso e aqueles que não têm acesso a ferramentas de IA para a mesma tarefa? Surgiram até questionamentos sobre o potencial de danos descontrolados causados por ferramentas de IA, especialmente em áreas sensíveis que podem impactar muitas pessoas em larga escala, como a mídia e as redes sociais.
Reconhecendo as preocupações acima, muitas organizações, associações, governos e até mesmo empresas e corporações que desenvolvem ferramentas de IA emitiram recomendações, explicações e até mesmo Códigos de Conduta relacionados à questão do controle ético na tecnologia de IA. Adotada por 193 países em 2021, a Declaração sobre Ética da Inteligência Artificial – Recomendação da UNESCO – Organização das Nações Unidas para a Educação , a Ciência e a Cultura, afirma claramente que "O rápido crescimento da inteligência artificial (IA) criou muitas oportunidades globalmente, desde auxiliar no diagnóstico de saúde até possibilitar a conexão humana por meio das mídias sociais e criar eficiência laboral por meio de tarefas automatizadas.
No entanto, essas rápidas mudanças também levantam profundas preocupações éticas. Tais riscos associados à IA começaram a agravar as desigualdades existentes, levando a maiores danos a grupos já desfavorecidos...”. E, a partir daí, “solicitam à UNESCO que desenvolva ferramentas para apoiar os Estados-Membros, incluindo a Metodologia de Avaliação de Prontidão, uma ferramenta para que os governos construam um panorama abrangente de sua prontidão para implantar a IA de forma ética e responsável para todos os seus cidadãos.
Em sua abordagem global, a UNESCO lançou o Observatório Global de Ética e Governança em IA, que, segundo ela, "fornece informações sobre a prontidão dos países para adotar a IA de forma ética e responsável". Também abriga o Laboratório de Ética e Governança em IA, que reúne contribuições, pesquisas impactantes, kits de ferramentas e práticas positivas em uma ampla gama de questões éticas em IA..."
Além de organizações globais como a UNESCO, muitas associações profissionais também estão trabalhando para desenvolver seus próprios códigos de conduta. Por exemplo, a IABC - Associação Internacional de Comunicações Empresariais, uma associação com milhares de membros em todo o mundo, desenvolveu um conjunto de princípios que orientam o uso ético da IA por profissionais de comunicação, com o objetivo de orientar os membros da IABC sobre a relevância do Código de Ética da IABC para a IA. Essas diretrizes podem ser atualizadas e complementadas ao longo do tempo, à medida que a tecnologia de IA se desenvolve. Nesse conjunto de princípios, há muitos pontos específicos que um profissional de comunicação deve seguir, como:
Os recursos de IA utilizados devem ser conduzidos por humanos para criar experiências positivas e transparentes que promovam respeito e construam confiança na profissão de mídia. É importante manter-se informado sobre as oportunidades e riscos profissionais que as ferramentas de IA apresentam. É fundamental comunicar informações de forma precisa, objetiva e justa. As ferramentas de IA podem estar sujeitas a muitos erros, inconsistências e outros problemas técnicos. Isso requer julgamento humano para verificar de forma independente se meu conteúdo gerado por IA é preciso, transparente e não contém plágio.
Proteja as informações pessoais e/ou confidenciais de terceiros e não as utilize sem a permissão deles. Avalie seus resultados de IA com base no engajamento humano e na compreensão da comunidade que pretende atender. Elimine preconceitos da melhor forma possível e seja sensível aos valores e crenças culturais dos outros.
Devem verificar os fatos e verificar seus próprios resultados de forma independente, com o rigor profissional necessário, para garantir que a documentação, as informações ou as referências de terceiros sejam precisas, tenham a atribuição e a verificação necessárias e estejam devidamente licenciadas ou autorizadas para uso. Não tentem ocultar ou disfarçar o uso de IA em seus resultados profissionais. Reconheçam a natureza de código aberto da IA e as questões relacionadas à confidencialidade, incluindo a inserção de informações falsas, enganosas ou enganosas...
Empresas e corporações que possuem, desenvolvem e comercializam ferramentas de IA são aquelas que entendem os detalhes das ferramentas de IA melhor do que ninguém, conhecem os algoritmos subjacentes nos quais as ferramentas de IA operam e os dados a partir dos quais as ferramentas de IA são treinadas. Portanto, essas empresas também precisam fornecer informações relacionadas aos princípios de Ética no Desenvolvimento de IA. De fato, existem empresas interessadas nessa questão.
O Google se compromete a não desenvolver ferramentas de IA para áreas onde haja risco significativo de danos, e só o faremos quando acreditarmos que os benefícios superam significativamente os riscos e incorporarmos salvaguardas adequadas. Armas ou outras tecnologias cujo objetivo principal ou implantação seja causar ou facilitar diretamente lesões humanas. Tecnologias que coletam ou usam informações para vigilância que violem normas internacionalmente aceitas. Tecnologias cujo propósito viole princípios geralmente aceitos de direito internacional e direitos humanos.
Em relação à segurança, o Google promete: “Continuaremos a desenvolver e implementar medidas robustas de segurança para evitar resultados indesejados que criem riscos de danos. Projetaremos nossos sistemas de IA para serem adequadamente cautelosos e buscaremos desenvolvê-los de acordo com as melhores práticas em pesquisa de segurança de IA. Incorporaremos nossos princípios de privacidade no desenvolvimento e uso de nossas tecnologias de IA. Ofereceremos oportunidades para notificação e consentimento, incentivaremos arquiteturas de proteção da privacidade e forneceremos transparência e controles adequados sobre o uso de dados.”
Assim como o Google, a Microsoft também divulgou um comunicado sobre os Princípios e a Abordagem da IA, enfatizando: "Estamos comprometidos em garantir que os sistemas de IA sejam desenvolvidos de forma responsável e que garantam a confiança das pessoas...". Além disso, de uma forma ou de outra, grandes empresas de tecnologia que investem pesadamente no desenvolvimento de ferramentas de IA, como a Amazon e a OpenAI, também assumiram seus próprios compromissos.
Muitos exemplos na história comprovaram a dualidade da tecnologia, com fatores positivos e negativos. Afinal, embora seja uma plataforma tecnológica de alta tecnologia, a IA ainda se baseia em algoritmos e dados desenvolvidos e coletados por humanos; ao mesmo tempo, a maioria dos produtos de IA faz parte dos planos de negócios das empresas que os possuem.
Portanto, sempre há riscos potenciais do lado técnico, bem como da equipe de desenvolvimento e gestão do produto. O problema aqui é a escala de impacto que as ferramentas de IA podem ter na maioria, até mesmo no nível socioeconômico de uma comunidade. A atenção oportuna ao controle ético ao usar a tecnologia de IA é um sinal bem-vindo, com a participação de organizações internacionais de grande porte, como as Nações Unidas, ou governos, passando por associações industriais e, acima de tudo, diretamente nas unidades de desenvolvimento de tecnologia.
No entanto, assim como a lista de ferramentas de IA lança continuamente novas versões, cada uma mais sofisticada e complexa que a anterior, os Códigos, Princípios ou Diretrizes também precisam ser atualizados e complementados em tempo hábil e, além disso, precisam ser proativos para prevenir, limitar e controlar unidades de desenvolvimento de produtos e usuários dentro de uma estrutura onde a capacidade de cumprir o Controle Ético na tecnologia de IA em geral e nos profissionais de mídia em particular possa atingir a mais alta eficiência.
Fonte
Comentário (0)