Vietnam.vn - Nền tảng quảng bá Việt Nam

Ética dos profissionais da mídia ao utilizarem tecnologia de IA

Báo Quốc TếBáo Quốc Tế27/10/2024

Estamos vivendo na era da Indústria 4.0, onde a inteligência artificial (IA) está se tornando gradualmente parte indispensável de muitas áreas da vida social. A mídia, como ponte de informação entre o público e os acontecimentos, não pode ficar de fora dessa tendência.


Đạo đức của người làm truyền thông khi sử dụng công nghệ AI
Sra. Nguyen Thi Hai Van - Diretora do Centro de Treinamento em Jornalismo da Associação de Jornalistas do Vietnã , durante o Workshop sobre tecnologia de IA. (Fonte: Associação de Jornalistas do Vietnã)

Para tirar o máximo proveito das vantagens que a IA oferece, os profissionais de comunicação precisam adquirir o conhecimento necessário para usar a IA de forma eficaz, garantindo ao mesmo tempo a confiabilidade e a ética na transmissão de informações.

Da popularidade da IA

É absolutamente claro que a IA (Inteligência Artificial) é uma das palavras-chave mais populares da atualidade. Em setembro de 2024, uma busca no Google pela palavra-chave "IA" registrou 15,9 bilhões de resultados em 0,3 segundos; já a busca por "ferramentas de IA" gerou mais de 3,4 bilhões de resultados em 0,4 segundos. Esses números expressivos demonstram a abrangência e o interesse global em IA e em ferramentas baseadas em IA.

Atualmente, há um número crescente de ferramentas de IA surgindo para diversas áreas, incluindo a indústria da mídia. Além do amplamente conhecido ChatGPT, existem muitos aplicativos de IA desenvolvidos em direções especializadas, atendendo a tarefas específicas. Não é difícil listar várias ferramentas, por exemplo: Bing AI, Clause, Zapier Central para chatbots; Jasper, Copy.ai, Anyword para criação de conteúdo; Descript, Wondershare, Runway para produção e edição de vídeo ; DALL-E3, Midjourney, Stable Diffusion para criação de imagens; Murf, AIVA para conteúdo de áudio, etc. Recentemente, a gigante Amazon também lançou suas ferramentas de IA, o Video Generator e o Image Generator, com o objetivo de "inspirar a criatividade e agregar mais valor".

Embora as ferramentas de IA sejam muito diversas em escala ou nível de especialização, em essência a tecnologia tem duas coisas em comum: as ferramentas de IA são desenvolvidas com base em algoritmos e dados para "treinar" as ferramentas de IA.

Controle ético do uso da IA ​​na mídia

É inegável a conveniência que as ferramentas de IA trazem e, com o ritmo acelerado das atualizações tecnológicas, haverá cada vez mais ferramentas de IA especializadas em todos os cantos, respondendo a tarefas simples e complexas na indústria da mídia. Juntamente com esse desenvolvimento avassalador, surgem muitas questões sobre o controle ético no desenvolvimento e uso de ferramentas de IA na indústria da mídia. O que acontecerá se os algoritmos e os dados dessa ferramenta de IA forem manipulados de forma prejudicial à comunidade? Quem garante os direitos de propriedade intelectual dos dados de entrada que a ferramenta de IA utiliza para treinamento? Quem avalia o nível de dano que elas causam?

Existe desigualdade entre o grupo de pessoas que tem acesso a ferramentas de IA e o grupo que não tem acesso a elas na mesma tarefa? Chegaram mesmo a surgir questionamentos sobre o potencial nível de danos descontrolados causados ​​por ferramentas de IA, especialmente em áreas sensíveis que podem afetar muitas pessoas em larga escala, como a mídia e as redes sociais.

Reconhecendo as preocupações acima mencionadas, muitas organizações, associações, governos e até mesmo empresas e corporações que desenvolvem ferramentas de IA emitiram recomendações, explicações e até mesmo Códigos de Conduta relacionados à questão do controle ético na tecnologia de IA. Adotada por 193 países em 2021, a Declaração sobre Ética da Inteligência Artificial - Recomendação da UNESCO - Organização das Nações Unidas para a Educação , a Ciência e a Cultura, afirma claramente que "A rápida ascensão da inteligência artificial (IA) criou muitas oportunidades globalmente, desde auxiliar diagnósticos na área da saúde até possibilitar a conexão humana por meio das mídias sociais e gerar eficiência no trabalho por meio de tarefas automatizadas."

No entanto, essas mudanças rápidas também levantam profundas preocupações éticas. Tais riscos associados à IA começaram a agravar as desigualdades existentes, causando ainda mais danos a grupos já desfavorecidos...”. E a partir daí, “solicitar à UNESCO que desenvolva ferramentas para apoiar os Estados-Membros, incluindo a Metodologia de Avaliação de Prontidão, uma ferramenta para que os governos construam um panorama abrangente de sua prontidão para implantar a IA de forma ética e responsável para todos os seus cidadãos.

Em sua abordagem global, a UNESCO lançou o Observatório Global de Ética e Governança da IA, que, segundo ela, “fornece informações sobre a prontidão dos países para adotar a IA de forma ética e responsável. Também abriga o Laboratório de Ética e Governança da IA, que reúne contribuições, pesquisas impactantes, ferramentas e práticas positivas sobre uma ampla gama de questões de ética em IA…”

Além de organizações globais como a UNESCO, muitas associações profissionais também estão trabalhando no desenvolvimento de seus próprios padrões. Por exemplo, a IABC (International Association of Business Communications), uma associação com milhares de membros em todo o mundo, desenvolveu um conjunto de princípios que orientam o uso ético da IA ​​por profissionais de comunicação. Esse conjunto visa orientar os membros da IABC sobre a relevância do Código de Ética da IA ​​para a IA. Essas diretrizes podem ser atualizadas e complementadas ao longo do tempo, em paralelo com o desenvolvimento da tecnologia de IA. Nesse conjunto de princípios, existem muitos pontos específicos que um profissional de comunicação deve seguir, tais como:

“Os recursos de IA utilizados devem ser conduzidos por humanos para criar experiências positivas e transparentes que promovam o respeito e construam confiança na profissão de mídia. É importante manter-se informado sobre as oportunidades e os riscos profissionais que as ferramentas de IA apresentam. As informações devem ser comunicadas com precisão, objetividade e imparcialidade. As ferramentas de IA podem estar sujeitas a muitos erros, inconsistências e outros problemas técnicos. Isso exige julgamento humano para verificar de forma independente se o conteúdo gerado por IA é preciso, transparente e livre de plágio.”

Proteger as informações pessoais e/ou confidenciais de terceiros e não utilizá-las sem a devida autorização. Avaliar os resultados da IA ​​com base no engajamento humano e na compreensão da comunidade que pretende servir. Eliminar vieses na medida do possível e ser sensível aos valores e crenças culturais de outras pessoas.

Devem verificar e validar de forma independente os seus próprios resultados com o rigor profissional necessário para garantir que a documentação, as informações ou as referências de terceiros sejam precisas, tenham a devida atribuição e verificação e estejam devidamente licenciadas ou autorizadas para uso. Não devem tentar ocultar ou disfarçar o uso de IA nos seus resultados profissionais. Devem reconhecer a natureza de código aberto da IA ​​e as questões relacionadas à confidencialidade, incluindo a inserção de informações falsas, enganosas ou fraudulentas.

Para empresas e corporações que possuem, desenvolvem e comercializam ferramentas de IA, o conhecimento profundo sobre o funcionamento dessas ferramentas é fundamental, pois elas conhecem os algoritmos subjacentes e os dados utilizados para o treinamento. Portanto, essas empresas também precisam fornecer informações relacionadas aos princípios da ética no desenvolvimento de IA. De fato, existem empresas interessadas nesse tema.

O Google se compromete a não desenvolver ferramentas de IA para áreas onde haja risco significativo de danos. Só prosseguiremos com elas quando acreditarmos que os benefícios superam significativamente os riscos e incorporarmos as salvaguardas apropriadas. Armas ou outras tecnologias cujo propósito principal ou implantação seja causar ou facilitar diretamente lesões humanas. Tecnologias que coletam ou usam informações para vigilância que violem normas internacionalmente aceitas. Tecnologias cujo propósito viole princípios geralmente aceitos do direito internacional e dos direitos humanos.

Em relação à segurança, o Google se compromete: “Continuaremos a desenvolver e implementar medidas robustas de segurança para evitar resultados indesejados que criem riscos de danos. Projetaremos nossos sistemas de IA para serem adequadamente cautelosos e buscaremos desenvolvê-los de acordo com as melhores práticas em pesquisa de segurança de IA. Incorporaremos nossos princípios de privacidade ao desenvolvimento e uso de nossas tecnologias de IA. Ofereceremos oportunidades de notificação e consentimento, incentivaremos arquiteturas que protejam a privacidade e forneceremos transparência e controles adequados sobre o uso de dados.”

Assim como o Google, a Microsoft também emitiu uma declaração sobre os Princípios e a Abordagem de IA, enfatizando: "Estamos comprometidos em garantir que os sistemas de IA sejam desenvolvidos de forma responsável e que garantam a confiança das pessoas...". Além disso, de uma forma ou de outra, grandes empresas de tecnologia que investem fortemente no desenvolvimento de ferramentas de IA, como Amazon e OpenAI, também assumiram seus próprios compromissos.

Muitos exemplos na história comprovam a dualidade da tecnologia, com seus fatores positivos e negativos. Afinal, embora seja uma plataforma tecnológica de ponta, a IA ainda se baseia em algoritmos e dados desenvolvidos e coletados por humanos; ao mesmo tempo, a maioria dos produtos de IA faz parte dos planos de negócios das empresas que os detêm.

Portanto, sempre existem riscos potenciais tanto do ponto de vista técnico quanto da própria equipe de desenvolvimento e gestão do produto. O problema reside na escala do impacto que as ferramentas de IA podem ter sobre a maioria das pessoas, inclusive no nível socioeconômico de uma comunidade. A atenção oportuna ao controle ético no uso da tecnologia de IA é um sinal positivo, com a participação de grandes organizações internacionais, como as Nações Unidas, governos, associações industriais e, principalmente, das próprias unidades de desenvolvimento tecnológico.

No entanto, como a lista de ferramentas de IA lança continuamente novas versões, cada uma mais sofisticada e complexa que a anterior, os Códigos, Princípios ou Diretrizes também precisam ser atualizados e complementados em tempo hábil e, além disso, precisam ser proativos na prevenção, limitação e controle de desenvolvedores e usuários de produtos dentro de uma estrutura onde a capacidade de cumprir o Controle Ético na tecnologia de IA em geral e nos profissionais da mídia em particular possa alcançar a máxima eficiência.



Fonte

Comentário (0)

Deixe um comentário para compartilhar seus sentimentos!

No mesmo tópico

Na mesma categoria

O Artista do Povo Xuan Bac foi o "mestre de cerimônias" de 80 casais que se casaram juntos na rua de pedestres do Lago Hoan Kiem.
A Catedral de Notre Dame, na cidade de Ho Chi Minh, está brilhantemente iluminada para dar as boas-vindas ao Natal de 2025.
As jovens de Hanói se vestem lindamente para a época natalina.
Após a tempestade e a inundação, a vila de crisântemos de Tet, em Gia Lai, se recuperou e espera que não haja mais cortes de energia para salvar as plantas.

Do mesmo autor

Herança

Figura

Negócios

Cafeteria de Hanói causa sensação com sua decoração natalina ao estilo europeu.

Acontecimentos atuais

Sistema político

Local

Produto

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC