A aplicação da Inteligência Artificial (IA) no trabalho tornou-se uma tendência inevitável, ajudando a melhorar a eficiência e a economizar tempo.
No entanto, por trás dessa conveniência, existem riscos potenciais em segurança de dados, especialmente o fenômeno da "IA paralela" - quando os funcionários usam ferramentas de IA de forma descuidada e sem controle, colocando acidentalmente dados confidenciais da empresa em plataformas públicas.
Dependência e preocupações iniciais
Thanh Huyen (21 anos), funcionária de Marketing de Conteúdo em uma empresa de cosméticos e alimentos funcionais, compartilhou que depende de até 90% de IA em seu trabalho, desde o planejamento e criação de conteúdo até o design de imagens e vídeos .
No entanto, depois de se deparar acidentalmente com um artigo semelhante à ideia que apresentou ao ChatGPT, Huyen começou a se preocupar com a capacidade da IA de memorizar e compartilhar informações de entrada.

A aplicação da IA no trabalho tornou-se praticamente uma prática padrão em muitos setores atualmente (Foto: Bao Ngoc).
Embora a história de Huyen possa ser uma coincidência, o fato inegável é que fornecer informações à IA significa permitir que essas ferramentas coletem e armazenem dados para treinar o modelo.
O problema se agrava se a plataforma de IA for invadida ou estiver mal protegida, o que pode levar a vazamentos de informações e consequências negativas.
"IA Sombra" - Uma ameaça potencial
HM (20 anos), especialista em atendimento ao cliente, fornece regularmente à IA uma lista de informações do cliente (nome completo, data de nascimento, número de telefone, histórico de compras) para análise, economizando tempo e melhorando o desempenho.
M. acredita que isso não representa um risco potencial, pois a empresa é pequena e os dados não serão divulgados. No entanto, o caso de M. é típico de "IA paralela" — o uso de IA por funcionários sem a aprovação ou supervisão do departamento de tecnologia da informação ou de segurança cibernética.

O fenômeno da “IA Sombra” refere-se ao uso da IA por funcionários em empresas sem qualquer controle ou gestão (Ilustração: CV).
Um relatório da Cisco revelou que 62% das organizações no Vietnã não têm confiança em sua capacidade de detectar o uso não regulamentado de IA por seus funcionários. Uma pesquisa no Reino Unido também constatou que 75% dos gerentes de cibersegurança estão preocupados com ameaças internas, como a IA oculta (Shadow AI).
Isso demonstra que a IA paralela está se tornando uma ameaça comum, especialmente quando muitas empresas não possuem políticas claras sobre o uso de IA e os funcionários desconhecem a segurança de dados.
Aceite concessões para não ficar para trás.
Apesar de estar ciente dos riscos, Thanh Huyen ainda aceita "apostar" na IA. Ela acredita que os benefícios imediatos que a IA traz são muito grandes, ajudando-a a produzir dezenas de artigos e ideias todos os dias.
A conveniência, a rapidez e a capacidade de aumentar o desempenho fizeram com que Huyen estivesse disposta a fornecer informações sensíveis e confidenciais à IA, inclusive informações pessoais de seus superiores.

Apesar dos riscos potenciais do uso de IA sem controle, muitos funcionários ainda aceitam a contrapartida em troca de benefícios imediatos (Ilustração: CV).
Da mesma forma, Trung Hieu (20 anos), funcionário de Marketing de Conteúdo, também fornece regularmente documentos internos e informações comerciais ao chatbot de IA.
Hieu notou um aumento significativo na produtividade, criando uma vantagem competitiva, e acreditava que isso não afetava muito as operações da empresa.
Esses casos demonstram que a IA paralela está se disseminando devido à falta de políticas claras por parte da empresa e à conscientização insuficiente dos funcionários sobre os riscos de segurança, qualidade e dependência.
Uma série de riscos ao confiar demais na IA
O Sr. Nguyen Viet Hung, CEO de uma empresa de desenvolvimento de software de aplicação de IA, explica a popularidade da IA paralela devido a três fatores: a IA ajuda a trabalhar mais rápido e com mais eficiência; o hábito de depender da IA se forma rapidamente; e as empresas carecem de alertas e treinamento sobre os riscos.

Sr. Nguyen Viet Hung, CEO de uma empresa de desenvolvimento de software de aplicação de IA (Foto: Cong Khanh).
Especialistas alertam que a IA paralela pode levar a vazamentos de dados (de clientes e internos) quando utilizada em ferramentas de IA gratuitas.
Além disso, a qualidade do conteúdo gerado por IA não é verificada e pode facilmente levar a vieses, afetando as decisões de negócios.
Mais grave ainda, o uso descontrolado de IA pode criar vulnerabilidades de segurança, dificultando o monitoramento e a resposta rápida dos sistemas de TI, bem como a determinação de responsabilidades quando incidentes ocorrem.
Áreas escuras são difíceis de controlar.
Monitorar e gerenciar funcionários usando IA é um processo longo que exige coordenação. Especialistas afirmam que o acesso dos funcionários a dados internos representa um grande obstáculo para evitar que eles compartilhem dados privados por meio de ferramentas pessoais de IA.
Além disso, as ferramentas de IA agora são facilmente acessíveis, o que dificulta sua detecção ou gerenciamento por parte da TI.

O fácil acesso às ferramentas de IA é uma das barreiras que dificulta o controle das informações que os funcionários inserem nas plataformas de IA (Ilustração: CV).
Para lidar com isso, o especialista Nguyen Viet Hung sugeriu que as empresas precisam aumentar o treinamento dos funcionários sobre a conscientização dos riscos ao usar IA e obter uma compreensão mais profunda da "IA paralela".
Ao mesmo tempo, é fundamental emitir prontamente regulamentos legais e políticas internas. Outra solução importante é fortalecer as capacidades de segurança da empresa, incluindo monitoramento comportamental, controle de acesso a dados e autorização criteriosa para cada funcionário.
Atualmente, muitas empresas ainda não possuem um processo claro para o uso de IA, limitando-se a incentivar seu uso para aumentar a produtividade. Para lidar com a IA paralela (Shadow AI), muitas grandes empresas começaram a implantar plataformas internas de IA ou a exigir que os funcionários utilizem ferramentas aprovadas, com políticas claras de segurança da informação.
Fonte: https://dantri.com.vn/cong-nghe/sep-buong-long-nhan-vien-than-nhien-cap-du-lieu-mat-cho-ai-20250806090132034.htm










Comentário (0)