O relatório da OpenAI, divulgado em outubro, constatou que os agentes cibernéticos em todo o mundo estão integrando principalmente a inteligência artificial (IA) em fluxos de ataque já existentes para melhorar o desempenho, em vez de desenvolver ferramentas ou métodos de ataque totalmente novos.
Segundo a OpenAI, grande parte da atividade detectada envolvia o uso de IA para auxiliar em tarefas comuns, como desenvolvimento de malware, construção de infraestrutura de controle, criação de e-mails de phishing mais sofisticados e coleta de informações sobre alvos.
“As equipes que apresentaram problemas estavam, em sua maioria, incorporando IA em processos já existentes, em vez de criar novos processos baseados em IA”, afirma o relatório.
O relatório também constatou que muitos grupos de usuários têm aproveitado os grandes modelos de linguagem (LLMs, na sigla em inglês) para extrair conhecimento em uma variedade de domínios técnicos, desde o desenvolvimento de aplicativos até a configuração de sistemas de rede, frequentemente de uma forma que especializa cada conta para uma tarefa específica.
Diversas outras redes de usuários foram identificadas utilizando plataformas de IA para gerar conteúdo online, incluindo artigos, imagens e vídeos , com o objetivo de veicular campanhas de mídia ou promover determinados pontos de vista. No entanto, a maioria dessas contas é ineficaz, apresentando níveis de engajamento muito baixos.
Além disso, a OpenAI também registrou o fenômeno de centros de fraude e cibercriminosos usando o ChatGPT para apoiar atividades fraudulentas online em Mianmar e Camboja. Alguns casos mostram que a IA é usada não apenas para editar conteúdo, mas também para gerenciar escalas de trabalho, recursos humanos e finanças.
No entanto, a OpenAI observa que a IA também está sendo usada ativamente para prevenir fraudes. Estima-se que o ChatGPT seja usado três vezes mais frequentemente para identificar e evitar golpes do que para cometer fraudes.
A maioria das solicitações maliciosas é rejeitada pelo sistema, mas o relatório observa que ainda existe uma "área cinzenta" onde solicitações técnicas ou baseadas em pesquisa podem ser exploradas para fins não intencionais.
No entanto, a OpenAI afirma que o código ou conteúdo criado não é malicioso até que seja usado indevidamente fora da plataforma.
(TTXVN/Vietnã+)
Fonte: https://www.vietnamplus.vn/openai-canh-bao-tin-tac-loi-dung-ai-de-hoat-dong-tinh-vi-hon-post1068941.vnp






Comentário (0)