À medida que a IA se torna mais acessível, com cada vez mais indivíduos e empresas usando IA por meio de ferramentas comuns... os hackers também podem automatizar ataques, acelerar operações e implementar campanhas mais complexas para atingir seus objetivos ilegais.
Aqui estão os tipos de ataques que a Kaspersky observou: O ChatGPT pode ser usado para desenvolver malware e implantar ataques automaticamente em várias vítimas; Programas de IA infiltram dados de usuários em smartphones e, por meio do processo de análise de dados confidenciais, podem "ler" completamente mensagens, senhas e códigos bancários das vítimas; Algoritmos de inteligência de enxame ajudam redes de computadores automatizadas (bonets) a restaurar redes maliciosas que foram eliminadas por soluções de segurança.
A pesquisa da Kaspersky sobre o uso de IA para quebrar senhas mostra que a maioria das senhas é criptografada usando algoritmos de hash como MD5 e SHA. Assim, uma operação simples pode transformar uma senha em um fluxo de texto criptografado, mas reverter todo o processo é um grande desafio.
Por meio da IA, criminosos podem explorar conteúdo fraudulento, incluindo texto, imagens, áudio e vídeo , para lançar ataques de engenharia social. Modelos de linguagem abrangentes, como o ChatGPT-4o, são usados para criar scripts e mensagens de phishing altamente sofisticados. Superando as barreiras linguísticas, a IA pode escrever um e-mail genuíno, com base em informações de redes sociais. A IA pode até mesmo imitar o estilo de escrita da vítima. Isso torna o comportamento de phishing ainda mais difícil de detectar.
Ao mesmo tempo, o Deepfake existe como um "problema" na segurança cibernética, embora anteriormente fosse considerado um produto de pesquisa científica . A personificação de celebridades para ganho financeiro é o método mais comum. Além disso, golpistas também usam o Deepfake para roubar contas, fazer ligações falsas para amigos e parentes das vítimas e se apropriar de seus bens.
Além de explorar a tecnologia de IA para atividades ilegais, criminosos também podem atacar algoritmos de IA. Como ataques de "injeção rápida", inserindo comandos maliciosos em grandes modelos de linguagem, mesmo contrariando regras previamente restritas; ataques adversários, adicionando campos de informações ocultos a imagens ou áudio, para afetar a capacidade de classificação de imagens de sistemas de aprendizado de máquina.
A IA está cada vez mais integrada a todos os aspectos da vida humana, desde a Apple Intelligence, passando pelo Google Gemini até o Microsoft Copilot. Portanto, abordar as vulnerabilidades da IA deve ser uma prioridade máxima. A Kaspersky utiliza a tecnologia de IA para proteger clientes e parceiros há muitos anos, buscando continuamente vulnerabilidades em sistemas de IA, aumentando a resiliência do sistema e pesquisando ativamente técnicas de ciberataque para fornecer proteção confiável contra ataques de IA.
KIM THANH
Fonte: https://www.sggp.org.vn/nhieu-thach-thuc-cua-ai-trong-thoi-dai-moi-post754401.html
Comentário (0)