A inteligência artificial (IA), como o ChatGPT, tem sido uma sensação global desde o início de 2023, mas nem sempre é usada para fins positivos. Recentemente, um especialista em segurança descobriu uma maneira de instruir o ChatGPT a criar código malicioso durante testes.
Aaron Mulgrew, especialista em segurança da Forcepoint, compartilhou o risco de escrever malware usando o chatbot de linguagem da OpenAI. Embora o ChatGPT tenha sido projetado para impedir que os usuários peçam à IA para criar malware, Aaron ainda encontrou uma brecha ao criar prompts para que a IA escrevesse código de programação linha por linha. Ao combinar essas informações, Aaron percebeu que tinha em mãos uma ferramenta de execução de roubo de dados indetectável, tão sofisticada que se comparava aos malwares mais sofisticados da atualidade.
Cada linha de comando individual gerada pelo ChatGPT, quando combinada, pode se tornar um malware sofisticado.
A descoberta de Mulgrew serve de alerta sobre o potencial da IA para ser usada na criação de malware perigoso sem a necessidade de um grupo de hackers, ou mesmo que o criador da ferramenta escreva uma única linha de código.
O software de Mulgrew se disfarça de aplicativo de proteção de tela, mas é capaz de se ativar automaticamente em dispositivos com Windows. Uma vez no sistema operacional, o malware "infiltra" todos os arquivos, incluindo editores de texto do Word, arquivos de imagem e PDFs, em busca de dados para roubar.
Assim que obtém o que precisa, o programa processa as informações e as anexa a arquivos de imagem no computador. Para evitar a detecção, as imagens são enviadas para uma pasta no Google Drive. O malware é tão poderoso porque Mulgrew consegue ajustar e aprimorar seus recursos para evitar a detecção por meio de comandos simples inseridos no ChatGPT.
Embora este tenha sido um teste privado realizado por especialistas em segurança e nenhum ataque tenha sido executado fora do escopo do teste, a comunidade de cibersegurança ainda reconhece o perigo das atividades que utilizam o ChatGPT. Mulgrew afirma não ter muita experiência em programação, mas a inteligência artificial da OpenAI ainda não é forte e inteligente o suficiente para impedir seu teste.
Link da fonte










Comentário (0)