Inteligência artificial (IA) como o ChatGPT tem sido uma sensação global desde o início de 2023, mas essa IA nem sempre é usada para fins positivos. Recentemente, um especialista em segurança descobriu uma maneira de solicitar que o ChatGPT crie código malicioso durante os testes.
Aaron Mulgrew, especialista em segurança da Forcepoint, compartilhou os riscos de escrever malware usando um chatbot desenvolvido pela OpenAI. Embora o ChatGPT tenha sido projetado para impedir que os usuários solicitassem à IA para criar malware, Aaron ainda encontrou uma vulnerabilidade ao criar linhas de comando (prompts) para que a inteligência artificial escrevesse código de programação em cada linha separada. Combinando esses dois métodos, Aaron percebeu que tinha em mãos uma ferramenta de execução de roubo de dados indetectável, tão sofisticada que é comparável aos principais malwares atuais.
Cada linha de comando individual gerada pelo ChatGPT, quando combinada, pode se tornar um malware sofisticado.
A descoberta de Mulgrew é um alerta sobre o potencial da IA ser usada para criar malware perigoso sem a necessidade de um grupo de hackers ou mesmo do criador da ferramenta escrever uma única linha de código.
O software de Mulgrew se disfarça como um aplicativo de proteção de tela, mas é capaz de ser ativado automaticamente em dispositivos Windows. Uma vez no sistema operacional, o malware "se infiltra" em todos os arquivos, incluindo editores de documentos do Word, arquivos de imagem e PDFs, em busca de dados para roubar.
Assim que obtém o que precisa, o programa decompõe as informações e as anexa a arquivos de imagem na máquina. Para evitar a detecção, as imagens são carregadas para uma pasta no armazenamento em nuvem do Google Drive. O malware é tão poderoso porque o Mulgrew pode ajustar e aprimorar seus recursos para evitar a detecção por meio de comandos simples inseridos no ChatGPT.
Embora este tenha sido um teste privado realizado por especialistas em segurança e nenhum ataque tenha sido realizado fora da área de teste, a comunidade de segurança cibernética ainda reconhece os perigos das atividades que utilizam o ChatGPT. Mulgrew afirma não ter muita experiência em programação, mas a inteligência artificial da OpenAI ainda não é poderosa e inteligente o suficiente para impedir seu teste.
Link da fonte
Comentário (0)