Vietnam.vn - Nền tảng quảng bá Việt Nam

Especialista em segurança 'engana' o ChatGPT para que ele escreva malware.

Báo Thanh niênBáo Thanh niên15/04/2023


A inteligência artificial (IA), como o ChatGPT, tem sido uma sensação global desde o início de 2023, mas nem sempre é usada para fins positivos. Recentemente, um especialista em segurança descobriu uma maneira de instruir o ChatGPT a gerar código malicioso durante os testes.

Aaron Mulgrew, especialista em segurança da Forcepoint, compartilhou os riscos de escrever código malicioso usando o chatbot bilíngue da OpenAI. Embora o ChatGPT seja projetado para impedir que os usuários solicitem à IA a criação de malware, Aaron descobriu uma vulnerabilidade ao criar comandos (prompts) para que a inteligência artificial escrevesse o código linha por linha. Ao combinar esses elementos, Aaron percebeu que tinha em mãos uma ferramenta de execução de roubo de dados indetectável, tão sofisticada que rivaliza até mesmo com os malwares mais avançados disponíveis atualmente.

Từng dòng lệnh riêng lẻ do ChatGPT tạo ra khi kết hợp lại có thể trở thành mã độc tinh vi

Cada linha de código gerada pelo ChatGPT, quando combinada, pode se tornar um malware sofisticado.

A descoberta de Mulgrew serve como um alerta sobre o potencial de exploração da IA ​​para criar malware perigoso sem a necessidade de grupos de hackers e sem que os criadores sequer escrevam uma única linha de código.

O malware de Mulgrew se disfarça de aplicativo de desktop, mas pode ser ativado automaticamente em dispositivos Windows. Uma vez dentro do sistema operacional, o malware "infiltra" todos os arquivos, incluindo documentos do Word, arquivos de imagem e PDFs, em busca de dados para roubar.

Após obter as informações necessárias, o programa as decompõe e as incorpora em arquivos de imagem no computador. Para evitar a detecção, essas imagens são enviadas para uma pasta no armazenamento em nuvem do Google Drive. O malware torna-se incrivelmente poderoso porque Mulgrew consegue ajustar e aprimorar seus recursos para evitar a detecção por meio de comandos simples inseridos no ChatGPT.

Embora este tenha sido o resultado de um teste privado realizado por um especialista em segurança e nenhum ataque tenha sido executado fora da área de teste, especialistas em cibersegurança reconheceram o perigo das atividades que utilizam o ChatGPT. Mulgrew afirmou que ele próprio não tinha muita experiência em programação, mas que a inteligência artificial da OpenAI ainda não era suficientemente poderosa ou inteligente para impedir seu teste.



Link da fonte

Comentário (0)

Deixe um comentário para compartilhar seus sentimentos!

No mesmo tópico

Na mesma categoria

Do mesmo autor

Herança

Figura

Empresas

Atualidades

Sistema político

Local

Produto

Happy Vietnam
"O artesão sob o céu azul"

"O artesão sob o céu azul"

Integração provincial e municipal

Integração provincial e municipal

Farol de Mui Dien

Farol de Mui Dien