Vietnam.vn - Nền tảng quảng bá Việt Nam

Especialista em segurança 'engana' o ChatGPT para escrever código malicioso

Báo Thanh niênBáo Thanh niên15/04/2023

[anúncio_1]

Inteligência artificial (IA) como o ChatGPT tem sido uma sensação global desde o início de 2023, mas essa IA nem sempre é usada para fins positivos. Recentemente, um especialista em segurança descobriu uma maneira de solicitar que o ChatGPT crie código malicioso durante os testes.

Aaron Mulgrew, especialista em segurança da Forcepoint, compartilhou os riscos de escrever malware usando o chatbot de linguagem da OpenAI. Embora o ChatGPT tenha sido projetado para impedir que os usuários pedissem à IA para criar malware, Aaron ainda encontrou uma brecha ao criar prompts para que a IA escrevesse o código de programação linha por linha. Combinando esses dois recursos, Aaron percebeu que tinha em mãos uma ferramenta de execução de roubo de dados indetectável, tão sofisticada que era comparável aos malwares mais sofisticados da atualidade.

Từng dòng lệnh riêng lẻ do ChatGPT tạo ra khi kết hợp lại có thể trở thành mã độc tinh vi

Cada linha de comando individual gerada pelo ChatGPT, quando combinada, pode se tornar um malware sofisticado.

A descoberta de Mulgrew é um alerta sobre o potencial da IA ​​para ser usada para criar malware perigoso sem a necessidade de um grupo de hackers, ou mesmo do criador da ferramenta escrever uma única linha de código.

O software de Mulgrew se disfarça como um aplicativo de proteção de tela, mas é capaz de ser ativado automaticamente em dispositivos Windows. Uma vez no sistema operacional, o malware "se infiltra" em todos os arquivos, incluindo editores de texto do Word, arquivos de imagem e PDFs, em busca de dados para roubar.

Uma vez obtido o que precisa, o programa decompõe as informações e as anexa a arquivos de imagem na máquina. Para evitar a detecção, as imagens são carregadas em uma pasta no Google Drive. O malware é tão poderoso porque o Mulgrew pode ajustar e aprimorar seus recursos para evitar a detecção por meio de comandos simples inseridos no ChatGPT.

Embora este tenha sido um teste privado realizado por especialistas em segurança e nenhum ataque tenha sido realizado fora do escopo do teste, a comunidade de segurança cibernética ainda reconhece o perigo de atividades que utilizam o ChatGPT. Mulgrew afirma não ter muita experiência em programação, mas a inteligência artificial da OpenAI ainda não é forte e inteligente o suficiente para impedir seu teste.


[anúncio_2]
Link da fonte

Comentário (0)

No data
No data

No mesmo tópico

Na mesma categoria

Jovens vão ao Noroeste para fazer check-in durante a mais bela temporada de arroz do ano
Na época de "caça" ao junco em Binh Lieu
No meio da floresta de mangue de Can Gio
Pescadores de Quang Ngai embolsam milhões de dongs todos os dias após ganharem na loteria com camarão

Do mesmo autor

Herança

Figura

Negócios

Com lang Vong - o sabor do outono em Hanói

Eventos atuais

Sistema político

Local

Produto