Vietnam.vn - Nền tảng quảng bá Việt Nam

Hackers usaram inteligência artificial para atacar o Gemini do Google.

Báo Thanh niênBáo Thanh niên30/03/2025


Segundo a BGR , um novo relatório de pesquisa acaba de revelar uma técnica alarmante chamada 'Fun-Tuning', que usa IA (inteligência artificial) para gerar automaticamente ataques de injeção de prompts altamente eficazes, visando outros modelos avançados de IA, incluindo o Gemini do Google.

Este método torna a "invasão" de IA mais rápida, barata e fácil do que nunca, marcando uma nova escalada na batalha da cibersegurança envolvendo IA.

O perigo de agentes maliciosos usarem IA para quebrar a própria IA.

A injeção de código malicioso é uma técnica na qual agentes maliciosos inserem furtivamente instruções prejudiciais nos dados de entrada de um modelo de IA (por exemplo, por meio de comentários no código-fonte ou texto oculto na web). O objetivo é "enganar" a IA, forçando-a a ignorar regras de segurança pré-programadas, o que pode levar a consequências graves, como vazamento de dados sensíveis, disseminação de informações falsas ou a execução de outras ações perigosas.

Hacker đang dùng chính AI để tấn công Gemini của Google - Ảnh 1.

Hackers estão usando IA para atacar outras IAs.

FOTO: CAPTURA DE TELA DO LINKEDIN

Anteriormente, a execução bem-sucedida desses ataques, especialmente em modelos "fechados" como Gemini ou GPT-4, muitas vezes exigia uma grande quantidade de testes manuais complexos e demorados.

Mas o Fun-Tuning mudou completamente o cenário. Desenvolvido por uma equipe de pesquisadores de diversas universidades, esse método explora de forma inteligente a refinada interface de programação de aplicativos (API) que o Google fornece gratuitamente aos usuários do Gemini.

Ao analisar as respostas sutis do modelo Gemini durante o processo de ajuste (por exemplo, como ele reage a erros nos dados), o Fun-Tuning pode identificar automaticamente os 'prefixos' e 'sufixos' mais eficazes para mascarar uma declaração maliciosa. Isso aumenta significativamente a probabilidade de a IA se adequar à intenção maliciosa do atacante.

Os resultados dos testes mostram que o Fun-Tuning alcançou uma taxa de sucesso de até 82% em algumas versões do Gemini, um número muito superior aos menos de 30% obtidos pelos métodos de ataque tradicionais.

O que agrava o perigo do Fun-Tuning é seu custo de execução extremamente baixo. Como a API de ajuste do Google é fornecida gratuitamente, o custo computacional para criar um ataque eficaz pode ser de apenas US$ 10. Além disso, pesquisadores descobriram que um ataque projetado para uma versão do Gemini pode ser facilmente aplicado com sucesso a outras versões, aumentando o risco de ataques generalizados.

O Google confirmou estar ciente da ameaça representada pela técnica Fun-Tuning, mas ainda não comentou se alterará o funcionamento da API de ajuste. A equipe de pesquisa também destacou a dificuldade de defesa contra essa vulnerabilidade: se as informações exploradas pelo Fun-Tuning forem removidas do processo de ajuste, a API se tornará menos útil para desenvolvedores legítimos. Por outro lado, se permanecer inalterada, continuará sendo uma porta de entrada para agentes maliciosos.

O surgimento do Fun-Tuning é um claro aviso, indicando que o confronto no ciberespaço entrou em uma nova fase, mais complexa. A IA agora não é apenas um alvo, mas também uma ferramenta e uma arma nas mãos de agentes maliciosos.



Fonte: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm

Comentário (0)

Deixe um comentário para compartilhar seus sentimentos!

No mesmo tópico

Na mesma categoria

Do mesmo autor

Herança

Figura

Empresas

Atualidades

Sistema político

Local

Produto

Happy Vietnam
Festival Cultural de Ho Chi Minh

Festival Cultural de Ho Chi Minh

Esferas gêmeas sob o sol da manhã

Esferas gêmeas sob o sol da manhã

Grande e forte

Grande e forte