Vietnam.vn - Nền tảng quảng bá Việt Nam

Hackers usaram inteligência artificial para atacar o Gemini do Google.

Báo Thanh niênBáo Thanh niên30/03/2025


Segundo a BGR , um novo relatório de pesquisa acaba de revelar uma técnica alarmante chamada 'Fun-Tuning', que usa IA (inteligência artificial) para gerar automaticamente ataques de injeção de prompts altamente eficazes, visando outros modelos avançados de IA, incluindo o Gemini do Google.

Este método torna a "invasão" de IA mais rápida, barata e fácil do que nunca, marcando uma nova escalada na batalha da cibersegurança envolvendo IA.

O perigo de agentes maliciosos usarem IA para quebrar a própria IA.

A injeção de código malicioso é uma técnica na qual agentes maliciosos inserem furtivamente instruções prejudiciais nos dados de entrada de um modelo de IA (por exemplo, por meio de comentários no código-fonte ou texto oculto na web). O objetivo é "enganar" a IA, forçando-a a ignorar regras de segurança pré-programadas, o que pode levar a consequências graves, como vazamento de dados sensíveis, disseminação de informações falsas ou a execução de outras ações perigosas.

Hacker đang dùng chính AI để tấn công Gemini của Google - Ảnh 1.

Hackers estão usando IA para atacar outras IAs.

FOTO: CAPTURA DE TELA DO LINKEDIN

Anteriormente, a execução bem-sucedida desses ataques, especialmente em modelos "fechados" como Gemini ou GPT-4, muitas vezes exigia uma grande quantidade de testes manuais complexos e demorados.

Mas o Fun-Tuning mudou completamente o cenário. Desenvolvido por uma equipe de pesquisadores de diversas universidades, esse método explora de forma inteligente a refinada interface de programação de aplicativos (API) que o Google fornece gratuitamente aos usuários do Gemini.

Ao analisar as respostas sutis do modelo Gemini durante o processo de ajuste (por exemplo, como ele reage a erros nos dados), o Fun-Tuning pode identificar automaticamente os 'prefixos' e 'sufixos' mais eficazes para mascarar uma declaração maliciosa. Isso aumenta significativamente a probabilidade de a IA se adequar à intenção maliciosa do atacante.

Os resultados dos testes mostram que o Fun-Tuning alcançou uma taxa de sucesso de até 82% em algumas versões do Gemini, um número muito superior aos menos de 30% obtidos pelos métodos de ataque tradicionais.

O que agrava o perigo do Fun-Tuning é seu custo de execução extremamente baixo. Como a API de ajuste do Google é fornecida gratuitamente, o custo computacional para criar um ataque eficaz pode ser de apenas US$ 10. Além disso, pesquisadores descobriram que um ataque projetado para uma versão do Gemini pode ser facilmente aplicado com sucesso a outras versões, aumentando o risco de ataques generalizados.

O Google confirmou estar ciente da ameaça representada pela técnica Fun-Tuning, mas ainda não comentou se alterará o funcionamento da API de ajuste. A equipe de pesquisa também destacou a dificuldade de defesa contra essa vulnerabilidade: se as informações exploradas pelo Fun-Tuning forem removidas do processo de ajuste, a API se tornará menos útil para desenvolvedores legítimos. Por outro lado, se permanecer inalterada, continuará sendo uma porta de entrada para agentes maliciosos.

O surgimento do Fun-Tuning é um claro aviso, indicando que o confronto no ciberespaço entrou em uma nova fase, mais complexa. A IA agora não é apenas um alvo, mas também uma ferramenta e uma arma nas mãos de agentes maliciosos.



Fonte: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm

Comentário (0)

Deixe um comentário para compartilhar seus sentimentos!

No mesmo tópico

Na mesma categoria

Do mesmo autor

Herança

Figura

Empresas

Atualidades

Sistema político

Local

Produto

Happy Vietnam
A casa comunal (Nhà Rông): Um símbolo da exuberante floresta verde.

A casa comunal (Nhà Rông): Um símbolo da exuberante floresta verde.

Exposição

Exposição

A ANTIGA CAPITAL DA MATIZ - Uma canção de amor melancólica

A ANTIGA CAPITAL DA MATIZ - Uma canção de amor melancólica