![]() |
O modelo GPT-5.4-Cyber ajuda especialistas a testar vulnerabilidades em sistemas de segurança. Foto: Bloomberg . |
A OpenAI acaba de anunciar o início da implementação do GPT-5.4-Cyber, uma versão especial do GPT-5.4 otimizada para segurança. Essa iniciativa ocorre exatamente uma semana após o lançamento do Mythos Preview pela Anthropic, um modelo de IA para segurança cujo lançamento foi restrito devido à sua vulnerabilidade percebida em mãos erradas.
"Estamos otimizando nossos modelos para atender ao caso de uso de segurança, começando hoje com uma variante do GPT-5.4 treinada com foco em cibersegurança", disse a OpenAI em um comunicado oficial.
O acesso ao GPT-5.4-Cyber foi concedido aos membros do programa Trusted Access for Cyber, lançado em fevereiro com uma doação de US$ 10 milhões em créditos de API. Inicialmente, centenas de usuários obtiveram acesso, que posteriormente se expandiu para milhares de profissionais de segurança.
O principal diferencial do modelo é sua engenharia reversa binária, que permite a análise de softwares compilados para encontrar malwares e vulnerabilidades sem a necessidade do código-fonte original. A OpenAI afirma que o Codex Security, seu produto de segurança lançado anteriormente, contribuiu para a correção de mais de 3.000 vulnerabilidades de segurança críticas desde a expansão de sua implementação.
A estratégia da OpenAI difere significativamente da da Anthropic. Enquanto sua concorrente concede acesso ao Mythos apenas a cerca de 40 organizações cuidadosamente selecionadas, a OpenAI opta por uma abordagem de expansão gradual baseada na verificação de identidade e supervisão.
"Este é um esporte coletivo e precisamos garantir que todas as equipes estejam capacitadas para proteger seus sistemas. Ninguém deveria ter o poder de escolher quem ganha ou perde em cibersegurança", disse Fouad Matin, pesquisador de segurança da OpenAI.
Tecnicamente, a OpenAI acredita que as salvaguardas atuais são suficientes para mitigar os riscos da implantação generalizada de modelos convencionais. No entanto, o modelo foi aprimorado para fornecer um nível mais elevado de segurança do sistema.
A disputa entre as duas empresas reflete um debate mais amplo na indústria de segurança sobre como lidar com inteligência artificial capaz de atacar sistemas. Um lado argumenta que restrições rígidas, como as impostas pela Anthropic ao Mythos, dariam aos defensores uma vantagem sobre os atacantes. O outro lado, particularmente os defensores do software de código aberto, argumenta que o mundo seria mais seguro se todos os defensores tivessem acesso à tecnologia, em vez de apenas um grupo seleto escolhido por grandes corporações.
Fonte: https://znews.vn/openai-dap-tra-anthropic-post1643820.html







Comentário (0)