![]() |
GPT-5.4-Cyber-modellen hjälper experter att testa sårbarheter i säkerhetssystem. Foto: Bloomberg . |
OpenAI har precis meddelat att GPT-5.4-Cyber, en specialversion av GPT-5.4 optimerad för säkerhet, har lanserats. Detta kommer exakt en vecka efter att Anthropic släppte Mythos Preview, en säkerhetsmodell för AI vars lansering begränsades på grund av dess upplevda sårbarhet i fel händer.
"Vi optimerar våra modeller för att fungera i säkerhetsrelaterade fall, med början idag med en variant av GPT-5.4 tränad med fokus på cybersäkerhet", sa OpenAI i ett officiellt tillkännagivande.
GPT-5.4-Cyber-åtkomst beviljades medlemmar i Trusted Access for Cyber-programmet, som lanserades i februari med ett API-kreditbidrag på 10 miljoner dollar . Inledningsvis fick hundratals användare åtkomst, vilket senare utökades till tusentals säkerhetsexperter.
Modellens utmärkande funktion är dess binära reverse engineering, vilket möjliggör analys av kompilerad programvara för att hitta skadlig kod och sårbarheter utan att behöva den ursprungliga källkoden. OpenAI uppger att Codex Security, deras tidigare lanserade säkerhetsprodukt, har bidragit till att åtgärda över 3 000 kritiska säkerhetssårbarheter sedan utökningen av sin distribution.
OpenAIs strategi skiljer sig avsevärt från Anthropics. Medan konkurrenten endast ger tillgång till Mythos till cirka 40 noggrant utvalda organisationer, väljer OpenAI en gradvis expansionsmetod baserad på identitetsverifiering och tillsyn.
"Det här är en lagsport , och vi måste se till att varje lag har befogenhet att skydda sina system. Ingen ska vara i en position att avgöra vem som vinner eller förlorar inom cybersäkerhet", säger Fouad Matin, säkerhetsforskare på OpenAI.
Tekniskt sett anser OpenAI att nuvarande skyddsåtgärder är tillräckliga för att minska riskerna med en utbredd spridning av konventionella modeller. Modellen har dock förfinats för att ge en högre nivå av systemsäkerhet.
Kapplöpningen mellan de två företagen återspeglar en större debatt inom säkerhetsbranschen om hur man ska hantera AI som kan attackera system. Den ena sidan menar att strikta restriktioner, som de som Anthropic införde mot Mythos, skulle ge försvarare en fördel gentemot angripare. Den andra sidan, särskilt förespråkare för öppen källkodsprogramvara, menar att världen skulle vara säkrare om alla försvarare hade tillgång till tekniken, snarare än bara en utvald grupp utvald av stora företag.
Källa: https://znews.vn/openai-dap-tra-anthropic-post1643820.html







Kommentar (0)