![]() |
Het GPT-5.4-Cyber-model helpt experts bij het testen op kwetsbaarheden in beveiligingssystemen. Foto: Bloomberg . |
OpenAI heeft zojuist de start van de uitrol van GPT-5.4-Cyber aangekondigd, een speciale versie van GPT-5.4 die is geoptimaliseerd voor beveiliging. Deze stap volgt precies een week nadat Anthropic Mythos Preview uitbracht, een AI-model voor beveiliging waarvan de release werd beperkt vanwege de vermeende kwetsbaarheid ervan in de verkeerde handen.
"We optimaliseren onze modellen voor gebruik in de beveiligingssector, te beginnen vandaag met een variant van GPT-5.4 die is getraind met een focus op cyberbeveiliging," aldus OpenAI in een officiële aankondiging.
GPT-5.4-Cyber-toegang werd verleend aan leden van het Trusted Access for Cyber-programma, dat in februari van start ging met een API-krediet van 10 miljoen dollar . Aanvankelijk kregen honderden gebruikers toegang, wat later werd uitgebreid naar duizenden beveiligingsprofessionals.
Het meest opvallende kenmerk van het model is de binaire reverse engineering, waarmee gecompileerde software kan worden geanalyseerd om malware en kwetsbaarheden te vinden zonder de originele broncode nodig te hebben. OpenAI stelt dat Codex Security, hun eerder gelanceerde beveiligingsproduct, sinds de uitbreiding van de implementatie heeft bijgedragen aan het dichten van meer dan 3.000 kritieke beveiligingslekken.
De strategie van OpenAI verschilt aanzienlijk van die van Anthropic. Waar de concurrent slechts toegang tot Mythos verleent aan zo'n 40 zorgvuldig geselecteerde organisaties, kiest OpenAI voor een geleidelijke uitbreiding op basis van identiteitsverificatie en toezicht.
"Dit is een teamsport , en we moeten ervoor zorgen dat elk team de middelen heeft om zijn systemen te beschermen. Niemand zou in een positie moeten zijn om te bepalen wie er wint of verliest op het gebied van cyberbeveiliging," aldus Fouad Matin, beveiligingsonderzoeker bij OpenAI.
Technisch gezien is OpenAI van mening dat de huidige beveiligingsmaatregelen voldoende zijn om de risico's van grootschalige implementatie van conventionele modellen te beperken. Het model is echter verfijnd om een hoger niveau van systeembeveiliging te bieden.
De concurrentiestrijd tussen de twee bedrijven weerspiegelt een breder debat in de beveiligingsindustrie over hoe om te gaan met AI die systemen kan aanvallen. De ene kant betoogt dat strenge beperkingen, zoals die Anthropic aan Mythos heeft opgelegd, verdedigers een voordeel zouden geven ten opzichte van aanvallers. De andere kant, met name voorstanders van open-source software, stelt dat de wereld veiliger zou zijn als alle verdedigers toegang hadden tot de technologie, in plaats van slechts een selecte groep die door grote bedrijven is uitgekozen.
Bron: https://znews.vn/openai-dap-tra-anthropic-post1643820.html







Reactie (0)