![]() |
Le modèle GPT-5.4-Cyber aide les experts à tester les vulnérabilités des systèmes de sécurité. Photo : Bloomberg . |
OpenAI vient d'annoncer le lancement de GPT-5.4-Cyber, une version spéciale de GPT-5.4 optimisée pour la sécurité. Cette annonce intervient une semaine seulement après la publication par Anthropic de Mythos Preview, un modèle d'IA de sécurité dont la diffusion avait été restreinte en raison de sa vulnérabilité perçue entre de mauvaises mains.
« Nous optimisons nos modèles pour répondre aux besoins de sécurité, en commençant dès aujourd'hui par une variante de GPT-5.4 entraînée spécifiquement pour la cybersécurité », a déclaré OpenAI dans un communiqué officiel.
L'accès GPT-5.4-Cyber a été accordé aux membres du programme Trusted Access for Cyber, lancé en février avec une subvention de 10 millions de dollars pour les API. Dans un premier temps, des centaines d'utilisateurs y ont eu accès, puis l'accès s'est étendu à des milliers de professionnels de la sécurité.
La principale caractéristique de ce modèle est sa capacité de rétro-ingénierie binaire, qui permet d'analyser les logiciels compilés afin de détecter les logiciels malveillants et les vulnérabilités sans avoir besoin du code source original. OpenAI indique que Codex Security, son produit de sécurité lancé précédemment, a contribué à corriger plus de 3 000 failles de sécurité critiques depuis son déploiement étendu.
La stratégie d'OpenAI diffère sensiblement de celle d'Anthropic. Alors que son concurrent n'accorde l'accès à Mythos qu'à une quarantaine d'organisations soigneusement sélectionnées, OpenAI privilégie une approche d'expansion progressive fondée sur la vérification d'identité et le contrôle.
« Il s’agit d’un sport d’équipe, et nous devons veiller à ce que chaque équipe ait les moyens de protéger ses systèmes. Personne ne devrait être en mesure de décider qui gagne ou qui perd en matière de cybersécurité », a déclaré Fouad Matin, chercheur en sécurité chez OpenAI.
Techniquement, OpenAI estime que les mesures de protection actuelles suffisent à atténuer les risques liés au déploiement à grande échelle des modèles conventionnels. Toutefois, le modèle a été perfectionné afin d'offrir un niveau de sécurité système plus élevé.
La course entre les deux entreprises reflète un débat plus large au sein du secteur de la sécurité concernant la gestion des IA capables d'attaquer les systèmes. D'un côté, on estime que des restrictions strictes, comme celles imposées par Anthropic à Mythos, conféreraient un avantage aux défenseurs sur les attaquants. De l'autre côté, notamment les partisans des logiciels libres, affirment que le monde serait plus sûr si tous les acteurs de la sécurité avaient accès à cette technologie, et non pas seulement un groupe restreint choisi par les grandes entreprises.
Source : https://znews.vn/openai-dap-tra-anthropic-post1643820.html







Comment (0)