![]() |
El modelo GPT-5.4-Cyber ayuda a los expertos a detectar vulnerabilidades en los sistemas de seguridad. Foto: Bloomberg . |
OpenAI acaba de anunciar el inicio del despliegue de GPT-5.4-Cyber, una versión especial de GPT-5.4 optimizada para la seguridad. Esta iniciativa se produce exactamente una semana después de que Anthropic publicara Mythos Preview, un modelo de IA de seguridad cuyo lanzamiento se vio restringido debido a su supuesta vulnerabilidad en manos equivocadas.
"Estamos optimizando nuestros modelos para que sirvan al caso de uso de seguridad, comenzando hoy con una variante de GPT-5.4 entrenada con un enfoque en ciberseguridad", dijo OpenAI en un anuncio oficial.
El acceso a GPT-5.4-Cyber se otorgó a los miembros del programa Trusted Access for Cyber, que se lanzó en febrero con una subvención de 10 millones de dólares en créditos para API. Inicialmente, cientos de usuarios obtuvieron acceso, que posteriormente se amplió a miles de profesionales de la seguridad.
La característica más destacada del modelo es su ingeniería inversa binaria, que permite analizar el software compilado para detectar malware y vulnerabilidades sin necesidad del código fuente original. OpenAI afirma que Codex Security, su producto de seguridad lanzado anteriormente, ha contribuido a corregir más de 3000 vulnerabilidades de seguridad críticas desde que amplió su implementación.
La estrategia de OpenAI difiere significativamente de la de Anthropic. Mientras que su competidor solo otorga acceso a Mythos a unas 40 organizaciones cuidadosamente seleccionadas, OpenAI opta por un enfoque de expansión gradual basado en la verificación de identidad y la supervisión.
"Este es un deporte de equipo, y debemos asegurarnos de que cada equipo tenga la capacidad de proteger sus sistemas. Nadie debería estar en posición de decidir quién gana o pierde en ciberseguridad", dijo Fouad Matin, investigador de seguridad en OpenAI.
Técnicamente, OpenAI considera que las medidas de seguridad actuales son suficientes para mitigar los riesgos de la implementación generalizada de modelos convencionales. Sin embargo, el modelo se ha perfeccionado para proporcionar un mayor nivel de seguridad del sistema.
La competencia entre ambas compañías refleja un debate más amplio en el sector de la seguridad sobre cómo gestionar la IA capaz de atacar sistemas. Un sector argumenta que las estrictas restricciones, como las que Anthropic impuso a Mythos, darían ventaja a los defensores sobre los atacantes. El otro sector, en particular los defensores del software de código abierto, sostiene que el mundo sería más seguro si todos los defensores tuvieran acceso a la tecnología, en lugar de solo un grupo selecto elegido por grandes corporaciones.
Fuente: https://znews.vn/openai-dap-tra-anthropic-post1643820.html







Kommentar (0)