OpenAI presentó ChatGPT-5.4-Cyber, una versión especializada de su modelo más avanzado orientada exclusivamente a la defensa digital, capaz de detectar vulnerabilidades en software de forma autónoma, hacer ingeniería inversa de binarios y analizar amenazas antes de que puedan ser explotadas, en lo que representa la apuesta más ambiciosa de la compañía por convertirse en el gran escudo de la infraestructura digital global y una respuesta directa al Mythos de Anthropic, lanzado apenas una semana antes.
- Te puedo interesar: ChatGPT, el nuevo capricho que obsesiona a Elon Musk
Cómo funciona el nuevo modelo de OpenAI
El sistema fue diseñado para detectar de forma autónoma fallos, vulnerabilidades y errores en software antes de que puedan ser aprovechados por actores maliciosos. En lugar de actuar como un asistente reactivo, busca adelantarse a las amenazas, analizando estructuras de código y comportamientos potencialmente riesgosos. La novedad técnica más llamativa es la ingeniería inversa binaria: esta función permite examinar programas compilados sin necesidad de acceder al código fuente original, facilitando la detección de malware y vulnerabilidades críticas.
El salto de rendimiento es notable. Mientras que versiones estándar de la serie GPT-5 registraban tasas de éxito del 27% en competiciones “Capture The Flag” a mediados del año pasado, iteraciones posteriores orientadas a código elevaron esa eficacia al 76%. GPT-5.4-Cyber sería la culminación de esa curva.

OpenAI no lanzó el modelo al público general. En lugar de lanzar estas capacidades de forma abierta, la empresa optó por un acceso escalonado basado en identidad, autenticación adicional y despliegue progresivo entre proveedores de seguridad, organizaciones y equipos de investigación verificados. El programa se llama “Trusted Access for Cyber” (TAC), introducido formalmente en febrero de 2026 como un marco de acceso basado en confianza e identidad. Viene acompañado de una subvención de 10 millones de dólares en créditos.
- Te puede interesar: Sora, la inteligencia artificial de OpenAI enfrenta un problema logístico crítico
Para acceder, el precio es alto en términos de privacidad: los usuarios individuales deben proporcionar DNI, foto propia y datos biométricos a través de chatgpt.com/cyber, mientras que las empresas solicitan acceso a través de un representante de OpenAI.

Las polémicas detrás de este nuevo modelo
El lanzamiento no está exento de tensiones. El debate central del sector es si democratizar o restringir. Algunos expertos defienden las restricciones estrictas, argumentando que limitar el acceso reduce la posibilidad de que actores maliciosos aprovechen estas capacidades. Por otro lado, existe una corriente que considera que democratizar el acceso permite a más defensores proteger sistemas y responder a amenazas de manera efectiva.
A esto se suma la preocupación por el doble uso: un modelo capaz de encontrar vulnerabilidades para defenderlas también puede, en otras manos, usarse para explotarlas. OpenAI señala que los atacantes más sofisticados ya están obteniendo mayores capacidades de los modelos existentes mediante un mayor uso de recursos, lo que justifica, según la empresa, no quedarse atrás en la carrera.




