Google detectó y neutralizó el primer exploit zero-day de la historia desarrollado con inteligencia artificial, un hallazgo que redefine el panorama de la ciberseguridad global y confirma que la amenaza que durante años fue considerada teórica ya es una realidad. El caso fue revelado por el Google Threat Intelligence Group (GTIG), que afirmó haber interceptado una campaña masiva antes de que pudiera ejecutarse.
- Te puede interesar: Ciberseguridad: el millonario plan de Europa para remover a China de su infraestructura crítica
El ataque consistía en un script escrito en Python diseñado para vulnerar la autenticación en dos pasos (2FA) de una popular herramienta de administración web de código abierto. En términos simples: los hackers usaron un modelo de lenguaje para encontrar una cerradura que nadie sabía que estaba rota y, encima, fabricar la llave para abrirla.
Qué es una vulnerabilidad de día cero
Una vulnerabilidad de día cero es una falla de seguridad desconocida para los desarrolladores de un software el mismo día que se descubre, lo que permite que los atacantes la exploten antes de que exista una solución. Tradicionalmente, identificar y aprovechar estas brechas requería mucho conocimiento técnico y tiempo. La llegada de la IA redujo drásticamente estas barreras, permitiendo que los atacantes automaticen la búsqueda y explotación de errores.
El hallazgo no fue casual. Los investigadores detectaron múltiples señales de que la IA estuvo involucrada en la creación de esta brecha: una puntuación CVSS inusual y una estructura de código demasiado “de manual”, características típicas de contenido generado por modelos de lenguaje.

El exdirector de ciberseguridad de la Agencia de Seguridad Nacional de Estados Unidos, Rob Joyce, quien revisó los hallazgos antes de su publicación, afirmó que puede ser complejo determinar si el código fue escrito por un humano o una máquina. Sin embargo, agregó que las pistas reunidas por Google resultaron convincentes: entre ellas, texto explicativo excesivo y otras peculiaridades que los programadores humanos no tendrían por qué incluir.
Aunque Google no encontró evidencia de que se utilizara Gemini, su propia inteligencia artificial, el caso representa la primera vez que la compañía identifica un exploit de día cero desarrollado mediante modelos de lenguaje.
Un escenario que se industrializa a nivel global
El caso no es aislado. Actores vinculados a China, Corea del Norte y Rusia intensificaron el uso de inteligencia artificial para encontrar vulnerabilidades, crear malware más sofisticado y ejecutar campañas de desinformación, según el mismo informe, que apunta a una “industrialización” del uso ofensivo de esta tecnología.
- Te puede interesar: Argentina refuerza su ciberseguridad en medio de tensiones con Rusia e Irán
El reporte describe que hackers norcoreanos del grupo APT45 mandaban miles de pedidos automatizados a Gemini para revisar fallas conocidas y armar exploits en serie. Operadores chinos cargaron un repositorio con 85 mil vulnerabilidades históricas para entrenar al modelo. Y también se detectó malware para Android que llama a Gemini en tiempo real para decidir qué botón apretar en la pantalla del teléfono infectado.

Por qué esta nueva detección cambia las reglas
Hasta ahora, las empresas se preparaban para hackers humanos: pocos, caros, con tiempos largos. Ahora hay que prepararse para hackers asistidos por máquinas que trabajan veinticuatro horas, no se cansan y bajan el costo de cada intento a casi cero.
Google notificó al fabricante del software afectado con la suficiente rapidez para que se pudiera lanzar un parche antes de que el ataque causara daños. Pero el mensaje de fondo es claro: la industria de la ciberseguridad enfrenta una carrera armamentística donde la IA ya juega en los dos bandos, y la ventaja del atacante creció de forma exponencial.




