InicioCiencia & TecnologíaWormGPT: la versión maligna de ChatGPT que genera ciberdelincuencia

WormGPT: la versión maligna de ChatGPT que genera ciberdelincuencia

Un sistema similar a ChatGPT realiza ataques cibernéticos y filtraciones en su base de datos a través de un software malicioso. Qué medidas se toman para combatirlo. 

WormGPT se presenta como la cara malvada de ChatGPT. Este sistema de Inteligencia Artificial (IA) permite crear identidades falsas, ayuda a realizar estafas cibernéticas y hasta puede desarrollar malware para hackear sistemas enteros. Para ello, los expertos recomiendan distintas medidas para prevenir ciberataques.

Qué es WormGPT y cómo funciona

WormGPT es una variante de inteligencia artificial maliciosa, diseñada para realizar actividades cibernéticas ilícitas. Este modelo, inspirado en los sistemas GPT como los desarrollados por OpenAI, es especialmente peligroso porque fue creado sin las restricciones éticas y de seguridad que normalmente regulan a las IAs comerciales.

Los ciberdelincuentes han adoptado este novedoso sistema de IA para ejecutar ataques de phishing, estafas y engaños con ingeniería social de manera automatizada y a gran escala.

A diferencia de las IA comerciales, WormGPT está diseñado específicamente para explotar vulnerabilidades en sistemas y manipular a los usuarios. Al carecer de filtros de ética o seguridad, puede ser usado para redactar correos engañosos, producir malware y diseñar campañas de estafa con precisión. 

Los ciberdelincuentes adoptaron este sistema de IA para realizar ataques de phishing, estafas y engaños con ingeniería social a gran escala.

Qué hace la inteligencia artificial “maligna”

Esta versión negativa de ChatGPT también puede redactar mensajes convincentes, imitar identidades y adaptar sus respuestas a las reacciones de sus objetivos, lo cual hace que los ataques sean mucho más efectivos y difíciles de detectar. Estos ataques de phishing imitan entidades confiables como bancos o instituciones gubernamentales. 

Además, puede ayudar a crear malware o software malicioso, facilitando el proceso para delincuentes sin conocimientos avanzados de programación. Esto incluye troyanos, ransomware y programas que roban datos personales.

WormGPT puede enviarte mails convincentes para hacerte caer en un ataque de ciberdelincuencia como estafas.

El modelo también puede adaptarse para crear mensajes de chantaje o extorsión, logrando así manipular a las víctimas a través de amenazas o engaños bien construidos. La IA además puede imitar patrones de lenguaje y conducta de personas conocidas para las víctimas, haciendo más fácil suplantar identidades.

Con WormGPT, los ciberdelincuentes pueden automatizar ataques en masa, enviando miles de mensajes de estafa a distintos usuarios al mismo tiempo. La IA puede variar el contenido de los mensajes para evitar ser detectada por sistemas de seguridad que buscan patrones repetitivos.

Ciberseguridad: qué medidas de pueden tomar para evitar estafas con IA

Para protegerse contra amenazas como WormGPT, es crucial seguir ciertas medidas de seguridad. 

  • Es importante que tanto personas como empresas realicen capacitaciones para reconocer mensajes de phishing y otras formas de estafa. La sensibilización es clave para identificar correos sospechosos y evitar caer en estos engaños.
  • Por otro lado, se recomienda activar la autenticación en dos pasos (2FA) para cuentas sensibles, ayuda a añadir una capa de protección extra, dificultando el acceso para los ciberdelincuentes incluso si logran obtener credenciales.
  • Muchas soluciones de seguridad empresarial cuentan con filtros que detectan patrones sospechosos en los correos electrónicos. Las empresas pueden implementarlos para analizar el contenido de los mensajes y marcar como sospechosos aquellos que parezcan contener ataques de phishing.

Asimismo, las precauciones también incluyen el análisis de redes sociales y sitios web para identificar posibles suplantaciones o estafas.

Se sugiere poner un paso de doble autenticación para resguardar la identidad y los datos del usuario.

Por último, si una persona o empresa detecta un ataque que parece haber sido generado por WormGPT u otra IA, es importante reportarlo a las autoridades competentes y a la plataforma afectada. Esto puede ayudar a mitigar el alcance del ataque y a proteger a otras posibles víctimas.

spot_img

Contenido mas reciente

Colombia renueva su estrategia contra el narcotráfico: cartel de búsqueda y bloque de élite en una región clave

El gobierno hizo público el cartel de los 35 más buscados en Sincelejo y despliega una estrategia contra el Clan del Golfo y Los Norteños.

FAdeA se presentó en la FIDAE: ¿cómo fue su paso por Chile?

Con el IA-100B y el IA-63 Pampa, la Fábrica Argentina de Aviones dijo presente en FIDAE 2026, en Chile. ¿Se viene una etapa de expansión y diversificación de su cartera de negocios?

Sebastián Marset: el impacto de la captura del “Rey del Sur” para el narcotráfico en Latinoamérica

DEF consultó a Edgardo Glavinich, analista y director de la fundación Sherman Kent, para entender la importancia de esta detención y su huella en las organizaciones criminales de la región.

Contenido Relacionado

Colombia renueva su estrategia contra el narcotráfico: cartel de búsqueda y bloque de élite en una región clave

El gobierno hizo público el cartel de los 35 más buscados en Sincelejo y despliega una estrategia contra el Clan del Golfo y Los Norteños.

FAdeA se presentó en la FIDAE: ¿cómo fue su paso por Chile?

Con el IA-100B y el IA-63 Pampa, la Fábrica Argentina de Aviones dijo presente en FIDAE 2026, en Chile. ¿Se viene una etapa de expansión y diversificación de su cartera de negocios?

Sebastián Marset: el impacto de la captura del “Rey del Sur” para el narcotráfico en Latinoamérica

DEF consultó a Edgardo Glavinich, analista y director de la fundación Sherman Kent, para entender la importancia de esta detención y su huella en las organizaciones criminales de la región.