InicioCiencia & TecnologíaWormGPT: la versión maligna de ChatGPT que genera ciberdelincuencia

WormGPT: la versión maligna de ChatGPT que genera ciberdelincuencia

Un sistema similar a ChatGPT realiza ataques cibernéticos y filtraciones en su base de datos a través de un software malicioso. Qué medidas se toman para combatirlo. 

WormGPT se presenta como la cara malvada de ChatGPT. Este sistema de Inteligencia Artificial (IA) permite crear identidades falsas, ayuda a realizar estafas cibernéticas y hasta puede desarrollar malware para hackear sistemas enteros. Para ello, los expertos recomiendan distintas medidas para prevenir ciberataques.

Qué es WormGPT y cómo funciona

WormGPT es una variante de inteligencia artificial maliciosa, diseñada para realizar actividades cibernéticas ilícitas. Este modelo, inspirado en los sistemas GPT como los desarrollados por OpenAI, es especialmente peligroso porque fue creado sin las restricciones éticas y de seguridad que normalmente regulan a las IAs comerciales.

Los ciberdelincuentes han adoptado este novedoso sistema de IA para ejecutar ataques de phishing, estafas y engaños con ingeniería social de manera automatizada y a gran escala.

A diferencia de las IA comerciales, WormGPT está diseñado específicamente para explotar vulnerabilidades en sistemas y manipular a los usuarios. Al carecer de filtros de ética o seguridad, puede ser usado para redactar correos engañosos, producir malware y diseñar campañas de estafa con precisión. 

Los ciberdelincuentes adoptaron este sistema de IA para realizar ataques de phishing, estafas y engaños con ingeniería social a gran escala.

Qué hace la inteligencia artificial “maligna”

Esta versión negativa de ChatGPT también puede redactar mensajes convincentes, imitar identidades y adaptar sus respuestas a las reacciones de sus objetivos, lo cual hace que los ataques sean mucho más efectivos y difíciles de detectar. Estos ataques de phishing imitan entidades confiables como bancos o instituciones gubernamentales. 

Además, puede ayudar a crear malware o software malicioso, facilitando el proceso para delincuentes sin conocimientos avanzados de programación. Esto incluye troyanos, ransomware y programas que roban datos personales.

WormGPT puede enviarte mails convincentes para hacerte caer en un ataque de ciberdelincuencia como estafas.

El modelo también puede adaptarse para crear mensajes de chantaje o extorsión, logrando así manipular a las víctimas a través de amenazas o engaños bien construidos. La IA además puede imitar patrones de lenguaje y conducta de personas conocidas para las víctimas, haciendo más fácil suplantar identidades.

Con WormGPT, los ciberdelincuentes pueden automatizar ataques en masa, enviando miles de mensajes de estafa a distintos usuarios al mismo tiempo. La IA puede variar el contenido de los mensajes para evitar ser detectada por sistemas de seguridad que buscan patrones repetitivos.

Ciberseguridad: qué medidas de pueden tomar para evitar estafas con IA

Para protegerse contra amenazas como WormGPT, es crucial seguir ciertas medidas de seguridad. 

  • Es importante que tanto personas como empresas realicen capacitaciones para reconocer mensajes de phishing y otras formas de estafa. La sensibilización es clave para identificar correos sospechosos y evitar caer en estos engaños.
  • Por otro lado, se recomienda activar la autenticación en dos pasos (2FA) para cuentas sensibles, ayuda a añadir una capa de protección extra, dificultando el acceso para los ciberdelincuentes incluso si logran obtener credenciales.
  • Muchas soluciones de seguridad empresarial cuentan con filtros que detectan patrones sospechosos en los correos electrónicos. Las empresas pueden implementarlos para analizar el contenido de los mensajes y marcar como sospechosos aquellos que parezcan contener ataques de phishing.

Asimismo, las precauciones también incluyen el análisis de redes sociales y sitios web para identificar posibles suplantaciones o estafas.

Se sugiere poner un paso de doble autenticación para resguardar la identidad y los datos del usuario.

Por último, si una persona o empresa detecta un ataque que parece haber sido generado por WormGPT u otra IA, es importante reportarlo a las autoridades competentes y a la plataforma afectada. Esto puede ayudar a mitigar el alcance del ataque y a proteger a otras posibles víctimas.

spot_img

Contenido mas reciente

Medio Oriente: cómo los buques evaden el cierre del estrecho de Ormuz impuesto por Irán

A pesar de que Teherán efectuó el cierre del estratégico paso marítimo tras la escalada militar, numerosos buques lograron atravesar los peligros del estrecho.

El legendario portaaviones USS Nimitz de Estados Unidos inicia su viaje final y pasará por el Atlántico Sur 

El portaaviones USS Nimitz, una leyenda de la Armada de Estados Unidos, partió de la base naval en el Estado de Washington para navegar por última vez tras 51 años de servicio. ¿Se detendrá en Argentina? 

Agua y petróleo: los verdaderos objetivos detrás de la nueva guerra en Irán

Las operaciones contra objetivos estratégicos complejizan el conflicto regional y podrían afectar a millones de personas. Las consecuencias.

Contenido Relacionado

Medio Oriente: cómo los buques evaden el cierre del estrecho de Ormuz impuesto por Irán

A pesar de que Teherán efectuó el cierre del estratégico paso marítimo tras la escalada militar, numerosos buques lograron atravesar los peligros del estrecho.

El legendario portaaviones USS Nimitz de Estados Unidos inicia su viaje final y pasará por el Atlántico Sur 

El portaaviones USS Nimitz, una leyenda de la Armada de Estados Unidos, partió de la base naval en el Estado de Washington para navegar por última vez tras 51 años de servicio. ¿Se detendrá en Argentina? 

Agua y petróleo: los verdaderos objetivos detrás de la nueva guerra en Irán

Las operaciones contra objetivos estratégicos complejizan el conflicto regional y podrían afectar a millones de personas. Las consecuencias.