La utilización de la inteligencia artificial (IA) por parte de bandas criminales ya no forma parte de un escenario futurista, sino una realidad que está transformando la manera en que se cometen delitos y sus consecuencias.
Según el informe Use of Artificial Intelligence by High Risk Criminal Networks elaborado en el marco de EL PACCTO 2.0, estas organizaciones ya empezaron a incorporar estas herramientas para escalar sus operaciones, diversificar sus fuentes de ingresos y reducir la necesidad de contar con expertos altamente capacitados en cada área.
La inteligencia artificial, que en muchos campos impulsa la innovación y la eficiencia, en manos del crimen organizado, se convierte en un multiplicador de riesgos y daños sociales.
- Te puede interesar: Albania nombra a la primera ministra creada con inteligencia artificial para combatir la corrupción
Inteligencia artificial: cómo la utilizan las bandas criminales
Uno de los ámbitos más visibles donde la IA se ha incorporado es el de los ciberfraudes y estafas digitales. Con el desarrollo de modelos de lenguaje y técnicas de clonación de voz, las bandas criminales pueden generar conversaciones cada vez más creíbles y personalizadas, haciéndose pasar por familiares, funcionarios o ejecutivos de empresas.
Esto se traduce en engaños como el “CEO scam”, en el que directivos falsificados mediante videos o audios inducen a empleados a transferir dinero o información sensible. Asimismo, los deepfakes audiovisuales permiten simular situaciones de secuestro o emergencia para extorsionar a las víctimas bajo presión emocional. Estas técnicas se integran a estrategias masivas de mensajes fraudulentos, como el smishing y el vishing, que ahora se ejecutan con mayor credibilidad y a gran escala gracias a la automatización.

Otra de las formas más preocupantes de uso criminal de la inteligencia artificial es la producción de material de abuso sexual sintético, conocido como AI-CSAM. A través de modelos generativos, redes delictivas crean imágenes y videos que aparentan mostrar a menores en situaciones sexuales, aunque se trate de material sintético.
El informe destaca cómo estas producciones se ofrecen en catálogos, bajo suscripciones o pagos por acceso, replicando esquemas de mercado propios de la economía digital legal. Operaciones como Cumberland pusieron en evidencia que este fenómeno no solo facilita la explotación con un nuevo tipo de producto, sino que también desafía los marcos jurídicos, que hasta ahora se centraban en la existencia de una víctima física identificable.
El campo del cibercrimen también ha sido revolucionado con la llegada de plataformas de “malware-as-a-service” y “ransomware-as-a-service”. Herramientas como WormGPT o FraudGPT ofrecen a los delincuentes la posibilidad de generar código malicioso, diseñar ataques dirigidos, evadir sistemas de seguridad y hasta negociar automáticamente con las víctimas para la liberación de datos secuestrados.
Esto significa que ya no es necesario tener conocimientos avanzados de programación para lanzar un ataque: la inteligencia artificial democratizó el acceso a capacidades ofensivas, multiplicando tanto el volumen de ataques como su sofisticación.
La IA como un catalizador del crimen
A su vez, el informe Use of Artificial Intelligence by High Risk Criminal Networks señala que distintos tipos de organizaciones criminales utilizan la IA de maneras diferentes. Los carteles de drogas, como el CJNG o el de Sinaloa, aprovechan estas herramientas para optimizar rutas de transporte, organizar la logística y llevar adelante campañas de extorsión más sistemáticas.
Las redes más distribuidas, como los colectivos de ciberdelincuentes africanos conocidos como “Yahoo Boys” o grupos como FunkSec en Brasil, usan recursos abiertos para escalar fraudes masivos en línea. A su vez, actores paraestatales y grupos vinculados a gobiernos recurren a la inteligencia artificial para impulsar campañas de desinformación, manipular la opinión pública y ejecutar sabotajes informativos contra países rivales.

La capacidad de los criminales para llegar a un mayor número de víctimas se incrementa exponencialmente, los daños simbólicos se profundizan al erosionar la confianza en instituciones y sistemas de comunicación, y las investigaciones enfrentan nuevos desafíos probatorios ante evidencias manipuladas o directamente sintéticas.
Además, muchas agencias de seguridad, fiscalías y sistemas judiciales todavía carecen de protocolos claros y de personal especializado para abordar delitos potenciados por inteligencia artificial.
Te puede interesar: Juicio histórico: una empresa de inteligencia artificial enfrenta millonaria demanda de copyright
Las soluciones que propone el informe
En el documento, los investigadores plantean distintas medidas para enfrentar esta problemática. No solo hablan de marcos regulatorios actualizados, sino también la creación de unidades técnicas capaces de rastrear, analizar y neutralizar estas nuevas amenazas. La cooperación internacional y regional se vuelve esencial, dado que los delitos digitales no respetan fronteras.
También es fundamental avanzar en campañas de prevención que protejan a las potenciales víctimas y en estrategias que equilibren la innovación tecnológica con la seguridad pública. De lo contrario, la “criminalidad algorítmica” continuará expandiéndose, consolidando a la inteligencia artificial como una de las armas más poderosas en manos de las redes criminales del siglo XXI.