A fines de mayo de este año comenzaron a circular en redes sociales una serie de videos impactantes que mostraban supuestos hechos de violencia extrema durante protestas por distintas problemáticas sociales en la ciudad de Los Ángeles, California. Las imágenes mostraban incendios descontrolados, saqueos masivos, enfrentamientos entre manifestantes y fuerzas militares, e incluso helicópteros disparando desde el aire. Sin embargo, en muchos casos, se trataba de deepfakes.
A simple vista, los videos parecían reales. Pero con el correr de los días se descubrió que gran parte de ese material era falso o un deepfake, es decir, que había sido manipulado digitalmente para causar confusión, temor y desinformación en plena crisis social.
Te puede interesar: Meta: cómo usará energía nuclear para potenciar su inteligencia artificial
Cómo se viralizaron los deepfakes en Los Ángeles
Las protestas, si bien fueron reales, no se desarrollaron con la violencia que mostraban los clips virales. Se trató de manifestaciones organizadas por comunidades locales, sindicatos y movimientos sociales en respuesta a una combinación de medidas impopulares impulsadas por el gobierno estatal: recortes en servicios públicos, desalojos forzados en barrios populares y nuevos casos de abuso policial contra personas racializadas.

En barrios como Boyle Heights, Inglewood o el centro de Los Ángeles, miles de personas salieron a las calles de forma pacífica. Hubo marchas, asambleas, cacerolazos e intervenciones culturales. Aunque se registraron algunos incidentes aislados, no hubo destrozos generalizados ni represión militar como afirmaban muchos de los videos virales.
A medida que los videos ganaban millones de visualizaciones en redes como X (ex Twitter), TikTok e Instagram, distintos medios y organizaciones especializadas en verificación de datos comenzaron a investigar. Los resultados fueron contundentes: varios de los clips no correspondían a las protestas actuales, sino que habían sido tomados de otros contextos.
Algunos eran registros antiguos de disturbios en otros países, como Siria o Sudáfrica, editados con subtítulos en inglés para hacerlos pasar por escenas recientes de Los Ángeles. Otros eran reconstrucciones generadas con inteligencia artificial, que mostraban escenas artificialmente violentas con un realismo inquietante. En estos casos, los analistas detectaron errores característicos de los videos generados por IA, como distorsiones en rostros, movimientos de cámara imposibles o detalles anatómicos incorrectos.

La pregunta clave fue por qué se difundieron estos videos falsos. Existen varias hipótesis. Por un lado, se detectaron campañas de desinformación coordinadas desde foros como 4chan y canales de Telegram, donde se alentaba la difusión de contenido falso para “mostrar el caos” y justificar una reacción más dura del Estado.
También se identificaron cuentas automatizadas, bots, que amplificaron estos mensajes con hashtags dirigidos. Algunos analistas creen que detrás de estas acciones hubo grupos interesados en deslegitimar las protestas y sembrar miedo entre la población. Por otro lado, muchas personas comunes compartieron estos videos sin verificar su autenticidad, contribuyendo a la expansión de la desinformación de manera involuntaria.