Según un informe presentado por OpenAI, la empresa estadounidense que desarrolló ChatGPT, una red vinculada al régimen de China utilizó la herramienta de inteligencia artificial (IA) para organizar y registrar acciones de intimidación contra disidentes en el exterior. El hallazgo expone un nuevo capítulo en el uso político de esta tecnología y reaviva el debate sobre la seguridad digital y la represión transnacional.
- Te puede interesar: ChatGPT Atlas: qué es y por qué podría destronar a Google
La investigación reveló que uno de los implicados habría empleado el chatbot como una suerte de bitácora operativa. Allí documentaba tareas, objetivos, resultados y próximos pasos vinculados a campañas de hostigamiento en redes sociales y plataformas digitales.
Inteligencia artificial: cómo se utilizó para coordinar el hostigamiento en China
El informe detalla que el operador, presuntamente un funcionario policial chino, volcó en ChatGPT información sensible sobre acciones dirigidas contra críticos del gobierno que residen fuera del país. Entre los objetivos se encontraban activistas y opositores que habían denunciado abusos o cuestionado públicamente al Partido Comunista.

Según el reporte, la herramienta fue utilizada para estructurar mensajes, organizar cronogramas y sistematizar datos vinculados a campañas de presión digital. Esto incluía la creación y administración de múltiples cuentas falsas en redes sociales para reforzar narrativas oficiales y atacar a disidentes.
También se detectaron tácticas más agresivas, como la suplantación de autoridades migratorias de Estados Unidos para intimidar a opositores en el extranjero, así como intentos de denuncias y el cierre de sus perfiles en plataformas digitales. En algunos casos, incluso se habrían difundido obituarios falsos con imágenes manipuladas para generar miedo y desinformación.
Desde la compañía tecnológica, señalaron que las cuentas involucradas fueron suspendidas tras la detección de la actividad irregular. Además, remarcaron que el uso de la herramienta con fines de acoso, manipulación o coordinación de campañas represivas viola sus políticas.
Te puede interesar: ChatGPT: denuncian que el chatbot habría incentivado a que un joven se suicide
Cabe recordar que el episodio se produce en un contexto de creciente competencia tecnológica entre China y Estados Unidos, donde el desarrollo de la inteligencia artificial no solo tiene implicancias económicas, sino también estratégicas y geopolíticas.
ChatGPT: ¿una nueva herramienta de represión transnacional?
El caso se inscribe en un fenómeno más amplio conocido como represión transnacional. Se trata de prácticas mediante las cuales gobiernos autoritarios intentan intimidar o silenciar a ciudadanos que residen fuera de sus fronteras.
Especialistas advierten que la IA facilita estas estrategias al permitir automatizar mensajes, analizar grandes volúmenes de datos y perfeccionar campañas de influencia. La combinación de IA y redes sociales potencia el alcance y la eficacia de este tipo de operaciones en un mundo cada vez más automatizado y dirigido por la tecnología.

De esta forma, este último escándalo abre interrogantes sobre los límites de la tecnología y la responsabilidad de los actores estatales en el uso de inteligencia artificial. También plantea un debate urgente sobre cómo regular estas herramientas sin frenar su desarrollo, hoy más avanzado que nunca.
Por su parte, OpenAI tiene un doble desafío. Por un lado, ampliar los mecanismos de detección de usos indebidos, mientras que, por el otro, debe equilibrar el acceso abierto a herramientas avanzadas con la necesidad de prevenir que sean utilizadas para desinformación o persecución política.




