InicioCiencia & TecnologíaChatGPT: cómo usó China la inteligencia artificial para intimidar opositores en el...

ChatGPT: cómo usó China la inteligencia artificial para intimidar opositores en el extranjero

Se descubrió que un funcionario policial del régimen autocrático utilizó inteligencia artificial para documentar el hostigamiento. ¿De qué se trata este nuevo escándalo?

Según un informe presentado por OpenAI, la empresa estadounidense que desarrolló ChatGPT, una red vinculada al régimen de China utilizó la herramienta de inteligencia artificial (IA) para organizar y registrar acciones de intimidación contra disidentes en el exterior. El hallazgo expone un nuevo capítulo en el uso político de esta tecnología y reaviva el debate sobre la seguridad digital y la represión transnacional.

La investigación reveló que uno de los implicados habría empleado el chatbot como una suerte de bitácora operativa. Allí documentaba tareas, objetivos, resultados y próximos pasos vinculados a campañas de hostigamiento en redes sociales y plataformas digitales.

Inteligencia artificial: cómo se utilizó para coordinar el hostigamiento en China

El informe detalla que el operador, presuntamente un funcionario policial chino, volcó en ChatGPT información sensible sobre acciones dirigidas contra críticos del gobierno que residen fuera del país. Entre los objetivos se encontraban activistas y opositores que habían denunciado abusos o cuestionado públicamente al Partido Comunista.

OpenAI realizó un informe sobre lo sucedido ya que viola sus políticas de uso.

Según el reporte, la herramienta fue utilizada para estructurar mensajes, organizar cronogramas y sistematizar datos vinculados a campañas de presión digital. Esto incluía la creación y administración de múltiples cuentas falsas en redes sociales para reforzar narrativas oficiales y atacar a disidentes.

También se detectaron tácticas más agresivas, como la suplantación de autoridades migratorias de Estados Unidos para intimidar a opositores en el extranjero, así como intentos de denuncias y el cierre de sus perfiles en plataformas digitales. En algunos casos, incluso se habrían difundido obituarios falsos con imágenes manipuladas para generar miedo y desinformación.

Desde la compañía tecnológica, señalaron que las cuentas involucradas fueron suspendidas tras la detección de la actividad irregular. Además, remarcaron que el uso de la herramienta con fines de acoso, manipulación o coordinación de campañas represivas viola sus políticas.

Te puede interesar: ChatGPT: denuncian que el chatbot habría incentivado a que un joven se suicide

Cabe recordar que el episodio se produce en un contexto de creciente competencia tecnológica entre China y Estados Unidos, donde el desarrollo de la inteligencia artificial no solo tiene implicancias económicas, sino también estratégicas y geopolíticas.

ChatGPT: ¿una nueva herramienta de represión transnacional?

El caso se inscribe en un fenómeno más amplio conocido como represión transnacional. Se trata de prácticas mediante las cuales gobiernos autoritarios intentan intimidar o silenciar a ciudadanos que residen fuera de sus fronteras.

Especialistas advierten que la IA facilita estas estrategias al permitir automatizar mensajes, analizar grandes volúmenes de datos y perfeccionar campañas de influencia. La combinación de IA y redes sociales potencia el alcance y la eficacia de este tipo de operaciones en un mundo cada vez más automatizado y dirigido por la tecnología.

¿Servirá este hecho como incentivo para regular esta herramienta?

De esta forma, este último escándalo abre interrogantes sobre los límites de la tecnología y la responsabilidad de los actores estatales en el uso de inteligencia artificial. También plantea un debate urgente sobre cómo regular estas herramientas sin frenar su desarrollo, hoy más avanzado que nunca.

Por su parte, OpenAI tiene un doble desafío. Por un lado, ampliar los mecanismos de detección de usos indebidos, mientras que, por el otro, debe equilibrar el acceso abierto a herramientas avanzadas con la necesidad de prevenir que sean utilizadas para desinformación o persecución política.

spot_img

Contenido mas reciente

Hidrógeno verde: qué va a pasar con la polémica planta en Uruguay

Una propuesta del intendente de Paysandú podría destrabar la controversia por la instalación del proyecto de la empresa HIF Global. Cuál es el reclamo en Entre Ríos y cómo afecta al río Uruguay.

La inteligencia artificial que aterra a los bancos: el modelo que puede hackear cualquier sistema

Anthropic retrasó el lanzamiento de Claude Mythos, la IA que podría superar a los humanos en piratería, lo que encendió alarmas en los principales foros financieros internacionales.

Tierras raras en Argentina: los proyectos que existen y los desafíos en seguridad jurídica

A través del RIGI y el contexto internacional, Argentina puede convertirse en un hub regional de minerales estratégicos. Cómo son los proyectos de tierras raras en marcha.

Contenido Relacionado

Hidrógeno verde: qué va a pasar con la polémica planta en Uruguay

Una propuesta del intendente de Paysandú podría destrabar la controversia por la instalación del proyecto de la empresa HIF Global. Cuál es el reclamo en Entre Ríos y cómo afecta al río Uruguay.

La inteligencia artificial que aterra a los bancos: el modelo que puede hackear cualquier sistema

Anthropic retrasó el lanzamiento de Claude Mythos, la IA que podría superar a los humanos en piratería, lo que encendió alarmas en los principales foros financieros internacionales.

Tierras raras en Argentina: los proyectos que existen y los desafíos en seguridad jurídica

A través del RIGI y el contexto internacional, Argentina puede convertirse en un hub regional de minerales estratégicos. Cómo son los proyectos de tierras raras en marcha.