“Antes que nada, un poco de contexto”, plantea Marcelo Martínez, abogado y especialista en la transformación de la Inteligencia Artificial (IA) en el derecho y la sociedad, al ser consultado por DEF sobre el avance de este tipo de tecnología en el ámbito militar y los desafíos éticos que implica su uso en un campo de batalla.
Para el jurista, así como en el pasado existió una carrera espacial -entre Estados Unidos y la Unión Soviética– por la llegada del hombre a la luna, hoy existe una competencia similar entre EE.UU. y China pero enfocada en quién desarrolla primero la Inteligencia Artificial General, un sistema con capacidades cognitivas comparables a las del ser humano, lo que podría constituir el paso previo hacia una superinteligencia.
- Te puede interesar: Inteligencia artificial en las FF. AA.: “Las batallas estratégicas se libran en los ámbitos tecnológicos”
“En este contexto se da la primera gran discusión entre regular o no la IA. Esto impacta en todas las disciplinas humanas. Un ejemplo claro es el Copyright, o el derecho que protege la propiedad intelectual, que repercute en la capacidad de aprendizaje de los modelos de lenguaje de IA. Sabemos que en China los estándares son bastante más bajos que en Occidente. Esto en Estados Unidos es más difícil por la protección al derecho de autor”, explica.

En ese sentido, Martínez cuenta que, si bien Europa no lidera los avances tecnológicos, sí se convirtió en especialista en regulación: “Apuesta por liderazgo normativo, posicionándose como referencia global en “IA ética”, pero la fuerte resistencia empresarial limita su capacidad de establecer estándares mundiales efectivos antes de que China y Estados Unidos consoliden sus propios marcos”.
- Te puede interesar: DEF con el coronel Amit Guy, agregado de Defensa de Israel: “El conflicto en Medio Oriente tiene solución”
¿Qué pasa en Argentina?
Por el lado de Argentina, Demian Reidel, entonces jefe de asesores presidenciales (actual presidente del Consejo Nuclear Argentino), confirmó que la posición de nuestro país es no regular con el objetivo de incrementar las inversiones.
Aunque, explica el abogado, en ese contexto serán los jueces quienes -a través de la doctrina de sus fallos- establezcan una primera línea normativa en la materia.
“La velocidad apabullante de la IA en la sociedad contrasta con la lentitud de los gobiernos, bloques o instituciones que van expresando sus pareceres siempre detrás de los acontecimientos. Si aún estamos discutiendo si conviene o no regular, puede uno entender cómo está el resto de las cuestiones y, específicamente, lo concerniente al plano militar o al derecho humanitario”, aclara.

“Aún no hemos solucionado nuestros problemas éticos en los conflictos pre-IA”
-¿Qué desafíos jurídicos plantea el uso de inteligencia artificial en operaciones militares o en sistemas de armas autónomos?
-Si tuviera que resumir el principal desafío jurídico en el uso de IA en defensa, lo primero que me viene a la cabeza es la falta de una regulación internacional clara. Hoy nos toca apoyarnos en los principios generales del derecho humanitario, porque todavía no hay normas específicas para estos sistemas autónomos. Allí deberíamos procurar mantener vivos los siguientes principios. El primero es el de Distinción, es decir, el sistema autónomo con IA debe ser capaz de discriminar entre combatientes y civiles (y bienes civiles de objetivos militares legítimos). En este sentido, el modelo (software) debe poder interpretar intenciones (por ejemplo, una persona rindiéndose o fuera de combate), algo que el Derecho Internacional Humanitario exige al combatiente humano. Otro es el principio de Proporcionalidad, es decir, el sistema debe ser capaz de prever si el daño civil incidental (colateral) será excesivo en relación con la ventaja militar concreta y directa esperada. Este es un típico juicio de valor ético y militar que requiere empatía, contexto e interpretación, cualidades intrínsecamente humanas. También está el de Precaución, en tanto el sistema debería tomar todas las medidas factibles en la elección de medios y métodos para evitar bajas civiles o minimizarlas. Esto implica la capacidad de anular un ataque ante nueva información (por ejemplo, si un niño entra en la zona de ataque). Finalmente, el principio de Humanidad exige que la decisión de uso de armamento letal no sea delegada completamente a una máquina. Los Estados deben garantizar un control humano significativo y asegurar que la máquina no actúe con total autonomía, protegiendo así la dignidad humana en la guerra.
- Te puede interesar: Entrevista exclusiva con el brigadier Valverde, jefe de la Fuerza Aérea: “Es un desafío traer los seis aviones F-16”
-En el campo de batalla, ¿qué dilemas éticos surgen al delegar decisiones a la IA?
-Debe decirse que, si aún no hemos solucionado nuestros problemas éticos en los conflictos pre-IA, menos aún podríamos pensar en hacerlo en lo que viene con la incorporación de Inteligencia Artificial al armamento. Los ejemplos sobran y no debemos ir a una etapa anterior a la Convención de Ginebra.
Hablar de ética siempre es bienvenido, más aún si se hace en el marco del impacto de la IA en un conflicto armado. Hay numerosas voces que se vienen alzando en pos de no deshumanizar los conflictos, empezando por el Vaticano.

La mirada del Vaticano sobre la guerra y la IA: “Ninguna máquina debería decidir quitar la vida a un ser humano”
-¿Qué dijo el Vaticano con respecto a la Inteligencia Artificial y los conflictos?
-Con Antiqua et nova -un documento sobre la relación entre la inteligencia artificial y la humana, publicada el 28 de enero de 2025 por los Dicasterios para la Doctrina de la Fe y para la Cultura y la Educación- se advierte que la IA puede aumentar los instrumentos de guerra más allá del alcance de la supervisión humana, lo que podría provocar una carrera armamentista desestabilizadora. Señala que los sistemas de armas autónomos eliminan la capacidad humana para el juicio moral y la toma de decisiones éticas, y enfatiza que ninguna máquina debería decidir quitar la vida a un ser humano.
El documento también subraya que la IA debe usarse solo como herramienta para complementar la inteligencia humana, nunca para reemplazarla. Insiste en que la responsabilidad humana debe crecer en proporción al avance tecnológico y que la dignidad humana debe ser protegida en todos los ámbitos, especialmente en el contexto bélico. De modo que aquí tenemos un primer pensamiento ético sobre la problemática que nos toca.
-Es decir que hasta el Vaticano debió definir sus alcances…
-Y, por otro lado, el 24 de septiembre pasado -durante un debate abierto en la sede de Naciones Unidas en Nueva York- el arzobispo Paul Richard Gallagher, secretario para las Relaciones con los Estados y las Organizaciones del Vaticano, manifestó que la Santa Sede apoya firmemente la adopción de una moratoria inmediata sobre el desarrollo de los sistemas de armas letales autónomas. En este sentido afirmó que la creación de estas tecnologías “plantea graves preocupaciones” a nivel jurídico, humanitario, ético y de seguridad para la comunidad internacional, ya que son sistemas carentes de la capacidad humana, de discernimiento moral, y juicio ético.
También en la sede de la ONU, el 22 de septiembre pasado, un grupo conformado por 200 personalidades presentó la carta denominada “Global Call for AI Red Lines” (Alerta Global por Líneas Rojas de la IA), expresando allí la necesidad de trazar líneas rojas internacionalmente vinculantes antes del final de 2026 para evitar un inminente desastre. Justamente uno de los puntos de las “líneas rojas” se refiere a armas autónomas letales y plantea la “eliminación total de sistemas de IA que puedan seleccionar y atacar objetivos humanos sin intervención humana”.
Un planteo: no deshumanizar los conflictos
-¿Cuál sería para usted la base sobre la que debería asentarse el empleo de la IA en los conflictos?
-Creo que el punto de partida ético fundamental, cuando hablamos de inteligencia artificial en el campo de batalla, es no deshumanizar los conflictos. Si permitimos que las máquinas tomen decisiones letales sin intervención humana, corremos el riesgo de perder el juicio moral y la empatía que solo las personas pueden aportar. Por eso, la premisa debe ser que la tecnología nunca reemplace la responsabilidad y el discernimiento humano, especialmente cuando está en juego la vida de otros.
- Te puede interesar: Inteligencia Artificial en el ámbito militar: “El desafío está en no perder el control humano”
En todo este debate ético, surgen preguntas igual de importantes que no podemos dejar de lado. Por ejemplo: ¿hasta qué punto deberíamos permitir que la IA tome decisiones en el campo de batalla?, ¿le damos la última palabra sobre cuándo iniciar un ataque, o sólo la dejamos seleccionar objetivos materiales?, ¿la limitamos a tareas defensivas o le permitimos ejecutar ciberataques que puedan afectar a la población civil? Son cuestiones que todavía no tienen una respuesta definitiva y que requieren una reflexión profunda.
“Se impone la necesidad de consensuar un nuevo protocolo adicional a los Convenios de Ginebra”
-¿Qué tipos de acuerdos deberían promover los juristas en la definición de límites al uso de IA en la defensa?
-Deberían estar preparando regulaciones en todo ámbito respecto a la IA, pero no es algo exclusivo de ellos, es algo hiper disruptivo que involucra a todas las disciplinas humanas y todos debemos intervenir. En cuanto a los límites al uso de IA en la defensa, se impone la necesidad de elaborar y consensuar un nuevo protocolo adicional a los Convenios de Ginebra que tenga en cuenta: la exigencia de un control humano significativo sobre el armamento autónomo (que garantice la capacidad de juicio sobre la fuerza letal); clarificar los regímenes de responsabilidad internacional del Estado y la penal individual que van a regir en caso de un ataque ilegal (hay que tener en cuenta que, aunque sean autónomos y tomen decisiones, los robots no tienen atributos de personalidad por lo cual, no es posible atribuirles responsabilidad. Para ello siempre será necesario buscar al Estado que lo utilizó, la empresa desarrolladora o el funcionario que lo puso en funcionamiento); establecer un mecanismo de revisión jurídica obligatoria y -eventual- prohibición para todo sistema de armas autónomo antes de su despliegue (para que los Estados puedan evaluar si el diseño, el software y el funcionamiento pueden operar consistentemente con el Derecho internacional Humanitario); finalmente, todos los esfuerzos deben estar orientados a evitar deshumanizar la guerra futura que, indefectiblemente, tendrá componentes de IA.

-¿Cómo debería prepararse Argentina frente al avance de la IA militar?
-Argentina tiene una oportunidad enorme en el campo de la IA militar. Siempre hemos destacado por la calidad de nuestros recursos humanos, y ahora, con estas herramientas, las posibilidades se multiplican. Lo primero es apostar fuerte por una formación integral: si el personal de las Fuerzas Armadas se capacita en IA -comprendiendo tanto las capacidades técnicas como las implicancias éticas de su uso- podremos aprovechar desde soluciones administrativas hasta simulaciones de entrenamiento y análisis de inteligencia, entre otras actividades.
Creo que es cuestión de ir escalando, pero es esencial empezar por la educación desde los institutos de formación. Luego, contando con personal capacitado, las posibilidades son ilimitadas. La IA podría utilizarse en tareas administrativas, educación, logística, inteligencia, planeamiento, y en cuestiones operativas.
-Entonces, ¿cuál es su mirada sobre la problemática a la que nos enfrentamos con el uso de la IA en el campo de combate?
-Hay muchos más actores, como la Cruz Roja y diversas ONGs, estudiando el tema y elaborando documentos. Lo cierto es que la irrupción de la inteligencia artificial en el ámbito militar plantea desafíos jurídicos y éticos de enorme complejidad que requieren respuestas innovadoras y consensuadas a nivel internacional. La velocidad del avance tecnológico supera la capacidad de los marcos regulatorios actuales, lo que obliga a repensar principios fundamentales del derecho humanitario y a reforzar el control humano sobre los sistemas autónomos.
Por otro lado, la ausencia de regulación específica no exime de responsabilidad: los Estados, los desarrolladores y los operadores deben garantizar que la dignidad humana y la ética prevalezcan sobre la lógica algorítmica. En este contexto, resulta imprescindible que juristas, legisladores y la sociedad civil colaboren en la elaboración de normas claras, mecanismos de control y protocolos de revisión, evitando la deshumanización de los conflictos y asegurando que la tecnología esté siempre al servicio de la paz y la protección de los derechos fundamentales.




