La Provincia de Buenos Aires dio un paso histรณrico en regulaciรณn tecnolรณgica al aprobar la Resoluciรณn 9/2025 de la Subsecretarรญa de Gobierno Digital, que fija por primera vez un marco obligatorio para regular el desarrollo, la implementaciรณn y el uso de sistemas de inteligencia artificial (IA) dentro de la administraciรณn pรบblica bonaerense.ย
Estas reglas apuntan a equilibrar la innovaciรณn con la protecciรณn de los derechos fundamentales de la ciudadanรญa, para asegurar que la adopciรณn de IA por parte del Estado sea razonable y confiable en todo momento.
- Te puede interesar: Inteligencia artificial y trabajo: hacia una nueva era de reconversiรณn
Inteligencia artificial: cรณmo surgiรณ el marco regulatorio de Buenos Aires
El nuevo rรฉgimen normativo bonaerense se apoya en estรกndares internacionales ampliamente reconocidos, como los principios de Asilomar, las recomendaciones de la OCDE y la UNESCO, ademรกs de inspiraciรณn en la normativa europea vigente.
La resoluciรณn incorpora una serie de principios rectores que establecen un norte รฉtico para la IA estatal: entre ellos se destacan la neutralidad tecnolรณgica, la centralidad de la persona humana, el respeto por los derechos humanos, la inclusiรณn, la sostenibilidad ambiental, la privacidad y la autodeterminaciรณn informativa, junto con la trazabilidad, responsabilidad demostrada y transparencia.
Macarena Gorgal, ingeniera, investigadora y una de las voces emergentes en gobernanza digital, se especializa en polรญticas pรบblicas y tecnologรญas digitales. Meses atrรกs, ella elaborรณ una propuesta integral para la regulaciรณn de la IA en Argentina. El documento, titulado โPropuesta de Regulaciรณn y Gobernanza Integral de la Inteligencia Artificialโ, circulรณ entre los equipos tรฉcnicos que luego participaron en la elaboraciรณn de la resoluciรณn oficial, inspirada en el documento.

โLa inteligencia artificial no es neutral. Produce impacto real en organismos pรบblicos, en derechos ciudadanos y en la vida cotidiana, y regularla requiere tรฉcnica, evidencia y responsabilidad polรญticaโ, seรฑala Gorgal. Ademรกs, agrega que su objetivo es ordenar la discusiรณn y ofrecer un marco sรณlido, claro y aplicable.
Las claves de la nueva ley provincial de regulaciรณn de IA
Su propuesta, presentada a los equipos tรฉcnicos del Gobierno de la Provincia de Buenos Aires, incluye principios de transparencia, explicabilidad, autodeterminaciรณn informativa, criterios de riesgo, auditorรญas, trazabilidad, advertencias al ciudadano y estรกndares especรญficos para tecnologรญas biomรฉtricas.
Uno de los aspectos mรกs potentes de esta regulaciรณn es la clasificaciรณn de riesgo que establece para los sistemas de IA. En ese sentido, la provincia define cuatro niveles segรบn el impacto potencial en derechos o seguridad. En primer lugar, los sistemas de โriesgo inaceptableโ quedan directamente prohibidos: serรญan aquellos que manipulan comportamientos subliminalmente, explotan vulnerabilidades sociales o crean perfiles de โscoring socialโ.
- Te puede interesar: La primera actriz generada con inteligencia artificial revoluciona Hollywood
En segundo lugar, estรกn los sistemas de โalto riesgoโ, que requieren evaluaciones de impacto muy estrictas. Incluirรญan, por ejemplo, tecnologรญas de identificaciรณn biomรฉtrica, sistemas vinculados a la gestiรณn de infraestructura crรญtica, la justicia o procesos laborales.
Luego hay una categorรญa de โriesgo limitadoโ, como chatbots genรฉricos que no usan datos sensibles, en la que solo se exige advertir a las personas cuando interactรบan con IA automatizada. Finalmente, la categorรญa de โriesgo nuloโ comprende sistemas con impacto casi despreciable en derechos o seguridad, que requieren una regulaciรณn mucho mรกs ligera.

Para asegurar que todo este marco no quede solo en el papel, la resoluciรณn exige que los organismos pรบblicos bonaerenses realicen evaluaciones preliminares de riesgo antes de poner en marcha cualquier sistema de IA. Tambiรฉn deben implementar mecanismos sรณlidos de gobernanza de datos, es decir, reglas para manejar los datos con los que se entrenan los sistemas, supervisar posibles sesgos y garantizar la trazabilidad de las decisiones algorรญtmicas.
Ademรกs, los organismos estรกn obligados a advertir a la ciudadanรญa cuando una IA estรฉ siendo usada (por ejemplo, un chatbot automatizado), y deben inscribir todos sus desarrollos en un Registro Provincial de Inteligencia Artificial, cuyo control estarรก a cargo de la Direcciรณn Provincial de Innovaciรณn Digital, designada como autoridad de aplicaciรณn.
Inteligencia artificial en Argentina: otro tipo de normativas
Entre las propuestas futuras para todo el paรญs se destacan una ley nacional de IA, mecanismos federales de coordinaciรณn, auditorรญas independientes y programas de formaciรณn para organismos pรบblicos.
En efecto, para el รกmbito nacional, el debate sobre regulaciรณn de inteligencia artificial avanza hoy por dos grandes lรญneas que se apoyan en investigaciones recientes sobre gobernanza algorรญtmica y modernizaciรณn del Estado.
โLa primera es la propuesta de una Ley Nacional de Inteligencia Artificial, pensada como una norma marco que establezca principios generales, categorรญas de riesgo, obligaciones mรญnimas y criterios de transparenciaโ, explicรณ Macarena Gorgal, una de las impulsoras de las normativas y regulaciรณn de la IA.
- Te puede interesar: Character.AI limita el acceso a menores tras una tragedia y crece la presiรณn por regular la inteligencia artificial
Segรบn la investigadora, el objetivo es alinearla con los estรกndares internacionales, como los de la OCDE, la UNESCO o el AI Act europeo, pero adaptรกndola a la institucionalidad argentina y al enfoque de derechos que vienen desarrollando trabajos acadรฉmicos de espacios como FLACSO.
โPor otro lado, tambiรฉn estรก la idea de la creaciรณn de un Sistema Federal de Gobernanza Algorรญtmica, un mecanismo de coordinaciรณn entre la naciรณn, provincias y municipios para unificar criterios, registros de sistemas, estรกndares tรฉcnicos y procedimientos de supervisiรณnโ, destacรณ la especialista en inteligencia artificial.
Esta propuesta surge como respuesta al diagnรณstico que se repite en todos los estudios: โSin articulaciรณn intergubernamental y sin una capacidad estatal estable, es imposible gestionar tecnologรญas tan sensiblesโ.




