Regular la inteligencia artificial en el Estado: un primer paso con desafíos abiertos

La Provincia de Buenos Aires aprobó el primer reglamento obligatorio para el uso de inteligencia artificial en una administración pública en Argentina. Inspirado en el modelo europeo de clasificación por riesgos, el marco busca ordenar la incorporación de algoritmos en el Estado, proteger derechos fundamentales y anticipar conflictos jurídicos. Sin embargo, la experiencia reciente de la Unión Europea plantea una pregunta clave: ¿puede una regulación ambiciosa sostenerse sin generar rigideces, sobrecostos y problemas de implementación en contextos institucionales frágiles?

DESTACADOSIA, INNOVACIÓN Y TECNOLOGÍAINSTITUCIONES Y GOBIERNO

Irina Wacs

12/22/20253 min read

La incorporación de sistemas de inteligencia artificial en la gestión pública avanzó en Argentina sin un marco normativo que estableciera reglas claras sobre su uso. Algoritmos comenzaron a intervenir en trámites, procesos administrativos y decisiones asistidas, mientras el Estado carecía de parámetros comunes para regular su funcionamiento. En este contexto, la Resolución 9/2025 de la Provincia de Buenos Aires marca un hito institucional al convertirse en la primera norma obligatoria que regula de manera integral el uso de la IA en una administración pública. Por primera vez, la IA deja de ser solo una herramienta de gestión para convertirse en un objeto de regulación estatal.

El reglamento se inscribe en debates globales sobre la gobernanza de la IA, inspirándose en estándares internacionales orientados a compatibilizar innovación y protección de derechos. En este marco, el uso de IA en el Estado exige reglas claras, límites preventivos y mecanismos de control orientados a garantizar transparencia, equidad y responsabilidad pública.

El reglamento bonaerense y su lógica de gobernanza

El reglamento bonaerense no se limita a habilitar el uso de IA en la administración pública, sino que establece una serie de principios orientados a ordenar su desarrollo y aplicación. El foco no está puesto en la tecnología en sí misma, sino en sus efectos. En este sentido, la norma prioriza la centralidad de la persona humana, la protección de datos personales, la transparencia, la trazabilidad y la responsabilidad de los actores que intervienen en el ciclo de vida de los sistemas de IA.

Uno de los aspectos centrales del reglamento es la adopción de un modelo de clasificación por niveles de riesgo, inspirado en el esquema desarrollado por la Unión Europea. Siguiendo este enfoque, la norma distingue entre sistemas de riesgo “inaceptable, alto, limitado y nulo”. Aquellos considerados de riesgo inaceptable quedan expresamente prohibidos, mientras que los sistemas de menor impacto pueden utilizarse bajo determinadas condiciones relativas, siempre que no afecten derechos ni garantías básicas.

Para los sistemas identificados como de alto riesgo, el reglamento introduce obligaciones reforzadas. Antes de su implementación, los organismos públicos deberán realizar una “Evaluación de Impacto Algorítmico” orientada a anticipar posibles daños legales, éticos, sociales o técnicos. Esta herramienta funciona como un filtro preventivo frente a decisiones automatizadas que podrían afectar derechos individuales o colectivos.

Por último, la norma refuerza la transparencia hacia la ciudadanía. Todo organismo que utilice sistemas de IA para interactuar directamente con las personas tiene la obligación de informar, de manera clara y previa, que se trata de una interacción automatizada. A ello se suma la creación del Registro de Inteligencia Artificial, que permitirá identificar qué tecnologías se utilizan en el Estado, en qué condiciones y con qué responsables. De este modo, se fortalecen los mecanismos de control y rendición de cuentas.

El espejo europeo: inspiración, advertencias y proyección

El modelo adoptado por la Provincia de Buenos Aires no surge del vacío, sino que retoma la arquitectura desarrollada por la UE. Sin embargo, la experiencia del bloque demuestra que la ambición normativa no siempre se traduce en una implementación sencilla. La complejidad del marco regulatorio, la ausencia de estándares técnicos definitivos y los costos de cumplimiento generaron demoras y pedidos de flexibilización.

Este recorrido ofrece una advertencia relevante para las jurisdicciones que toman a la UE como modelo. Adoptar su estructura regulatoria implica asumir el riesgo de trasladar sus rigideces. Regular la IA no se agota en la definición de principios o esquemas de clasificación, sino que exige capacidades institucionales suficientes para sostenerlos en el tiempo. Sin estructuras técnicas adecuadas, recursos humanos especializados y mecanismos claros de implementación, incluso regulaciones bien diseñadas pueden quedar atrapadas entre el formalismo normativo y la dificultad de aplicación efectiva.

En esa misma línea, emerge el riesgo de sobrerregulación. Cargas normativas excesivas pueden ralentizar la adopción tecnológica y desalentar la innovación, incluso dentro del sector público. En contextos latinoamericanos con capacidades institucionales más frágiles, estas tensiones se intensifican.

Aun con esos límites, el valor político del paso dado no debe subestimarse. El reglamento bonaerense introduce principios clave para la gobernanza algorítmica en el sector público, refuerza el control humano sobre las decisiones automatizadas y consolida la rendición de cuentas en el uso de tecnologías emergentes. Desde una perspectiva más amplia, la Resolución 9/2025 marca un punto de inflexión en la relación entre tecnología y Estado en Argentina. La pregunta ya no es si regular la IA en el sector público, sino cómo hacerlo de manera viable y flexible, sin reproducir las rigideces que hoy enfrenta el modelo europeo.