Regular la IA: modelos globales y desafíos latinoamericanos

El avance de la inteligencia artificial ha generado un debate global sobre sus implicancias éticas, sociales y económicas. Mientras que China, Estados Unidos y la Unión Europea optan por modelos regulatorios distintos, América Latina busca un camino propio. En este contexto, la región tiene una oportunidad única para diseñar un marco de gobernanza que equilibre innovación, protección de derechos y realidades sociales locales, evitando así convertirse en un mero receptor de normas externas.

DESTACADOSIA, INNOVACIÓN Y TECNOLOGÍAINSTITUCIONES Y GOBIERNO

Agustina Acosta

9/11/20253 min read

La inteligencia artificial (IA) se ha convertido en un eje central del debate global, no solo por su impacto tecnológico, sino por sus implicancias económicas, éticas y sociales. Diferentes regiones han adoptado enfoques regulatorios diversos: la Unión Europea (UE) apuesta por un marco integral y vinculante; Estados Unidos (EE.UU.) opta por un modelo fragmentado y sectorial; y China combina agilidad normativa con fuerte control estatal. En América Latina, aunque el marco regulatorio es incipiente, crece el interés por desarrollar políticas propias que equilibren innovación, protección de derechos y realidades locales, buscando un camino que no dependa exclusivamente de los modelos extranjeros.

Tres modelos en pugna

La UE, mediante su Acta de IA, busca establecer un estándar global de regulación, similar a lo que logró con el Reglamento General de Protección de Datos (GDPR, por sus siglas en inglés). El Acta, al igual que GDPR, es un reglamento, por lo cual es directamente aplicable en todos los Estados miembros de la UE sin necesidad de adoptarlo a través de legislación nacional. Esta norma clasifica los sistemas de IA según su nivel de riesgo, prohibiendo aquellos de “riesgo inaceptable”, como sistemas de puntuación social y el reconocimiento facial en vivo en espacios públicos. Mientras tanto, los sistemas “de alto riesgo” enfrentan estrictas obligaciones de transparencia y supervisión humana. Además, se establecen requisitos específicos para la IA generativa, como ChatGPT, tales como informar que el contenido fue creado por IA. De este modo, su objetivo es proteger derechos fundamentales y consolidarse como referencia global, apostando a una regulación temprana y amplia para influir en prácticas internacionales.

A diferencia del enfoque integral de la UE, la regulación de IA en EE.UU. es fragmentada y sectorial. La idea es permitir que la tecnología madure antes de imponer normativas estrictas. Existen principios éticos y guías de organismos públicos y privados, así como proyectos de ley a nivel federal y estatal, pero ninguno es tan amplio como el Acta de IA europea. A nivel federal, la Orden Ejecutiva sobre IA, emitida por el ex presidente Biden, buscaba promover un desarrollo de la IA ético y seguro, centrado en la privacidad y los derechos civiles. No obstante, la administración de Trump revirtió en gran medida estas políticas, priorizando la competitividad y un enfoque unilateral a través de la desregulación. Este cambio podría disminuir la influencia de EE. UU. en el debate regulatorio global, y las empresas estadounidenses se verán en la necesidad de adaptarse al Acta de la UE para acceder al mercado europeo y mantener su competitividad.

El enfoque de China, por su parte, es multifacético, basándose en leyes existentes y regulaciones específicas en lugar de una única norma de IA. Su modelo regulatorio es ágil: publica borradores, ajusta reglas tras consultas con empresas y academia y se adapta rápidamente a tecnologías emergentes. Muchas disposiciones incluyen requisitos de transparencia similares al Acta europea, como la etiqueta de contenido generado por IA, la identificación de deepfakes y la notificación al público sobre el uso de IA en servicios. Sin embargo, una característica clave de la regulación china es el énfasis en el control estatal. En este sentido, Xi Jinping subrayó la importancia de asegurar que el desarrollo de la IA refleje los “valores centrales del socialismo y no contenga contenido que implique la subversión del poder del Estado”.

Un camino propio: la respuesta latinoamericana

En contraste con los modelos de gobernanza mencionados, el marco regulatorio de la IA en Latinoamérica es incipiente y fragmentado. No obstante, la mayoría de los países latinoamericanos proponen regulaciones inspiradas en el Acta de IA de la UE. En algunos países, como Argentina y Brasil, existen proyectos orientados tanto a una regulación general como a ámbitos específicos. Otros países, como Chile, Costa Rica y Colombia, contemplan la creación de autoridades especializadas encargadas de supervisar y fiscalizar la implementación y el desarrollo de estas tecnologías. De este modo, la IA comienza a ocupar un lugar central en la agenda legislativa latinoamericana, en un contexto donde ya impacta el empleo, los servicios públicos y los procesos democráticos.

Frente a este panorama, numerosos analistas consideran que el mensaje es claro y urgente: América Latina necesita su propia hoja de ruta. La región tiene la oportunidad de liderar, elaborando sus propias regulaciones de IA en lugar de limitarse a importar marcos regulatorios extranjeros o empezar desde cero. Para lograrlo, es crucial tomar como referencia los modelos globales, pero adaptándolos a sus necesidades y valores locales. Esto supone diseñar marcos flexibles y conscientes de realidades como la desigualdad estructural, la informalidad laboral y la diversidad cultural y lingüística.

Los próximos años serán decisivos: la polarización del panorama regulatorio global entre la UE, EE.UU. y China abre una ventana única para que América Latina trace un camino alternativo, evitando quedar relegada a mera receptora de normas externas. Solo mediante la cooperación entre gobiernos, sector privado y sociedad civil será posible construir un marco que oriente la IA hacia un futuro digital más inclusivo, equitativo y justo.