Tecnologías emergentes, derechos humanos y protección de datos

La promesa de la inteligencia artificial choca con una advertencia ineludible: los algoritmos no son neutrales. A medida que las tecnologías emergentes ganan terreno en la administración pública y el sector privado, también crecen los riesgos para los derechos fundamentales. Este análisis examina cómo la automatización puede reproducir sesgos estructurales, vulnerar la privacidad y profundizar desigualdades. Frente a ello, se vuelve urgente repensar el diseño, la regulación y la transparencia de los sistemas algorítmicos.

IA, INNOVACIÓN Y TECNOLOGÍADESTACADOS

Martina Ribas Insaurralde

5/17/20253 min read

El rápido avance de las tecnologías emergentes transforma la relación entre los ciudadanos, las empresas y el Estado. Estas herramientas tienen el potencial de mejorar la eficiencia del Estado, optimizar servicios y automatizar la toma de decisiones. Sin embargo, cuando no son reguladas ni diseñadas con criterios equitativos, pueden vulnerar derechos fundamentales. Un ejemplo de esto son los peligros relacionados a la recopilación masiva de datos personales, de un ataque a la privacidad y la protección de datos sensibles. En este contexto, es importante visibilizar cómo estos algoritmos pueden producir sesgos existentes y vulnerar derechos.

Aunque la tecnología trajo innumerables beneficios, recién ahora se hacen evidentes las serias amenazas que representan para la protección de derechos fundamentales. El uso de machine learning y de la IA afectaría el derecho a un juicio justo, la privacidad, la libertad de expresión, la prohibición de la discriminacion, entre otros. Este tipo de vulneración de derechos puede acontecer de forma directa o indirecta mediante el uso de algoritmos.

Se podría considerar una afectación directa cuando está motivada por prejuicios o intolerancias que se hacen explícitas en la toma de decisiones. Sin embargo, también existen formas de afectación indirectas, menos visibles pero igual de preocupantes. En el ámbito tecnológico, se suele pensar que la tecnología y el acceso a la misma, es neutral. No obstante, se está evidenciando que por ejemplo, el origen etnico determina no solo el acceso sino que también aumenta las probabilidades de ser discriminado mediante decisiones automatizadas que reproducen desigualdades existentes.

Un caso ilustrativo es el uso de bots en entrevistas laborales, como menciona Eric Sadin. Estas herramientas pueden evaluar a los candidatos mediante análisis automatizados del lenguaje corporal o el tono de voz sin considerar el contexto humano, reproduciendo una vez más prejuicios y limitando el acceso a oportunidades.

Es un gran motivo de preocupación actual que los sistemas de algoritmos de aprendizaje reproduzcan los sesgos que están incorporados en los humanos. Esto es así dado que los conjuntos de datos son creados por los agentes y pueden estar sesgados. Por otro lado, también incluyen datos que fueron manipulados o distorsionados por sesgos que pueden aumentar las probabilidades de discriminación.

En este sentido, el diseño de las tecnologías emergentes requiere que los desarrolladores tomen decisiones las cuales siempre tienen consecuencias distributivas variables. Aunque consideramos a la tecnología como una herramienta neutral, en realidad refleja los valores e intereses de quienes la diseñan. Por eso tiende a reproducir las mismas desigualdades existentes en la sociedad.

El uso de datos para predecir comportamientos es uno de los avances más importantes del machine learning. Sin embargo, estos beneficios son aceptables en la medida en que los sesgos presentes en dichas decisiones sean transparentes y de público conocimiento. De lo contrario, cuando los algoritmos operan con sesgos ocultos o no controlados, existe un riesgo de que se vulneren derechos. En ese sentido es importante identificar y entrenar a los algoritmos con “training data” que sea precisa y prediga el resultado de forma certera.

Con todo esto en mente las posibles soluciones podrían ser transparentar la formación de algoritmos y generar herramientas que detecten y rectifiquen errores o posibles sesgos en la información. Otra posible solución es hacer un chequeo de la calidad de la información y cómo fue recolectada y utilizada en la formación de los algoritmos de modelos predictivos.

La tecnología tiene poder. Pero si elegimos bien, puede ser el poder que transforme. Podemos construir sistemas justos, inclusivos y transparentes que amplíen derechos. Podemos programar un futuro que tenga a la equidad y la inclusión como bases fundamentales.