10% OFF CON TRANSFERENCIA BANCARIA / HASTA 6 CUOTAS SIN INTERÉS A PARTIR DE $ 100.000 / ENVÍO GRATIS A TODO EL PAÍS


Por Lucas Moyano*

 

EL GOBIERNO DE LA PROVINCIA DE BUENOS AIRES PONE UN ESCUDO ÉTICO ANTE EL USO DE INTELIGENCIA ARTIFICIAL

¿LA IA ES EL FUTURO? NO, ES HOY

 

"El futuro llegó hace rato", decía la frase de Los Redondos (allá por 1987). Y es verdad. La Inteligencia Artificial se metió en nuestras vidas sin pedir permiso, pero de forma total. Hoy, la IA no es una película de ciencia ficción, es esa pieza central que usamos desde que revisamos el feed al despertar hasta que apagamos la tablet al acostarnos. Está en tu trabajo, en tus juegos y sí, hasta en cómo la administración pública resuelve trámites. Pero junto a estas promesas, también emergen complejos desafíos sobre su impacto futuro, la ética de su desarrollo y cómo garantizar que siempre beneficie a la sociedad.

Pero junto a esta tecnología increíble, surgen preguntas clave: si una máquina toma decisiones que nos afectan, ¿quién la controla? Y sobre todo, ¿quién le pone límites?

La Provincia de Buenos Aires dio el primer paso a esta pregunta. Aprobó unas "Reglas para el uso responsable de la IA" (Resolución 9/2025). El mensaje es claro y directo: la tecnología es una herramienta, no el jefe: La tecnología debe estar al servicio de las personas

El objetivo central de esta norma es proteger tus derechos fundamentales. La Provincia, al hacer esto, se une a un debate global y necesario, alineándose con los marcos éticos de la Unión Europea (Reglamento de Inteligencia Artificial de la UE (AI Act)), la OCDE y la Unesco.

La reglamentación fija un Escudo de Principios Claros:  Al darle un "norte" ético a la IA

Esta nueva regulación no busca frenar la innovación, sino darle una guía moral. Los principios son nuestra mejor defensa: Pensémoslo así:

 

1. Las Personas Van Primero ¡Siempre!

El punto de partida es el respeto por tus derechos humanos. Por muy eficiente que sea un algoritmo, nunca puede pasar por encima de tu dignidad.  Ej. si estás pidiendo una ayuda social o un turno médico, el algoritmo es solo un medio.

Entre sus objetivos centrales, la resolución publicada en el Boletín Oficial establece la protección de los derechos y garantías fundamentales de la ciudadanía y el uso “razonable y confiable” de estas tecnologías.

El nuevo marco también establece una clasificación de riesgos para los sistemas de IA:

  • Riesgo inaceptable, cuyo uso queda prohibido, como sistemas que manipulen comportamientos mediante técnicas subliminales, exploten vulnerabilidades o generen perfiles de “scoring social”;
  • Alto riesgo, que deberán cumplir requisitos estrictos y evaluaciones de impacto, como los sistemas de identificación biométrica, gestión de infraestructuras críticas, justicia o procesos laborales;
  • Riesgo limitado, como chatbots genéricos sin tratamiento de datos sensibles;
  • Riesgo nulo, con impacto insignificante sobre derechos o seguridad.

 

2. Transparencia: ¿Por Qué se tomó esa decisión?

La norma exige que la IA no sea una "caja negra". Si un sistema te rechaza un trámite, tienes el derecho a saber cómo llegó a esa conclusión. Esto se llama Transparencia y Trazabilidad, y genera confianza.

 

3.  Inclusión, Privacidad y protección de datos personales

Este punto es clave para vos. Los sistemas deben ser equitativos y evitar que los viejos sesgos (discriminación por género o clase social) se automaticen.

Lo más importante: debes tener el control de tus datos personales (Autodeterminación Informativa). La IA funciona con una sola cosa: tus datos. Cada like, cada búsqueda, es información. Por eso, la gestión de datos es el cimiento de la IA.

Es fundamental tener presente que este esfuerzo ético se superpone a la Ley Nacional de Protección de Datos Personales (Ley N° 25.326). La necesidad de su urgente actualización se hace evidente, ya que un marco legal moderno y robusto es indispensable para asegurar que los sistemas de IA cumplan con los más altos estándares de protección y seguridad en Argentina.

Si bien la tecnología promete grandes beneficios, lo cierto es que no por ello se encuentra exento de desafíos en su camino, que no podemos ignorar. No se trata solo de escribir la ley, sino de hacerla cumplir, y esto es especialmente complejo para los organismos públicos.

1. ¿Quién es el Responsable? (Responsabilidad Demostrada): Si la IA falla y alguien sufre un daño (por ejemplo, te niega un subsidio), ¿quién paga los platos rotos? ¿El funcionario? ¿El programador? La norma obliga a tener mecanismos CLAROS para auditar y señalar dónde estuvo la falla.

2. La Calidad de los Datos: La IA solo funciona con datos, y en el Estado, los datos suelen estar fragmentados o incompletos. Si los datos históricos con los que aprende un algoritmo reflejan desigualdades o sesgos sociales, el sistema de IA los va a perpetuar y amplificar, atentando directamente contra el principio de inclusión. El desafío es limpiar y estandarizar la información para asegurar que la IA sea un motor de equidad.

3. La Ley Camina, la Tecnología Corre: La IA evoluciona rapidísimo. El desafío es crear reglas que protejan tus derechos, pero que no queden obsoletas en seis meses.

 

4. Recursos y Capacitación Estatal

Para que el Estado pueda fiscalizar, auditar y hacer cumplir la norma, necesita personal cualificado (científicos de datos, expertos en ética algorítmica). Esto es un reto de inversión en el talento humano y en interoperabilidad (que los sistemas de las distintas oficinas hablen entre sí), ya que la falta de capacidad técnica genera el riesgo de una dependencia excesiva de los proveedores privados de tecnología.

Con sus beneficios y desafíos por delante la Provincia de Buenos Aires dio un paso fundamental. No solo regula el uso de la IA, sino que establece un espejo de los valores que queremos para nuestra sociedad en la era digital: la dignidad humana como eje principal.

Alinear estos principios con los del contexto internacional –donde iniciativas como Reglamento de Inteligencia Artificial de la UE (AI Act) demuestran que la regulación ética es posible–, construyendo así  una base sólida para que la IA sea una aliada y no una amenaza.

Es un primer paso, y como todo camino nuevo, requerirá esfuerzo y compromiso. Pero al poner la ética y la persona como eje, se está asegurando que esta poderosa herramienta tecnológica se encuentre para brindar un mejor servicio público al ciudadano.

A seguir pensando el futuro, que ya es hoy. 

  

* Especialista en Ciberdelitos y Evidencia Digital. Autor del Libro Ciberdelitos Como investigar en Entornos Digitales. Edición 1 y 2 Editorial Hammurabi.

 

Si desea participar de nuestra «Sección Doctrina», contáctenos aquí >>