Producto del avance voraz y revolucionario de los sistemas de Inteligencia Artificial (IA) y las transformaciones disruptivas que estas tecnologías están produciendo en la economía pero también en la vida privada de las personas, la Cámara de Diputados comenzó tímidamente a ofrecer propuestas de regulaciones que apuntan a salvaguardar un entorno digital seguro.
Días atrás, el diputado nacional de Unión por la Patria, Diego Giuliano, presentó un proyecto de ley que busca dotar un marco regulatorio de la IA basado en el vanguardista modelo de la Unión Europea, que hizo punta en 2024 al aprobar la primera ley en la materia.
El modelo europeo: riesgos, multas millonarias y protección de datos
El AI Act europeo clasifica los sistemas de IA de acuerdo al nivel de riesgos o amenazas que representan para la sociedad, especialmente en lo que concierne a la protección de datos personales y de la vida privada. Por otra parte, la Comisión Europea tiene la facultad de aplicar multas económicas a las empresas que violen el AI Act de hasta 38 millones de dólares o el 7% de sus ingresos anuales globales (lo que sea mayor).
“Al establecer un equilibrio entre la innovación y la protección de derechos, la UE está liderando el camino hacia un futuro donde la IA puede desarrollarse de manera segura, ética y beneficiosa para toda la sociedad”, opinó Giuliano en los fundamentos de su proyecto.
Argentina puede ser la primera de Latinoamérica
En México, Chile y Brasil también se han presentado proyectos para regular la IA, pero aún no han dado sus frutos, por lo que Argentina tiene la oportunidad de convertirse en el primer país de Latinoamérica en dar el salto hacia adelante. Es un debate abierto, que dispara opiniones concordantes y disonantes: los detractores de la regulación de la IA sostienen que la injerencia del Estado a través de normativas ahoga y conspira contra la innovación tecnológica y la competitividad económica.
Otro argumento en contra de la regulación es que la tecnología va más rápido que la construcción de leyes, por lo que cada avance normativo nace muerto. Sin embargo, son muchas y cada vez más las voces que advierten que sin regulación de los sistemas de IA se puede abrir un panorama muy ominoso y amenazante para los derechos humanos, la privacidad y la seguridad de los ciudadanos.
El entrecruzamiento de datos: “La intimidad es una quimera”
Giuliano sostiene que su iniciativa abreva en un “enfoque proactivo que no solo protegerá los derechos de los ciudadanos, sino que también fomentará un entorno de innovación seguro y ético”. El legislador massista llega al extremo de plantear que con el grado de penetración de la IA en la sociedad, lo que está en juego es si la humanidad va a seguir teniendo una vida privada separada de su vida pública.
“Uno o dos datos personales, o diez datos sobre una persona, resultan inofensivos y no determinativos de la personalidad, pero el entrecruzamiento de los casi trescientos registros digitales que, según se dice, genera un ciudadano hoy en día hacen de la intimidad una verdadera quimera”, alertó. “La robotización de las bases de datos las hace incontrolables y capaces de diseñar perfiles o parámetros exactos de cada ciudadano. Estamos hablando de una intrusión masiva, de un avance nuevo y antaño insospechado sobre la intimidad de las personas”, señaló.
Los detalles del proyecto: registro nacional, categorización por riesgo y prohibiciones
La iniciativa propone la creación de un Registro Nacional de Sistemas de Inteligencia Artificial, del cual se va a hacer responsable la autoridad de aplicación designada por el Poder Ejecutivo. Para poder operar en Argentina, un nuevo sistema de IA deberá inscribirse en este registro informando “sobre los propósitos, objetivos, ámbitos de aplicación, algoritmos utilizados y medidas de seguridad implementadas”.
Como en la normativa europea, el proyecto de Giuliano propone categorizar a los sistemas de IA en tres niveles de riesgo: alto, medio y bajo. La autoridad de aplicación tendrá la obligación de prohibir los sistemas de IA que:
-
Desplieguen técnicas subliminales, manipuladoras o engañosas
-
Exploten vulnerabilidades relacionadas con la edad, la discapacidad o las circunstancias socioeconómicas
-
Incluyan sistemas de categorización biométrica que infieran atributos sensibles (raza, opiniones políticas, afiliación sindical, creencias religiosas, vida sexual u orientación sexual)
-
Realicen puntuación social (evaluar o clasificar a individuos o grupos basándose en comportamientos sociales o rasgos personales)
-
Evalúen el riesgo de que un individuo cometa delitos penales basándose únicamente en perfiles o rasgos de personalidad
-
Compilen bases de datos de reconocimiento facial mediante el raspado no selectivo de imágenes faciales de Internet o de grabaciones de CCTV
Plazos de adaptación y sanciones
La autoridad de aplicación llevará a cabo evaluaciones periódicas de los sistemas de IA, debiendo realizar auditorías, solicitar información adicional, incorporar nuevos sistemas de IA a la clasificación según el nivel de riesgo y establecer las sanciones correspondientes. Los sistemas de inteligencia artificial que se encuentren en funcionamiento en el país en el momento de entrada en vigor de esta ley deberán adaptarse a sus disposiciones en un plazo máximo de seis meses.




