El mandato negociador aprobado por 499 votos a favor, tan sólo 28 en contra y 93 abstenciones en el pleno celebrado en Estrasburgo (Francia), precisa reglas estrictas para la Inteligencia Artificial (AI) en la Unión Europea. Como parte de su estrategia digital, el enfoque está basado en el nivel de riesgo y restricciones en función de las posibilidades de afectación que presente: cuanto mayores sean éstas para los derechos humanos, la salud de las personas o el medioambiente, por ejemplo, mayores serán las obligaciones de los sistemas tecnológicos.
Además, los legisladores proponen la prohibición de los sistemas de IA de vigilancia biométrica, reconocimiento de emociones y vigilancia predictiva para vigilar espacios públicos. No obstante, Bruselas deja abierta la posibilidad para que esos reconocimientos biométricos se puedan utilizar en “circunstancias excepcionales” y cuando se persiga delitos graves, aunque tan sólo con aprobación judicial previa, algo sobre lo que ya han llamado la atención diferentes organismos cautelares de los Derechos Humanos, como Amnistía Internacional.
Pero hay más: la lista de alto riesgo propuesta por la UE incluye la IA en infraestructura crítica, educación, recursos humanos, orden público y gestión de la migración. Desde luego, ello implicará iniciar de inmediato delicadas negociaciones directas con los 27 países del bloque con la idea de tener un acuerdo sellado para finales de año. Pero la normativa, pese a tener su origen en una propuesta de abril de 2021, no entraría en vigor sino hasta 2026, y ello porque la UE deberá negociar también un marco provisional y voluntario con las empresas tecnológicas que desarrollan IA.
La difusión de imágenes falsas en redes sociales, creadas a partir de aplicaciones basadas en IA, como Midjourney, ha alertado sobre los riesgos de manipulación de la opinión pública y peligros latentes para la democracia. Y no es lo único: también existirán requisitos especiales para los sistemas de IA generativa, como ChatGPT y DALL-E, ambas con un vertiginoso desarrollo en el sector en el último lustro, y que son capaces de producir texto, imágenes, códigos, audios y otros medios, por lo que incluirá la obligación de informar a los usuarios que una máquina -y no un ser humano- produjo el contenido.
No obstante, éste resultó ser uno de los puntos más polémicos del debate que ha tenido lugar en el Parlamento Europeo en torno a este cuerpo legal absolutamente pionero, que propone que los sistemas de IA que puedan utilizarse en distintas aplicaciones, se analicen y clasifiquen según los “estándares de seguridad y libertad”, intentando, según aseguran los eurodiputados, que la tecnología NO se use con “fines represivos, de manipulación o propósitos discriminatorios”. Además, los sistemas deberán ser seguros, transparentes y trazables, ser supervisados por personas en lugar de por la tecnología de la automatización como una forma de evitar resultados perjudiciales.
Los sistemas de IA de riesgo inaceptable son los que se consideran una amenaza para las personas y serán prohibidos. Incluyen: manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos (por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños); clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales; sistemas de identificación biométrica en tiempo real y a distancia, tal como el reconocimiento facial.
Aunque existen algunas excepciones a esta calificación. Por ejemplo, los sistemas de identificación biométrica a distancia aplicados “a posteriori”, en los que la identificación se produce tras un retraso significativo. Así también, se considerarán de alto riesgo los sistemas de IA que afecten negativamente productos sujetos a la legislación de la UE sobre seguridad de los mismos, lo que incluye juguetes, aviación, automóviles, dispositivos médicos y ascensores. Todos los sistemas de IA de alto riesgo serán evaluados antes de su comercialización y a lo largo de su ciclo de vida.
Finalmente, deberán registrarse en una base de datos de la UE los sistemas de IA pertenecientes a ocho ámbitos específicos: identificación biométrica y categorización de personas físicas; gestión y explotación de infraestructuras críticas; educación y formación profesional; empleo, gestión de trabajadores y acceso al autoempleo; acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas; gestión de la migración, el asilo y el control de fronteras; asistencia en la interpretación jurídica y aplicación de la ley.