El Parlamento Europeo ha aprobado recientemente la Ley de Inteligencia Artificial, también conocida como reglamento europeo de inteligencia artificial, que marcará un precedente a nivel mundial. Tiene como objetivo garantizar la seguridad y el respeto de los derechos fundamentales. A la vez que se impulsa la innovación empresarial. Este reglamento fija una serie de obligaciones para la IA en función de sus riesgos potenciales. La Ley clasifica los sistemas de inteligencia artificial según el nivel de riesgo que representan. Se trata de la primera ley relativa a la Inteligencia Artificial aprobada por un regulador importante. En este artículo analizamos todo lo que es necesario saber respecto a este nuevo reglamento.
La Ley de Inteligencia Artificial es un reglamento europeo que tiene con objetivo la regulación de la IA. Es la primera regulación importante sobre IA, y busca que las diferentes ramas de la Inteligencia Artificial tengan un impacto positivo en nuestra vida. Es decir, limitar los posibles usos negativos que puedan existir. El Parlamento Europeo aprobó esta ley el 13 de marzo de 2024, por una gran mayoría. 523 votos a favor, 49 abstenciones y sólo 46 en contra. La Ley divide los sistemas de IA en categorías, en función del riesgo potencial que suponen para la sociedad. Y a los que se considera de alto riesgo se les aplican normas estrictas antes de que puedan entrar en el mercado de la UE.
Esta ley de IA busca limitar los posibles usos negativos y maximizar los beneficios de la tecnología
Las normas serán de aplicación obligatoria un año después de la aprobación, y de tres años para las obligaciones de los sistemas de alto riesgo. Estos sistemas estarán bajo la supervisión de las autoridades nacionales. Con el apoyo de la oficina de IA de la Comisión Europeo. Así pues, son los países de la Unión Europea los que deberán crear agencias nacionales de supervisión.
La ley clasifica las aplicaciones de IA en cuatro categorías de riesgo: inaceptable, alto, limitado y mínimo. Se prohíben directamente las aplicaciones y sistemas considerados de riesgo inaceptable. Las aplicaciones de alto riesgo están sujetas a requisitos legales específicos, que se deberán aplicar antes de su entrada en el mercado. El resto, por el momento, quedan en gran medida sin regular.
La Ley de Inteligencia Artificial es un paso hacia un futuro más seguro y ético en el desarrollo y uso de la IA, estableciendo un marco regulatorio que fomenta la transparencia, la responsabilidad y la protección de los derechos.
La Ley de Inteligencia Artificial prohíbe las aplicaciones de IA consideradas de riesgo inaceptable. Por ejemplo, la identificación biométrica remota en tiempo real en espacios públicos o los sistemas de puntuación social. También la captura indiscriminada de imágenes faciales de internet o las grabaciones de cámaras de vigilancia. Son, en resumen, las aplicaciones que atentan contra los derechos de la ciudadanía.
La regulación de la IA establece estrictos requisitos de transparencia, seguridad y supervisión humana para los sistemas de IA considerados de alto riesgo. Se consideran de alto riesgo cuando realizan perfiles de las personas. Es decir, el tratamiento automatizado de datos personales para evaluar distintos aspectos de la vida de las personas. Ya sea vinculados a salud, rendimiento laboral, intereses, comportamiento o movimientos.
Los proveedores de IA deben realizar evaluaciones de conformidad, mantener registros y proporcionar información detallada sobre el uso y funcionamiento de sus sistemas. Tendrán la obligación, pues, de establecer un sistema de gestión de riesgos del sistema de IA. Y llevar a cabo la gobernanza de los datos, además de un sistema de gestión de calidad que garantice su cumplimiento. Los proveedores deben detallar qué datos y métodos sus sistemas de IA utilizan para entrenar y operar con transparencia.
La nueva Ley de Inteligencia Artificial garantiza los derechos a los usuarios, al instar a incluir información sobre el uso de IA. Pero también porque se establecen los mecanismos necesarios para presentar quejas y solicitar compensación. Uno de los objetivos principales es, de esta forma, asegurar la protección y la seguridad de los ciudadanos.
La ley también crea mecanismos para la supervisión y cumplimiento de la ley. Esto incluye la creación de una junta de supervisión de IA, y sistemas de supervisión a nivel nacional y europeo. Estas agencias contarán con la colaboración de expertos independientes para evaluar la eficacia y riesgos de los sistemas de IA. En España, por ejemplo, se ha presentado ya la Agencia Española de Supervisión de la Inteligencia Artificial, que tendrá su sede en A Coruña.
La Oficina Europea de Inteligencia Artificial será la encargada de coordinar y apoyar a las agencias nacionales
Uno de los principios que establece la nueva Ley de Inteligencia Artificial impulsada por el parlamento europeo es que requiere que los sistemas de IA sean transparentes y explicables. Esto debe permitir a los usuarios saber cómo y por qué se toman decisiones automatizadas. Así pues, se deben publicar resúmenes detallados del contenido que se usa para entrenar a los modelos de IA. Y, en el caso de los modelos de más riesgo, realizar evaluaciones adicionales, analizar los principales riesgos e informar sobre los incidentes. Además, se obliga a identificar claramente las imágenes, contenidos de audio o vídeo que son artificiales o manipulados (ultrafalsificaciones). Esto también tiene implicaciones directas en los derechos de autor, ya que se deberá informar si los contenidos han sido generados o modificados mediante IA.»
Se establecen «sandboxes» regulatorios para fomentar la innovación y pruebas controladas de nuevas tecnologías de IA. De esta forma, se pone a disposición de las pyme y empresas emergentes espacios controlados de pruebas y ensayos para poder desarrollar y entrenar la IA.
Está claro que uno de los principales retos que presenta el desarrollo de la Inteligencia Artificial es el de la protección de datos. Es por ese motivo que la nueva Ley de Inteligencia Artificial refuerza especialmente la protección de datos y la privacidad en el uso de sistemas de IA.
La nueva Ley también tiene como objetivo fomentar la cooperación internacional en la regulación y desarrollo de IA. Se reconoce la necesidad de alinearse a nivel mundial en la gobernanza de la IA. Europa busca convertirse en un referente mundial en materia de inteligencia artificial, promoviendo estándares éticos globales. A nivel europeo, también deberán establecerse normas armonizadas para garantizar coherencia entre los Estados miembros.
Así pues, la Ley de Inteligencia Artificial es un paso importante hacia un futuro más seguro y ético en el desarrollo y uso de la IA. Establece un marco regulatorio que fomenta la transparencia, la responsabilidad y la protección de los derechos fundamentales. Además de promover una innovación tecnológica responsable. Se espera que su implementación tenga un impacto significativo, posicionando a Europa como un líder global en la regulación de IA. Y que, además de minimizar riesgos, garantice que los avances tecnológicos son en beneficio de la sociedad en su conjunto. La meta es garantizar que el desarrollo tecnológico nunca comprometa la seguridad o los derechos fundamentales de la ciudadanía.