Delegaciones Contacto
7 Congreso de Directivos
Inscríbetey revive la experiencia del año en APD. En LA NUEVA EMPRESA GLOBAL analizamos, de la mano de +60 expertos, cuáles son las claves para competir en el mundo actual.
Artículo

Todo sobre la Ley de Inteligencia Artificial: ¿qué debes saber?

El Parlamento Europeo ha aprobado recientemente la Ley de Inteligencia Artificial. Que tiene como objetivo garantizar la seguridad y el respeto de los derechos fundamentales. A la vez que se impulsa la innovación empresarial. Este reglamento fija una serie de obligaciones para la IA en función de sus riesgos potenciales. Y se convierte, de esta forma, en la primera ley relativa a la Inteligencia Artificial aprobada por un regulador importante. En este artículo analizamos todo lo que es necesario saber respecto a este nuevo reglamento.

¿Qué es la Ley de Inteligencia Artificial de la UE?

La Ley de Inteligencia Artificial es un reglamento europeo que tiene con objetivo la regulación de la IA. Es la primera regulación importante sobre IA, y busca que las diferentes ramas de la Inteligencia Artificial tengan un impacto positivo en nuestra vida. Es decir, limitar los posibles usos negativos que puedan existir. El Parlamento Europeo aprobó esta ley el 13 de marzo de 2024, por una gran mayoría. 523 votos a favor, 49 abstenciones y sólo 46 en contra. La Ley divide los sistemas de IA en categorías, en función del riesgo potencial que suponen para la sociedad. Y a los que se considera de alto riesgo se les aplican normas estrictas antes de que puedan entrar en el mercado de la UE.

Las normas serán de aplicación obligatoria un año después de la aprobación. Y de tres años para las obligaciones de los sistemas de alto riesgo. Estos sistemas estarán bajo la supervisión de las autoridades nacionales. Con el apoyo de la oficina de IA de la Comisión Europeo. Así pues, son los países de la Unión Europea los que deberán crear agencias nacionales de supervisión.

¿Cuáles son los puntos más importantes?

1. Definición y clasificación del riesgo

La ley clasifica las aplicaciones de IA en cuatro categorías de riesgo: inaceptable, alto, limitado y mínimo. Se prohíben directamente las aplicaciones y sistemas considerados de riesgo inaceptable. Las aplicaciones de alto riesgo están sujetas a requisitos legales específicos, que se deberán aplicar antes de su entrada en el mercado. El resto, por el momento, quedan en gran medida sin regular.

La Ley de Inteligencia Artificial es un paso hacia un futuro más seguro y ético en el desarrollo y uso de la IA, estableciendo un marco regulatorio que fomenta la transparencia, la responsabilidad y la protección de los derechos.

2. Prohibiciones

La Ley de Inteligencia Artificial prohibe las aplicaciones de IA consideradas de riesgo inaceptable. Por ejemplo, la vigilancia biométrica en tiempo real en espacios públicos o los sistemas de puntuación social. También la captura indiscriminada de imágenes faciales de internet o las grabaciones de cámaras de vigilancia. Son, en resumen, las aplicaciones que atentan contra los derechos de la ciudadanía.

3. Requisitos para IA de alto riesgo

La regulación de la IA establece estrictos requisitos de transparencia, seguridad y supervisión humana para los sistemas de IA considerados de alto riesgo. Se consideran de alto riesgo cuando realizan perfiles de las personas. Es decir, el tratamiento automatizado de datos personales para evaluar distintos aspectos de la vida de las personas. Ya sea vinculados a salud, rendimiento laboral, intereses, comportamiento o movimientos.

4. Obligaciones para proveedores

Los proveedores de IA deben realizar evaluaciones de conformidad, mantener registros y proporcionar información detallada sobre el uso y funcionamiento de sus sistemas. Tendrán la obligación, pues, de establecer un sistema de gestión de riesgos del sistema de IA. Y llevar a cabo la gobernanza de los datos, además de un sistema de gestión de calidad que garantice su cumplimiento.

ley de inteligencia artificial

5. Derechos de los usuarios

La nueva Ley de Inteligencia Artificial garantiza los derechos a los usuarios, al instar a incluir información sobre el uso de IA. Pero también porque se establecen los mecanismos necesarios para presentar quejas y solicitar compensación. Uno de los objetivos principales es, de esta forma, asegurar la protección y la seguridad de los ciudadanos.

6. Supervisión y cumplimiento

La ley también crea mecanismos para la supervisión y cumplimiento de la ley. Esto incluye la creación de una junta de supervisión de IA, y sistemas de supervisión a nivel nacional y europeo. En España, por ejemplo, se ha presentado ya la Agencia Española de Supervisión de la Inteligencia Artificial, que tendrá su sede en A Coruña.

7. Transparencia y explicabilidad

Uno de los principios que establece la nueva Ley de Inteligencia Artificial impulsada por el parlamento europeo es que requiere que los sistemas de IA sean transparentes y explicables. Esto debe permitir a los usuarios cómo y por qué se toman decisiones automatizadas. Así pues, se deben publicar resúmenes detallados del contenido que se usa para entrenar a los modelos de IA. Y, en el caso de los modelos de más riesgo, realizar evaluaciones adicionales, analizar los principales riesgos e informar sobre los incidentes. Además, se obliga a identificar claramente las imágenes, contenidos de audio o vídeo que son artificiales o manipulados (ultrafalsificaciones).

8. Apoyo a la innovación

Se establecen «sandboxes» regulatorios para fomentar la innovación y pruebas controladas de nuevas tecnologías de IA. De esta forma, se pone a disposición de las pyme y empresas emergentes espacios controlados de pruebas y ensayos para poder desarrollar y entrenar la IA.

9. Protección de datos

Está claro que uno de los principales retos que presenta el desarrollo de la Inteligencia Artificial es el de la protección de datos. Es por ese motivo que la nueva Ley de Inteligencia Artificial refuerza especialmente la protección de datos y la privacidad en el uso de sistemas de IA.

10. Cooperación internacional

La nueva Ley también tiene como objetivo fomentar la cooperación internacional en la regulación y desarrollo de IA. Se reconoce la necesidad de alinearse a nivel mundial en la gobernanza de la IA. Y, además, se busca posicionar a Europa como líder en el desarrollo ético y sostenible de las tecnologías de IA.

Así pues, la Ley de Inteligencia Artificial es un paso importante hacia un futuro más seguro y ético en el desarrollo y uso de la IA. Establece un marco regulatorio que fomenta la transparencia, la responsabilidad y la protección de los derechos fundamentales. Además de promover una innovación tecnológica responsable. Se espera que su implementación tenga un impacto significativo, posicionando a Europa como un líder global en la regulación de IA. Y que, además de minimizar riesgos, garantice que los avances tecnológicos son en beneficio de la sociedad en su conjunto.

Te puede interesar
Categorías
Gracias por tu participación
Comparte el manifiesto y contribuye a impulsar la innovación entre empresas, organizaciones y directivos.
Ahora estás visualizando el contenido de APD zona centro.
Si lo deseas puedes acceder a los contenidos adaptados a tu zona geográfica