El 1 de agosto de 2024, entró en vigor el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.° 300/2008, (UE) n.° 167/2013, (UE) n.° 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial) (Texto pertinente a efectos del EEE), al que en adelante nos referiremos como Ley de Inteligencia Artificial IA de la UE, o Ley de IA. La norma afecta a los veintisiete Estados miembros de la Unión Europea, entre ellos España. En el blog de SAIMA SYSTEMS, te explicamos los aspectos esenciales que regula esta normativa: objetivos, plazos de aplicación, régimen sancionador, etc. Informaciones necesarias para prever cómo afectará la norma a las empresas y compañías en sus procesos de transformación digital. En este sentido, las empresas deben estar especialmente atentas a la categorización de los niveles de riesgo para los distintos sistemas y aplicaciones de IA. Y también sobre las obligaciones de las compañías en relación con los derechos de los ciudadanos en materia de información sobre la utilización de sistemas IA.
La Ley de IA es la primera regulación a nivel mundial sobre inteligencia artificial. Tras años de negociación, en diciembre de 2023, los Estados miembros alcanzaban un acuerdo en esta pionera y compleja normativa que persigue un difícil equilibrio entre la protección de los derechos de la ciudadanía, el uso ético de esta tecnología, y, a la vez, la potenciación de su desarrollo e innovación.
Índice de contenidos
2. Niveles de riesgo de los sistemas IA
3. Plazos de implementación de la Ley de IA: aplicación progresiva
Objetivo de la Ley de IA
La Ley de IA tiene la finalidad de ofrecer a los desarrolladores e implementadores de IA requisitos y obligaciones claras sobre los usos específicos de la IA. Desde la Comisión Europea, se apunta que “el Reglamento pretende reducir las cargas administrativas y financieras para las empresas, en particular las pequeñas y medianas empresas (pymes)”.
Según se recoge en el comunicado oficial emitido por la Comisión Europea: “la Ley de IA es el primer marco jurídico integral sobre IA en todo el mundo. El objetivo de las nuevas normas es fomentar una IA fiable en Europa y fuera de ella, garantizando que los sistemas de IA respeten los derechos fundamentales, la seguridad y los principios éticos y abordando los riesgos de modelos de IA muy potentes e impactantes”.
Las normas de la legislación europea de IA abordan aspectos como:
- Los riesgos creados específicamente por las aplicaciones de IA.
- La prohibición de las prácticas de IA que planteen “riesgos inaceptables”.
- La determinación de una lista de solicitudes de alto riesgo en IA.
- El establecimiento de requisitos claros para los sistemas de IA para aplicaciones de alto riesgo.
- Las obligaciones específicas para los implementadores y proveedores de aplicaciones de IA de alto riesgo.
- La evaluación previa, antes de que un sistema de IA determinado se ponga en servicio o se introduzca en el mercado.
- El establecimiento de una estructura de gobernanza a escala europea y nacional.
Hay que tener en cuenta que la Ley forma parte de un paquete más amplio de medidas políticas para apoyar el desarrollo de una IA fiable. A su vez, se incluye el paquete de innovación en materia de IA y el plan coordinado sobre IA. (Más información en Apartado 4)
Niveles de riesgo de la IA
La Ley plantea tres niveles de riesgo para los sistemas de IA. Para los supuestos más restrictivos, la norma prohíbe todos los sistemas de inteligencia artificial que supongan una clara amenaza para la seguridad, los medios de vida y los derechos de las personas. Aquí se incluyen desde los sistemas que propongan una puntuación social por parte de los gobiernos, hasta los juguetes que utilicen asistencia de voz y que fomenten comportamientos peligrosos.
Alto riesgo
Los sistemas de IA identificados como de alto riesgo incluyen la tecnología de IA utilizada en:
- Infraestructuras críticas (por ejemplo, el transporte), que podrían poner en peligro la vida y la salud de los ciudadanos.
- Formación educativa o profesional, que puede determinar el acceso a la educación y el curso profesional de la vida de una persona (por ejemplo, puntuación de los exámenes).
- Componentes de seguridad de los productos (por ejemplo, aplicación de IA en cirugía asistida por robot).
- En empleo y gestión de trabajadores y acceso al trabajo por cuenta propia (por ejemplo, software de clasificación de CV para procedimientos de contratación).
- Servicios públicos y privados esenciales (por ejemplo, calificación crediticia que niega a los ciudadanos la oportunidad de obtener un préstamo).
- Aplicación de la ley que pueda interferir con los derechos fundamentales de las personas (por ejemplo, evaluación de la fiabilidad de las pruebas).
- Gestión de la migración, el asilo y el control fronterizo (por ejemplo, examen automatizado de las solicitudes de visado).
- Administración de justicia y procesos democráticos (por ejemplo, soluciones de IA para buscar resoluciones judiciales).
Estos sistemas de IA de alto riesgo estarán sujetos a evaluaciones y obligaciones estrictas antes de que puedan introducirse en el mercado.
Identificación biométrica: alto riesgo
Todos los sistemas de identificación biométrica remota, que no estén destinados a la verificación de la persona, se consideran de alto riesgo y están sujetos a requisitos estrictos. El uso de la identificación biométrica remota en espacios de acceso público con fines policiales está, en principio, prohibido.
De todos modos, la norma define y regula estrictamente excepciones limitadas, como cuando sea necesario para buscar a un niño o niña desaparecido, prevenir una amenaza terrorista específica e inminente o detectar, localizar, identificar o enjuiciar a un sospechoso de un delito grave.
Riesgo limitado
El riesgo limitado se refiere a los riesgos asociados con la falta de transparencia en el uso de la IA. La Ley de IA introduce obligaciones específicas de transparencia para garantizar que las personas estén informadas cuando sea necesario, fomentando la confianza.
Por ejemplo, cuando se utilizan sistemas de IA como los chatbots, las personas usuarias deben ser conocedoras de que están interactuando con una máquina y, de este modo, estar en situación de poder tomar una decisión informada al respecto. Los proveedores también tendrán que garantizar que el contenido generado por la IA sea identificable.
Audio y vídeo
Además, el texto generado por la IA publicado con el fin de informar a ciudadanos en general sobre asuntos de interés público debe etiquetarse como generado artificialmente. Esta reglamentación también se aplica al contenido de audio y vídeo, que en caso de no ser identificado como generado por IA constituirá una falsificación profunda.
Riesgo mínimo o nulo
La Ley de IA permite el uso gratuito de IA de riesgo mínimo. Esto incluye aplicaciones como videojuegos habilitados para IA o filtros de spam. La gran mayoría de los sistemas de IA utilizados actualmente en la UE entran en esta categoría.
Plazos de implementación de la Ley de IA: aplicación progresiva
Aunque la Ley IA entraba en vigor el 1 de agosto de 2024, no será hasta pasados 24 meses, es decir, hasta agosto de 2026, cuando será de obligado cumplimiento en su totalidad.
La planificación de la Unión Europea prevé esta implementación progresiva de las obligaciones:
- A partir del día 2 de febrero de 2025, deberán cumplirse las disposiciones generales y las prohibiciones de riesgo inaceptable.
- A partir del 2 de mayo de 2025, deberán cumplirse los códigos de buenas prácticas.
- A partir del 2 de agosto de 2025, deberán cumplirse las normas generales y los distintos países deberán haber actualizado sus normas en lo relativo a las sanciones y multas. En ese momento, cada país deberá tener preparado su régimen sancionador para las empresas que no cumplan la normativa.
Más información
Diario oficial de la Unión Europea
https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32024R1689
Comisión Europea del 9 de diciembre de 2023. La Comisión se congratula del acuerdo político sobre la Ley de Inteligencia Artificial
https://ec.europa.eu/commission/presscorner/detail/es/ip_23_6473
Paquete innovación
https://digital-strategy.ec.europa.eu/en/policies/plan-ai
Plan coordinado sobre IA
https://ec.europa.eu/commission/presscorner/detail/en/ip_24_383