La Ley de IA de la UE está lista. ¿Los reguladores? No tanto

Noticias11 de agosto de 2025
España lidera la implementación de la Ley de IA de la UE y ECIJA asesora a empresas en el reto de cumplir con un marco regulatorio pionero y complejo.

Las innovadoras normas europeas sobre IA ya están en vigor, pero la mayoría de los 27 países de la UE no están preparados para hacerlas cumplir.

Diecinueve de los 27 países de la UE no habían anunciado aún sus reguladores antes de la fecha límite del 2 de agosto de 2025 —incluidos Alemania, Francia, Bélgica, Italia y Austria—, aunque algunos estaban en proceso de designarlos, según datos de Clyde & Co y otras fuentes.

Encontrar información actualizada es complicado, ya que una de las características clave de la Ley de IA de la UE es su “gobernanza multiparticipativa”. Esto significa que la ley se aplica tanto por la Oficina Europea de IA como por las autoridades nacionales de los 27 países de la UE, con responsabilidades de cumplimiento, aplicación y coordinación repartidas entre agencias nacionales. Irlanda, por ejemplo, planea tener al menos ocho reguladores de IA. Letonia podría llegar a contar con 17 organismos nacionales de supervisión de IA, pero aún no están todos en funcionamiento.

Aun así, la Ley de IA de la UE se está implementando, y las grandes tecnológicas estadounidenses están en el punto de mira.

Desde principios de agosto, las empresas que ofrecen inteligencia artificial de propósito general (GPAI) —modelos de lenguaje de gran tamaño como GPT de OpenAI, Gemini de Google o Llama de Meta— están obligadas a mantener registros claros sobre cómo se construyen y entrenan sus sistemas, con el fin de contribuir a que la IA sea más segura y ética.

Las empresas disponen de un plazo de un año, hasta agosto de 2026, para adaptarse sin riesgo de multas o sanciones, lo que les da cierto margen. Ellas no serán las únicas que lo necesiten. Aunque la UE publicó en mayo directrices para ayudar a los proveedores de GPAI a cumplir con la Ley de IA, sigue sin estar claro cómo se aplicarán en la práctica las normas sobre cumplimiento en materia de derechos de autor.

Con muchos gobiernos europeos todavía organizándose, surgen dudas sobre quién se hará responsable de que los sistemas de IA rindan cuentas en un panorama tecnológico en rápida evolución.


Francia: ¿Regulador? ¿Qué regulador?
Francia vive un vacío regulatorio en materia de IA, similar al de gran parte de la UE.

“Es lamentable, pero no es la primera vez que una normativa europea no se aplica o transpone en la fecha prevista”, afirma Julien Guinot-Deléry, socio de medios en Gide Loyrette Nouel, con sede en París.

En una entrevista reciente, Guinot-Deléry señaló que el gobierno francés ha dado poca información sobre sus planes para un regulador, pero eso no significa que la ley no pueda aplicarse.

“Podemos señalar que la ley de IA es directamente aplicable”, explicó. “Es posible exigir su aplicación ante un tribunal, independientemente de si se ha designado o no una autoridad competente en Francia.”

Comentó que sus clientes siguen el tema de cerca con una “mezcla de esperanza y preocupación por la capacidad de esta nueva normativa para resolver las dificultades relacionadas con la IA.”


Sistemas de alto riesgo
Las obligaciones de la Ley para los proveedores de modelos de IA y de “sistemas de alto riesgo” en materia de transparencia, seguridad y cumplimiento de los derechos de autor también entraron en vigor el 2 de agosto, explicó Marcus Evans, socio de Norton Rose Fulbright en Londres.

La Comisión Europea ha solicitado aportaciones para sus próximas directrices sobre sistemas de IA de alto riesgo y ha pedido a los Estados miembros que informen sobre su preparación para hacerlas cumplir.

Según Evans, la Comisión no sancionará a los proveedores que actúen de buena fe y se adhieran a un código de prácticas voluntario de IA diseñado para ayudar a las partes interesadas a cumplir con las nuevas obligaciones durante el primer año. “Sin embargo, espera el pleno cumplimiento para el 2 de agosto de 2026”, advirtió, y las sanciones por incumplimiento podrían alcanzar los 15 millones de euros (17,5 millones de dólares) o el 3 % de la facturación mundial anual.


España: la excepción en la IA
España, en cambio, está a la vanguardia de la regulación de la IA. En 2023, creó la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), el primer regulador de IA de su tipo en Europa.

Esta autoridad no es la única que aplicará la Ley de IA en España, según Cristina Villasante, socia de Propiedad Intelectual y Tecnologías de la Información en ECIJA. Otros organismos, como la Agencia Española de Protección de Datos, la Comisión Nacional del Mercado de Valores y el Banco de España, también actuarán como autoridades de vigilancia de mercado, en función del uso concreto de la IA y del sector afectado.

Villasante señaló que, más allá de la Ley de IA de la UE, otras normativas también inciden en el uso de la tecnología, como las leyes de protección de datos y la regulación en materia de ciberseguridad. En julio, la Agencia Española de Protección de Datos recordó que ya puede actuar contra el tratamiento de datos personales mediante sistemas prohibidos, incluida la IA.

Según Villasante, las empresas muestran preocupación por cómo cumplir con la Ley de IA, pero la mayor dificultad reside en determinar quién es responsable de garantizar su cumplimiento. Al ser una tecnología transversal que afecta a múltiples departamentos, es difícil decidir quién debe controlar y gestionar la IA para asegurar un uso legal, ético y responsable.

Artículo escrito por Cristina Villasante para Law.com.

Una escalinata en espiral que se eleva hacia una estructura de vidrio en un entorno minimalista.
  • Inteligencia Artificial

Socios relacionados

ACTUALIDAD #ECIJA