La Comisión Europea confirma que los agentes de IA quedan sujetos al RIA

Artículos12 de mayo de 2026
Inicio del AI Act Service Desk por la Comisión Europea como repositorio de orientaciones y preguntas frecuentes para aclarar la aplicación del Reglamento de IA y apoyar las primeras decisiones de cumplimiento de empresas y asesores jurídicos.

La Comisión Europea ha actualizado sus preguntas frecuentes oficiales y confirma expresamente que los llamados “agentes de IA” quedan totalmente cubiertos por el Reglamento de IA (“RIA”), aunque el término “agente de IA” no se encuentre definido legalmente.


Puntos clave:

  • Los agentes de IA pueden calificarse como sistemas de IA: normalmente suelen integrar al menos un modelo de IA de uso general y presentar algún tipo de interfaz, lo que activa la definición de “sistema de IA” del RIA, quedando sujetos a su marco regulatorio.
  • Aplicación del RIA: aunque el término “agente de IA” no se encuentra definido en el RIA, las definiciones existentes (sistema de IA y de modelo de uso general) permiten su inclusión dentro del ámbito de aplicación de la norma. Por tanto, deben cumplir con las prohibiciones del artículo 5 del RIA, así como las obligaciones de transparencia del artículo 50 del RIA cuando cumplan los requisitos para clasificarlo como un “sistema de IA”.
  • Riesgo de incurrir en prácticas prohibidas: se recalca la necesidad de evitar conductas de manipulación o explotación de vulnerabilidades, lo que exige medidas de diseño orientadas a seguridad, control y protección del usuario.
  • Requisitos reforzados para usos de alto riesgo desde agosto de 2026: si un agente de IA encaja en un supuesto de alto riesgo, deberá cumplir obligaciones estrictas en materia de gobernanza, supervisión, evaluación técnica y documentación.
  • Transparencia cuando interactúan: cuando el agente de IA interactúa con individuos o genera contenido, se aplican las obligaciones de información y transparencia del RIA.
  • Modelos subyacentes con riesgo sistémico: la autonomía operativa o la capacidad de usar herramientas puede llevar al modelo base a ser clasificado como modelo con riesgo sistémico, lo que añade exigencias de gestión de riesgos y seguridad preventiva.

Desde una perspectiva de cumplimiento, la posición de la Comisión refuerza que el desarrollo y despliegue de agentes de IA debe analizarse dentro del marco del RIA. Esto implica, entre otras cuestiones, evaluar su encaje regulatorio caso por caso, revisar los procesos de diseño, reforzar los mecanismos de supervisión y anticipar las obligaciones aplicables en función del nivel de riesgo.


Accede a más información: 

La imagen muestra una serie de paneles con luces rojas en un ambiente oscuro.

ACTUALIDAD #ECIJA