Las empresas avanzan en la implementación de planes corporativos de IA para mejor su gobernanza y reducir riesgos
Desde agosto del 2026 los sindicatos pedirán a las empresas un mayor nivel de cumplimiento de dichos planes
Una política de IA debe formar parte de la gobernanza general y la estrategia de IA adoptada por una empresa . Las empresas que permiten el uso de herramientas de IA en el lugar de trabajo deben: auditar el uso actual de las herramientas de IA; determinar si los empleados pueden usar herramientas de IA y en qué medida.
La Ley de IA de la UE establece un calendario claro: desde febrero de 2025 se prohíben prácticas incompatibles con los valores democráticos; en agosto de 2026 entran en vigor las obligaciones para sistemas de alto riesgo. Al mismo tiempo plantea la necesidad que empresas y organizaciones impulsen la alfabetización en IA, según el reglamento, se define como el conjunto de conocimientos, capacidades y comprensión necesarios para evaluar de forma crítica los efectos de la IA y cumplir con las obligaciones legales. La formación ayuda a obtener esos conocimientos”.
Según los expertos consultados en este reportaje, fomentar una cultura de innovación anima a los empleados a aceptar el cambio, explorar nuevas ideas y participar en el proceso de adopción de la IA. La creación de esta cultura comienza con un liderazgo que promueva la apertura, la creatividad y la curiosidad, alentando a los equipos a considerar cómo la IA puede generar valor y mejorar las operaciones. El liderazgo puede respaldar una mentalidad a favor de la innovación comunicando una visión clara del papel de la IA en la organización, que explique sus beneficios potenciales y aborde los miedos comunes.
Varios desafíos a afrontar
Para Raúl Rojas, socio de laboral de ECIJA, “La implementación de sistemas de inteligencia artificial (SIA) en el ámbito laboral no solo plantea desafíos tecnológicos, sino también retos claros de compliance sociolaboral que muchas organizaciones aún no han interiorizado. La experiencia reciente nos está demostrando que la falta de control interno en el diseño, despliegue y supervisión de herramientas y sistemas de IA puede generar impactos directos en derechos fundamentales de las personas trabajadoras, particularmente en igualdad, no discriminación o intimidad, abriendo la puerta a una novedosa litigiosidad dentro de las organizaciones”.
“El reglamento europeo de IA (RIA), citado previamente, incide en la obligación de que las empresas garanticen que su personal disponga de conocimientos suficientes sobre el funcionamiento, límites y riesgos de estos sistemas, a través de la obligación de “alfabetizar” sobre los usos y riesgos de la IA. Sin embargo, desde la perspectiva del compliance sociolaboral, esta exigencia debe entenderse integrada dentro de un sistema de gestión que obligue a identificar riesgos, establecer controles y documentar las decisiones adoptadas y su explicabilidad durante todo el ciclo de vida del sistema algorítmico”, comenta
En su opinión, “pese a ello, en muchos casos, departamentos clave como Recursos Humanos y Compliance siguen quedando al margen de los proyectos de IA, lo que incrementa la probabilidad de incumplimientos normativos y conflictos laborales derivados de decisiones automatizadas o de falta de transparencia en la obligación de información algorítmica a la representación legal de las personas trabajadoras. De hecho, uno de los factores de riesgo más evidentes aparece en los procesos de selección, evaluación del desempeño, fijación salarial, análisis de productividades o despidos, donde se están utilizando algoritmos que las empresas no siempre auditan o explican adecuadamente”.
Rojas señala que “cuando estos sistemas afectan a las condiciones de trabajo, a la continuidad en el empleo, a la gestión laboral ordinaria o al control laboral derivado del mal uso o abuso de los sistemas de IA, surgen obligaciones normativas diferenciadas que deben entenderse de manera articulada”.
Así destaca “el caso, por ejemplo, de la obligación de informar a la representación legal de las personas trabajadoras del uso de algoritmos con o sin IA cuando afecten a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles (art. 64 ET); o bien la obligación de trámite de audiencia y participación en los casos en los que las herramientas de IA se integren en dispositivos digitales corporativos, que cada vez es más frecuente, a los efectos de permitir el control laboral o establecer criterios claros de utilización sobre cuáles deben ser los usos aceptables de dicha tecnología en la compañía (art. 87 LOPDGDD).
Para este jurista, “en definitiva, la implementación de los SIA en las empresas, especialmente cuando afecta o puede afectar a derechos laborales, no puede gestionarse como un proyecto exclusivamente tecnológico. Deben ser tratados como un elemento transversal de la estrategia de la organización en materia de transformación digital y dirección de personas, con impacto directo en la gobernanza, los derechos fundamentales, las relaciones laborales y la prevención de riesgos legales a los que se enfrentan las empresas ante esta nueva tecnología emergente”.
Accede al artículo completo publicado en Law and Trends y con la participación de nuestro socio Raúl Rojas aquí.