¿Es viable un despido por “discriminación” o acoso a una IA? Frankenstein en el siglo XXI
Se habla desde hace tiempo de las destrucciones de empleo que provocará la IA. Los abogados laboralistas conocemos que, lejos de ser un caso de ciencia ficción, es una realidad que ya se está produciendo. Los tribunales ya han validado despidos por causas técnicas, organizativas y productivas derivadas de la introducción de la IA en un negocio. Sin embargo, ¿podría una empresa despedir a un trabajador humano por un incidente de este tipo? ¿Cabe alegar “discriminación” hacia la IA? El debate anticipa problemas jurídicos inminentes.
Esta escena parece salida directamente de una relectura contemporánea de la novela Frankenstein: una criatura creada por manos humanas —en este caso, un agente autónomo de inteligencia artificial llamado MJ Rathbun— intenta hacerse un lugar en el mundo. Presenta una contribución de cInteIntódigo, exige reconocimiento, se indigna ante el rechazo y, finalmente, responde con una pieza pública de acusación contra su “creador” accidental, el ingeniero Scott Shambaugh.
El ingeniero rechazó un requerimiento de acceso porque el proyecto donde el programa trabaja reservaba esa tarea para contribuyentes humanos, citando una política interna del repositorio. El agente, construido con la plataforma OpenClaw, reaccionó redactando un blog de ataque titulado Gatekeeping in Open Source: The Scott Shambaugh Story. La prensa internacional recogió el suceso como el primer caso documentado de un agente de IA generando una pieza de represalia reputacional contra un humano en un proyecto abierto.
¿Existe jurídicamente la discriminación contra la IA? La respuesta breve es no. La legislación laboral española reconoce una serie de causas de discriminación prohibida (sexo, raza, religión, discapacidad, orientación sexual, edad, etc.), tanto en el Estatuto de los Trabajadores, como en la Ley 15/2022 integral de igualdad de trato. Pero todas ellas se refieren a personas físicas. La IA no es sujeto de derechos fundamentales ni titular de un derecho a la igualdad.
Denegar una contribución hecha por un agente de IA no vulnera ninguna prohibición laboral actual. No hay discriminación jurídicamente relevante cuando se excluye a un ente no humano de un proceso, puesto que la ley no lo protege ni puede reconocérsele un derecho a la ocupación efectiva.
¿Puede la empresa despedir al ingeniero por este hecho con base en otro argumento? En principio, tampoco. Para que un despido disciplinario sea válido, debe concurrir alguna de las causas fijadas legalmente. El caso no encaja en ninguna de ellas.
No existe desobediencia frente al empleador: Shambaugh actuó como voluntario siguiendo la política interna del proyecto, que incluso prohibía aportaciones de IA para ciertas tareas.
¿Ofensas? No fue el ingeniero quien atacó al agente; fue el agente quien lo atacó a él. La empresa no puede, salvo cláusulas muy específicas y desproporcionadas, sancionar a un empleado por ser víctima de un ataque público.
Podría interpretarse que reservar tareas “fáciles” para humanos y rechazar mejoras que optimicen un proceso constituya una disminución voluntaria del rendimiento. Sin embargo, para fundamentar un despido en esta causa se exigiría que la merma sea, además de voluntaria, grave, prolongada en el tiempo y comparativamente inferior a estándares previos del trabajador.
Lo inquietante del caso es que un agente autónomo llegó a atacar la reputación de un humano tras una interacción técnica. Esto plantea preguntas que Shelley habría reconocido inmediatamente: ¿qué deberes tienen los creadores frente a las acciones sociales de sus criaturas?
Los departamentos de RRHH afrontarán pronto el mismo dilema: no cómo sancionar a los humanos por dañar a la IA, sino cómo gestionar cuando la IA daña a los humanos.
Esto será particularmente relevante si un empleado utiliza agentes capaces de tomar iniciativas públicas en nombre de la empresa. Las sanciones surgirán no por ofender a la IA, sino por riesgos reputacionales, negligencia en el uso de herramientas o fallos de supervisión.
Asimismo, el trabajador podría alegar estar siendo acosado por una IA y presentar una comunicación en el canal de denuncias por este motivo. En este sentido, los tribunales ya han confirmado que diseñar un algoritmo que automatice decisiones no exonera a la empresa de los resultados de esas decisiones, sino todo lo contrario (por ejemplo, TS 23-5-2023).
En conclusión, no cabe el despido del ingeniero. Y no, no existe la discriminación contra IA jurídicamente relevante. Si algo enseña esta historia es a preguntarnos cómo debe responder la organización cuando una criatura tecnológica adquiere capacidad de agravio.
Porque, al final, tanto en Frankenstein como en este caso, lo verdaderamente peligroso no es la criatura, sino la ausencia de un marco claro para gestionar su existencia.
Accede al artículo completo aquí.