És possible acomiadar una IA per motius de «discriminació» o assetjament? Frankenstein al segle XXI

Articles28 April 2026
La resposta curta és no: la IA no és un subjecte de drets fonamentals ni té dret a la igualtat.

Fa temps que es parla de les pèrdues de llocs de treball que causarà la IA. Com a advocats laboralistes, sabem que, lluny de ser una qüestió de ciència-ficció, aquesta és una realitat que ja s'està desenvolupant. Els tribunals ja han validat acomiadaments per motius tècnics, organitzatius i de productivitat derivats de la introducció de la IA en una empresa. Tanmateix, podria una empresa acomiadar un treballador humà per un incident d'aquest tipus? És possible denunciar la IA per 'discriminació'? El debat presagia problemes legals imminents.


Aquesta escena sembla tret d'una reimaginació contemporània de la novel·la *Frankenstein*: una criatura creada per mans humanes —en aquest cas, un agent d'intel·ligència artificial autònom anomenat MJ Rathbun— intenta obrir-se un lloc en el món. Presenta una contribució a cInteIntódigo, exigeix reconeixement, s'indigna pel rebuig i, finalment, respon amb una acusació pública contra el seu "creador" accidental, l'enginyer Scott Shambaugh.


L'enginyer va rebutjar una sol·licitud d'accés perquè el projecte on opera el programa reservava aquesta tasca als col·laboradors humans, citant una política de dipòsit intern. L'agent, creat amb la plataforma OpenClaw, va reaccionar redactant una entrada de blog ferotge titulada «Control d'accés en codi obert: la història de Scott Shambaugh». La premsa internacional va informar de l'incident com el primer cas documentat d'un agent d'IA que generava una represàlia reputacional contra un humà en un projecte de codi obert.


La discriminació contra la IA està reconeguda legalment? La resposta curta és no. La legislació laboral espanyola reconeix diversos motius de discriminació prohibida (gènere, raça, religió, discapacitat, orientació sexual, edat, etc.), tant en l'Estatut dels Treballadors com en la Llei integral 15/2022 per a la igualtat de tracte. No obstant això, tots ells es refereixen a persones físiques. La IA no és subjecte de drets fonamentals ni té dret a la igualtat.


Rebutjar una contribució feta per un agent d'IA no infringeix cap prohibició laboral vigent. No hi ha discriminació legalment rellevant quan una entitat no humana queda exclosa d'un procés, ja que la llei no la protegeix ni es pot reconèixer que tingui dret a un ocupació efectiva.


Pot l'empresa acomiadar l'enginyer per aquesta raó basant-se en un altre argument? En principi, no. Perquè un acomiadament disciplinari sigui vàlid, s'ha d'aplicar un dels motius establerts legalment. Aquest cas no s'ajusta a cap d'ells.


No hi ha desobediència envers l'ocupador: Shambaugh va actuar com a voluntari d'acord amb la política interna del projecte, que fins i tot prohibia l'ús de la IA per a certes tasques.


Delictes? No va ser l'enginyer qui va atacar l'agent; va ser l'agent qui el va atacar. L'empresa no pot, tret de clàusules molt específiques i desproporcionades, sancionar un empleat per ser víctima d'un atac públic.


Es podria argumentar que reservar tasques «fàcils» per a humans i rebutjar millores que optimitzen un procés constitueix una reducció deliberada del rendiment. No obstant això, per justificar l'acomiadament per aquest motiu, la reducció hauria de ser no només deliberada, sinó també greu, prolongada en el temps i comparativament inferior als estàndards previs del treballador.


El que és preocupant d'aquest cas és que un agent autònom va arribar a atacar la reputació d'un ésser humà després d'una interacció tècnica. Això planteja qüestions que Shelley hauria reconegut immediatament: quines obligacions tenen els creadors respecte a les accions socials de les seves creacions?


Els departaments de Recursos Humans aviat s'enfrontaran al mateix dilema: no pas com sancionar els humans per perjudicar la IA, sinó com gestionar situacions en què la IA perjudica els humans.


Això serà especialment rellevant si un empleat utilitza agents capaços de prendre iniciatives públiques en nom de l'empresa. Les sancions sorgiran no per ofendre la IA, sinó pels riscos reputacionals, la negligència en l'ús de les eines o les fallades en la supervisió.


De la mateixa manera, l'empleat podria denunciar que està sent assetjat per una IA i presentar una denúncia a través del canal de denúncies per aquest motiu. En aquest sentit, els tribunals ja han confirmat que dissenyar un algorisme per automatitzar decisions no exonera l'empresa dels resultats d'aquestes decisions, sinó tot el contrari (per exemple, la sentència del Tribunal Suprem del 23 de maig de 2023).


En conclusió, l'acomiadament de l'enginyer no està justificat. I no, no existeix cap discriminació legalment rellevant contra la IA. Si aquesta història ens ensenya res, és a preguntar-nos com hauria de respondre una organització quan una creació tecnològica adquireix la capacitat de causar danys.


Perquè, en última instància, tant a Frankenstein com en aquest cas, el que és realment perillós no és la criatura, sinó l'absència d'un marc clar per gestionar la seva existència.


Llegiu l'article complet aquí.

Una serie de luces modernas colgando del techo en un ambiente interior.
  • Artificial Intelligence

Related partners

LATEST FROM #ECIJA