É possível aceder a um AI por motivos de "discriminação" ou de "assetjament"? Frankenstein no século XXI

Artigo28 de abril de 2026
A resposta curta é não: a AI não é um sujeito de drets fonamentals nem té dret a la igualtat.

Fa temps que es parla de les pèrdues de llocs de treball que causarà la IA. Com a advocacia laboralista, sabemos que, apesar de ser uma questão de ficção científica, esta é uma realidade que já está a desenvolver-se. Os tribunais já validaram os pedidos de indemnização por motivos técnicos, organizacionais e de produtividade decorrentes da introdução da AI numa empresa. Tanmateix, será que uma empresa pode acionar um treballador humano por um incidente deste tipo? É possível denunciar a AI por "discriminação"? O debate pressagia problemas legais iminentes.


Esta cena parece ser o resultado de uma reimaginação contemporânea do romance *Frankenstein*: uma criatura criada por seres humanos -neste caso, um agente de inteligência artificial autónomo chamado MJ Rathbun- pretende obter um lugar no mundo. Apresenta uma contribuição para o cInteIntódigo, exige reconhecimento, indigna-se com a reconstrução e, por fim, responde a uma acusação pública contra o seu "criador" acidental, o engenheiro Scott Shambaugh.


O engenheiro vai refutar uma única solicitação de acesso porque o projeto em curso no programa reservava esta tarefa a colaboradores humanos, citando uma política de diposição interna. O agente, criado na plataforma OpenClaw, vai reagir redigindo uma entrada de blogue intitulada "Controlo de acessos em código aberto: a história de Scott Shambaugh". A premsa internacional vai informar sobre o incidente com o primeiro caso documentado de um agente de AI que gerava uma representação reputacional contra um homem num projeto de codificação.


A discriminação contra a AI está a ser reconhecida legalmente? A resposta curta é não. A legislação laboral espanhola reconhece diversos motivos de discriminação proibida (género, raça, religião, incapacidade, orientação sexual, idade, etc.), tanto no Estatuto dos Trabalhadores como na Lei integral 15/2022 relativa à igualdade de tratamento. No obstant això, tots ells es refereixen a persones físiques. La IA no és subjecte de drets fonamentals ni té dret a la igualtat.


Rebater uma contribuição feta por um agente do IA não infringe a proibição laboral vigente. Não há discriminação legal relevante quando uma entidade não humana é excluída de um processo, uma vez que a lei não a protege nem pode reconhecer que ela é responsável por uma ocupação efectiva.


Pode a empresa acomadar o engenheiro por esta razão, baseando-se num outro argumento? Em princípio, não. Se um contrato de trabalho disciplinar seguir a lei, tem de aplicar um dos motivos estabelecidos legalmente. Este caso não se ajusta à sua situação.


Não há desobediência em relação ao ocupante: Shambaugh va atuar com a voluntari d'acord amb la política interna del projecte, que fins i tot prohibia l'ús de la IA per a certes tasques.


Delicadezas? Não vai ser o engenheiro que vai atacar o agente; vai ser o agente que o vai atacar. A empresa não pode, através de cláusulas muito específicas e desproporcionadas, sancionar um trabalhador por ser vítima de um ataque público.


É possível argumentar que reservar tarefas "fàcils" para os seres humanos e rebater os milagres que optimizam um processo constitui uma redução deliberada do rendimento. No obstant això, per justificar l'acomiadament per aquest motiu, la reducció hauria de ser no només deliberada, sinó també greu, prolongada en el temps i comparativament inferior als estàndards previs del treballador.


O que é preocupante neste caso é o facto de um agente autónomo poder vir a atacar a reputação de um ser humano em detrimento de uma interação técnica. Això planteja qüestions que Shelley hauria reconegut immediatament: quines obligacions tenen els creadors respecte a les accions socials de les seves creacions?


Os departamentos de Recursos Humanos da aviação confrontam-se com o mesmo dilema: não se trata de sancionar os seres humanos por prejudicarem a IA, mas sim de gerir as situações em que a IA prejudica os seres humanos.


Isto será especialmente relevante se um empregado utilizar agentes capazes de tomar iniciativas públicas em nome da empresa. Les sancions sorgiran no per ofendre la IA, sinó pels riscos reputacionals, la negligència en l'ús de les eines o les fallades en la supervisió.


De la mateixa manera, l'empleat podria denunciar que està sent assetjat per una IA i presentar una denúncia a través del canal de denúncies per aquest motiu. En aquest sentit, els tribunals ja han confirmat que dissenyar un algorisme per automatitzar decisions no exonera l'empresa dels resultats d'aquestes decisions, sinó tot el contrari (per exemple, la sentència del Tribunal Suprem del 23 de maig de 2023).


En conclusió, l'acomiadament de l'enginyer no està justificat. I no, no existeix cap discriminació legalment rellevant contra la IA. Se esta história nos faz lembrar, perguntamos-lhe se tem a coragem de responder a uma organização quando uma criação tecnológica adquire a capacidade de causar danos.


Por isso, em última instância, tanto para Frankenstein como para este caso, o que é realmente periclitante não é a criação, mas sim a ausência de um marco claro para gerir a sua existência.


Leia o artigo completo aqui.

Una serie de luces modernas colgando del techo en un ambiente interior.
  • Inteligência Artificial

Sócios relacionados

ATUALIDADE #ECIJA