Qui és legalment responsable quan la IA genera informació falsa?

Articles28 d’abril del 2026
Responsabilitat, deure professional i límits legals pel que fa a les al·lucinacions de la IA dins del marc regulador europeu.

A la UE, els errors de l'IA no constitueixen una categoria de responsabilitat separada segons la normativa. Evitar les al·lucinacions és una garantia comercial per als sistemes d'ús general.

"Ens sap molt greu el que ha passat." Aquest va ser el missatge d'Andrew Dietderich, cap del departament de reestructuracions de Sullivan & Cromwell, en una carta enviada la setmana passada al jutge federal de Nova York Martin Glenn sobre els errors comesos per la plataforma d'intel·ligència artificial que l'empresa va utilitzar per redactar documents per al cas d'un client, que incloïen citacions incorrectes de la legislació dels EUA.


A més del dany evident a la reputació d'un dels bufets d'advocats d'elit de Nova York, aquest cas ha plantejat preguntes sobre què podria haver passat a Europa, on la regulació de la IA és molt més avançada.


El cas de Sullivan & Cromwell il·lustra un problema legal que encara està en els seus inicis, on la clau rau no tant en les «al·lucinacions» —com es denomina als errors que comet la IA en les seves respostes— sinó en la cadena de responsabilitat que s'activa quan aquests errors van més enllà de simples esborranys.


En el marc europeu, no existeix una categoria separada de 'responsabilitat per al·lucinacions'. Com explica Juan Carlos Guerrero, soci especialitzat en propietat intel·lectual (PI) i tecnologia, mitjans i telecomunicacions (TMT) a ECIJA,  «això es construeix ajustant el dany als règims de responsabilitat clàssics». En altres paraules, l'anàlisi es trasllada a les àrees de responsabilitat contractual, responsabilitat extracontractual o, en alguns casos, responsabilitat per productes defectuosos.


A més, continua l'expert d'ECIJA, cal determinar «qui va controlar el risc en cada etapa de la cadena (proveïdor, integrador, usuari professional), quin deure específic es va incomplir (deure de divulgació, deure de diligència deguda en el disseny, deure de supervisió humana, etc.) i si es pot demostrar un vincle causal prou sòlid entre el resultat fals i el perjudici».


Quan la part perjudicada pels presumptes errors comesos per la IA és el mateix usuari, el focus es trasllada al contracte. «El punt de partida no és que la IA 'mentís', sinó si el proveïdor no va complir el que va prometre», assenyala Guerrero, i destaca aspectos com la fiabilitat, els avisos o la necessitat de supervisió humana. En aquest context, les proves tècniques són decisives, ja que sense traçabilitat ni registres d'ús, demostrar la culpa esdevé especialment complex.


L'escenari canvia quan el dany afecta tercers, com ara els clients d'un bufet d'advocats. En aquests casos, la responsabilitat sol recaure en el professional que va utilitzar la IA, ja que «l'advocat no es va limitar a consultar una eina, sinó que va convertir un resultat probabilístic en un fet processal, presentant com a jurisprudència real una cosa que no ho era». Com explica Joaquín Muñoz, soci responsable de privacitat i protecció de dades a Bird & Bird, revisar els resultats generats per la IA «no és només una recomanació de bones pràctiques, sinó un requisit ètic i legal».


Al mateix temps, tot i que aquesta intervenció humana —o manca de supervisió— debilita el vincle directe amb el proveïdor de tecnologia, cal tenir en compte la directiva europea recent que amplia el concepte de producte per incloure-hi el programari, tot i que estableix límits significatius. Com assenyala el soci d'Ecija, «la informació no es considera un producte», la qual cosa dificulta encabir certes al·lucinacions dins d'aquest marc.


Al mateix temps, el marc regulador europeu, en particular la Llei de IA, imposa certes obligacions als desenvolupadors per prevenir o mitigar les al·lucinacions, tot i que, com explica el soci de Bird & Bird, «les mesures més estrictes afecten principalment els sistemes d'alt risc». Aquests models han de garantir nivells adequats de precisió, robustesa i ciberseguretat, així com implementar mecanismes de control, auditoria i gestió de riscos durant tot el cicle de vida del sistema, incloent-hi la identificació i mitigació d'errors previsibles. «Fins i tot se'ls exigeix informar sobre els nivells de precisió a les instruccions d'ús del producte», afegeix.


No obstant això, per als models d'ús general, les obligacions se centren principalment en la transparència i la documentació tècnica; per tant, les obligacions relatives a l'anticipació o mitigació de les al·lucinacions, tal com explica Muñoz, «són més una garantia comercial que no pas un requisit o una garantia legal per als sistemes d'ús general». No obstant això, «el proveïdor del sistema d'IA té el màxim interès a garantir que el sistema funcioni correctament», afegeix.


Malgrat aquests mecanismes de prevenció, «és important entendre els riscos associats a qualsevol integració d'un sistema d'IA i gestionar-los en conseqüència», conclou Muñoz.


Conssequències per a un advocat per 'creure' tot el que diu una IA

"Una clara infracció dels deures professionals bàsics." Així és com Juan Carlos Guerrero, soci d'Ecija, descriu com es veuria a Espanya un cas similar al de Sullivan & Cromwell.

"No ens trobem davant d'un simple error tècnic, sinó davant d'una infracció de les normes essencials que regulen l'exercici de l'advocacia, la qual cosa obre tres fronts: la responsabilitat disciplinària davant del col·legi d'advocats, les possibles sancions per part del mateix tribunal durant el procediment i, en escenaris més extrems, fins i tot la responsabilitat penal si hi ha elements addicionals (per exemple, una conducta dolosa o un engany material)", explica Guerrero, que recorda que els advocats tenen el deure d'actuar amb veracitat, diligència i lleialtat davant dels tribunals d'acord amb l'Estatut General de l'Advocacia Espanyola i el Codi Deontològic de l'Advocacia Espanyola. «Presentar sentències inexistents com si fossin reals infringeix directament aquest estàndard», emfatitza.


A més, en funció del cas, del perjudici causat i de si constitueix un dany provable, "el client podria presentar una demanda de responsabilitat civil per negligència professional", adverteix Joaquín Muñoz, soci de Bird & Bird.


Les sancions poden anar des d'una amonestació o una multa fins a la suspensió de l'exercici de l'advocacia (incloent-hi diversos mesos o anys en casos greus) i, en casos extrems, l'expulsió del col·legi d'advocats, tal com explica el soci amb seu a Ecija, tot i que això dependrà de molts factors com ara la intenció, la rellevància de la jurisprudència falsa per al cas i, sobretot, la resposta de l'advocat. En aquest sentit, com assenyala Muñoz, el Tribunal Superior de Justícia de les Canàries ja ha imposat una multa de 420 € a un advocat per citar fins a 48 sentències inexistents suggerides per la IA.


El dany a la reputació, com explica el soci de Bird & Bird, és una altra conseqüència que posa de manifest una manca de rigor en l'ús de les eines d'IA i en la supervisió del treball jurídic.


Llegiu l'article complet aquí.

Una tienda vintage con un escaparate iluminado en rosa, mostrando el texto 'PHOTOS'.
  • Inteligencia Artificial

Sòcies/socis relacionats

ACTUALITAT #ECIJA