Compte amb els textos generats per intel·ligència artificial!
No és d'estranyar que la omnipresent intel·ligència artificial (IA) també hagi fet una forta entrada en el món jurídic, revolucionant la manera com funciona el sector. Això representa un pas endavant a l'altura de la digitalització de les bases de dades de jurisprudència —els meus companys de la meva generació que havien de buscar entre prestatgeries plenes de compilacions organitzades per anys saben a què em refereixo— l'enviament de documents legals i sentències judicials en temps real per correu electrònic –en lloc de per fax o fins i tot per correu postal, com abans s'utilitzava per a la correspondència amb els advocats– o la digitalització dels arxius, que ens permet treballar des de qualsevol lloc del món amb un escriptori, una cadira i Wi-Fi.
Abans de la IA, els judicis ja es duien a terme amb altres tecnologies, com la realitat virtual, que va ser utilitzada el gener de 2025 per un tribunal del comtat de Broward, a Florida, que va admetre com a prova una simulació dels fets generada per realitat virtual, que es va reproduir a la vista amb ulleres Oculus Quest, la qual cosa va permetre al jutge veure una recreació de l'escena que s'estava jutjant; o els procediments penals instruïts per un tribunal d'Arizona, en els quals es va reproduir una recreació digital generada per IA en què la víctima, Chris Pelkey (un veterà que va morir després d'una disputa de trànsit), va intervenir en el judici per expressar el seu perdó a l'acusat, cosa que la seva família creia que hauria fet.
A més de convertir-se en una eina de treball per als advocats, la IA en si mateixa pot ser objecte de litigis, com va ser el cas de la demanda per mort per negligència presentada contra Character.AI el maig de 2025 per la mare de Sewell Setzer, un adolescent de 14 anys que es va suïcidar després de mantenir converses emocionals i sexuals amb un chatbot que imitava un personatge de la sèrie 'Joc de Trons'. La demanda va ser admesa a tràmit per un jutge de districte de Florida, que va desestimar l'argument de l'advocat de l'acusat que la Primera Esmena de la Constitució dels EUA (llibertat d'expressió) s'hauria d'aplicar, i va rebutjar la idea que la producció automatitzada d'un assistent virtual pogués tenir drets constitucionals.
Però on la IA està tenint un impacte realment important en l'àmbit jurídic és en la redacció de documents legals, sent especialment controvertits aquells destinats a tenir efecte davant d'un tribunal (resolucions i escrits de defensa), ja que l'ús inadequat de la IA pot portar a la inclusió de contingut que no compleix les normes i, fins i tot, directament, a pures invencions, amb les conseqüències perilloses que això pot comportar.
Pel que fa a les sentències judicials, l'octubre de 2025, la Cambra Penal d'Esquel va anul·lar una sentència dictada per un tribunal de Chubut (Argentina) perquè el text contenia la frase «Aquí teniu el punt IV reeditada, sense citacions i a punt per copiar i enganxar», la qual cosa demostrava que s'havia utilitzat IA per redactar la sentència. Aquesta decisió es va basar en la manca de transparència respecte a quin sistema d'IA s'havia utilitzat, quines dades s'hi havien introduït o quines instruccions havia rebut, així com en el fet que el poder de jutjar és una concessió personal i no es pot delegar en un algorisme quan es tracta de decisions que afecten la llibertat de les persones.
Pel que fa als escrits presentats als tribunals pels advocats, els tribunals espanyols ja han començat a dictar sentències sobre la qüestió. Així, la sentència del Tribunal Constitucional del 19 de setembre de 2024 va decidir per unanimitat sancionar un advocat per no mostrar el degut respecte al Tribunal en incloure en un recurs de protecció 19 citacions de jurisprudència «que es van citar com si fossin reals quan, de fet, no existien».
De la mateixa manera, el Tribunal Superior de Justícia de les Canàries va dictar la sentència 126/2025 del 22 de desembre de 2025, que va sancionar un advocat que va incloure en el seu recurs citacions atribuïdes al Tribunal Suprem que no existien i va invocar un informe imaginari de 2019 del Consell General del Poder Judicial sobre la credibilitat del testimoni infantil, que va ser descrita com a «creativitat jurídica desenfrenada» i «negligència flagrant», i per tant es va considerar que no era un simple error, sinó una pràctica repetida que mereixia una sanció disciplinària; així com la recent Ordre de 10 de febrer de 2026, que va multar un advocat amb 420 € per citar fins a 48 sentències falses suggerides per la IA, amb l'import de la multa determinat pel reconeixement dels fets i el penediment de l'advocat.
En canvi, l'Ordre 2/2024, de 4 de setembre de 2024, dictada pel Tribunal Superior de Justícia de Navarra, va decidir no sancionar un advocat que va citar un article del codi penal colombià en una denúncia com si fos del codi penal espanyol, havent utilitzat ChatGPT per redactar el document. En aquesta ocasió, l'absència de sanció també es va basar en la seva reacció immediata, en què va demanar disculpes i va admetre l'error, de manera que es va descartar qualsevol intenció de defraudar, sense perjudici de l'advertiment que l'ús inadequat de la IA pot constituir mala fe processal.
Així doncs, no hi ha dubte que ens trobem en un nou ecosistema on convivim amb tecnologies que ens poden ajudar a ser professionals més eficaços i productius, o que ens poden portar a cometre errors amb conseqüències imprevisibles si cedim a la temptació de permetre que es generi contingut sense supervisió. Com amb tots els progressos de la humanitat des del domini del foc o la invenció de la metal·lúrgia, la IA no és perillosa per si mateixa, però pot ser-ho si s'utilitza sense el control necessari.
Llegiu l'article complet aquí.