Tenha cuidado com os textos gerados por inteligência artificial!

Artigo5 de março de 2026
A utilização da inteligência artificial na prática jurídica abre novas oportunidades, mas também apresenta riscos quando a sua utilização é transferida de forma descontrolada para a redação de acórdãos e textos jurídicos.

Não é surpreendente que a omnipresente inteligência artificial (IA) também tenha entrado com força no mundo jurídico, revolucionando a forma como o sector funciona. Trata-se de um avanço significativo, comparável à digitalização das bases de dados de jurisprudência - os meus colegas da minha geração, que tinham de procurar em prateleiras cheias de compilações organizadas por ano, sabem do que estou a falar -, ao envio de documentos jurídicos e decisões judiciais em tempo real por correio eletrónico - em vez de fax ou mesmo correio postal, como era anteriormente utilizado para a correspondência com os advogados - ou à digitalização dos ficheiros, que nos permite trabalhar a partir de qualquer parte do mundo com uma secretária, uma cadeira e Wi-Fi.


Antes da IA, os julgamentos já eram realizados com outras tecnologias, como a realidade virtual, que foi utilizada em janeiro de 2025 por um tribunal do condado de Broward, na Florida, que admitiu como prova uma simulação dos acontecimentos gerada por realidade virtual, reproduzida na audiência com óculos Oculus Quest, permitindo ao juiz ver uma recriação da cena que estava a ser julgada; ou um processo penal conduzido por um tribunal do Arizona, onde foi reproduzida uma recriação digital gerada por IA em que a vítima, Chris Pelkey (um veterano que morreu na sequência de um litígio de trânsito), interveio no julgamento para expressar o seu perdão ao arguido, o que a sua família acreditava que ele teria feito.


Para além de se tornar uma ferramenta de trabalho para os advogados, a própria IA pode ser objeto de litígio, como foi o caso da ação por homicídio culposo intentada contra a Character.AI em maio de 2025 pela mãe de Sewell Setzer, um jovem de 14 anos que se suicidou depois de ter mantido conversas emocionais e sexuais com um chatbot que imitava uma personagem da série 'Game of Thrones'. A ação foi aceite para processamento por um juiz distrital da Florida, que rejeitou o argumento do advogado da ré de que se deveria aplicar a Primeira Emenda da Constituição dos EUA (liberdade de expressão), e rejeitou a ideia de que a produção automatizada de um assistente virtual pudesse ter direitos constitucionais.


No entanto, a IA está a ter um impacto verdadeiramente significativo no domínio jurídico na elaboração de documentos legais, sendo os que se destinam a produzir efeitos perante um tribunal (resoluções e escritos de defesa) particularmente controversos, uma vez que a utilização indevida da IA pode levar à inclusão de conteúdos que não cumprem as normas e, até, diretamente a puras fabricações, com as consequências perigosas que isso pode acarretar.


No que diz respeito às sentenças judiciais, em outubro de 2025, a Câmara Penal de Esquel anulou uma sentença emitida por um tribunal de Chubut (Argentina) porque o texto continha a frase "Aqui tem o ponto IV reeditado, sem citações e pronto a copiar e colar", o que demonstrava que a IA tinha sido utilizada para redigir a sentença. Esta decisão baseou-se na falta de transparência quanto ao sistema de IA utilizado, aos dados introduzidos ou às instruções dadas, bem como no facto de o poder de julgar ser uma concessão pessoal e não poder ser delegado num algoritmo quando se trata de decisões que afectam a liberdade das pessoas.


Quanto aos escritos apresentados pelos advogados aos tribunais, os tribunais espanhóis já começaram a pronunciar-se sobre o assunto. Assim, o acórdão do Tribunal Constitucional de 19 de setembro de 2024 decidiu, por unanimidade, sancionar um advogado por falta de respeito para com o Tribunal, ao incluir num recurso de amparo 19 citações de jurisprudência "que foram citadas como se fossem reais quando, na realidade, não existiam".


Do mesmo modo, o Tribunal Superior de Justiça das Canárias emitiu a sentença 126/2025, de 22 de dezembro de 2025, que sancionou um advogado que incluiu no seu recurso citações atribuídas ao Supremo Tribunal que não existiam e invocou um relatório fictício de 2019 do Conselho Geral da Magistratura sobre a credibilidade do testemunho de crianças, o que foi descrito como "criatividade jurídica desenfreada" e "negligência flagrante", pelo que foi considerado não um simples erro, mas uma prática reiterada que justificava uma ação disciplinar; bem como o recente Despacho de 10 de fevereiro de 2026, que aplicou uma coima de 420 euros a um advogado por citar até 48 falsas sentenças sugeridas pela AI, sendo o montante da coima determinado pelo reconhecimento dos factos e pelo remorso do advogado.


Em contrapartida, a Ordem 2/2024, de 4 de setembro de 2024, emitida pelo Tribunal Superior de Justiça de Navarra, decidiu não sancionar um advogado que citou um artigo do Código Penal colombiano numa queixa como se fosse do Código Penal espanhol, tendo utilizado o ChatGPT para redigir o documento. Nesta ocasião, a ausência de sanções baseou-se também na sua reação imediata, em que pediu desculpa e admitiu o erro, pelo que foi excluída qualquer intenção de enganar, sem prejuízo da advertência de que o uso indevido da IA pode constituir má-fé em litígio.


Portanto, não há dúvida de que estamos num novo ecossistema onde convivemos com tecnologias que nos podem ajudar a ser profissionais mais eficazes e produtivos, ou que nos podem levar a cometer erros com consequências imprevisíveis se cedermos à tentação de permitir a geração de conteúdos sem supervisão. Tal como todos os avanços humanos desde o domínio do fogo ou a invenção da metalurgia, a IA não é perigosa em si mesma, mas pode sê-lo se for utilizada sem o necessário controlo.


Leia o artigo completo aqui.

Edificio moderno con una fachada distintiva de ventanas.
  • Inteligência Artificial

Sócios relacionados

ATUALIDADE #ECIJA