Quem é legalmente responsável quando a IA gera informações falsas?
Na UE, os erros de IA não constituem uma categoria separada de responsabilidade ao abrigo dos regulamentos. Evitar alucinações é uma garantia comercial para os sistemas de utilização geral.
"Lamentamos imenso o que aconteceu". Foi esta a mensagem de Andrew Dietderich, chefe do departamento de reestruturação da Sullivan & Cromwell, numa carta enviada na semana passada ao juiz federal Martin Glenn, em Nova Iorque, a propósito dos erros cometidos pela plataforma de inteligência artificial que a firma utilizou para redigir documentos para o processo de um cliente, que incluíam citações incorrectas da legislação dos EUA.
Para além do evidente prejuízo para a reputação de um dos escritórios de advogados de elite de Nova Iorque, este caso levantou questões sobre o que poderia ter acontecido na Europa, onde a regulamentação da IA está muito mais avançada.
O caso Sullivan & Cromwell ilustra um problema jurídico ainda incipiente, em que a chave não está tanto nas "alucinações" - como são designados os erros cometidos pela IA nas suas respostas - mas na cadeia de responsabilidade que é activada quando esses erros vão além de meros rascunhos.
No quadro europeu, não existe uma categoria separada de "responsabilidade por alucinações". Como explica Juan Carlos Guerrero, sócio especializado em propriedade intelectual (PI) e tecnologia, media e telecomunicações (TMT) da ECIJA, "esta é construída enquadrando o dano nos regimes clássicos de responsabilidade". Por outras palavras, a análise passa para os domínios da responsabilidade contratual, da responsabilidade civil ou, em alguns casos, da responsabilidade por produtos defeituosos.
Além disso, prossegue o perito da ECIJA, é necessário determinar "quem controlava o risco em cada etapa da cadeia (fornecedor, integrador, utilizador profissional), qual o dever específico que foi violado (dever de divulgação, dever de diligência na conceção, dever de vigilância humana, etc.) e se pode ser demonstrado um nexo de causalidade suficientemente forte entre o resultado falso e o dano".
Quando a parte prejudicada pelos alegados erros cometidos pela IA é o próprio utilizador, o foco passa a ser o contrato. "O ponto de partida não é que a IA 'mentiu', mas se o fornecedor não cumpriu o que foi prometido", salienta Guerrero, destacando aspectos como a fiabilidade, os avisos ou a necessidade de supervisão humana. Neste contexto, as provas técnicas são decisivas, pois sem rastreabilidade ou registos de utilização, a prova da culpa torna-se particularmente complexa.
O cenário muda quando o dano afecta terceiros, como os clientes de um escritório de advogados. Nestes casos, a responsabilidade recai tipicamente sobre o profissional que utilizou a IA, pois "o advogado não se limitou a consultar uma ferramenta, mas transformou um resultado probabilístico num facto processual, apresentando algo que não era real como jurisprudência efectiva". Como explica Joaquín Muñoz, sócio responsável pela privacidade e proteção de dados da Bird & Bird, a revisão dos resultados gerados pela IA "não é apenas uma recomendação de boas práticas, mas uma exigência ética e legal".
Ao mesmo tempo, embora esta intervenção humana - ou falta de supervisão - enfraqueça a ligação direta com o fornecedor de tecnologia, há que ter em conta a recente diretiva europeia que alarga o conceito de produto para incluir o software, embora estabeleça limites significativos. Como salienta o parceiro Ecija, "a informação não é considerada um produto", o que torna difícil enquadrar certas alucinações neste quadro.
Por outro lado, o quadro regulamentar europeu, nomeadamente a lei sobre a IA, impõe certas obrigações aos criadores para evitar ou atenuar as alucinações, embora, como explica o sócio da Bird & Bird, "as medidas mais rigorosas afectem principalmente os sistemas de alto risco". Estes modelos devem garantir níveis adequados de precisão, robustez e cibersegurança, bem como implementar mecanismos de controlo, auditoria e gestão de riscos ao longo de todo o ciclo de vida do sistema, incluindo a identificação e a atenuação de erros previsíveis. "São mesmo obrigados a indicar os níveis de exatidão nas instruções de utilização do produto", acrescenta.
No entanto, para os modelos de uso geral, as obrigações centram-se principalmente na transparência e na documentação técnica; assim, as obrigações relacionadas com a antecipação ou mitigação de alucinações, como explica Muñoz, "são mais uma garantia comercial do que um requisito ou garantia legal para sistemas de uso geral". No entanto, "o fornecedor do sistema de IA tem todo o interesse em garantir que o sistema funciona corretamente", acrescenta.
Apesar destes mecanismos de prevenção, "é importante compreender os riscos associados a qualquer integração de um sistema de IA e geri-los em conformidade", conclui Muñoz.
Consequências para um advogado por "acreditar" em tudo o que uma IA diz
"Uma clara violação dos deveres profissionais básicos". É assim que Juan Carlos Guerrero, sócio da Ecija, descreve a forma como um caso semelhante ao da Sullivan & Cromwell seria encarado em Espanha.
"Não se trata de um simples erro técnico, mas de uma violação das regras essenciais que regem o exercício da advocacia, o que abre três frentes: responsabilidade disciplinar perante a Ordem dos Advogados, possíveis sanções do mesmo tribunal durante o processo e, em cenários mais extremos, até responsabilidade penal se existirem elementos adicionais (por exemplo, conduta fraudulenta ou engano material)", explica Guerrero, que recorda que os advogados têm o dever de atuar com veracidade, diligência e lealdade perante os tribunais, de acordo com o Estatuto Geral da Ordem dos Advogados de Espanha e o Código de Conduta dos Advogados de Espanha. "Apresentar sentenças inexistentes como se fossem reais viola diretamente esta norma", sublinha.
Além disso, consoante o caso, o dano causado e se este constitui um prejuízo comprovável, "o cliente pode apresentar uma queixa de responsabilidade civil por negligência profissional", adverte Joaquín Muñoz, sócio da Bird & Bird.
As sanções podem ir desde uma repreensão ou uma multa até à suspensão do exercício da advocacia (incluindo vários meses ou anos em casos graves) e, em casos extremos, a expulsão da Ordem dos Advogados, como explica o sócio baseado em Ecija, embora isso dependa de muitos factores como a intenção, a relevância da falsa jurisprudência para o caso e, acima de tudo, a resposta do advogado. A este respeito, como recorda Muñoz, o Tribunal Superior de Justiça das Canárias já aplicou uma coima de 420 euros a um advogado por ter citado até 48 acórdãos inexistentes sugeridos pela AI.
O dano à reputação, como explica o sócio da Bird & Bird, é outra consequência que evidencia a falta de rigor na utilização de ferramentas de IA e na supervisão do trabalho jurídico.
Leia o artigo completo aqui.