Desafios jurídicos da Inteligência Artificial

Artigo8 de julho de 2025
O novo regulamento europeu relativo à IA exige uma abordagem abrangente da conformidade jurídica, ética e técnica das empresas e dos profissionais.

O regulamento europeu sobre a IA estabelece uma classificação dos sistemas de acordo com o seu nível de risco (mínimo, limitado, elevado ou inaceitável) e impõe obrigações proporcionais em termos de documentação, transparência, supervisão e atenuação dos riscos.

Este regulamento vem juntar-se a outros regulamentos existentes, como o Regulamento Geral sobre a Proteção de Dados (RGPD), aplicável quando a IA processa dados pessoais, bem como a regulamentos sectoriais que afectam áreas como a saúde, os serviços financeiros ou a gestão de recursos humanos.

A conformidade com estes quadros regulamentares exige uma revisão dos processos internos das empresas, especialmente no que respeita à legalidade do tratamento de dados, à rastreabilidade dos modelos algorítmicos e à responsabilidade em caso de decisões automatizadas erróneas ou discriminatórias.

A utilização empresarial da inteligência artificial traz consigo múltiplos desafios jurídicos que exigem respostas estratégicas e preventivas por parte do sector jurídico.

Entre os mais relevantes contam-se:

  • Proteção de dados e privacidade: A IA requer volumes de dados para treinar modelos preditivos ou generativos. Quando estes dados incluem informações pessoais, é acionada a aplicação integral do RGPD, com requisitos de transparência legal do tratamento, minimização de dados e medidas de segurança. Não se trata apenas de cumprir as obrigações legais, mas também de conceber sistemas que integrem os princípios da privacidade desde a conceção e por defeito.
  • Propriedade intelectual: a formação de sistemas de IA com conteúdos protegidos por direitos de autor levanta a questão de saber a quem pertence a propriedade dos resultados gerados. Dado que a IA não é considerada um objeto de direito, cabe aos criadores ou utilizadores estabelecer contratualmente os limites de utilização, transferência ou exploração destes resultados, bem como as garantias contra eventuais infracções.
  • Transparência: um dos maiores desafios jurídicos e éticos reside na falta de transparência dos algoritmos. O novo regulamento europeu exige que os sistemas de IA de alto risco disponham de documentação técnica para justificar as suas decisões e permitir auditorias externas.
  • Responsabilidade civil e criminal: a utilização da IA não isenta de responsabilidade, tanto os criadores como os utilizadores empresariais podem ser responsabilizados por danos causados por decisões erradas automatizadas. Na medida em que a responsabilidade é um dos principais desafios, são criados mecanismos para monitorizar e prever protocolos de ação em caso de erros, enviesamentos ou consequências não intencionais.

Além disso, para além da conformidade regulamentar, a utilização responsável da IA implica a integração de princípios éticos na sua conceção e aplicação. As organizações devem adotar políticas que vão além do que é legalmente exigido, especialmente no que diz respeito a

  • Não discriminação: Os preconceitos nos dados de formação podem ser transferidos para o funcionamento dos sistemas, conduzindo à discriminação com base no género, idade, raça ou outros factores. As auditorias algorítmicas e a revisão contínua dos modelos são essenciais para detetar e atenuar estes desvios.
  • Controlo humano significativo: o regulamento da UE impõe a necessidade de garantir que as decisões críticas não sejam tomadas exclusivamente por processos automatizados sem intervenção ou revisão humana.
  • Confiança e transparência social: a legitimidade da utilização da IA deriva não só da sua legalidade, mas também da sua aceitação pela sociedade.

Neste contexto, a conformidade regulamentar e ética não deve ser uma resposta reactiva, mas sim uma estratégia preventiva e transversal.

Assim, algumas medidas-chave que as empresas podem adotar incluem a conceção de políticas internas de compliance, avaliações de impacto legal e ético, recrutamento contínuo de equipas jurídicas e técnicas, auditorias regulares, bem como a seleção de fornecedores de tecnologia responsáveis que cumpram as normas legais exigidas e ofereçam transparência sobre o funcionamento das suas soluções.

Um dos grandes desafios do atual ano de 2025 é a necessidade de formação interdisciplinar. Os advogados precisam de compreender não só os quadros regulamentares, mas também os fundamentos técnicos.

Já é sabido que a inteligência artificial faz parte do presente das nossas organizações, mas o seu futuro dependerá da forma como a soubermos regular, utilizar e supervisionar.

O desafio jurídico em 2025 não é apenas técnico, é ético, pedagógico e regulamentar. Como profissionais do direito, temos a responsabilidade de garantir que o progresso tecnológico não corroa os direitos fundamentais, mas sim que os fortaleça através de um quadro jurídico sólido, justo e adaptado aos novos tempos.

Ana Luengo, da área de Direito Penal Económico.

Una serie de bloques tridimensionales flotan en un fondo claro y difuso.
  • Inteligencia Artificial

ATUALIDADE #ECIJA