Desafios jurídicos da Inteligência Artificial
O regulamento europeu sobre a IA estabelece uma classificação dos sistemas de acordo com o seu nível de risco (mínimo, limitado, elevado ou inaceitável) e impõe obrigações proporcionais em termos de documentação, transparência, supervisão e atenuação dos riscos.
Este regulamento vem juntar-se a outros regulamentos existentes, como o Regulamento Geral sobre a Proteção de Dados (RGPD), aplicável quando a IA processa dados pessoais, bem como a regulamentos sectoriais que afectam áreas como a saúde, os serviços financeiros ou a gestão de recursos humanos.
A conformidade com estes quadros regulamentares exige uma revisão dos processos internos das empresas, especialmente no que respeita à legalidade do tratamento de dados, à rastreabilidade dos modelos algorítmicos e à responsabilidade em caso de decisões automatizadas erróneas ou discriminatórias.
A utilização empresarial da inteligência artificial traz consigo múltiplos desafios jurídicos que exigem respostas estratégicas e preventivas por parte do sector jurídico.
Entre os mais relevantes contam-se:
- Proteção de dados e privacidade: A IA requer volumes de dados para treinar modelos preditivos ou generativos. Quando estes dados incluem informações pessoais, é acionada a aplicação integral do RGPD, com requisitos de transparência legal do tratamento, minimização de dados e medidas de segurança. Não se trata apenas de cumprir as obrigações legais, mas também de conceber sistemas que integrem os princípios da privacidade desde a conceção e por defeito.
- Propriedade intelectual: a formação de sistemas de IA com conteúdos protegidos por direitos de autor levanta a questão de saber a quem pertence a propriedade dos resultados gerados. Dado que a IA não é considerada um objeto de direito, cabe aos criadores ou utilizadores estabelecer contratualmente os limites de utilização, transferência ou exploração destes resultados, bem como as garantias contra eventuais infracções.
- Transparência: um dos maiores desafios jurídicos e éticos reside na falta de transparência dos algoritmos. O novo regulamento europeu exige que os sistemas de IA de alto risco disponham de documentação técnica para justificar as suas decisões e permitir auditorias externas.
- Responsabilidade civil e criminal: a utilização da IA não isenta de responsabilidade, tanto os criadores como os utilizadores empresariais podem ser responsabilizados por danos causados por decisões erradas automatizadas. Na medida em que a responsabilidade é um dos principais desafios, são criados mecanismos para monitorizar e prever protocolos de ação em caso de erros, enviesamentos ou consequências não intencionais.
Além disso, para além da conformidade regulamentar, a utilização responsável da IA implica a integração de princípios éticos na sua conceção e aplicação. As organizações devem adotar políticas que vão além do que é legalmente exigido, especialmente no que diz respeito a
- Não discriminação: Os preconceitos nos dados de formação podem ser transferidos para o funcionamento dos sistemas, conduzindo à discriminação com base no género, idade, raça ou outros factores. As auditorias algorítmicas e a revisão contínua dos modelos são essenciais para detetar e atenuar estes desvios.
- Controlo humano significativo: o regulamento da UE impõe a necessidade de garantir que as decisões críticas não sejam tomadas exclusivamente por processos automatizados sem intervenção ou revisão humana.
- Confiança e transparência social: a legitimidade da utilização da IA deriva não só da sua legalidade, mas também da sua aceitação pela sociedade.
Neste contexto, a conformidade regulamentar e ética não deve ser uma resposta reactiva, mas sim uma estratégia preventiva e transversal.
Assim, algumas medidas-chave que as empresas podem adotar incluem a conceção de políticas internas de compliance, avaliações de impacto legal e ético, recrutamento contínuo de equipas jurídicas e técnicas, auditorias regulares, bem como a seleção de fornecedores de tecnologia responsáveis que cumpram as normas legais exigidas e ofereçam transparência sobre o funcionamento das suas soluções.
Um dos grandes desafios do atual ano de 2025 é a necessidade de formação interdisciplinar. Os advogados precisam de compreender não só os quadros regulamentares, mas também os fundamentos técnicos.
Já é sabido que a inteligência artificial faz parte do presente das nossas organizações, mas o seu futuro dependerá da forma como a soubermos regular, utilizar e supervisionar.
O desafio jurídico em 2025 não é apenas técnico, é ético, pedagógico e regulamentar. Como profissionais do direito, temos a responsabilidade de garantir que o progresso tecnológico não corroa os direitos fundamentais, mas sim que os fortaleça através de um quadro jurídico sólido, justo e adaptado aos novos tempos.
Ana Luengo, da área de Direito Penal Económico.