Quem estabelece os limites da inteligência artificial no domínio militar quando a lei é omissa?
No recente confronto entre a Anthropic e o Pentágono sobre a utilização militar da inteligência artificial, muitas pessoas ficaram impressionadas com a frase que resume tudo: "qualquer utilização legal". Parece razoável. Quem é que se pode opor ao que é legal? O problema é que, quando se trata de vigilância algorítmica e de armas autónomas, o quadro jurídico dos EUA não diz o suficiente. E quando a lei é omissa, o Poder Executivo
E quando a lei é omissa, o Poder Executivo contrata, estabelece condições através de diretivas administrativas e desloca o debate para fora do Congresso. Esta é a essência do conflito e um aviso para qualquer democracia: se a lei não define o perímetro, o contrato define o perímetro.
A política formal do Departamento de Defesa está definida na Diretiva DoD 3000.09 (alterada em janeiro de 2023). É um documento com obrigações de segurança, requisitos de teste e o mandato de manter "níveis apropriados de julgamento humano" no uso da força. Mas não proíbe armas totalmente autónomas; estabelece requisitos e processos de revisão no âmbito de uma política interna do Poder Executivo e não de uma lei do Congresso. O próprio Serviço de Investigação do Congresso (CRS) confirma que a política dos EUA não proíbe o desenvolvimento ou a utilização de sistemas autónomos letais. Esta combinação - uma diretiva administrativa exigente mas não vinculativa e a ausência de uma proibição legislativa - é a primeira brecha no sistema.
O quadro federal geral é a FISA (50 U.S.C. Capítulo 36), concebida para um mundo de vigilância telefónica tradicional, não para a inferência maciça de padrões ou correlação algorítmica permitida pelos modelos fundamentais. Este silêncio funciona como um espaço de permissividade: se não houver uma proibição explícita e o governo enquadrar as suas acções num qualquer título da FISA, a utilização permanece dentro dos limites da "legalidade". A supervisão judicial agrava o problema: o Supremo Tribunal restringiu o direito de contestar os programas de vigilância(Clapper v. Amnistia) e a interpretação alargada do privilégio do segredo de Estado no caso FBI v. Fazaga funciona como um escudo adicional. O resultado: pouca supervisão preventiva e poucas vias para averiguar a utilização extensiva de algoritmos.
Finalmente, na ausência de legislação específica, a Administração unifica os critérios através de cláusulas contratuais. Na inteligência artificial, isto cristalizou-se no princípio de qualquer utilização lícita: se for legal, o fornecedor não pode impor vetos privados. Abstratamente, soa como uma defesa da soberania do Estado. Em termos concretos, é uma cláusula-espelho do vazio: se a lei não proíbe armas totalmente autónomas ou não delimita a vigilância algorítmica maciça, "qualquer utilização lícita" é, de facto, quase qualquer utilização.
Este debate pode ser interpretado de várias formas. O ponto de vista estratégico defende que o Estado não pode permitir que um fornecedor estabeleça as suas próprias regras no meio de uma crise. O ponto de vista ético responde que o que é legal não é necessariamente tolerável quando o custo do erro é irreversível. A perspetiva do mercado adverte que, se os principais intervenientes aceitarem "qualquer utilização legal", esta tornar-se-á a norma de facto e aqueles que voluntariamente a travarem perderão contratos.
Mas a perspetiva que deve ser destacada é a jurídico-constitucional. O embate entre o Antropic e o Pentágono não pode ser resolvido com mais cláusulas; pode ser resolvido com um quadro legislativo adequado. Enquanto o Congresso não estabelecer uma base regulamentar clara para a autonomia letal - com normas verificáveis de controlo humano - e para a vigilância algorítmica - limites à reidentificação e à correlação maciça, com autorização e rastreabilidade reforçadas - "qualquer utilização legal" continuará a ser uma incógnita. O próprio CRS confirma que não existe uma proibição federal de armas autónomas letais e que a diretiva do DoD continua a ser a única referência atual: dependemos da soft law quando é necessária a hard law.
Está a dizer que o poder executivo não deve agir? Não. Num contexto de concorrência tecnológica global, as ordens executivas que promovem as infra-estruturas e a coordenação são compreensíveis. Mas o mínimo democrático exige que os contornos da vigilância e da autonomia letal sejam estabelecidos pela legislatura e não pela mesa de contratação.
Atualmente, os regulamentos apresentam lacunas significativas e a jurisprudência limita as vias de controlo. É um sistema concebido para outra época que está a ser aplicado a uma tecnologia capaz de decidir e observar a uma escala inimaginável há uma década. A frase "qualquer utilização lícita" não é um princípio; é uma deficiência. Até que o Congresso legisle com precisão - supervisão humana, limites à vigilância algorítmica, auditorias independentes e responsabilidade partilhada entre o fornecedor e o Estado - a linha entre o aceitável e o inaceitável continuará a ser traçada por contratos opacos e diretivas internas. E isso exige demasiada confiança e muito pouco da lei.