Qui estableix els límits de la intel·ligència artificial en l'àmbit militar quan la llei roman en silenci?

Articles12 de març del 2026
Quan la llei no estableix límits a la intel·ligència artificial militar i a la vigilància algorítmica, aquests límits acaben sent definits en contractes i directives de l'executiu.

En el recent enfrontament entre Anthropic i el Pentàgon sobre l'ús militar de la intel·ligència artificial, a molta gent li ha cridat l'atenció la frase que ho resumeix tot: «qualsevol ús legal». Sona raonable. Qui podria oposar-se al que és legal? El problema és que, quan es tracta de la vigilància algorítmica i les armes autònomes, el marc legal dels EUA no diu prou. I quan la llei calla, l'Executiu contracta, estableix condicions per directiva administrativa i trasllada el debat fora del Congrés. Aquesta és l'essència del conflicte i l'advertiment per a qualsevol democràcia: si la llei no defineix el perímetre, el perímetre el defineix el contracte.


La política formal del Departament de Defensa s'exposa a la Directiva del DoD 3000.09 (esmenada el gener de 2023). És un document amb obligacions de seguretat, requisits de proves i el mandat de mantenir "nivells adequats de judici humà" en l'ús de la força. Però no prohibeix les armes totalment autònomes; estableix requisits i processos de revisió dins d'una política interna del Poder Executiu, no una llei del Congrés. El mateix Servei de Recerca del Congrés (CRS) confirma que la política dels EUA no prohibeix el desenvolupament o l'ús de sistemes autònoms letals. Aquesta combinació —una directiva administrativa exigent però no vinculant i l'absència d'una prohibició legislativa— és la primera escletxa en el sistema.


El marc federal ampli és la FISA (50 U.S.C. cap. 36), dissenyada per a un món de vigilància telefònica tradicional, no per a la inferència massiva de patrons o la correlació algorítmica que permeten els models fonamentals. Aquest silenci opera com un espai de permissivitat: si no hi ha una prohibició explícita i el govern emmarca les seves accions sota algun títol de la FISA, l'ús es manté dins dels límits de la "legalitat". La supervisió judicial agreuja el problema: el Tribunal Suprem ha restringit el dret a impugnar els programes de vigilància (Clapper v. Amnesty), i la interpretació ampliada del privilegi de secrets d'Estat a FBI v. Fazaga actua com un escut addicional. El resultat: poca supervisió preventiva i poques vies per esbrinar l'ús extensiu dels algorismes.


Finalment, en absència de legislació específica, l'Administració unifica els criteris a través de clàusules contractuals. En intel·ligència artificial, això s'ha cristal·litzat en el principi de qualsevol ús lícit: si és legal, el proveïdor no pot imposar vetos privats. En abstracte, sona com una defensa de la sobirania estatal. En termes concrets, és una clàusula mirall del buit: si la llei no prohibeix les armes totalment autònomes ni delimita la vigilància algorítmica massiva, 'qualsevol ús lícit' és, de fet, gairebé qualsevol ús.


Aquest debat es pot interpretar de diverses maneres. La visió estratègica sosté que l'estat no pot permetre que un proveïdor estableixi les seves pròpies normes enmig d'una crisi. La visió ètica respon que el que és legal no és necessàriament tolerable quan el cost de l'error és irreversible. La visió de mercat adverteix que si els grans actors accepten «qualsevol ús lícit», aquest es converteix en l'estàndard de facto i qui hi posa fre voluntàriament perd contractes.


Però la perspectiva que cal destacar és la jurídica-constitucional. El xoc entre l'Antropic i el Pentàgon no es pot resoldre amb més clàusules; es pot resoldre amb un marc legislatiu adequat. Fins que el Congrés no estableixi un sòl regulador clar per a l'autonomia letal —amb estàndards verificables de supervisió humana— i per a la vigilància algorítmica —límits a la reidentificació i a la correlació massiva, amb una autorització i traçabilitat reforçades—, l''ús legal qualsevol' continuarà sent una incògnita. El CRS mateix confirma que no hi ha cap prohibició federal d'armes autònomes letals i que la directiva del DoD continua sent l'única referència actual: depenem del dret tou quan es necessita dret dur.


Voleu dir que el poder executiu no hauria d'actuar? No. En un context de competència tecnològica global, les ordres executives que promouen la infraestructura i la coordinació són comprensibles. Però el mínim democràtic exigeix que els contorns de la vigilància i l'autonomia letal siguin establerts per la legislatura, no pas per la taula de contractació.


Actualment, la normativa té grans buits i la jurisprudència limita les vies de supervisió. És un sistema dissenyat per a una altra època que s'està aplicant a una tecnologia capaç de decidir i observar a una escala inimaginable fa una dècada. L'expressió «qualsevol ús lícit» no és un principi; és una deficiència. Fins que el Congrés legisli amb precisió —supervisió humana, límits a la vigilància algorítmica, auditories independents i responsabilitat compartida entre el proveïdor i l'estat—, la línia entre l'acceptable i l'inacceptable continuarà sent traçada per contractes opacs i directives internes. I això demana massa confiança i massa poc de la llei.


Una persona está de pie en la sombra frente a un edificio moderno.

Sòcies/socis relacionats

ACTUALITAT #ECIJA