Le 27 mars 2026, un juge américain a rendu un verdict historique en favorisant l’entreprise Anthropic, en bloquant temporairement le blocage imposé par le Pentagone. Cette décision, rendue par le juge Lin, constitue une victoire majeure pour la société de pointe en intelligence artificielle, qui se défendait contre une interdiction de fournir ses outils de traitement du langage naturel (LLM) à des agences fédérales. Le juge a estimé que cette interdiction constituait une forme de représailles illégale visant à censurer la liberté d’expression, en violation de la première amendement des États-Unis.
Cette affaire a pris une dimension juridique complexe, marquée par des enjeux éthiques et de sécurité. Le Pentagone avait déposé une plainte en vertu de la loi sur la sécurité intérieure, argumentant que les modèles d’IA développés par Anthropic pouvaient être utilisés pour créer des armes autonomes, mettant en péril la sécurité nationale. Cependant, Anthropic a contesté cette interprétation, affirmant que ses modèles ne pouvaient pas être convertis en armes sans une intervention humaine. Le juge Lin a souligné que le Pentagone ne disposait pas de preuves suffisantes pour justifier un tel blocage, et que l’interdiction était un outil de censure plutôt qu’une mesure de sécurité.
Le contexte technique de cette affaire est crucial. Les modèles d’IA de Anthropic, tels que Claude, sont conçus pour traiter du langage naturel, répondre à des questions et générer du texte. Ils ne sont pas conçus pour des applications militaires directes, bien que leur potentiel d’usage pourrait être exploité par des tiers. Le juge Lin a mis en lumière le risque d’abus de pouvoir lorsque des gouvernements utilisent des mesures de sécurité pour contrôler les entreprises technologiques.
Cette décision soulève des questions plus larges sur la régulation de l’IA. Comment équilibrer la sécurité nationale et la liberté d’innovation ? Comment éviter que les gouvernements ne s’emparer des outils d’IA pour des fins non transparentes ? La bataille entre Anthropic et le Pentagone illustre l’importance d’un cadre juridique clair et des procédures de vérification rigoureuses.
Source originale : https://www.theverge.com/ai-artificial-intelligence/902149/anthropic-dod-pentagon-lawsuit-supply-chain-risk-injunction