Le 28 février 2026, Pete Hegseth, secrétaire à la Défense nommé par Trump, signe un ordre sans précédent dans l’histoire des marchés publics américains : Anthropic et son IA Claude sont désignés « risque pour la chaîne d’approvisionnement » du Pentagone. Une classification habituellement réservée à Huawei ou aux entités liées au Kremlin. Cette fois, elle vise une startup californienne dont le seul tort est d’avoir dit non.
Ce clash concentre des tensions qui couvaient depuis des années : jusqu’où une entreprise privée peut-elle résister à l’État fédéral au nom de l’éthique ? Et à quel prix ? Le 26 mars 2026, la juge fédérale Lin a rendu son premier verdict : une injonction préliminaire en faveur d’Anthropic, qualifiant le ban gouvernemental de « rétorsion orwellienne ».
Mise à jour 26 mars : victoire en justice pour Anthropic
Le 26 mars 2026, la juge fédérale Lin accorde une injonction préliminaire en faveur d’Anthropic, bloquant temporairement les effets de la designation supply chain. Dans sa décision, la magistrate qualifie le ban gouvernemental de « rétorsion orwellienne » — une formulation rare dans un jugement fédéral, qui signale que le tribunal considère la désignation comme une sanction politique déguisée en mesure de sécurité.
Cette injonction préliminaire ne résout pas le fond du litige, mais elle produit deux effets immédiats : Anthropic peut continuer à opérer sans les restrictions imposées par la designation pendant la durée du procès, et le DoD ne peut pas accélérer le phase-out des contrats existants. C’est un signal fort envoyé à l’administration Trump sur les limites de l’instrumentalisation des classifications de sécurité contre des entreprises américaines privées.
La juge Lin a utilisé le terme « rétorsion orwellienne » — une formulation délibérément forte qui place la décision gouvernementale dans le registre de l’arbitraire autoritaire, pas de la sécurité nationale légitime.
Pour Anthropic, cette victoire judiciaire valide rétrospectivement la stratégie de résistance : tenir la ligne éthique, accepter le coût financier à court terme, et laisser les institutions juridiques trancher. Le scénario 1 esquissé plus bas dans cet article — « Anthropic tient et gagne » — prend désormais une consistance concrète.
La Timeline : Du Contrat à la Blacklist
Claude était, jusqu’à cette décision, le seul modèle d’IA déployé sur les réseaux classifiés du Pentagone. Pas une curiosité de laboratoire : un outil opérationnel, utilisé dans des missions sensibles incluant la capture de Nicolás Maduro. Le contrat initial atteignait 200 millions de dollars, déployé via AWS sur l’infrastructure Joint Warfighting Cloud Capability, avec les puces Trainium d’Amazon comme substrat technique.
Les négociations se dégradent courant janvier 2026. Emil Michael, sous-secrétaire à la Défense, pousse des demandes précises : suppression des filtres qui empêchent Claude d’assister à la surveillance domestique de masse (géolocalisation, analyse de données financières via courtiers, historiques de navigation) et désactivation des garde-fous contre le développement d’armes autonomes létales.
Anthropic refuse. Dario Amodei présente la position comme non négociable. Michael répond en qualifiant le CEO d’homme souffrant d’un « complexe de Dieu« . Trump publie sur Truth Social un ordre d’arrêt immédiat de l’usage de Claude par toutes les agences fédérales. La designation officielle tombe fin février.
Le contrat est résilié avec un phase-out de 6 mois. Les équipes du DoD ont jusqu’à août 2026 pour migrer vers d’autres solutions. Des officiels parlent en privé d’un « énorme casse-tête opérationnel ».
Ce Que le Pentagone Voulait Vraiment

Les demandes du DoD méritent d’être lues sans filtre. Le Pentagone voulait un accès à trois capacités spécifiques que Claude refuse systématiquement par conception :
- Surveillance de citoyens américains sans mandat judiciaire, via agrégation de données commerciales
- Assistance à la conception de systèmes d’armes autonomes capables de sélectionner des cibles sans intervention humaine
- Opérations de collecte de renseignement contournant les garde-fous légaux existants (Foreign Intelligence Surveillance Act)
Ces restrictions sont codées dans la Constitution d’Anthropic, le document qui définit les valeurs et limites de Claude.
Elles ne sont pas des paramètres ajustables dans une interface admin : elles font partie de l’architecture de valeurs du modèle. Les retirer demanderait de réentraîner Claude depuis une phase avancée, avec des implications imprévisibles sur ses autres comportements.
Emil Michael le savait. L’offre « meilleure et finale » du DoD n’était pas une invitation à négocier : c’était un ultimatum destiné à forcer une capitulation publique ou à créer un précédent légal.
L’Accord OpenAI : Ce Que Les Communiqués Ne Disent Pas
OpenAI a signé avec le Pentagone. Les termes exacts restent classifiés, mais les contours sont connus : l’accord autorise un usage militaire élargi de GPT-4 et des modèles suivants, avec des garde-fous allégés sur les applications de défense.
Microsoft, partenaire stratégique d’OpenAI, facilite l’intégration via Azure Government Secret.
Ce choix a un coût humain documenté. Entre 2023 et 2024, plusieurs figures de haut rang ont quitté OpenAI en citant explicitement des préoccupations sur l’alignement éthique : Ilya Sutskever, cofondateur et ancien directeur scientifique, et Jan Leike, responsable de l’équipe Alignment, ont tous deux évoqué une dérive vers la prioritisation des contrats commerciaux et défense sur la recherche de sécurité.
Leike a été particulièrement direct dans sa lettre de démission, décrivant une culture où la « culture de sécurité et les processus » avaient été relégués derrière la croissance produit.
Ces départs ne sont pas anecdotiques : ils signalent que le débat qu’Anthropic mène publiquement face au Pentagone s’est aussi joué, en interne et en silence, chez son principal concurrent.
La différence entre OpenAI et Anthropic n’est pas idéologique dans l’absolu : c’est une différence de gouvernance.
Anthropic a structuré légalement ses principes éthiques de façon à les rendre difficiles à contourner même sous pression économique. Dans ce contexte, l’AI Act européen apporte un cadre réglementaire qui impose ces mêmes obligations de gouvernance IA à toutes les entreprises françaises avant août 2026.
L’Impact Financier : Plus d’un Milliard en Jeu

Le contrat direct de 200 millions de dollars n’est que la partie visible. L’impact réel dépasse le milliard de dollars quand on intègre les effets en cascade.
Palantir est le premier touché. La société de Peter Thiel avait construit des modules d’analyse opérationnelle pour clients militaires en s’appuyant directement sur Claude comme moteur de raisonnement.
La migration forcée vers d’autres modèles implique des reconfigurations coûteuses et des délais de validation sur réseaux classifiés, estimés entre 3 et 6 mois par les équipes techniques du DoD.
Au-delà de Palantir, les defense contractors qui avaient intégré Claude dans leurs pipelines de développement de systèmes d’armement (Lockheed Martin, Raytheon, Booz Allen Hamilton) doivent requalifier leurs architectures.
Chaque requalification sur réseau classifié coûte entre 2 et 15 millions selon la complexité du système.
La FDA utilisait Claude pour accélérer l’analyse de dossiers de safety pharmacologique.
Ce cas illustre un paradoxe : des agences civiles perdent un outil de sécurité publique à cause d’un conflit entre le DoD et Anthropic.
La fintech sector s’était aussi vue interdire préemptivement l’usage de Claude pour certains cas d’usage financiers sensibles, par crainte de contamination réglementaire.
Du côté d’Anthropic, la perte de revenus fédéraux représente une pression réelle pour une entreprise qui, malgré ses valorisations vertigineuses (18 milliards de dollars en 2024), reste en phase de croissance avec des coûts d’infrastructure massifs.
Le pivot d’Anthropic vers les secteurs finance et légal avec Claude Opus prend un sens nouveau : diversifier les revenus loin de la dépendance fédérale américaine.
Le Paradoxe de l’App Store
Voici le détail que peu d’analyses mentionnent : Claude reste disponible en téléchargement libre sur l’App Store d’Apple et sur Google Play.
N’importe quel employé du Pentagone peut l’installer sur son téléphone personnel en trente secondes.
La blacklist interdit l’usage institutionnel et contractuel de Claude, pas l’accès au modèle. Elle vise les intégrations officielles, pas les usages individuels.
Ce paradoxe révèle la nature réelle de la décision : ce n’est pas une mesure de sécurité au sens technique, c’est une sanction commerciale déguisée en désignation de risque.
Le parallèle avec l’obligation faite aux opérateurs télécoms de créer des backdoors pour les services de renseignement est éclairant. Quand le FBI a demandé à Apple de créer une version modifiée d’iOS pour accéder à l’iPhone du tireur de San Bernardino en 2016, Apple a refusé.
Le gouvernement n’a pas qualifié Apple de « risque pour la chaîne d’approvisionnement ».
Le précédent Anthropic est donc qualitativement différent : il marque l’usage d’un outil de politique industrielle (la designation supply chain) à des fins de coercition sur une entreprise américaine privée.
Les Arguments Légaux : Territoire Inexploré
La Defense Production Act est au centre du bras de fer juridique. Le DoD a invoqué cette loi pour qualifier Claude d’actif « essentiel à la défense nationale », ce qui en théorie pourrait forcer Anthropic à fournir l’accès.
Anthropic rétorque qu’on ne peut pas simultanément qualifier une entreprise de « risque supply chain » (statut réservé aux adversaires) et d’actif essentiel à forcer : les deux désignations sont légalement contradictoires.
Le National Defense Authorization Act donne à Hegseth une autorité étendue pour ces classifications, mais sans précédent d’application à une IA éthique américaine.
Les arguments constitutionnels potentiels portent sur la liberté contractuelle et sur le premier amendement : une IA dont les « valeurs » sont un produit éditorial peut-elle être forcée à changer sa « parole » ?
Aucun procès n’est officiellement engagé au moment de la rédaction de cet article.
Mais les bases légales d’un recours existent, et le timing d’un verdict éventuel (fin 2026 selon les estimations) coïnciderait avec les midterms américains, rendant l’affaire politiquement explosive.
Implications Géopolitiques : Le Vrai Calcul

La Chine développe des IA militaires sans aucune des restrictions qui font débat ici.
Le modèle chinois : intégration directe PLA-industrie tech, absence de garde-fous éthiques codifiés, déploiement massif sur systèmes de surveillance (Xinjiang étant le laboratoire à grande échelle).
Si les États-Unis se divisent entre IA éthique et IA militarisée, Pékin n’a pas ce problème.
C’est l’argument central du Pentagone, et il mérite d’être pris au sérieux. Un Claude qui refuse d’identifier une cible au milieu d’une opération créé un risque opérationnel réel.
Un système d’IA avec des garde-fous imprévisibles est, du point de vue militaire, un système peu fiable.
L’UE AI Act de 2024 interdit explicitement les systèmes d’armes autonomes et la surveillance sans mandat judiciaire, alignant la position européenne sur celle d’Anthropic.
La France de Macron pousse pour une clause militaire dans l’Acte qui serait exemptée des restrictions les plus strictes, mais encadrée par un organe de contrôle indépendant.
Cette position intermédiaire, qui reconnaît le besoin militaire sans abandonner toute supervision, est ce que le Pentagone refuse catégoriquement.
L’histoire retiendra peut-être ce moment comme l’équivalent de la scission nucléaire civile/militaire des années 1950 : le point où l’IA a bifurqué entre deux modèles de gouvernance irréconciliables.
La gouvernance démocratique de l’IA que défendent des chercheurs et institutions est précisément ce que ce conflit met à l’épreuve : peut-on maintenir un cadre éthique quand la sécurité nationale est invoquée ?
Les Scénarios Possibles d’Ici 2027
Scénario 1 : Anthropic tient et gagne. Un recours légal aboutit, la designation supply chain est annulée, et Anthropic réintègre les marchés fédéraux avec ses garde-fous intacts.
Ce scénario renforce l’éthique comme différenciateur commercial, attire des investisseurs européens et des clients institutionnels sensibles à la conformité RGPD.
Le marché militaire américain est perdu, mais le marché civil international est consolidé.
Scénario 2 : Anthropic cède partiellement. Un accord négocié crée une version « Claude Defense » avec des garde-fous allégés sur des cas d’usage militaires précis, supervisée par un comité indépendant.
Ce compromis ressemble à ce que fait Palantir depuis des années : vendre aux gouvernements tout en maintenant une façade éthique.
Le risque : dilution de la proposition de valeur et perte de confiance des utilisateurs non-gouvernementaux.
Scénario 3 : La fracture s’institutionnalise. Les États-Unis opèrent avec une IA militaire (OpenAI/Microsoft) et une IA civile (Anthropic/Google civile). L’UE adopte ses propres standards.
La Chine continue sans contrainte. On arrive à un monde où trois régimes d’IA incompatibles coexistent, compliquant toute coopération internationale sur la sécurité des systèmes.
Le cadre réglementaire de l’AI Act et de la CNIL sera déterminant pour voir si l’Europe peut incarner une troisième voie crédible entre les deux modèles américains.
Cette controverse va structurer la régulation de l’IA militaire pour la prochaine décennie.
Les garde-fous éthiques ne disparaissent pas par décret : soit on les négocie dans un cadre légal clair, soit on crée un marché parallèle où ils n’existent pas. Anthropic a-t-elle raison de tenir cette ligne ?
FAQ
Pourquoi le Pentagone a-t-il qualifié Anthropic de « risque pour la chaîne d’approvisionnement » ?
Cette designation, normalement réservée aux entités étrangères hostiles comme Huawei, a été appliquée à Anthropic après son refus de lever les garde-fous éthiques de Claude. Le DoD a choisi cet outil juridique car il permet une exclusion administrative rapide sans passer par un tribunal fédéral.
Quels garde-fous Claude refuse-t-il de désactiver ?
Claude refuse d’assister à la surveillance de masse sans mandat judiciaire (agrégation de données de géolocalisation, financières et de navigation), au développement d’armes autonomes sélectionnant des cibles sans intervention humaine, et aux opérations de renseignement contournant le Foreign Intelligence Surveillance Act.
OpenAI a-t-il les mêmes restrictions que Claude ?
OpenAI a signé un accord avec le Pentagone incluant des clauses d’usage militaire élargi. Les termes exacts sont classifiés, mais les démissions de figures comme Jan Leike et Ilya Sutskever en 2023-2024 indiquent que les garde-fous internes ont été assouplis sous pression commerciale et gouvernementale.
Quel est l’impact financier réel pour Anthropic ?
Le contrat direct perdu représente 200 millions de dollars. L’impact total dépasse le milliard quand on intègre les marchés fédéraux adjacents perdus, les defense contractors qui devaient utiliser Claude, et les agences civiles comme la FDA qui l’utilisaient pour des missions de sécurité publique.
Combien de temps prendra la migration du Pentagone vers d’autres IA ?
Les équipes techniques du DoD estiment entre 3 et 6 mois pour migrer vers des alternatives, avec des phases de revalidation sur réseaux classifiés. Le phase-out contractuel court jusqu’en août 2026. Palantir, qui dépend de Claude pour ses projets militaires, est particulièrement exposé à ces délais.
Peut-on encore utiliser Claude personnellement si on travaille pour le Pentagone ?
La blacklist interdit l’usage institutionnel et contractuel de Claude, pas l’accès personnel. L’application Claude reste disponible sur l’App Store et Google Play. Ce paradoxe souligne que la désignation est une sanction commerciale, pas une mesure de sécurité technique au sens strict.
La Defense Production Act peut-elle forcer Anthropic à modifier Claude ?
Le DoD l’a invoquée pour qualifier Claude d’actif essentiel à la défense. Anthropic conteste la contradiction légale : on ne peut pas simultanément désigner une entreprise comme « risque supply chain » (statut d’adversaire) et comme actif essentiel à forcer. Les tribunaux n’ont jamais tranché cette question pour une IA.
Quelle est la position de l’Union Européenne sur l’IA militaire ?
L’EU AI Act de 2024 interdit les systèmes d’armes autonomes et la surveillance sans mandat judiciaire, alignant la régulation européenne sur les principes défendus par Anthropic. La France négocie une clause militaire exemptée mais encadrée par un organe de contrôle indépendant, position que le Pentagone américain rejette.
Que risque concrètement la sécurité nationale américaine si Anthropic maintient ses garde-fous ?
Le DoD argue qu’un système d’IA avec des refus imprévisibles au milieu d’opérations crée un risque opérationnel. Si Claude refuse d’identifier une cible ou d’analyser des communications pendant une mission, cela peut coûter des vies ou faire échouer une opération. C’est l’argument de fond, distinct de la question de la surveillance domestique.
Quels précédents historiques éclairent ce conflit ?
Le refus d’Apple de créer une backdoor iOS pour le FBI en 2016 est le précédent le plus proche, mais sans la designation supply chain. Plus largement, le débat rappelle la scission entre nucléaire civil et militaire dans les années 1950 : le moment où une technologie bifurque entre deux régimes de gouvernance que les acteurs refusent de voir converger.
Pour aller plus loin, consultez Claude 3 d’Anthropic, Claude Opus 4.6 et Anthropic Computer Use.
Articles Similaires
Reddit bloque le scraping IA : ce qui change pour les LLM et l’open source
Le 25 mars 2026, Reddit a déclenché une onde de choc dans la communauté IA : la plateforme ferme ses portes aux scrapers automatisés, impose la vérification biométrique pour les…
Jensen Huang déclare l’AGI atteinte : analyse d’une annonce qui divise
Le 22 mars 2026, à 1h55 dans l’épisode 494 du podcast Lex Fridman, Jensen Huang a prononcé cinq mots qui ont secoué la planète tech. Jensen Huang, PDG de Nvidia,…