
Anthropic, l’entreprise qui se veut la championne de l’IA « constitutionnelle », est officiellement en guerre contre le Pentagone.
Pour aller plus loin
Pendant qu’Anthropic (Claude) dit non aux robots tueurs, OpenAI signe avec le Pentagone
L’affaire a pris une tournure judiciaire majeure le 9 mars dernier. Anthropic a déposé plainte en Californie et à Washington pour contester son classement comme menace pour la sécurité nationale. Ce label, loin d’être un simple détail administratif, interdit de fait l’utilisation de Claude par n’importe quelle agence fédérale et jette le doute sur tous ses clients privés travaillant avec l’État.
Ce n’est pas une faille technique qui a déclenché les foudres de Washington, mais une clause de conscience. Anthropic a refusé un contrat de 200 millions de dollars (environ 185 millions d’euros) car elle exigeait la garantie que ses modèles ne soient jamais utilisés pour des armes autonomes létales ou la surveillance de masse. Le Pentagone a dit non. Et depuis, c’est l’escalade.
Une sanction aux airs de vendetta politique
Après le refus d’Anthropic, le secrétaire à la Défense, Pete Hegseth, a décrété que l’entreprise représentait un risque pour la chaîne d’approvisionnement. C’est une mesure d’une violence rare pour une société américaine, généralement réservée à des entités comme Huawei ou Kaspersky. Dans la foulée, le président Donald Trump a ordonné le bannissement pur et simple de l’IA Claude de toute l’administration.
Pour Anthropic, le calcul est vite fait : les pertes potentielles se chiffrent en centaines de millions de dollars dès 2026. Qui voudrait utiliser une IA estampillée « risque national » par la Maison-Blanche ? C’est ce que l’entreprise appelle des représailles inconstitutionnelles. Et elle n’est plus seule pour le dire : près de 150 anciens juges fédéraux et d’État viennent de déposer un mémoire en soutien à Anthropic. Ces juges estiment que le Pentagone interprète la loi de travers. En clair, l’État n’a pas l’obligation d’acheter chez Anthropic, mais il n’a pas le droit de la punir pour avoir des principes.
Le ministère de la Justice, de son côté, balaie ces arguments d’un revers de main. Pour lui, les inquiétudes financières d’Anthropic sont « spéculatives ». Sa priorité ? S’assurer que les outils d’IA intégrés aux infrastructures gouvernementales ne soient pas bridés par les états d’âme de leurs créateurs. On est ici au cœur du débat sur la souveraineté : l’État peut-il laisser une entreprise privée dicter les règles d’engagement de son armée ?
Pendant que les avocats s’écharpent, le Pentagone ne perd pas de temps. Le département de la Défense a déjà annoncé travailler activement à l’intégration des solutions de Google, OpenAI et xAI (l’IA d’Elon Musk) en remplacement de Claude.
Chaque matin, WhatsApp s’anime avec les dernières nouvelles tech. Rejoignez notre canal Frandroid pour ne rien manquer !


Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et .
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.