Claude banni : Anthropic attaque les Etats-Unis en justice

 
Anthropic a refusé que son IA serve à tuer ou à surveiller les masses. Résultat, le gouvernement américain l’a classée comme « risque pour la chaîne d’approvisionnement ». Anthropic, l’éditeur derrière l’IA Claude, vient de porter plainte contre le Pentagone.

Anthropic, l’entreprise qui se veut la championne de l’IA « constitutionnelle », est officiellement en guerre contre le Pentagone.

Pour aller plus loin
Pendant qu’Anthropic (Claude) dit non aux robots tueurs, OpenAI signe avec le Pentagone

L’affaire a pris une tournure judiciaire majeure le 9 mars dernier. Anthropic a déposé plainte en Californie et à Washington pour contester son classement comme menace pour la sécurité nationale. Ce label, loin d’être un simple détail administratif, interdit de fait l’utilisation de Claude par n’importe quelle agence fédérale et jette le doute sur tous ses clients privés travaillant avec l’État.

Ce n’est pas une faille technique qui a déclenché les foudres de Washington, mais une clause de conscience. Anthropic a refusé un contrat de 200 millions de dollars (environ 185 millions d’euros) car elle exigeait la garantie que ses modèles ne soient jamais utilisés pour des armes autonomes létales ou la surveillance de masse. Le Pentagone a dit non. Et depuis, c’est l’escalade.

Une sanction aux airs de vendetta politique

Après le refus d’Anthropic, le secrétaire à la Défense, Pete Hegseth, a décrété que l’entreprise représentait un risque pour la chaîne d’approvisionnement. C’est une mesure d’une violence rare pour une société américaine, généralement réservée à des entités comme Huawei ou Kaspersky. Dans la foulée, le président Donald Trump a ordonné le bannissement pur et simple de l’IA Claude de toute l’administration.

Pour Anthropic, le calcul est vite fait : les pertes potentielles se chiffrent en centaines de millions de dollars dès 2026. Qui voudrait utiliser une IA estampillée « risque national » par la Maison-Blanche ? C’est ce que l’entreprise appelle des représailles inconstitutionnelles. Et elle n’est plus seule pour le dire : près de 150 anciens juges fédéraux et d’État viennent de déposer un mémoire en soutien à Anthropic. Ces juges estiment que le Pentagone interprète la loi de travers. En clair, l’État n’a pas l’obligation d’acheter chez Anthropic, mais il n’a pas le droit de la punir pour avoir des principes.

Le ministère de la Justice, de son côté, balaie ces arguments d’un revers de main. Pour lui, les inquiétudes financières d’Anthropic sont « spéculatives ». Sa priorité ? S’assurer que les outils d’IA intégrés aux infrastructures gouvernementales ne soient pas bridés par les états d’âme de leurs créateurs. On est ici au cœur du débat sur la souveraineté : l’État peut-il laisser une entreprise privée dicter les règles d’engagement de son armée ?

Pendant que les avocats s’écharpent, le Pentagone ne perd pas de temps. Le département de la Défense a déjà annoncé travailler activement à l’intégration des solutions de Google, OpenAI et xAI (l’IA d’Elon Musk) en remplacement de Claude.


Chaque matin, WhatsApp s’anime avec les dernières nouvelles tech. Rejoignez notre canal Frandroid pour ne rien manquer !

Recherche IA boostée par
Perplexity