Pendant qu’Anthropic (Claude) dit non aux robots tueurs, OpenAI signe avec le Pentagone

 
Dario Amodei vient de découvrir le prix réel de l’éthique en 2026. Pour avoir refusé de transformer Claude en outil de surveillance de masse, Anthropic se retrouve bannie des serveurs du Pentagone.
Donald Trump dans son bureau officiel // Source : Maison Blanche

Anthropic vient de se faire éjecter du giron fédéral américain avec une violence rare. Tout a commencé par un post de Donald Trump sur Truth Social. Le président a ordonné aux agences fédérales de cesser toute utilisation des produits de la start-up sous six mois. Mais le coup de grâce est venu de Pete Hegseth, le secrétaire à la Défense.

Pour aller plus loin
Comment Anthropic Claude tient tête à la première puissance militaire au monde

Le Pentagone a officiellement désigné Anthropic comme un risque pour la chaîne d’approvisionnement. Pour bien comprendre, cette étiquette est normalement réservée aux entreprises liées à des puissances étrangères hostiles. Ici, le crime d’Anthropic est tout autre. La société a refusé de modifier ses conditions d’utilisation pour permettre au Département de la Défense (DoD) d’utiliser Claude pour la surveillance de masse domestique et les systèmes d’armes létales autonomes.

Dario Amodei, le fondateur d’Anthropic, reste droit dans ses bottes. Il préfère perdre des contrats juteux plutôt que de voir ses modèles piloter des « robots tueurs » sans supervision humaine. Mais cette posture morale a un coût immédiat. La décision de Hegseth interdit désormais à tout contractant du Pentagone, on pense à Palantir ou AWS, de mener la moindre activité commerciale avec Anthropic.

Un divorce idéologique et technique

Le conflit a atteint son paroxysme vendredi après-midi. Le Pentagone avait lancé un ultimatum : Anthropic devait accepter un accès « sans restriction » pour tout usage légal avant 17h30.

En clair, Pete Hegseth exigeait de pouvoir intégrer Claude dans des réseaux classifiés pour n’importe quelle mission, y compris celles qui font frémir les comités d’éthique. Anthropic a dit non.

Cette désignation comme risque de sécurité nationale est une arme nucléaire administrative. Elle paralyse l’écosystème autour de la marque. Si vous êtes un fournisseur du Pentagone, toucher à Claude devient radioactif.

Le jeu trouble d’OpenAI et les conséquences

OpenAI a donc récupéré la mise en acceptant de déployer ses modèles sur les réseaux classifiés du Département de la Guerre. La promesse de Sam Altman ? Maintenir une « responsabilité humaine » sur l’usage de la force. C’est suffisant pour satisfaire Pete Hegseth là où Anthropic avait bloqué. OpenAI occupe désormais le terrain laissé vide, demandant même au Pentagone d’imposer ces mêmes termes à toute l’industrie.

Pour Anthropic, la bataille se déplace maintenant sur le terrain judiciaire. L’entreprise a annoncé son intention de contester cette désignation de « risque » devant les tribunaux. C’est une question de survie commerciale. Si cette étiquette reste, Claude pourrait être banni de pans entiers de l’économie américaine qui dépendent, de près ou de loin, de contrats fédéraux.


Recherche IA boostée par
Perplexity