
Nous avons d’un côté Grok, le chatbot d’Elon Musk, actuellement sous le feu des critiques mondiales et d’enquêtes judiciaires pour avoir permis la création massive de deepfakes pornographiques non consensuels. De l’autre, nous avons le Pentagone, l’institution qui gère l’arsenal militaire le plus puissant de la planète.
Et la nouvelle du jour ? Ils vont travailler ensemble.
Le secrétaire à la Défense, Pete Hegseth, l’a annoncé depuis les locaux de SpaceX au Texas : Grok, ainsi que le moteur d’IA de Google, on parle ici de Gemini, vont être intégrés aux réseaux du département de la Défense.

On parle d’intégrer ces IA sur des réseaux, classifiés ou non, pour exploiter 20 ans de données opérationnelles et de renseignement.
Un timing qui défie la logique
Il faut quand même oser. L’annonce tombe quelques jours seulement après que la Malaisie et l’Indonésie ont bloqué l’accès à Grok, et que le Royaume-Uni a lancé une enquête de sécurité. La raison ? L’IA de Musk n’a quasiment aucun filtre, elle permet de générer tout et n’importe quoi, du contenu haineux aux fausses images compromettantes.
Intégrer une technologie aussi instable, qui a par le passé fait l’éloge d’Adolf Hitler ou partagé du contenu antisémite, au cœur du système nerveux de l’armée américaine, ça semble tellement fou. Pour ne pas dire complètement inconscient.
La promesse d’Hegseth est simple : la vitesse. « Nous avons besoin que l’innovation vienne de partout », dit-il. L’idée est de gaver ces modèles avec des téraoctets de données « éprouvées au combat ». Sur le papier, c’est logique : une IA nourrie au rapport tactique sera plus pertinente. Dans les faits ? Si le modèle hallucine une menace ou interprète mal une donnée critique parce qu’il a été conçu pour être « rebelle » sur X (ex-Twitter), les conséquences ne se mesureront pas en tweets indignés, mais en vies humaines.
La croisade « anti-woke » avant la sécurité ?
C’est là que ça devient politique. Le choix de Grok n’est pas uniquement technique, il est idéologique. Pete Hegseth a été très clair : il veut une IA qui « ne sera pas woke ».
Pour lui, les garde-fous éthiques, que l’administration Biden avait tenté de mettre en place pour éviter que l’IA ne viole les droits civiques ou ne déclenche une guerre nucléaire par erreur, sont des « contraintes idéologiques ». Il rejette tout modèle qui « ne permettrait pas de mener des guerres ».
L’administration américaine précédente avait tracé des lignes rouges : pas d’IA dans la chaîne de commandement nucléaire, pas d’automatisation aveugle. Avec cette nouvelle directive, et l’arrivée d’un outil aussi imprévisible que Grok, on ignore si ces barrières tiennent encore debout.
Pour ne rater aucun bon plan, rejoignez notre nouveau channel WhatsApp Frandroid Bons Plans, garanti sans spam !

Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et .
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.