L’IA a la rescousse des systèmes d’armement nucléaire du Pentagone ?

 
Le Pentagone explore l’utilisation de l’intelligence artificielle pour « améliorer » ses systèmes de commandement et de contrôle nucléaire (NC3), malgré les engagements antérieurs des États-Unis de maintenir le contrôle humain sur l’arsenal nucléaire.
Source : Unsplash

Le général Anthony J. Cotton, commandant du US Strategic Command, a révélé lors de la conférence 2024 du Département de la Défense que son service étudie « toutes les technologies possibles » pour moderniser les capacités NC3. Cette déclaration intervient dans un contexte où les États-Unis prévoient d’investir 1,7 trillion de dollars pour mettre à jour leur arsenal nucléaire.

Cotton a toutefois tenu à rassurer : « L’IA améliorera nos capacités de prise de décision, mais nous ne devons jamais lui permettre de prendre ces décisions à notre place ». Cette position fait écho à l’engagement pris en mai dernier par Paul Dean, responsable du contrôle des armements au Département d’État, affirmant la volonté américaine de maintenir le contrôle humain sur les armes nucléaires.

Pour aller plus loin
Pourquoi Google passe au nucléaire pour alimenter son IA

L’IA pourrait rendre les armes nucléaires encore plus dangereuses

Les motivations avancées pour l’intégration de l’IA incluent la gestion d’un volume croissant de données de capteurs, les préoccupations de cybersécurité, et la nécessité de maintenir l’avantage stratégique américain. Chris Adams, de Northrop Grumman, souligne que le NC3 comprend des centaines de systèmes qui doivent être modernisés face à des menaces en constante évolution.

Cependant, des inquiétudes persistent. Une étude récente impliquant différents modèles d’IA, dont GPT-4, a révélé une tendance inquiétante à l’escalade dans les simulations de conflits, certains systèmes allant jusqu’à suggérer l’utilisation d’armes nucléaires sans avertissement. On espère que le prochain GPT-5 ne tiendra pas de propos similaires, puisqu’on sait déjà qu’OpenAI veut en faire une véritable superintelligence.

Le général Cotton est heureusement bien conscient de ces risques : « Nous devons orienter nos recherches pour comprendre les effets en cascade des modèles d’IA, les comportements inattendus, et l’intégration indirecte de l’IA dans les processus de décision nucléaire ».

Bien que l’expert Alex Wellerstein de l’Institut Stevens de Technologie estime qu’il ne s’agit pas d’un scénario « Skynet », l’influence potentielle de l’IA sur les décisions nucléaires soulève des questions éthiques et sécuritaires majeures. Le défi consistera évidemment à trouver un équilibre entre modernisation technologique et maintien d’un contrôle humain absolu sur ces armes de destruction massive.


Utilisez-vous Google News (Actualités en France) ? Vous pouvez suivre vos médias favoris. Suivez Frandroid sur Google News (et Numerama).