Plusieurs leaders du monde de la tech, incluant Elon Musk et les trois cofondateurs de DeepMind, la filiale Google, se sont engagés à ne développer aucune « arme létale autonome ».

Terminator – Source : Furyosa

La question de l’éthique est au centre des problématiques de l’intelligence artificielle. À ce titre, les usages militaires de l’IA sont controversés, puisqu’il s’agit souvent de blesser ou tuer des humains en utilisant des machines.

Pas (encore) de Terminator à l’horizon

Un accord publié aujourd’hui à l’occasion de l’International Joint Conference on Artificial Intelligence (conférence sur l’IA) à Stockholm tend à rassurer quant à d’éventuelles utilisations militaires de l’intelligence artificielle.

En effet, il consiste en un engagement à ne pas développer la moindre « arme létale autonome ». Celui-ci a été signé par plusieurs géants de l’intelligence artificielle. Parmi les signataires, on peut noter Elon Musk, fantasque PDG de Tesla et de SpaceX, ou encore les trois cofondateurs de Google DeepMind, dont l’IA a notamment battu le champion du monde de jeu de Go et qui s’attaque aujourd’hui aux jeux vidéo.

Le but est d’éviter d’avoir des machines qui décident sans intervention humaine de cibler et d’éliminer un être humain. L’IA aura cependant sa place pour accompagner les militaires dans leurs missions.

Le monde est-il sauf ? Pas forcément. Un grand nombre d’acteurs du milieu de l’IA n’ont pas signé cet engagement, comme Facebook ou Apple, pour ne citer qu’eux.

À lire sur FrAndroid : Faut-il avoir peur de l’intelligence artificielle ?