C’est promis, Elon Musk et Google ne développeront pas d’IA programmée pour tuer

 

Plusieurs leaders du monde de la tech, incluant Elon Musk et les trois cofondateurs de DeepMind, la filiale Google, se sont engagés à ne développer aucune « arme létale autonome ».

Terminator – Source : Furyosa

La question de l’éthique est au centre des problématiques de l’intelligence artificielle. À ce titre, les usages militaires de l’IA sont controversés, puisqu’il s’agit souvent de blesser ou tuer des humains en utilisant des machines.

Pas (encore) de Terminator à l’horizon

Un accord publié aujourd’hui à l’occasion de l’International Joint Conference on Artificial Intelligence (conférence sur l’IA) à Stockholm tend à rassurer quant à d’éventuelles utilisations militaires de l’intelligence artificielle.

En effet, il consiste en un engagement à ne pas développer la moindre « arme létale autonome ». Celui-ci a été signé par plusieurs géants de l’intelligence artificielle. Parmi les signataires, on peut noter Elon Musk, fantasque PDG de Tesla et de SpaceX, ou encore les trois cofondateurs de Google DeepMind, dont l’IA a notamment battu le champion du monde de jeu de Go et qui s’attaque aujourd’hui aux jeux vidéo.

Le but est d’éviter d’avoir des machines qui décident sans intervention humaine de cibler et d’éliminer un être humain. L’IA aura cependant sa place pour accompagner les militaires dans leurs missions.

Le monde est-il sauf ? Pas forcément. Un grand nombre d’acteurs du milieu de l’IA n’ont pas signé cet engagement, comme Facebook ou Apple, pour ne citer qu’eux.


Envie de retrouver les meilleurs articles de Frandroid sur Google News ? Vous pouvez suivre Frandroid sur Google News en un clic.