Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

C'est promis, Elon Musk et Google ne développeront pas d'IA programmée pour tuer

Plusieurs leaders du monde de la tech, incluant Elon Musk et les trois cofondateurs de DeepMind, la filiale Google, se sont engagés à ne développer aucune "arme létale autonome".

La question de l'éthique est au centre des problématiques de l'intelligence artificielle. À ce titre, les usages militaires de l'IA sont controversés, puisqu'il s'agit souvent de blesser ou tuer des humains en utilisant des machines.

Pas (encore) de Terminator à l'horizon

Un accord publié aujourd'hui à l'occasion de l’International Joint Conference on Artificial Intelligence (conférence sur l'IA) à Stockholm tend à rassurer quant à d'éventuelles utilisations militaires de l'intelligence artificielle.

En effet, il consiste en un engagement à ne pas développer la moindre "arme létale autonome". Celui-ci a été signé par plusieurs géants de l'intelligence artificielle. Parmi les signataires, on peut noter Elon Musk, fantasque PDG de Tesla et de SpaceX, ou encore les trois cofondateurs de Google DeepMind, dont l'IA a notamment battu le champion du monde de jeu de Go et qui s'attaque aujourd'hui aux jeux vidéo.

Le but est d'éviter d'avoir des machines qui décident sans intervention humaine de cibler et d'éliminer un être humain. L'IA aura cependant sa place pour accompagner les militaires dans leurs missions.

Le monde est-il sauf ? Pas forcément. Un grand nombre d'acteurs du milieu de l'IA n'ont pas signé cet engagement, comme Facebook ou Apple, pour ne citer qu'eux.

https://www.frandroid.com/culture-tech/411856_faut-il-avoir-peur-de-lintelligence-artificielle