
Les machines sont-elles dotées d’une sensibilité propre ? Si la question est au moins vieille comme Philip K. Dick, la réponse est un ferme et définitif « non », selon Microsoft. Interrogé par le média CNBC, le responsable de la branche IA de chez Microsoft a tenté de mettre un terme aux rêveries philosophico-techniques de l’ère IA.
Soucieux d’informer le public sur les risques liés à cette perception erronée de l’apprentissage machine, Mustafa Suleyman a cherché à réorienter le débat concernant l’IA sur des questions plus fertiles.
Une idée « absurde »
« Notre perception de la douleur est quelque chose qui nous rend tristes et nous fait nous sentir mal. L’IA ne ressent pas de tristesse lorsqu’elle éprouve de la “douleur” », explique le cadre de chez Microsoft, « on le sait, puisqu’on peut voir comment le modèle fonctionne », assène-t-il. Tout au plus, ces réseaux de neurones peuvent « créer la perception, un semblant imaginaire d’expérience de soi-même et de conscience », poursuit Mustafa Suleyman.
Selon lui donc, la quête d’une IA « consciente » n’est pas un champ de recherche « que les gens devraient creuser », allant même jusqu’à décrire l’idée comme « absurde ». « Si vous posez les mauvaises questions, vous finirez avec de mauvaises réponses », synthétise le responsable. La sensibilité de l’IA est à détacher de l’intelligence des modèles selon Mustafa Suleyman « Elles ne le sont pas et ne le seront jamais », conclut le responsable sur la question de la conscience.
Une fiction savamment entretenue
Si la question s’est autant posé ces dernières années, c’est que l’avancée des grands modèles de langage, comme ChatGPT, ont volontiers laissé l’impression que se trouvait derrière l’écran un véritable être de chair et de silicium là où se trouvait plutôt des algorithmes, des 1 et des 0. Cette perception de l’IA comme une entité consciente a d’ailleurs été alimentée par des pontes de l’industrie, comme Blake Lemoine, ingénieur chez Google, ou, plus timidement, par des personnalités comme Idriss Aberkane.
    Pour aller plus loin
            Une IA aurait poussé un adolescent au suicide en prétendant avoir des émotions
            
Une des (nombreuses) problématiques derrière cette idée est qu’en entretenant le flou sur ce que pourrait « ressentir » ou non les IA, les utilisateurs et utilisatrices peuvent s’attacher aux robots conversationnels avec, parfois, des conséquences dramatiques.
Envie de rejoindre une communauté de passionnés ? Notre Discord vous accueille, c’est un lieu d’entraide et de passion autour de la tech.

Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix