« Elles ne le sont pas et ne le seront jamais » : Microsoft remet les pendules à l’heure sur les pseudos IA « conscientes »

 
Alors que les modèles d’intelligences artificielles génératives prennent de plus en plus de place dans notre quotidien, le responsable IA de Microsoft tente de calmer les ardeurs anthropomorphiques qui s’emparent de la Silicon Valley.
Mustafa Suleyman, ponte de l’IA chez Microsoft // Crédit : Christopher Wilson – Wikipedia Commons (CC BY-SA 4.0)

Les machines sont-elles dotées d’une sensibilité propre ? Si la question est au moins vieille comme Philip K. Dick, la réponse est un ferme et définitif « non », selon Microsoft. Interrogé par le média CNBC, le responsable de la branche IA de chez Microsoft a tenté de mettre un terme aux rêveries philosophico-techniques de l’ère IA.

Soucieux d’informer le public sur les risques liés à cette perception erronée de l’apprentissage machine, Mustafa Suleyman a cherché à réorienter le débat concernant l’IA sur des questions plus fertiles.

Une idée « absurde »

« Notre perception de la douleur est quelque chose qui nous rend tristes et nous fait nous sentir mal. L’IA ne ressent pas de tristesse lorsqu’elle éprouve de la “douleur” », explique le cadre de chez Microsoft, « on le sait, puisqu’on peut voir comment le modèle fonctionne », assène-t-il. Tout au plus, ces réseaux de neurones peuvent « créer la perception, un semblant imaginaire d’expérience de soi-même et de conscience », poursuit Mustafa Suleyman.

Selon lui donc, la quête d’une IA « consciente » n’est pas un champ de recherche « que les gens devraient creuser », allant même jusqu’à décrire l’idée comme « absurde ». « Si vous posez les mauvaises questions, vous finirez avec de mauvaises réponses », synthétise le responsable. La sensibilité de l’IA est à détacher de l’intelligence des modèles selon Mustafa Suleyman « Elles ne le sont pas et ne le seront jamais », conclut le responsable sur la question de la conscience.

Une fiction savamment entretenue

Si la question s’est autant posé ces dernières années, c’est que l’avancée des grands modèles de langage, comme ChatGPT, ont volontiers laissé l’impression que se trouvait derrière l’écran un véritable être de chair et de silicium là où se trouvait plutôt des algorithmes, des 1 et des 0. Cette perception de l’IA comme une entité consciente a d’ailleurs été alimentée par des pontes de l’industrie, comme Blake Lemoine, ingénieur chez Google, ou, plus timidement, par des personnalités comme Idriss Aberkane.

Pour aller plus loin
Une IA aurait poussé un adolescent au suicide en prétendant avoir des émotions

Une des (nombreuses) problématiques derrière cette idée est qu’en entretenant le flou sur ce que pourrait « ressentir » ou non les IA, les utilisateurs et utilisatrices peuvent s’attacher aux robots conversationnels avec, parfois, des conséquences dramatiques.


Envie de rejoindre une communauté de passionnés ? Notre Discord vous accueille, c’est un lieu d’entraide et de passion autour de la tech.

Recherche IA boostée par
Perplexity