Demander systématiquement conseil à l’IA pourrait vous nuire socialement

 
Une étude scientifique menée par l’université de Stanford met en avant les dangers liés au manque de contradiction des chatbots IA. Leurs validations permanentes pourraient avoir des conséquences désastreuses sur nos relations sociales.

L’intelligence artificielle a bouleversé nos comportements. En un peu plus de trois ans, cette technologie est massivement entrée dans les usages des Français. Elle est aujourd’hui utilisée par 48% de la population. Au fil des années, les LLM se sont spécialisés. Ils deviennent tour à tour objets de discussions amicales, psychologiques, mais également amoureuses.

Une utilisation qui questionne. En effet, les LLM ont pour point commun d’aller très régulièrement dans le sens des utilisateurs. Un comportement appelé « flatterie de l’IA ». Cette dynamique étendue inciterait les humains à moins se remettre en question, rapporte TechCrunch.

Une remise en question limitée

Dans le cadre de cette étude, les chercheurs ont réalisé plusieurs tests. Le premier consiste à analyser la manière dont des LLM très répandus comme ChatGPT ou encore Google Gemini répondent à des questions personnelles déjà posées à des humains. Dans cette situation, les LLM ont validé le comportement des utilisateurs en moyenne 49 % plus souvent que les humains. Un score qui chute seulement à 47% dans le cadre de situations pouvant être nuisibles ou illégales.

Un second test a été fait à partir de requêtes présentes dans le célèbre subreddit r/AmItheAsshole/ pour comparer les conclusions des LLM face à celles des humains. Là encore, l’IA est allée à 51% dans le sens des utilisateurs. Un résultat identiquement inverse à celui des humains.

Pour Myra Cheng, autrice principale de l’étude, ces résultats sont troublants. Avec cette validation, elle craint que « les gens ne perdent la capacité de gérer les situations sociales difficiles. »

Une dépendance technologique

Une situation qui se retrouve dans la seconde partie de l’étude. Cette fois-ci les chercheurs ont analysé les comportements de 2 400 participants interagissant avec des chatbots pour leurs situations personnelles. Ils ont alors observé que les utilisateurs préféraient et faisaient davantage confiance aux LLM qui allaient dans leur sens.

Pour Dan Jurafsky, chercheur sur l’étude, cette tendance pourrait représenter un « problème de sécurité ».  En effet, l’acceptation quasi systématique des IA pourrait rendre les humains « plus égocentriques et plus dogmatiques sur le plan moral » et ce même lorsqu’ils sont au courant du biais du LLM. Ils pourraient à l’avenir avoir moins tendance à se remettre en question et à s’excuser.


Les bons plans n’attendent pas : abonnez-vous à notre canal WhatsApp Frandroid Bons Plans ! (zéro spam, promis).

Recherche IA boostée par
Perplexity