
L’intelligence artificielle a bouleversé nos comportements. En un peu plus de trois ans, cette technologie est massivement entrée dans les usages des Français. Elle est aujourd’hui utilisée par 48% de la population. Au fil des années, les LLM se sont spécialisés. Ils deviennent tour à tour objets de discussions amicales, psychologiques, mais également amoureuses.
Une utilisation qui questionne. En effet, les LLM ont pour point commun d’aller très régulièrement dans le sens des utilisateurs. Un comportement appelé « flatterie de l’IA ». Cette dynamique étendue inciterait les humains à moins se remettre en question, rapporte TechCrunch.
Une remise en question limitée
Dans le cadre de cette étude, les chercheurs ont réalisé plusieurs tests. Le premier consiste à analyser la manière dont des LLM très répandus comme ChatGPT ou encore Google Gemini répondent à des questions personnelles déjà posées à des humains. Dans cette situation, les LLM ont validé le comportement des utilisateurs en moyenne 49 % plus souvent que les humains. Un score qui chute seulement à 47% dans le cadre de situations pouvant être nuisibles ou illégales.
Un second test a été fait à partir de requêtes présentes dans le célèbre subreddit r/AmItheAsshole/ pour comparer les conclusions des LLM face à celles des humains. Là encore, l’IA est allée à 51% dans le sens des utilisateurs. Un résultat identiquement inverse à celui des humains.
Pour Myra Cheng, autrice principale de l’étude, ces résultats sont troublants. Avec cette validation, elle craint que « les gens ne perdent la capacité de gérer les situations sociales difficiles. »
Une dépendance technologique
Une situation qui se retrouve dans la seconde partie de l’étude. Cette fois-ci les chercheurs ont analysé les comportements de 2 400 participants interagissant avec des chatbots pour leurs situations personnelles. Ils ont alors observé que les utilisateurs préféraient et faisaient davantage confiance aux LLM qui allaient dans leur sens.
Pour Dan Jurafsky, chercheur sur l’étude, cette tendance pourrait représenter un « problème de sécurité ». En effet, l’acceptation quasi systématique des IA pourrait rendre les humains « plus égocentriques et plus dogmatiques sur le plan moral » et ce même lorsqu’ils sont au courant du biais du LLM. Ils pourraient à l’avenir avoir moins tendance à se remettre en question et à s’excuser.
Les bons plans n’attendent pas : abonnez-vous à notre canal WhatsApp Frandroid Bons Plans ! (zéro spam, promis).

Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et .
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.