Une erreur dans le texte ?

C'est le bon endroit pour nous l'indiquer !
Attention, ce formulaire ne doit servir qu'à signaler une erreur. N'hésitez pas à utiliser la page de contact pour nous contacter ou nous faire part de vos suggestions. Merci.

Etape 1

Cliquez sur les paragraphes contenant des erreurs !

Quand ChatGPT se met à raconter n'importe quoi

Récemment, une série de témoignages sur X (anciennement Twitter) a mis en lumière des interactions pour le moins surprenantes avec ChatGPT. Utilisateurs et utilisatrices rapportent des dialogues où le chatbot, développé par OpenAI, dérive vers des réponses absurdes, incohérentes, voire complètement déconnectées de la réalité.

Cette situation n'est pas sans rappeler celle de janvier 2024, période marquée par une augmentation des plaintes concernant une certaine « paresse » du chatbot : refus d'exécuter des tâches, interruptions inexpliquées, ou encore des recommandations peu utiles invitant l'utilisateur à chercher lui-même les réponses. Face à cette situation, OpenAI a reconnu être au courant et mène actuellement une enquête pour comprendre l'origine de ces dysfonctionnements.

Une complexité intrinsèque

Pour saisir l'essence de ces anomalies, il convient de se pencher sur la nature même des systèmes d'intelligence artificielle comme ChatGPT. Ces technologies sont entraînées sur d'immenses corpus de données textuelles, apprenant à générer des réponses en mimant les schémas linguistiques qu'elles ont analysés. Cette méthode d'apprentissage, bien que révolutionnaire, n'est pas exempte de défauts. Les modèles de langage, en raison de leur vaste étendue, affichent une tendance à l'imprévisibilité, rendant parfois leurs réponses énigmatiques.

L'entraînement des modèles de langage larges (LLM) révèle une complexité intrinsèque : ces systèmes, bien qu'avancés, manquent souvent de la capacité à expliquer leurs processus de pensée ou à garantir une cohérence dans leurs interactions.

https://www.frandroid.com/culture-tech/intelligence-artificielle/1852573_cest-quoi-un-llm-comment-fonctionnent-les-moteurs-de-chatgpt-google-bard-et-autres

Cette incertitude peut se manifester par des changements de « personnalité », une réticence à suivre des directives, des oublis concernant les instructions données, et même des biais insoupçonnés. Ces éléments contribuent à un portrait de l'IA comme étant une boîte noire, dont les sorties, bien que généralement fiables, peuvent de temps en temps dérouter ou décevoir. Tout ça contribue à l'image d'une IA mystérieuse, capable du meilleur comme du pire.

Face à ces bizarreries, OpenAI ne reste pas les bras croisés. Ils assurent qu'ils sont à fond sur le problème, voulant rendre ChatGPT aussi fiable et utile que possible. Même si on ne sait pas encore exactement pourquoi l'IA fait des siennes, OpenAI est déterminé à régler le souci.