Comment l’IA fait halluciner le monde de la recherche scientifique

 
Les hallucinations produites par l’intelligence artificielle pourraient conduire à une remise en cause de la légitimité de nombreux travaux de recherche.
Diagramme pour illustration. // Source : Photo de Bozhin Karaivanov sur Unsplash

En juin 2024, OpenAI vantait les mérites de ChatGPT, indiquant que le LLM était capable de prouesses intellectuelles dignes d’un doctorant. Une information qui n’est visiblement pas tombée dans l’oreille d’un sourd, puisqu’on apprend via Rolling Stones que certains chercheurs s’en servent au sein d’articles scientifiques publiés.

Une utilisation qui pourrait créer un problème de taille. Selon Andrew Heiss, professeur adjoint au département de gestion et de politiques publiques de l’école d’études politiques Andrew Young de l’université d’État de Géorgie, l’hallucination des IA pourrait corrompre le milieu de la recherche.

De vrais faux

Selon le professeur qui a épluché de nombreuses publications, il a observé plusieurs cas d’utilisations frauduleuses. Certains articles utilisant les LLM peuvent citer de vrais chercheurs mais en les associant à de mauvaises recherches, d’autres vont plus loin en renvoyant vers des articles qui n’existent pas ou pire des papiers qui eux sont entièrement générés par IA.

Des citations inexistantes apparaissent dans des recherches bâclées ou malhonnêtes, puis se retrouvent dans d’autres articles qui les citent, et ainsi de suite, jusqu’à ce que le problème se propage.

Andrew Heiss

« Tout paraît authentique et légal », alerte Heiss. En conséquence, de nombreuses fausses informations se mettent à circuler dans le milieu de la recherche, ralentissant voire invalidant le travail déjà fastidieux des chercheurs.

Loin d’être réservées aux universitaires, ces hallucinations sont également courantes dans l’usage public. En février dernier, la BBC publiait une étude prouvant que plus de la moitié des informations générées par les IA étaient fausses ou biaisées. Autant de situations qui invitent à la prudence lors de l’utilisation de ces LLM. D’autant plus quand certaines entreprises tentent d’en faire adopter l’usage malgré un enthousiasme « modéré ».

Pour aller plus loin
« Ça me sidère » : Microsoft ne comprend pas pourquoi l’IA de Windows ne fait rêver personne


Pour ne rater aucun bon plan, rejoignez notre nouveau channel WhatsApp Frandroid Bons Plans, garanti sans spam !

Recherche IA boostée par
Perplexity