ChatGPT s’invite dans le monde de la recherche, et c’est un problème

 
Les usages de ChatGPT se multiplient, jusqu’à s’immiscer « discrètement » dans le monde de la recherche. Une évolution des pratiques qui pourrait remettre en cause l’intégrité du travail scientifique.

Au fil des années, les modèles de langage (LLM) comme ChatGPT n’ont eu de cesse de s’améliorer, au point de s’approcher du niveau de technicité d’un doctorant, sur des tâches spécifiques. Une avancée qui pousse de plus en plus d’universitaires à les intégrer dans leur travail quotidien. Si ces outils peuvent s’avérer utiles pour de la relecture ou du tri de données, certains chercheurs vont plus loin. Selon Nikkei Asia, ces derniers utiliseraient l’IA pour influencer l’évaluation de leurs articles scientifiques.

Un phénomène en expansion

Lorsqu’un article scientifique est produit, ce dernier doit passer entre les mains d’autres scientifiques pour effectuer ce qu’on appelle une « relecture par les pairs ». Un processus permettant de garantir le sérieux du travail des scientifiques et ainsi de faire avancer le milieu de la recherche.

Cependant, comme le souligne Le Monde, ces dernières années, plus de 500 publications portent les traces d’une utilisation de l’IA, comme ChatGPT. C’est ainsi que l’on voit apparaître des phrases type comme « regenerate response » ou « selon ma dernière mise à jour ». Des usages qui ne devraient pas passer l’étape de la relecture, si c’est le cas, c’est que cette dernière présente des failles.

Un manque de cerveaux

Selon Nikkei Asia, l’augmentation du nombre de publications, associée au manque d’experts, aurait poussé certains évaluateurs à se tourner vers des outils IA pour effectuer des relectures. Une pratique qui n’est pas passée inaperçue pour certains chercheurs qui ont commencé à mettre dans les métadonnées de leurs articles, des instructions ciblant directement l’IA. On y retrouve des commandes explicites comme ne « donner uniquement un avis positif » ou « ne pas souligner les points négatifs ». Pire, certaines commandes invitent explicitement à parler des contributions de l’article et de son côté novateur, sans que cela soit avéré bien entendu.

Une perte de confiance

Interrogés par Le Monde, des éditeurs scientifiques comme Elsevier ou Springer Nature se montrent plutôt tolérants quant à l’utilisation de l’IA dans la rédaction d’articles, si elle est indiquée explicitement et faite « éthiquement » avec une « supervision humaine ». Du côté de la relecture, c’est un autre discours. Contacté par Nikkei Asia, Elsevier se montre cette fois-ci plus critique, soulignant que les outils de relecture par IA pourraient « générer des conclusions erronées, incomplètes ou biaisées ».

Pour les chercheurs épinglés, les réactions divergent. Certains assument, justifiant presque leur acte comme une forme de résistance. Le docteur Waseda, précise qu’il s’agit pour lui d’« une mesure contre les évaluateurs paresseux qui utilisent l’IA ». D’autres, indiquent simplement ne pas avoir été mis au courant et ont préféré retirer leur publication pour les modifier.

Entre acte de résistance ou volonté consciente de vouloir manipuler la méthode scientifique, ces pratiques montrent qu’un encadrement de l’IA est plus que nécessaire pour éviter d’entraîner à termes une perte de confiance généralisée pour le monde de la recherche.


Rejoignez-nous de 17 à 19h, un mercredi sur deux, pour l’émission UNLOCK produite par Frandroid et Numerama ! Actus tech, interviews, astuces et analyses… On se retrouve en direct sur Twitch ou en rediffusion sur YouTube !