
Un cas récent à la Northeastern University de Boston révèle qu’un enseignant a lui-même été épinglé pour utiliser l’intelligence artificielle dans l’enseignement qu’il prodigue.
Ella Stapleton, étudiante en dernière année a découvert que son professeur de commerce utilisait l’IA pour rédiger des notes de cours. Images générées automatiquement, fautes et même une instruction à ChatGPT laissée par inadvertance dans le support de cours : « Développer tous les domaines. Être plus précis et détaillé. »
Autant d’indices qui l’ont poussé à porter plainte contre son professeur auprès de son école de commerce. « Il nous dit de ne pas l’utiliser, et ensuite il l’utilise lui-même », a-t-elle déclaré.
La jeune femme a assorti sa plainte d’une demande de remboursement de ses frais de scolarité pour ce cours qui lui est facturé un peu plus de 8000 dollars.
Le lendemain de sa remise de diplôme, l’Université lui a indiqué qu’elle ne serait pas remboursée. À Fortune, elle a déclaré que « Northeastern adopte l’utilisation de l’intelligence artificielle pour améliorer tous les aspects de son enseignement, de sa recherche et de ses opérations. L’université met à disposition de nombreuses ressources pour soutenir une utilisation appropriée de l’IA et continue de mettre à jour et d’appliquer les politiques pertinentes à l’échelle de l’établissement. »
Une réponse dont l’on ne sait pas si elle est partagée ou non par Rick Arrowood, le professeur incriminé. Lui a regretté ce malheureux épisode.
Avec vingt ans d’enseignement derrière lui, il a exliqué avoir voulu utiliser ChatGPT, Perplexity et Gamma pour enrichir les supports de cours qu’il rendait disponibles en ligne pour ses élèves, se défendant de les amener en classe où il préfère la discussion.
Depuis cet évènement, la Northeastern University a fait évoluer sa politique, exigeant désormais que soit cité la source de l’IA utilisée si c’est le cas, et que les résultats apportés soient vérifiés.
Cet incident éclaire les dérives potentielles de l’IA. Il interroge aussi son éthique dans les pratiques pédagogiques.
En France, prudence et encadrement
En France, aucun cas similaire de contestation n’a été aussi médiatisé. Pourtant, le débat sur l’usage de l’IA par les enseignants est vif. Cela concerne notamment l’évaluation. Les professeurs eux-mêmes explorent ces nouveaux outils. Ils s’en servent parfois pour préparer leurs cours, mais aussi pour les aider à corriger des copies.
Un sondage de 2023 (Compilatio et Le Sphinx) révèle qu’une majorité d’enseignants et d’étudiants s’oppose à une interdiction totale de l’IA, mais aussi « qu’il faut mettre en place des mesures pour réglementer l’utilisation de l’IA générative de texte dans l’enseignement ».
La question de l’équité est centrale. Peut-on interdire l’IA aux étudiants si les professeurs l’utilisent pour noter ? Surtout si c’est sans la transparence requise ?
Ce possible deux poids, deux mesures crée un malaise et il peut interroger la crédibilité du rôle professoral, comme le note une enquête Axios relayée par Developpez.com : « certains enseignants utiliseront probablement les suggestions de ChatGPT comme point de départ, mais d’autres pourraient les transmettre textuellement aux étudiants ».
Les autorités françaises ne restent pas inactives face à cette révolution. Le ministère de l’Éducation Nationale et de l’Enseignement Supérieur a lancé plusieurs initiatives :
- Des missions de réflexion pour définir les bonnes pratiques et établir un cadre éthique et réglementaire.
- Une consultation nationale a eu lieu. Elle doit aboutir à une charte sur l’usage de l’IA en éducation. Cette charte couvrira les aspects pédagogiques et administratifs.
- Des investissements sont prévus. Ils visent à développer une IA souveraine. Cet outil soutiendra les enseignants dans la préparation de leurs cours et les évaluations des élèves.
Un besoin de transparence et de formation
Au niveau européen, l’IA Act est important. Il cherche à encadrer l’usage de l’intelligence artificielle dans l’éducation pour s’assurer qu’elle est utilisée de manière éthique, équitable et sûre.
Parmi ses règles, certaines portent sur la transparence des algorithmes et la qualité des données. La surveillance humaine est aussi exigée. L’évaluation des acquis et le contrôle des étudiants en examen sont particulièrement concernés.
Certains établissements anticipent. Par exemple, NEOMA Business School autorise l’IA pour les étudiants, sous condition d’une déclaration explicite. La transparence est clé.
Il faut éviter de diaboliser l’IA, nouvelle technologie prometteuse, mais il est sans doute aussi important de préserver l’essence de la pédagogie. La formation du corps enseignant, des élèves et des parents, pour les plus jeunes, à un usage critique de l’IA est cruciale, comme le soulignent des rapports du Sénat.
Utilisez-vous Google News (Actualités en France) ? Vous pouvez suivre vos médias favoris. Suivez Frandroid sur Google News (et Numerama).
Ce contenu est bloqué car vous n'avez pas accepté les cookies et autres traceurs. Ce contenu est fourni par Disqus.
Pour pouvoir le visualiser, vous devez accepter l'usage étant opéré par Disqus avec vos données qui pourront être utilisées pour les finalités suivantes : vous permettre de visualiser et de partager des contenus avec des médias sociaux, favoriser le développement et l'amélioration des produits d'Humanoid et de ses partenaires, vous afficher des publicités personnalisées par rapport à votre profil et activité, vous définir un profil publicitaire personnalisé, mesurer la performance des publicités et du contenu de ce site et mesurer l'audience de ce site (en savoir plus)
En cliquant sur « J’accepte tout », vous consentez aux finalités susmentionnées pour l’ensemble des cookies et autres traceurs déposés par Humanoid et ses partenaires.
Vous gardez la possibilité de retirer votre consentement à tout moment. Pour plus d’informations, nous vous invitons à prendre connaissance de notre Politique cookies.
Gérer mes choix