Longtemps perçus comme les gardiens de la transmission du savoir, les enseignants voient aujourd’hui leur rôle évoluer face à l’essor de l’intelligence artificielle. Mais ce ne sont plus seulement les étudiants qui s’en remettent aux outils numériques : de plus en plus de professeurs utilisent aussi des assistants comme ChatGPT pour alléger leur quotidien… parfois sans le dire.
Quand les enseignants délèguent à l’IA… en silence
Correction de copies, création de supports, génération de quiz : les tâches répétitives sont nombreuses, et les assistants numériques apparaissent comme une aide précieuse. Certains enseignants assument totalement cette intégration. À Harvard, David Malan a par exemple développé un chatbot pour accompagner son cours. À l’université de Washington, Katy Pearce a conçu une IA basée sur ses propres critères pour fournir des feedbacks personnalisés à ses étudiants.
Mais tous ne sont pas aussi transparents. Par manque de temps ou sous la pression administrative, certains enseignants délèguent sans vraiment encadrer. C’est le cas de Rick Arrowood, professeur aux États-Unis, qui a admis avoir utilisé des outils génératifs pour ses cours… sans les relire attentivement, ni informer ses étudiants. Une démarche qu’il dit aujourd’hui regretter.
Une perte de confiance entre enseignants et étudiants ?
Là où les choses se compliquent, c’est lorsque les étudiants commencent à détecter eux-mêmes les signes d’un contenu généré par IA : phrases creuses, tournures répétitives, illustrations peu pertinentes… Et le sentiment d’être face à un cours impersonnel ne tarde pas à émerger. Certains élèves deviennent de véritables experts en repérage de contenus artificiels, qu’ils n’hésitent plus à signaler.
L’exemple d’Ella Stapleton, étudiante à la Northeastern University, en dit long : après avoir identifié une consigne copiée-collée d’une requête faite à ChatGPT, elle a demandé le remboursement de ses frais universitaires. Ce genre d’affaire alimente un sentiment d’injustice, surtout lorsque les mêmes outils sont formellement interdits aux étudiants. Le mot « hypocrisie » revient souvent dans leurs critiques.
Vers une éthique partagée dans l’enseignement ?
Certaines universités ont décidé de prendre le problème à bras-le-corps. À Berkeley, par exemple, toute utilisation d’IA dans un cours doit désormais être explicitement mentionnée et vérifiée par un humain. En France aussi, des établissements réfléchissent à des règles plus souples et transparentes, reconnaissant que l’interdiction pure et simple est désormais obsolète.
Une étude récente de Tyton Partners révèle qu’un professeur sur trois utilise déjà l’IA régulièrement, mais que très peu le disent à leurs étudiants. Ce décalage de perception devient source de tensions dans la relation pédagogique.
Le professeur Paul Shovlin, de l’université de l’Ohio, insiste : l’important n’est pas l’outil, mais l’usage qu’on en fait. Pour lui, l’enseignant reste avant tout un interlocuteur humain, capable d’analyse, d’adaptation et d’interaction. Et c’est cela que les étudiants attendent.
Réconcilier technologie et confiance
Plutôt que de cacher leur recours à l’IA, certains enseignants choisissent de l’intégrer de manière ouverte : ils expliquent comment ils s’en servent, ce qu’ils en attendent, et où commence leur propre valeur ajoutée. Ce dialogue installe une relation de confiance, tout en préparant les étudiants à vivre avec ces technologies dans leur futur professionnel.
En résumé ? Le vrai défi n’est pas tant l’usage de l’intelligence artificielle, mais la manière dont elle est encadrée, assumée, et partagée. En pédagogie comme ailleurs, la transparence reste la clé de toute relation durable.


