Les historien.ne.s sont habitué.e.s aux bouleversements révolutionnaires. L’étude des moments charnières du passé est au cœur de notre métier. La révolution de l’imprimerie a accéléré la diffusion de l’information, favorisant ainsi les bouleversements sociaux et religieux. La révolution industrielle a mécanisé la production, entraînant la disparition de professions entières et redéfinissant les relations de classe. Alors que l’IA s’est progressivement immiscée dans nos vies, de la correction automatique sur nos téléphones aux réponses par défaut de Google, en passant par des plateformes capables de lire, de rechercher et d’écrire, nous manquerions à notre devoir si nous ne reconnaissions pas que nous vivons actuellement une transformation comparable.
J’ai été confrontée à ce changement en classe à l’automne 2025, alors que j’enseignais un cours de première année sur l’histoire de la monnaie. Sur les 82 étudiant.e.s, environ les trois quarts venaient d’autres disciplines que l’histoire, notamment de la gestion, de l’économie et des sciences politiques. Le principal devoir écrit, que j’utilisais depuis une décennie, demandait aux étudiant.e.s de comparer la thèse de Max Weber sur « l’éthique protestante » à deux études de cas, afin d’évaluer si les preuves étayaient son argument concernant l’émergence du capitalisme. Comme mes assistant.e.s avaient du temps libre, je leur ai demandé de vérifier les notes de bas de page avant que je ne corrige les copies.
Ce que nous avons découvert était frappant. Dans tous les travaux, les notes de bas de page ne correspondaient pas exactement aux sources. Les numéros de page étaient erronés, les références renvoyaient à des illustrations sans rapport avec le sujet, ou de larges plages de pages étaient citées sans justification. Certains travaux comportaient des citations directes qui n’apparaissaient nulle part dans les textes assignés. Que se passait-il donc?
Ce type d’erreurs de citation est la preuve d’une utilisation de l’IA, et l’examen des travaux a révélé comment les étudiant.e.s utilisaient ces outils – et comment certains en abusaient. De nombreux étudiant.e.s s’appuyaient sur l’IA pour résumer leurs lectures, générer des plans et suggérer des arguments ou des exemples. D’autres allaient plus loin, soumettant des textes générés par l’IA comme s’ils étaient les leurs, ajoutant du remplissage pour atteindre le nombre de mots requis, inventant des références, voire produisant des dissertations entières. Le contexte particulier de ce devoir – un sujet imposé, des sources familières, du temps supplémentaire pour la vérification et un grand nombre d’étudiant.e.s n’étant pas spécialisés en histoire – a mis le problème en évidence. Mais la leçon générale à en tirer était sans équivoque : soit nous ignorons l’utilisation croissante de l’IA chez les étudiant.e.s, soit nous devons repenser la manière dont nous enseignons et évaluons la recherche et la rédaction.
Alors que je m’apprêtais à finaliser les programmes pour le prochain semestre, j’ai contacté des collègues à travers le Canada, leur décrivant mon expérience et leur demandant quelles étaient les politiques de leur département ainsi que leurs suggestions de devoirs « résistants à l’IA ». Leurs réponses m’ont à la fois rassuré et découragé. Comme moi, de nombreux professeur.e.s ne savaient pas trop comment procéder. Certains avaient laissé leurs devoirs inchangés ; d’autres étaient passés entièrement à des évaluations en classe. Beaucoup faisaient des essais, en intégrant des présentations, en utilisant des devoirs strictement basés sur le contenu du cours, en structurant des dissertations de recherche ou en proposant des formats alternatifs tels que des projets visuels et des vidéos de groupe. Quelques-un.e.s abordaient le problème de front en apprenant aux étudiant.e.s à utiliser l’IA de manière responsable – en analysant ses résultats ou en apprenant à formuler des consignes efficaces.
Malgré ces efforts, nous sommes nombreux à avoir le sentiment de travailler en vase clos. Les orientations institutionnelles restent limitées. Les politiques d’intégrité académique peinent à suivre le rythme des changements, et celles dont nous disposons sont ambiguës (car toutes les composantes du campus ne considèrent pas l’IA comme un problème) et évasives (la responsabilité étant souvent renvoyée aux professeur.e.s individuel.le.s, qui doivent définir leurs propres règles). À un niveau plus général, certains administrateur.rice.s présentent l’IA comme un outil d’efficacité plutôt que comme un défi nécessitant une attention particulière. Les professeur.e.s qui tentent de détecter ou de limiter l’utilisation de l’IA peuvent voir leur charge de travail accrue passer inaperçue, comme le suggère un article récent publié au Royaume-Uni.
Il est facile de raconter mon histoire, mais bien plus difficile de donner des conseils pour l’avenir. Comme me l’a montré mon expérience avec le devoir sur « L’éthique protestante », vérifier l’utilisation de l’IA est intrinsèquement difficile. Les outils de détection ne sont pas fiables, et il est souvent impossible de satisfaire à la charge de la preuve requise pour engager des poursuites pour fraude académique. Nous nous appuyons donc sur des indicateurs indirects : des sources inexistantes, une analyse superficielle ou un engagement insuffisant vis-à-vis du contenu du cours. Pourtant, ces signaux risquent de devenir moins visibles à mesure que l’IA s’améliore et que les étudiant.e.s deviennent plus habiles à rédiger des consignes. Et nous devons reconnaître que nos étudiant.e.s sont confronté.e.s à un choix difficile : utiliser l’IA pour produire des dissertations soignées, surpasser leurs pairs et renforcer leurs candidatures en troisième cycle, ou produire leur propre travail et risquer d’obtenir des notes plus faibles. Dans ce contexte, ceux et celles qui choisissent de faire leur propre travail peuvent être désavantagé.e.s, ce qui renverse de fait la logique de nos systèmes d’évaluation.
En effet, l’accent ne se place plus sur l’interdiction de l’utilisation de l’IA, mais plutôt sur la définition de son utilisation abusive. Les étudiant.e.s perçoivent les avantages de cet outil : les résumés de sujets historiques peuvent servir de repères (même s’ils proviennent de sources telles que Wikipédia), et les fiches de révision générées par l’IA peuvent aider à préparer les examens. Ils utilisent l’IA pour le brainstorming et les bibliothèques encouragent son utilisation pour localiser des sources – et des outils de revue de la littérature, comme Consensus, sont désormais intégrés directement dans les grands modèles de langage (LLM). Pourtant, même si l’on peut faire la distinction entre l’aide de l’IA et la remise de travaux générés par l’IA, il n’en reste pas moins que même les étudiant.e.s qui utilisent l’IA pour générer des idées et des sources contournent le travail intellectuel de base. Et des études commencent à montrer qu’une forte dépendance à l’IA pourrait diminuer l’engagement cognitif au fil du temps.
Dans le même temps, le retour à des évaluations exclusivement en classe risque de créer un nouveau problème. Si nous abandonnons les travaux de recherche, les évaluations qui les remplacent permettent-elles d’acquérir les mêmes compétences? Certains de mes meilleurs étudiant.e.s ont exprimé leur déception face à la perte d’occasions de mener des recherches de manière autonome, et je me demande comment nous pourrons recruter des étudiant.e.s pour les programmes de maîtrise s’ils et elles terminent leur licence sans expérience significative en matière de recherche. Nos étudiant.e.s ont besoin de nos conseils : ils et elles veulent être récompensé.e.s pour ne pas tricher, mais une condamnation générale des outils d’IA n’a guère de sens à leurs yeux. Si nous enseignons la recherche et la rédaction, nous leur rendons un mauvais service en ne discutant pas de l’utilisation appropriée des outils qui les entourent.
L’histoire nous rappelle que les révolutions technologiques ne peuvent être arrêtées. Tout comme les copistes n’ont pas pu empêcher la diffusion de l’imprimé et que les bas-moulistes n’ont pas pu freiner la mécanisation, nous devons accepter que la révolution de l’IA est à nos portes et qu’une posture purement défensive est insuffisante. En fait, ce moment pourrait créer de nouvelles opportunités pour les sciences humaines. Des compétences telles que l’évaluation critique, la compréhension contextuelle et la capacité à interroger les sources pourraient devenir encore plus précieuses dans un monde saturé de contenus générés par l’IA. Apprendre à évaluer les résultats et à affiner les consignes pourrait s’avérer être une compétence essentielle. Et je trouve encore du réconfort dans les rares indications selon lesquelles l’IA serait intrinsèquement incapable d’accomplir correctement certaines tâches, ce qui souligne l’importance toujours d’actualité de l’expertise humaine.
En fin de compte, je pense que nous devons rester informés et vigilants : lisez les actualités et les articles d’opinion sur le sujet, discutez avec vos étudiant.e.s et essayez vous-mêmes ces outils pour comprendre leur fonctionnement. En fait, cet article est un peu long – je vais peut-être demander à l’IA de le raccourcir. (Comme diraient mes étudiant.e.s, « je plaisante » !)
Jill Walshaw, professeure agrégée d’histoire, Université de Victoria