par David Lewis, anthropologue et historien,
david.lewis@umontreal.ca
Dr. Google n’a pas (encore) de poste de professeur(e), mais c’est tout comme – et Siri, Alexa et les autres formeront sa première cohorte étudiante. En quelques années à peine, Google et cie. sont devenus omniprésents dans nos vies, des sources d’autorité dans l’acquisition des connaissances. Google est même rendu l’autorité suprême de connaissances du web – une autorité qui, de plus, n’est que très rarement remise en question … alors même qu’elle dépend non seulement d’algorithmes qui ont leurs propres enjeux, mais aussi d’une optimisation offerte à quiconque en a les moyens. Ce n’est toutefois là que l’exemple le plus parlant d’une réalité beaucoup plus complexe – et conséquemment plus insidieuse encore – qui est à se matérialiser à nos portes, celle de l’intelligence artificielle.
Le monde de l’éducation est en fait déjà touché par cette nouvelle réalité, mais nous ne sommes qu’au tout début d’une vague qui pourrait bien se transformer en tsunami … de la maternelle à l’université, présentement en retard sur le peloton. Il est clair que toute la communauté sera affectée, mais il est tout aussi clair que certain(e)s le seront plus que d’autres. Le monde de l’éducation connaît par ailleurs aussi, depuis quelques décennies, une tendance vers la précarisation de sa communauté, notamment, à l’université, avec la fonction de chargé(e) de cours, essentiellement conçue comme une catégorie résiduelle à celle des professeur(e)s. Or, on peut aisément supposer que les transformations à venir de par l’intelligence artificielle vont frapper plus durement les précaires que les autres. Voici comment.
éducation et précarité
Alexander J. Means note que, bien que l’éducation soit assez généralement : « called forth in official neoliberal discourse as a solution to precarity » (Means 2019, 2), dans les faits, la précarité y est omniprésente – et, double ironie, c’est dans le monde universitaire, là d’où viennent les diplômes les plus convoités, qu’elle est le plus évidente. C’est en particulier le cas du statut de chargé(e) de cours, statut qui est le mien, comme il est celui de quelque 10,000 à 15,000 collègues au Québec, et de bien d’autres encore ailleurs. Plus spécifiquement, je suis, comme c’est le cas d’environ la moitié des collègues, chargé de cours de carrière, i.e. quelqu’un dont c’est la principale occupation à long terme. De plus, bien que je sois anthropologue de formation, j’enseigne principalement en histoire, un des multiples effets étranges de notre précarité.
Les précaires de l’enseignement supérieur sont notamment des enseignants comme moi, mais aussi des chercheurs, des auxiliaires et autres. La précarité et la stabilité d’emploi ont beau être des notions relatives, il est particulièrement facile pour nous, précaires du monde universitaire, de percevoir les différences entre notre quotidien et celui des professeur(e)s, après tout le meilleur exemple de stabilité d’emploi qui soit, littéralement l’archétype du genre.
La précarité universitaire, dont celle des chargé(e)s de cours, vient quand même avec de meilleures conditions de travail que celles de la majorité des précaires. Elles n’ont notamment que peu à voir avec celles des journaliers, qui non seulement vivent une précarité au quotidien – alors que la nôtre serait plutôt saisonnière –, mais qui doivent aussi composer avec des conditions difficiles voire dangereuses, et sont généralement employés pour des fonctions peu gratifiantes voire humiliantes. Reste que, de par son essence, la précarité rend notre situation de chargé(e)s de cours bien plus fragile que si nous occupions les mêmes fonctions avec stabilité d’emploi, c’est-à-dire, dans le paradigme actuel, si nous étions professeur(e)s. Nous avons quand même le privilège de côtoyer des collègues passionnés, professeur(e)s comme chargé(e)s de cours d’ailleurs, et la vie universitaire peut effectivement être fort stimulante et enrichissante. Il reste toutefois difficile de participer pleinement quand tout se décide sans nous, quand nous sommes ignorés voire méprisés. Il est vrai que des progrès ont été réalisés depuis la syndicalisation – notamment, à l’Université de Montréal, dans les dernières années, grâce à une révision de la charte (2018) et conséquemment des statuts de l’université. En effet, ceux-ci reconnaissent maintenant l’existence des chargé(e)s de cours, et permettent notre participation à la plupart des comités et autres instances formelles. Les chargé(e)s de cours des autres universités québécoises ont aussi des représentant(e)s dans divers comités institutionnels, mais maintenant que nous en avons deux par comité dans la plupart des cas (par la logique, que nous avons défendue, du ‘un c’est bien, deux c’est mieuxʼ), notre représentativité est probablement rendue parmi les meilleures au Québec. Pourtant, nous sommes toujours bien loin d’être présents, dans la structure universitaire, à la hauteur de notre participation à la mission académique de l’institution, déjà pas dans les instances, et encore bien moins si on inclut l’ensemble des fonctions académiques.
De plus, notre représentativité aurait beau être à la hauteur de notre participation, il reste que le problème premier de notre précarité est que la plupart d’entre-nous ont à composer avec une importante variabilité de notre charge de travail, et donc aussi de nos revenus – ce qui, de plus, a incontournablement des répercussions sur la santé physique, et encore plus sur la santé mentale (il y aurait d’ailleurs une étude à faire sur le burn out chez les enseignant(e)s universitaires). C’est là une réalité qui s’accorde bien mal avec la notion de carrière, et qui complique grandement la participation active à la société, notamment pour ce qui est de se marier, d’acheter une maison ou d’avoir des enfants.
Reste, comme le note Émilie Bernier, les chargé(e)s de cours ont quand même une voix (ce qui n’implique toutefois pas que nous soyons toujours entendus … et encore moins écouté(e)s) : « même s’il arrive la plupart du temps que je parle devant les caméras éteintes d’étudiantes et étudiants sans visage, j’ai une parole. J’ai le sentiment de ma dignité, j’en ai les moyens. » (Bernier 2022, 106) … et ça fait d’ailleurs même partie intégrante de notre métier, au moins pour ce qui est de la parole dans sa forme orale. Pour la forme écrite, nous sommes, pour des raisons essentiellement systémiques, grandement défavorisé(e)s par rapport aux professeur(e)s). Ainsi, malgré toutes les difficultés de notre réalité, il est indéniable que nous sommes privilégiés par rapport à bien des précaires.
intelligence artificielle
Comme l’explique David Lorge Parnas « ‘‘Artificial intelligence’’ remains a buzzword, a word that many think they understand but nobody can define » (Parnas 2017, 1). On en trouve effectivement un large spectre de définitions, autant pour ce qui est de l’orientation que du contenu – mais un consensus s’est quand même dégagé dans les dernières années autour d’un ensemble de pratiques informatiques remplaçant des fonctions ayant traditionnellement été remplies à l’aide de l’intelligence humaine. C’est ce qu’on retrouve notamment dans le Cadre de référence de la compétence numérique (2019), du Ministère de l’éducation et de l’enseignement supérieur, dans lequel l’intelligence artificielle est présentée comme un : « Domaine d’étude ayant pour objet la reproduction artificielle des facultés cognitives de l’intelligence humaine, dans le but de créer des logiciels ou des machines capables d’exécuter des fonctions relevant normalement de celle-ci. » (MEES 2019).
C’est bien sûr là un domaine en pleine expansion, avec des applications multiples dans une variété de sphères de la société – et, comme le notait Yoshua Bengio lors d’un colloque en 2019, ces développements devraient avoir de multiples impacts sur nos vies : « le potentiel transformateur de ces technologies-là est incroyable », disait-il. Nombre de ceux-ci seront certainement positifs, utiles à la société comme aux individus – mais il est clair qu’ils vont aussi générer des préoccupations, voire des dangers potentiels, notamment, dans le monde de l’éducation, pour ce qui est des capacités que nous tentons de développer chez nos étudiant(e)s : « la possibilité que ces, ben, c’est plus qu’une possibilité, en fait là, ça se passe déjà, d’utiliser l’intelligence artificielle pour contrôler les esprits, donc la publicité, les réseaux sociaux » (Bengio, 2019) … peu importe d’ailleurs que ce soit pour des raisons commerciales, idéologiques ou autres. C’est là un choc annoncé, notamment et particulièrement toujours en éducation, un choc qui resterait pourtant, au moins selon François Taddei, encore à appréhender : « Nos programmes scolaires et nos systèmes éducatifs n’ont à l’heure actuelle pas pris conscience de l’intensité du choc que les progrès de l’intelligence artificielle s’apprêtent à porter à nos façons de vivre, de travailler, de consommer, de vivre ensemble, d’interroger nos normes juridiques et […] de bousculer nos normes éthiques. » (Taddei 2018, 46) – ce qui va incontournablement aussi toucher la relation enseignant(e)s-étudiant(e)s. Or, ce choc annoncé n’est plus simplement à nos portes, il en a indéniablement passé le pas, comme le note Thierry Karsenti dans Intelligence artificielle en éducation : « L’intelligence artificielle […] est déjà très présente en éducation, notamment avec les applications qu’apprenants et enseignants utilisent quotidiennement sur leur téléphone portable, ou encore lorsqu’ils effectuent des recherches sur Internet. » (Karsenti 2018, 115).
risques en éducation
Il est clair que l’intelligence artificielle va permettre le développement d’une panoplie d’outils plus merveilleux les uns que les autres, des outils qui devraient aider à développer les capacité cognitives de nos étudiant(e)s – et ainsi, l’intelligence artificielle devrait pouvoir appuyer le travail des enseignant(e)s. Son adoption va se faire, d’ailleurs, qu’on le veuille ou non – mais il reste que cette transformation soulève quand même quelques questions, dont notamment celle de la place du privé dans l’enseignement supérieur. Après tout, comme le rappelait Yoshua Bengio, les entreprises ont comme objectif premier la maximisation des profits, pas la formation de citoyens responsables à l’esprit critique bien aiguisé. Le privé est certainement un partenaire incontournable du virage vers l’intelligence artificielle, puisqu’il est en mesure de fournir des logiciels et autres outils informatiques qu’on ne développe pas in vitro – mais en même temps, ces outils sont produits par des acteurs externes, non seulement au monde universitaire, mais aussi à notre réalité sociale. Ils viennent donc avec une vision du monde qui peut impliquer de multiples biais, voire pire. En effet, comme le note Maria Wood : « the data the algorithm is learning from could have structural and historical bias baked into it » (Wood 2021), ce qui pourrait avoir comme conséquence de reproduire voire d’amplifier les discriminations passées. C’est d’autant plus insidieux que la chose est a priori invisible : « The algorithm appears impartial because it seemingly doesn’t have biased instructions in it, so its recommendations are perceived to be impartial. » (Wood 2021). Les biais que note Wood sont principalement liés à des aspects administratifs tels l’admission ou le suivi des dossiers étudiants – mais comme elle le soulève, ils pourraient bientôt aussi se retrouver en évaluation comme dans d’autres aspects de la relation enseignant(e)-étudiant(e).
Or, plus ces outils deviendront importants dans l’apprentissage, plus la place des enseignants risque d’en être marginalisée, fragilisée, rabaissée à celle de simples exécutants, d’accompagnateurs, de conseillers, peut-être, de grand frères plutôt que de figures paternelles. C’est peut-être là une évolution souhaitable, mais que ça soit le cas ou non, une chose est sûre, ça ne peut qu’entraîner une remise en question de la figure de l’enseignant(e), et conséquemment de sa place, de son autorité et de son habileté à gérer le groupe. Bien sûr, ces transformations ne peuvent qu’affecter plus fondamentalement les précaires que les autres, les femmes plus que les hommes (et la majorité des chargé(e)s de cours sont des femmes), et plus particulièrement encore celles qui sont issues de communautés culturelles ou d’autres groupes marginalisés ou marginalisables – que ce soit pour ce qui est de la sécurité d’emploi, du déficit symbolique ou autre.
En fait, ce n’est pas seulement les enseignant(e)s qui seront touché(e)s, mais bien toute la connaissance même, voire tout l’échafaudage qui le sous-tend : en effet, les foyers traditionnels de la connaissance sont déjà à perdre leur primauté au profit d’un patchwork de sources variables répondant à des impératifs qui sont loin d’être exclusivement académiques. Les transformations en cours et à venir dans l’économie du savoir pourraient fragiliser non seulement les enseignant(e)s que nous sommes, mais aussi l’institution qui trône présentement à son sommet. Le rôle de l’université pourrait éventuellement se voir réduit à guère plus que celui d’une interface entre sources de connaissance … si même elle survit.
On peut quand même imaginer que la plupart des applications de l’intelligence artificielle en éducation seront bienveillantes (alors que ce ne sera certainement pas le cas dans le monde at large). Ainsi, l’intelligence artificielle telle que définie par Karsenti, soit : « un domaine d’études ayant pour objet la reproduction artificielle des facultés cognitives de l’intelligence humaine » (Karsenti 2018, 113) ne semble pas particulièrement menaçante en éducation – au contraire, même. Bien plus préoccupant sans doute est le big data, que Karsenti voit comme : « un écosystème numérique qui permet de recueillir, de transférer, d’archiver et de manipuler des données à profusion » (Karsenti 2018, 113). On peut penser notamment aux algorithmes, ceux qui affectent le comportement humain en nous amenant dans certaines directions plutôt que d’autres comme le font déjà les moteurs de recherche et les réseaux sociaux … et ce n’est là qu’un début. Les algorithmes sont d’ailleurs rendus tellement omniprésents et tellement bons à mouler nos comportements qu’il est devenu presque ‘naturelʼ d’y comparer des comportements ‘humainsʼ – comme le font Schwirtz et al., dans le New York Times du 16 décembre 2022 : « A former Putin confidant compared the dynamic to the radicalization spiral of a social media algorithm, feeding users content that provokes an emotional reaction. ».
On peut d’ailleurs craindre une forme de formatage de la pensée et de normalisation des savoirs – et donc, potentiellement une autre source de minimisation de la place de l’enseignant(e). Ce n’est heureusement pas encore le cas en classe même, mais il est d’ores et déjà possible, comme l’établissent Wang, Chang & Li, de corriger des réponses d’examen à développement de manière relativement similaire à ce que ferait un humain, tant que celles-ci sont suffisamment balisées – une option qui pourrait devenir tentante pour les universités : « To evaluate constructs like creative problem-solving with validity, open-ended questions that elicit students’ constructed responses are beneficial. But the high cost required in manually grading constructed responses could become an obstacle in applying open-ended questions. » (Wang, Chang & Li 2008, 1450). Peu d’enseignants se plaindront de ne plus avoir à corriger examens et travaux, moi inclus, mais il reste que, même quand la correction est confiée à des auxiliaires, les enseignants que nous sommes restent l’autorité responsable d’attribuer les notes aux étudiant(e)s, ce qui implique une série d’interactions et de jugements – alors qu’avec l’arrivée de l’intelligence artificielle, il se pourrait bien que ça ne soit éventuellement plus le cas, surtout si les universités y flairent une économie. Une telle rupture ne pourrait que venir fragiliser un peu plus encore le lien déjà affaibli entre enseignant(e)s et étudiant(e)s.
On pourrait aussi bientôt retrouver l’intelligence artificielle en classe même. Ce serait apparemment déjà le cas en Chine, quoique dans un contexte bien particulier, celui de l’enseignement dit ‘de l’ombreʼ (shadow education), ici l’industrie du tutorat – comme le rapporte le Conseil supérieur de l’éducation dans L’intelligence artificielle en éducation (2020) : « En Chine, où la compétition pour l’accès aux études supérieures est particulièrement féroce, certains centres d’apprentissage privés offrant des services périscolaires ont massivement investi dans des tuteurs intelligents. » (Conseil supérieur de l’éducation 2020, 16). Une telle pratique soulève bien sûr une variété d’inquiétudes, dont celle des conséquences d’un formatage même partiel de la pensée des élèves et des étudiant(e)s : « Malgré une amélioration des apprentissages, certains spécialistes craignent que ces pratiques conduisent à une standardisation des apprentissages et de l’évaluation, ce qui pourrait laisser les prochaines générations démunies devant un monde en constant changement. » (Conseil supérieur de l’éducation 2020, 16). Le comportement attendu des enseignant(e)s pourrait bien sûr aussi en être affecté.
Un peu dans la même veine, Adam L.-Desjardins et Amy Tran notent, dans L’intelligence artificielle en éducation (2019), un effet démobilisateur qui pourrait découler des développements de l’intelligence artificielle : « La trop grande confiance et la dépendance à l’utilisation de ces technologies pourraient conduire à une certaine paresse intellectuelle » (L.-Desjardins & Tran 2019). Pire, cette paresse pourrait éventuellement aisément être exploitée à l’extérieur des murs (physiques et virtuels) de l’université, notamment en permettant : « à certains pouvoirs mal intentionnés d’utiliser celles-ci afin d’atteindre leurs objectifs politiques » (L.-Desjardins & Tran 2019). On peut aussi craindre un manque d’initiative, voire une apathie intellectuelle chez les étudiant(e)s – ce qui, on le constate déjà je crois, ne viendra certainement pas faciliter notre tâche, au contraire même.
La tentation de se laisser prendre par la main pourrait d’ailleurs bientôt devenir très forte. Dans un article récent et troublant intitulé Ceci n’est pas un professeur d’université (2022), Jonathan Durand Folco réfléchit au rôle transformateur d’un logiciel de production de contenu, d’« une technologie de « traitement du langage naturel » qui peut être utilisée pour automatiser l’écriture et la recherche académique » (Durand Folco 2022). À la lecture du texte, on entrevoit les effets insidieux que la présence croissante d’une telle technologie aura sur le développement des outils de la pensée des générations futures. Il faudra d’autres outils pour en contrecarrer les effets pervers.
risques pour les précaires
Les changements à venir vont affecter tout le monde de l’éducation, et il est clair que l’université n’y échappera pas. Comme pour tout le reste, les précaires en feront les frais plus que les autres.
Non seulement les transformations vont-elles incontournablement affecter la sécurité d’emploi de plusieurs d’entre-nous – mais même pour celles et ceux qui vont réussir à rester, il faudra s’ajuster, en modifiant le format et le contenu de nos cours, en suivant des formations, en mettant constamment nos outils informatiques à jour … et tout ça, toujours ou presque à nos propres frais, autant en temps qu’en argent d’ailleurs. Nous risquons aussi de subir de plein fouet le morcellement de la tâche – ce qui pourrait arriver de différentes manières, notamment par la correction automatisée mentionnée plus haut.
Il est aussi fort probable que nous soyons tenu(e)s à l’écart, ou au mieux aux marges, de la réflexion sur l’intégration de l’intelligence artificielle dans nos classes et dans notre enseignement. On peut donc prédire que les solutions seront adaptées aux besoins des professeur(e)s (qui peuplent après tout l’administration), et sans aucun égard aux nôtres. C’est à tout le moins là ce qu’on peut observer ces jours-ci à l’Université de Montréal avec la mise en opération du logiciel CHAL (Création Horaires et Assignation Locaux), un système de gestion des horaires de cours entièrement conçu dans une logique professorale, et qui ne tient a priori aucunement compte de la réalité des chargé(e)s de cours … et on est pourtant là à un niveau de complexité d’au moins un ordre de grandeur plus bas que l’intelligence artificielle.
Cette intelligence artificielle pourrait aussi venir menacer notre autorité intellectuelle, au moins dans les domaines où on retrouve des divergences d’opinion … c’est-à-dire dans à peu près tous les domaines. Yoshua Bengio mentionnait, parmi les impacts potentiels de l’intelligence artificielle, la concentration de pouvoir et des dérives autoritaires. On pense évidemment d’abord aux dictatures et autres gouvernements despotiques – mais grâce à l’intelligence artificielle, différentes formes de pouvoirs plus ou moins constitués pourraient trouver moyen de s’inviter en classe, que ce soient des acteurs commerciaux, politiques, idéologiques, religieux ou autres. On pourrait ainsi penser qu’un jour pas très lointain, exprimer une opinion opposée à Microsoft, par exemple, sur Teams ou dans une classe gérée par des logiciels Microsoft, pourrait avoir un impact négatif sur une carrière ; ou que d’exprimer une opinion contraire à celle d’un(e) ‘influenceur(e)’ ou d’une personnalité publique (réelle ou virtuelle) pourrait se révéler dangereux.
Il pourrait aussi devenir difficile d’exprimer une opinion allant à l’encontre d’un discours dominant, que ce soit en éducation ou dans toute autre sphère de la société – que celui-ci soit véhiculé par un État, une compagnie impliquée en éducation, ou par toute autre entité ou dynamique ayant le potentiel de l’influencer, y compris les mouvances sociales et l’opinion publique. Si, par exemple, je déclarais en classe que la première bombe atomique larguée sur le Japon pouvait possiblement se justifier, mais certainement pas la seconde, alors que la vérité véhiculée aux étudiant(e)s par l’intelligence artificielle affirmait que les deux l’étaient et que la chose faisait consensus – et qu’en plus, l’intelligence artificielle avait un vaste arsenal d’outils à sa disposition (dont le metavers et les deepfakes), je n’aurais aucune chance, à moins bien sûr de détenir une autorité aussi solide que celle d’un(e) professeur(e) … ce qui revient donc essentiellement à une question de statut.
En fait, ici, mon autorité serait remarquablement solide, quoique, justement, par sommité interposée : en effet, c’est là la position d’Edwin Oldfather Reischauer, notamment dans Histoire du Japon et des Japonais (1970). Je me demande d’ailleurs bien comment l’intelligence artificielle aurait réagi si elle avait pu interagir avec Reischauer – mais une chose est sure, il n’aurait perdu ni son emploi ni sa capacité à exprimer son opinion … alors que rien ne garantit qu’un(e) chargé(e) de cours qui se retrouverait en conflit d’opinion avec une intelligence artificielle aux pouvoirs mal cernés par son institution garderait sa liberté d’expression, voire carrément son emploi. Plus que simplement la liberté d’expression, en réalité, c’est la liberté d’opinion qui est en jeu ici – et ça a déjà comme conséquence, même avant la vague d’intelligence artificielle à venir, que bien des chargé(e)s de cours font de l’auto-censure, souvent même inconsciemment. La présence grandissante d’une autorité difficilement contestable ne pourra qu’empirer la donne.
Pour moi comme pour bien des collègues je crois, un de mes rôles fondamentaux en tant qu’enseignant est de démonter les idées reçues de mes étudiant(e)s, dans mon cas à propos du Japon et des Japonai(se)s, notamment pour ce qui est des samuraï et des geisha. On le sait, la lutte contre les mythes et demi vérités est au cœur même de la mission de la plupart sinon de toutes les disciplines de sciences sociales et humaines, notamment en histoire et en anthropologie. Des générations d’historien(ne)s et d’anthropologues se sont évertué(e)s à démanteler les constructions nationalistes, identitaires ou autres … et aujourd’hui, un algorithme et quelques entreprises du divertissement pourraient produire des mythes plus tenaces !
Heureusement, nous devrions, à l’Université de Montréal, être protégés contre plusieurs de ces excès (alors que d’autres les vivront sans doute), au moins pour les quelques prochaines années. En effet, en adoptant, à l’été 2021, un énoncé de principes sur la liberté d’expression, l’Université de Montréal a fait figure de pionnière – et qui plus est, l’énoncé a fait l’objet d’une large consultation et d’un assez solide consensus de la communauté. Le législateur lui impose toutefois maintenant, comme à toutes les universités du Québec, d’adopter, d’ici à l’été 2023, une politique sur la liberté académique (selon le projet de loi no. 32 : Loi sur la liberté académique dans le monde universitaire). À l’Université de Montréal, l’exercice est mené avec le sérieux nécessaire, mais il reste que c’est là une exigence qui, à mon avis, met beaucoup trop l’accent sur le jeu de la dénonciation au détriment de la promotion des bonnes pratiques, rendant ainsi la dynamique inutilement confrontationnelle – avec toujours et encore des risques plus immédiats pour les précaires que nous sommes … comme d’ailleurs le passé récent nous l’a trop clairement démontré.
Le sentiment de sécurité ressenti par les membres de la communauté de l’Université de Montréal suite à l’adoption de l’énoncé de principes pourrait toutefois se révéler être de courte durée, vu notamment l’influence potentielle d’acteurs externes : on a qu’à penser à l’ingérence que s’est permise le gouvernement du Québec dans la gouvernance universitaire, avec justement la loi dont il vient d’être question. On peut aussi penser à l’impact que pourraient avoir des poursuites intentées par des étudiant(e)s, une tendance à la hausse ces dernières années, y compris au Canada – ce qu’expliquent notamment Stephen G. Ross et Colleen Mackeigan, qui qualifient la tendance de : « emerging area in education law » (Ross & Mackeigan 2019). Les poursuites sont jusqu’à maintenant restées limitées, selon eux, à des questions de relations contractuelles, mais on peut imaginer que les sujets s’élargiront éventuellement à d’autres enjeux, notamment de vie privée, de droit à l’image et de droits d’auteur – ce qui pourrait ainsi aussi impliquer des enseignant(e)s, voire des compagnies privées insatisfaites de la place qui leur est allouée par les universités. Quant au projet de loi no. 32, il a beau avoir été adopté avec de bonnes intentions (et une incompréhension presque totale du monde universitaire), il représente quand même indéniablement une forme d’ingérence – et un gouvernement futur pourrait bien vouloir se servir du même type d’outil pour des fins bien moins nobles.
On peut quand même espérer que la mobilisation civique et académique, comme celle qui a produit la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle de 2018, d’ailleurs une initiative de l’Université de Montréal, pourra aider à nous protéger, toutes et tous, des effets les plus néfastes et des dérives les plus graves. En effet, un de ses 10 principes, le 4e, dit principe de solidarité, suggère que : « Le développement de SIA doit être compatible avec le maintien de liens de solidarité entre les personnes et les générations. », alors que le 6e, le principe d’équité, déclare que : « Le développement et l’utilisation des SIA doivent contribuer à la réalisation d’une société juste et équitable. » – et précise notamment (2e picot) que : « Le développement des SIA doit contribuer à éliminer les relations de domination entre les personnes et les groupes fondées sur la différence de pouvoir, de richesses ou de connaissance. ».
Un autre des risques mentionnés par Yoshua Bengio est que l’intelligence artificielle développe un jour ses propres critères de sélection, sans besoin de contribution humaine … une forme, en somme, de sélection artificielle. On en est heureusement bien loin, et l’humain reste et devrait rester au cœur des universités – mais quelque soient les dangers qui nous guettent, les professeur(e)s sont toujours et encore bien mieux protégé(e)s que ne le sont les chargé(e)s de cours.
En 1994, Claude Lessard, alors doyen de la faculté des sciences de l’éducation de l’Université de Montréal, déclarait, lors d’un colloque de la FNEEQ, qu’il fallait : « civiliser la précarité » (Lessard 1995 (1994), 99) – avant d’en donner un portrait qui, près de 30 ans plus tard, reste malheureusement beaucoup trop criant d’actualité : « Civiliser la précarité, cela signifie trouver de nouveaux mécanismes d’intégration et développer un sentiment d’appartenance à l’institution pour celles et ceux qui parmi les enseignants ne pourront jouir d’un lien d’emploi fort et permanent. Cela signifie leur faire une place réelle dans les processus de décision pédagogique et les lieux de prise de décision. » (Lessard 1995 (1994), 99). En éducation comme ailleurs, les impacts les plus probants de l’intelligence artificielle viendront, nous dit Sahir Dhalla dans The problem with AI that acts like you (2020), d’une : « cooperation between AI and humans ». Espérons qu’on pensera à y inviter des chargé(e)s de cours.
bibliographie
Bengio, Yoshua [2019] : « Intelligence artificielle, apprentissage profond, logiciel libre et bien commun », Actes du 6e Colloque libre de l’ADTE (4 juin 2019, Université Laval). Association pour le développement technologique en éducation
https://adte.ca/actes-du-6e-colloque-libre-de-ladte-2019/
Bernier, Émilie [2022] : « À l’orée du trou noir. La perspective des personnes chargées de cours et la démocratisation de l’université ». Les enseignantes et enseignants contractuels dans l’université du XXIe siècle (Acfas)
Conseil supérieur de l’éducation [2020] : L’intelligence artificielle en éducation : un aperçu des possibilités et des enjeux (Document préparatoire pour le Rapport sur l’état et les besoins de l’éducation 2018-2020)
Dhalla, Sahir [2020] : « The problem with AI that acts like you – Human-like AI models raise questions of bias and our right to personal data », The Varsity
https://thevarsity.ca/2022/11/20/ethics-of-human-like-ai/
[2018] : Déclaration de Montréal pour un développement responsable de l’intelligence artificielle
https://www.declarationmontreal-iaresponsable.com/la-declaration
Durand Folco, Jonathan [2022] : « Ceci n’est pas un professeur d’université », Le Devoir 15 décembre 2022
https://www.ledevoir.com/opinion/idees/774674/idees-ceci-n-est-pas-un-professeur-d-universite
L.-Desjardins, Adam & Tran, Amy [2019] : « L’intelligence artificielle en éducation », L’école branchée
https://ecolebranchee.com/dossier-intelligence-artificielle-education/
Lessard, Claude [1995 (1994)] : « La précarisation de l’enseignement » Actes du colloque sur la précarité dans l’enseignement, FNEEQ-CSN.
Karsenti, Thierry [2018] : « Intelligence artificielle en éducation : L’urgence de préparer les futurs enseignants aujourd’hui pour l’école de demain ? »,
Formation et profession, vol. 26, no. 3 – pp. 112-119
http://formationprofession.org/pages/article/26/21/a159
Means, Alexander J. [2019] : « Precarity and the Precaritization of Teaching » Encyclopedia of Teacher Education. Springer
https://www.researchgate.net/publication/333965390_Precarity_and_the_Precaritization_of_Teaching
Ministère de l’Économie, de la Science et de l’Innovation [2016] : Plan d’action en économie numérique.
Ministère de l’Éducation et de l’Enseignement supérieur [2019] : Cadre de référence de la compétence numérique
Parnas, David Lorge [2017] : « Inside Risks – the Real Risks of Artificial Intelligence ». Communications of the ACM, vol. 60, no. 10
http://www.csl.sri.com/users/neumann/cacm242.pdf
Reischauer, Edwin Oldfather [1970] & Dubreuil, Richard, trad. [1973] : Histoire du Japon et des Japonais, vol. 1 – ‘des Origines à 1945’. Seuil.
Ross, Stephen G. & Mackeigan, Colleen [2019] : « Canada: Claims Against Educational Institutions – It’s Not Just Academic Anymore », Mondaq [Rogers Partners LLP]
Schwirtz, Michael et al. [2022] : « How Putin’s War in Ukraine Became a Catastrophe for Russia », The New York Times, 16 décembre 2022
https://www.nytimes.com/interactive/2022/12/16/world/europe/russia-putin-war-failures-ukraine.html
Taddei, François [2018] : Apprendre au XXIe siècle, Calmann Levy.
Wang, Hao-Chuan ; Chang, Chun-Yen & Li, Tsai-Yen [2008] : « Assessing creative problem-solving with automated text grading », Computers & Education, vol. 51 – pp. 1450-1466
https://doi.org/10.1016/j.compedu.2008.01.006
Wood, Maria [2021] : « What Are the Risks of Algorithmic Bias in Higher Education? », Every Learner, Everywhere