Le texte a antérieurement été publié ici : https://activehistory.ca/2023/03/todays-ai-tomorrows-history-doing-history-in-the-age-of-chatgpt/#more-32790
Image de couverture – « Bing, Autoportrait de « Sydney », le chat Bing de Microsoft, basé sur sa propre description telle qu’imaginée par le générateur d’images d’IA, » MidJourney
Mark Humphries et Eric Story
Vous avez probablement entendu parler de ChatGPT d’OpenAI, de Bing Chat de Microsoft ou de Bard de Google. Ils sont tous basés sur des architectures de modèle de langue de grande taille (LLM) qui produisent des textes semblables à ceux des humains à partir de questions posées par l’utilisateur(trice). Les LLM ne sont pas nouveaux, mais ils semblent avoir récemment franchi un seuil virtuel. Soudain, l’intelligence artificielle – ou l’IA en abrégé – est omniprésente. S’il est vrai qu’ils peuvent parfois « halluciner », produire des erreurs factuelles et des réponses bizarres, la précision et la fiabilité des LLM s’améliorent de manière exponentielle. On ne peut y échapper : l’IA générative comme ChatGPT est l’avenir du traitement et de l’analyse de l’information, et elle changera l’enseignement et la pratique de l’histoire. Bien que certains de ses effets soient déjà perceptibles, ses implications à long terme ne sont pas aussi apparentes.
Les LLM basés sur des transformateurs génératifs pré-entraînés (GPT) sont des outils nouveaux et puissants qui n’existent que depuis cinq ans environ. La rapidité avec laquelle ils ont évolué pour produire une prose remarquablement convaincante, accomplir des tâches complexes et réussir des tests de théorie de l’esprit étonne même ceux qui ont créé cette technologie. Lorsqu’il est sollicité correctement, ChatGPT – qui est basé sur le modèle GPT-3.5 – peut écrire efficacement, dans un style attrayant, une bonne organisation et de la clarté. À titre d’information, ses 45 téraoctets de données d’entraînement représentent à eux seuls l’équivalent d’environ 215 millions de livres électroniques, mais il ne peut pas accéder à l’Internet.
Depuis le 14 février, nous avons accès au mode bêta de Bing, le nouveau logiciel d’intelligence artificielle de Microsoft, et il constitue un bon en avant par rapport à ChatGPT. Il dispose d’une base d’apprentissage similaire, mais peut rechercher des informations sur le web et analyser de grandes quantités de texte, ainsi que rédiger des essais, des résumés et des courriels directement dans une nouvelle barre latérale du navigateur Edge. Plus important encore, il accomplit ces tâches en quelques secondes grâce à une approche conversationnelle qui, comme ChatGPT, s’appuie sur un puissant réseau neuronal, c’est-à-dire une série de processeurs informatiques disposés de manière à imiter les synapses du cerveau humain. L’utilisation du nouveau Bing donne vraiment l’impression d’entrer dans le futur.
Les LLM à base de transformateurs sont en train de transformer l’écriture très rapidement. Leur attrait pour les plagiaires devient évident lorsque vous réalisez que l’IA générative peut écrire une assez bonne critique de Face of Battle qui jette un regard critique sur la tendance de l’auteur, John Keegan, « à pathologiser les expériences des soldats, plutôt que d’explorer les façons dont ils faisaient face et s’adaptaient au stress du combat [… soutenant] que les soldats qui présentaient les symptômes du choc de la guerre étaient souvent engagés dans un processus d’adaptation créative, utilisant leurs symptômes comme un moyen de faire face au stress et aux traumatismes de la guerre ». Il s’agit d’une citation directe d’un article généré par ChatGPT, basé sur une simple demande d’analyse de la façon dont les opinions de Keegan sur le choc de la guerre ont été remises en question par des chercheurs ultérieurs. Il peut produire 1 500 mots d’analyse (bien que sans citations) pour soutenir cet argument à l’aide de quelques instructions soigneusement conçues.
Il existe déjà une industrie artisanale sur les blogues, Discord et Reddit qui se consacre à l’enseignement de la syntaxe rapide nécessaire pour produire de bons résultats. Il existe, bien sûr, un certain nombre d’applications promettant de détecter les contenus générés par l’IA, mais la réalité est que la plupart d’entre elles sont très inefficaces. En fait, le PDG d’OpenAI, Sam Altman, a récemment déclaré qu’il serait presque impossible de mettre au point un logiciel efficace : une mauvaise écriture humaine est facile à détecter, mais l’écriture de l’IA peut être presque impossible à distinguer d’une bonne ou d’une excellente écriture humaine. L’Université de Waterloo abonde dans ce sens et déclare à sa faculté que « le contrôle de l’utilisation de l’écriture de l’IA par une technologie de surveillance ou de détection n’est pas recommandé ; l’IA continuera d’apprendre et, si on le lui demande, contribuera elle-même à éviter les choses que sa propre architecture utilise pour la détecter ». Nous vous laissons le soin d’y réfléchir.
Les médias se sont empressés de souligner les singularités et les limites de ces nouveaux LLM, mais en mettant trop l’accent sur leurs inconvénients, nous risquons aussi de négliger le fait que ce sont des outils impressionnants et que, pour de nombreuses applications, ils sont déjà « assez bons ». Considérons que si ChatGPT est un bon rédacteur technique, il est encore meilleur éditeur. Le programme peut prendre un texte original mal écrit et le rendre convaincant tout en préservant les idées originales de l’auteur.e. Il peut également prendre un texte écrit dans une langue et le restituer dans une autre, car il traduit très bien, bien mieux que Google Translate. Cette fonctionnalité offre un réel potentiel pour égaliser les chances des étudiant.e.s en ALS et des universitaires en particulier. De manière moins intrusive, ChatGPT peut également contribuer à la réflexion d’écrivains expérimenté.e.s, à surmonter le syndrome de la page blanche ou à rendre leur prose plus concise.
De nombreux/ses ami.e.s et collègues qui ont exprimé leur scepticisme quant à l’utilité de l’IA générative soulignent souvent sa propension à commettre des erreurs factuelles – parfois des fabrications élaborées. Plus inquiétant encore, les fausses déclarations qu’elle génère peuvent être exprimées avec une confiance remarquable – un résultat naturel du processus prédictif qui pose de sérieux problèmes pour la diffusion de fausses informations. Bien que cela soit vrai, nous pensons qu’il oublie un point plus important : l’IA générative est un outil puissant, mais comme tout outil, il doit être utilisé par un opérateur/trice compétent.e. Et lorsque le texte prédit correspond aux faits (ce qui est le plus souvent le cas), elle fonctionne en fait très bien.
C’est pourquoi les chercheurs et chercheuses commencent déjà à l’utiliser en classe et dans leurs publications. Un récent sondage réalisé auprès des lecteurs/trices de Nature révèle que que 80 % d’entre eux avaient déjà expérimenté avec des outils d’IA générative et que 43 % les avaient déjà utilisés dans le cadre de leurs recherches, principalement pour écrire du code, aider à rédiger des manuscrits, effectuer des analyses documentaires ou produire des présentations. L’histoire est une discipline différente, bien sûr, mais les trois dernières sont des choses que les historien.ne.s font aussi – et comme l’IA générative peut écrire du code, peut-être que plus d’historien.ne.s voudront explorer les approches numériques à l’avenir !
La deuxième partie de cette article sera publié la semaine prochaine.
Mark Humphries est professeur d’histoire à l’Université Wilfrid Laurier et Eric Story est candidat au doctorat dans le même département. Mark Humphries a lancé un Substack sur l’intelligence artificielle et l’histoire : https://generativehistory.substack.com