Quelle place pour l’IA dans l’éducation ? Comment utiliser ChatGPT dans les écoles ? 1 an après, quelles nouveautés ? Tout cela est-il un effet de mode ou une vraie révolution pour l’apprentissage ? Quels sont les impacts sur la pédagogie, au sens large, dans les CFA ?
ChatGPT a été lancé en novembre 2022. Beaucoup pensent que la révolution a été la création de cet outil, mais le vrai changement réside plutôt dans la massification de l’accès gratuit à cette ressource d’intelligence artificielle, 44 % des enseignants estiment que l’intelligence artificielle sera reconnue comme un outil d’apprentissage dans le futur. Depuis l’année dernière, la documentation avance. Les webinaires se multiplient. Voici notre échange avec Olivier de Lagarde, Président du groupe Collège de Paris.
ChatGPT, IA, est-ce un effet de mode ou une véritable révolution pour l’apprentissage ?
Olivier. Connaissez-vous la courbe de la hype ? C’est un concept évoqué lorsqu’une nouvelle technologie apparaît : il y a un effet de mode, on en parle beaucoup partout, puis tout à coup, cela retombe dans un creux.
Ensuite, les acteurs les plus sérieux commencent à établir des usages, les gens s’adaptent sérieusement, les outils commencent à être utilisés et il y a une tendance qui se confirme.
C’est ce que nous avons vu dans d’autres domaines comme Internet, les réseaux sociaux, etc. En ce qui concerne l’IA, nous ne sommes pas exactement dans le creux de la vague, mais il est évident que l’engouement initial a diminué par rapport à l’enthousiasme qui a suivi son apparition.
Exemples d’outils pour les CFA
La plupart des outils existaient déjà, mais ils ont bénéficié d’un coup de projecteur et d’un accélérateur avec la vulgarisation de l’intelligence artificielle, par exemple :
- Orai, pour la prise de parole en public,
- Good Grades, pour la correction automatique de copies
- et Getlegal, pour toutes les informations juridiques et légales.
Ces outils apparaissent parce que beaucoup de choses sont en open source. Nous sommes donc sur une tendance durable et nous continuerons à voir cela à travers l’émergence et l’amélioration d’un nombre toujours plus important de solutions. En soi, ce n’est pas une révolution, c’est plutôt une évolution des logiciels au sens large.
L’IA révolutionne-t-elle la chaîne de valeur d’un CFA ?
Olivier. On ne révolutionne pas toute la chaîne de valeur, tout le parcours de l’étudiant. On l’améliore ponctuellement sur certains aspects, avec des outils qui se sont renforcés.
La tendance est plutôt de s’approprier des outils qui utilisent l’intelligence artificielle sur toute la chaîne de valeur d’un dossier.
Quelques exemples : tous les CFA ont un métier qui consiste à placer des jeunes, à accueillir et à orienter.
Pour cela, vous avez, par exemple, un outil qui utilise l’IA pour générer automatiquement des CV à partir d’un profil LinkedIn ou à partir d’éléments un peu épars donnés par un candidat. Vous avez aussi des outils pour faire des tests de positionnement, qui génèrent des parcours d’exercices ou des parcours d’orientation post-évaluation. Les outils se modernisent. Ça va apporter des aides aux enseignants pour concevoir des parcours de pédagogie. C’est très fort pour rédiger les référentiels des référentiels de compétences, ou pour toute la partie certification et suivi de l’insertion.
Si vous prenez toute la chaîne de valeur d’un CFA, à peu près à chaque étape du processus, il y a des outils qui peuvent vous être utiles, qui ne sont pas très coûteux d’accès. Certains sont même entièrement gratuits, d’autres sont à des prix raisonnables. Il ne faut pas s’imaginer qu’on va avoir un projet d’intelligence artificielle qui va tout révolutionner. L’approche est plutôt au test, à la surveillance des multiples initiatives qui sont sur le marché des start-up, des outils qui se modernisent. Et puis, de piocher pour essayer de venir renforcer, aider, accompagner, dématérialiser, optimiser, placer, les étapes de nos processus de travail habituels.
Révolution ou plutôt évolution ?
Olivier. Les deux à la fois.
Pour l’évolution, on découvre que l’intelligence artificielle est un outil de l’intelligence humaine, j’allais dire comme un autre, comme le marteau, comme internet, comme l’électricité.
Pour la révolution :
- Il y a tout d’abord un impact sur les métiers qui va venir, en particulier sur les métiers tertiaires. Ça doit nous interroger en tant que CFA, pas sur notre activité de formation elle-même, mais aussi sur le devenir et l’évolution des métiers auxquels on prépare.
- Puis, il y a le rapport à la connaissance des élèves et le rapport à l’évaluation. Par exemple, des travaux écrits à la maison qui perdent de leur pertinence. Il y a d’autres formes de travaux à inventer comme la soutenance orale par exemple. C’est par la présentation de soutenance que l’on verra la valeur ajoutée de l’élève, alors que le document écrit peut être largement sous-traité à ChatGPT. Si vous voulez évaluer la capacité de synthèse écrite, vous êtes obligé de remettre les élèves en salle avec un papier et un crayon.
Quelle évolution du rôle du formateur et de la posture de l’étudiant ?
Si l’IA avait dû remplacer les enseignants, internet l’aurait fait bien avant elle.
Olivier De la Garde
J’ai retenu 3 points pour le rôle du formateur :
- personnaliser l’apprentissage,
- rendre l’éducation plus accessible
- et aider les enseignants dans leur travail, comment ?
Si vous avez quelque chose à mettre au cœur d’une stratégie, c’est la formation des formateurs. C’est ce qui doit venir tout en haut de la pile.
On a lancé au sein du Collège de Paris, avec d’autres confrères, un certificat qui s’appelle « Formateur à l’ère de l’intelligence artificielle », on a déjà dépassé les 600 inscrits. Il y a eu un vrai engouement.
Cela a montré 2 choses :
- qu’il y avait à la fois une approche assez positive de la part des formateurs,
- mais aussi, peut-être, des inquiétudes et des craintes quant à l’évolution de leur métier.
Tout cela ne fonctionnera que si on sait accompagner les formateurs dans l’utilisation de cet outil. Donc, pour moi, la pierre angulaire d’une stratégie, c’est d’accompagner le formateur d’abord.
- D’abord, il faut lui apporter une première sensibilisation afin de lui faire découvrir toute la pluralité et la diversité des outils disponibles.
- Ensuite, c’est le moment, à partir de référentiels, comme ceux des formateurs pour adultes (préparer, animer, évaluer), de regarder quelles compétences vont changer, évoluer, et ce qui peut être modifié grâce à l’intelligence artificielle.
- Et puis ensuite, suivre le projet concret qui en découlera.
Cet accompagnement a un double avantage :
- D’abord, vous aurez une équipe de formateurs réceptive à tous les projets que vous allez pouvoir porter en matière d’éducation.
- Ensuite, vous donner la possibilité aux formateurs les plus inventifs, les plus créatifs, les plus dynamiques, de faire eux-mêmes des propositions.
L’idée est de créer un cercle vertueux qui me paraît extrêmement positif.
Quid d’une charte éthique d’utilisation, en avez-vous une chez Collège de Paris ?
Olivier. Nous ne l’avons pas spécialement créée. Nous avons plutôt enrichi notre charte éthique qui existait déjà.
Les problèmes éthiques projetés par l’intelligence artificielle ne sont pas neutres. Mais ils ne sont pas tous radicalement différents de ceux que pose déjà internet en tant que tel, et surtout que posent déjà les réseaux sociaux. Il y a toute la question de la propriété intellectuelle, pour expliquer à un élève ce que cela veut dire de signer ou mettre son nom sur un texte qui a été rédigé par intelligence artificielle et non de sa main.
C’est un engagement de responsabilité qui aura des implications importantes pour leur vie professionnelle future. Il y a aussi la question du rapport à la réalité. La création d’images, tout comme celle de texte, progresse rapidement et soulève davantage de questions concernant la distinction entre le vrai et le faux. Les réseaux sociaux ont déjà montré que l’IA est un accélérateur de ce phénomène.
Ces questions éthiques doivent englober tout, car s’affoler des enjeux éthiques de l’IA sans avoir traité des réseaux sociaux, qui ont des conséquences effrayantes, serait une erreur.
Les chartes éthiques ont toujours une valeur, car elles permettent de se poser les bonnes questions, de les communiquer et de créer une discussion autour. Mais il ne faut pas oublier les autres enjeux éthiques, notamment celui de l’éthique des entreprises qui produisent les outils d’IA. Ceux qui construisent les algorithmes et les moteurs doivent aussi être questionnés sur leur éthique.
La question de la transparence est une règle éthique qui paraît intéressante, qui ressemble un peu à celle, oralement appliquée, de certains éditeurs de publicité qui mentionnaient quand les photos étaient retouchées. La transparence est une bonne pratique à apprendre aux formateurs et à nos ados et à nous même. Elle consiste à déclarer de manière à la fois décomplexée et transparente l’utilisation qui est faite de l’IA en salle.
Comment préparer nos apprentis à évoluer dans un univers où l’IA prend de plus en plus de place ?
Olivier. S’il y a une matière à renforcer avant tout, c’est la philosophie. Cette question du rapport au réel, du rapport à la connaissance, est bien connue des philosophes.
La théorie de la connaissance, c’est-à-dire la manière dont l’être humain accède au réel, est une question qui traverse en fait toute l’histoire de la philosophie. Savoir comment l’être humain se forge des catégories, quelle est la réalité de ces catégories et comment on y accède, c’est un fil rouge qui traverse toute l’histoire de la philosophie. Or, ce qui est très intéressant, c’est que c’est la première question à laquelle se sont heurtés des développeurs de IA : comprendre comment fonctionne la théorie de la connaissance, comment fonctionne l’accès au réel…
Il me semble que ce sont des bases de notions philosophiques qu’il faut à tout prix donner à nos élèves. Et puis ça apprend autre chose. Toute connaissance est une réponse à une question. Or, dans les intelligences artificielles génératives, la qualité vient du prompt, c’est-à-dire la qualité de la question. C’est une compétence essentielle quand on fait de la philosophie : apprendre à poser des questions. Ca devient extrêmement important dans la formation des jeunes.
Personne ne peut dire ce que seront les outils d’IA et la place qu’ils auront dans dix ans. À déterminer en revanche, que cette capacité à savoir dialoguer avec la machine, poser des questions, sera une compétence qui sera toujours utile. Dernière chose, la philosophie, c’est aussi avoir un esprit critique, c’est-à-dire de ne pas prendre pour argent comptant toutes les choses, mais de savoir prendre du recul, de savoir décoder les textes, savoir d’où viennent les choses. Et aussi la capacité à avoir un esprit critique sur la réponse et à l’améliorer par rapport à l’objectif.
Toute connaissance est une réponse à une question.
Olivier De La Garde
Or, dans les intelligences artificielles génératives, la qualité vient du prompt, c’est-à-dire la qualité de la question.
Y a-t-il toujours un intérêt à être expert de sa thématique ?
Olivier. Si l’expert est quelqu’un qui dispose d’une très large masse de connaissances sur un sujet, effectivement, l’accès à la connaissance a déjà été révolutionné. Si par expert, on entend maintenant quelqu’un qui est capable de parler de manière claire, compréhensible, pédagogique, d’une question sur lequel il a travaillé, réfléchi pendant longtemps, ça, je pense qu’on a le plus jamais besoin d’experts.
« Si vous n’êtes pas capable d’expliquer quelque chose à un enfant de cinq ans, c’est probablement que vous ne comprenez pas vous-même. »
Albert Einstein
Il y a une dernière définition d’expert qui fait sens pour ceux d’entre vous qui viennent du champ académique, d’enseignant chercheur. C’est la personne qui est capable de produire une recherche académique scientifique sur un sujet donné. On a plus que jamais besoin d’eux et ça pour le moment, l’intelligence artificielle ne peut pas le faire :
- avoir une démarche de recherche originale pour le cas des sciences humaines,
- d’aller rencontrer des gens,
- analyser des archives pour l’historien,
- avoir fait des tests en laboratoire pour le biologiste, etc.
Cette capacité là, non seulement elle n’est pas remplaçable, mais elle prend même une valeur ajoutée encore plus forte.
En conclusion, comment voyez-vous le futur de l’usage des IA ?
Olivier. Il est également important de considérer les implications sociales, éthiques et économiques de l’adoption généralisée de l’IA et des outils de génération de texte :
- l’impact sur l’emploi,
- la protection de la vie privée,
- la manipulation de l’information,
- et la création de contenu automatisé.
Tout cela doit être abordé de manière proactive pour garantir que ces technologies bénéficient à la société dans son ensemble. En parallèle, les progrès dans le domaine de l’IA soulèvent également des questions philosophiques plus profondes sur la nature de la créativité, de l’intelligence et de la conscience.
Certains se demandent jusqu’où les machines pourront un jour simuler des processus cognitifs humains, voire les dépasser, remettant en question notre compréhension même de ce que signifie être humain. C’est pourquoi il est essentiel de poursuivre un dialogue ouvert et inclusif sur l’avenir de l’IA, en impliquant non seulement les experts techniques, mais aussi les décideurs politiques, les chercheurs en sciences sociales, les leaders d’opinion et le grand public.