Éducation et IA

L’éducation face au vertige de l’intelligence artificielle

Alors que ChatGPT est déjà un compagnon régulier des élèves, l’urgence semble être à former les enseignants à cette technologie, afin qu’ils puissent l’enseigner à leurs élèves. Et éviter au maximum les dangers d’une IA incontrôlée. Une formation obligatoire en classe de 4e et de seconde est annoncée.

** **

Passer de quinze heures de correction de copies à… trois minutes ! Cet exploit que ne peuvent réaliser les enseignant·es serait désormais possible grâce à Gingo. Cet « assistant de correction », qui tourne à l’intelligence artificielle (IA), est déployé par l’entreprise annécienne Compilatio, déjà connue pour son logiciel permettant de détecter le plagiat. Une cinquantaine d’enseignant·es testent depuis la rentrée Gingo, qui permet donc, selon l’entreprise, de diviser par 300 le temps de correction de trente copies.

Dans l’académie de Lyon, quelque cent cinquante professeur·es de mathématiques et d’histoire-géographie expérimentent un autre logiciel d’aide à la correction, Ed, créé par l’éditeur de manuels numériques Lelivrescolaire.fr. Dans les deux cas, les initiatives sont soutenues par l’Éducation nationale : le réseau Canopé, l’opérateur de formation continue de l’institution, accompagne le déploiement de Gingo ; la Drane (direction régionale au numérique pour l’éducation) de l’académie de Lyon porte l’expérimentation Ed.

Si les logiciels d’intelligence artificielle ne sont encore utilisés que par peu d’enseignant·es, cette dernière s’implante de plus en plus au sein de l’Éducation nationale. En 2018, le ministère, le secrétariat général pour l’investissement et la Banque des territoires ont lancé le P2IA (partenariat d’innovation et d’intelligence artificielle) qui a abouti au déploiement de cinq logiciels basés sur l’IA mis à disposition des professeur·es des écoles pour l’apprentissage du français et des mathématiques. De nouveaux P2IA sont en cours, pour un budget total de 68 millions d’euros.

Depuis la rentrée 2024, des académies testent aussi le logiciel de « remédiation » en français et en mathématiques MIA Seconde, élaboré par la start-up EvidenceB. Cette expérimentation a été annoncée en 2023 par Gabriel Attal au moment du « choc des savoirs ». Sa successeure Rue de Grenelle, Nicole Belloubet, a demandé en mars 2024 au Conseil supérieur des programmes que ces derniers contribuent, « pour chaque discipline, à créer une culture de l’IA ».

Enfin, en marge du sommet sur l’IA, Élisabeth Borne annonce une formation en ligne sur le sujet, pour les collégien·nes et les lycéen·nes dès la rentrée 2025. Elle sera même obligatoire pour les élèves de quatrième et de seconde. En plus d’une « charte » pour une IA plus « éthique » dans l’éducation, l’actuelle ministre a également lancé un appel à projets doté de 20 millions d’euros pour une IA « souveraine » destinée aux enseignant·es, consacrée à la préparation des cours, l’évaluation ou la correction des devoirs.

Apprendre, évaluer… copier ?

« Cela fait plusieurs années que des logiciels éducatifs développés pour les enseignants ou pour des élèves basés sur des IA sont utilisés, explique Orianne Ledroit, déléguée générale d’EdTech France, association qui regroupe plus de quatre cents entreprises françaises du secteur de la technologie en éducation. Il y a eu une accélération depuis le covid, avec une maturité technologique des entrepreneurs, puis une autre il y a deux ans, avec le déploiement massif des usages d’IA génératives avec l’arrivée de ChatGPT. »

Mickaël Bertrand, professeur d’histoire-géographie et formateur sur les questions d’IA, se rappelle avoir « vu apparaître les premières discussions en salle des profs au printemps 2023. Il y a eu une prise de conscience que l’IA allait avoir des conséquences sur le travail à la maison, sur l’évaluation. Les élèves ont, eux, passé un cap pendant les vacances de Noël 2022-2023 en découvrant ChatGPT. Ils ont tout de suite vu le potentiel à leurs yeux d’élèves ».

L’explosion de l’utilisation des IA génératives laisse entrevoir une révolution générale dans les pratiques numériques, de laquelle l’éducation n’est pas exclue. Un sondage réalisé auprès de lycéens scolarisés en Nouvelle-Aquitaine, cité par le rapport « IA et éducation » de la délégation à la prospective du Sénat d’octobre 2024, montre que 90 % d’entre eux ont déjà utilisé l’IA générative pour faire leurs devoirs.

Les rapporteurs, Christian Bruyen (app. LR) et Bernard Fialaire (RDSE), affirment que « la question n’est plus de décider s’il faut faire une place à l’IA dans l’éducation mais de savoir comment accompagner les développements en cours et répondre aux enjeux de l’éducation par et [face] à l’IA ».

L’IA touche l’éducation à tous les niveaux : les élèves, les personnels, le système. La direction numérique de l’éducation (DNE) du ministère, dans son rapport « IA et éducation » de janvier 2025, liste les utilisations possibles de l’IA. Elle permet par exemple, pour les élèves, des « systèmes de tutorat intelligent », la « rédaction automatique d’essais » ou « aider les apprenants à besoins éducatifs particuliers ».

Les enseignant·es, outre la détection du plagiat et l’aide à l’évaluation, peuvent se voir assister à la conception de cours, à la surveillance ou dans « l’orchestration de la salle de classe ». L’institution, quant à elle, peut faire appel à l’IA pour son système d’admission des élèves, la planification des cours, la sécurité ou « l’identification précoce des décrocheurs et des élèves à risque ».

Certains pays vont déjà plus loin. Aux États-Unis, les élèves d’une école de Phoenix n’auront plus d’enseignant·es à la rentrée 2025 mais seront uniquement face à une intelligence artificielle. En Chine, des capteurs physiques et physiologiques sont expérimentés pour évaluer la concentration des élèves en fonction de certaines caractéristiques comme le mouvement de leurs yeux.

L’avenir du métier enseignant

Dès lors, l’arrivée de l’IA dans l’éducation fait naître des craintes. « L’automatisation du métier enseignant peut aller très vite, et c’est sa destruction qui est derrière », alerte Christophe Cailleaux, responsable des questions numériques au Snes-FSU. S’il ne revendique pas le « refus de toutes les IA », cet enseignant d’histoire-géographie plaide pour des « usages rationnels ».

Il pointe par exemple les dangers des aides à la correction ou à la construction de séquences de cours : « Évaluer nous permet de mieux connaître l’élève, ses connaissances, ses compétences, ses progressions et difficultés. Aussi, nous concevons le cours en fonction de l’objectif à atteindre, donc de l’évaluation. Si nous n’avons plus la main sur l’évaluation, nous perdons la main sur notre métier. »

Orianne Ledroit, d’EdTech France, l’assure : « Aujourd’hui, aucun logiciel éducatif des start-up françaises ne vise à remplacer l’enseignant. » Les technologies basées sur l’IA que soutient le ministère correspondent à « un service d’assistance, toujours à l’initiative et sous le contrôle du professeur, et non à la place du professeur », tenait à rassurer, sur France Culture en janvier, Axel Jean, chef du bureau du soutien à l’innovation numérique et à la recherche appliquée de la DNE.

Mickaël Bertrand, dont l’ouvrage J’enseigne avec l’IA. Guide pratique de l’IA au service de l’enseignant et de l’élève (Vuibert) sortira le 20 février, « ne conseille pas aux collègues les outils qui corrigent les copies à la place des enseignants. Mais l’IA peut faire gagner du temps sur des tâches répétitives et éloignées des élèves, pour permettre d’en passer davantage sur l’accompagnement des élèves, ce qui est devenu difficile avec des classes à trente-cinq et des tâches qui s’accumulent ».

Pour Christophe Cailleaux, en revanche, l’idée de temps gagné grâce à l’IA est une « imposture ». « Une IA peut ponctuellement sortir quelque chose de très bien, mais je veux bien faire mon métier, ajoute-t-il. Pour cela, il faut des programmes décents, un nombre d’élèves décent. Je ne veux pas gagner du temps dans la conception des cours ou dans la correction : c’est le cœur du métier. »

Dans le numéro de septembre 2024 d’Administration et éducation intitulé « École et intelligence artificielle : je t’aime, moi non plus ? » de l’Afaé (Association française des acteurs de l’éducation), Agathe Cagé, doctrice en science politique, estime que se pose alors une question fondamentale aux systèmes éducatifs : « Qu’est-ce qui doit prendre du temps ? »

La délégation sénatoriale alerte également sur plusieurs points, comme sur le « manque de preuves scientifiques des apports pédagogiques de l’IA et de l’efficacité des outils disponibles pour faire progresser les élèves », le « risque de voir s’éroder encore davantage les compétences fondamentales (lecture et écriture, pensée critique, faculté d’autoévaluation), les capacités d’attention et de mémorisation, mais également le développement du lien social ».

Une des capacités de l’IA est en effet de pouvoir personnaliser les cours et exercices en fonction de l’élève. « L’IA peut délivrer exactement ce dont a besoin l’élève au bon moment. On tient, grâce à l’IA, de très anciennes promesses », affirme Axel Jean. Mais cela fait courir le risque d’un délitement du travail en groupe.

Dans la revue de l’Afaé, Colin de la Higuera, titulaire de la chaire Unesco « Ressources éducatives libres et intelligence artificielle » à Nantes Université, interpelle aussi, se mettant à la place des élèves : « Pourquoi apprendre quelque chose qui n’est plus utile puisque l’IA permet de nous donner des solutions sans avoir à mobiliser nos propres connaissances ? »

Et ce d’autant plus que, comme l’explique Laurence Devillers, professeure à l’université Paris-Sorbonne dont les recherches portent sur la relation humain-machine, cette dernière a « une force de persuasion qui fait que les gens ont plus confiance en la machine ».

Si les dangers autour de l’IA peuvent rappeler ceux – qui ne se sont pas toujours réalisés – apparus au moment de l’arrivée de Wikipédia ou des cours en ligne « MOOC », Christophe Cailleaux affirme qu’« il y a des signes que les risques existent, comme le fait qu’il y ait déjà des établissements dans le monde où il n’y a plus d’enseignants. Ces machines sont hyper puissantes, c’est au-delà d’un MOOC. Une IA peut gérer quarante élèves individuellement, nous, on ne peut pas. Des concepteurs d’IA eux-mêmes les disent dangereuses. Tout cela devrait être des alertes rouges ».

Il est dès lors essentiel de prévenir et d’empêcher ces dangers. Le consensus de Pékin de l’Unesco recommande notamment de « planifier l’IA dans les politiques de l’éducation », d’« autonomiser les enseignants au lieu de les remplacer » et de « promouvoir une utilisation de l’IA équitable et inclusive ».

La délégation sénatoriale pose quant à elle « la nécessité d’accompagner les enseignants par la définition de lignes directrices claires » et « d’assurer les enseignants de leur place toujours centrale dans le processus éducatif ». La formation des professeur·es est, aux dires des acteurs, une des premières nécessités.

Prendre le temps, et former

Axel Jean, de la DNE, affirme ainsi que « jamais nous n’avons eu un tel besoin de formation, du ministre jusqu’au jeune professeur en passant par les inspecteurs et chefs d’établissement. Il faut faire feu de tout bois. Si les sujets ne sont pas abordés à l’école, qui va aider les élèves à comprendre ce qui se joue ? ». « Si le corps enseignant ne comprend pas l’utilité de ces objets, on va dans le mur », craint également Laurence Devillers.

Le réseau Canopé déclare qu’environ 10 000 enseignant·es ont déjà reçu une formation sur l’IA depuis fin 2022, période depuis laquelle il propose un accompagnement « à l’usage des IA génératives ». Du côté de la formation initiale, Hamid Chaachoua, vice-président du réseau des Inspé (Institut national supérieur du professorat et de l’éducation), indique que  leur « grande majorité » proposent des modules sur l’IA aux futur·es enseignant·es. Mais, pour le directeur de l’Inspé de Grenoble, « il faudra que chaque discipline questionne la place de l’IA en son sein, comme pour l’égalité filles-garçons. Il serait plus simple de dire : “il faut former dix heures sur l’IA”, mais ça ne répondrait pas à la question de l’enjeu sociétal auquel on est confrontés ».

Puis, selon Agathe Cagé, « la clé pour les enseignants repose sur trois dimensions : la compréhension (apprendre aux élèves à comprendre le fonctionnement des IA génératives), la prise de conscience (donner conscience aux élèves de leur potentiel face à la puissance de ces technologies) et la confiance (via la définition de cadres d’usage) ».

Une confiance qui se gagnera aussi par une réflexion et des décisions autour des enjeux éthiques de l’IA, notamment de la question du traitement des données et de leur exploitation par les entreprises. « Il faut impérativement aborder les usages possibles avec un esprit critique, sinon les élèves seront seuls face à des algorithmes pensés par d’autres, aux manières de voir le monde pas forcément comme la nôtre », affirme Axel Jean.

Christophe Cailleaux renchérit : « Il n’est pas possible de continuer à faire comme si les IA génératives n’appartenaient pas à qui elles appartiennent : soit à des entreprises inféodées au pouvoir chinois, soit à des personnes de l’entourage de Trump ». La question environnementale a également sa place au cœur des débats, une recherche via une IA générative consommant, selon les estimations, dix à trente fois plus que sur un moteur de recherche.

Face à tous ces questionnements, d’aucuns plaident pour prendre le temps. « Et si on mettait “pause” et qu’on se demandait : “qu’est-ce qu’on fait ?” », propose Christophe Cailleaux. Dans un rapport de 2023 sur l’IA en éducation, la Fneeq (Fédération nationale des enseignantes et des enseignants du Québec) relève : « S’il est une chose que la technologie n’a cessé de nourrir, c’est l’accélération de notre rythme de vie et l’entraînement de l’être humain dans cette course, cette fuite en avant. » Et, à l’instar du philosophe Hartmut Rosa, de plaider pour une décélération.

Mediapart

** **

Commentaire

On laisse s’exprimer des personnes qui sont plutôt contre l’utilisation de l’IA dans les écoles. C’est pour montrer que l’on se dit favorable au dialogue. Mais, dans le fond, on va s’en servir, à fond : on n’arrête pas le progrès !!!

Il faut non seulement décélérer mais arrêter la « fabrique du crétin digital »