L'éducation est vue par les industriels - et par les actuels responsables de l'Etat - comme un marché, et comme un moyen de conformer la population, à terme, aux nouvelles pratiques technico-sociales qu'ils voudraient leur voir adopter. D'où une offensive idéologique, déjà largement engagée, pour promouvoir l'IA qui serait "égaliseur de chances", permettrait de "réduire les différences cognitives entre les élèves"...
Le ministère de l'éducation promoteur de l'IA à toutes les sauces
Comme le relevait deux enseignants du SNES-FSU (membres de Hiatus), le ministère Borne ne cesse de promouvoir l'IA :
- la ministre Borne (Le Monde) assène, à propos de chatGPT, qu'"il n’est pas normal que les enseignant·es ne soient "que" 20 % à l’utiliser".
- Clara Chappaz, issue du monde des startups, est désormais "ministre déléguée en charge de l’Intelligence artificielle et du numérique" auprès de la ministre de l’enseignement supérieur et de la Recherche (MESR) dans le gouvernement de François Bayrou (elle n'était que secrétaire d'état précédemment).
- il est intimé, pour chaque réforme des programmes, de "créer une culture de l’IA" à tous les niveaux et dans toutes les disciplines.
- Élisabeth Borne a annoncé une formation en ligne sur le sujet pour les collégien·nes et les lycéen·nes dès la rentrée 2025 (obligatoire pour les élèves de quatrième et de seconde). Ainsi qu'une "charte pour une IA plus éthique", un appel à projets doté de 20 millions d’€ pour une "IA souveraine" destinée aux enseignant·es, consacrée à la préparation des cours, l’évaluation ou la correction des devoirs...
- la "Direction du numérique pour l’éducation" a créé une Communauté de Réflexion en Éducation sur l’Intelligence Artificielle (CREIA) pour "mettre l’innovation et l’intelligence artificielle (IA) au cœur des pratiques pédagogiques et des réflexions en éducation", et le site de Canopé y diffuse nombre de ressources.
- les plans académiques de formation des enseignants intègrent désormais tous des stages pour "enseigner et apprendre à l’ère de l’IA"...
Pour quelles conséquences ?
Aux USA, 82 % des étudiants de premier cycle universitaire et 72 % des élèves de la maternelle à la terminale ont déjà utilisé l’IA.
En France, lors d'un sondage réalisé auprès de lycéens de Nouvelle-Aquitaine (rapport "IA et éducation" de la délégation à la prospective du Sénat, octobre 2024), 90 % d’entre eux ont déjà utilisé l’IA générative pour faire leurs devoirs.
D'après Les Cahiers pédagogiques (enquête en ligne auprès des collégiens et lycéens sur leur utilisation de l’IA, 3 200 réponses), 85 % d’entre eux déclarent avoir déjà utilisé l’IA, et presque la moitié sont des utilisateurs réguliers. Moins les filles cependant (64 % des garçons sont intéressés par l’IA, 43 % des filles ; 82 % des garçons estiment bien la comprendre, 61 % des filles) qui sont moins fréquemment usagères régulières et plus méfiantes (à 41 % contre seulement 27 % des garçons) – ce qui rejoint le rapport genré aux usages numériques en général chez les adolescents.
Le développement de la triche
Aux USA, celle-ci existait déjà avant l'IA. Une étude de 2020 notait qu'en 2008, les élèves qui faisaient tous leurs devoirs amélioraient leurs notes aux examens pour 86% d’entre eux. En 2017, ça n'était plus profitable qu'à 45%, car plus de la moitié copiaient directement les réponses sur Internet. 15% utilisaient même des sites d’aides scolaires en ligne, payants, avec des enseignants recrutés en Inde le plus souvent.
En utilisant ChatGPT, les notes aux devoirs progressent, mais les notes aux examens ont tendance à baisser de 17% en moyenne quand les élèves sont laissés seuls avec cet outil.
L'IA intensifie ces pratiques pour l'aide à la recherche d'information, à l'écriture, notamment des dissertations qui sont très faciles à générer avec l’IA générative. Rédiger des comptes-rendus de lecture, résumer des chapitres ou rédiger des essais est largement à sa portée, si on ne lui demande pas d'originalité. Cela remet même en cause la lecture ("La génération Z voit la lecture comme une perte de temps") parce que cette compétence semble être devenue inutile...
A ce stade, même avec une vigilance et des logiciels faussement détecteurs de fraude, les enseignants n'ont plus les moyens pour détecter si un travail est réalisé par l’humain ou la machine.
Cela condamne toute demande de travail personnel , "à la maison", et pourrait imposer de faire tout travail scolaire en classe et sans écrans (et avec une surveillance intensive !), quitte à grignoter beaucoup sur les temps d’apprentissage.
L’IA place la déqualification au coeur de l’apprentissage
La valeur pédagogique d’un devoir d’écriture ne réside pas dans le produit tangible du travail – le devoir rendu. Elle réside dans le travail lui-même : la lecture critique des sources, la synthèse des preuves et des idées, la formulation d’une thèse et d’arguments, et l’expression de la pensée dans un texte cohérent. Le devoir est un indicateur que l’enseignant utilise pour évaluer la réussite du travail de l’étudiant – le travail d’apprentissage. Une fois noté et rendu à l’étudiant, le devoir peut être jeté.
Pour Nicholas Carr, “la véritable menace que représente l’IA pour l’éducation n’est pas qu’elle encourage la triche, mais qu’elle décourage l’apprentissage”.
Ce sociologue, auteur de Remplacer l’humain (The Glass Cage, L’échapée, 2017) montre comment les logiciels transforment concrètement les métiers : si le maintien d’une compétence exige une pratique fréquente, combinant dextérité manuelle et mentale, alors l’automatisation peut menacer le talent même de l’expert (ex des pilotes d’avion confrontés aux systèmes de pilotage automatique). L’automatisation est plus pernicieuse encore lorsqu’une machine prend les commandes d’une tâche avant que la personne qui l’utilise n’ait acquis l’expérience de la tâche en question. Ses compétences ne se développent jamais et elle reste totalement dépendante de la machine, jetée avec elle.
Pour lui, "la conséquence ironique de cette perte d’apprentissage est qu’elle empêche les élèves d’utiliser l’IA avec habileté. Rédiger une bonne consigne, un prompt efficace, nécessite une compréhension du sujet abordé. Le dispensateur doit connaître le contexte de la consigne. Le développement de cette compréhension est précisément ce que la dépendance à l’IA entrave”.
L'évitement de l'effort ?
L’être humain est doué pour trouver comment se soustraire à ce qu’il ne souhaite pas faire et éviter l’effort mental. Et plus les tâches mentales sont difficiles, plus nous avons tendance à les éviter. Les élèves qui utilisent des chatbots (IA) pour faire leurs devoirs font moins d’effort mental que ceux qui ne les utilisent pas (étude du MIT dans Le Grand Continent).
Même si cette vision utilitariste ne recouvre pas toutes les attitudes (beaucoup vont continuer à faire des efforts, parce qu'ils aiment ça [sans masochisme !] et/ou pour s'émanciper), il faut bien reconnaître que la majorité va s'interroger. Pourquoi faire des devoirs quand l’IA les rend obsolètes ? “L’utilité des devoirs écrits repose sur deux hypothèses : la première est que pour écrire sur un sujet, l’élève doit comprendre le sujet et organiser ses pensées. La seconde est que noter les écrits d’un élève revient à évaluer l’effort et la réflexion qui y ont été consacrés”. Avec l’IA générative, la logique de cette proposition, qui semblait pourtant à jamais inébranlable, s’est complètement effondrée.
C'est donc tout le travail intellectuel exigé par l'école qui, avec l'introduction de l'IA à l'école, peut être fortement dévalorisé, ce qui remet en question la légitimité même de l'école.
Avec des conséquences sur des capacités de base : plusieurs études (comme celle de chercheurs de Microsoft) ont établi un lien entre l’utilisation de l’IA et une détérioration de l’esprit critique. Pour le psychologue, Robert Sternberg, l’IA générative compromet déjà la créativité et l’intelligence.
Le rapport sénatorial alerte sur le "manque de preuves scientifiques des apports pédagogiques de l’IA et de l’efficacité des outils disponibles pour faire progresser les élèves", le "risque de voir s’éroder encore davantage les compétences fondamentales (lecture et écriture, pensée critique, faculté d’autoévaluation), les capacités d’attention et de mémorisation, mais également le développement du lien social".
“La bataille est perdue”, se désole un professeur. “Un nombre considérable d’étudiants sortiront diplômés de l’université et entreront sur le marché du travail en étant essentiellement analphabètes”...
Mais, dans le même temps, des élèves interrogés dans l'enquête des Cahiers pédagogiques s'inquiétent des impacts potentiels de l’IA sur les artistes et sur le climat, et par rapport au risque de développer une forme de dépendance à cette technologie et de n’être plus capable de réfléchir par soi-même. Et 47% de jeunes britanniques de 16 à 21 ans auraient préféré vivre leur jeunesse dans un monde où Internet n’existe pas !
Pour les enseignants aussi, la pilule magique ?
Aux USA, certaines écoles interdisent aux élèves d’utiliser ces outils, alors que les professeurs, eux, les sur-utilisent. Selon une étude (2024) auprès de 1800 enseignants de l’enseignement supérieur, 40 % déclaraient utiliser fréquemment ces outils pour faire leur cours.
Des enseignants expliquent qu’ils passent des heures à corriger des devoirs que les élèves mettent quelques secondes à produire. “Je ne veux pas que les étudiants qui n’utilisent pas d'IA soient désavantagés. Et je ne veux pas donner de bonnes notes à des étudiants qui ne font pratiquement rien”.
Beaucoup ont désormais recours à l’écriture en classe, au papier. Quelques-uns disent qu’ils sont passés de la curiosité au rejet catégorique de ces outils. “ChatGPT n’est pas un problème isolé. C’est le symptôme d’un paradigme culturel totalitaire où la consommation passive et la régurgitation de contenu deviennent le statu quo.”
En France, Gingo permettrait de diviser par 300 le temps de correction de trente copies. C'est une entreprise d'Annecy, Compilatio, qui édite déjà IA Compilatio (qui permet de détecter le plagiat ... par les élèves).
A Lyon, 150 professeur·es de mathématiques et d’histoire-géographie expérimentent un autre logiciel d’aide à la correction, Ed, créé par l’éditeur de manuels numériques Lelivrescolaire.fr, soutenu par la Drane (direction régionale au numérique pour l’éducation de l’académie de Lyon). Depuis la rentrée 2024, des académies testent aussi le logiciel de "remédiation" en français et en mathématiques MIA Seconde, élaboré par EvidenceB.
Depuis 2018, le ministère et la Banque des territoires ont lancé le P2IA (partenariat d’innovation et d’intelligence artificielle) qui a abouti au déploiement de cinq logiciels basés sur l’IA à destination des professeur·es des écoles pour l’apprentissage du français et des mathématiques. D'autres sont en cours, pour un budget total de 68 millions d’€.
La perspective, que les IA des professeurs évaluent désormais les travaux produits par les IA des élèves, conduit à l’absurde.
Certains pays vont déjà plus loin. Aux États-Unis, les élèves d’une école de Phoenix n’auront plus d’enseignant·es à la rentrée 2025, mais seront uniquement face à une intelligence artificielle. En Chine, des capteurs physiques et physiologiques sont expérimentés pour évaluer la concentration des élèves en fonction de certaines caractéristiques comme le mouvement de leurs yeux.
"L’automatisation du métier enseignant peut aller très vite, et c’est sa destruction qui est derrière", alerte Christophe Cailleaux, responsable des questions numériques au Snes-FSU. Il pointe par exemple les dangers des aides à la correction ou à la construction de séquences de cours : "Évaluer nous permet de mieux connaître l’élève, ses connaissances, ses compétences, ses progressions et difficultés. Aussi, nous concevons le cours en fonction de l’objectif à atteindre, donc de l’évaluation. Si nous n’avons plus la main sur l’évaluation, nous perdons la main sur notre métier."
Bien sûr, industriels et gouvernement démentent. Orianne Ledroit, d’EdTech France (qui regroupe les 400 entreprises françaises qui vendent de la technologie pour l’éducation et la formation pour entre 650 millions et 1,6 milliard par an), assure : "aujourd’hui, aucun logiciel éducatif ne vise à remplacer l’enseignant." Pour le ministère, les technologies basées sur l’IA correspondent à "un service d’assistance, toujours à l’initiative et sous le contrôle du professeur, et non à la place du professeur".
Les enseignant·es, outre la détection du plagiat et l’aide à l’évaluation, pourraient se voir assister à la conception de cours, à la surveillance ou dans "l’orchestration de la salle de classe". L’institution, quant à elle, peut faire appel à l’IA pour son système d’admission des élèves, la planification des cours, la sécurité ou "l’identification précoce des décrocheurs et des élèves à risque".
Mickaël Bertrand, auteur de J’enseigne avec l’IA. Guide pratique de l’IA au service de l’enseignant et de l’élève (Vuibert, 02/2025) février, "ne conseille pas aux collègues les outils qui corrigent les copies à la place des enseignants. Mais l’IA peut faire gagner du temps sur des tâches répétitives et éloignées des élèves, pour permettre d’en passer davantage sur l’accompagnement des élèves, ce qui est devenu difficile avec des classes à trente-cinq et des tâches qui s’accumulent".
L'IA pour le confort et parce que c'est pratique... Mais l'étude américaine de Tyton signale que tant les étudiants (45 %) que les enseignants (28 %) constatent une augmentation de leur charge de travail depuis son introduction.
Par ailleurs s'ajoute une dimension juridique : utiliser l’IA pour corriger les copies, donner des notes et classer les élèves peut être classé comme un usage à haut-risque selon le Règlement européen sur l'Intelligence Artificielle (RIA pour la CNIL, ou "AI act", applicable depuis août 2024). La CNIL met d'ailleurs à disposition des enseignants une
FAQ, centrée sur les usages pédagogiques concrets, les bonnes pratiques et les précautions à prendre en classe.
La fin d'un modèle d'école, et pour quoi ?
On l'a vu (plus haut à Phoenix), certains rèvent de remplacer carrément les enseignant.es par des IA, ou de les asservir à un système automatisé qui les contrôle de bout en bout.
Mais la plupart des auteurs ne s'y risquent pas. Ethan Mollick par exemple, un professeur de management à Wharton auteur de "Co-intelligence : vivre et travailler avec l’IA" (03/2025) y voit surtout le moyen de remettre en cause les cours magistraux, apprentissage passif où les étudiants se contentent d’écouter et de prendre des notes sans s’engager activement dans la résolution de problèmes ni la pensée critique. Mais cette appréciation date : à tous les niveaux des méthodes actives se sont déployées depuis longtemps.
Pour lui, l’apprentissage actif pourrait passer par les classes inversées, où les étudiants doivent apprendre de nouveaux concepts à la maison (via des vidéos ou des ressources numériques, dont l'IA) pour les appliquer ensuite en classe par le biais d’activités, de discussions ou d’exercices.
La direction numérique de l’éducation du ministère, dans son rapport "IA et éducation" (janvier 2025), liste des utilisations possibles de l’IA. Elle permet par exemple, pour les élèves, des "systèmes de tutorat intelligent", la "rédaction automatique d’essais" ou "aider les apprenants à besoins éducatifs particuliers".
Pour Célile Blanchard (Cahiers pédagogiques), il faudrait enseigner "l’art du prompt", la question que l’on envoie à l’IA pour qu’elle produise une réponse pertinente et adaptée. Bien plus élaboré qu’une simple question à un moteur de recherche, le prompt nécessite de mobiliser des connaissances, de préciser la méthodologie à suivre, les consignes de longueur et de forme, etc. Elle constate qu'il faut s’y reprendre à plusieurs fois pour aboutir à un résultat satisfaisant et adapté au contexte de la commande.
Le sociologue Bilel Benbouzid (dans AOC, première et seconde partie) estime que l’IA générative à l’université modifie la position d’auteur car on ne peut pas citer les productions qui en sont issues, contrairement à tout autre écrit. Pour lui, l'enjeu est de s’assurer d’une utilisation active et éthique, et non pas passive, donc moralement condamnable (triche). "L’acte d’écriture n’est pas un simple exercice technique ou une compétence instrumentale. Il devient un acte de formation éthique".
Par ailleurs, il estime que l’intégration de l’IA dans l’enseignement doit poser la question de ses conséquences sociales. Pour lui, l'IA générative ne sera pas le grand égalisateur social promis par ses thuréféraires, qui permettrait de réduire les différences cognitives entre les élèves. En effet, il y a une "appropriation différenciée de l’outil en fonction des trajectoires sociales et des attentes symboliques qui structurent le rapport à la langue, à l’écriture, à l’éducation".
La perception de l’apport des IA dépend du capital culturel des étudiants. Pour les plus dotés, ChatGPT est un outil utilitaire, limité voire vulgaire, qui standardise le langage. Pour les moins dotés, il leur permet d’accéder à des éléments de langages valorisés et valorisants, il devient une condition de survie dans un univers concurrentiel.
L’usage de l'IA pourrait donc paradoxalement renforcer les inégalités, creusant l’écart entre des étudiants qui ont déjà internalisé les normes dominantes et ceux qui les singent. Le fait que les textes générés manquent d’originalité et de profondeur critique, que les IA produisent des textes superficiels, ne rend pas tous les étudiants égaux face à ces outils.
Par ailleurs, Christophe Cailleaux (SNES-FSU) précis : "Il n’est pas possible de continuer à faire comme si les IA génératives n’appartenaient pas à qui elles appartiennent : soit à des entreprises inféodées au pouvoir chinois, soit à des personnes de l’entourage de Trump".
La question environnementale a également sa place au cœur des débats, une recherche via une IA générative consommant, selon les estimations, dix à trente fois plus que sur un moteur de recherche.
Divers rapports et notes
- Cadre d'usage de l'IA en éducation, suites d'une consultation nationale (Elie Allouche, 06/2025)
- L’intelligence artificielle dans les établissements scolaires, par l'Inspection générale de l'éducation, du sport et de la recherche (Vincent Montreuil, Alice Volkwein, 06/2025)
- Empowering Learners for the Age of AI, OCDE (05/2025)
- IA et Éducation : rapport sénatorial (Christian Bruyen [LR] et Bernard Fialaire [centre-radicaux], 11/2024)
- Impacts de l’intelligence artificielle : risques et opportunités pour l’environnement, Consil économique, social et environnemental (Fabienne Tatot [CGT] et Gilles Vermot-Desroches [MEDEF], 09/2024)
- L'impact potentiel de l'intelligence artificielle sur l'équité et l'inclusion dans l'éducation, OCDE (08/2024)
- Artificial intelligence and education - A critical view through the lens of human rights, democracy and the rule of law, Conseil de l'Europe (2022)
- Plan d'action pour l'éducation numérique (2021-2027), Union européenne (09/2020)
- A venir : mission dédiée à l’intelligence artificielle au sein des établissements publics d’enseignement supérieur, (François Taddei [Learning Planet Institute], et Frédéric Pascal [Institut DATAIA])
Sources
L’IA est déjà entrée à l’école, quelle place lui donner ? (Alternatives économiques, 07/2025)
IA et éducation (2/2) : du dilemme moral au malaise social (danslesalgorithmes.net, 07/2025)
IA et éducation (1/2) : plongée dans l’IApocalypse éducative (danslesalgorithmes.net, 06/2025)
Écrire à l’université à l’heure des IA génératives : égalité instrumentale, inégalité structurelle (2/2) (AOC, 05/2025)
Écrire à l’université à l’heure des IA génératives : trouble dans l’auctorialité (1/2) (AOC, 05/2025)
HIATUS Éducation nationale : there is no IA-alternative ? (HACN, d'après SNES-FSU, 02/2025)
L’éducation face au vertige de l’intelligence artificielle (Médiapart, 02/2025)