Quand un élève rend un devoir aidé par une IA, la vraie question n’est pas seulement de savoir si c’est possible. C’est de savoir qui contrôle l’outil, les données et l’évaluation.
En Europe, ce débat n’est plus théorique. L’école ne bascule pas dans le tout-algorithme, mais elle entre dans une phase de cadrage serré. La Commission fixe des repères communs, tandis que les ministères gardent la main sur les règles du quotidien. C’est le sens du cadre européen pour l’usage éthique de l’IA à l’école : aider les enseignants, sans leur imposer un modèle unique.
Le mouvement s’accélère aussi parce que les usages montent. En 2025, 32,7 % des Européens de 16 à 74 ans ont utilisé des outils d’IA générative, et 9,4 % l’ont fait pour l’éducation formelle. L’école n’est donc plus à l’écart. Elle devient un terrain où l’on apprend à utiliser l’IA, mais aussi à la surveiller.
Le cadre européen : autoriser, mais sous conditions
Le cœur du cadre européen tient en une idée simple : l’IA peut aider, mais elle ne doit pas décider seule. L’AI Act classe l’éducation et la formation parmi les usages à haut risque. Cela vise notamment les systèmes qui servent à l’admission, à l’orientation, à l’évaluation des acquis, au choix du niveau d’enseignement ou à la surveillance des examens. Dans le même mouvement, certains usages sont interdits, comme la reconnaissance des émotions à l’école.
Cette logique ne bloque pas l’innovation. Elle la canalise. La Commission a publié le 5 mars 2026 une version actualisée de ses lignes directrices pour les enseignants, dans le cadre du plan d’action pour l’éducation numérique 2021-2027. Le message est clair : l’IA peut aider à préparer un cours, à différencier un exercice ou à accéder plus vite à des ressources. Mais elle doit rester un outil, jamais un arbitre.
La logique est la même du côté des obligations techniques. Les systèmes à haut risque doivent être évalués avant leur mise sur le marché et tout au long de leur cycle de vie. Les fournisseurs doivent aussi répondre devant les autorités compétentes. L’Europe cherche donc un point d’équilibre : ne pas freiner les usages utiles, mais éviter que l’école devienne un laboratoire sans garde-fous.
La France resserre les règles et cherche un outillage public
En France, le virage est plus visible encore. Le cadre d’usage de l’IA en éducation a été publié le 14 juin 2025. Il est issu d’une consultation nationale menée de janvier à mai 2025 et nourrie par plus de 500 contributions. Ce document autorise l’usage de l’IA, mais seulement s’il respecte des règles précises : pas de données confidentielles dans les outils grand public, pas de dépendance aveugle aux réponses produites, et une vérification systématique des contenus générés.
Le texte va plus loin pour les élèves. L’usage pédagogique des IA génératives est autorisé en classe à partir de la 4e, à condition d’être limité, expliqué et accompagné par l’enseignant. Au cours de leur scolarité, les élèves doivent aussi recevoir une formation obligatoire aux IA et à leurs enjeux, au moins en 4e, en 2de et en première année de CAP, via Pix. Autrement dit, l’école française ne veut pas seulement interdire. Elle veut apprendre à s’en servir.
Le ministère a également choisi de bâtir ses propres outils. À l’été 2025, il a annoncé un appel à projets de 20 millions d’euros pour développer une IA souveraine, ouverte et évolutive à destination des enseignants. L’objectif n’est pas anodin : réduire la dépendance aux grandes plateformes et proposer des services pensés pour l’école publique, pas pour la seule logique de marché.
Dans le même temps, l’administration veut observer ce qui se passe vraiment dans les classes. L’Observatoire national des pratiques pédagogiques avec l’intelligence artificielle doit documenter les usages, partager les retours de terrain et outiller les établissements. Là encore, le signal est clair : pas de doctrine abstraite, mais un pilotage plus proche des pratiques réelles.
Des usages très inégaux d’un pays à l’autre
Le tableau européen reste très contrasté. Dans l’enquête TALIS 2024 de l’OCDE, 14 % des enseignants français disent avoir utilisé l’IA dans leur travail. La moyenne de l’OCDE grimpe à 36 %. Et parmi les pays de l’Union les plus avancés dans cette enquête, la Malte, la Tchéquie et la Roumanie atteignent 46 %. On est donc loin d’un usage homogène.
Les écarts ne tiennent pas qu’à la curiosité des enseignants. Ils reflètent aussi l’infrastructure, la formation et le cadre local. En France, 79 % des enseignants qui n’utilisent pas l’IA disent ne pas avoir les compétences nécessaires, et 50 % évoquent un manque d’infrastructure dans leur établissement. En Tchéquie, la part de ceux qui pointent un manque de compétences monte à 80 %, mais le problème d’équipement y est moins fort. Le sujet n’est donc pas seulement « pour ou contre ». Il est aussi matériel, budgétaire et organisationnel.
Le type d’usage compte tout autant. En Malte, les enseignants qui utilisent l’IA s’en servent surtout pour résumer un sujet, préparer des plans de cours ou ajuster la difficulté des exercices. On voit bien la ligne de partage : l’IA sert d’abord à gagner du temps et à personnaliser, pas à remplacer le jugement pédagogique. C’est là que les grands établissements, bien formés et bien dotés, peuvent avancer plus vite que les autres.
Le vrai enjeu : ne pas transformer l’IA en pilote automatique
Le débat européen ne porte donc pas seulement sur l’efficacité. Il porte sur la place de l’humain. L’UNESCO défend une approche centrée sur les personnes, avec protection des données, validation des outils et limite d’âge pour les conversations autonomes avec les plateformes génératives. La guidance de l’UNESCO sur l’IA générative en éducation insiste sur un point : plus l’outil est puissant, plus le tri, la vérification et l’esprit critique deviennent nécessaires.
La CNIL tient le même discours, mais sous l’angle des droits. En décembre 2025, elle a renouvelé son partenariat avec le ministère de l’Éducation nationale pour renforcer la protection des données des élèves. Le sujet est concret : dans les écoles et les classes, les collectes de données se multiplient, et l’essor de l’IA ajoute de nouveaux enjeux de confidentialité et de conformité au RGPD.
Des voix plus critiques demandent aussi de ne pas confondre modernisation et dépendance. Le Comité syndical européen de l’Éducation et le SNES-FSU disent que la technologie doit rester au service de l’École, et non l’inverse. Ils alertent sur le contrôle des données, l’influence des intérêts privés et la charge de travail supplémentaire pour les personnels. Leur argument est simple : si l’IA se déploie sans formation, sans transparence et sans garantie sur les usages, elle profite surtout aux grands acteurs du numérique et laisse les établissements les plus fragiles avancer à l’aveugle.
Ce qu’il faut surveiller dans les prochains mois
La suite se jouera moins dans les discours que dans l’exécution. En France, la généralisation des parcours Pix IA, la montée en puissance du cadre d’usage et le travail de l’Observatoire diront si l’école sait vraiment s’approprier ces outils. Le vrai test sera là : former les enseignants, fixer des règles lisibles pour les devoirs et les évaluations, et préserver une place forte pour l’écrit, l’oral et le raisonnement.
À l’échelle européenne, il faudra suivre la traduction concrète des nouvelles lignes directrices de 2026, la façon dont les États les appliquent et la manière dont ils arbitrent entre souveraineté numérique, protection des mineurs et pression des fournisseurs privés. Pour l’instant, l’école européenne n’a pas choisi entre méfiance et adoption totale. Elle avance sur une ligne étroite : autoriser l’IA, mais garder la main.













