En 2026, utiliser l’IA pour évaluer un apprenant, orienter un parcours ou surveiller un examen pourra relever du “haut risque” au sens du droit européen.
Avec l’entrée en application progressive du Règlement européen sur l’intelligence artificielle (EU AI Act), les équipes L&D ne peuvent plus considérer l’IA uniquement comme un levier d’innovation pédagogique. Elle devient aussi un sujet de conformité et de gouvernance.
Bonne nouvelle : l’AI Act ne bloque pas l’IA dans la formation.
Mais il impose un cadre clair, surtout lorsque l’IA influence l’accès à une certification, une promotion ou un emploi.
Voici ce que vous devez vraiment comprendre.
Qu’est-ce que l’EU AI Act ?
L’AI Act est la première réglementation européenne qui encadre l’usage de l’intelligence artificielle selon une approche par niveau de risque.
Les systèmes d’IA sont classés en quatre catégories :
- Risque inacceptable → interdits
- Risque élevé → autorisés mais fortement encadrés
- Risque limité → obligations de transparence
- Risque minimal → peu ou pas d’obligations
Plus un système peut impacter les droits fondamentaux, l’accès à l’emploi ou l’éducation, plus les obligations sont importantes.
👉 C’est là que la formation entre en jeu.
Pourquoi l’éducation et la formation sont concernées par l’AI Act ?
L’AI Act considère que certains usages de l’IA en éducation et formation peuvent influencer directement la trajectoire professionnelle d’une personne.
Sont typiquement classés “systèmes à haut risque” :
- Les IA qui décident de l’accès à une formation diplômante
- Les IA qui notent des examens certifiants
- Les systèmes de proctoring qui détectent la fraude et déclenchent des sanctions
- Les outils qui attribuent des scores de compétences influençant promotion ou mobilité
Dès que l’IA peut changer concrètement l’accès à un diplôme, une certification ou un emploi, on entre dans le périmètre haut risque.
AI Act et LMS : quels impacts concrets ?
Un LMS “classique” (catalogue, suivi, reporting, social learning) n’est pas automatiquement concerné par le haut risque.
Ce sont surtout ses modules intelligents qui doivent être analysés.
👉 Pour un LMS, cela implique :
- Documenter précisément les fonctionnalités IA
- Conserver les logs de décision
- Permettre l’intervention humaine
- Mettre en place une procédure de contestation
AI Act et outils d’évaluation : le cœur du sujet
Les outils d’évaluation sont les plus exposés.
À partir du moment où l’IA :
- Corrige automatiquement un examen certifiant
- Génère un score influençant une promotion
- Détecte une fraude entraînant une sanction
… vous êtes très probablement dans le champ haut risque.
Les obligations clés
Pour les systèmes à haut risque, l’AI Act impose :
- Une gestion formelle des risques
- Une documentation technique complète
- Des tests de robustesse et d’équité (biais)
- Une supervision humaine réelle
- Une traçabilité des décisions (données, version du modèle, date)
AI Act et outils auteurs : un risque plus limité
Les outils auteurs intégrant un chatbot ou un générateur de contenu sont généralement classés en risque limité.
Pourquoi ?
Parce que l’IA assiste le concepteur, sans décider directement du sort des apprenants.
Les obligations portent surtout sur :
Transparence
- Informer que le contenu est généré par IA
- Expliquer les limites du système
Contrôle humain
- Relecture avant diffusion
- Validation finale par un formateur
Propriété intellectuelle
- Traçabilité des données d’entraînement
- Mention des contenus générés
Que doivent faire les équipes L&D dès maintenant ?
Bonne nouvelle : si vous avez déjà travaillé sur le RGPD, la logique est similaire.
Voici une checklist opérationnelle :
FAQ – AI Act et formation
En résumé
Le AI Act ne marque pas la fin de l’IA dans la formation.
Il marque son entrée dans une phase plus structurée et responsable.
Les organisations qui anticipent :
- Réduisent leur risque juridique
- Renforcent la confiance des apprenants
- Professionnalisent leur gouvernance IA
- Améliorent la qualité pédagogique
En 2026, la question ne sera plus :
“Peut-on utiliser l’IA en formation ?”
Mais :
“Peut-on expliquer et justifier son usage ?”

