En 2026, utiliser l’IA pour évaluer un apprenant, orienter un parcours ou surveiller un examen pourra relever du “haut risque” au sens du droit européen.

Avec l’entrée en application progressive du Règlement européen sur l’intelligence artificielle (EU AI Act), les équipes L&D ne peuvent plus considérer l’IA uniquement comme un levier d’innovation pédagogique. Elle devient aussi un sujet de conformité et de gouvernance.

Bonne nouvelle : l’AI Act ne bloque pas l’IA dans la formation.

Mais il impose un cadre clair, surtout lorsque l’IA influence l’accès à une certification, une promotion ou un emploi.

Voici ce que vous devez vraiment comprendre.

Qu’est-ce que l’EU AI Act ?

L’AI Act est la première réglementation européenne qui encadre l’usage de l’intelligence artificielle selon une approche par niveau de risque.

Les systèmes d’IA sont classés en quatre catégories :

  1. Risque inacceptable → interdits
  2. Risque élevé → autorisés mais fortement encadrés
  3. Risque limité → obligations de transparence
  4. Risque minimal → peu ou pas d’obligations

Plus un système peut impacter les droits fondamentaux, l’accès à l’emploi ou l’éducation, plus les obligations sont importantes.

👉 C’est là que la formation entre en jeu.

Pourquoi l’éducation et la formation sont concernées par l’AI Act ?

L’AI Act considère que certains usages de l’IA en éducation et formation peuvent influencer directement la trajectoire professionnelle d’une personne.

Sont typiquement classés “systèmes à haut risque” :

  • Les IA qui décident de l’accès à une formation diplômante
  • Les IA qui notent des examens certifiants
  • Les systèmes de proctoring qui détectent la fraude et déclenchent des sanctions
  • Les outils qui attribuent des scores de compétences influençant promotion ou mobilité

Dès que l’IA peut changer concrètement l’accès à un diplôme, une certification ou un emploi, on entre dans le périmètre haut risque.

AI Act et LMS : quels impacts concrets ?

Un LMS “classique” (catalogue, suivi, reporting, social learning) n’est pas automatiquement concerné par le haut risque.

Ce sont surtout ses modules intelligents qui doivent être analysés.

Si l’IA suggère des ressources sans bloquer l’accès à une formation → généralement risque limité.

Obligation principale : transparence (expliquer qu’un algorithme recommande).

Si l’IA décide du niveau accessible ou refuse l’accès à un cursus → possible haut risque.

Obligations renforcées :

  • Documentation technique
  • Tests et gestion des risques
  • Supervision humaine
  • Traçabilité des décisions

Si le système détecte et sanctionne une fraude lors d’un examen certifiant → haut risque quasi certain.

👉 Pour un LMS, cela implique :

  • Documenter précisément les fonctionnalités IA
  • Conserver les logs de décision
  • Permettre l’intervention humaine
  • Mettre en place une procédure de contestation

AI Act et outils d’évaluation : le cœur du sujet

Les outils d’évaluation sont les plus exposés.

À partir du moment où l’IA :

  • Corrige automatiquement un examen certifiant
  • Génère un score influençant une promotion
  • Détecte une fraude entraînant une sanction

… vous êtes très probablement dans le champ haut risque.

Les obligations clés

Pour les systèmes à haut risque, l’AI Act impose :

  • Une gestion formelle des risques
  • Une documentation technique complète
  • Des tests de robustesse et d’équité (biais)
  • Une supervision humaine réelle
  • Une traçabilité des décisions (données, version du modèle, date)
  • En clair : Vous devez être capables d’expliquer comment la note a été produite et permettre sa contestation.

AI Act et outils auteurs : un risque plus limité

Les outils auteurs intégrant un chatbot ou un générateur de contenu sont généralement classés en risque limité.

Pourquoi ?
Parce que l’IA assiste le concepteur, sans décider directement du sort des apprenants.

Les obligations portent surtout sur :

Transparence

  • Informer que le contenu est généré par IA
  • Expliquer les limites du système

Contrôle humain

  • Relecture avant diffusion
  • Validation finale par un formateur

Propriété intellectuelle

  • Traçabilité des données d’entraînement
  • Mention des contenus générés

Que doivent faire les équipes L&D dès maintenant ?

Bonne nouvelle : si vous avez déjà travaillé sur le RGPD, la logique est similaire.

Voici une checklist opérationnelle :

  • Cartographiez vos usages IA

    Où intervient l’IA dans vos outils ?

    • LMS
    • Outils d’évaluation
    • Proctoring
    • Chatbots internes
    • Moteurs de recommandation
  • Identifiez les usages à impact fort

    Posez-vous une question simple :
    Est-ce que l’IA peut empêcher quelqu’un d’accéder à une certification ou influencer sa carrière ?

    Si oui → priorité conformité.

  • Formalisez la supervision humaine

    • Qui valide ?
    • Qui peut intervenir pour corriger une décision IA ?
    • Comment contester une décision, un résultat, une suspicion de fraude ?
  • Interrogez vos fournisseurs

    Demandez :

    • Leur classification AI Act
    • Leur documentation
    • Leur stratégie de conformité
  • Développez l’AI literacy

    L’AI Act introduit une obligation de compétence minimale pour les personnes qui utilisent ou déploient l’IA.

    Les équipes L&D sont directement concernées.

FAQ – AI Act et formation

Non. Il encadre surtout les usages à fort impact sur les droits et l’emploi.

Non. Seuls certains modules IA peuvent l’être.

Les deux peuvent avoir des obligations selon leur rôle (fournisseur ou déployeur).

L’entrée en application est progressive à partir de 2025-2026 selon les catégories.

Oui, si l’IA utilisée peut influencer l’accès à une promotion, une mobilité ou une certification reconnue.

Même en contexte interne, un système peut être classé “haut risque” s’il impacte la trajectoire professionnelle.

Un LMS en tant que tel n’est pas automatiquement soumis à certification.

En revanche, un module IA classé “haut risque” peut nécessiter une procédure d’évaluation de conformité avant mise sur le marché (côté fournisseur).

Le règlement prévoit des amendes administratives pouvant atteindre jusqu’à 7 % du chiffre d’affaires mondial annuel pour les violations les plus graves (selon la catégorie d’infraction).

En résumé

Le AI Act ne marque pas la fin de l’IA dans la formation.

Il marque son entrée dans une phase plus structurée et responsable.

Les organisations qui anticipent :

  • Réduisent leur risque juridique
  • Renforcent la confiance des apprenants
  • Professionnalisent leur gouvernance IA
  • Améliorent la qualité pédagogique

En 2026, la question ne sera plus :
“Peut-on utiliser l’IA en formation ?”

Mais :
“Peut-on expliquer et justifier son usage ?”

Prêt à piloter l’évaluation comme un levier stratégique ?

Avec Quiz Manager, structurez vos évaluations, mesurez les compétences réelles et reliez enfin formation, performance terrain et résultats business.