En 2026, l’encadrement de l’Intelligence Artificielle (IA) dans le droit du travail français repose sur une superposition du Code du Travail, du RGPD et de l’AI Act européen (dont l’application complète est prévue pour août 2026).

Voici les limites majeures imposées à l’utilisation de l’IA vis-à-vis des salariés en France :
1. Les Interdictions Absolues (Risques Inacceptables)
Certaines pratiques sont strictement interdites sur le lieu de travail car elles portent atteinte à la dignité et aux droits fondamentaux :
- Reconnaissance des émotions : Il est interdit d’utiliser des systèmes d’IA pour détecter l’état émotionnel d’un salarié (stress, colère, fatigue) dans le but d’influencer les décisions de management ou de surveillance.
- Notation sociale (Social Scoring) : L’employeur ne peut pas mettre en place un système de notation généralisé basé sur le comportement social ou la personnalité des employés pour déterminer leur « valeur » au sein de l’entreprise.
- Identification biométrique à distance : L’usage de la reconnaissance faciale en temps réel dans les espaces de travail est interdit, sauf exceptions très limitées liées à la sécurité nationale.
2. Le Contrôle de l’IA à « Haut Risque »
La plupart des outils d’IA utilisés par les RH (recrutement, promotion, évaluation) sont classés comme « à haut risque ». Ils sont soumis à des limites strictes :
- Transparence algorithmique : L’employeur doit être capable d’expliquer comment l’algorithme a pris une décision. Un système « boîte noire » est illégal s’il impacte la carrière d’un salarié.
- Lutte contre les biais : Les systèmes doivent être audités pour garantir qu’ils ne reproduisent pas de discriminations (sexe, âge, origine, handicap).
- Garantie humaine : Selon l’article L1121-1 du Code du travail, aucune décision produisant des effets juridiques sur un salarié ne peut être prise exclusivement par une IA. Un humain doit toujours valider la décision finale (licenciement, sanction, promotion).
3. Obligations Procédurales de l’Employeur
Avant d’introduire une IA, l’entreprise doit respecter plusieurs étapes légales :
- Consultation du CSE : Selon l’article L2312-8, le Comité Social et Économique doit être informé et consulté avant tout projet d’introduction de nouvelles technologies modifiant les conditions de travail ou l’emploi.
- Information individuelle : L’article L1222-4 impose que chaque salarié soit informé préalablement des dispositifs de traitement de données utilisés pour l’évaluer ou surveiller son activité.
- Analyse d’impact (AIPD) : Sous l’égide de la CNIL, une analyse d’impact sur la vie privée est obligatoire si l’IA présente un risque élevé pour les libertés des salariés.
4. Protection de la Santé et Sécurité
L’employeur a une obligation de sécurité de résultat (Article L4121-1). Les limites de l’IA s’appliquent ici sur deux points :
- Charge mentale : L’IA ne doit pas être utilisée pour imposer des rythmes de travail incompatibles avec la santé mentale des salariés (ex: algorithmes de productivité poussant à l’épuisement).
- Droit à la déconnexion : Les outils d’IA (notamment les chatbots ou assistants personnels) ne doivent pas solliciter le salarié en dehors des heures de travail.
Tableau Récapitulatif des Sanctions (2026)
| Type d’infraction | Base légale | Sanction maximale |
| Usage d’IA interdite | AI Act | Jusqu’à 35 M€ ou 7% du CA mondial |
| Manquement à la transparence | AI Act / RGPD | Jusqu’à 15 M€ ou 3% du CA mondial |
| Défaut de consultation du CSE | Code du Travail | Délit d’entrave (sanction pénale et civile) |
| Discrimination par IA | Code Pénal / Travail | 3 ans d’emprisonnement et 45 000 € d’amende |