I. Les nouvelles règles posées par l'IA Act : des interdictions claires et des obligations graduées
L'IA Act définit l'intelligence artificielle comme un ensemble de technologies capables d'analyser des données et de produire des contenus, des prédictions ou des décisions qui influencent leur environnement.
Il considère l'IA comme un produit et la classe en quatre niveaux de risque, avec des contraintes plus fortes pour les systèmes les plus sensibles.
Certains outils sont désormais interdits : notation sociale, IA de " police prédictive " individuelle, reconnaissance des émotions au travail ou à l'école.
Dans les ressources humaines, beaucoup d'outils (tri de CV, évaluation des performances, gestion des carrières) seront classés à haut risque. Les employeurs devront alors évaluer les risques, démontrer la fiabilité et la transparence des systèmes, et respecter les droits des salariés. Ils devront aussi informer clairement les salariés et candidats lorsqu'ils interagissent avec une IA, expliquer la finalité de l'outil et la possibilité de contester une décision.
Une supervision humaine est obligatoire : une personne formée doit pouvoir comprendre, contrôler et corriger les décisions de l'IA. Enfin, les entreprises devront documenter leurs systèmes (données d'entraînement, tests, preuves de conformité) et vérifier que leurs fournisseurs respectent les normes européennes.
II. Effets concrets sur le droit du travail : recrutement, conditions de travail, dialogue social et responsabilités
L'IA est déjà utilisée pour analyser des CV, présélectionner des candidats ou prédire leurs performances. Ces outils peuvent améliorer le recrutement, mais ils doivent respecter les règles sur la non-discrimination, l'information des candidats et la protection des données. Les critères de sélection doivent rester liés au poste et être transparents, et un contrôle humain doit toujours accompagner la décision.
Au-delà du recrutement, l'IA peut améliorer les conditions de travail en réduisant les tâches répétitives, en anticipant certains risques ou en personnalisant les formations. Mais elle peut aussi générer des risques psychosociaux si elle renforce la pression sur les objectifs ou permet une surveillance trop fine.
Le Code du travail impose alors d'analyser ces risques et de les prévenir. L'impact sur l'emploi doit aussi être anticipé : l'IA peut transformer certains métiers, voire les faire disparaître, ce qui impose de former et d'accompagner les salariés, notamment via la GEPP.
Le dialogue social devient central : l'introduction d'outils d'IA impactant l'organisation ou les conditions de travail suppose l'information et la consultation du CSE, à défaut de quoi le juge peut suspendre le déploiement de ces outils.
En cas d'erreur ou de discrimination liée à l'IA, la responsabilité est partagée : le fournisseur répond de la conception de l'outil, mais l'employeur reste responsable des décisions prises sur cette base.
Enfin, le non-respect des règles peut entraîner de lourdes sanctions financières prévues par l'IA Act, à l'image des amendes déjà prononcées en matière de RGPD.