Aller au contenu principal
AI Act et recrutement : comment les DRH peuvent sécuriser leurs outils ATS, gérer les systèmes d’IA à haut risque, éviter les sanctions et transformer la conformité en avantage stratégique sur le marché de l’emploi.

AI Act et recrutement : qui est réellement concerné dans l’entreprise

Pour une direction des ressources humaines, l’AI Act recrutement n’est plus un sujet théorique mais un chantier opérationnel, avec une application progressive à partir de 2025 et des obligations renforcées en août 2026 pour les systèmes d’IA à haut risque. Dès que vos systèmes de tri de CV, de scoring automatique ou de pré qualification vidéo interviennent dans une décision de recrutement, vous entrez dans le périmètre de la loi européenne sur l’intelligence artificielle, notamment son article 6 sur la classification des systèmes à haut risque et ses articles 8 à 15 sur les exigences applicables. Les DRH qui pilotent plusieurs outils de recrutement ATS, de chatbots et de matching doivent cartographier précisément chaque système, chaque flux de données et chaque point de décision pour préparer un audit IA RH structuré et une évaluation d’impact documentée, en s’appuyant sur une grille d’analyse interne et sur les définitions du règlement.

Le règlement européen classe ces systèmes de recrutement utilisant l’intelligence artificielle comme « systèmes à haut risque » dès lors qu’ils influencent l’accès au marché de l’emploi, en particulier pour la sélection, le classement ou l’exclusion de candidats. Concrètement, un outil de présélection qui filtre des candidats avant entretien humain devient un système de risque élevé, soumis aux obligations de l’article 9 sur la gestion des risques, de l’article 10 sur la gouvernance des données d’entraînement et de l’article 14 sur la supervision humaine, avec une traçabilité renforcée dans un registre interne. À l’inverse, un simple agenda partagé ou un module de signature électronique reste hors du champ des systèmes à risque, même si l’outil est intégré à votre suite de ressources humaines ou à votre plateforme de gestion des talents, car il ne contribue pas à l’évaluation des candidatures ni à la décision finale, ce que confirment les lignes directrices publiées par la Commission européenne et les autorités de protection des données.

Les entreprises qui opèrent sur plusieurs pays de l’Union européenne doivent intégrer cette logique de système à risque dans tous leurs processus de recrutement, y compris pour les filiales et les prestataires externes qui utilisent des ATS ou des solutions de matching algorithmique. La Commission européenne a déjà publié le texte du règlement, des lignes directrices provisoires et annoncé des actes d’exécution qui préfigurent un contrôle accru des outils de recrutement, en particulier ceux qui reposent sur des modèles d’intelligence artificielle générative, de scoring prédictif ou de profilage automatisé. Ignorer ce mouvement reviendrait à sous estimer un risque outil qui se comptera en millions d’euros d’amende potentielle (jusqu’à 7 % du chiffre d’affaires mondial selon la gravité et les articles concernés) et en réputation employeur durablement abîmée sur un marché de l’emploi déjà tendu, avec un impact direct sur l’attractivité des talents et la marque employeur.

Quatre chantiers prioritaires pour sécuriser vos outils de recrutement ATS

Les DRH qui ont lancé un audit AI Act recrutement sur leurs outils de recrutement ATS rapportent des durées moyennes de six à neuf mois pour une première mise en conformité, avec un calendrier qui doit intégrer les échéances d’août 2026 pour les systèmes d’IA RH à haut risque. Le premier chantier consiste à dresser un inventaire complet des systèmes utilisés dans le recrutement, en distinguant les outils de tri, d’évaluation des candidats et de décision automatisée, puis à qualifier pour chacun le niveau de risque, la finalité et le rôle précis de l’intelligence artificielle. Sans cette cartographie, impossible de piloter la mise en œuvre des obligations de conformité imposées par l’acte réglementaire européen, ni de prioriser les actions sur les modules de présélection, d’entretien vidéo ou de scoring prédictif les plus sensibles, ni de bâtir une checklist opérationnelle jusqu’à août 2026, par exemple sous forme de tableau d’inventaire des systèmes et de matrice de criticité.

Deuxième chantier, la relation avec les éditeurs d’outils de recrutement devient stratégique pour chaque entreprise qui recrute à volume significatif et souhaite sécuriser la conformité de son ATS. Les directions des ressources humaines doivent exiger une documentation technique détaillée sur les modèles d’intelligence artificielle utilisés, les jeux de données d’entraînement, les mécanismes de protection des données et les garde fous de supervision humaine intégrés dans chaque système, par exemple la possibilité de revoir un score ou de désactiver un module de filtrage. Les clauses contractuelles doivent prévoir la répartition des responsabilités en cas de non conformité réglementaire, de biais avéré dans l’évaluation des candidats ou de défaillance d’un système de risque classé haut par le règlement européen, avec des engagements précis sur les mises à jour logicielles, les audits indépendants, la fourniture de rapports de conformité et la notification des incidents, en s’inspirant de modèles de clauses de responsabilité et de SLA publiés par les associations professionnelles.

Troisième chantier, la gouvernance interne doit être clarifiée avant tout contrôle de la CNIL ou d’une autorité européenne compétente en matière d’IA. Qui valide la mise en production d’un nouvel outil de recrutement, qui signe la documentation technique exigée par l’AI Act, qui décide de suspendre un système en cas de risque outil identifié sur le marché de l’emploi, qui tient à jour le registre des systèmes d’IA RH et des évaluations d’impact. Quatrième chantier enfin, la formation des recruteurs et des managers à la supervision humaine active, pour qu’ils comprennent comment challenger une décision automatisée, documenter leurs arbitrages, expliquer aux candidats le rôle de l’algorithme et garantir une protection des données conforme à la loi européenne, au RGPD et aux recommandations de la CNIL dans tous les scénarios de recrutement, avec des supports pédagogiques, des guides internes et des modules e learning dédiés.

Du risque juridique au levier stratégique sur le marché de l’emploi

Le débat sur l’AI Act recrutement est souvent réduit à la peur des sanctions, alors que le véritable enjeu se joue sur le marché de l’emploi qualifié et la capacité à attirer des talents sensibles à l’éthique des données. Les entreprises qui structurent dès maintenant leurs systèmes de recrutement autour d’une supervision humaine forte, d’une transparence sur l’usage de l’intelligence artificielle et d’une protection des données exigeante gagneront un avantage concurrentiel durable, en particulier sur les profils pénuriques qui comparent les politiques IA des employeurs. À l’inverse, celles qui subissent la mise en œuvre de l’acte réglementaire européen risquent de voir leurs processus gelés, leurs outils bloqués, leurs audits IA RH défavorables et leurs candidats les plus recherchés partir vers des employeurs jugés plus responsables et plus matures sur la conformité ATS, capables de démontrer des procédures claires et des indicateurs de suivi des biais.

Sur le terrain, les DRH qui ont commencé l’audit de leurs systèmes de recrutement en amont décrivent trois apprentissages majeurs pour leurs entreprises. D’abord, la découverte de redondances entre plusieurs outils de recrutement, parfois alimentés par les mêmes données de candidats, avec un risque outil démultiplié sans bénéfice réel pour la décision finale, et des coûts de licence difficilement justifiables. Ensuite, la nécessité de revoir les modèles de scoring utilisés par certains systèmes à risque, car les critères retenus pénalisaient des profils issus de reconversion, de formations non traditionnelles ou de zones géographiques spécifiques sur le marché de l’emploi européen, créant un risque de discrimination indirecte et de non conformité avec les principes de l’AI Act et les lignes directrices des autorités de non discrimination, ce qui a conduit certaines entreprises à ajuster leurs algorithmes et à documenter ces corrections dans leurs rapports d’impact.

Dernier enseignement, l’AI Act et son acte réglementaire associé forcent un dialogue nouveau entre directions juridiques, DSI et ressources humaines sur la gouvernance des données de recrutement, la traçabilité des décisions et la gestion du cycle de vie des modèles. Ce dialogue, s’il est bien orchestré, permet de transformer une contrainte de conformité en cadre robuste pour l’innovation en intelligence artificielle appliquée au recrutement, par exemple pour concevoir des outils de présélection plus inclusifs ou des tableaux de bord de suivi des biais. Pas un énième projet de conformité réglementaire, mais un socle pour des systèmes de recrutement plus justes, plus efficaces et plus alignés avec les valeurs de l’Union européenne, tout en sécurisant les investissements dans les solutions d’IA RH à horizon 2026, grâce à des feuilles de route pluriannuelles et à des indicateurs de performance partagés.

Statistiques clés sur AI Act et recrutement

  • Les systèmes d’IA classés à haut risque dans le recrutement devront démontrer une supervision humaine effective et documentée, sous peine de sanctions pouvant atteindre plusieurs millions d’euros par infraction et, pour les cas les plus graves, jusqu’à 7 % du chiffre d’affaires annuel mondial de l’entreprise concernée, conformément au régime de sanctions prévu par le règlement et rappelé dans les documents d’orientation de la Commission européenne.
  • Les entreprises utilisant des outils de recrutement ATS intégrant de l’intelligence artificielle devront tenir une documentation technique détaillée sur les modèles, les données et les mécanismes de contrôle, accessible aux autorités de contrôle nationales et européennes, ainsi qu’un registre interne des systèmes d’IA RH déployés, incluant pour chaque outil son statut de risque et les principales mesures de réduction des biais, sur le modèle des registres de traitements déjà exigés par le RGPD.
  • Les obligations de transparence envers les candidats incluent l’information sur l’usage de systèmes automatisés dans l’évaluation des candidatures, la possibilité de demander une intervention humaine sur la décision et, dans certains cas, l’explication des principaux critères utilisés par l’algorithme, en articulation avec les droits d’accès et de recours prévus par le RGPD et les fiches pratiques publiées par la CNIL sur l’IA et l’emploi.
  • Les autorités de l’Union européenne prévoient un renforcement progressif des contrôles sur les systèmes de risque dans le recrutement, avec une coordination accrue entre la Commission européenne, les autorités nationales, les régulateurs sectoriels et les autorités de protection des données comme la CNIL, qui publient régulièrement des fiches pratiques et des recommandations sur l’usage d’algorithmes dans les processus RH, ainsi que des exemples d’évaluations d’impact et de bonnes pratiques de supervision humaine.

Questions fréquentes sur AI Act recrutement

Quels outils de recrutement sont concernés par l’AI Act dans l’entreprise ?

Sont concernés tous les systèmes qui utilisent de l’intelligence artificielle pour influencer une décision de recrutement, comme le tri automatisé de CV, le scoring de candidats, les entretiens vidéo asynchrones analysés par algorithme ou certains chatbots d’entretien qui orientent la présélection. Les outils purement administratifs, qui ne participent pas à l’évaluation des candidats ni à la décision finale, ne sont en général pas classés comme systèmes à risque, même s’ils sont intégrés à un ATS ou à une plateforme de gestion des candidatures. Chaque entreprise doit néanmoins analyser au cas par cas le rôle réel de chaque outil dans son processus de recrutement, en s’appuyant sur une grille d’évaluation des risques IA RH, sur les définitions de l’AI Act et sur les recommandations publiées par les autorités de contrôle, par exemple les fiches thématiques de la CNIL sur les algorithmes en ressources humaines.

Comment une DRH peut elle vérifier la conformité d’un ATS américain avec le règlement européen ?

La première étape consiste à exiger de l’éditeur une documentation technique complète sur les modèles d’intelligence artificielle utilisés, les sources de données, les mécanismes de supervision humaine et les mesures de réduction des biais. La DRH doit ensuite vérifier que l’outil permet de respecter les obligations de transparence, de protection des données et de contrôle humain prévues par le règlement européen et les lignes directrices de la Commission européenne, ainsi que les recommandations de la CNIL sur l’usage de l’IA dans le recrutement. En cas de doute, il est recommandé d’impliquer la direction juridique et la DSI pour évaluer le niveau de risque outil, la localisation des données, les transferts hors UE et la capacité de l’éditeur à s’aligner sur l’AI Act dans les délais d’entrée en application, en intégrant ces exigences dans une clause contractuelle spécifique, inspirée des modèles de contrats de sous traitance de données et des guides de conformité publiés par les autorités.

Quelles sont les priorités à court terme pour préparer la mise en œuvre de l’AI Act recrutement ?

À court terme, les priorités sont de cartographier tous les systèmes utilisés dans le recrutement, d’identifier ceux qui relèvent des systèmes à risque et de lancer un audit de conformité couvrant les données, les modèles et la supervision humaine. Il faut ensuite renégocier les contrats avec les fournisseurs d’outils de recrutement pour intégrer les nouvelles obligations, mettre à jour le registre des traitements de données et définir une gouvernance claire de la supervision humaine, avec des rôles et responsabilités formalisés. Enfin, la formation des recruteurs et des managers à l’usage responsable de l’intelligence artificielle devient un levier clé pour réduire le risque juridique et opérationnel, sécuriser la conformité ATS et renforcer la confiance des candidats dans les processus de recrutement automatisés, en s’appuyant sur des supports internes, des ateliers pratiques et des retours d’expérience documentés.

Qu’est ce qui ne change pas pour les entretiens de recrutement classiques avec l’AI Act ?

Les entretiens de recrutement menés uniquement par des humains, sans recours à un système automatisé d’évaluation ou de décision, restent encadrés par le droit du travail, le RGPD et les règles de non discrimination déjà en vigueur dans chaque État membre. L’AI Act ne remet pas en cause la liberté d’appréciation du recruteur, tant que les décisions ne sont pas déléguées à un système d’intelligence artificielle classé à risque ou utilisé pour filtrer les candidatures. En revanche, dès qu’un outil algorithmique influence la présélection ou le classement des candidats, les exigences du règlement européen sur l’IA s’appliquent, y compris en matière de transparence, de documentation, de gestion des risques et de supervision humaine effective, ce qui impose d’actualiser les procédures internes et les mentions d’information aux candidats.

Comment articuler AI Act, RGPD et politiques internes de ressources humaines ?

L’AI Act recrutement vient compléter, et non remplacer, le RGPD et les politiques internes de ressources humaines sur la protection des données et l’égalité de traitement, en ajoutant des exigences spécifiques sur les systèmes d’IA à haut risque. Les entreprises doivent construire un cadre unique de gouvernance qui aligne les exigences de protection des données, de transparence, de supervision humaine et de documentation technique pour tous les systèmes de recrutement, qu’ils soient intégrés à un ATS, à un outil de matching ou à une solution d’entretien vidéo. Cette articulation cohérente permet de réduire les doublons de contrôle, de clarifier les responsabilités et de transformer la conformité réglementaire en avantage compétitif sur le marché de l’emploi, en démontrant aux candidats et aux autorités une approche responsable de l’IA RH, appuyée sur les textes du règlement, les actes d’exécution et les fiches pratiques de la CNIL, ainsi que sur les lignes directrices des autorités nationales du travail et de la non discrimination.

Sources de référence

  • CNIL – Régulation européenne de l’intelligence artificielle et impacts sur le recrutement, recommandations sur l’usage d’algorithmes dans les processus RH et articulation avec le RGPD, fiches pratiques sur l’IA et l’emploi, exemples de questions à poser aux fournisseurs et modèles de mentions d’information aux candidats.
  • Commission européenne – Texte du règlement européen sur l’IA, actes d’exécution, documents d’orientation et fiches pratiques sur les systèmes d’IA à haut risque dans l’emploi, y compris les systèmes de recrutement et de gestion des candidatures, ainsi que les FAQ officielles sur les obligations des fournisseurs et des utilisateurs.
  • Autorités nationales du travail et de la non discrimination dans l’Union européenne, lignes directrices sur l’égalité de traitement, le contrôle des algorithmes de recrutement, les obligations des employeurs et les méthodes d’évaluation d’impact sur les droits fondamentaux, avec des études de cas et des exemples de pratiques à proscrire ou à privilégier.
Publié le