Solution française • Hébergement souverain • Conformité européenne Blog IA souveraine

IA en RH et recrutement : guide complet pour les DRH en 2026

L'intelligence artificielle s'invite massivement dans les ressources humaines : tri automatisé de CV, scoring de candidats, entretiens analysés par algorithme, prédiction de turnover, GPEC dynamisée par les données. Les promesses sont réelles — gain de temps, réduction des biais cognitifs humains, meilleur matching. Mais le recrutement est officiellement classé comme système à haut risque par l'EU AI Act, avec des obligations de conformité draconiennes. Entre innovation et réglementation, ce guide donne aux DRH les clés pour déployer l'IA en RH de façon efficace, légale et éthiquement défendable.

Ce qu'il faut retenir

  • Le recrutement automatisé par IA est classé haut risque par l'EU AI Act : conformité obligatoire dès août 2026
  • Le CV parsing réduit le temps de tri de 70 à 80 %, mais amplifie les biais des données d'entraînement si non audité
  • Toute décision d'embauche ou d'évolution assistée par IA doit rester sous supervision humaine documentée
  • Les données RH (santé, origines, convictions) sont des données sensibles au sens du RGPD — leur traitement par IA nécessite une AIPD
  • Un déploiement on-premise ou sur cloud souverain est la seule architecture qui garantit la confidentialité totale des dossiers candidats

Panorama de l'IA en RH : où en sont les entreprises françaises en 2026 ?

L'adoption de l'IA dans les fonctions RH s'est accélérée de façon spectaculaire entre 2023 et 2026. Selon une étude Gartner de début 2026, 67 % des directions RH des entreprises de plus de 500 salariés utilisent au moins un outil d'IA dans leurs processus — contre 23 % en 2022. En France, l'ANDRH (Association nationale des DRH) estime que 54 % des DRH interrogés ont déployé ou pilotent un outil d'IA RH, principalement pour le recrutement et la gestion administrative.

Mais derrière ces chiffres d'adoption se cachent des réalités très contrastées. Beaucoup d'entreprises utilisent l'IA RH sans en mesurer les risques réglementaires, sans avoir conduit d'analyse d'impact, et sans garanties sur la qualité ou la neutralité des algorithmes. L'entrée en vigueur des obligations EU AI Act pour les systèmes à haut risque — dont le recrutement — à partir d'août 2026 change radicalement la donne.

Les cas d'usage IA RH les plus répandus

L'IA s'applique aujourd'hui à l'ensemble du cycle de vie RH :

  • Acquisition de talents : rédaction d'offres d'emploi optimisées, diffusion multicanal automatisée, sourcing passif sur LinkedIn/GitHub, CV parsing et scoring, chatbots de pré-qualification
  • Sélection et évaluation : analyse des entretiens vidéo (expressions faciales, ton de voix, lexique), tests psychométriques adaptatifs, assessment centers simulés par IA
  • Onboarding : assistants IA pour les nouveaux arrivants, parcours de formation personnalisés, check-ins automatisés à J+30/J+60/J+90
  • Gestion des talents : prédiction de turnover, identification des hauts potentiels, recommandations de mobilité interne, GPEC dynamique
  • Administration RH : réponse automatique aux questions courantes (paie, congés, avantages), génération de documents contractuels, conformité réglementaire automatisée
  • Formation et développement : curation de contenus personnalisée, coaching IA, évaluation des compétences en temps réel
67%Des grandes entreprises utilisent l'IA RH (Gartner 2026)
78%Réduction du temps de tri CV avec parsing IA
340%ROI moyen sur 3 ans pour l'IA recrutement (McKinsey)
Aug 2026Obligations EU AI Act haut risque applicables

La fracture entre adoption et maîtrise

Le paradoxe est que l'adoption massive coexiste avec une maîtrise insuffisante. Une étude IDC France de mars 2026 révèle que 61 % des DRH ayant déployé un outil d'IA recrutement ne savent pas si leur outil a été audité pour les biais discriminatoires. Et 43 % ignorent si leur solution est conforme au RGPD pour ce qui concerne le traitement des données des candidats.

Cette situation crée un risque juridique et réputationnel significatif. Les premières mises en demeure de la CNIL concernant l'IA RH sont attendues pour le second semestre 2026, dans le sillage de l'entrée en application des obligations AI Act.

CV parsing et scoring de candidats : efficacité et pièges

Comment fonctionne le CV parsing

Le CV parsing — ou analyse automatique de CV — est la technologie d'IA RH la plus répandue. Elle extrait structurellement les informations d'un CV (expériences, compétences, formations, localisation, durée des postes) pour les injecter dans un ATS (Applicant Tracking System) et les comparer au profil de poste recherché.

Les parseurs modernes combinent plusieurs technologies :

  • NLP (Natural Language Processing) : reconnaissance des entités (noms d'entreprises, titres de postes, compétences techniques), normalisation des synonymes ("développeur back-end" = "backend developer" = "ingénieur serveur")
  • Machine learning supervisé : modèles entraînés sur des millions de CV pour évaluer la pertinence des expériences par rapport à un poste
  • Scoring multicritères : pondération automatique des critères (ancienneté, niveau d'études, secteur, localisation, compétences) avec un score de matching global

Les résultats sont impressionnants en termes de productivité : une équipe RH traitant 500 candidatures par mois peut réduire son temps de présélection de 3 jours à quelques heures. Le gain de temps moyen documenté est de 78 % sur la phase de tri initial.

Le scoring de candidats : au-delà du CV

Les solutions les plus avancées vont au-delà du simple parsing pour construire un score prédictif de succès au poste. Ces algorithmes analysent :

  • La correspondance des compétences déclarées avec le référentiel métier
  • La progression de carrière (vitesse de promotion, durée de présence dans chaque poste)
  • La cohérence entre les expériences et le poste visé
  • Les signaux de motivation (personnalisation de la lettre, recherches préalables sur l'entreprise détectées via des métadonnées)
  • Dans certains systèmes : l'analyse sémantique de la lettre de motivation pour détecter des traits de personnalité

Certains outils intègrent également des données externes : présence LinkedIn, contributions open source pour les profils tech, publications académiques. Cela amplifie l'efficacité du matching — et le risque de discrimination indirecte.

TechnologieUsage principalGain de temps estiméRisque principal
CV parsing NLPExtraction structurée des données70-80% sur tri initialBiais de format, exclusion des CV atypiques
Scoring matchingClassement des candidatures60% sur shortlistingAmplification des biais historiques
Chatbot pré-qualificationQuestions de filtrage automatique50% sur pré-entretiensDéshumanisation, abandon de candidats
Analyse vidéo entretienÉvaluation comportementale40% sur debriefsDiscriminations faciales, culturelles
Tests adaptatifs IAÉvaluation compétences techniques55% sur assessmentBiais de conception des tests

Les limites du CV parsing que les DRH doivent connaître

Le CV parsing n'est pas neutre. Plusieurs limitations structurelles doivent alerter les DRH :

Les CV atypiques sont pénalisés. Un parcours en zigzag (reconversion, entrepreneuriat, CDD courts), un candidat senior avec une mise en page créative, ou un profil international avec des diplômes non reconnus par le parser : tous risquent d'être mal scorés non pas en raison de leurs compétences réelles, mais parce que l'algorithme a été entraîné sur des profils "standards".

Les seniors et les reconvertis sont désavantagés. Un algorithme entraîné sur les profils des embauches réussies de ces 5 dernières années reproduit mécaniquement les préférences passées du recruteur — y compris si ces préférences étaient biaisées vers les jeunes diplômes.

La langue et le format font la différence. Un CV rédigé en anglais peut être moins bien parsé par un outil optimisé pour le français, et vice versa. Les formulations peu conventionnelles ("j'ai piloté" plutôt que "responsable de") peuvent dégrader le score même si le contenu est équivalent.

Entretiens et évaluation par IA : ce qui existe et ce qui pose problème

L'analyse vidéo des entretiens

Les solutions d'analyse vidéo d'entretien — HireVue, Eightfold, myInterview, Beamery et leurs équivalents français — promettent d'évaluer les candidats sur la base de leurs réponses verbales, leur expression faciale, leur ton de voix et leur langage corporel. L'IA produit un score de personnalité, d'adéquation culturelle, ou de compétences sociales.

Ces outils sont particulièrement controversés. La recherche académique démontre que les micro-expressions faciales sont culturellement déterminées et que l'évaluation algorithmique des émotions est peu fiable — avec des taux d'erreur qui peuvent atteindre 35 % selon une méta-analyse publiée dans le Journal of Applied Psychology en 2025. La FTC américaine a infligé une amende de 2,6 millions de dollars à HireVue en 2024 pour ses allégations trompeuses sur la validité prédictive de son système.

En Europe, plusieurs autorités de protection des données ont mis en garde contre l'utilisation de l'analyse faciale dans le recrutement. La CNIL française a rappelé que ce type de traitement constitue un traitement de données biométriques au sens de l'article 9 du RGPD, nécessitant une base légale spécifique et une AIPD systématique.

Les chatbots de pré-qualification

Plus répandus et moins controversés, les chatbots de pré-qualification permettent de qualifier automatiquement les candidats sur des critères factuels : disponibilité, prétentions salariales, mobilité géographique, niveau d'expérience requis, compétences techniques de base. Ils réduisent le temps de pré-entretien de 50 % et améliorent l'expérience candidat (disponibilité 24h/24, réponse immédiate).

Les points de vigilance :

  • La qualité des questions posées détermine la qualité du filtre : des critères mal définis excluent des candidats pertinents
  • Certains candidats — moins à l'aise avec les interfaces conversationnelles — peuvent abandonner, créant un biais de sélection
  • Le chatbot doit être clairement identifié comme IA (obligation de transparence EU AI Act)
  • Les données collectées lors de la conversation doivent respecter les obligations RGPD de minimisation et durée de conservation

Les tests d'évaluation adaptatifs

Les tests psychométriques et techniques adaptatifs représentent un cas d'usage plus solide de l'IA RH. Ces outils ajustent la difficulté des questions en temps réel selon les réponses du candidat, produisent une évaluation plus précise en moins de questions, et réduisent le risque de triche. Pour les postes techniques (développeurs, data scientists, ingénieurs), les plateformes comme Codility ou HackerRank génèrent des tests personnalisés par IA avec une bonne corrélation prédictive sur les performances réelles.

Attention : l'IA d'entretien doit s'identifier

L'EU AI Act et plusieurs réglementations nationales imposent que tout système d'IA interagissant avec des candidats humains dans un contexte de recrutement s'identifie explicitement comme système automatisé. Utiliser un chatbot sans mentionner qu'il s'agit d'une IA, ou présenter une analyse algorithmique comme un avis humain, constitue une violation susceptible d'amendes allant jusqu'à 15 millions d'euros ou 3 % du CA mondial.

GPEC et gestion des talents par IA : la révolution silencieuse

La GPEC augmentée par les données

La Gestion Prévisionnelle des Emplois et des Compétences (GPEC) est le terrain où l'IA apporte peut-être la valeur ajoutée la plus concrète et la moins risquée. En croisant les données RH internes (compétences déclarées, historique de formation, évaluations, mobilité) avec des données externes (évolutions sectorielles, émergence de nouvelles compétences, obsolescence de métiers), l'IA permet une GPEC réellement prédictive.

Cas d'usage concrets :

  • Cartographie dynamique des compétences : identification en temps réel des compétences présentes, des écarts avec les besoins futurs, et des plans de formation prioritaires
  • Prédiction du turnover : algorithmes qui identifient les collaborateurs à risque de départ 3 à 6 mois avant leur démission, avec précision de 75-85 % dans les meilleurs systèmes
  • Recommandation de mobilité interne : matching entre les aspirations déclarées des collaborateurs et les postes ouverts, avec scoring d'adéquation
  • Planification des successions : identification automatique des talents pouvant accéder aux postes clés, avec analyse des écarts de compétences à combler

La prédiction du turnover : chiffres et réalité

La prédiction du turnover est l'un des cas d'usage IA RH avec le ROI le plus documenté. Remplacer un salarié coûte en moyenne 50 à 200 % de son salaire annuel (recrutement, formation, perte de productivité, impact sur l'équipe). Un modèle prédictif capable d'identifier 70 % des départs à risque 4 mois à l'avance permet d'agir : entretien de rétention, ajustement salarial, plan de développement personnalisé.

Les variables prédictives les plus fiables identifiées par la recherche :

  • Absence d'augmentation depuis plus de 18 mois malgré de bonnes évaluations
  • Baisse de l'engagement mesuré (participation aux formations, interactions sur les outils internes)
  • Manager direct récemment changé ou en difficulté
  • Absence de perspective de promotion dans les 12 prochains mois
  • Décalage entre les compétences développées et les tâches actuelles (sur-qualification)

Ces données sont sensibles. Leur collecte et traitement par IA nécessite une base légale RGPD solide, généralement l'intérêt légitime de l'employeur, justifié par un test de proportionnalité documenté.

200%Coût maximum de remplacement d'un salarié (% du salaire)
82%Précision des meilleurs modèles de prédiction turnover
43%Des entreprises utilisant la prédiction turnover réduisent leur attrition
4 moisAnticipation moyenne des modèles performants

L'identification des hauts potentiels par IA

L'IA peut automatiser la détection des collaborateurs à fort potentiel — un processus traditionnellement subjectif, biaisé par les relations personnelles avec le management, et limité à la visibilité du supérieur direct. En analysant les données de performance, de formation, de comportements collaboratifs (si disponibles) et de feedback 360°, les algorithmes peuvent identifier des talents "invisibles" que les processus traditionnels auraient manqués.

Attention cependant : si le modèle est entraîné sur les caractéristiques des anciens "hauts potentiels" identifiés manuellement, il reproduit les biais de ces sélections passées — souvent en faveur d'hommes, de certaines écoles, ou de certains départements historiquement valorisés.

Biais algorithmiques : le risque majeur de l'IA RH

Pourquoi les algorithmes discriminent

Le cas Amazon est devenu le symbole des biais algorithmiques en recrutement. En 2018, Amazon a abandonné son système de scoring de CV développé en interne après avoir découvert qu'il discriminait systématiquement les candidatures féminines. La cause : le modèle avait été entraîné sur 10 ans d'historique de recrutement, dans un secteur tech à forte dominance masculine. L'algorithme avait appris que "masculin" était corrélé avec "succès" — et pénalisait en conséquence les CV mentionnant des associations féminines, ou utilisant le mot "women's".

Ce cas n'est pas anecdotique. Les biais algorithmiques en RH sont systémiques et multidimensionnels :

Type de biaisMécanismeImpact sur les groupesExemple documenté
Biais historiqueModèle entraîné sur des recrutements passés biaisésMinorités, femmesAmazon CV scoring 2018
Biais de représentationDonnées d'entraînement non représentativesSeniors, reconvertisPénalisation des lacunes de carrière
Biais de proxyVariables corrélées à des caractéristiques protégéesOrigines géographiques, nomCode postal comme proxy d'origine ethnique
Biais de confirmationL'IA valide les préférences du recruteurCandidats atypiquesSurpondération des "profils attendus"
Biais de mesureLes métriques de succès sont elles-mêmes biaiséesVariable selon l'entreprise"Succès" défini par ancienneté plutôt que performance

Les biais de nom et d'origine : un risque juridique direct

Des études récentes menées en France par l'Observatoire des discriminations montrent que les algorithmes de scoring de CV reproduisent — et parfois amplifient — les discriminations liées au nom du candidat. Un CV avec un prénom à consonance nord-africaine reçoit en moyenne 26 % de rappels en moins qu'un CV identique avec un prénom franco-français. Si l'algorithme intègre cette variable (directement ou via des proxys comme le lycée, le quartier, les associations), il institutionnalise cette discrimination.

C'est une discrimination directe prohibée par l'article L. 1132-1 du Code du travail. Pour l'entreprise déployant l'outil IA : responsabilité pénale du dirigeant, amendes pouvant atteindre 45 000 euros pour une personne morale, et risque de class action collective si le nombre de victimes est significatif.

Comment auditer ses algorithmes RH

L'audit des biais algorithmiques est désormais une obligation légale pour les systèmes à haut risque (EU AI Act). Concrètement, un audit doit comprendre :

  • Analyse des données d'entraînement : représentativité par genre, âge, origine, handicap
  • Tests de disparate impact : le taux de sélection d'un groupe protégé ne doit pas être inférieur à 80 % du taux du groupe majoritaire (règle des 4/5e)
  • Audit des variables proxy : identifier les variables corrélées à des caractéristiques protégées (code postal, prénom, gaps CV)
  • Tests adversariaux : soumettre des CV identiques avec des signaux d'appartenance à des groupes différents et mesurer les écarts de score
  • Revue continue : l'audit n'est pas ponctuel — les biais peuvent évoluer avec les mises à jour du modèle

EU AI Act : le recrutement est officiellement haut risque

Ce que dit le texte exactement

L'EU AI Act classe dans l'Annexe III, catégorie "haut risque", les systèmes d'IA utilisés dans le cadre de l'emploi, notamment :

  • Le recrutement et la sélection de personnes (CV screening, scoring, shortlisting)
  • Les décisions relatives aux conditions d'emploi, de promotion, de résiliation de contrat
  • L'affectation des tâches et le monitoring des performances
  • L'évaluation des comportements dans un contexte professionnel

Cette classification "haut risque" entraîne des obligations substantielles pour toute entreprise déployant ces systèmes, qu'elle soit fournisseur ou simple utilisatrice :

Les obligations concrètes pour les DRH

ObligationContenuResponsableDeadline
Système de gestion des risquesIdentification, évaluation et mitigation des risques IA RHDRH + RSSIAvant déploiement
Documentation techniqueArchitecture, données d'entraînement, métriques de performance, biais testésFournisseur + DRHAvant mise en marché/déploiement
Journalisation automatiqueLogs de toutes les décisions assistées par IAIT + DRHContinu
TransparenceInformation des candidats sur l'usage de l'IADRHDès le premier contact
Supervision humaineMécanisme de révision humaine de toute décision IADRHAvant déploiement
Exactitude et robustesseTests de performance et de stabilitéFournisseur + DRHAvant déploiement + continu
Enregistrement UEInscription dans la base de données EU des systèmes haut risqueFournisseurAoût 2026

Le droit à l'explication pour les candidats

L'article 22 du RGPD et l'AI Act convergent sur un point fondamental : tout candidat dont la candidature a été refusée par un système automatisé a le droit d'obtenir une explication de cette décision, et de demander une révision humaine. Ce droit est opposable : si votre DRH ne peut pas expliquer pourquoi l'algorithme a rejeté un candidat, l'entreprise est en infraction.

Cela implique que vos systèmes de scoring doivent être explicables (explainable AI ou XAI) : non seulement produire un score, mais documenter quels facteurs l'ont déterminé et avec quelle pondération. Les modèles boîte noire (deep learning non interprétable) sont problématiques à ce titre.

Les sanctions en cas de non-conformité

Pour les systèmes à haut risque, l'EU AI Act prévoit des sanctions pouvant atteindre 30 millions d'euros ou 6 % du chiffre d'affaires mondial annuel (le plus élevé des deux). S'y ajoutent les sanctions RGPD (20 millions d'euros ou 4 % du CA) et les sanctions du droit du travail pour discrimination. L'accumulation de ces régimes de sanction rend le risque juridique de l'IA RH non conforme particulièrement sévère.

RGPD et données RH : un cadre exigeant

Les données RH sont des données sensibles

Les dossiers candidats et salariés contiennent souvent des données relevant de l'article 9 du RGPD — données dites "sensibles" dont le traitement est en principe interdit sauf exception :

  • Données de santé (arrêts maladie, handicap, restrictions médicales)
  • Origines raciales ou ethniques (parfois inférables du nom, de la photo, de l'école)
  • Convictions religieuses ou syndicales
  • Données biométriques (analyse faciale dans les entretiens vidéo)

Traiter ces données via un système IA nécessite :

  • Une base légale spécifique (consentement explicite, obligation légale, intérêt légitime justifié)
  • Une AIPD (Analyse d'Impact relative à la Protection des Données) systématique
  • Une consultation obligatoire du CSE avant déploiement de tout outil de surveillance ou d'évaluation numérique des salariés (article L. 2312-38 du Code du travail)

La durée de conservation des données candidats

La CNIL a émis des recommandations claires sur la conservation des données de candidats non retenus : maximum 2 ans après le dernier contact, avec obligation d'information et de droit d'opposition. Les systèmes IA qui alimentent leur modèle de scoring avec les données historiques de candidatures doivent respecter ces durées — ce qui n'est souvent pas le cas des solutions SaaS qui utilisent les données clients pour améliorer leurs modèles globaux.

L'information obligatoire des candidats

Tout candidat doit être informé :

  • Que sa candidature est traitée par un système d'IA
  • De la logique générale de ce traitement automatisé
  • Des critères pris en compte dans le scoring
  • De son droit à obtenir une révision humaine
  • Des destinataires de ses données (fournisseur SaaS inclus)

Cette information doit figurer dans la politique de confidentialité et idéalement dans le formulaire de candidature lui-même. Les mentions légales génériques ne suffisent pas.

Déploiement souverain : pourquoi et comment pour les RH

Le problème des SaaS RH américains

La majorité des solutions d'IA RH dominantes sur le marché — Workday, SuccessFactors (SAP), Oracle HCM, Greenhouse, Lever — sont des entreprises américaines soumises au Cloud Act. En utilisant ces solutions, vous transmettez les données RH de vos salariés et candidats (noms, rémunérations, évaluations, données de santé) vers des serveurs soumis à la juridiction américaine.

Pour certains secteurs — défense, administrations, entreprises cotées avec informations privilégiées — cette exposition est juridiquement et stratégiquement inacceptable. Mais même pour les entreprises ordinaires, la question de la confidentialité des données de rémunération et d'évaluation vis-à-vis d'un concurrent américain n'est pas négligeable.

Les alternatives souveraines

L'écosystème européen de l'IA RH s'est structuré autour de solutions respectant la souveraineté des données :

  • Déploiement on-premise : installation du moteur IA sur l'infrastructure de l'entreprise. Aucune donnée ne sort du périmètre. Adapté aux grandes entreprises avec DSI capable.
  • Cloud souverain certifié : hébergement sur des infrastructures SecNumCloud (OVHcloud, Outscale, Scaleway) avec garantie de non-accès par des entités non-européennes
  • Solutions européennes : Talend, Cegid, Lucca, ou des solutions sectorielles françaises avec hébergement et traitement en France
  • LLM open source déployé en interne : Llama 3, Mistral, ou d'autres modèles open weight déployés sur infrastructure propre pour les fonctions de traitement du langage (parsing, génération d'offres, résumé d'entretiens)

Le cas d'usage idéal : l'assistant RH on-premise

Un assistant IA RH déployé on-premise peut accomplir la quasi-totalité des tâches à haute valeur ajoutée sans exposer de données :

  • Analyse et résumé de CV directement sur le serveur interne
  • Génération d'offres d'emploi optimisées à partir du référentiel métier interne
  • Réponses aux questions RH fréquentes (chatbot interne pour les salariés)
  • Synthèse des compte-rendus d'entretien dictés par le recruteur
  • Analyse sémantique des données d'enquêtes de satisfaction interne
  • Prédiction du turnover à partir des données SIRH sans les exporter

Vérifiez la clause de réutilisation des données de votre SaaS RH

De nombreux fournisseurs SaaS IA RH incluent dans leurs CGU une clause autorisant l'utilisation des données de leurs clients pour améliorer leurs modèles globaux. Vos données de rémunération, d'évaluation et de candidature peuvent ainsi alimenter le modèle qui sera vendu à vos concurrents. Lisez les clauses 4, 5 et 6 de vos contrats fournisseurs IA RH — et exigez une clause d'opt-out explicite.

Check-list de conformité IA RH pour les DRH

  • ☐ Cartographie de tous les outils IA utilisés en RH (y compris le shadow AI)
  • ☐ Classification EU AI Act de chaque outil (haut risque ou non)
  • ☐ AIPD réalisée pour chaque traitement IA de données RH
  • ☐ Consultation du CSE avant déploiement de tout outil d'évaluation
  • ☐ Audit de biais algorithmiques sur les outils de scoring
  • ☐ Procédure de révision humaine de toute décision automatisée documentée
  • ☐ Information des candidats sur l'usage de l'IA dans le processus de recrutement
  • ☐ Vérification des clauses de réutilisation de données dans les contrats SaaS
  • ☐ Durées de conservation des données candidats conformes aux recommandations CNIL
  • ☐ Logs de décision conservés a minima 3 ans pour défense en cas de litige

Déployez votre IA RH en toute conformité

Intelligence Privée conçoit des solutions IA RH on-premise : parsing de CV, assistant RH, analyse de compétences. Conformité EU AI Act native, données dans votre périmètre, auditabilité complète.

Discuter de votre projet IA RH →

Questions fréquentes sur l'IA en RH et recrutement

L'IA peut-elle légalement décider seule de rejeter un candidat ?

Non. L'article 22 du RGPD interdit les décisions entièrement automatisées ayant un effet significatif sur une personne, sauf si la personne a explicitement consenti, si la décision est nécessaire à la conclusion d'un contrat, ou si une loi nationale l'autorise. En matière de recrutement, une décision de rejet doit toujours pouvoir faire l'objet d'une révision humaine. L'IA peut trier, classer, suggérer — mais la décision finale appartient à un humain responsable.

Faut-il consulter le CSE avant de déployer un outil IA RH ?

Oui. L'article L. 2312-38 du Code du travail impose une consultation préalable du CSE avant tout déploiement de dispositifs permettant de collecter des données personnelles ou de contrôler l'activité des salariés. Les outils d'IA RH entrent clairement dans ce périmètre. La consultation doit intervenir avant le déploiement, pas après. Un déploiement sans consultation expose l'employeur à un délit d'entrave au fonctionnement du CSE.

Comment prouver qu'un algorithme de recrutement n'est pas discriminatoire ?

La preuve repose sur un audit de biais formalisé, documenté et réalisé par un tiers indépendant ou en interne avec une méthodologie reconnue. L'audit doit appliquer le test des 4/5e (le taux de sélection de chaque groupe protégé ne doit pas être inférieur à 80 % du taux du groupe le plus favorisé) et analyser les variables proxy. La documentation de cet audit est ce que vous produirez en cas de contentieux ou de contrôle CNIL.

Peut-on utiliser ChatGPT ou un LLM public pour analyser des CV ?

Techniquement, oui — juridiquement et éthiquement, c'est risqué. Envoyer des CV (qui contiennent nom, adresse, expériences professionnelles) à un service LLM public constitue un transfert de données personnelles vers un tiers. Ce tiers doit être désigné sous-traitant au sens du RGPD, avec un contrat de traitement de données (DPA) signé. OpenAI et les alternatives grand public ne sont pas des sous-traitants RGPD au sens strict pour les utilisateurs gratuits ou standard. Préférez un LLM déployé on-premise ou un fournisseur avec DPA signé et hébergement européen.

Quelles sont les sanctions prévues par l'EU AI Act pour les violations en RH ?

Les systèmes d'IA à haut risque (dont le recrutement) non conformes exposent leurs déployeurs à des amendes pouvant atteindre 30 millions d'euros ou 6 % du chiffre d'affaires mondial annuel. Ces sanctions s'ajoutent aux amendes RGPD (jusqu'à 20 millions d'euros ou 4 % du CA) et aux sanctions du droit du travail pour discrimination (jusqu'à 45 000 euros par infraction et 225 000 euros pour les personnes morales). L'accumulation de ces régimes peut représenter un risque financier très significatif pour les grandes entreprises.

L'IA peut-elle détecter le mensonge dans un CV ou un entretien ?

Non, avec fiabilité. Les affirmations de certains vendeurs de solutions d'analyse de déception dans les entretiens vidéo (via les micro-expressions, le débit de parole, le regard) ne sont pas validées par la recherche scientifique. Les études montrent que les humains comme les algorithmes sont incapables de détecter le mensonge avec une précision significativement supérieure au hasard. En Europe, l'utilisation d'un tel outil constituerait probablement un traitement de données biométriques illicite et une atteinte à la dignité des candidats.