Ce qu'il faut retenir
- L'impact ESG de l'IA va bien au-delà de l'empreinte carbone : emploi, conditions de travail, transparence algorithmique, gouvernance et chaîne d'approvisionnement
- Le CSE doit être consulté avant tout déploiement d'IA affectant les conditions de travail — pas seulement informé
- La CSRD impose des indicateurs ESG IA mesurables : part des décisions automatisées, réclamations algorithmes, heures de formation IA
- La CSDDD étend la due diligence ESG aux fournisseurs IA : leurs pratiques sociales et environnementales engagent votre responsabilité
- Intelligence Privée propose un modèle de gouvernance IA responsable clé en main, documenté pour votre reporting ESG
Pilier Social : IA et emploi — au-delà du débat sur la destruction d'emplois
Le débat sur l'IA et l'emploi tend à se focaliser sur les scénarios de destruction massive de postes. La réalité des obligations ESG est plus nuancée et plus immédiate : quelle que soit la trajectoire à long terme de l'emploi, les entreprises ont des obligations légales précises sur la manière dont elles déploient l'IA auprès de leurs collaborateurs, dès aujourd'hui.
L'impact social de l'IA se mesure sur plusieurs dimensions : les transformations des métiers (plus que les suppressions brutes), la qualité des conditions de travail (augmentation vs surveillance), l'équité d'accès à la formation, et la transparence des décisions algorithmiques affectant les salariés.
Ce que disent les études en 2025-2026
Les données disponibles en 2025-2026 nuancent le catastrophisme initial. L'OCDE estime que 27% des emplois dans les pays membres sont à « haut risque d'automatisation » — mais ce chiffre masque la distinction entre automatisation partielle (transformation du poste) et disparition complète. Dans les secteurs adoptant l'IA le plus rapidement (services financiers, conseil juridique, service client), on observe plutôt une recomposition des tâches qu'une suppression nette de postes à court terme.
Les impacts les plus documentés en 2025 sont : augmentation significative de la productivité individuelle (+20 à 40% mesurés dans plusieurs études sur des juristes, développeurs et assistants administratifs), inégalités croissantes entre salariés ayant accès aux outils IA et ceux qui n'y ont pas accès, et pression sur les métiers intermédiaires de traitement de l'information.
Obligations d'information du CSE sur l'IA
Le Code du travail français impose des obligations d'information et de consultation du Comité Social et Économique (CSE) lors du déploiement de systèmes IA affectant les conditions de travail. Ces obligations sont souvent sous-estimées par les directions et créent un risque légal réel.
Quand le CSE doit-il être consulté ?
L'article L. 2312-8 du Code du travail impose une consultation du CSE sur « les conditions de travail, notamment les outils permettant un contrôle de l'activité des salariés ». Cette formulation couvre explicitement les systèmes IA d'évaluation de performance, de surveillance de la productivité, de gestion des plannings, ou d'aide à la décision RH.
La consultation doit intervenir avant le déploiement — pas après. Un déploiement IA sans consultation préalable du CSE est illicite et peut entraîner : suspension du déploiement par voie judiciaire, nullité des actes pris sur la base du système IA non consulté, et sanctions pénales pour délit d'entrave.
Ce que le CSE doit recevoir
Le CSE doit disposer d'informations suffisantes pour se prononcer utilement. Pour un système IA, cela inclut : la description fonctionnelle du système et des décisions qu'il influence, les données collectées sur les salariés et leur utilisation, les mécanismes de supervision humaine prévus, l'impact prévu sur les emplois et les compétences, et les mesures d'accompagnement (formation, évolution des postes).
Les représentants du personnel peuvent se faire assister d'un expert (article L. 2315-94 du Code du travail) — le coût de cet expert est à la charge de l'employeur pour les consultations sur les projets importants.
Formation obligatoire, transparence des décisions et droits des salariés
Le droit à la formation IA
Bien qu'il n'existe pas encore de droit légal explicite à la formation IA en France, plusieurs obligations convergent dans ce sens. Le CPF (Compte Personnel de Formation) peut financer des formations IA. Les accords de branche commencent à intégrer des engagements de formation IA. Et la CSRD impose de reporter le nombre d'heures de formation IA par salarié — incitant les entreprises à les augmenter.
Plusieurs grandes entreprises françaises (AXA, BNP Paribas, Capgemini) ont pris des engagements volontaires de formation IA pour l'ensemble de leurs effectifs, reconnaissant l'enjeu d'équité interne.
Transparence sur les décisions algorithmiques affectant les salariés
L'article 22 du RGPD interdit les décisions entièrement automatisées ayant un effet significatif sur les personnes, sauf exceptions. En RH, cela couvre : les décisions de recrutement automatisées, les évaluations de performance sans intervention humaine, les décisions d'attribution de primes ou de sanctions. Les salariés ont le droit d'être informés de l'utilisation d'un tel système, de demander une intervention humaine, de contester la décision.
Pilier Gouvernance : charte IA, comité éthique et obligations légales
La charte IA d'entreprise
La charte IA — ou politique d'utilisation de l'IA — est devenue un document de gouvernance incontournable. Elle formalise les principes d'usage de l'IA dans l'entreprise, les rôles et responsabilités, les règles d'éthique et de conformité. L'EU AI Act en fait une composante attendue de la conformité pour les organisations déployant des systèmes IA.
Une charte IA ESG-compliant doit couvrir : les principes d'IA responsable (équité, transparence, explicabilité, responsabilité), les règles d'utilisation des données (privacy by design), les engagements environnementaux (optimisation de l'empreinte), les engagements sociaux (formation, non-discrimination, droits des salariés), et les mécanismes de gouvernance (qui décide, qui supervise, comment on signale les incidents).
Le comité éthique IA
Un nombre croissant d'entreprises françaises (Société Générale, Orange, Sanofi) ont créé des comités éthiques IA — instances de gouvernance qui examinent les déploiements IA à fort impact avant leur mise en production, définissent les lignes rouges éthiques, et traitent les incidents signalés.
La composition idéale d'un comité éthique IA inclut : un représentant de la direction (DG ou membre du comex), le DPO, le RSSI, un représentant des métiers utilisateurs, un juriste, et un représentant des parties prenantes externes (clients ou experts indépendants selon les cas). La diversité de genre et de profil est un gage de qualité des délibérations.
Reporting CSRD et IA : ce que vous devez mesurer
La CSRD (Corporate Sustainability Reporting Directive) et les normes ESRS imposent un reporting standardisé incluant des aspects liés à l'IA. Voici les éléments IA attendus dans les trois piliers ESG :
| Pilier ESG | Indicateur IA attendu | Méthode de calcul | Fréquence |
|---|---|---|---|
| Environmental | Empreinte carbone des systèmes IA (scope 2 et 3) | Nb requêtes × kWh × facteur émission | Annuelle |
| Environmental | Consommation énergétique datacenters IA | kWh consommés par les déploiements IA | Annuelle |
| Social | % de salariés formés à l'IA | Nb salariés formés / effectif total | Annuelle |
| Social | Heures de formation IA par salarié | Total heures formation IA / effectif | Annuelle |
| Social | Nb de réclamations liées à des décisions algorithmiques | Comptage des signalements traités | Annuelle |
| Social | % de décisions RH impliquant de l'IA avec supervision humaine | Audit des processus RH IA | Annuelle |
| Governance | Existence d'une charte IA formalisée | Oui/Non + date d'adoption | Ponctuelle (+ révisions) |
| Governance | Existence d'un comité éthique IA actif | Oui/Non + nb de réunions annuelles | Annuelle |
| Governance | Nb de systèmes IA cartographiés et documentés | Inventaire du registre des systèmes IA | Annuelle |
Due diligence ESG des fournisseurs IA (CSDDD)
La directive CSDDD (Corporate Sustainability Due Diligence Directive), adoptée en 2024 et en cours de transposition, impose aux grandes entreprises de réaliser une due diligence sur les impacts sociaux et environnementaux de leur chaîne d'approvisionnement — y compris leurs fournisseurs de technologie IA.
Ce que vous devez évaluer chez vos fournisseurs IA
La due diligence ESG sur un fournisseur IA couvre plusieurs dimensions. Sur le plan social : conditions de travail des annotateurs de données (souvent externalisés dans des pays à faible protection sociale), politique de non-discrimination dans le développement des modèles, transparence sur les pratiques RH. Sur le plan environnemental : empreinte carbone du fournisseur, politique énergétique des datacenters, certifications environnementales. Sur le plan gouvernance : existence d'un programme d'IA éthique, transparence sur les mécanismes de contrôle des modèles, procédures de gestion des incidents.
Le questionnaire fournisseur
En pratique, la due diligence se matérialise par un questionnaire adressé aux fournisseurs IA stratégiques, complété par une analyse des informations publiques disponibles (rapports de transparence, politiques publiées, certifications). Les fournisseurs qui ne peuvent pas répondre à ces questions constituent un risque ESG documentable — et justifient éventuellement une requalification du fournisseur ou des mesures compensatoires.
Indicateurs ESG spécifiques à l'IA : construire votre tableau de bord
Au-delà des obligations de reporting minimal, les entreprises leaders construisent des tableaux de bord ESG IA plus complets pour piloter leur performance et démontrer leur engagement auprès des investisseurs et clients.
| Catégorie | KPI | Cible indicative 2026 |
|---|---|---|
| Gouvernance | Systèmes IA haut risque avec documentation complète EU AI Act | 100% |
| Gouvernance | Décisions IA à fort impact avec procédure de recours humain | 100% |
| Social | Salariés utilisant l'IA ayant reçu une formation | >80% |
| Social | Taux de réclamations traitées <30 jours | >95% |
| Equité | Tests de biais réalisés avant déploiement | 100% (systèmes haut risque) |
| Environnement | Part des inférences IA sur énergie décarbonée | >80% |
| Chaîne appro. | Fournisseurs IA stratégiques avec due diligence ESG | 100% |
Intelligence Privée : modèle de gouvernance IA responsable
Intelligence Privée propose un modèle de gouvernance IA responsable qui répond nativement aux exigences ESG : hébergement France avec énergie décarbonée (pilier Environmental), isolation des données et respect des droits des personnes (pilier Social), et documentation EU AI Act complète (pilier Governance).
Nos clients bénéficient d'un reporting ESG IA facilité : nous fournissons les données de consommation énergétique pour le reporting scope 2/3, la documentation de conformité EU AI Act pour le pilier Gouvernance, et les éléments justificatifs pour la due diligence de vos propres clients et investisseurs.
Structurez votre gouvernance IA ESG avec Intelligence Privée
Charte IA, comité éthique, indicateurs ESG, reporting CSRD et due diligence fournisseurs : Intelligence Privée vous accompagne dans toutes les dimensions de l'ESG IA.
Évaluer votre maturité ESG IA →Questions fréquentes sur l'IA et la durabilité ESG
La consultation du CSE est-elle obligatoire pour tout déploiement d'IA en entreprise ?
Non, pas pour tout déploiement. La consultation est obligatoire quand le système IA affecte les conditions de travail des salariés, implique un contrôle ou une évaluation de leur activité, ou modifie significativement les processus de travail. Un outil d'aide à la rédaction utilisé volontairement par les salariés ne nécessite pas nécessairement de consultation formelle. Un système d'évaluation automatisée de la productivité ou d'aide à la décision de recrutement/licenciement la nécessite absolument.
Quand la CSDDD s'applique-t-elle aux fournisseurs IA ?
La CSDDD s'applique progressivement selon la taille de l'entreprise donneuse d'ordre : dès 2027 pour les entreprises de plus de 1 000 salariés et 450M€ de CA. La due diligence sur les fournisseurs IA stratégiques — ceux dont les pratiques sociales et environnementales peuvent engager la responsabilité de l'acheteur — doit être intégrée dans les processus d'achat dès maintenant pour les entreprises dans ce périmètre.
Comment mesurer concrètement la part des décisions IA avec supervision humaine ?
Cet indicateur se mesure en auditant les processus métier : pour chaque système IA produisant des décisions ou recommandations à fort impact, vérifier si une étape de validation humaine est documentée dans le processus, si cette validation laisse une trace (log, signature, approbation dans le workflow), et si des cas de refus de la recommandation IA sont enregistrés. Un taux de refus nul est souvent un signal que la supervision humaine est formelle plutôt que réelle (rubber stamping).
Les petites entreprises sont-elles concernées par la CSRD IA ?
La CSRD dans sa version actuelle concerne principalement les grandes entreprises (plus de 250 salariés, 40M€ de CA ou 20M€ de bilan). Les PME ne sont pas directement obligées par la CSRD, mais peuvent l'être indirectement : leurs grands clients (soumis à la CSRD) peuvent leur demander des informations ESG via la chaîne d'approvisionnement. Les PME qui anticipent ces demandes en structurant leur reporting ESG IA se positionnent favorablement comme fournisseurs.
Existe-t-il des aides publiques pour financer la transition vers une IA responsable ESG ?
Oui. France 2030 finance plusieurs programmes liés à l'IA responsable et souveraine. Bpifrance propose des prêts et garanties pour les investissements en infrastructure IA. L'ADEME co-finance des études d'empreinte numérique et des audits de sobriété IA. Certaines régions ont des fonds spécifiques pour la transformation numérique responsable des PME. Ces aides sont cumulables avec les dispositifs de droit commun (crédit d'impôt recherche pour le développement de modèles IA).