Solution française • Hébergement souverain • Conformité européenne Blog IA souveraine

Audit IA interne : la checklist complète pour RSSI et DPO

L'EU AI Act impose aux déployeurs de systèmes d'IA à haut risque de maintenir un système de gestion des risques (article 9) et une documentation technique (article 11). Mais même pour les systèmes à risque limité, un audit interne régulier est la meilleure façon d'anticiper les contrôles et de prouver votre bonne foi réglementaire. Voici la méthode, étape par étape.

Ce qu'il faut retenir

  • L'EU AI Act exige documentation technique, gestion des risques et supervision humaine pour les systèmes à haut risque
  • La classification correcte de vos systèmes IA est la première étape — et la plus souvent mal faite
  • Le RGPD s'applique à tout système IA traitant des données personnelles, indépendamment de l'AI Act
  • Un audit interne annuel (minimum) est la norme pour prouver la conformité continue

Étape 1 : définir le périmètre d'audit

Avant d'auditer quoi que ce soit, cartographiez exhaustivement vos systèmes IA. Posez-vous ces questions pour chaque outil IA utilisé dans l'entreprise :

  • Qui l'utilise ? (département, nombre d'utilisateurs)
  • Quelles données traite-t-il ? (personnelles, sensibles, confidentielles)
  • Quelle est sa fonction ? (décision automatisée, aide à la décision, génération de contenu)
  • Qui le fournit ? (SaaS externe, open source, développé en interne)
  • A-t-il accès à des systèmes critiques ? (ERP, CRM, bases de données clients)

N'oubliez pas le shadow AI : les outils IA non déclarés à la DSI. Une enquête interne anonyme révèle souvent 3 à 5 fois plus d'usages IA que ce que la DSI connaît. Incluez-les dans le périmètre.

Art. 9AI Act : système de gestion des risques
Art. 11AI Act : documentation technique
Art. 17AI Act : système de management qualité
Art. 26AI Act : obligations du déployeur

Étape 2 : classification des risques EU AI Act

Pour chaque système IA identifié, déterminez sa catégorie de risque :

CatégorieExemplesObligations
Risque inacceptableScore social, manipulation subliminaleInterdit — décommissionnement obligatoire
Haut risqueIA RH, scoring crédit, IA médicale, IA sécuritéDocumentation complète, supervision humaine, enregistrement EUDB
Risque limitéChatbot client, génération de contenuTransparence sur l'usage de l'IA
Risque minimalFiltre anti-spam, jeux vidéo IAAucune obligation spécifique

Attention : un système que vous pensez à "risque minimal" peut être à "haut risque" si son output influence une décision impactant des droits fondamentaux (emploi, crédit, santé, éducation).

Checklist : systèmes à haut risque

Pour chaque système classé haut risque, vérifiez point par point :

Documentation technique (Art. 11)

  • ☐ Description de la finalité et du fonctionnement du système
  • ☐ Données d'entraînement documentées (sources, méthodes, biais testés)
  • ☐ Architecture du modèle (ou description du modèle tiers utilisé)
  • ☐ Métriques de performance et de précision
  • ☐ Limitations connues et cas d'usage non couverts

Gestion des risques (Art. 9)

  • ☐ Registre des risques identifiés et des mesures d'atténuation
  • ☐ Tests de robustesse et de sécurité documentés
  • ☐ Tests anti-discrimination (données sensibles : genre, âge, origine)
  • ☐ Procédure de gestion des incidents

Supervision humaine (Art. 14)

  • ☐ Interface de supervision humaine opérationnelle
  • ☐ Procédure de recours / révision humaine documentée
  • ☐ Formation des opérateurs à la supervision du système
  • ☐ Mécanisme d'arrêt d'urgence fonctionnel

Logs et traçabilité (Art. 12)

  • ☐ Logs automatiques de toutes les décisions/outputs
  • ☐ Rétention des logs ≥ durée légale applicable
  • ☐ Accessibilité des logs pour audit réglementaire

Volet RGPD : ce qui s'applique à tout système IA

Indépendamment de la catégorie AI Act, tout système IA traitant des données personnelles déclenche des obligations RGPD :

  • ☐ Base légale du traitement identifiée et documentée dans le registre des traitements
  • ☐ AIPD (Analyse d'Impact) réalisée si traitement à risque élevé (profilage, décision automatisée)
  • ☐ Information des personnes concernées (mentions légales, politique de confidentialité)
  • ☐ Droit d'accès et d'effacement techniquement implémenté
  • ☐ Sous-traitants IA couverts par DPA (Data Processing Agreement)
  • ☐ Transferts hors UE documentés et justifiés (Cloud Act, Schrems II)

Volet NIS 2 : pour les entités essentielles et importantes

Si votre entreprise est couverte par NIS 2 (secteurs énergie, transport, santé, finance, numérique, etc.) :

  • ☐ Systèmes IA intégrés dans la cartographie des actifs critiques
  • ☐ Analyse de risque cybersécurité incluant les vecteurs d'attaque spécifiques aux LLM
  • ☐ Plan de continuité incluant la défaillance des systèmes IA
  • ☐ Procédure de notification d'incident applicable aux incidents IA

Documentation à produire pour l'audit

  • Registre de tous les systèmes IA (inventaire complet)
  • Fiche de classification risque pour chaque système
  • Documentation technique complète pour les systèmes haut risque
  • Registre des risques et mesures d'atténuation
  • Rapports de tests (performance, biais, sécurité)
  • Procédures de supervision humaine et d'arrêt d'urgence
  • Registre RGPD des traitements mis à jour
  • Contrats fournisseurs IA (DPA, SLA, clauses conformité)

Calendrier et fréquence d'audit recommandés

  • Audit initial : dès maintenant si pas encore fait, avant fin 2026 (pleine application AI Act)
  • Audit annuel : minimum pour les systèmes haut risque
  • Audit déclenché : à chaque mise à jour majeure d'un système IA, incident, ou changement réglementaire
  • Revue continue : monitoring des logs et des indicateurs de dérive du modèle (model drift)

Outils et méthodes pour conduire l'audit en interne

L'audit IA interne ne nécessite pas nécessairement un cabinet externe — votre RSSI et votre DPO ont les compétences pour le conduire, à condition de disposer des bons outils et d'une méthode structurée.

Les référentiels à utiliser

  • NIST AI RMF (Risk Management Framework) : le cadre américain de gestion des risques IA, compatible avec les exigences EU AI Act et très opérationnel
  • ISO/IEC 42001 : première norme internationale sur les systèmes de management de l'IA, publiée en 2023 — utile pour structurer votre approche
  • ENISA AI Cybersecurity Guidelines : recommandations de l'agence européenne de cybersécurité spécifiques aux risques IA
  • Guide CNIL sur l'IA : les recommandations de la CNIL pour les responsables de traitement utilisant de l'IA (2024)

Outils pratiques pour l'audit technique

  • Inventaire documentaire : un registre structuré (Excel ou outil GRC) listant tous les systèmes IA avec leurs caractéristiques
  • Tests de biais : outils open source (IBM AI Fairness 360, What-If Tool de Google) pour détecter les biais discriminatoires
  • Tests de robustesse : frameworks de red teaming LLM pour tester la résistance aux attaques par prompt injection
  • Audit des logs : analyse des logs d'utilisation pour détecter les usages hors périmètre et les anomalies comportementales

Sanctions et contrôles : ce que vous risquez en cas de non-conformité

L'EU AI Act prévoit un régime de sanctions dissuasif, progressif selon la gravité de l'infraction :

Type d'infractionSanction maximaleExemple de cas
Usage de système IA interdit (risque inacceptable)35 millions € ou 7% CA mondialDéploiement de système de scoring social
Non-conformité aux exigences haut risque15 millions € ou 3% CA mondialAbsence de documentation technique, supervision insuffisante
Fourniture d'informations incorrectes aux autorités7,5 millions € ou 1,5% CA mondialDéclaration inexacte lors d'un contrôle
Violation RGPD combinée à une infraction AI ActCumul possible des deux régimesFuite de données personnelles via système IA non audité

En France, la CNIL est désignée comme coordinateur de la surveillance IA pour les systèmes touchant aux données personnelles. L'ANSSI intervient pour les systèmes liés à la cybersécurité. Les contrôles croisés CNIL/ANSSI seront la norme pour les systèmes IA critiques.

Au-delà des sanctions financières, le régime de responsabilité civile évolue avec l'IA Liability Directive en cours de négociation : les victimes de dommages causés par des systèmes IA à haut risque bénéficieront d'une présomption de causalité si l'entreprise n'a pas respecté ses obligations de documentation.

Cas particulier : auditer les agents IA autonomes

Les agents IA autonomes posent des défis d'audit spécifiques que la checklist standard ne couvre pas entièrement. Points additionnels à vérifier pour chaque agent en production :

  • ☐ Périmètre d'action documenté : liste exhaustive des APIs, bases de données et systèmes auxquels l'agent peut accéder
  • ☐ Matrice des permissions : qui peut autoriser l'agent à effectuer quelles actions
  • ☐ Circuit breaker testé : l'arrêt d'urgence a-t-il été testé en conditions réelles ?
  • ☐ Budget d'actions défini et appliqué : l'agent ne peut pas déclencher plus de N actions par période
  • ☐ Trace de raisonnement : chaque action de l'agent est-elle accompagnée du raisonnement qui l'a motivée ?
  • ☐ Test de prompt injection : la résistance de l'agent aux injections indirectes via ses sources de données a-t-elle été testée ?

FAQ : Audit IA interne — vos questions fréquentes

Un audit interne suffit-il ou faut-il obligatoirement un audit externe ?

Pour la grande majorité des entreprises, un audit interne bien conduit est suffisant pour démontrer la conformité EU AI Act. L'audit externe n'est pas obligatoire sauf dans deux cas : si vous êtes fournisseur d'un système IA à haut risque (pas seulement déployeur) et que vous revendiquez la conformité via une déclaration CE, ou si votre secteur impose un audit tiers par une réglementation spécifique (ex : secteur financier sous DORA). La CNIL peut également requérir un audit externe suite à un incident ou un contrôle.

Comment gérer les outils SaaS IA dont je ne contrôle pas la documentation technique ?

C'est le cas de la majorité des entreprises qui utilisent des SaaS IA (ChatGPT Enterprise, Copilot, etc.). Votre responsabilité de déployeur inclut d'obtenir de votre fournisseur la documentation que vous ne pouvez pas produire vous-même. En pratique : exigez des clauses contractuelles spécifiques dans vos DPA (documentation technique disponible sur demande, notification des changements de modèle, SLA de conformité AI Act). Si le fournisseur ne peut pas fournir cette documentation, c'est un signal de risque de conformité majeur.

Quelle est la différence entre l'AIPD RGPD et l'analyse de risques AI Act ?

L'AIPD (Analyse d'Impact sur la Protection des Données) est requise par le RGPD pour les traitements présentant un risque élevé pour les droits et libertés. L'analyse de risques de l'AI Act (article 9) couvre un périmètre plus large : non seulement les risques pour les individus, mais aussi les risques pour la santé, la sécurité, les droits fondamentaux, et les risques opérationnels du système. En pratique, pour les systèmes à haut risque EU AI Act traitant des données personnelles, les deux analyses doivent être conduites et peuvent être documentées conjointement.

Le shadow AI doit-il être inclus dans l'audit de conformité ?

Absolument. Le shadow AI — les outils IA utilisés sans validation de la DSI ou de la DPO — représente souvent le risque de conformité le plus élevé, précisément parce qu'il est invisible. Une entreprise qui audite uniquement ses systèmes IA officiels laisse un angle mort majeur. L'audit doit inclure une phase de découverte du shadow AI (enquêtes anonymes, analyse des accès réseau, entretiens département par département). Les outils identifiés doivent être soit intégrés au périmètre officiel avec les garde-fous appropriés, soit interdits avec une communication claire.

Comment prioriser les actions correctives quand tout semble urgent ?

Utilisez une matrice impact/probabilité pour prioriser. En priorité absolue : (1) les systèmes à haut risque AI Act sans aucune documentation — risque réglementaire immédiat ; (2) les systèmes traitant des données personnelles sensibles sans AIPD — risque RGPD ; (3) les agents IA autonomes avec des actions irréversibles sans supervision humaine — risque opérationnel critique. Les systèmes à risque minimal ou limité peuvent être traités dans un second temps. Documentez cette priorisation : elle prouve votre bonne foi réglementaire en cas de contrôle.

Auditer vos fournisseurs IA : les clauses contractuelles indispensables

L'audit de conformité IA ne s'arrête pas à vos systèmes internes. Vos fournisseurs de solutions IA — SaaS, éditeurs de modèles, intégrateurs — sont des sous-traitants au sens du RGPD et des partenaires de conformité au sens de l'AI Act. Ce qu'il faut exiger contractuellement :

  • Clause de non-utilisation des données à l'entraînement : votre fournisseur s'engage explicitement à ne jamais utiliser vos données (prompts, documents, conversations) pour améliorer ses modèles.
  • Clause de localisation des données : les données traitées restent dans l'UE, dans des datacenters certifiés (HDS, ISO 27001, SecNumCloud selon les cas).
  • Clause de notification de changement de modèle : vous êtes informé à l'avance de toute mise à jour majeure du modèle sous-jacent, avec possibilité de test avant déploiement.
  • Clause de documentation technique : le fournisseur met à disposition la documentation technique nécessaire à votre propre conformité AI Act (pour les systèmes à haut risque).
  • SLA de conformité réglementaire : le fournisseur s'engage à maintenir sa conformité aux réglementations applicables et vous notifie de tout incident ou changement réglementaire impactant.

Ces clauses doivent figurer dans le DPA (Data Processing Agreement) signé avec chaque fournisseur IA. Elles s'ajoutent aux clauses RGPD standard. Un fournisseur qui refuse d'inclure ces clauses est un signal d'alerte fort sur sa maturité en matière de conformité et sur les risques qu'il fait peser sur votre conformité propre.

Pour les SaaS américains (OpenAI, Microsoft, Google), l'ajout de ces clauses est souvent difficile voire impossible. C'est un argument décisif en faveur du déploiement on-premise ou cloud souverain européen pour les données sensibles.

Continuité d'activité et résilience des systèmes IA

L'audit de conformité IA doit intégrer une dimension souvent oubliée : que se passe-t-il quand le système IA tombe en panne ou produit des résultats manifestement erronés ? La dépendance croissante des processus métier aux systèmes IA crée de nouveaux risques de continuité d'activité que le PCA (Plan de Continuité d'Activité) doit intégrer.

Points à vérifier dans votre audit :

  • ☐ Les processus critiques disposent-ils de procédures de fonctionnement dégradé sans le système IA ?
  • ☐ Les utilisateurs sont-ils formés à détecter les hallucinations et à ne pas appliquer des outputs IA erronés ?
  • ☐ Existe-t-il un seuil de confiance en dessous duquel les outputs IA sont systématiquement soumis à validation humaine ?
  • ☐ La disponibilité du système IA est-elle couverte par des SLA contractuels avec le fournisseur ou l'hébergeur ?
  • ☐ Le système de fallback en cas d'indisponibilité du LLM est-il testé et documenté ?

Pour les entités soumises à NIS 2 ou à DORA (secteur financier), la résilience des systèmes IA critiques est une obligation réglementaire explicite, avec des exigences de test de continuité documentées. L'audit IA doit s'articuler avec les exigences DORA/NIS 2 pour éviter les redondances et garantir une couverture complète.

Audit AI Act : faites-vous accompagner

Intelligence Privée livre votre documentation technique EU AI Act complète avec chaque déploiement. Audit ready dès le premier jour — sans cabinet de conseil externe.

Démarrer votre audit IA →