Ce qu'il faut retenir
- L'EU AI Act classe plusieurs usages IA dans le secteur public en « haut risque » (Annexe III) : accès aux prestations sociales, décisions administratives automatisées, contrôle aux frontières
- Les marchés publics IA doivent intégrer des critères de souveraineté, d'auditabilité et d'interopérabilité dans le CCAP — pas seulement des critères de performance
- NIS2 s'applique aux administrations publiques depuis octobre 2024 : cybersécurité et continuité de service sont désormais des obligations légales
- Le choix de l'hébergement souverain (HébergIA, SecNumCloud) n'est plus optionnel pour les données à caractère personnel des citoyens
Contexte DINUM et France 2030 : l'IA publique prend de l'ampleur
La Direction Interministérielle du Numérique (DINUM) pilote depuis 2023 une stratégie IA de l'État structurée autour de trois axes : la mise à disposition d'outils IA mutualisés pour les agents publics, le développement de modèles de langage souverains (projet Albert), et l'accompagnement des administrations dans leurs démarches de transformation numérique par l'IA.
France 2030 y consacre une enveloppe significative : 500 millions d'euros pour l'IA dans les secteurs stratégiques, dont une part croissante destinée au secteur public. Les administrations sont à la fois bénéficiaires de ces fonds et soumises aux exigences de conformité les plus strictes du cadre réglementaire européen.
Le projet Albert — modèle de langage développé par Etalab pour l'administration française — illustre la volonté de souveraineté technologique de l'État. Mais ce modèle mutualisé ne couvre qu'une partie des besoins : les administrations ayant des données métier spécifiques (données fiscales, données sociales, données sanitaires) ont besoin de solutions adaptables à leurs contextes particuliers.
EU AI Act : le secteur public directement dans le haut risque
L'Annexe III de l'EU AI Act liste les systèmes d'IA à haut risque. Pour le secteur public, plusieurs catégories s'appliquent directement :
- Alinéa 5 — Emploi, gestion des travailleurs : concerne les administrations dans leur rôle d'employeur public (outils de recrutement, évaluation, gestion RH automatisée)
- Alinéa 5 — Accès aux services essentiels : concerne toute IA qui intervient dans l'accès aux prestations sociales (RSA, allocations chômage, allocations logement), aux services de santé publique, aux services éducatifs publics
- Alinéa 6 — Application de la loi : concerne les outils IA utilisés par la police, la justice, les services douaniers
- Alinéa 7 — Gestion des migrations : contrôle aux frontières, traitement des demandes d'asile
- Alinéa 8 — Administration de la justice : outils d'aide à la décision judiciaire
Pour chacun de ces systèmes à haut risque, les obligations sont conséquentes : documentation technique complète (Annexe IV), enregistrement dans la base de données EUDB, tests de robustesse documentés, mécanismes de supervision humaine opérationnels, logs conservés 10 ans pour certaines catégories. Ces obligations incombent au déployeur — l'administration — et non seulement au fournisseur de la solution IA.
Le cas particulier des décisions administratives automatisées
La loi française encadre déjà les décisions administratives individuelles (article L311-3-1 du code des relations entre le public et l'administration) : toute décision individuelle prise par traitement algorithmique doit faire l'objet d'une information, et le citoyen peut demander à ce que la décision soit réexaminée par un agent humain. L'EU AI Act renforce et systématise cette exigence : le droit à une supervision humaine significative est garanti pour tous les systèmes à haut risque.
Marchés publics IA : critères d'attribution et clauses CCAP
Critères d'attribution à intégrer
Un marché public d'IA bien rédigé va bien au-delà du prix et des performances fonctionnelles. Les critères à pondérer dans le règlement de consultation :
| Critère | Poids recommandé | Indicateurs de mesure |
|---|---|---|
| Performance technique sur cas d'usage réels | 30-35% | Benchmark sur jeux de test représentatifs |
| Souveraineté des données | 20-25% | Localisation hébergement, certifications (SecNumCloud, HDS), absence Cloud Act |
| Conformité EU AI Act et RGPD | 15-20% | Documentation AI Act disponible, DPA signable, AIPD facilitée |
| Interopérabilité et portabilité | 10-15% | APIs standards ouverts, export données garanti, absence vendor lock-in |
| Auditabilité et transparence | 10-15% | Logs accessibles, explainabilité des décisions, possibilité d'audit tiers |
| Coût total (TCO 3 ans) | 10-15% | Coûts licences + infra + formation + conformité |
Clauses CCAP indispensables
Le Cahier des Clauses Administratives Particulières (CCAP) d'un marché IA doit inclure des clauses spécifiques absentes des marchés logiciels classiques :
- Clause de localisation des données : toutes les données traitées par le système IA restent sur le territoire français ou européen. Interdiction explicite de tout sous-traitant soumis à la loi américaine (Cloud Act).
- Clause d'entraînement : interdiction d'utiliser les données de l'administration pour entraîner ou améliorer les modèles du fournisseur sans autorisation préalable écrite.
- Clause d'auditabilité : l'administration peut réaliser ou faire réaliser un audit technique du système IA à tout moment, avec accès aux logs, à la documentation technique et aux paramètres du modèle.
- Clause de portabilité et de réversibilité : en fin de contrat, toutes les données (documents, historiques de conversations, bases de connaissances) sont exportées dans un format standard et la solution est désinstallée. Délai maximum : 30 jours.
- Clause de notification de faille : tout incident de sécurité affectant le système IA doit être notifié dans les 24 heures, avec obligation de notification CNIL si données personnelles impliquées.
- Clause de conformité continue : le fournisseur s'engage à maintenir la conformité EU AI Act pour toute la durée du contrat et à notifier tout changement affectant la classification de risque du système.
Open source : une obligation de fait dans certains contextes
La circulaire Ayrault de 2012 recommande l'usage des logiciels libres dans l'administration. Le Parlement européen a renforcé cette orientation en 2023 dans ses délibérations sur l'AI Act, imposant des exigences d'auditabilité qui favorisent structurellement les modèles open source. Pour les administrations traitant des données souveraines sensibles, un modèle dont le code source est auditable est préférable à une boîte noire propriétaire — d'autant que des modèles open source de qualité équivalente aux propriétaires existent désormais (Mistral, LLaMA 3, etc.).
NIS2 pour les administrations publiques
La directive NIS2 (Network and Information Security 2), transposée en droit français par la loi SREN et applicable depuis octobre 2024, étend significativement le périmètre des entités concernées par des obligations de cybersécurité renforcées. Les administrations publiques font partie des "entités essentielles" ou "entités importantes" selon leur taille et leur rôle.
Les obligations NIS2 pour les administrations
- Gestion des risques cyber : politique de sécurité documentée, analyse de risques, mesures de protection proportionnées — y compris pour les systèmes IA déployés
- Notification des incidents : tout incident significatif doit être signalé à l'ANSSI dans les 24 heures, avec rapport complet dans les 72 heures
- Sécurité de la chaîne d'approvisionnement : les fournisseurs de solutions numériques (dont IA) doivent être évalués sur leur niveau de cybersécurité
- Continuité de service : plans de continuité et de reprise d'activité documentés et testés régulièrement
- Responsabilité des dirigeants : les responsables des entités essentielles peuvent être personnellement mis en cause en cas de manquement grave aux obligations NIS2
Pour les systèmes IA déployés dans une administration soumise à NIS2, cela signifie que le fournisseur IA est un tiers critique qui doit faire l'objet d'une évaluation de sécurité formelle. Un fournisseur étranger soumis à des juridictions non européennes ne peut pas satisfaire pleinement ces exigences.
HébergIA, SecNumCloud et hébergement souverain
Le référentiel HébergIA — développé par la DINUM en partenariat avec l'ANSSI — définit les exigences minimales pour l'hébergement des données de l'État dans des solutions IA. Il s'appuie sur SecNumCloud (la qualification de l'ANSSI pour les prestataires cloud souverains) et l'ajoute à des exigences spécifiques aux traitements IA.
La hiérarchie des niveaux d'hébergement
Pour les données publiques sensibles, la DINUM recommande :
- Données ultra-sensibles (Secret défense, données judiciaires) : cloud interne interministériel (Nubo) ou on-premise dans des datacenters d'État qualifiés
- Données sensibles (données citoyens à caractère personnel, données fiscales) : prestataires qualifiés SecNumCloud exclusivement (OVHcloud, Outscale, Scaleway avec leur offre qualifiée)
- Données de travail non sensibles (documents administratifs internes) : prestataires hébergés en France avec garanties contractuelles RGPD et absence de Cloud Act
Exemples concrets de déploiement IA dans le secteur public
CAF : traitement des demandes d'aides
Les Caisses d'Allocations Familiales traitent des millions de dossiers annuellement avec des équipes en tension permanente. Les cas d'usage IA déployés ou en cours incluent : l'assistance aux agents pour la rédaction de courriers de réponse aux allocataires, la détection d'anomalies dans les dossiers (conformité documentaire, incohérences), et les FAQ intelligentes pour les portails citoyens. Contrainte principale : toute IA intervenant dans l'instruction des droits est un système EU AI Act haut risque (accès aux prestations essentielles), avec les obligations de documentation et de supervision humaine qui en découlent.
France Travail (ex-Pôle Emploi) : accompagnement personnalisé
France Travail expérimente des assistants IA pour les conseillers emploi : synthèse automatique des profils demandeurs, suggestion de formations adaptées, aide à la rédaction des plans d'action personnalisés. L'enjeu de conformité est majeur : un algorithme qui influence l'orientation professionnelle d'un demandeur d'emploi touche à des droits fondamentaux (travail, formation) et doit faire l'objet d'une supervision humaine systématique et documentée.
Collectivités territoriales : urbanisme et services aux citoyens
Les métropoles et régions les plus avancées déploient des IA pour : l'analyse automatique des demandes de permis de construire (conformité aux PLU), la réponse aux questions des citoyens sur les services publics locaux, et l'analyse prédictive de la demande de services (transport, déchets, eau). La taille modeste de beaucoup de collectivités les pousse vers des solutions mutualisées ou en mode SaaS — ce qui soulève des enjeux de souveraineté des données particulièrement aigus.
Données citoyens : sensibilité maximale et obligations spécifiques
Les données traitées dans le secteur public incluent certaines des catégories les plus sensibles au regard du RGPD : données de santé, données fiscales, données judiciaires, données sur la situation sociale et familiale. Ces données bénéficient d'une protection renforcée (article 9 RGPD pour les catégories particulières) et leur traitement par des systèmes IA requiert des garanties supplémentaires.
Obligations spécifiques aux données sensibles citoyens
- AIPD obligatoire (article 35 RGPD) pour tout traitement systématique à grande échelle de données à caractère personnel
- Consultation obligatoire de la CNIL avant déploiement pour certaines catégories de traitements
- Droit d'accès et de rectification facilité pour le citoyen, avec obligation de réponse dans les délais légaux
- Interdiction de décisions entièrement automatisées affectant significativement les droits des personnes (article 22 RGPD), sauf consentement explicite ou nécessité légale avec supervision humaine
- Conservation des données limitée à la durée nécessaire à la finalité déclarée, avec purge automatisée documentée
Interopérabilité et standards ouverts
La DINUM promeut activement les standards ouverts pour les solutions numériques de l'État. Pour l'IA, cela se traduit par l'exigence d'APIs conformes aux standards REST/OpenAPI, de formats d'export standard (JSON, CSV, XML), et de préférence pour des modèles dont les poids peuvent être audités. Cette exigence d'interopérabilité est à la fois une obligation de mutualisation (ne pas créer d'îlots numériques non interconnectés) et une protection contre le vendor lock-in.
Intelligence Privée pour le secteur public
Hébergement France (éligible SecNumCloud), conformité EU AI Act haut risque documentée, interopérabilité garantie et absence totale d'exposition Cloud Act. Nous accompagnons les administrations de la rédaction du CCAP à la mise en production.
Contacter notre équipe secteur public →FAQ : IA dans le secteur public
Toutes les IA déployées dans une administration sont-elles soumises à l'EU AI Act haut risque ?
Non. Seuls les systèmes listés à l'Annexe III de l'EU AI Act sont à haut risque. Un assistant IA qui aide les agents à rédiger des e-mails internes ou à faire de la veille documentaire n'est généralement pas à haut risque. Le critère déterminant est l'impact sur les droits des citoyens ou des agents : dès qu'un système IA influence une décision affectant l'accès à des droits ou des prestations, le classement haut risque est probable.
Comment rédiger un appel d'offres IA conforme à la réglementation ?
L'appel d'offres doit intégrer les exigences EU AI Act dans les spécifications techniques (classification du système, documentation technique requise), les critères d'attribution (souveraineté, auditabilité, conformité), et les clauses CCAP (localisation des données, interdiction d'entraînement, portabilité). La DINUM publie des guides et des modèles de CCAP IA que les acheteurs publics peuvent utiliser comme base. Un accompagnement juridique spécialisé est recommandé pour les marchés complexes.
Peut-on utiliser des modèles open source dans une administration ?
Oui, et c'est même recommandé dans de nombreux cas. Les modèles open source (Mistral, LLaMA) déployés on-premise ou sur infrastructure souveraine offrent un niveau de contrôle et d'auditabilité supérieur aux modèles propriétaires. La DINUM a développé Albert sur cette base. L'enjeu n'est pas open source vs propriétaire, mais maîtrise vs délégation : un modèle open source déployé sur infrastructure maîtrisée est préférable à un modèle propriétaire en SaaS étranger, quelle que soit sa performance intrinsèque.
Quelle est la différence entre HébergIA et SecNumCloud ?
SecNumCloud est la qualification ANSSI pour les prestataires cloud en général — elle certifie le niveau de sécurité de l'infrastructure. HébergIA est un référentiel spécifique aux solutions IA dans l'administration, qui s'appuie sur SecNumCloud et y ajoute des exigences propres aux traitements IA : traçabilité des décisions, explicabilité, supervision humaine, gestion des biais. HébergIA est en cours de déploiement et certaines exigences sont encore en cours de finalisation avec la DINUM.
NIS2 s'applique-t-elle aux petites collectivités locales ?
La transposition française de NIS2 classe les entités en deux catégories selon leur taille et leur criticité. Les collectivités de moins de 30 000 habitants ne sont généralement pas directement dans le périmètre NIS2 comme entités essentielles ou importantes. Cependant, si elles font appel à des prestataires de services numériques (dont IA), elles doivent s'assurer que ces prestataires respectent des standards de sécurité minimaux — ce qui revient à intégrer des exigences cybersécurité dans leurs marchés, même sans être formellement soumises à NIS2.
Comment gérer le consentement des citoyens pour les traitements IA ?
Dans le secteur public, le consentement n'est généralement pas la base légale appropriée pour les traitements de données (l'administration peut difficilement conditionner ses services à un consentement libre). La base légale est le plus souvent la mission d'intérêt public ou l'obligation légale. Cela n'exempte pas des obligations d'information (les citoyens doivent être informés qu'une IA intervient dans le traitement de leur dossier), du droit d'accès et de rectification, et du droit à ne pas faire l'objet d'une décision entièrement automatisée affectant leurs droits.