1. Infrastructure & Cloud
Cette catégorie couvre les composants matériels et logiciels qui hébergent et font tourner les systèmes d'IA. La maîtrise de l'infrastructure est le premier pilier de la souveraineté numérique.
GPU (Graphics Processing Unit)
Unité de traitement graphique reconvertie en accélérateur de calcul pour l'intelligence artificielle. Les GPU permettent de réaliser en parallèle des millions d'opérations mathématiques simples, ce qui est exactement ce que nécessite l'entraînement et l'inférence des modèles LLM. Les puces Nvidia (H100, A100, RTX 4090) dominent le marché professionnel. Implications pratiques : le choix du GPU détermine la taille maximale des modèles que vous pouvez faire tourner en local, les délais de réponse (latence) et le coût d'exploitation. Pour une PME, une carte RTX 4090 (24 Go VRAM) suffit pour des modèles jusqu'à 32B paramètres en quantization 4 bits.
VRAM (Video RAM)
Mémoire dédiée du GPU, distincte de la RAM système. La VRAM est la contrainte principale pour exécuter un LLM en local : un modèle 7B paramètres en FP16 nécessite environ 14 Go de VRAM, un modèle 70B environ 140 Go. La quantization (voir ce terme) permet de réduire ces besoins. Implications pratiques : avant d'investir dans une infrastructure GPU, dimensionnez votre VRAM en fonction des modèles cibles. Insuffisante, la VRAM force le modèle à déborder sur la RAM système, ce qui dégrade drastiquement les performances.
On-premise
Mode de déploiement où les serveurs et les logiciels sont installés et opérés dans les locaux de l'entreprise (ou dans un datacenter dédié). Opposé au SaaS (Software as a Service) hébergé chez un fournisseur tiers. L'on-premise garantit que les données ne quittent jamais le périmètre physique de l'organisation. Implications pratiques : l'on-premise exige une équipe technique interne ou un partenaire de proximité, un investissement CAPEX initial significatif, mais offre la maîtrise totale des données, des coûts prévisibles à long terme et l'indépendance vis-à-vis des fournisseurs cloud.
Air-gap
Architecture où le système d'IA est totalement isolé de tout réseau public, y compris Internet. Aucune donnée ne peut entrer ou sortir sans action physique explicite (clé USB, transfert manuel). Utilisé dans les environnements classifiés, la défense, l'énergie critique. Implications pratiques : l'air-gap est le niveau maximal de sécurité mais impose des contraintes opérationnelles fortes (mises à jour manuelles, pas d'API externe). Peu adapté aux entreprises standard, mais indispensable pour certains contextes régaliens ou industriels.
SecNumCloud
Qualification française délivrée par l'ANSSI (Agence Nationale de la Sécurité des Systèmes d'Information) pour les prestataires de services cloud. Elle certifie que le fournisseur respecte des exigences strictes de sécurité et que les données sont protégées contre toute injonction juridique étrangère (notamment le Cloud Act américain). Implications pratiques : seuls trois opérateurs sont qualifiés SecNumCloud (OVHcloud, Outscale, Numspot). Pour les données sensibles, les OIV (Opérateurs d'Importance Vitale) et les opérateurs de services essentiels, l'hébergement SecNumCloud est souvent exigé contractuellement ou réglementairement.
HDS (Hébergeur de Données de Santé)
Certification française obligatoire pour tout hébergeur traitant des données de santé à caractère personnel. Délivrée par un organisme accrédité par le COFRAC, elle couvre six activités distinctes (hébergement physique, hébergement d'infrastructure, hébergement de plateforme, etc.). Implications pratiques : si votre IA traite des données médicales (dossiers patients, comptes-rendus, prescriptions), votre hébergeur doit impérativement être certifié HDS. L'absence de certification expose à des sanctions CNIL et à des risques contractuels majeurs avec les établissements de santé.
Kubernetes
Plateforme open source d'orchestration de conteneurs (Docker) qui automatise le déploiement, la mise à l'échelle et la gestion des applications. Dans le contexte IA, Kubernetes est utilisé pour orchestrer les pods d'inférence LLM, gérer la montée en charge automatique et assurer la haute disponibilité. Implications pratiques : la maîtrise de Kubernetes est nécessaire pour les déploiements IA en production à grande échelle. Des distributions managées (OpenShift, Rancher) facilitent l'opération. Dans une logique souveraine, préférez des clusters hébergés chez des opérateurs certifiés français.
Docker
Technologie de conteneurisation qui encapsule une application et ses dépendances dans un environnement isolé et reproductible. Les conteneurs Docker sont portables entre différentes infrastructures (local, cloud, on-premise). Implications pratiques : Docker facilite considérablement le déploiement de LLM en standardisant les environnements d'exécution. Des images Docker préconfigurées pour Ollama, vLLM ou LLamafile permettent un déploiement en quelques minutes. La gestion des registres Docker (qui stockent les images) doit être intégrée à votre politique de sécurité.
API Gateway
Composant logiciel qui sert de point d'entrée unique pour toutes les requêtes vers un LLM ou un ensemble de microservices IA. Il gère l'authentification, le routage, le rate limiting, la journalisation et la transformation des requêtes. Implications pratiques : une API Gateway est indispensable en production pour contrôler qui accède à vos modèles IA, à quelle fréquence et avec quelles données. Elle constitue également un point de contrôle pour la détection des tentatives de prompt injection ou de jailbreak.
Scaleway, OVH, Outscale, Numspot
Principaux hébergeurs cloud français proposant des offres GPU et IA. OVHcloud (Roubaix) est le plus grand hébergeur européen, avec une offre GPU managée (AI Deploy) et une qualification SecNumCloud en cours d'extension. Outscale (filiale Dassault Systèmes) est qualifié SecNumCloud. Scaleway (filiale Iliad) propose des GPU Nvidia H100 en France. Numspot (consortium public-privé) est qualifié SecNumCloud et cible les secteurs sensibles. Implications pratiques : le choix entre ces opérateurs dépend du niveau de sensibilité des données, des certifications requises et des contraintes budgétaires. Tous garantissent un hébergement 100% France et une protection contre le Cloud Act.
Ce qu'il faut retenir
- La souveraineté commence par l'infrastructure : où sont physiquement vos données ?
- SecNumCloud est le label de référence pour les données sensibles en France
- On-premise = contrôle total mais investissement initial ; cloud souverain = flexibilité avec protection juridique
- La VRAM est la contrainte matérielle principale pour faire tourner un LLM en local
2. Modèles LLM & IA
Les grands modèles de langage (LLM) sont au cœur de l'IA générative. Comprendre leur fonctionnement est indispensable pour choisir les bons outils et dialoguer efficacement avec les équipes techniques.
LLM (Large Language Model)
Modèle de traitement du langage naturel entraîné sur d'immenses corpus de textes (des centaines de milliards de tokens) pour prédire et générer du texte cohérent. Les LLM modernes (GPT-4, Claude, Llama, Mistral) peuvent rédiger, analyser, coder, résumer et raisonner sur des documents complexes. Implications pratiques : un LLM n'est pas une base de données : il ne mémorise pas les faits mais apprend des patterns statistiques. Il peut donc se tromper avec assurance (hallucination). Pour un usage professionnel fiable, associez toujours un LLM à un système RAG qui ancre les réponses dans vos documents réels.
RAG (Retrieval-Augmented Generation)
Architecture qui combine un LLM avec une base de connaissances externe. Quand l'utilisateur pose une question, le système récupère d'abord les documents pertinents dans la base (retrieval), puis les fournit au LLM comme contexte pour générer une réponse fondée sur ces sources (generation). Implications pratiques : le RAG est la solution standard pour utiliser un LLM sur vos données propriétaires sans l'entraîner (fine-tuning). Il permet de réduire drastiquement les hallucinations, de citer les sources et de maintenir la base de connaissances à jour sans recalibrer le modèle. Idéal pour les chatbots documentaires, les assistants juridiques ou les outils de support interne.
Fine-tuning
Processus d'entraînement complémentaire d'un LLM pré-entraîné sur un jeu de données spécifique à votre domaine ou à votre organisation. Le fine-tuning ajuste les poids du modèle pour qu'il adopte le style, le vocabulaire et les connaissances propres à votre entreprise. Implications pratiques : le fine-tuning est coûteux (plusieurs milliers d'euros en GPU) et nécessite un jeu de données de qualité (au minimum plusieurs centaines d'exemples). Il ne remplace pas le RAG pour l'accès aux données changeantes. Il est pertinent pour adapter un modèle au jargon métier, à un format de sortie précis ou à une persona particulière.
Embedding
Représentation mathématique d'un texte (mot, phrase, document) sous forme de vecteur numérique dans un espace de haute dimension. Des textes sémantiquement proches auront des vecteurs proches. Les embeddings sont la base du RAG : ils permettent de trouver rapidement les documents les plus pertinents pour une requête. Implications pratiques : le modèle d'embedding (distinct du LLM de génération) doit être choisi avec soin pour votre langue et votre domaine. Des modèles d'embedding en français comme CamemBERT ou les modèles multilingues E5 de Microsoft offrent de meilleures performances sur les corpus francophones.
Token
Unité de base du traitement textuel par un LLM. Un token correspond approximativement à 0,75 mot en français. Les LLM traitent et génèrent du texte token par token. La facturation des API LLM se fait au token (coût d'entrée + coût de sortie). Implications pratiques : comprendre le tokenization est crucial pour estimer les coûts et les limites des modèles. Un document d'une page (environ 500 mots) représente environ 650-700 tokens. Les tarifs varient de 0,15$/million de tokens (GPT-4o mini) à 15$/million (GPT-4o). Sur 1 million de requêtes courtes, l'écart de coût peut atteindre plusieurs dizaines de milliers d'euros.
Context window (fenêtre de contexte)
Nombre maximal de tokens qu'un LLM peut traiter simultanément (entrée + sortie combinées). Les modèles récents offrent des fenêtres allant de 8 000 tokens (anciens modèles) à 1 million de tokens (Gemini 1.5 Pro). Implications pratiques : la taille de la context window détermine la longueur maximale des documents qu'un modèle peut analyser en une seule requête. Pour analyser un contrat de 50 pages (~65 000 tokens), vous avez besoin d'un modèle avec une context window d'au moins 70 000 tokens. Des context windows très larges ont tendance à diluer l'attention du modèle sur les informations au milieu du document (phénomène dit « lost in the middle »).
Hallucination
Phénomène par lequel un LLM génère des informations fausses, inventées ou incorrectes avec la même assurance que des informations vraies. Les hallucinations peuvent porter sur des faits, des chiffres, des citations, des références légales ou des noms. Implications pratiques : toute utilisation professionnelle d'un LLM doit intégrer un processus de vérification des outputs critiques. Le RAG réduit les hallucinations factuelles en ancrant les réponses dans des documents sourcés. L'hallucination est particulièrement risquée dans les domaines juridiques, médicaux et financiers où une erreur peut engager la responsabilité de l'entreprise.
Multimodal
Qualifie un modèle IA capable de traiter plusieurs types de données simultanément : texte, images, audio, vidéo, données structurées. GPT-4V, Claude 3 et Gemini sont des exemples de LLM multimodaux. Implications pratiques : la multimodalité ouvre de nouveaux cas d'usage : analyse automatique de factures et documents scannés (OCR augmenté), extraction d'informations depuis des plans ou schémas techniques, compréhension de tableaux et graphiques dans des PDF. Pour les entreprises traitant beaucoup de documents non structurés, c'est une capacité à intégrer dans votre feuille de route IA.
Mistral
Société française d'IA fondée en 2023 par d'anciens chercheurs de Meta et Google DeepMind. Mistral développe des LLM open source (Mistral 7B, Mixtral 8x7B, Mistral Large) réputés pour leur efficacité et leurs performances. Mistral AI est basée à Paris et héberge ses modèles en Europe. Implications pratiques : les modèles Mistral open source peuvent être déployés en local (via Ollama) ou sur des infrastructures cloud françaises (Scaleway, OVH). Mistral Le Chat Pro est leur offre SaaS grand public. Pour un usage souverain, préférez le déploiement self-hosted des modèles open source Mistral plutôt que l'API cloud de Mistral AI, dont les conditions de sous-traitance méritent vérification.
Llama
Famille de LLM open source développée par Meta (Facebook). Llama 2 (2023) et Llama 3 (2024) sont parmi les modèles open source les plus utilisés dans le monde. Disponibles en plusieurs tailles (7B, 13B, 70B paramètres). Implications pratiques : les modèles Llama sont librement téléchargeables et peuvent être déployés en local sans dépendance à un cloud externe. Leur licence commerciale permet un usage professionnel. Pour les entreprises souhaitant une IA souveraine sans investissement dans un fournisseur spécialisé, Llama 3 est souvent le point de départ. Des versions fine-tunées spécialisées (Code Llama, Llama Guard) existent pour des usages spécifiques.
ELODIE (modèle Intelligence Privée)
Modèle LLM propriétaire développé par Intelligence Privée, optimisé pour les usages professionnels francophones et déployé exclusivement sur infrastructure française. ELODIE est un modèle conversationnel généraliste de haute performance, entraîné et fine-tuné pour les contextes B2B : analyse de documents, rédaction professionnelle, support décisionnel. Implications pratiques : ELODIE garantit que vos données ne quittent jamais le territoire français, avec des SLA de disponibilité adaptés aux exigences enterprise et un support en français. Contrairement aux modèles américains, ELODIE n'est pas soumis au Cloud Act ni au FISA.
KEVINA 32B (modèle Intelligence Privée)
Modèle LLM avancé 32 milliards de paramètres développé par Intelligence Privée pour les cas d'usage complexes nécessitant un raisonnement approfondi : analyse juridique, synthèse de rapports techniques, génération de code, due diligence documentaire. Ses 32B paramètres offrent des capacités de raisonnement nettement supérieures aux modèles 7B. Implications pratiques : KEVINA 32B est particulièrement adapté aux tâches analytiques complexes où la qualité de raisonnement prime sur la vitesse de réponse. Hébergé 100% en France, il constitue l'alternative souveraine aux modèles GPT-4 et Claude pour les données confidentielles.
HuggingFace
Plateforme communautaire hébergeant des dizaines de milliers de modèles IA open source, datasets et espaces de démonstration. Elle fournit également la bibliothèque Transformers (Python) qui standardise l'accès aux modèles. Implications pratiques : HuggingFace est la bibliothèque incontournable pour accéder aux modèles open source. Attention : HuggingFace est une société américaine et les modèles téléchargés depuis sa plateforme peuvent inclure des conditions de licence diverses. Vérifiez systématiquement la licence de chaque modèle (Apache 2.0, MIT, Llama Community License) avant un usage commercial.
Ollama
Outil open source permettant de télécharger et d'exécuter des LLM en local sur un ordinateur standard (Mac, Linux, Windows). Il abstrait la complexité technique de l'inférence et expose une API REST compatible avec l'API OpenAI. Implications pratiques : Ollama est le point d'entrée idéal pour un proof of concept d'IA souveraine. En quelques commandes, il permet de faire tourner Llama 3, Mistral ou Gemma sur un laptop d'entreprise. Pour la production, il doit être remplacé par des solutions plus robustes comme vLLM ou llama.cpp avec une API Gateway.
vLLM
Framework open source d'inférence LLM haute performance développé par l'UC Berkeley. Il implémente l'algorithme PagedAttention qui optimise l'utilisation de la VRAM et multiplie le débit d'inférence par 10 à 24x par rapport à des implémentations naïves. Implications pratiques : vLLM est le standard de facto pour les déploiements LLM en production à fort volume. Il supporte les modèles HuggingFace, expose une API compatible OpenAI et gère le batching dynamique. Si vous déployez un LLM pour plusieurs dizaines d'utilisateurs simultanés, vLLM est probablement votre serveur d'inférence.
Quantization
Technique de compression d'un modèle LLM qui réduit la précision numérique des poids (de FP32 ou FP16 à INT8 ou INT4). Cette réduction diminue la taille du modèle et les besoins en VRAM au prix d'une légère dégradation des performances. Implications pratiques : la quantization 4 bits (GGUF Q4_K_M) permet de faire tourner un modèle 70B sur 2 GPU de 48 Go au lieu de 4, ou un modèle 13B sur une simple RTX 4090. Pour la plupart des usages professionnels, la perte de qualité est négligeable. C'est la clé pour rendre les grands modèles accessibles sans infrastructure massive.
GGUF
Format de fichier standardisé pour stocker des modèles LLM quantizés, développé pour le projet llama.cpp. GGUF (GPT-Generated Unified Format) a remplacé l'ancien format GGML. Les modèles GGUF sont distribués sur HuggingFace et peuvent être chargés directement par Ollama, LM Studio ou llama.cpp. Implications pratiques : quand vous téléchargez un modèle pour un déploiement local, vous cherchez généralement le fichier GGUF correspondant au niveau de quantization adapté à votre VRAM. Les noms de fichiers indiquent le niveau : Q4_K_M (bon compromis), Q5_K_M (meilleure qualité), Q8_0 (quasi-identique au FP16).
Benchmark, MMLU, HellaSwag
Les benchmarks sont des jeux de tests standardisés permettant de comparer objectivement les performances des LLM. MMLU (Massive Multitask Language Understanding) évalue les connaissances dans 57 domaines académiques. HellaSwag teste la compréhension du sens commun. D'autres benchmarks incluent HumanEval (codage), GSM8K (mathématiques), TruthfulQA (réduction des hallucinations). Implications pratiques : les scores de benchmarks sont utiles pour une première comparaison mais ne remplacent pas une évaluation sur vos propres cas d'usage. Un modèle excellent en MMLU peut être médiocre pour votre secteur spécifique. Construisez votre propre jeu de tests métier pour une évaluation pertinente.
ChatGPT Enterprise, Azure OpenAI, Copilot 365
Offres commerciales d'OpenAI et Microsoft pour les entreprises. ChatGPT Enterprise propose GPT-4 avec promesses de confidentialité renforcées. Azure OpenAI Service déploie les modèles GPT dans un espace Azure dédié. Microsoft 365 Copilot intègre l'IA dans Teams, Word, Excel et Outlook. Implications pratiques : ces solutions posent des questions de souveraineté juridique : toutes sont soumises au Cloud Act américain (Microsoft et OpenAI sont des entités US). Pour les données confidentielles, les données clients, ou les informations couvertes par le secret professionnel, ces solutions comportent des risques juridiques que votre DPO doit évaluer explicitement.
Mistral Le Chat Pro
Offre SaaS grand public et professionnel de Mistral AI donnant accès à leurs modèles via une interface web et une API. La version Pro propose des fonctionnalités avancées (web search, génération d'images, connecteurs). Implications pratiques : même si Mistral AI est une entreprise française, son service cloud doit faire l'objet d'une analyse RGPD avant d'y traiter des données personnelles. Vérifiez les conditions de sous-traitance, la localisation des données et les éventuels transferts hors UE pour l'infrastructure technique sous-jacente.
Attention aux confusions fréquentes
Un modèle "open source" (poids accessibles) n'est pas synonyme d'un modèle "souverain" (données hébergées en France, protégées juridiquement). Mistral 7B est open source mais si vous l'utilisez via l'API cloud de Mistral AI, vos données transitent par leur infrastructure. Souveraineté = contrôle de l'infrastructure + protection juridique, pas seulement accès au code source.
3. Réglementation & Conformité
Le cadre réglementaire de l'IA évolue rapidement. La maîtrise de ces textes est indispensable pour anticiper les risques de non-conformité.
RGPD (Règlement Général sur la Protection des Données)
Règlement européen (2016/679) entré en vigueur en mai 2018, encadrant le traitement des données personnelles dans l'UE. Il impose des obligations de licéité, de transparence, de minimisation, de sécurité et de respect des droits des personnes. Implications pratiques : tout LLM traitant des données personnelles (noms, emails, profils clients, dossiers RH) est soumis au RGPD. Vous devez identifier la base légale du traitement, documenter les flux de données, conclure un DPA avec vos fournisseurs IA et être en mesure de répondre aux droits d'accès et d'effacement. Une IA souveraine hébergée en France simplifie considérablement cette conformité.
Cloud Act (Clarifying Lawful Overseas Use of Data Act)
Loi américaine de 2018 autorisant les autorités américaines (FBI, NSA, etc.) à exiger des entreprises technologiques américaines la communication de données stockées à l'étranger, y compris en Europe. S'applique à toute entreprise soumise à la juridiction américaine : Google, Microsoft, Amazon, OpenAI, Salesforce, etc. Implications pratiques : le Cloud Act s'applique indépendamment de la localisation physique des serveurs. Des données stockées dans un datacenter Microsoft en France peuvent être requises par les autorités américaines si Microsoft en est le gestionnaire. C'est la raison fondamentale pour laquelle les certifications SecNumCloud et les fournisseurs européens indépendants sont préférés pour les données sensibles.
Schrems II
Arrêt de la Cour de Justice de l'Union Européenne (juillet 2020) invalidant le Privacy Shield, le mécanisme qui encadrait les transferts de données personnelles vers les États-Unis. L'arrêt confirme que la législation de surveillance américaine (FISA 702, EO 12333) est incompatible avec les droits fondamentaux européens. Implications pratiques : Schrems II impose de réaliser un Transfer Impact Assessment (TIA) avant tout transfert de données personnelles vers les USA. Le Data Privacy Framework (DPF) de 2023 tente de combler ce vide juridique, mais reste fragile politiquement. La solution la plus solide reste d'éviter tout transfert vers des entités américaines pour les données sensibles.
AI Act (EU Artificial Intelligence Act)
Premier règlement mondial sur l'IA, adopté par l'UE en 2024, entrant en vigueur progressivement jusqu'en 2027. Il classe les systèmes IA par niveau de risque (inacceptable, haut risque, limité, minimal) et impose des obligations proportionnelles. Implications pratiques : les entreprises utilisant ou déployant des IA à haut risque (recrutement, notation de crédit, biométrie, infrastructures critiques) doivent réaliser une évaluation de conformité avant déploiement, tenir un registre, assurer la transparence et garantir une supervision humaine. L'article 4 impose à toutes les entreprises d'assurer les compétences IA nécessaires à leur personnel. Sanctions : jusqu'à 35 millions d'euros ou 7% du CA mondial.
NIS2 (Network and Information Security Directive 2)
Directive européenne sur la cybersécurité transposée en droit français (loi SREN 2024), étendant les obligations NIS1 à de nombreux nouveaux secteurs et entités (transport, énergie, santé, administrations, fournisseurs numériques). Elle impose des mesures techniques de sécurité, des obligations de notification d'incidents et une gouvernance cybersécurité au niveau de la direction. Implications pratiques : NIS2 s'applique à environ 15 000 entités en France (contre 300 sous NIS1). Si votre organisation est dans le périmètre, vos systèmes IA doivent être inclus dans votre plan de gestion des risques cyber. Les fournisseurs IA de votre chaîne d'approvisionnement sont également dans le scope.
DORA (Digital Operational Resilience Act)
Règlement européen spécifique au secteur financier, applicable depuis janvier 2025. DORA impose aux banques, assureurs, gestionnaires d'actifs et leurs prestataires IT des obligations de résilience numérique : tests de pénétration, gestion des risques fournisseurs, plans de continuité. Implications pratiques : si votre IA est déployée dans une institution financière ou est un prestataire IT critique d'une telle institution, DORA s'applique. Vos contrats avec les fournisseurs IA doivent intégrer les clauses DORA : droit d'audit, exigences de résilience, registre des prestataires critiques.
AIPD (Analyse d'Impact relative à la Protection des Données)
Étude obligatoire sous le RGPD (art. 35) lorsqu'un traitement de données présente des risques élevés pour les personnes. Un LLM traitant des données personnelles à grande échelle, utilisant du profilage ou traitant des données sensibles (santé, opinion politique) nécessite généralement une AIPD. Implications pratiques : l'AIPD doit être réalisée avant le déploiement du système IA, idéalement lors du POC. Elle identifie les risques, propose des mesures d'atténuation et peut nécessiter une consultation préalable de la CNIL. L'absence d'AIPD obligatoire est une infraction au RGPD exposant à des amendes.
DPO (Data Protection Officer / Délégué à la Protection des Données)
Responsable de la conformité RGPD au sein d'une organisation. Obligatoire pour les organismes publics, les entreprises traitant des données sensibles à grande échelle et celles dont le traitement de données est leur activité principale. Implications pratiques : le DPO doit être impliqué dès la conception de tout projet IA traitant des données personnelles (privacy by design). Il valide les AIPD, conseille sur les bases légales et interagit avec la CNIL en cas d'incident. Dans les entreprises sans DPO interne, un DPO externe mutualisé est une option reconnue.
ISO 42001
Première norme internationale de système de management de l'IA (publiée en 2023). Elle fournit un cadre pour établir, implémenter, maintenir et améliorer un système de management de l'IA responsable dans les organisations. Implications pratiques : ISO 42001 est l'équivalent de l'ISO 27001 mais pour l'IA. Sa certification est encore rare mais va se développer rapidement, notamment pour les fournisseurs IA qui souhaitent démontrer leur maturité à leurs clients enterprise. Elle complète l'ISO 27001 sans la remplacer.
ENISA, ANSSI, CNIL
ENISA (Agence de l'Union européenne pour la cybersécurité) publie des lignes directrices sur la sécurité de l'IA à l'échelle européenne. L'ANSSI (Agence Nationale de la Sécurité des Systèmes d'Information) est l'autorité française de cybersécurité, délivrant SecNumCloud et publiant des recommandations sur l'IA. La CNIL (Commission Nationale de l'Informatique et des Libertés) est l'autorité française de protection des données, compétente pour les violations RGPD liées à l'IA. Implications pratiques : suivez régulièrement les publications de ces trois autorités : elles publient des recommandations pratiques (la CNIL a publié des recommandations IA en 2023-2024) et leurs positions font jurisprudence pour l'interprétation des textes réglementaires.
IA à haut risque (AI Act)
Catégorie de systèmes IA définie à l'Annexe III de l'AI Act et soumis aux obligations les plus strictes. Inclut notamment : les systèmes IA utilisés dans le recrutement et la gestion RH, l'évaluation de crédit, les systèmes biométriques, la gestion des infrastructures critiques, les systèmes éducatifs d'évaluation, les services publics essentiels. Implications pratiques : avant tout déploiement, classifiez votre système IA selon la taxonomie AI Act. Si votre outil RH utilise l'IA pour présélectionner des candidats, vous êtes en zone haut risque avec des obligations lourdes : documentation technique, registre, évaluation de conformité, supervision humaine obligatoire.
FranceNum, BPI France
FranceNum est le dispositif national d'accompagnement à la transformation numérique des TPE/PME. BPI France (Banque Publique d'Investissement) propose des financements, prêts et subventions pour les projets d'innovation incluant l'IA. Implications pratiques : des aides publiques existent pour financer vos projets IA souveraine. BPI France propose des prêts innovation, des subventions R&D et participe à des fonds d'investissement IA. Renseignez-vous sur les dispositifs en cours (crédit d'impôt innovation, aide à la numérisation) auprès de votre conseiller BPI régional.
4. Sécurité & Protection
La sécurité des systèmes IA comporte des dimensions spécifiques qui s'ajoutent à la cybersécurité traditionnelle.
Prompt injection
Attaque consistant à insérer dans une entrée utilisateur des instructions malveillantes qui détournent le comportement du LLM de sa fonction initiale. Par exemple, un utilisateur peut inclure dans sa question des instructions cachées qui font ignorer au modèle ses consignes système. Implications pratiques : tout système IA acceptant des entrées libres d'utilisateurs externes est vulnérable à la prompt injection. Les contre-mesures incluent : validation des entrées, isolation des contextes système/utilisateur, monitoring des outputs anormaux, sandboxing des actions de l'agent IA. Dans le cas d'agents autonomes ayant accès à des outils (envoi d'emails, exécution de code), la prompt injection peut avoir des conséquences catastrophiques.
Jailbreak
Technique visant à contourner les garde-fous d'un LLM pour lui faire produire des contenus qu'il est normalement configuré pour refuser (instructions de fabrication d'armes, contenu illégal, fuite d'informations confidentielles). Implications pratiques : même les modèles les mieux alignés restent vulnérables à des jailbreaks sophistiqués. Pour les déploiements internes, assurez-vous que votre LLM est configuré avec des instructions système robustes et testez régulièrement sa résistance (red teaming). Ne présumez pas qu'un modèle commercial ne peut pas être jailbreaké par vos utilisateurs avancés.
Shadow AI
Usage non déclaré et non approuvé d'outils IA par des collaborateurs, en dehors de tout cadre de gouvernance. Analogue au Shadow IT mais spécifique à l'IA. Souvent motivé par le gain de productivité, le Shadow AI expose l'entreprise à des risques de fuite de données confidentielles vers des LLM tiers. Implications pratiques : le Shadow AI est aujourd'hui massif dans toutes les entreprises. Des études estiment que 30 à 70% des collaborateurs utilisent des outils IA non approuvés au travail. La réponse n'est pas la répression mais la mise à disposition d'alternatives souveraines approuvées, accompagnée d'une politique IA claire et d'une formation aux risques.
Chiffrement end-to-end
Mécanisme de sécurité où les données sont chiffrées à la source et ne peuvent être déchiffrées qu'à la destination, sans possibilité d'interception en clair par un intermédiaire (y compris le fournisseur de service). Implications pratiques : pour les échanges avec un LLM souverain, vérifiez que les communications sont chiffrées en transit (TLS 1.3 minimum) et que les données au repos sont chiffrées (AES-256). Le chiffrement end-to-end vrai (où même le fournisseur ne peut lire vos données) est difficile à concilier avec le fonctionnement des LLM qui doivent traiter les textes en clair. La souveraineté juridique (hébergement France) est donc complémentaire au chiffrement.
Zero-trust
Modèle de sécurité qui ne présume d'aucune confiance implicite, même pour les connexions internes au réseau de l'entreprise. Chaque requête est authentifiée, autorisée et vérifiée, quelle que soit son origine. Implications pratiques : appliquer le zero-trust à votre infrastructure IA signifie : authentification forte pour accéder au LLM (MFA), autorisation granulaire par rôle et usage, journalisation de toutes les interactions, segmentation réseau entre le LLM et les autres systèmes. Le zero-trust est particulièrement critique si votre LLM a accès à des données sensibles via RAG ou à des outils d'action (agents autonomes).
Deepfake
Contenu audiovisuel synthétique généré par IA qui reproduit fidèlement l'apparence ou la voix d'une personne réelle de manière trompeuse. Les deepfakes sont utilisés pour des fraudes au président, de la désinformation, du chantage ou de la manipulation d'opinion. Implications pratiques : le risque deepfake pour les entreprises est concret : fraudes aux virements en usurpant la voix du DG, fausses visioconférences, manipulation de preuves. Mettez en place des procédures de vérification hors-bande pour les ordres de virement, sensibilisez vos équipes financières et explorez les solutions de détection (authentification vocale, codes de validation).
Watermarking IA
Technique d'intégration d'un signal imperceptible dans le texte ou les images générés par une IA, permettant d'identifier ultérieurement qu'un contenu a été généré par machine. L'AI Act impose le marquage des contenus IA synthétiques. Implications pratiques : si votre entreprise produit du contenu IA (articles, images, synthèses), vérifiez que votre solution intègre un watermarking conforme à l'AI Act. La non-déclaration de contenus IA peut engager votre responsabilité, notamment dans les secteurs réglementés (finance, médical, juridique) ou dans tout contexte où le contenu influence des décisions humaines.
Red teaming
Pratique de test offensive consistant à simuler des attaques contre un système IA pour identifier ses vulnérabilités avant qu'un acteur malveillant ne le fasse. Inclut les tentatives de jailbreak, prompt injection, extraction de données d'entraînement, manipulation des outputs. Implications pratiques : le red teaming IA devrait être une pratique standard avant tout déploiement de LLM en production, surtout si le modèle a accès à des données sensibles ou peut déclencher des actions (agents). Des frameworks spécialisés existent (Garak, PyRIT de Microsoft) pour automatiser une partie de ces tests. L'AI Act impose des tests de robustesse pour les systèmes à haut risque.
Machine unlearning
Ensemble de techniques permettant de « faire oublier » à un modèle IA des données spécifiques sans avoir à réentraîner le modèle depuis zéro. Pertinent pour le respect du droit à l'effacement du RGPD (art. 17). Implications pratiques : si un employé ou client dont les données ont servi à entraîner votre modèle exerce son droit à l'effacement, le machine unlearning permet théoriquement d'honorer cette demande. En pratique, cette technique est encore imparfaite et computationnellement coûteuse. La meilleure stratégie reste de ne pas inclure de données personnelles dans les jeux d'entraînement.
Biais algorithmique
Erreur systématique dans les outputs d'un modèle IA qui produit des résultats injustement discriminatoires pour certains groupes (selon le genre, l'origine, l'âge, le handicap). Les biais proviennent généralement des données d'entraînement ou des choix de design du modèle. Implications pratiques : les biais algorithmiques exposent à des risques juridiques (discrimination, RGPD) et réputationnels. L'AI Act impose une analyse des biais pour les systèmes à haut risque. Des outils d'audit (Fairlearn, AI Fairness 360) permettent de mesurer et réduire les biais. Une attention particulière est requise pour les outils RH, de crédit et de scoring.
Explicabilité (XAI)
Capacité d'un système IA à fournir des explications compréhensibles par des humains sur ses décisions ou recommandations. Essentielle pour les décisions à impact sur les personnes (crédit, recrutement, médical). Implications pratiques : l'explicabilité est une exigence réglementaire croissante (RGPD art. 22, AI Act pour systèmes à haut risque). Pour les LLM, elle se traduit par la citation des sources dans les réponses RAG, la justification des recommandations et la traçabilité des décisions. Les modèles "boîte noire" non explicables sont problématiques dans les contextes réglementés.
5. Déploiement & MLOps
Les termes liés au déploiement et à l'opération des modèles IA en production.
MLOps (Machine Learning Operations)
Ensemble de pratiques combinant le Machine Learning et le DevOps pour standardiser et automatiser le cycle de vie des modèles IA : développement, test, déploiement, monitoring, retrait. MLOps vise à industrialiser le passage du prototype à la production. Implications pratiques : sans MLOps, les modèles IA restent des preuves de concept fragiles. Un pipeline MLOps inclut : versioning des modèles, tests automatisés de qualité, déploiement continu (CI/CD), monitoring des performances en production, gestion des dérives (data drift, model drift). Des plateformes comme MLflow, Kubeflow ou AWS SageMaker standardisent ces pratiques.
Inference (inférence)
Phase d'utilisation d'un modèle IA entraîné pour générer des prédictions ou des réponses à partir de nouvelles entrées. Opposé à l'entraînement (training) qui modifie les poids du modèle. En production, 99% du temps d'utilisation d'un LLM est de l'inférence. Implications pratiques : optimiser l'inférence est crucial pour la viabilité économique d'un déploiement LLM. Les coûts d'inférence (GPU-heures) sont la principale dépense opérationnelle. Des techniques comme la quantization, le batching dynamique (vLLM) et le model serving efficace réduisent ces coûts de 50 à 80%.
Model serving
Infrastructure et logiciels permettant de mettre un modèle IA à disposition des applications clientes via une API. Inclut la gestion de la charge, la mise à l'échelle automatique, la haute disponibilité et le monitoring. Implications pratiques : choisir la bonne solution de model serving est critique pour les SLA de production. Les options courantes : vLLM (performance), Triton Inference Server (NVIDIA, polyvalent), TorchServe (PyTorch natif), Ollama (simplicité). En cloud souverain, des offres managées (OVHcloud AI Deploy, Scaleway Managed Inference) simplifiez l'opération.
POC (Proof of Concept)
Phase initiale d'un projet IA visant à démontrer la faisabilité technique et la valeur métier d'une solution avant investissement complet. Un POC IA dure généralement 4 à 12 semaines et implique une équipe réduite travaillant sur un cas d'usage délimité. Implications pratiques : un POC bien structuré doit définir des critères de succès mesurables dès le départ (taux de précision minimal, latence acceptable, volume de documents traités). Sans critères clairs, le POC s'éternise ou conduit à des déploiements non validés. La réussite d'un POC ne garantit pas la réussite du passage à l'échelle : les défis opérationnels (MLOps, sécurité, intégration SI) émergent surtout en production.
Agent autonome
Système IA capable de planifier et d'exécuter des séquences d'actions de manière autonome pour atteindre un objectif, en utilisant des outils (recherche web, exécution de code, appels API, envoi d'emails). Les agents peuvent enchaîner plusieurs étapes sans intervention humaine à chaque étape. Implications pratiques : les agents autonomes démultiplient la puissance des LLM mais introduisent de nouveaux risques : actions irréversibles non contrôlées, prompt injection amplifiée, coûts incontrôlés en cas de boucle infinie. Déployez les agents avec des garde-fous stricts : approbation humaine pour les actions sensibles, budgets de tokens limités, journalisation complète, rollback possible.
6. Gouvernance & Organisation
La gouvernance IA désigne l'ensemble des structures, processus et responsabilités qui encadrent l'usage de l'IA dans l'organisation.
RSSI (Responsable de la Sécurité des Systèmes d'Information)
Dirigeant ou cadre en charge de la politique de sécurité informatique de l'entreprise. Il définit la stratégie de cybersécurité, supervise les audits, gère les incidents et veille à la conformité réglementaire (NIS2, ISO 27001). Implications pratiques : le RSSI doit être intégré dès la phase de conception de tout projet IA. Il évalue les risques spécifiques aux LLM (prompt injection, exfiltration de données, modèles compromis), définit les exigences de sécurité pour les fournisseurs et supervise les red teaming. Dans les entreprises soumises à NIS2, le RSSI rapporte désormais directement à la direction générale.
DSI (Directeur des Systèmes d'Information)
Responsable de la stratégie, des choix technologiques et de l'exploitation des systèmes d'information de l'entreprise. Le DSI pilote généralement les projets IA majeurs en coordination avec les métiers, la direction et le RSSI. Implications pratiques : dans la transformation IA, le DSI fait face à trois décisions clés : build vs. buy vs. hybrid (développer, acheter ou hybride), choix d'infrastructure (on-premise, cloud souverain, hybride) et gouvernance des données (qui accède à quoi). Il est souvent le sponsor principal du programme IA souveraine face aux directions métiers qui poussent pour des solutions SaaS rapides.
Charte IA
Document stratégique définissant les principes, règles d'usage et responsabilités encadrant l'utilisation de l'IA dans une organisation. Elle couvre généralement : les outils autorisés et interdits, les données pouvant ou non être traitées par l'IA, les processus de validation, les obligations de formation et les sanctions. Implications pratiques : l'AI Act (art. 4) impose indirectement la mise en place d'une politique IA documentée. Sans charte, votre entreprise s'expose au Shadow AI, à des violations RGPD et à une incohérence dans les pratiques. La charte doit être courte (pas un pavé juridique illisible), validée par la direction et revue annuellement.
Politique IA
Ensemble structuré de règles et procédures opérationnelles déclinant la charte IA en instructions concrètes par type d'usage, type de données et type d'outil. Plus détaillée que la charte, elle est destinée aux responsables opérationnels et aux équipes IT. Implications pratiques : une politique IA typique comporte une liste des outils homologués (avec leurs conditions d'usage), une classification des données (libres / internes / confidentielles / secrètes) croisée avec les outils autorisés, et un processus de demande d'homologation pour les nouveaux outils. Elle est complémentaire à la charte et nécessite une mise à jour plus fréquente (trimestrielle à semestrielle).
Gouvernance IA
Ensemble des structures de décision, processus et responsabilités qui encadrent le développement, le déploiement et le monitoring des systèmes IA dans une organisation. Inclut le comité IA, les rôles définis, les processus de validation et les mécanismes de contrôle. Implications pratiques : une gouvernance IA mature comprend : un comité IA pluridisciplinaire (DSI, DPO, RSSI, représentants métiers, RH), un processus de validation avant tout déploiement IA, un registre des systèmes IA en production, des KPIs de suivi et un processus d'escalade pour les incidents. L'AI Act rend cette gouvernance obligatoire pour les entreprises déployant des systèmes à haut risque.
Comité IA
Instance de gouvernance pluridisciplinaire chargée de valider les projets IA, définir les priorités, arbitrer les questions éthiques et assurer la conformité réglementaire. Idéalement présidé par un membre du CoDir. Implications pratiques : le comité IA se réunit généralement mensuellement ou bimestriellement. Il examine les nouvelles demandes d'outils IA, supervise les projets en cours, revoit les incidents et met à jour la politique IA. Sa composition pluridisciplinaire est clé : un comité 100% IT sera perçu comme un frein ; un comité 100% métiers manquera les enjeux de sécurité.
Audit IA
Évaluation formelle d'un système IA couvrant sa conformité réglementaire, sa performance, sa sécurité, ses biais et son explicabilité. Peut être réalisé en interne ou par un tiers indépendant. L'AI Act impose des audits de conformité pour les systèmes à haut risque. Implications pratiques : planifiez un audit IA au moins annuellement pour chaque système IA en production. Les points clés à auditer : base légale RGPD, classification AI Act, performance vs. critères initiaux, incidents survenus, dérives de comportement, conformité contractuelle fournisseurs. Documentez les résultats et les actions correctives dans votre registre.
Souveraineté numérique
Capacité d'un État, d'une organisation ou d'un individu à exercer un contrôle effectif sur ses données, ses outils numériques et son infrastructure technologique, sans dépendance subie vis-à-vis de puissances étrangères ou de fournisseurs monopolistiques. Implications pratiques : la souveraineté numérique en entreprise se décline à trois niveaux : souveraineté des données (localisation, protection juridique), souveraineté technologique (indépendance vis-à-vis des Big Tech américains), souveraineté opérationnelle (capacité à changer de fournisseur sans rupture). L'IA souveraine adresse les trois dimensions simultanément.
Vendor lock-in
Situation de dépendance excessive d'une organisation vis-à-vis d'un fournisseur technologique unique, rendant le changement de fournisseur coûteux, long ou techniquement difficile. Implications pratiques : le vendor lock-in IA se manifeste par : des données stockées dans un format propriétaire non exportable, des modèles fine-tunés inutilisables hors de la plateforme du fournisseur, des intégrations profondes (Copilot 365) qui rendent la migration très coûteuse. Pour l'éviter : exigez des formats ouverts, maintenez des alternatives (même non déployées), incluez des clauses de réversibilité dans vos contrats.
Donnée sensible
Au sens large : toute donnée dont la divulgation non autorisée pourrait nuire à l'entreprise (données clients, données financières, propriété intellectuelle, secrets commerciaux). Au sens RGPD : catégories spéciales de données personnelles (santé, opinion politique, religion, origine ethnique, données génétiques/biométriques) bénéficiant d'une protection renforcée. Implications pratiques : définissez une classification des données interne (public / interne / confidentiel / secret) et croisez-la avec votre politique IA pour déterminer quels types de données peuvent être soumis à quel modèle IA. Les données sensibles ne doivent jamais transiter par des LLM non souverains.
7. Économie & Stratégie
Les dimensions économiques et stratégiques de l'IA souveraine.
TCO (Total Cost of Ownership / Coût Total de Possession)
Méthode d'évaluation du coût complet d'une solution sur sa durée de vie, incluant les coûts d'acquisition, d'implémentation, d'exploitation, de maintenance et de retrait. Indispensable pour comparer équitablement un LLM SaaS et un déploiement on-premise. Implications pratiques : le TCO d'une IA souveraine on-premise inclut : matériel GPU (amorti sur 5 ans), électricité, maintenance, licences logicielles, coûts d'équipe IT. Le TCO d'une solution SaaS cloud inclut : abonnement mensuel (qui croît avec l'usage), coûts d'intégration, risques de lock-in et coûts de migration future. Sur 3 à 5 ans, le TCO on-premise est souvent inférieur pour les usages intensifs.
ROI IA
Retour sur investissement des projets IA, calculé en comparant les bénéfices générés (gains de productivité, réduction de coûts, nouvelles revenus) aux coûts engagés (développement, infrastructure, formation, maintenance). Implications pratiques : les bénéfices IA difficiles à quantifier (amélioration de la qualité, réduction du risque, avantage concurrentiel) doivent être intégrés dans le calcul avec des proxies mesurables. Un assistant IA qui fait gagner 1 heure par jour à 50 collaborateurs représente 50 ETP-heures/jour économisées : valorisez ce gain au coût horaire moyen. Ajoutez les économies de coûts évités (incidents de sécurité, amendes RGPD).
IA souveraine (définition synthétique)
Système d'intelligence artificielle dont l'ensemble de la chaîne de valeur — données d'entraînement, infrastructure d'hébergement, modèle, code source, équipe de support — est sous contrôle juridique et opérationnel d'entités soumises au droit européen et de préférence français. Implications pratiques : la souveraineté IA est un gradient, pas un état binaire. Une évaluation sur critères multiples (localisation des données, juridiction du fournisseur, certifications, chaîne de sous-traitance) permet de situer votre solution sur ce spectre et d'identifier les risques résiduels.
Évaluez votre niveau de souveraineté IA
Ce glossaire vous a donné les clés pour comprendre les enjeux. Nos experts Intelligence Privée vous accompagnent pour évaluer votre situation actuelle et construire une roadmap IA souveraine adaptée à votre secteur.
Demander un audit gratuit →