Ce qu'il faut retenir
- L'AI Liability Directive crée une présomption de causalité renversable : la victime n'a plus à prouver le lien entre la défaillance IA et le dommage
- Les logs horodatés, les explications de décision et la documentation de conformité AI Act sont vos principales défenses en contentieux
- L'expertise judiciaire en IA est une discipline émergente : savoir désigner le bon expert est stratégique
- La jurisprudence se construit rapidement : CJUE, cours nationales et tribunaux du travail instruisent des affaires IA dès 2025-2026
- L'assurance RC IA existe mais impose des conditions de documentation qui sont exactement celles de la conformité réglementaire
Comment une décision IA est-elle prouvée en justice ?
La preuve d'une décision algorithmique en justice est un défi technique et juridique inédit. Contrairement à une décision humaine — dont on peut recueillir le témoignage, examiner les notes, retracer les échanges — une décision IA est le produit de milliards de paramètres, d'une chaîne de transformations mathématiques souvent opaque, et d'un contexte d'exécution qui peut varier d'une requête à l'autre.
Les éléments de preuve disponibles
Les pièces techniques utilisables en contentieux IA sont de plusieurs natures :
Les logs d'exécution constituent la pièce maîtresse. Un log bien structuré doit contenir : l'horodatage de la décision, l'identifiant de la requête, les données d'entrée (ou leur hash), la version du modèle utilisé, les paramètres de configuration, et l'output produit. Ces logs permettent de reconstituer exactement ce qui s'est passé au moment de la décision litigieuse.
Les explications de décision (SHAP values, LIME, attention maps selon la technologie) fournissent une représentation des facteurs qui ont le plus influencé l'output. Ces explications ont une valeur probatoire croissante, mais leur interprétation requiert l'expertise d'un spécialiste.
La documentation de conformité AI Act — évaluation des risques, tests de performance, cartographie des données d'entraînement — établit le contexte dans lequel le système a été déployé et les mesures de précaution prises.
Les tests de non-régression et d'équité réalisés avant et après déploiement prouvent que le système a été évalué pour les biais potentiels et les erreurs systématiques avant sa mise en production.
Les limites probatoires du système IA
Plusieurs caractéristiques des systèmes IA compliquent l'administration de la preuve. Le non-déterminisme de nombreux LLM signifie que la même requête peut produire des outputs différents selon la température configurée — impossible à reproduire à l'identique. L'opacité des grands modèles (boîte noire) rend difficile l'explication causale des décisions. La dérive temporelle du modèle (concept drift) signifie qu'un modèle d'aujourd'hui ne se comportera pas exactement comme le modèle d'il y a six mois — même avec les mêmes données d'entrée.
AI Liability Directive : le renversement de la charge de la preuve
L'AI Liability Directive (AILD), dont l'application est attendue pour 2026, opère une révolution dans la répartition de la charge de la preuve en matière d'IA. Elle s'appuie sur le constat que la victime d'un système IA est structurellement incapable d'en prouver le fonctionnement défectueux — car elle n'a pas accès à la documentation technique du système.
La présomption de causalité
Le mécanisme central de l'AILD est la présomption réfragable de causalité. Lorsque la victime démontre :
- Que le système IA ne respectait pas ses obligations légales (EU AI Act, ou autre réglementation sectorielle),
- Que le dommage subi est du type que ces obligations visaient précisément à prévenir,
Le tribunal peut présumer que la non-conformité a causé le dommage. C'est à l'entreprise de réfuter cette présomption, en prouvant que son système était conforme ou que la non-conformité n'a pas causé le dommage en question.
Pour les systèmes IA à haut risque (au sens de l'annexe III de l'EU AI Act : crédit, emploi, santé, services essentiels, infrastructure critique), cette présomption est quasi-automatique dès qu'une non-conformité est établie.
Le droit d'accès à la documentation
L'AILD donne aux victimes — et aux tribunaux les représentant — un droit formel d'accès à la documentation technique des systèmes IA. Ce droit s'exerce sur requête judiciaire et peut contraindre l'entreprise à produire : la documentation technique AI Act, les logs de décision, les évaluations de conformité, et les résultats des tests de performance.
Le refus de produire ces documents ou leur destruction (même antérieure au litige, si elle était prévisible) permet au tribunal de tirer des inférences défavorables — aggravant ainsi la position de l'entreprise.
La distinction avec la Product Liability Directive révisée
En parallèle de l'AILD, la révision de la directive sur la responsabilité du fait des produits (PLD) intègre explicitement les logiciels et systèmes IA dans la catégorie des « produits ». Cette évolution crée une responsabilité sans faute pour les défauts de conception — y compris pour les modèles IA. Le fournisseur du modèle peut ainsi être directement impliqué dans un litige, aux côtés du déployeur.
Le rôle de l'expert judiciaire en IA
L'expertise judiciaire en systèmes d'IA est une discipline naissante qui soulève des questions spécifiques de méthode et d'organisation.
Qui peut être expert en IA ?
Les cours d'appel françaises inscrivent depuis 2023 des experts dans les spécialités « intelligence artificielle » et « algorithmes décisionnels ». Ces experts ont typiquement des profils de docteurs en informatique, ingénieurs de recherche ou consultants spécialisés en data science et machine learning. La qualification requise combine une maîtrise technique des modèles (entraînement, inférence, biais) et une connaissance du cadre légal applicable.
La Cour de cassation a précisé dans plusieurs arrêts récents que l'expert judiciaire en IA doit pouvoir : reconstituer le comportement du système à partir des logs disponibles, identifier les sources de biais potentiels, évaluer la conformité aux standards techniques applicables, et formuler ses conclusions dans des termes compréhensibles pour le tribunal.
Les limites de l'expertise IA en l'état actuel
L'expertise IA se heurte à plusieurs obstacles pratiques. L'accès au modèle : si le fournisseur refuse de divulguer les weights ou l'architecture du modèle pour des raisons de propriété intellectuelle, l'expert ne peut travailler que sur les inputs/outputs — une analyse dite « boîte noire ». La reproductibilité : reproduire exactement les conditions d'exécution d'une décision prise il y a 18 mois — même version du modèle, même infrastructure — est souvent impossible. L'évolution du modèle : si le modèle a été mis à jour entre la décision litigieuse et le procès, son comportement passé ne peut pas être directement observé.
Stratégie de désignation de l'expert
Pour les entreprises en contentieux IA, la stratégie de désignation de l'expert est cruciale. Il est conseillé de demander au tribunal de préciser le cahier des charges de la mission d'expertise (données accessibles, méthode d'analyse, délais), de vérifier les qualifications effectives de l'expert proposé, et d'envisager la désignation d'un contre-expert ou d'un sapiteur technique spécialisé.
| Type de contentieux IA | Expertise requise | Documents clés | Juridiction compétente |
|---|---|---|---|
| Licenciement automatisé | Biais algorithmique RH | Logs décision, critères, tests équité | Conseil des Prud'hommes |
| Refus de crédit IA | Scoring, discrimination | Modèle de scoring, données input | TJ / CJUE (renvoi préjudiciel) |
| Diagnostic médical erroné | IA médicale, dispositif médical | Documentation CE, validation clinique | TJ / CNIL (plainte) |
| Contenu généré litigieux | LLM, droit d'auteur | Prompt, output, données entraînement | TGI Paris (spécialisé PI) |
| Décision administrative IA | Droit public + algo | Code source (CADA), AIPD | Tribunal administratif |
Jurisprudence européenne émergente
La jurisprudence en matière d'IA se développe rapidement en Europe, avec des décisions significatives dans plusieurs États membres et des renvois préjudiciels à la CJUE.
Les affaires CJUE structurantes
L'arrêt Schufa (CJUE, C-634/21, décembre 2023) constitue la première décision majeure de la CJUE sur le scoring algorithmique. La Cour a jugé que l'établissement d'un score de crédit par un algorithme constitue une « décision automatisée » au sens de l'article 22 du RGPD, interdite en principe sans intervention humaine significative. Cette décision s'applique à toutes les formes de profilage algorithmique avec effet significatif sur les personnes.
L'affaire Meta/IAB Europe sur les bases légales du traitement IA et le renvoi préjudiciel en cours concernant les décisions algorithmiques de contenu (Meta Platforms Ireland, C-17/25) devraient apporter des précisions importantes sur l'obligation d'explicabilité des décisions IA.
Jurisprudence nationale notable
En France, le Conseil d'État a jugé en 2022 (affaire APB/Parcoursup) que les algorithmes d'orientation scolaire devaient faire l'objet d'une transparence suffisante pour permettre le recours des administrés. Cette décision a accéléré la réflexion sur l'explicabilité des décisions administratives automatisées.
Les Prud'hommes de Paris ont rendu en 2024 une décision inédite reconnaissant le caractère discriminatoire d'un algorithme d'évaluation de performance utilisé pour fonder des décisions de licenciement économique, en se fondant sur l'absence de transparence sur les critères de l'algorithme et l'impossibilité pour les salariés de le contester.
En Allemagne, le Bundesarbeitsgericht (Cour fédérale du travail) a rendu en 2023 une décision imposant à l'employeur de fournir une explication détaillée de tout algorithme utilisé dans une décision affectant un salarié, indépendamment du RGPD.
Stratégie de documentation préventive
La meilleure stratégie contentieuse en matière d'IA est préventive : constituer, avant tout litige, la documentation qui permettra de se défendre efficacement.
Le dossier technique de base
Tout déploiement IA à impact significatif sur des tiers devrait être accompagné d'un dossier technique incluant : la description fonctionnelle du système (à quoi sert-il, comment décide-t-il), les données d'entraînement (sources, dates, traitements appliqués), les performances mesurées (précision, rappel, équité par sous-groupes), les tests de biais réalisés, et la procédure de recours humain.
La conservation des logs
La durée de conservation des logs de décision doit être alignée sur les délais de prescription applicables. Pour les décisions à impact sur des personnes, conserver les logs au minimum 3 ans (délai de prescription civil de l'AILD) et jusqu'à 5 ans pour les décisions à fort impact (emploi, santé, crédit). Sur infrastructure privée, cette conservation est sous votre contrôle direct — sur SaaS, vérifiez contractuellement les politiques de rétention.
Le protocole d'incident IA
Définissez à l'avance le protocole à suivre dès qu'une décision IA est contestée : gel immédiat des logs correspondants, notification du DPO et du juriste, évaluation de la notification CNIL si données personnelles impliquées, constitution d'un groupe de travail interne. Ce protocole, appliqué rapidement, peut faire la différence entre une situation maîtrisée et un contentieux aggravé.
Les 5 documents qui vous protègent en contentieux IA
- Logs horodatés de chaque décision, conservés ≥3 ans, stockés sur infrastructure que vous contrôlez
- Documentation AI Act complète : évaluation des risques, tests, mesures de mitigation
- Explications de décision archivées pour chaque décision à impact individuel significatif
- Tests d'équité documentés, réalisés avant déploiement et périodiquement ensuite
- Procédure de recours humain formalisée, testée et traçable
Assurance responsabilité civile IA : couvertures et lacunes
Le marché de l'assurance RC IA est en développement rapide, avec des offres spécialisées proposées par AXA, Allianz, Beazley et plusieurs insurtech depuis 2024-2025.
Ce que couvrent les polices IA existantes
Les polices RC IA disponibles couvrent généralement : les dommages causés à des tiers par des décisions automatisées erronées, les frais de défense juridique (y compris expertise judiciaire), les frais de notification en cas de violation de données, et parfois les amendes administratives (CNIL, AMF) dans les limites légales.
Les primes varient de quelques milliers d'euros annuels pour des déploiements simples à plusieurs centaines de milliers pour des systèmes à haut risque dans les secteurs financier ou médical.
Les lacunes des couvertures actuelles
Plusieurs risques restent mal couverts ou exclus : les amendes EU AI Act (plafonnées à 35M€ ou 7% du CA), les dommages réputationnels, la perte de données d'entraînement propriétaires, et les dommages causés par des systèmes IA dits « génératifs » (hallucinations, contenus litigieux) qui font souvent l'objet d'exclusions spécifiques.
Les assureurs conditionnent systématiquement leur couverture à la fourniture d'un dossier de conformité IA validé avant souscription. La conformité EU AI Act et la documentation technique ne sont pas seulement une obligation légale — elles sont devenues la condition d'assurabilité.
Contentieux RH et décisions automatisées de licenciement
Les décisions RH automatisées constituent le terrain le plus fertile pour les contentieux IA en France, en raison de la forte protection du droit du travail et de la compétence des Conseils de prud'hommes.
Le cadre juridique applicable
L'article 22 du RGPD interdit les décisions entièrement automatisées affectant significativement une personne, sauf consentement explicite ou nécessité contractuelle. La loi Informatique et Libertés (article 47) et le Code du travail (article L. 1221-8 sur la transparence des méthodes de recrutement) complètent ce dispositif.
Le Code du travail impose en outre une information et une consultation du CSE avant tout déploiement d'un système de surveillance ou d'évaluation des salariés — y compris les systèmes IA d'analyse de performance.
Les risques spécifiques à surveiller
Les algorithmes d'évaluation de performance utilisés pour fonder des décisions de licenciement économique sont dans la zone de risque la plus élevée. Un salarié licencié peut contester la décision en demandant la communication des critères algorithmiques et des données le concernant. L'absence de réponse satisfaisante peut entraîner la nullité du licenciement et la réintégration, en plus des dommages et intérêts.
Intelligence artificielle et arbitrage international
L'arbitrage international commence à traiter des litiges impliquant des systèmes IA, notamment dans les domaines des contrats de licences technologiques, des accords de distribution numérique et des joint-ventures IA.
Les tribunaux arbitraux (CCI, LCIA, CIRDI) sont confrontés aux mêmes difficultés probatoires que les juridictions étatiques — avec l'avantage d'une plus grande flexibilité procédurale pour ordonner des expertises techniques spécialisées et des mesures d'instruction adaptées aux spécificités des systèmes IA.
La question de la confidentialité est particulièrement sensible en arbitrage IA : les parties sont souvent réticentes à divulguer leur documentation technique (propriété intellectuelle, secrets d'affaires) même dans un cadre arbitral. Les règlements d'arbitrage modernes prévoient des mécanismes de chambre de données (data room) et d'expert neutre permettant une expertise technique sans divulgation complète aux parties adverses.
Préparez votre défense contentieuse dès aujourd'hui
Intelligence Privée déploie votre IA avec logging complet, explicabilité intégrée et documentation AI Act exhaustive. Chaque décision est traçable, chaque output archivé. Votre meilleure assurance contre les recours civils.
Constituer votre dossier technique →Questions fréquentes sur le contentieux IA
Quelle est la différence entre l'AI Liability Directive et la Product Liability Directive révisée ?
L'AILD couvre la responsabilité civile pour faute (negligence) liée aux systèmes IA, avec un mécanisme de présomption de causalité. La PLD révisée couvre la responsabilité sans faute (strict liability) pour les défauts de produits incluant désormais les logiciels et systèmes IA. Les deux peuvent s'appliquer simultanément : la PLD engage le fournisseur du modèle défectueux, l'AILD engage le déployeur qui a mal configuré ou utilisé le système.
Mon fournisseur de LLM peut-il être co-défendeur dans un contentieux IA ?
Oui, depuis la PLD révisée. Si le dommage résulte d'un défaut du modèle de fondation (hallucination systématique, biais entraîné), le fournisseur peut être assigné en co-responsabilité. En pratique, les contrats SaaS IA excluent souvent cette responsabilité — mais ces clauses d'exclusion peuvent être contestées devant un tribunal si elles sont jugées abusives ou si le défaut était connu du fournisseur.
Combien de temps dois-je conserver les logs de mes décisions IA ?
Au minimum 3 ans (délai de prescription civil de l'AILD). Pour les décisions à fort impact sur des personnes (santé, emploi, crédit), 5 ans est recommandé. Pour les systèmes à haut risque EU AI Act, la conservation des logs est obligatoire pendant la durée de vie du système plus 10 ans selon les lignes directrices de l'ENISA. Ces durées peuvent s'articuler avec les obligations de minimisation des données du RGPD, nécessitant une politique de conservation formalisée.
Le CSE doit-il être consulté avant tout déploiement d'IA RH ?
Oui, pour tout système de surveillance ou d'évaluation des salariés. Le Code du travail (L. 2312-38) impose une information-consultation du CSE avant introduction de tout système informatique de contrôle de l'activité des salariés. Les systèmes IA d'analyse de performance, de surveillance de la productivité, ou d'aide à la décision RH entrent dans ce périmètre. L'absence de consultation du CSE peut entraîner la suspension du déploiement et expose l'employeur à des sanctions pénales.
Une décision IA peut-elle être contestée par un recours pour excès de pouvoir si elle émane d'une administration ?
Oui. Le Conseil d'État a établi que les décisions administratives fondées sur un algorithme doivent respecter les principes de transparence et d'explicabilité. L'administré peut demander communication du code source (via la CADA) et contester la décision si l'algorithme n'a pas été correctement documenté ou si la décision n'a pas fait l'objet d'une supervision humaine suffisante. La loi CRPA (Code des relations entre le public et l'administration) impose une mention des algorithmes utilisés dans les décisions individuelles.