Ce qu'il faut retenir
- La collusion algorithmique se produit sans accord explicite entre concurrents : les algorithmes s'alignent seuls sur les prix du marché
- La Commission européenne (DG COMP) a ouvert des enquêtes formelles sur les pratiques tarifaires IA dans l'e-commerce, l'hôtellerie et les plateformes
- Les entreprises utilisant des LLM mutualisés (ChatGPT, Copilot) risquent une contamination croisée de données concurrentielles
- L'EU AI Act impose des obligations de transparence et d'audit qui se superposent au droit de la concurrence
- Intelligence Privée garantit l'isolation totale des données : aucun partage croisé, aucun risque de collusion involontaire
La collusion algorithmique : comprendre les mécanismes
La collusion algorithmique désigne la situation dans laquelle des algorithmes de tarification, opérés par des entreprises concurrentes de manière indépendante, aboutissent à une coordination implicite des prix sans qu'aucun accord explicite n'ait été conclu. Ce phénomène défie les catégories juridiques traditionnelles du droit de la concurrence, qui reposent sur la notion d'entente consciente et voulue.
Les économistes identifient plusieurs mécanismes par lesquels cette coordination émerge spontanément :
Le modèle du hub-and-spoke algorithmique
Plusieurs concurrents utilisent le même prestataire de pricing IA — un éditeur SaaS de revenue management, par exemple. Chaque entreprise configure indépendamment son algorithme, mais tous s'alimentent aux mêmes signaux de marché et partagent (parfois à leur insu) des données agrégées via le prestataire commun. Le prestataire devient le hub involontaire d'une coordination tarifaire.
Ce schéma a été explicitement évoqué par la DG COMP dans son rapport 2024 sur la tarification algorithmique dans l'hôtellerie. Des outils comme Duetto, IDeaS ou RoomPriceGenie, utilisés simultanément par des hôtels concurrents dans une même ville, peuvent créer une coordination de facto même sans transmission directe de données entre concurrents.
L'apprentissage par renforcement et l'équilibre de collusion
Des recherches académiques (Calvano et al., 2020, publiées dans l'American Economic Review) ont démontré expérimentalement que des algorithmes Q-learning, entraînés sans aucune instruction explicite de collusion, convergent spontanément vers des prix supra-concurrentiels — c'est-à-dire des prix proches du niveau qu'auraient fixé des cartellistes humains. L'algorithme « apprend » que maintenir des prix élevés est plus rentable que la guerre des prix, sans que personne ne lui ait demandé.
Le signalement par les prix publics
Lorsque les prix sont visibles publiquement (e-commerce, plateformes de voyage), un algorithme peut interpréter chaque mouvement de prix d'un concurrent comme un signal et répondre en conséquence. Cette dynamique d'action-réaction crée une coordination sans communication — légalement distincte d'une entente, mais économiquement similaire dans ses effets.
Cas documentés : Amazon, Booking et au-delà
L'affaire Amazon Buy Box et le pricing algorithmique
Amazon fait l'objet d'enquêtes continues de la DG COMP concernant son algorithme Buy Box, qui détermine quel vendeur tiers est mis en avant sur ses pages produit. La Commission soupçonne qu'Amazon utilise les données de performances des vendeurs tiers pour calibrer sa propre offre concurrente (Amazon Retail), constituant un abus de position dominante par l'exploitation de données asymétriques.
La décision de décembre 2022 a imposé des engagements comportementaux à Amazon sur son algorithme Buy Box. Mais l'affaire illustre un principe général : utiliser l'IA pour exploiter des données auxquelles vos concurrents n'ont pas accès constitue un avantage concurrentiel potentiellement abusif si vous êtes en position dominante.
Booking.com et la parité tarifaire algorithmique
Booking.com a été contraint d'abandonner ses clauses de parité tarifaire stricte sous la pression des autorités de concurrence françaises, allemandes et suédoises (2015-2016). Ces clauses — initialement appliquées manuellement, puis automatisées — interdisaient aux hôtels de proposer de meilleurs prix sur leurs propres sites. L'algorithme de Booking surveillait automatiquement la parité et signalait les violations, créant une contrainte concurrentielle systématique sur les hôteliers.
Le cas RealPage dans l'immobilier américain
En 2024, le Département de Justice américain a engagé des poursuites contre RealPage, éditeur d'un logiciel de tarification IA utilisé par des propriétaires immobiliers concurrents dans les mêmes marchés. L'algorithme utilisait des données de loyers partagées par les propriétaires concurrents pour recommander des hausses de loyers coordonnées. Le DoJ qualifie explicitement ce mécanisme d'entente facilitée par algorithme — une première dans le droit antitrust américain. L'affaire est suivie de très près par la DG COMP pour en tirer des enseignements applicables au droit européen.
La sonorité européenne : enquêtes en cours
En 2025, la DG COMP a ouvert des procédures formelles d'information (Article 18 du Règlement 1/2003) auprès de plusieurs plateformes hôtelières et de plusieurs éditeurs de logiciels de yield management concernant leurs pratiques algorithmiques. Les résultats attendus pour 2026-2027 pourraient établir une jurisprudence européenne déterminante sur la collusion algorithmique.
Abus de position dominante assisté par IA
Pour les entreprises en position dominante (part de marché supérieure à 40-50% selon les marchés), l'utilisation de l'IA dans les décisions commerciales ouvre un champ d'exposition spécifique à l'article 102 TFUE.
Discrimination tarifaire algorithmique
Les LLM et algorithmes de pricing peuvent identifier des signaux de disposition à payer (device utilisé, historique de navigation, localisation géographique, heure de consultation) et adapter les prix en conséquence. Pour une entreprise dominante, cette pratique peut constituer une discrimination tarifaire abusive — particulièrement lorsqu'elle s'exerce au détriment de PME ou de consommateurs vulnérables.
La CJUE a rappelé dans l'arrêt Deutsche Telekom II (2021) que les pratiques algorithmiques d'une entreprise dominante sont soumises au même standard de contrôle que ses pratiques manuelles. L'automatisation ne constitue pas un bouclier juridique.
Foreclosure algorithmique
Un acteur dominant peut utiliser l'IA pour identifier en temps réel les tentatives d'entrée de nouveaux concurrents et réagir immédiatement (baisse de prix ciblée, offres groupées, exclusivités) avant que le concurrent ne puisse s'établir. Cette capacité de réaction algorithmique quasi-instantanée crée une barrière à l'entrée de facto, potentiellement abusive.
Exploitation de données asymétriques
Les plateformes dominantes qui traitent les données de leurs utilisateurs (y compris des données générées par des concurrents utilisant leurs APIs) pour alimenter leurs propres algorithmes concurrentiels sont dans une zone de risque élevée. Le Digital Markets Act (DMA), complémentaire du droit de la concurrence, interdit explicitement aux « gatekeepers » d'utiliser à leurs fins commerciales les données non publiques générées par les entreprises utilisatrices de leurs plateformes.
| Type de pratique IA | Base légale du risque | Acteurs concernés | Niveau de risque |
|---|---|---|---|
| Pricing algorithmique via outil tiers partagé | Art. 101 TFUE (entente) | Tous secteurs concurrentiels | Élevé |
| Discrimination tarifaire IA (position dominante) | Art. 102 TFUE | Entreprises part de marché >40% | Très élevé |
| Surveillance concurrentielle IA temps réel | Art. 102 TFUE + DMA | Plateformes numériques | Élevé |
| LLM mutualisé avec données concurrentielles | Art. 101 TFUE | Utilisateurs LLM SaaS | Moyen-élevé |
| Fine-tuning sur données clients de la plateforme | DMA Art. 6(a) | Gatekeepers DMA | Très élevé |
Enquêtes DG COMP sur les géants tech IA
La Direction Générale de la Concurrence de la Commission européenne a structuré son action 2025-2026 autour de trois axes concernant l'IA :
L'enquête sur les marchés de l'IA générative (janvier 2024)
La DG COMP a lancé une enquête de marché sur l'écosystème de l'IA générative, couvrant les modèles de fondation, les accords d'investissement (Microsoft/OpenAI, Google/Anthropic, Amazon/Anthropic) et les pratiques de distribution. Les résultats préliminaires (rapport intermédiaire 2025) identifient des risques de verrouillage de marché (lock-in) et d'exclusion de concurrents via le contrôle des modèles de fondation.
Les investigations DMA sur les hyperscalers
Apple, Google, Meta, Amazon, Microsoft et Booking ont été désignés comme « gatekeepers » au titre du DMA. Leurs pratiques IA — notamment l'intégration de fonctionnalités IA dans leurs ecosystèmes existants — font l'objet d'un suivi spécifique. Google a notamment fait l'objet d'une procédure en 2025 concernant l'auto-préférence de ses produits IA (Gemini) dans les résultats de recherche.
Partenariats IA et contrôle des concentrations
La question des investissements croisés entre grands groupes tech et startups IA (sans prise de contrôle formelle) a amené la DG COMP à développer une doctrine de contrôle des « quasi-fusions ». La décision Microsoft/Inflection (2024), qui a évité la notification mais fait l'objet d'une analyse rétrospective, illustre cette évolution.
Risques pour les entreprises utilisatrices d'IA dans leurs décisions de prix
Au-delà des grandes plateformes, les risques antitrust liés à l'IA concernent toute entreprise utilisant des algorithmes dans ses décisions commerciales. Voici les situations concrètes à surveiller :
L'utilisation d'un outil de pricing SaaS tiers
Si vous utilisez un logiciel de tarification IA (Pricefx, Vendavo, Pros Holdings, ou tout outil sectoriel) utilisé également par vos concurrents, vérifiez impérativement : (1) quelles données vous transmettez à l'outil, (2) si l'outil agrège des données multi-clients, (3) si les recommandations de prix s'appuient sur des données provenant de concurrents. Une réponse positive à ces questions crée un risque antitrust documentable.
Les échanges d'informations via plateformes IA
Certaines plateformes B2B proposent des benchmarks de prix alimentés par les données de leurs clients. Si ces clients sont des concurrents et que les données permettent une inférence sur les intentions tarifaires futures, l'échange peut constituer une infraction à l'article 101 TFUE — même si chaque entreprise agit unilatéralement.
La transparence algorithmique insuffisante
En cas d'enquête, les autorités de concurrence demanderont à comprendre comment votre algorithme de pricing fonctionne et sur quelles données il s'appuie. L'impossibilité de répondre à cette question — parce que vous n'avez pas la documentation de votre outil SaaS — constitue en elle-même un risque procédural.
Données concurrentielles dans les LLM : le risque d'accès croisé
Un risque spécifique et sous-estimé concerne l'utilisation de LLM mutualisés (ChatGPT Enterprise, Microsoft Copilot, Google Gemini for Business) dans des contextes où des entreprises concurrentes partagent la même infrastructure.
Le risque théorique de contamination croisée
Bien que les grands fournisseurs affirment isoler les données de leurs clients enterprise, plusieurs vecteurs de contamination croisée restent théoriquement possibles : fine-tuning sur données agrégées multi-clients, mémorisation de données d'entraînement dans les weights du modèle, extraction par des techniques d'membership inference. Ces risques sont suffisamment réels pour que plusieurs DPO européens aient conduit des analyses d'impact spécifiques.
Le risque pratique d'information concurrentielle
Plus immédiatement, un collaborateur qui saisit une stratégie commerciale, une liste de clients, ou des données de marges dans un LLM mutualisé contribue potentiellement à enrichir un modèle accessible à ses concurrents. Même si la contamination directe est improbable, la politique d'utilisation des données pour l'amélioration des modèles varie selon les fournisseurs et les contrats.
La solution : l'isolation totale des données
Une IA souveraine déployée en infrastructure isolée élimine structurellement ce risque. Vos données d'entraînement, vos prompts, vos outputs restent dans votre périmètre exclusif. Aucun mécanisme — même théorique — ne permet une fuite vers un concurrent utilisant le même fournisseur. C'est l'approche d'Intelligence Privée : isolation totale par architecture, pas par politique contractuelle.
EU AI Act et droit de la concurrence : les synergies réglementaires
L'EU AI Act et le droit de la concurrence convergent sur plusieurs exigences qui se renforcent mutuellement :
| Exigence | EU AI Act | Droit de la concurrence | Action requise |
|---|---|---|---|
| Documentation des algorithmes de décision | Art. 11-12 (systèmes haut risque) | Charge de la preuve en cas d'enquête | Cartographie et documentation de tous les algorithmes commerciaux |
| Transparence sur les données d'entraînement | Art. 13 (transparence) | Preuve d'absence de partage de données concurrentielles | Registre des sources de données d'entraînement |
| Surveillance humaine des décisions | Art. 14 (human oversight) | Preuve de décision autonome non coordonnée | Procédures de validation humaine des décisions tarifaires IA |
| Audit et évaluation de conformité | Art. 9 (gestion des risques) | Compliance programme antitrust | Audit annuel des pratiques IA commerciales |
Obligations d'audit et de documentation : ce que vous devez mettre en place
Face à la convergence des risques antitrust et réglementaires, les entreprises utilisant l'IA dans leurs décisions commerciales doivent mettre en place un programme de compliance spécifique :
Cartographie des algorithmes commerciaux
Identifiez tous les systèmes IA qui influencent vos décisions commerciales : pricing, conditions de vente, sélection de fournisseurs, référencement de produits. Pour chaque système, documentez : les données d'entrée, les sources d'apprentissage, les règles de décision, et les mécanismes de supervision humaine.
Audit des outils tiers
Pour chaque outil de pricing ou d'optimisation commerciale fourni par un tiers, obtenez contractuellement la garantie que vos données ne sont pas partagées avec des clients concurrents. Exigez une clause d'audit et documentez cette diligence. En cas d'enquête antitrust, cette documentation prouvera votre bonne foi.
Formation du management commercial
Les équipes commerciales doivent comprendre que "l'algorithme a décidé" n'est pas une défense juridique recevable. La responsabilité de l'entreprise qui déploie l'algorithme est entière. Une formation antitrust spécifique aux enjeux de la tarification algorithmique est désormais recommandée par l'Autorité de la concurrence française.
Mécanismes de détection interne
Mettez en place des indicateurs de vigilance : convergence anormale des prix du marché, corrélations statistiques entre vos décisions tarifaires et celles de vos concurrents, retours terrain sur des comportements de marché suspects. Ces signaux peuvent indiquer une coordination involontaire via algorithme partagé.
Intelligence Privée : l'isolation comme protection antitrust
En déployant votre IA sur une infrastructure isolée, sans partage de données avec d'autres entreprises, Intelligence Privée élimine structurellement le risque de collusion algorithmique via prestataire commun. Vos données d'entraînement, vos prompts stratégiques et vos outputs restent exclusivement dans votre périmètre. C'est la seule approche qui offre une garantie architecturale — pas contractuelle — contre ce risque.
Auditez votre exposition antitrust IA
Intelligence Privée vous aide à cartographier vos risques de collusion algorithmique et à déployer une IA commerciale isolée, traçable et conforme. Aucun partage de données, aucun risque de coordination involontaire.
Évaluer votre exposition →Questions fréquentes sur l'IA et le droit de la concurrence
Mon entreprise n'est pas en position dominante — est-elle quand même exposée au risque de collusion algorithmique ?
Oui. Le risque de collusion algorithmique (article 101 TFUE) s'applique à toutes les entreprises, quelle que soit leur part de marché. L'article 101 interdit toute coordination des comportements concurrentiels, qu'elle résulte d'un accord explicite ou d'une pratique concertée facilitée par algorithme. Les PME utilisant des outils de pricing SaaS partagés avec leurs concurrents sont donc concernées.
Comment prouver que mon algorithme de pricing n'a pas colludé ?
La meilleure preuve est une documentation complète de votre algorithme : données d'entrée, logique de décision, absence de données concurrentielles dans l'apprentissage, supervision humaine. Un audit indépendant de votre algorithme, réalisé préalablement à toute enquête, constitue la défense la plus solide. C'est pourquoi la documentation préventive est recommandée même avant que le risque se matérialise.
Le simple fait d'utiliser ChatGPT pour des analyses de prix crée-t-il un risque antitrust ?
Indirectement, oui. Si vous saisissez des informations sur vos prix, vos marges ou votre stratégie commerciale dans un LLM mutualisé, et que des concurrents utilisent le même outil, il existe un risque théorique de contamination croisée. Plus concrètement, si vos analyses de marché IA influencent vos décisions tarifaires et que celles-ci convergent avec celles de concurrents utilisant les mêmes outils, une autorité de concurrence pourrait s'y intéresser.
L'EU AI Act crée-t-il des obligations spécifiques en matière de concurrence ?
L'EU AI Act ne modifie pas directement le droit de la concurrence, mais ses obligations de transparence, de documentation et d'audit sont exactement ce que les autorités antitrust demandent lors d'une enquête. Respecter l'EU AI Act vous place donc en position de force si votre algorithme commercial est un jour examiné par la DG COMP ou l'Autorité de la concurrence.
Que risque concrètement une entreprise condamnée pour collusion algorithmique ?
Les sanctions potentielles incluent : amende jusqu'à 10% du CA mondial annuel, nullité des contrats conclus pendant la période infractionnelle, action en dommages et intérêts des clients lésés (class actions possibles en Europe depuis la directive 2014/104), atteinte réputationnelle majeure. Pour les dirigeants, des sanctions personnelles sont possibles dans certains États membres (France, Royaume-Uni).
Existe-t-il une obligation de notification préalable d'un algorithme de pricing aux autorités de concurrence ?
Non, en droit positif actuel. Mais plusieurs projets de régulation (Digital Markets Act pour les gatekeepers, et certaines propositions académiques) envisagent des mécanismes de notification ou d'audit obligatoire des algorithmes à fort impact concurrentiel. La DG COMP a par ailleurs recommandé dans son rapport 2024 que les entreprises procèdent à des auto-évaluations régulières de leurs pratiques algorithmiques.