DeepSeek R2 : performances, confidentialité et ce que ça change vraiment pour les entreprises françaises
DeepSeek a publié R2, son nouveau modèle de raisonnement qui établit de nouveaux records sur les benchmarks de mathématiques, de code et de raisonnement logique. Si les performances sont indéniables, la question de la confidentialité des données — le modèle est développé par une société chinoise — reste le point bloquant pour la majorité des entreprises françaises traitant des données sensibles. Analyse complète des options disponibles pour exploiter les capacités de R2 dans un cadre acceptable.
DeepSeek R2 s'impose immédiatement comme le meilleur modèle de raisonnement open-weights disponible, surpassant o3-mini de OpenAI sur plusieurs benchmarks. Mais pour les entreprises françaises, la question n'est pas « est-ce que ce modèle est performant ? » — c'est « peut-on l'utiliser sans risque ? »
Les performances, objectivement
- AIME 2025 (mathématiques) : 89,4% (vs 87,2% pour o3-mini)
- SWE-bench (code) : 64,8% (vs 62,1% pour Claude 3.7 Sonnet)
- GPQA Diamond (raisonnement scientifique) : 76,3%
- Performances en français : correctes mais inférieures à Mistral Large 2 et GPT-4o sur les tâches de rédaction
La question de la confidentialité : trois options
Option 1 — API DeepSeek directe : à éviter pour toute donnée sensible. Les CGU autorisent l'usage des données à des fins d'amélioration, les serveurs sont en Chine, aucun DPA RGPD disponible.
Option 2 — Modèle open weights auto-hébergé : les poids de R2 sont publiés sous licence MIT. Déploiement sur infrastructure souveraine (OVHcloud, Scaleway) possible. Nécessite 8× H100 ou équivalent pour la version complète.
Option 3 — Via Azure ou AWS : DeepSeek R2 est disponible sur Azure AI Foundry avec hébergement européen et DPA RGPD. Solution intermédiaire si vous n'avez pas l'infrastructure pour l'auto-hébergement.