Microsoft Phi-4 Small : un LLM 7B qui rivalise avec des 70B — analyse pour l'entreprise
Microsoft Research publie Phi-4 Small, un modèle de 7 milliards de paramètres entraîné sur des données synthétiques de haute qualité. Malgré sa taille réduite, il surpasse certains modèles 70B sur des tâches de raisonnement et de codage. Pour les entreprises, c'est une rupture : un LLM capable tourne désormais sur un laptop professionnel haut de gamme.
La course aux modèles géants marque une pause. Avec Phi-4 Small, Microsoft Research démontre qu'un modèle de 7 milliards de paramètres entraîné différemment peut surpasser des modèles dix fois plus grands sur certaines tâches. La clé : des données d'entraînement synthétiques ultra-qualitatives et une architecture optimisée pour l'efficacité.
Performances : ce que les benchmarks montrent
- MATH benchmark : Phi-4 Small score 82,4% — supérieur à Llama 3.1 70B (79,1%)
- HumanEval (code) : 87,3%, comparable à des modèles 3x plus grands
- MMLU : 74,8%, dans la moyenne des modèles 13-70B
- Limitation : les tâches nécessitant une très grande connaissance encyclopédique restent moins performantes
Hardware requis : la vraie rupture
En 4-bit quantifié, Phi-4 Small requiert environ 5 Go de VRAM — ou tourne en RAM CPU avec des performances acceptables (8 Go RAM suffisent pour des inférences courtes). Concrètement :
- MacBook Pro M3 Pro (18 Go RAM unifiée) : inférence fluide à ~30 tokens/s
- Laptop Windows avec GPU RTX 4060 (8 Go VRAM) : inférence rapide
- Raspberry Pi 5 (8 Go RAM) : inférence lente mais fonctionnelle pour edge IoT
Ce qu'il faut retenir
- Un LLM capable tourne désormais sur n'importe quel laptop professionnel récent
- Idéal pour les cas d'usage hors-connexion (terrain, usine, déplacements)
- Edge IoT : possible sur hardware embarqué avec 8 Go RAM minimum
- Disponible en open weights — déployable sans cloud, sans abonnement
- Pas adapté aux tâches encyclopédiques larges ou au contexte très long
Cas d'usage enterprise pertinents
Les déploiements on-device ouvrent des usages jusqu'ici impossibles : résumé de documents en zone sans connexion (chantiers, sites industriels), assistant code embarqué dans l'IDE du développeur sans envoyer le code à un cloud, tri et classification de données sensibles sans sortie du poste.
Microsoft reste une société américaine
Phi-4 Small est publié en open weights, mais pensez à vérifier la licence d'usage. Si vous l'utilisez via Azure AI Studio, les contraintes Cloud Act s'appliquent. En déploiement local pur (téléchargement des poids), vous êtes autonome.