EU AI Act : la Commission détaille les obligations techniques pour les systèmes haut risque
La Commission européenne a publié ses guidelines techniques interprétatives pour les articles 9 à 15 de l'EU AI Act, qui définissent les obligations applicables aux fournisseurs et déployeurs de systèmes IA à haut risque. Ce document de 89 pages clarifie les exigences de documentation technique, de gestion des risques, de qualité des données et de supervision humaine. Il répond aux questions les plus fréquentes des entreprises concernées, notamment sur la frontière entre système à haut risque et usage général.
Les guidelines techniques publiées par la Commission clarifient l'application des articles 9 à 15 de l'EU AI Act, qui s'appliquent aux systèmes IA à haut risque listés en Annexe III : IA dans le recrutement, le crédit, l'éducation, les infrastructures critiques et la justice.
Ce qui est clarifié sur la documentation technique (art. 11)
- La documentation technique doit décrire le système tel qu'il est déployé, pas tel qu'il a été conçu — chaque mise à jour majeure nécessite une mise à jour de la documentation
- Le format n'est pas imposé, mais 14 rubriques minimales sont définies (architecture, données d'entraînement, métriques de performance, limites connues, etc.)
- Les fournisseurs peuvent s'appuyer sur la documentation technique du modèle de base sous-jacent, à condition de documenter les modifications apportées
Supervision humaine : ce que ça veut vraiment dire
L'article 14 exige une supervision humaine effective. La Commission précise que « cliquer sur valider » sans capacité réelle de comprendre et contester la décision ne suffit pas. Les organisations doivent démontrer que les superviseurs humains ont la formation et le temps nécessaires pour exercer un contrôle réel — avec des métriques de contrôle à documenter.
Une FAQ de 45 questions-réponses accompagne le document et sera mise à jour trimestriellement.