Gouverner l'IA agentique : pourquoi l'ancien modèle est mort
3 millions d'agents en entreprise. 1.5 million sans supervision. 88% des organisations ont eu un incident de sécurité IA cette année. Le contrôle unitaire ne tient plus.
En mars 2026, Microsoft compte plus de 500 000 agents IA en interne. En deux mois de preview de leur plateforme Agent 365, des dizaines de millions d'agents sont apparus dans le registre. Microsoft a dû construire une infrastructure dédiée — Agent 365 — juste pour suivre ses propres agents.
Si Microsoft peine à garder le contrôle, quelle chance ont les autres ?
Le choc agentique en chiffres
3M+
agents IA actifs en entreprise
Gravitee 2026
1.5M
tournent sans aucune supervision
Gravitee 2026
88%
des organisations ont eu un incident sécurité IA cette année
Gravitee 2026
40%
des projets agentiques seront abandonnés d'ici 2027
Gartner
Le rythme ne fait qu'accélérer. En 2024, un agent fonctionnait 4 minutes en autonomie. En mars 2026, Anthropic lance Cowork — un agent qui prend le contrôle de votre ordinateur, ouvre des applications, navigue le web, et exécute des tâches planifiées pendant que vous dormez.
“On introduit des acteurs non-déterministes qui ne dorment pas, ne suivent pas de chemins prévisibles, et peuvent traverser votre infrastructure en quelques secondes.”
— Ev Kontsevoy, CEO de Teleport
D'ici fin 2026, un collaborateur pourra lancer un agent qui travaille pendant qu'il dort. Un modèle de validation unitaire — un humain qui approuve chaque agent, chaque action — sera physiquement impossible à maintenir.
Ce n'est pas théorique — les incidents sont réels
Incidents documentés — 2025/2026
- Supply chain attack OpenAI : Des identifiants d'agents compromis dans 47 déploiements enterprise. Accès à des données clients, financières et du code propriétaire pendant 6 mois avant détection.
- Memory poisoning : Des attaquants ont progressivement “corrigé” les limites d'approbation d'un agent procurement. Au bout de 4 semaines, l'agent croyait pouvoir approuver des achats de $500K et a traité $5M de commandes frauduleuses.
- Cascading failure : Un seul agent compromis a empoisonné 87% des décisions en aval en 4 heures dans un système multi-agents de supply chain. Perte : $3.2M.
- Klarna : 700 agents humains remplacés par l'IA. Satisfaction client -22%. Le CEO admet publiquement avoir “été trop loin”. Klarna réembauche.
Et ce n'est que la partie visible. 82% des dirigeants croient que leurs politiques les protègent, mais seulement 21% ont une visibilité réelle sur ce que leurs agents accèdent, quels outils ils appellent, ou quelles données ils touchent.
L'ancien modèle ne tient plus
Ce que font les entreprises
- Chaque agent = un “système IA” à inscrire
- Validation a priori : conformité + SSI + innovation
- Questionnaires longs, semaines par agent
- Quotas et limitations de création
La réalité du terrain
- Les plateformes créent des agents à la volée
- Un agent dispatch 10 sous-agents en autonomie
- 1 200 apps IA non-officielles en moyenne par entreprise
- 223 incidents shadow AI par mois (doublé en un an)
- Coût moyen d'une brèche shadow AI : $4.63M
“Gouverner l'IA agentique avec des méthodes pré-agentiques, c'est réguler le trafic internet avec des péages d'autoroute.”
Le paradoxe : quand on fournit des outils approuvés, le shadow AI baisse de 89%.Quand on interdit, il explose. La gouvernance par l'enablement est la seule qui fonctionne.
Ce que l'AI Act dit vraiment (en bref)
“Chaque agent doit être inscrit au registre EU”
Seuls les systèmes à haut risque (Annexe III). ~90% de vos agents sont en risque minimal — aucune obligation.
“Un humain doit valider chaque action”
L'Art. 14 demande la capacité de superviser et d'intervenir. Le human-on-the-loop est compatible.
“Nous sommes provider pour chaque agent”
Construire sur des APIs (Claude, GPT, Gemini) sans modifier le modèle = deployer. Obligations allégées.
Pour l'analyse complète, lisez notre article dédié : AI Act — ce qu'il dit vraiment.
7 piliers pour une gouvernance qui scale
L'alternative n'est pas le chaos ou la paralysie. C'est une gouvernance “by design” qui repose sur un principe :
Qualifier une fois. Exécuter dans un cadre commun. Superviser en continu.
Plateforme gouvernée
L'agent hérite de la gouvernance de sa plateforme. Si elle est bien paramétrée (connecteurs autorisés, niveaux d'autonomie, audit trail natif), chaque agent créé dessus est gouverné par construction.
Catalogue de finalités
On qualifie des finalités, pas des agents individuellement. "Résumé de documents" = greenlisté, libre-service. "Tri de candidatures" = circuit dédié, AIPD. Valider une finalité une fois = la débloquer pour tous.
Human-on-the-loop
~90% des agents : aucune supervision requise. ~8% : monitoring temps réel + alertes. ~2% (haut risque) : human-in-the-loop effectif. On supervise le système, pas chaque action.
Connecteurs sécurisés
Avec MCP (97M téléchargements/mois, supporté par Claude, GPT, Gemini, Copilot), gouverner la galaxie de connecteurs devient le point de contrôle stratégique. Un connecteur validé une fois = disponible pour tous.
Auto-évaluation
L'agent se compare à la grille des finalités et données autorisées avant exécution. Un agent greenlisté qui tente d'accéder au SIRH est automatiquement flaggé. Évaluation machine, pas humaine.
Contrôle automatisé
La gouvernance doit être elle-même agentique. Des agents qui surveillent des agents. Classification automatique des risques, monitoring continu, et audit du système de gouvernance — pas de chaque agent.
Context Layer métier
Documenter vos connaissances métier, règles, taxonomies de manière réutilisable par tous vos agents. Ce "cerveau d'entreprise" est agnostique (Claude, GPT, Mistral). C'est votre souveraineté sur votre intelligence métier.
En pratique : avant / après
Aujourd'hui
- ❌ Chaque agent = un projet de semaines
- ❌ Questionnaires conformité + SSI + innovation
- ❌ Validation humaine de chaque action
- ❌ Quotas de création d'agents
- ❌ Lock-in sur un fournisseur IA
Demain
- ✓ 90% des agents en libre-service immédiat
- ✓ Catalogue de finalités pré-qualifiées
- ✓ Human-on-the-loop + monitoring automatisé
- ✓ Guardrails natifs + contrôle a posteriori
- ✓ Context Layer agnostique — pas de lock-in
Nos convictions
1. L'agent n'est plus l'unité pertinente de gouvernance. C'est la combinaison finalité + données + niveau d'autonomie.
2. L'AI Act n'est pas un frein. C'est un cadre raisonnable. La sur-interprétation par sécurité est le vrai frein.
3. Le vrai risque n'est pas l'adoption — c'est la paralysie. 47% des utilisateurs passent par des comptes personnels quand on bloque l'IA officielle. C'est là que se trouve le vrai risque.
4. La gouvernance doit s'adapter à la vitesse de l'innovation. Gartner prévoit $492M en gouvernance IA en 2026, >$1Mds en 2030. L'investissement suit — mais il doit aller dans les bons mécanismes.
La question n'est plus de savoir si vos équipes vont utiliser des agents IA. Elles le font déjà — 1 200 apps non-officielles en moyenne dans votre entreprise.La question est de savoir si vous allez créer le cadre qui leur permet de le faire de manière sûre et efficace, ou si vous allez découvrir dans 18 mois que la moitié de vos agents n'ont jamais été monitorés.
Sources : Gravitee State of AI Agent Security 2026 · Microsoft Secure Agentic AI (mars 2026) · Gartner · McKinsey Trust in the Age of Agents · Stellar Cyber · EY Cybersecurity 2026