Un chiffre qui impose une clarification

McKinsey revendique « 60 000 employés », dont « 25 000 agents IA ». Cette formulation, rapportée par LeMagIT (étude : « McKinsey: 60 000 employés, dont 25 000 agents IA »), ne décrit pas seulement une adoption technologique. Elle met en scène un changement d’échelle et de statut de l’IA dans l’organisation. Parler d’« agents » comme d’un segment d’« employés » revient à déplacer l’IA du registre de l’outil vers celui de l’effectif. Cela implique un pilotage, une responsabilité, une gouvernance. La question centrale est structurante. S’agit-il d’une métaphore destinée à frapper les esprits ? Ou d’une nouvelle manière de comptabiliser des capacités de production numériques qui, une fois industrialisées, prennent une place comparable à une force de travail ?

La fin du mythe de l’agent totalement autonome

L’article insiste sur un point rarement assumé aussi frontalement : les agents « 100 % autonomes » capables de dérouler un processus complet sans supervision restent, dans la plupart des cas, une promesse plus qu’une réalité opérationnelle. L’exemple cité est révélateur : un workflow de traitement de commandes combinant LLM et agent atteindrait 99,2 % d’exactitude. Ce niveau demeure insuffisant dès lors que 0,8 % d’erreurs se traduisent par des pertes directes, des incidents clients, ou des dysfonctionnements de chaîne. Autrement dit, une performance moyenne peut être impressionnante tout en restant non déployable lorsque la tolérance à l’erreur est proche de zéro. Cela oblige à réintroduire l’humain dans la boucle. Non pas comme une rustine. Comme une condition de fonctionnement.

Des gains réels, mais volontairement sobres

McKinsey avance des gains de productivité de l’ordre de 20 à 30 % sur ses projets. Ce chiffre tranche avec les promesses spectaculaires qui entourent souvent l’agentique. Ce cadrage, rapporté par LeMagIT, mérite d’être retenu car il réoriente l’analyse vers les bons débats. Où se situent les processus pour lesquels +30 % change réellement la compétitivité ? Où ce gain reste marginal ? Quels coûts cachés absorbent une partie de la valeur : contrôle qualité, intégration SI, cybersécurité, mise en conformité, conduite du changement, formation, gestion d’incidents ? Enfin, quelle part de la « productivité » mesurée correspond à une réduction de délai, et quelle part correspond à un déplacement des tâches, de la production automatisée vers la validation humaine ?

Trois zones d’industrialisation : connaissance, go-to-market, IT

L’étude citée structure les usages autour de trois terrains : le knowledge management (recherche interne, juridique, accès à la documentation), le marketing et les ventes (génération de campagnes, personnalisation), et l’IT, présentée comme la zone la plus « mûre ». Cette hiérarchie est cohérente. L’IT dispose déjà de pratiques standardisées, de métriques, de pipelines, de tests. C’est un environnement naturellement compatible avec l’automatisation contrôlée. Le knowledge management, lui, est propice au RAG mais sensible à la confidentialité, à l’obsolescence des sources et à l’attribution. Le marketing offre des gains rapides mais expose aux risques réputationnels et aux biais de segmentation.

Le « run » : absorber la L1 ne signifie pas résoudre la complexité

Dans le support, un service desk verrait 80 % des tickets passer par l’agent en niveau 1. Le chiffre impressionne. Il doit être interprété à l’aune de la structure réelle des demandes. Un ticket « traité » n’est pas nécessairement un ticket « résolu ». Le ROI dépend fortement de la part de demandes simples déjà peu coûteuses, versus la capacité à réduire les escalades vers des niveaux experts. L’étude rappelle d’ailleurs que, même dans ces configurations, les gains se stabilisent souvent autour de 20–30 %, car une proportion non négligeable de tickets nécessite encore des interventions humaines de niveaux supérieurs. Notamment lorsqu’il faut arbitrer, diagnostiquer un incident systémique, ou gérer des cas hors norme.

Le « build » : bascule vers un développement piloté par la spécification

Le passage le plus structurant concerne la production logicielle. L’étude décrit une approche « spec-driven ». La conception se fait dans un outil de design, puis les user stories sont générées et revues dans un outil de ticketing. Le cadrage est assuré par des architectes. Le code est ensuite généré dans un environnement de développement assisté, contrôlé par une couche de qualité automatisée, puis intégré via une chaîne CI/CD classique. L’intérêt n’est pas seulement l’accélération des cycles. Il réside dans l’inversion du centre de gravité : lorsque la génération de code devient abondante, la qualité se gagne en amont, dans la précision des exigences, des user stories et de l’architecture. Le texte indique même que, lorsque cela échoue, la correction se fait souvent sur la spécification plutôt que sur le code. Cette dynamique rapproche le métier de développeur de compétences historiquement associées aux product owners et aux architectes. Elle pose une question de fond sur la requalification des rôles.

« Agents employés » : une métaphore performative qui crée un sujet RH

Pourquoi insister sur le terme d’« employés » ? Parce que cela transforme une initiative technique en objet managérial. Si l’agent devient un « effectif », il appelle des pratiques d’allocation, d’évaluation, de contrôle, de gestion de cycle de vie. L’étude mentionne des usages internes, comme la préparation de briefs pour dirigeants, et même des processus RH tels que l’évaluation semestrielle des consultants. Un agent produirait un premier mémo et des préconisations, puis laisserait la décision finale à l’humain. Un associé évoquerait un gain de 50 à 60 % de son temps sur ces synthèses. Ce type de cas rend la question du biais, de l’équité et de la responsabilité immédiatement concrète : qui répond de l’exactitude des recommandations ? Quelle traçabilité des sources internes ? Quelles règles de confidentialité ? Quel risque de standardiser des jugements sur la base de données historiques ?

Gouvernance : responsabilité, réentraînement, et « porte de sortie » entre agents

L’étude pose des questions que beaucoup d’organisations reportent à plus tard : qui est responsable de la qualité des sorties ? Qui pilote l’évolution ? Qui décide du réentraînement ? Que se passe-t-il lorsqu’un agent se bloque dans une interaction avec un autre agent ? Quelle « porte de sortie » pour éviter qu’un workflow multi-agents dérive ou tourne en boucle ? Ces points ne relèvent pas d’une sophistication théorique. Ils déterminent la capacité à déployer durablement, à maîtriser le risque, à auditer, et à faire évoluer sans rupture. Ce sont des questions de gouvernance au sens strict, car elles exigent des rôles définis, des procédures, des seuils d’alerte et une doctrine d’escalade.

Observabilité : condition de la confiance, mais promesse difficile

McKinsey, via cette étude, insiste sur l’observabilité comme condition d’une confiance à grande échelle : comprendre ce qui a été fait, pourquoi, avec quelles sources, quelles versions, quelles décisions intermédiaires, et quels contrôles. Le texte souligne que ce travail est encore largement manuel, souvent appuyé sur des frameworks open source, en attendant des plateformes plus robustes. Ce point est crucial car il rappelle une vérité opérationnelle : l’agentique en production n’est pas d’abord un sujet de « prompt », mais un sujet d’ingénierie de systèmes. Sans journalisation, supervision, métriques de fiabilité, gestion d’incidents, et capacité d’audit, l’organisation accumule une dette invisible : des agents utiles à court terme, mais ingouvernables à moyen terme.

Déploiements critiques multi-agents : rares, mais stratégiques

Enfin, l’étude reconnaît que les déploiements critiques à grande échelle restent rares, même si un exemple apparaît : une banque modernisant du COBOL avec une centaine d’agents qui interagissent. Ce type de cas est un signal. Il place l’agentique sur des chantiers lourds, où la rénovation du legacy et l’accélération de la transformation deviennent des enjeux stratégiques. Il suggère aussi un futur proche où la question ne sera plus « faut-il des agents ? » mais « comment éviter que des agents se multiplient sans contrôle, sans cohérence, et sans capacité d’audit ».

Ce que cette annonce impose aux dirigeants

Dire « 25 000 agents » n’est pas anodin. Cela pousse à définir ce qu’est un agent dans l’entreprise. Cela oblige aussi à distinguer les processus où 99 % suffit de ceux où l’exigence est quasi totale. Il faut ensuite formaliser le design de supervision humaine et investir dans l’observabilité. Enfin, il devient nécessaire d’organiser le cycle de vie : versions, réentraînement, retrait, responsabilité. À ce stade, l’annonce de McKinsey fonctionne comme un miroir : elle révèle moins une révolution automatique qu’un besoin pressant de méthode. L’agentique devient un nouvel âge de l’organisation, où la performance dépend autant de la génération que du contrôle.