Basé sur le cahier « Big Data & AI Insiders — Agents IA : la révolution aura-t-elle lieu ? » publié en 2025 par le salon Big Data & AI Paris (RX France).

Une promesse technologique en quête de maturité

En 2025, le mot « agent » ne désigne plus un salarié, mais un logiciel. L’agent IA incarne une nouvelle frontière : un programme autonome capable de raisonner, de déclencher des actions sans intervention humaine, et d’interagir avec d’autres agents dans un système distribué. L’idée fascine, suscite des projections vertigineuses — mais interroge.

Gartner prévoit que 15 % des décisions dans l’entreprise seront prises par des agents d’ici 2028. Goldman Sachs évoque 300 millions d’emplois potentiellement touchés. Et PwC annonce un gain de 15,7 trillions de dollars à l’échelle mondiale. Pourtant, ces chiffres relèvent encore du scénario. Le rapport Big Data & AI Insiders (2025) appelle à la nuance : « La révolution aura-t-elle lieu ? À chacun de se forger une opinion, à la lumière des perspectives que nous vous proposons d’explorer ici. »

Assistants, copilotes, agents : clarifier les rôles

L’agent IA ne doit pas être confondu avec un simple assistant conversationnel. Contrairement aux copilotes (comme Copilot, Gemini ou Claude), l’agent prend l’initiative, agit de manière autonome, et peut interagir avec des systèmes d’information pour exécuter des tâches. Le cahier évoque des exemples concrets : un agent qui identifie une panne produit signalée par un client et commande directement la pièce dans le système informatique.

Ce changement de paradigme repose sur une architecture complexe : LLM, système de mémoire, moteurs de raisonnement et capacité à exécuter des actions dans des systèmes tiers. On passe de l’IA générative à l’IA agentique, c’est-à-dire de la génération de contenus à la génération de décisions et d’actes.

Entre scepticisme et stratégie de long terme

Mais le terrain reste incertain. Stéphane Bout (McKinsey) rappelle : « 90 % des projets IA en 2024 ne dépassaient pas le stade de l’expérimentation. » Les entreprises, échaudées par des PoC sans ROI clair, avancent avec prudence. Chadi Hantouche (Wavestone) renchérit : « C’est une transformation globale des modes de travail qui s’engage. »

Certaines industries (finance, énergie, aéronautique) se montrent plus réticentes, du fait des risques réglementaires ou des besoins de prédictibilité. D’autres, plus tolérantes aux erreurs (retail, marketing, support client), s’y engagent à tâtons. Le premier enjeu reste celui de la gouvernance : qui pilote, qui supervise, qui valide les décisions prises par un système autonome ?

Les systèmes multi-agents, nouvelle frontière organisationnelle

Le futur n’est pas fait d’un seul agent, mais d’un réseau interconnecté. Dans un système multi-agents, chaque unité spécialisée dialogue avec ses voisines via des LLM, se transmet des instructions, et déclenche en chaîne des microtâches jusqu’à obtention d’un résultat. Cette orchestration algorithmique préfigure des organisations plus fluides — mais aussi plus opaques.

La supervision devient centrale. Certains parlent de « super-agents » ou d’« agents orchestrateurs », capables de surveiller, d’arbitrer et d’interrompre des chaînes d’action. L’architecture s’inspire de la logique « human-on-the-loop » : maintenir l’humain comme acteur de dernier recours. Une conception prudente, héritée des leçons de l’IA générative.

Interopérabilité et souveraineté : les conditions de la scalabilité

Le marché s’organise autour de standards ouverts. En novembre 2024, Anthropic propose le protocole MCP pour connecter agents et systèmes d’entreprise. En avril 2025, Google lance A2A pour faire dialoguer agents entre eux. Ces initiatives ont reçu le soutien d’acteurs majeurs (OpenAI, Microsoft, SAP, Salesforce). L’enjeu : éviter une fragmentation du marché et permettre aux agents de s’adapter aux systèmes existants.

Mais cette interopérabilité soulève d’autres questions : qui gouverne ces standards ? Qui garantit leur sécurité, leur évolutivité, leur conformité aux réglementations européennes ? La tentation souveraine gagne du terrain. Des acteurs comme LightOn, Ionos ou Mistral défendent une IA hébergée en Europe, sur cloud privé, avec des garanties fortes en matière de confidentialité.

La question du coût et du modèle économique

L’agent IA n’est pas gratuit. Il implique des infrastructures puissantes, des modèles entraînés, des systèmes de supervision. Le passage à l’échelle se heurte à des coûts élevés. D’où une réflexion sur la facturation : par usage ? par performance ? par impact business ? Aucun consensus ne se dégage.

Le risque d’effet rebond est réel. Comme l’explique Big Data & AI Insiders, « le caractère autonome des agents ajoute une dimension opaque dans la consommation de ressources. » Des mécanismes de monitoring et d’optimisation s’imposent pour éviter les dérives, notamment en contexte multi-agents.

L’épreuve de la réalité : cas d’usage et échecs instructifs

Certains cas d’usage apparaissent : onboarding RH, campagnes marketing, détection de fraudes, génération de synthèses réglementaires. Mais les mises en production à grande échelle sont rares. L’exemple de Klarna est révélateur : en remplaçant une partie de son service client par des agents, l’entreprise a vu ses délais de réponse s’améliorer… mais la satisfaction client s’effondrer. Deux ans plus tard, retour partiel à l’humain.

Cet échec souligne un point clé : l’IA générative n’est pas toujours prête à être substitutive. L’agentique, elle, l’est peut-être… mais son adoption dépendra de sa pertinence réelle dans les process métiers.

Une entreprise agent-driven implique une révolution RH

L’arrivée des agents bouleverse la structure organisationnelle. Quelle place pour un agent jumeau d’un collaborateur ? Faut-il créer des binômes IT/métiers, comme au temps du Big Data ? Comment évaluer les performances d’un agent ? Qui est responsable en cas d’erreur ? Autant de questions sans réponse, mais qui préfigurent de nouveaux rôles, de nouvelles grilles d’évaluation, et probablement une refonte de certaines fonctions support.

Reuters estimait en 2024 que 70 % des effectifs nécessitaient un « upskilling » pour rester compétitifs face aux technologies IA. La formation devient un enjeu stratégique, autant que l’adoption. Et le marché, en retour, valorise les interfaces no code/low code, pour permettre aux métiers de concevoir leurs propres agents avec peu d’expertise technique.

Les défis éthiques et sociétaux en embuscade

Derrière la technicité se cache un débat plus large : quel monde du travail voulons-nous bâtir ? L’agent IA, en déléguant la charge cognitive, allège l’humain. Mais à quel prix ? Perte de sens ? Obsolescence des savoir-faire ? Remise en cause de l’autonomie professionnelle ? Le rapport évoque un paradoxe inquiétant : et si, demain, les agents eux-mêmes devenaient obsolètes ?

La DBS Bank à Singapour a supprimé 4 000 postes en 2025 en intégrant des agents. Une décision controversée, même si l’entreprise annonce la création de 1 000 emplois nouveaux. L’Europe, plus prudente, observe. Mais les signaux s’accumulent. La disruption promise est profonde.

Une révolution, oui, mais conditionnée à la valeur

L’article de clôture du cahier Insiders conclut sans ambages : « Oui, la révolution aura lieu. » Mais il en nuance immédiatement la portée : la vitesse, l’intensité et l’acceptation dépendront de la capacité des entreprises à créer de la valeur. L’agent IA ne s’impose pas par sa technologie, mais par l’utilité perçue. L’acculturation, la gouvernance, la confiance, la souveraineté : voilà les véritables leviers.

Les premiers signaux faibles seront décisifs. Ils diront si les agents tiennent leurs promesses ou s’enferment dans les mêmes impasses que l’IA générative : PoC sans suite, outils sans adoption, hype sans stratégie. La lucidité devient alors la meilleure boussole. Lucidité stratégique, technologique, humaine.