Revolution Summit, mai 2025

Sur la scène du Revolution Summit 2025, Stephan Hadinger, Directeur et Head of Technology chez AWS, a ouvert une session stratégique posant une question fondamentale : « L’IA est-elle un outil de productivité ou un moteur d’innovation ? » Une interrogation qui résonne fortement dans les écosystèmes numériques où l’IA générative s’impose comme le catalyseur d’une transformation à double détente : opérationnelle et créative.

Fort de ses treize années au sein d’AWS, Hadinger livre une vision évolutive des usages. Entre startups pionnières, French Tech en pleine maturité et grands comptes du CAC 40, ils tous confrontés à la nécessité d’innover vite, fort… et en sécurité.

La genèse d’AWS : de l’agilité interne à une plateforme mondiale d’innovation

Amazon Web Services (AWS) est né d’un impératif interne : rendre les équipes d’Amazon plus agiles. Cette quête d’agilité, de test-and-learn et d’expérimentation structure encore aujourd’hui l’ADN du cloud AWS, devenu un outil d’innovation partagé par plus de 100 000 clients IA dans le monde.

AWS, ce n’est pas qu’une infrastructure. C’est une architecture pensée en trois niveaux : infrastructure matérielle (data centers, puces), outils de développement (Amazon Bedrock, Amazon SageMaker) et services prêts à l’emploi (Amazon Q, Amazon Q Developer). Une structure modulaire qui permet de répondre à des usages variés, du prototype au déploiement à l’échelle.

Infrastructure et durabilité : des puces ARM au service de l’IA verte

AWS investit dans ses propres processeurs depuis plusieurs années. Graviton (ARM) et Trainium/Premium2 offrent des gains significatifs : +60 % de vitesse et -40 % de coûts (source : Anthropic). Ces puces conçues en interne permettent à AWS de proposer une IA plus verte, plus rapide et plus économique — une combinaison essentielle face à la consommation énergétique exponentielle de l’IA générative.

Cette efficacité se double d’un modèle ouvert. AWS n’impose pas un seul modèle propriétaire, mais propose une marketplace multi-LLM : Mistral, Anthropic (Claude), Meta, Cohere, et d’autres. Une posture de « grossiste » qui garantit liberté de choix et portabilité.

La data comme condition sine qua non de l’IA générative

« No data, no AI. Bad data, bad AI. » Cette maxime, citée par Hadinger, rappelle une vérité structurelle : l’IA générative ne peut fonctionner qu’avec des données connectées, contextualisées et de qualité.

À travers des cas concrets, AWS démontre que les projets d’IA sont avant tout des projets de transformation de la donnée. L’exemple de Safran, accompagné par Onepoint, illustre cette complexité : un même montant de commande peut apparaître différemment selon les visions métiers. L’IA ne corrige pas les données, elle en hérite. Il faut donc travailler en profondeur sur les politiques de gouvernance et les modèles de vérité.

Sécurité et souveraineté : un enjeu non négociable

Chez AWS, la sécurité est le design principal n° 1. Animée chaque vendredi par le CEO mondial d’AWS, la revue sécurité est un rituel stratégique. Le cloud AWS est le premier à avoir obtenu la certification ISO/IEC 42001 dédiée à l’IA générative. Une reconnaissance qui vise à rassurer les entreprises européennes sur la conformité, la transparence et la protection des données.

Cas d’usage : quand l’IA devient une force de production invisible

Deux cas clients illustrent la dimension productive de l’IA générative :

  • Veolia avec son assistant CGPP, utilisé par plus de 53 000 collaborateurs. L’objectif ? Éviter le shadow IT en offrant une alternative sécurisée et encadrée à ChatGPT. Coût par utilisateur : moins de 1,80 €/mois. Résultat : ROI évident, adoption massive, sécurité assurée.
  • Fox Intelligence (Nielsen IQ) : à partir de mails de commandes e-commerce, leur IA lit, extrait et structure des données à grande échelle. Passage de 100 000 à 1 million de mails analysés par jour, tout en ouvrant 14 nouveaux pays grâce à la compréhension multilingue du modèle Mistral.

Dans ces deux cas, l’IA n’est pas visible, mais elle opère en profondeur. Invisible, mais déterminante.

 Agents, protocoles et architecture multi-modèles : cap sur l’IA atlantique

Une révolution s’amorce : celle des IA agents. AWS parie sur l’interopérabilité grâce au protocole MCP (Model Capability Protocol), développé par Anthropic et déjà adopté par OpenAI, Google et AWS. Ce protocole permet à un agent IA de découvrir, comprendre et utiliser les API des applications métiers.

L’étape suivante : les systèmes multi-agents. L’architecture repose sur un modèle central (superviseur) qui délègue des tâches unitaires à des agents spécialisés. Objectif : éviter les coûts exorbitants liés à l’usage d’un seul LLM pour des tâches simples, et fluidifier des workflows adaptatifs.

Un nouveau paradigme se dessine : après les agents déterministes (workflows codés en dur), puis autonomes (agents capables de s’adapter), on se dirige vers des systèmes mimant une équipe complète, avec coordination, spécialisation, et auto-ajustement.

Vers l’innovation de rupture : l’appel de Stephan Hadinger aux décideurs

Dans un moment fort de la conférence, Hadinger interpelle les entreprises : « En quoi l’IA générative vous permet-elle de créer des services que vous ne pouviez pas imaginer avant ? » Peu de mains se lèvent. Preuve qu’il reste du chemin à faire. Il cite un exemple marquant : le résumé automatique des avis clients sur Amazon.fr. Ce service, à coût quasi nul, a un impact majeur sur les taux de conversion. La valeur n’est pas dans la technologie brute, mais dans son intégration subtile à l’expérience client.

Projections 2028 : l’autonomie de l’IA en ligne de mire

Selon Gartner, d’ici 2028 :

  • 33 % des applications logicielles d’entreprise intégreront de l’IA.
  • 15 % des décisions quotidiennes au travail seront prises de manière autonome par des systèmes IA.

Pour AWS, 2025 est une année pivot. Il ne s’agit plus de prouver que l’IA fonctionne, mais de créer des produits, des services et des modèles d’affaires fondés sur elle.

Un double agenda à enclencher d’urgence

La conférence d’AWS au Revolution Summit 2025 n’a laissé aucune ambiguïté : la productivité et l’innovation ne sont pas deux finalités antagonistes de l’IA, mais deux leviers à activer simultanément. À court terme, les gains d’efficacité individuelle sont indéniables. À moyen terme, les entreprises qui n’investissent pas dans l’innovation produit, risquent de se retrouver hors-jeu.

Le message est clair : 2025 est l’année pour démarrer sérieusement. Tester, itérer, industrialiser, mais surtout… innover.