En moins de deux ans, BPCE est passé d’une posture de contrôle défensif à une logique d’industrialisation graduelle de l’IA générative, arrimée à son plan stratégique Vision 2030. L’enjeu n’est pas seulement technologique. Il est organisationnel, social, réglementaire et, surtout, économique. Le groupe revendique une adoption massive des assistants, tout en gardant une prudence marquée sur l’IA « agentique », jugée encore trop immature pour des déploiements à grande échelle.

Cette trajectoire éclaire une question centrale pour le secteur bancaire européen : comment capter des gains rapides de productivité sans dégrader la qualité de service, la conformité, ni la maîtrise des dépendances technologiques ?

Trois convictions structurantes : humain, qualité d’usage, sélection

BPCE résume sa doctrine autour de trois convictions : l’humain d’abord (appropriation maximale), la qualité des usages comme source de valeur (efficacité et valeur économique), et la sélection (prioriser des cas d’usage) plutôt qu’un déploiement indifférencié.

Ce triptyque est révélateur. Il place la conduite du changement au même niveau que l’infrastructure. Il introduit aussi une logique de portefeuille : on ne « fait pas de l’IA », on choisit des produits d’IA, avec des utilisateurs cibles, des parcours, des métriques, et un horizon de rentabilité.

« IA pour tous » : MAiA comme plateforme, pas comme simple chatbot

Le programme « l’IA pour tous » s’incarne dans MAiA, présenté comme un « Secure GPT » interne lancé en 2023. L’outil devient une plateforme : bibliothèques de prompts, assistants personnalisés, modules d’acculturation et de formation. BPCE indique avoir formé ou acculturé environ 45 000 collaborateurs, et atteindre désormais l’objectif d’adoption (50 % fin 2026) avec un an d’avance.

Point stratégique : MAiA n’est pas un produit isolé, mais un hub qui structure la standardisation des pratiques (prompts, garde-fous, réutilisation) et la diffusion des compétences. Cela réduit le risque d’une IA « fantôme » (shadow AI) et favorise une gouvernance outillée plutôt que déclarative.

Question critique : comment BPCE mesure-t-il la qualité des prompts et des réponses (exactitude, conformité, biais), au-delà des volumes d’usage ?

Une architecture « multi-modèles » et « multi-cloud », sous contrainte de souveraineté

Sur le plan technique, BPCE met à disposition plusieurs modèles (OpenAI, Anthropic, Mistral AI, Google Gemini) via des environnements cloud « sécurisés » (Microsoft Azure et Google Cloud). Pour les données les plus sensibles, le groupe évoque aussi une capacité interne d’exécution de modèles, avec une « petite ferme » d’environ 40 GPU dans ses data centers, et une base de données vectorielle déployée en interne pour les documents confidentiels.

Cette combinaison dessine une stratégie de compromis :

  • Performance et vitesse via des modèles leaders accessibles en cloud, mais sous tenants contrôlés.
  • Confidentialité via exécution interne sur périmètres critiques.
  • Réversibilité par diversification des fournisseurs et « sélection » des partenaires.

La tension sur la souveraineté apparaît aussi dans l’écosystème data : BPCE décrit la nécessité de maîtriser des dépendances, notamment vis-à-vis d’acteurs américains, ce qui pousse à des architectures « duales ».
En toile de fond, les attentes des superviseurs sur l’externalisation cloud se renforcent (gestion du risque, gouvernance, continuité, concentration).

« IA transformante » : cinq domaines, une promesse de ROI, des métriques

À côté de l’outillage généraliste, BPCE structure un programme « IA transformante » qui priorise cinq domaines : IA au service du conseiller, centres de contact, simplification de l’expérience numérique, lutte contre la fraude, IA pour les métiers IT.

Le point le plus saillant est la logique de rentabilité : « pour un euro investi, un euro de gain » sur un horizon court, avec des métriques mises en place, sans communiquer les montants investis.
Cela traduit une approche de capital allocation : l’IA est traitée comme un portefeuille d’investissements, arbitrés au rendement observé.

Question critique : quelles métriques dominent réellement l’arbitrage ? Gains de temps, baisse des coûts, hausse de PNB, réduction du risque, satisfaction client, ou diminution des irritants internes ?

Le conseiller augmenté : documentation, éligibilité, compte rendu, opportunités

BPCE indique que 75 % des conseillers utilisent l’IA. Les usages décrits couvrent les trois temps de la relation : préparation (connaissance client, accès à la documentation), assistance en rendez-vous (éligibilité produit, fiabilité de la réponse), puis post-rendez-vous (compte rendu, restructuration, identification d’opportunités commerciales).

Le bénéfice attendu est double : plus de proactivité et plus de temps utile auprès du client. Mais cet axe est aussi le plus sensible : l’IA touche à la recommandation, donc au risque de mauvaise information, et à la traçabilité de la décision.

Ici, les cadres de gestion du risque IA deviennent structurants (analyse de risques, mesures d’atténuation, gouvernance tout au long du cycle de vie), en cohérence avec l’AI Act pour les cas à haut risque et avec les référentiels de confiance (ex. NIST AI RMF).

Centres de relation client : voicebots et synthèses, avec contrôle humain

Dans les CRC, BPCE décrit sept cas d’usage majeurs, dont des voicebots ayant traité un million d’appels sur douze millions, et des dispositifs de synthèse automatique des échanges.
Pour l’assurance, après dix mois en production, 85 % des synthèses seraient validées sans modification, avec une baisse de 10 % du temps moyen de traitement.

La donnée intéressante n’est pas seulement la productivité. C’est le niveau d’acceptation opérationnelle : la validation « sans modification » est un proxy de confiance, mais elle peut masquer un risque d’automatisation de la complaisance si les équipes relisent moins attentivement à mesure que l’outil semble « bien marcher ».

Question critique : comment BPCE évite-t-il l’érosion du contrôle (automation bias) quand la pression sur les temps de traitement augmente ?

L’expérience digitale : un assistant client, déjà à l’échelle

Côté client, BPCE intègre l’IA générative dans les applications mobiles Banque Populaire et Caisse d’Épargne pour répondre aux questions en renvoyant vers la documentation pertinente. Le groupe revendique plus d’un million de clients utilisateurs, avec un déploiement progressif vers les clients professionnels.

Ce choix produit est prudent : l’assistant est cadré par la documentation, ce qui limite les hallucinations et renforce l’auditabilité. Il s’apparente à une stratégie « RAG-first » (recherche augmentée) plutôt qu’à un agent conversationnel libre.

Natixis CIB : le RAG comme brique de décision, sous surveillance renforcée

Dans la banque d’affaires, l’assistant GeorgIA (Natixis CIB) est présenté comme propulsé par un mécanisme RAG, initialement pour explorer des documents volumineux (internes et externes) et réaliser des analyses macroéconomiques. L’outil est aussi utilisé pour produire des mémos de crédit servant de base à des décisions de financement sur des montants très élevés.

Cela change la nature du risque : on passe d’un gain de productivité « bureautique » à un support direct à la décision. Dans ce contexte, les exigences de surveillance, d’explicabilité et de responsabilité managériale dans les services financiers deviennent déterminantes.

Question critique : quel est le statut exact du mémo produit (brouillon, recommandation, analyse), et quel niveau de traçabilité relie chaque assertion aux sources ?

IT et développeurs : un choix open source pour limiter l’intrusion

BPCE équipe aussi ses développeurs : environ 1 500 auraient accès à une assistance au code intégrée à l’IDE, basée sur un fork de l’open source Continue, après des tests d’outils jugés « intrusifs ». L’ambition affichée est de déployer auprès de l’ensemble des développeurs du groupe.

Ce point se relie à la culture open source décrite côté data, et à la recherche d’un meilleur contrôle des chaînes techniques. Dans la banque, l’assistant de code est un accélérateur, mais aussi un nouveau vecteur de risque (fuites de code, licences, vulnérabilités). La stratégie « fork + contrôle » est cohérente avec une posture de maîtrise.

Le socle data : un problème d’échelle… traité par les communautés, pas par le top-down

L’article sur l’écosystème data est, en réalité, le miroir organisationnel de la stratégie IA. BPCE se décrit comme une mosaïque d’entités, d’ADN et de SI : on-prem historique, cloud public, pratiques variées, et une complexité accrue par la contrainte de souveraineté.

Face à cela, BPCE écarte une gouvernance centralisée « directrice ». Le choix est « bottom-up » : des communautés transverses pour diffuser standards et bonnes pratiques de manière scalable. La « Big Data Community » créée en 2017 est la première brique, avec un modèle économique de plateforme où chaque participant paie la même quote-part et dispose du même droit de parole sur les évolutions.

Le dispositif s’étend ensuite à des communautés cloud (GCP), architecture data, outils (Power BI, Dataiku), avec des logiques de certification et de relais internes : la mission bascule du support vers l’« empowerment ».
Et pour éviter l’entre-soi, BPCE s’ouvre à des communautés externes (Google Cloud Customer Community) et à l’open source, notamment via TOSIT.

Question critique : comment BPCE arbitre-t-il entre la liberté locale (qui favorise l’adoption) et la standardisation (qui réduit les risques) quand l’IA touche aux décisions et à la conformité ?

Agents IA : un horizon assumé, mais « quelques mois d’expérimentation » d’abord

BPCE prépare l’agentique, mais avec prudence. Les agents IA sont décrits comme « au mieux en développement ou en R&D ». Oney testerait une expérience d’IA agentique sur le parcours de financement, tandis que le groupe explore aussi des opérations de back-office et des contrôles internes, en se donnant quelques mois d’expérimentation avant passage à l’échelle, le temps de mettre en place les procédures de sécurité et de vérifier la robustesse.

Cette prudence est rationnelle : l’agentique augmente la surface de risque (actions autonomes, erreurs en chaîne, sécurité, audit), et appelle des mécanismes de contrôle plus proches de l’ingénierie de systèmes critiques que du simple déploiement d’un assistant.

Dimension sociale : un cadre GEPP intégrant l’IA

Enfin, BPCE inscrit l’IA dans le dialogue social via un accord GEPP intégrant un volet sur l’intelligence artificielle, signé en juillet 2025. Le discours RH associé insiste sur une IA qui assiste et ne remplace pas, en « ôtant les irritants » pour remettre le collaborateur au cœur de son métier.

L’enjeu, ici, est la crédibilité : l’acceptation durable dépendra de la capacité à prouver que les gains de productivité se traduisent en qualité de travail, en compétences, et en trajectoires professionnelles, pas seulement en compression de coûts.

Ce que la stratégie BPCE révèle du futur proche de la banque européenne

BPCE trace une voie pragmatique, structurée, et assez représentative d’une banque européenne sous contraintes : adoption rapide, architecture multi-modèles, pilotage ROI, industrialisation par domaines, et gouvernance socio-technique via des communautés.
Mais le passage du mode « assistant » au mode « agent » sera un changement de nature. Il exigera une rigueur renforcée : gestion des risques tout au long du cycle de vie, responsabilité explicite, auditabilité, et maîtrise de l’externalisation cloud.

Sources:

https://www.lemagit.fr/etude/Adoption-de-lIA-generative-BPCE-fait-un-gros-point-detape

https://www.lemagit.fr/etude/BPCE-federe-un-ecosysteme-Data-complexe