Le constat est désormais partagé par les directions data, les métiers et les éditeurs : l’ère de l’accumulation massive est révolue. Dans les systèmes d’IA, la donnée brute n’a plus de valeur en soi. Elle doit être structurée, qualifiée, gouvernée, située dans un contexte d’usage précis. Deux lectures convergentes le démontrent : le livre blanc de DQE sur la Data Quality appliquée à l’IA et l’article du CIO Online intitulé « En matière d’IA, toutes les données ne se valent pas » (source).

Ce croisement éclaire une mutation en cours : l’IA ne valorise pas toutes les données. Elle sélectionne, hiérarchise, fragilise, et expose les incohérences des architectures invisibles.

Du volume à la valeur : sortir du mythe du « plus, c’est mieux »

Le fantasme data-driven a longtemps reposé sur l’idée qu’il fallait tout stocker, tout garder, « au cas où ». Cette croyance se heurte aujourd’hui à un principe opérationnel : ce n’est pas le volume qui crée la valeur, mais la capacité à identifier les données dignes de confiance.

Dans le livre blanc de DQE, la démonstration est clinique. Lorsque la donnée client est instable, les modèles peinent à produire une recommandation fiable. Lorsque la donnée est fragmentée entre canaux, la personnalisation devient approximative. Lorsque les doublons prolifèrent, les indicateurs perdent leur sens. Résultat : des projets IA qui échouent, des POC qui stagnent, et des promesses technologiques qui ne franchissent jamais le cap industriel.

CIO Online confirme ce virage. Le moment génératif est là. Les modèles sont prêts. Mais l’essentiel reste à faire : « trier, nettoyer, fiabiliser, gouverner ». Toutes les données ne sont pas faites pour entraîner un modèle. Toutes ne sont pas légitimes à circuler dans une organisation automatisée.

Fiabilité, fraîcheur, légitimité : une nouvelle hiérarchie des données

Les cas pratiques exposés par DQE révèlent une hiérarchie implicite. La donnée d’identité (le « golden record ») surplombe toutes les autres : sans rattachement fiable, il n’y a ni personnalisation, ni analyse cohérente des comportements. L’erreur d’identification contamine toute la chaîne.

Viennent ensuite les transactions (contrats, paiements), les signaux comportementaux (navigation, clics), et les verbatims non structurés (tickets, appels, commentaires). Plus on s’éloigne du noyau, plus la donnée devient instable, bruitée, contextuelle. Ce n’est pas qu’elle soit inutile. C’est qu’elle exige des mécanismes de vérification, de contextualisation, de responsabilité algorithmique.

C’est ici que le croisement avec CIO Online devient fécond : la valeur d’une donnée dépend moins de son exactitude brute que de sa capacité à être utilisée à bon escient. Sa pertinence est fonction de l’usage, du moment, de l’utilisateur… ou de l’agent IA.

Agents IA et gouvernance renforcée : les permissions humaines ne suffisent plus

L’article CIO introduit un point rarement abordé. Le risque s’amplifie lorsque ce ne sont plus des humains qui accèdent aux données, mais des agents automatisés. L’agent IA ne lit pas comme nous : il traite massivement, rapidement, sans contexte émotionnel ni discernement implicite.

Cela impose une transformation profonde de la gouvernance. Les permissions « humaines » ne garantissent plus la sécurité ni la conformité. Il faut concevoir des couches de contrôle adaptées à un usage machine. Cela signifie : périmètres restreints, traçabilité exhaustive, limites explicites d’accès, auditabilité.

Chez BPCE, on anticipe cette dérive en bloquant les erreurs dès le point de saisie. La logique est préventive : si l’email est mal orthographié, il ne doit pas entrer dans le système. À l’opposé, Baccarat accepte une friction minimale en boutique, mais centralise ensuite la correction et la fiabilisation. Deux modèles, une même exigence : rendre la donnée digne d’usage.

Du POC à l’industrialisation : l’IA ne compense pas les fondations bancales

Plusieurs cas analysés dans le livre blanc montrent que la performance IA ne peut pas compenser des failles systémiques. Chez ByMyCar, les données clients sont réparties sur six ERP, neuf CRM. La consolidation dans Salesforce, combinée à une solution de dédoublonnage et d’enrichissement, permet enfin de fiabiliser les parcours. Mais tant que la donnée est instable, le modèle génératif n’a rien de solide à exploiter.

Même constat chez Pledg, fintech spécialisée dans le paiement fractionné : le scoring se joue en une seconde. La fiabilité en temps réel devient une condition de survie. L’IA n’est pas une surcouche. C’est un organe vital. Mais il ne fonctionne que si les signaux entrants sont cohérents, frais, traçables.

Sélectionner, contractualiser, monitorer : une stratégie en trois actes

La réflexion croisée conduit à une recommandation structurante : penser l’usage des données à travers une chaîne de valeur contractuelle.

  1. Sélectionner : définir les périmètres utiles, et exclure les données redondantes, suspectes ou instables.
  2. Contractualiser : formaliser les exigences de qualité (fraîcheur, complétude, traçabilité) en fonction des usages et des modèles associés.
  3. Monitorer : suivre la dérive dans le temps, car toute donnée propre devient obsolète si elle n’est pas entretenue.

La « qualité » cesse d’être une propriété figée. Elle devient un état dynamique, piloté, mesuré, corrélé à une intention d’usage. Cette approche transforme l’IA en levier opérationnel, mais surtout en facteur de crédibilité.

Vers une IA crédible : explicabilité, frugalité, souveraineté

La question centrale, à terme, n’est pas de savoir si l’IA fonctionne. C’est de savoir si on peut lui faire confiance. Le livre blanc cite à juste titre les freins évoqués par L’Oréal, le Crédit Agricole, Cosmo Tech ou France Travail. Trop de projets IA restent en périphérie car les données centrales sont mal gouvernées, ou juridiquement floues.

Dans ce contexte, la souveraineté numérique redevient un levier stratégique. L’enjeu n’est pas de refuser le cloud ou les grands modèles. Il est de comprendre ce qui mérite d’être automatisé, et dans quelles conditions techniques, économiques et éthiques.