Antonella Serine (KLA Digital), une promesse technologique sous tension
L’intelligence artificielle automatise, accélère, optimise les processus, parfois à une vitesse qui dépasse la capacité humaine d’analyse. Mais derrière cette promesse se dessine une inquiétude croissante : comment garder le contrôle sur des systèmes capables de prendre des décisions, parfois sans intervention humaine ? Dans les secteurs régulés, cette question n’est plus théorique. Elle devient opérationnelle, juridique et stratégique. C’est dans cet espace critique que s’inscrit le travail d’Antonella Serine, fondatrice de KLA Digital. Son ambition est claire : permettre aux entreprises d’utiliser l’IA à grande échelle sans perdre la maîtrise de ce qu’elle fait ni la capacité de le prouver.
Un parcours au cœur des systèmes complexes
Le positionnement de KLA Digital ne relève pas d’une intuition abstraite, mais d’un parcours construit au contact de la complexité organisationnelle. Chez Accenture, Antonella Serine a participé à la structuration de projets technologiques pour de grandes entreprises européennes. Elle y a découvert que la réussite d’un projet dépend moins de la technologie elle-même que de sa capacité à s’intégrer dans des processus existants, souvent contraints. Elle poursuit chez BNP Paribas Cardiff, dans un environnement fortement régulé, où elle travaille sur des enjeux de transformation digitale. Cette expérience révèle un écart majeur entre ambition et réalité : une transformation ne devient tangible que si elle est contrôlable, mesurable et conforme. Enfin, son passage au gouvernement de Buenos Aires, où elle gère le budget du ministère de l’Éducation, renforce cette exigence de responsabilité. Chaque décision doit être expliquée, chaque action doit pouvoir être justifiée. De ces expériences émerge une conviction structurante : dans les organisations complexes, la technologie ne vaut que si elle est mesurable, explicable et contrôlable.
L’angle mort de l’IA en entreprise
Depuis deux ans, les entreprises expérimentent massivement les agents IA, capables d’enchaîner des tâches, d’analyser des données et de prendre des décisions simples. Pourtant, un angle mort persiste. Les entreprises savent déployer des modèles et automatiser des processus, mais elles savent beaucoup moins superviser ce que fait réellement l’IA, en continu. Ce manque de visibilité entraîne des risques concrets : décisions non contrôlées, erreurs difficiles à détecter, absence de preuves en cas d’audit, responsabilité floue. Dans un contexte marqué par l’entrée en vigueur du EU AI Act, cette fragilité devient critique. Désormais, il ne suffit plus d’utiliser l’IA, il faut être capable de démontrer comment elle fonctionne, à tout moment.
KLA Digital : une couche de gouvernance en temps réel
KLA Digital se positionne comme une réponse à ce déficit de gouvernance. La plateforme n’est pas une intelligence artificielle supplémentaire, mais une couche de contrôle qui s’intègre au-dessus des systèmes existants. Elle permet à l’IA d’opérer tout en rendant ses actions visibles, contrôlables et traçables. Cette approche repose sur une logique simple : ne pas freiner l’automatisation, mais l’encadrer pour la rendre exploitable dans des environnements exigeants.
Encadrer l’action : des points de contrôle intégrés
La première fonction consiste à encadrer l’action des agents IA. La plateforme introduit des points de contrôle directement dans les processus automatisés. À certains moments clés, une validation humaine est requise, notamment lorsque le niveau de risque augmente. Ce mécanisme permet d’ajuster le degré d’autonomie de l’IA. Une tâche simple peut être entièrement automatisée, tandis qu’une décision sensible nécessite une intervention humaine. Ce modèle hybride repose sur une idée centrale : l’automatisation ne doit pas être totale, mais progressive et maîtrisée.
Observer en continu : mesurer au-delà des résultats
La deuxième fonction concerne la supervision en temps réel. KLA Digital ne se limite pas à mesurer les résultats finaux, mais observe également les anomalies, les écarts et les situations à risque. Les « quasi-erreurs », souvent invisibles, deviennent des indicateurs précieux pour anticiper les incidents. Cette capacité transforme l’IA en un système observable, capable d’être analysé et amélioré en continu. Elle répond à une question rarement posée dans les entreprises : que se passe-t-il réellement entre deux décisions automatisées ?
Documenter et prouver : la logique de l’« Evidence Room »
La troisième fonction est celle de la preuve. KLA Digital génère des traces détaillées de toutes les actions réalisées par les agents IA : décisions prises, données utilisées, validations humaines et résultats obtenus. Ces informations sont organisées dans un espace appelé « Evidence Room », conçu pour produire une documentation exploitable en cas d’audit ou de contrôle réglementaire. Dans le cadre du EU AI Act, cette capacité devient stratégique. Elle transforme une obligation réglementaire en outil de pilotage et de crédibilité.
Des usages concrets dans des environnements à risque
KLA Digital cible en priorité des secteurs où les enjeux sont particulièrement élevés, comme la banque, l’assurance et l’industrie pharmaceutique. Dans ces environnements, l’automatisation est indispensable pour traiter des volumes importants, mais le risque d’erreur est critique. Les cas d’usage sont concrets : analyse de dossiers clients, lutte contre le blanchiment (KYC/AML), gestion des risques, support opérationnel, traitement de données sensibles en santé. Dans chacun de ces domaines, la question n’est pas seulement de faire plus vite, mais de faire juste et de pouvoir le démontrer.
Une bascule stratégique : de la performance à la responsabilité
L’approche de KLA Digital révèle une évolution plus profonde dans l’adoption de l’IA. Jusqu’à récemment, la valeur d’un système était évaluée à partir de sa performance. Aujourd’hui, un nouveau critère s’impose : la responsabilité. Une IA performante, mais incontrôlable devient un risque. Une IA gouvernée devient un actif stratégique. Cette bascule redéfinit les priorités des entreprises et pose une question centrale : la capacité à gouverner l’IA deviendra-t-elle plus déterminante que la capacité à la développer ?
Entre innovation et régulation : un nouvel équilibre
Le débat oppose souvent innovation et régulation, comme deux forces contradictoires. D’un côté, la nécessité d’aller vite. De l’autre, l’obligation de sécuriser. KLA Digital propose une approche différente : intégrer la régulation dès la conception. Cette logique transforme la conformité en avantage compétitif, en permettant d’accélérer les déploiements tout en maîtrisant les risques. Elle suppose néanmoins une évolution des organisations, avec une collaboration renforcée entre les équipes techniques, les métiers et les fonctions de conformité, ainsi qu’une culture de la preuve et de la transparence.
Une nouvelle fonction dans l’entreprise ?
L’émergence de solutions comme KLA Digital pourrait faire apparaître une nouvelle fonction au sein des entreprises, à la croisée de la technologie, du juridique et de l’opérationnel. Une fonction dédiée à la gouvernance de l’IA, capable de piloter ces dispositifs complexes. Cette perspective soulève plusieurs interrogations : qui doit porter cette responsabilité, les entreprises disposent-elles des compétences nécessaires, et comment éviter que cette couche de gouvernance ne devienne un frein à l’innovation ?
Ce que révèle le cas KLA Digital
Le projet porté par Antonella Serine met en lumière une réalité souvent sous-estimée. Le défi de l’intelligence artificielle n’est pas uniquement technologique. Il est organisationnel, culturel et réglementaire. Il ne s’agit plus seulement de concevoir des systèmes intelligents, mais de construire des systèmes fiables, explicables et auditables. Dans cette perspective, la gouvernance n’est plus un frein, mais une condition d’existence.
Conclusion : reprendre le contrôle sans renoncer à l’innovation
KLA Digital s’inscrit dans une dynamique de fond : réconcilier puissance technologique et maîtrise humaine. En proposant une couche de gouvernance en temps réel, la plateforme permet aux entreprises de passer de l’expérimentation à l’industrialisation de l’IA. Mais au-delà de la solution, une question demeure : les entreprises sont-elles prêtes à regarder en face ce que fait réellement leur IA ? Gouverner implique de rendre visible, et rendre visible implique parfois de remettre en question.




