Le 17 juin 2025, l’Amphithéâtre Lou Clapas du Centre Hospitalier Princesse Grace accueillait une conférence d’une rare densité sur les révolutions en cours à l’intersection de l’intelligence artificielle et de la santé. Organisée par Mme Benoîte Rousseau de Sevelinges Directeur du CHPG, elle était animée par David Gruson — expert reconnu, directeur du programme santé à domicile de La Poste Santé et Autonomie, et écrivain engagé. Cette rencontre visait à interroger les transformations en cours avec une question en apparence simple : IA et Santé : quelle(s) révolution(s) ?
Derrière cette interrogation plurielle se cache un débat fondamental : comment intégrer l’IA dans les pratiques de soin sans en perdre le contrôle ni l’éthique ? Gruson propose une voie : celle d’une régulation positive, ancrée dans l’humain, la pédagogie, la traçabilité, et l’anticipation.

L’urgence d’un cadre : de la régulation par le refus à la régulation par l’usage

Dès l’ouverture, David Gruson plaide pour une posture d’ouverture régulée, qu’il oppose à deux extrêmes : le blocage frileux de l’innovation et l’emballement technophile. Il revendique une démarche que le Comité national d’éthique français qualifie de « révolution des esprits » : refuser l’IA en santé, ce serait générer une perte de chance éthique pour les patients. Cette conviction, il l’ancre dans les travaux de la loi de bioéthique de 2021 et dans l’avis 141 du Comité consultatif national d’éthique de 2023.

« On n’est plus dans l’hypothèse d’une science-fiction, mais bien dans le réel. Il faut encadrer, non bloquer. »

Ce basculement conceptuel alimente la stratégie du Health AI Act européen, à laquelle la Principauté de Monaco peut s’inspirer librement. Ce texte repose sur une logique de proportionnalité des risques : plus l’impact d’un système est élevé, plus l’exigence de régulation doit l’être aussi.

IA générative, IA Agentique : des ruptures technologiques à encadrer

Un autre message fort traverse l’intervention : la technologie va aujourd’hui beaucoup plus vite que la capacité des institutions à la réguler. Depuis 18 mois, la percée de l’IA générative et de l’IA Agentique (ou IA de mission) a accéléré cette asymétrie.

« Ce qu’on appelle aujourd’hui IA Agentique, ce sont des systèmes capables de prendre en charge une suite de tâches autonomes, en pilotant d’autres outils numériques. »

David Gruson s’alarme ici de l’ambiguïté du terme — en informatique, tout est potentiellement un « agent » — et préfère la désignation IA de mission, soulignant leur capacité à embarquer d’autres intelligences pour des finalités définies. C’est précisément ce qu’il explore dans son roman SARAH, où une IA fictive gère une crise sanitaire avec une froide rationalité. Cette fiction, écrit-il, est un outil pour travailler nos représentations mentales de l’IA et simuler des dilemmes éthiques.

Entre fiction et réalité : la frontière trouble du vivant

David Gruson développe une réflexion originale sur l’ontologie du vivant. En croisant la définition du Larousse, « être possédant des structures complexes, capables de résister au changement, de croître et de se reproduire », il suggère que certains algorithmes auto-apprenants pourraient remplir ces critères.

Cette mise en tension entre le vivant et l’artificiel constitue, selon lui, l’un des enjeux fondamentaux de l’IA en santé : où s’arrête le biologique, où commence le computationnel ? en témoigne l’analogie qu’il développe avec le blob, organisme unicellulaire capable d’apprentissage collaboratif — une métaphore parfaite, selon lui, de l’apprentissage profond (deep learning). « Tout était dans la nature avant d’être dans la machine. »

Des cas d’usage concrets en santé : promesses et limites

Le propos devient plus pragmatique lorsque Gruson décrit les cas d’usage actuels :

  • Reconnaissance d’image médicale : analyse de radios, IRM, dermatologie, détection de mélanomes à domicile par des infirmiers libéraux avec garantie humaine différée par des spécialistes.
  • Synthèse de consultations médicales : IA génératives transcrivant automatiquement les échanges entre médecin et patient pour enrichir les dossiers médicaux.
  • Prédiction des risques : IA analysant des corrélations dans des bases de données génomiques pour affiner les diagnostics, notamment en gynécologie.
  • Accès aux soins : IA utilisées pour pallier les déserts médicaux, avec des expériences à Gaillac, Menton ou dans les vallées des Alpes-Maritimes.

Il souligne l’importance d’accompagner ces déploiements par des protocoles de garantie humaine. À l’hôpital Saint-Joseph, par exemple, les IA d’aide à la radiologie sont utilisées la nuit par les urgences avec relecture humaine différée.

L’enjeu du libre arbitre médical

La question centrale qui sous-tend ces usages est celle du libre arbitre. En poussant la logique algorithmique à son extrême, ne risque-t-on pas de réduire le rôle du praticien à celui de simple exécutant ?

« Le risque, ce n’est pas l’IA seule. C’est de briser l’intuition médicale, ce colloque singulier entre médecin et patient. »

Il appelle à préserver des espaces d’hésitation, de doute, de réflexion partagée, contre la tentation de l’objectivation absolue du soin. Ce propos rejoint la notion de délégation cognitive, l’un des risques éthiques majeurs de l’IA.

Souveraineté et maîtrise des plateformes

David Gruson avertit aussi contre une perte de souveraineté algorithmique. Si les professionnels de santé partagent des données sensibles (comme les synthèses de consultations) via des outils généralistes comme ChatGPT, ils en perdent le contrôle.

« Le vrai danger, ce n’est pas seulement juridique. C’est de ne plus maîtriser les données stratégiques du système de santé. »

Il cite ici le projet Dalia développé par La Poste : une IA souveraine d’aide à la synthèse médicale, conçue en environnement HDS sécurisé. L’exemple illustre une alternative européenne aux modèles américains dominants.

L’impact RH : automatisation sans disparition

Une autre thématique forte de son intervention est celle des ressources humaines. Contrairement à certaines craintes relayées dans les médias, l’IA ne fait pas disparaître les métiers médicaux.

Gruson s’appuie sur une étude réalisée avec l’Institut Montaigne : l’IA n’élimine pas les soignants, elle déleste certaines tâches subies (secrétariat, logistique, admission). Elle permet aussi un repositionnement : les radiologues vers l’interventionnel, les infirmiers vers les pratiques avancées.

Réguler l’innovation sans l’éteindre : la garantie humaine

Le concept central structurant son propos est celui de garantie humaine de l’IA. Déployé dès 2018 avec la Chaire de régulation algorithmique de l’ESSEC, il est devenu un principe juridique central dans le règlement européen sur l’IA (AI Act).

Deux piliers sont identifiés :

  1. Information du patient : il doit savoir qu’un système d’IA est utilisé dans sa prise en charge, sans qu’un consentement spécifique ne soit requis.
  2. Supervision humaine adaptée : tout système à haut risque doit être supervisé, de la conception à la vie réelle, avec traçabilité des décisions.

Ce principe permet une régulation par le management du risque, à l’inverse d’un cadre juridique figé. Il s’applique aussi bien aux établissements qu’aux concepteurs d’IA.

Défis juridiques : la responsabilité en mutation

Sur le plan juridique, l’état du droit reste fondé sur deux principes :

  • Responsabilité du professionnel : gardien de l’acte de soin, il reste responsable, même si une IA est utilisée.
  • Responsabilité du concepteur : en cas de défaillance du système.

Mais un risque existe : le risque de développement. Une IA qui apprend de manière autonome peut devenir méconnaissable à son créateur, ce qui fragilise l’attribution des responsabilités. D’où l’importance du monitoring permanent.

L’effet Elisa : quand l’IA rassure (trop ?)

Il rappelle avec humour l’expérience fondatrice d’Elisa, premier chatbot médical expérimental développé… en 1962. Il évoque l’effet Elisa : le fait qu’une IA puisse rassurer le patient, même s’il sait qu’il ne parle pas à un humain.

Cela appelle à éduquer les patients : dans un avenir proche, chacun arrivera à l’hôpital avec une idée préconçue de son diagnostic, issue de son propre assistant IA.

L’enjeu du consentement augmenté

Une des vertus du AI Act européen est d’avoir évité une erreur : celle d’exiger un consentement spécifique à l’IA. Gruson insiste sur l’importance de ne pas fragmenter le consentement, mais d’ajouter une couche d’information intelligible.

Cela permet de restituer un espace de dialogue clinique sans surcharger le processus de soin.

Une opportunité pour Monaco : échelle humaine, agilité stratégique

il voit en Monaco un territoire laboratoire, capable de mettre en œuvre rapidement des stratégies souveraines, structurées et agiles.

« Vous avez ici la capacité de faire des choix rapides, de construire votre propre doctrine d’établissement, d’expérimenter à taille humaine. »

Le CHPG peut jouer un rôle pilote, notamment sur l’IA générative appliquée au dossier patient ou à la formation.

L’IA, levier d’innovation économique

L’éthique devient un levier d’innovation, voire un critère de remboursement. La Haute Autorité de Santé française exige désormais la garantie humaine comme critère pour accélérer le remboursement des dispositifs.

Ce couplage entre régulation et levier économique est, selon Gruson, une avancée majeure pour la compétitivité européenne.

Une régulation incarnée

La conférence se conclut sur un message simple, mais fondamental : l’IA ne doit jamais devenir un objet de fascination ou de crainte absolue. C’est un outil. Un outil puissant, certes, mais qui doit rester au service d’un projet de soin humain, incarné, contextualisé, encadré.

En valorisant la stratégie d’établissement, la formation, la garantie humaine, et la souveraineté des données, David Gruson trace les contours d’une gouvernance moderne de l’intelligence artificielle appliquée à la santé.

À méditer : et si, en matière d’IA, la vraie révolution n’était pas technologique, mais culturelle ?