Analyse de l’article publié sur SSRN par Luciano Floridi
En 2025, le débat autour de l’intelligence artificielle semble figé entre deux récits opposés. D’un côté, une promesse quasi messianique : celle de machines de plus en plus intelligentes, capables de raisonner, décider, voire remplacer certaines formes de jugement humain. De l’autre, une inquiétude diffuse : perte de contrôle, dilution des responsabilités, automatisation aveugle. Dans ce brouhaha, un article académique récent apporte une clarification conceptuelle salutaire. Sa thèse est simple, mais structurante : l’intelligence artificielle n’est pas intelligente. Elle agit, sans comprendre.
Ce déplacement sémantique, qui peut sembler abstrait, a pourtant des implications très concrètes pour les entrepreneurs, dirigeants et décideurs qui déploient aujourd’hui des systèmes d’IA dans leurs organisations.
Sortir du mythe de l’intelligence artificielle
Floridi part d’un constat méthodologique. Le terme « intelligence artificielle » est historiquement chargé. Il suggère des capacités cognitives comparables à celles de l’humain : compréhension, intentionnalité, raisonnement autonome. Or cette analogie est trompeuse. Les systèmes actuels, y compris les plus avancés, ne pensent pas. Ils ne comprennent pas. Ils n’ont ni conscience ni intention propre.
Ce qu’ils font, en revanche, ils le font avec une efficacité remarquable. Ils classent, prédisent, génèrent, optimisent. Ils interagissent avec leur environnement. Ils produisent des effets réels dans le monde économique et social. Pour Floridi, le bon cadre d’analyse n’est donc pas celui de l’intelligence, mais celui de la capacité d’agir.
L’IA comme capacité d’action artificielle
L’idée centrale de l’article repose sur une distinction conceptuelle essentielle. Floridi oppose deux manières de penser l’IA. La première consiste à étendre la notion d’intelligence aux machines. La seconde, qu’il défend, consiste à reconnaître que l’IA dispose avant tout d’une capacité d’action artificielle.
Cette capacité d’action désigne le fait d’agir dans un environnement, de produire des effets selon des règles, des objectifs et des contraintes, sans qu’il soit nécessaire d’y associer une compréhension ou une intention. Une organisation, un marché ou un protocole informatique peuvent agir sans être intelligents.
Dans cette perspective, l’IA apparaît comme une capacité d’action déléguée, encadrée et strictement instrumentale. Elle exécute des objectifs, sans intention propre. Elle optimise des processus, sans comprendre le sens de ce qu’elle optimise.
Pourquoi cette distinction est-elle décisive pour les entrepreneurs
Pour un entrepreneur, cette clarification n’a rien de philosophique au sens abstrait. Elle touche au cœur de la prise de décision. De nombreuses organisations attribuent aujourd’hui aux systèmes d’IA un statut implicite de quasi-décideur. On parle d’IA « qui décide », « qui recommande », « qui arbitre ».
Selon Floridi, cette manière de parler introduit un biais dangereux : celui de la délégation cognitive illusoire. Un système d’IA n’exerce pas un jugement. Il met en œuvre une capacité d’action programmée, entraînée et paramétrée. Les objectifs qu’il poursuit ne sont jamais les siens. Ils sont toujours le produit de choix humains antérieurs : choix de données, de modèles, de critères de performance.
Pour les dirigeants, cela implique une responsabilité renforcée, et non diminuée.
Gouvernance : reprendre la main sur l’action déléguée
L’un des apports les plus opérationnels de l’article concerne la gouvernance. Si l’IA agit sans comprendre, elle ne peut être tenue responsable de ses effets. La responsabilité reste structurellement humaine.
Floridi insiste sur ce point : parler d’« autonomie » de l’IA est souvent un abus de langage. Il s’agit au mieux d’une autonomie fonctionnelle limitée, toujours encadrée par des architectures, des objectifs et des seuils définis par des humains ou des organisations.
Pour une entreprise, cela signifie que toute décision automatisée engage ceux qui ont conçu, validé et déployé le système. Il n’existe aucun transfert moral ou juridique possible vers la machine.
Éviter l’anthropomorphisme managérial
L’article met également en garde contre une dérive fréquente dans les discours d’entreprise : l’anthropomorphisme. Attribuer à l’IA des intentions, une compréhension ou une « vision » conduit à une perte de vigilance critique.
Floridi montre que cette projection est intellectuellement confortable. Elle permet de naturaliser des choix techniques et de présenter certaines décisions comme inévitables. En réalité, ces décisions sont toujours le produit d’un cadre de conception.
Pour les entrepreneurs, la question devient alors centrale : quels choix avons-nous encapsulés dans nos systèmes ? Quels arbitrages avons-nous figés dans des modèles ? Et que se passe-t-il lorsque le contexte change ?
L’IA comme outil stratégique, pas comme substitut cognitif
Un autre mérite du texte est de repositionner l’IA à sa juste place stratégique. Floridi ne minimise en rien sa puissance. Il la décrit comme extrêmement performante dans certaines tâches : analyse massive de données, détection de régularités, automatisation de processus complexes.
Mais cette puissance est celle de l’exécution, non du sens. Pour les entreprises, cela implique une articulation claire entre décision humaine et action automatisée. L’IA peut augmenter la capacité d’agir. Elle ne peut pas définir seule ce qui mérite d’être fait.
Cette distinction est cruciale dans les domaines sensibles : recrutement, santé, finance, justice prédictive, stratégie d’investissement. Là où les enjeux normatifs sont forts, l’action automatisée doit rester explicitement subordonnée à une gouvernance humaine.
Une lecture utile à l’heure des agents IA
À l’heure où les « agents IA » deviennent un mot-clé omniprésent, l’article de Floridi arrive à point nommé. Il permet de sortir d’un flou conceptuel dangereux. Tous les systèmes capables d’agir ne sont pas intelligents. Tous les comportements complexes ne relèvent pas de la compréhension.
Pour les entrepreneurs, cette grille de lecture offre un avantage compétitif réel : concevoir des systèmes plus robustes, plus responsables, mieux gouvernés. Elle invite à poser les bonnes questions en amont : quelle capacité d’action souhaitons-nous déléguer ? Jusqu’où ? Avec quels mécanismes de contrôle et de responsabilité ?
Conclusion : moins d’illusion, plus de lucidité
L’article de Luciano Floridi ne cherche pas à freiner l’innovation. Il cherche à la rendre conceptuellement rigoureuse. En refusant l’illusion d’une intelligence artificielle autonome, il redonne toute sa place à la responsabilité humaine.
Pour les entrepreneurs, le message est clair. L’IA n’est pas un cerveau externe. C’est un levier d’action puissant, mais aveugle au sens. La maturité de l’IA en entreprise ne se mesurera pas à son niveau supposé d’intelligence, mais à la lucidité stratégique avec laquelle elle est conçue, gouvernée et utilisée.




