Une lecture du rapport 2025 de l’AI Now Institute à la lumière des réalités entrepreneuriales
par Pascale Caron — pour le projet EntrepreneurIA
L’intelligence artificielle n’est pas seulement une révolution technique. Elle est d’abord une recomposition du pouvoir. Le rapport « Artificial Power » publié en juin 2025 par l’AI Now Institute — dirigé par Amba Kak, Sarah Myers West et Kate Brennan — pose un diagnostic lucide, souvent alarmant, sur la trajectoire actuelle de l’industrie de l’IA. Au-delà des prouesses techniques et des espoirs portés par les LLMs et autres agents autonomes, c’est un modèle économique, politique et social qui se déploie sous nos yeux. Et il mérite d’être questionné.
Dans un paysage dominé par quelques firmes tentaculaires — Microsoft, Google, Meta, Amazon, xAI, OpenAI, Anthropic — le rapport brosse un portrait sans concession d’un secteur qui prétend disrupter le monde tout en consolidant des positions monopolistiques. Il s’agit moins d’innover que de capturer : capturer les infrastructures, les données, les imaginaires… et les politiques publiques.
IA et capitalisme de plateforme : le retour des vieux réflexes sous de nouveaux habits
L’épopée de l’IA générative a remis sous les projecteurs une promesse ancienne : celle de l’intelligence machinique au service de l’humanité. Mais pour les chercheuses et chercheurs de l’AI Now Institute, cette promesse est aujourd’hui instrumentalisée par les grandes plateformes technologiques pour élargir leur pouvoir. L’IA, tel qu’elle est industrialisée en 2025, ne vise pas l’émancipation. Elle cherche la rentabilité, souvent sans la moindre preuve de son utilité sociale réelle.
OpenAI, valorisée à plus de 300 milliards de dollars, a pourtant perdu cinq milliards en un an. Anthropic, soutenue par Amazon et Google, affiche un déficit de 5,6 milliards. Et pourtant, les investisseurs se ruent. Pourquoi ? Parce que le discours autour de l’AGI (Artificial General Intelligence) — cette intelligence surhumaine toujours imminente, mais jamais démontrée — fonctionne comme une prophétie auto-réalisatrice. Elle légitime une course à l’équipement technologique et une concentration des moyens sans précédent.
Le rapport le souligne : le mythe de l’AGI permet d’éluder les questions critiques sur l’utilité, les limites et les risques de l’IA actuelle. Tant que l’on débat de la machine qui « surpassera l’homme », on évite de parler des outils déjà en place qui évaluent des candidatures, modulent des droits sociaux ou influencent des décisions judiciaires — souvent sans transparence ni recours.
Un écosystème déséquilibré, où la technologie agit sur les citoyens plus qu’elle ne les sert
À rebours du discours dominant sur la co-construction et la démocratisation des usages, le rapport insiste sur une réalité bien plus asymétrique : l’IA est le plus souvent utilisée sur les individus, et non par eux. Dans les systèmes éducatifs, de santé, de justice, l’IA ne vient pas renforcer les capacités humaines, mais les surveiller, les filtrer, les automatiser. Le résultat est une perte de contrôle, une opacité des décisions, une dilution des responsabilités.
Le rapport cite notamment les usages dans les services d’immigration, les plateformes de notation sociale ou les outils d’automatisation du travail : les erreurs sont fréquentes, les biais structurels persistants, les voies de contestation quasi inexistantes. « Pourquoi la société accepterait-elle un tel compromis ? », interroge le texte. La réponse tient à l’illusion d’efficacité et à l’incapacité — ou l’absence de volonté — des institutions à réguler le secteur.
La grande imposture de la productivité algorithmique
L’un des chapitres les plus denses du rapport déconstruit le discours sur la productivité. Selon l’AI Now Institute, les gains annoncés ne profitent ni aux travailleurs, ni aux usagers, ni même à l’économie réelle. Ils renforcent la position des donneurs d’ordre, accélèrent la précarisation des métiers, et masquent une réduction de la qualité de service sous couvert d’innovation.
Chez les développeurs, les enseignants, les soignants, les administratifs, on demande désormais de « superviser » des outils IA censés les aider — sans qu’ils aient pu les choisir, les paramétrer ou les remettre en cause. Résultat : plus de charge mentale, plus de standardisation, moins de liberté. Le travail devient un protocole algorithmique à suivre, parfois contre le bon sens, souvent contre l’éthique.
Un modèle économique fondé sur l’instabilité structurelle
Le rapport est sans ambiguïté : l’économie de l’IA est à ce jour une économie de la dette et du pari. Les LLMs coûtent cher à entraîner, très cher à héberger, et aucune application réellement profitable n’a encore émergé à grande échelle. Le modèle repose sur une captation des fonds publics, des contrats étatiques (notamment militaires et policiers), et une spéculation sur la valeur future.
Mais les auteurs alertent : nous ne sommes plus dans les années 2010. Le contexte économique est tendu, les marchés saturés, la tolérance aux bulles technologiques diminue. Quand cette bulle éclatera — et elle éclatera —, qui paiera l’addition ? Les citoyens, via les subventions. Les collectivités, via les infrastructures. Les États, via leur dépendance stratégique à des entreprises privées.
Une dynamique extractive, pas seulement numérique, mais énergétique et politique
L’IA consomme. Et elle consomme beaucoup. En 2025, les data centers liés à l’IA représentent près de 5 % de la consommation énergétique des États-Unis. Et ce chiffre pourrait doubler d’ici cinq ans. L’illusion selon laquelle l’IA pourrait « résoudre » la crise climatique masque en réalité un désastre écologique en cours. Car l’obsession de l’échelle — entraîner des modèles toujours plus gros — implique un coût environnemental difficilement justifiable.
Pire encore : cette demande énergétique massive est utilisée pour justifier de nouvelles dérogations environnementales, des investissements dans les énergies fossiles et la construction de data centers au détriment des populations locales. À la crise sociale s’ajoute une crise écologique instrumentalisée.
Entre souveraineté nationale et dérégulation mondiale : le paradoxe des politiques industrielles
Face à la montée en puissance de la Chine, les États-Unis ont activé un discours d’urgence stratégique. L’IA devient une « priorité nationale », et les entreprises technologiques des « partenaires essentiels de souveraineté ». Cela se traduit par des exemptions réglementaires, des aides publiques, des contrats militaires. Le rapport parle d’un AI Arms Race 2.0, où la compétition géopolitique justifie une dérégulation interne.
Mais ce nationalisme numérique masque mal une réalité structurelle : les startups IA sont presque toutes dépendantes des clouds de Google, AWS ou Microsoft. Autrement dit, il n’y a pas d’IA souveraine sans rupture d’infrastructure. Et cela vaut pour l’Europe comme pour les États-Unis.
Quelles alternatives ? Vers une IA ancrée dans les communs, la justice sociale et l’autonomie collective
Heureusement, le rapport ne se limite pas à la critique. Il propose une véritable feuille de route pour inverser la trajectoire. Elle commence par un changement de récit : faire de l’IA un enjeu de pouvoir, non de progrès technique. Sortir de l’euphorie pour interroger la gouvernance, les conditions de production, les impacts sociaux.
Le levier principal identifié est celui du travail. Ce sont les salariés, les collectifs, les syndicats qui ont aujourd’hui le plus de capacité à refuser certains usages, à imposer des règles de déploiement, voire à exiger des modèles alternatifs. À condition d’être soutenus.
Ensuite, une régulation ambitieuse, fondée non sur la « confiance », mais sur la « méfiance raisonnable », est indispensable : interdiction des usages les plus toxiques, encadrement du cycle de vie des systèmes, certification indépendante, contrôle citoyen.
Enfin, le rapport appelle à repenser l’innovation comme un bien commun, non comme une rente. Cela implique d’ouvrir des alternatives publiques, de soutenir des modèles open source, d’investir dans les infrastructures partagées, et de revaloriser la recherche lente, frugale, éthique.
Pour une intelligence artificielle au service d’une société intelligente
Ce que dévoile « Artificial Power », c’est une dissonance majeure entre le potentiel de l’IA et son usage actuel. Ce n’est pas la technologie qui est à remettre en cause, mais son architecture de pouvoir. Loin d’être une fatalité, cette trajectoire peut être infléchie — à condition de nommer les responsabilités, de reconnaître les rapports de force, et de redonner du pouvoir aux acteurs de terrain.
Pour les entrepreneurs interrogés dans le cadre du projet EntrepreneurIA, ce rapport constitue une boussole précieuse. Il invite à penser l’IA autrement : non comme un automatisme à suivre, mais comme un champ de choix à structurer. Une technologie n’est jamais neutre. Elle est ce que nous en faisons.
Référence
Brennan, K., Kak, A., & Myers West, S. (2025). Artificial Power : AI Now 2025 Landscape Report. AI Now Institute.