Par Pascale Caron — pour EntrepreneurIA
Analyse de l’étude HBR « Making Sense of Research on How People Use AI », parue en novembre 2025
Un tournant discret, mais profond
Que font réellement les utilisateurs avec l’IA ? C’est la question que pose Marc Zao-Sanders dans une tribune récente publiée par la Harvard Business Review. À contre-courant des promesses techniques ou des visions futuristes, l’auteur propose un changement de focale : observer les pratiques concrètes, au plus près du terrain.
Nous sommes passés en quelques mois d’un engouement technologique à une banalisation rapide. Mais que signifie cette banalisation ? Quels sont les véritables comportements d’usage ? Et comment ces comportements transforment-ils, en creux, notre rapport au savoir, au travail, aux autres ?
Trois regards pour éclairer les usages
L’article propose une triangulation inédite : croiser des données quantitatives massives (OpenAI, Anthropic) avec des analyses qualitatives de terrain, issues du projet « AI in the Wild ». Cette démarche invite à déconstruire les idées reçues sur les promesses de l’IA.
- OpenAI : quantifier l’ampleur
Le rapport d’OpenAI sur les usages de ChatGPT livre une première photographie. En 2025, des millions d’interactions quotidiennes sont recensées. Ce qui frappe, ce n’est pas tant le volume que la diversité. Derrière la façade d’un assistant conversationnel, une multiplicité d’attentes : écrire plus vite, mieux formuler, générer des idées, comprendre un sujet, organiser sa pensée.
Les usages ne se limitent pas aux développeurs ou aux analystes. Étudiants, enseignants, managers, thérapeutes ou créateurs de contenus s’en emparent. On voit une hybridation des pratiques intellectuelles : l’IA devient le tiers facilitateur d’une nouvelle grammaire de la pensée.
Mais ce rapport reste centré sur la plateforme elle-même. Il n’interroge pas en profondeur les motivations ni les contextes sociaux d’usage. Que cherche-t-on vraiment quand on consulte une IA ? De la clarté ? Du réconfort ? De la productivité ? De la légitimité ?
- Anthropic: mesurer les inégalités
Le deuxième éclairage vient du Anthropic Economic Index, qui s’appuie sur l’analyse de Claude, concurrent de ChatGPT. L’indicateur révèle une fracture géographique et sociale majeure : les usages sont massivement concentrés dans les pays à hauts revenus, avec un écart significatif dans les niveaux d’interaction.
Ce constat met en lumière une question stratégique : l’IA renforce-t-elle les inégalités d’accès à la cognition ? Dans les pays développés, elle devient un levier d’accélération intellectuelle, d’aide à la décision, de synthèse. Ailleurs, son impact est plus limité, faute de bande passante, de traduction fiable ou de culture numérique.
La carte de l’adoption épouse celle des inégalités structurelles. Elle questionne directement les promesses d’un progrès partagé. Peut-on vraiment parler de « démocratisation de l’IA » si l’accès reste conditionné à un niveau socio-éducatif élevé ?
- AI in the Wild: observer les pratiques
Enfin, Marc Zao-Sanders mobilise une source souvent absente des réflexions techniques : l’observation ethnographique des usages. À travers son projet AI in the Wild, il analyse des milliers d’interactions réelles sur forums, plateformes publiques, chaînes YouTube ou transcripts partagés.
Ce qui en ressort est moins attendu. Les utilisateurs ne cherchent pas seulement à produire plus. Ils explorent, testent, dialoguent, se confient parfois. L’IA devient un outil d’autoréflexion. Elle soutient des dynamiques émotionnelles, pas uniquement cognitives.
Plusieurs motifs dominants émergent : organisation personnelle, accompagnement émotionnel, aide à la concentration, formulation de pensées floues, ou encore recherche de clarté morale dans des décisions difficiles.
Loin des fantasmes de productivité
Contrairement à l’image d’un outil purement technique, les données suggèrent que l’IA est largement utilisée à des fins non productives. Zao-Sanders le souligne : les trois usages les plus fréquents, en 2025, ne sont pas l’automatisation, la traduction ou la génération de code. Ce sont :
- Le soutien émotionnel (type compagnon ou thérapeute)
- L’aide à la gestion personnelle (organisation, priorisation, choix de vie)
- L’aide à la formulation d’idées abstraites ou intuitives
Ce glissement est fondamental. Il montre que l’IA, loin de rester cantonnée au rôle d’assistant fonctionnel, s’insère dans les zones les plus intimes de la pensée humaine.
Que cela révèle-t-il de notre époque ? Un besoin croissant de clarté dans un monde saturé ? Une perte de repères face à l’excès d’information ? Ou bien une nouvelle façon de dialoguer avec soi-même, via un miroir algorithmique ?
Une technologie relationnelle ?
L’IA générative est perçue comme un outil. Mais dans la pratique, elle se rapproche parfois d’un confident. Les travaux d’Eliot et Osler (Ethics & Information Technology, 2026) sur le « AI gossip » confirment cette dimension : les utilisateurs parlent à leur IA comme à une personne.
Cette anthropomorphisation n’est pas anodine. Elle crée une illusion de proximité. Elle facilite la projection. Mais elle brouille aussi la frontière entre assistance technique et interaction sociale.
Qui parle à qui ? Et que veut-on dire, au fond ? La technologie agit-elle comme amplificateur de la parole, ou comme substitut de l’écoute humaine ?
Un outil cognitif… ou un levier de dépendance ?
Une autre étude récente du MIT met en garde contre un risque émergent : la dette cognitive. Plus l’IA produit des contenus à notre place, plus notre propre capacité à argumenter, synthétiser ou structurer décline.
Zao-Sanders évoque aussi cette tension. L’IA est un soutien. Mais elle peut devenir une béquille. Comment préserver l’autonomie intellectuelle ? Quels garde-fous mettre en place pour éviter que les usagers les plus vulnérables (étudiants, jeunes professionnels, personnes isolées) n’en fassent un usage passif ?
Cette question est centrale pour les entreprises, les universités, les acteurs publics. Il ne suffit plus d’enseigner comment utiliser l’IA. Il faut désormais apprendre à la questionner, à s’en distancier, à en faire un partenaire critique — non un remplaçant cognitif.
Les angles morts de la recherche
Les trois sources citées par HBR sont riches. Mais elles laissent encore plusieurs angles morts :
- La voix des exclus : peu de données viennent de pays à faibles revenus, ou de personnes sans accès structuré à la technologie. Or c’est là que les enjeux de transformation sociale sont les plus aigus.
- Le rôle du genre, de l’âge, des contextes culturels : qui utilise l’IA, dans quels cadres, avec quelles attentes implicites ? Les usages sont-ils genrés ? Culturellement situés ? Aucune réponse ferme à ce jour.
- La qualité des interactions : derrière les statistiques d’usage, qu’en est-il de l’expérience subjective ? Se sent-on compris, inspiré, orienté, manipulé ? Les données sont muettes sur l’impact qualitatif de ces dialogues personne-machine.
Une question de design… mais aussi de société
L’analyse de Zao-Sanders pose une question politique : voulons-nous une IA qui accélère, qui éclaire, qui rassure, qui divertit… ou tout cela à la fois ? Le design des interfaces, des modèles, des usages possibles doit refléter une vision. Or, cette vision est aujourd’hui façonnée par les logiques de marché, plus que par un projet collectif.
Quelle IA voulons-nous ? Une IA qui aide chacun à penser par soi-même, ou une IA qui anticipe nos besoins pour les satisfaire automatiquement ? Une IA de l’autonomie ou une IA de l’assistanat ?
L’enjeu éducatif : apprendre à dialoguer avec l’IA
Face à cette mutation, l’éducation devient centrale. Il ne suffit pas d’apprendre à « utiliser » une IA. Il faut former au dialogue avec elle : repérer ses biais, comprendre ses limites, structurer sa propre pensée pour ne pas en devenir dépendant.
Cela suppose un nouveau contrat éducatif. Qui va le porter ? Les écoles, les entreprises, les médias ? Et avec quels moyens ?
Conclusion : observer avant de réguler
L’article de Harvard Business Review marque une rupture méthodologique. Il ne cherche pas à définir ce que l’IA devrait être, mais ce qu’elle devient dans les mains de ses utilisateurs. Cette posture, modeste et empirique, ouvre un champ d’analyse trop souvent négligé : l’usage réel comme terrain politique.
Dans un monde où les discours sur l’IA saturent l’espace médiatique, cette approche par le bas, attentive aux pratiques concrètes, nous rappelle l’essentiel : ce n’est pas la technologie qui décide. Ce sont les usages, les intentions, les cadres d’action.
Encore faut-il les comprendre, les documenter, les questionner.




