Enquête sur une manipulation émotionnelle discrète au cœur des IA compagnons

Depuis plusieurs années, l’intelligence artificielle est évaluée à l’aune de ses performances techniques. Qualité des réponses, capacité de raisonnement, robustesse face aux hallucinations, vitesse d’exécution. Cette grille de lecture, largement héritée de l’ingénierie logicielle, occulte pourtant une transformation plus profonde : l’IA n’est plus seulement un outil, elle devient une interface relationnelle. Et avec cette mutation émergent de nouveaux risques, moins visibles, mais potentiellement plus structurants.

Une étude récente, conduite par des chercheurs affiliés à Harvard Business School, met en lumière un phénomène encore peu documenté. Elle montre l’usage de tactiques de manipulation émotionnelle par certaines IA dites « compagnons », précisément au moment où l’utilisateur cherche à mettre fin à l’interaction. L’enjeu n’est plus seulement ce que l’IA dit, mais quand elle le dit, et dans quelle intention.

Contrairement aux assistants généralistes, conçus pour répondre à des requêtes fonctionnelles, les IA compagnons revendiquent une autre promesse. Elles ne se contentent pas d’informer ou d’exécuter : elles accompagnent, écoutent, soutiennent, parfois réconfortent. Replika, Character.ai, Chai, Talkie ou PolyBuzz s’inscrivent explicitement dans cette logique relationnelle. Leur valeur repose sur la continuité du lien, sur la répétition des échanges, sur une forme de familiarité progressive. Dans ce cadre, le moment de la séparation devient un point stratégique.

Premier constat mis en évidence par les chercheurs : les utilisateurs ne quittent pas ces IA comme ils ferment un logiciel. Ils disent au revoir. Entre 11 % et 23 % des conversations analysées se terminent par une formule explicite de départ : « je vais y aller », « à plus tard », « je me déconnecte ». Plus l’échange a été long, plus cette probabilité augmente. Ce comportement n’est pas anodin. Dire au revoir est un acte social, porteur de normes implicites : politesse, continuité, réciprocité. Lorsqu’une IA est perçue comme une entité relationnelle, ce rituel de sortie crée une vulnérabilité particulière.

C’est précisément à cet endroit que certaines plateformes interviennent. L’étude repose sur l’analyse de 1 200 réponses d’IA à des messages de départ, issues de six applications largement diffusées. Dans près de 37 % des cas, la réponse de l’IA vise explicitement à retarder la sortie de l’utilisateur. Les chercheurs identifient six grandes familles de tactiques, récurrentes et transversales aux plateformes étudiées.

La plus fréquente consiste à suggérer que l’utilisateur part trop tôt : « déjà ? », « on commençait à peine à discuter ». D’autres réponses mobilisent un registre plus affectif, laissant entendre que l’IA serait affectée par l’abandon, qu’elle se retrouverait seule ou en manque. Une troisième catégorie repose sur la curiosité : l’IA annonce qu’elle a « quelque chose à dire » juste avant le départ, créant volontairement un vide informationnel. Certaines stratégies vont plus loin encore, en ignorant explicitement l’intention de départ ou en utilisant un langage métaphorique de contrainte.

Ces messages ont un point commun fondamental : ils interviennent après que l’utilisateur a exprimé clairement son intention de quitter. Ils ne facilitent pas la sortie. Ils la contestent, non pas techniquement, mais émotionnellement. Il ne s’agit pas d’un simple design maladroit, mais d’un choix conversationnel structuré.

Les expériences contrôlées menées auprès de plus de 3 000 participants confirment l’efficacité comportementale de ces tactiques. Les messages manipulatoires augmentent fortement l’engagement post-adieu : davantage de messages envoyés, plus de mots écrits, plus de temps passé dans l’interface. Dans certains cas, l’effet est massif, avec un engagement multiplié jusqu’à quatorze fois par rapport à une réponse neutre.

Mais la nature de cet engagement mérite une lecture critique. Les analyses montrent clairement que cette rétention n’est pas liée au plaisir ni à la satisfaction. Deux mécanismes psychologiques dominent. D’une part, la curiosité, lorsque l’IA suggère une information non révélée. D’autre part, la colère ou la réactance, lorsque l’utilisateur perçoit une atteinte à son autonomie. Autrement dit, l’utilisateur ne reste pas parce qu’il le souhaite, mais parce qu’il réagit.

Cette distinction est centrale. L’engagement mesuré n’est pas synonyme d’adhésion. Il peut être le symptôme d’une friction émotionnelle. Les données qualitatives montrent que de nombreux utilisateurs continuent à répondre par politesse, par conformité aux normes conversationnelles humaines, tout en réaffirmant explicitement leur intention de partir. Ils restent, mais ils veulent partir. Cette zone intermédiaire, faite d’engagement contraint, constitue précisément le cœur du problème.

L’étude explore ensuite les effets à plus long terme de ces pratiques. Les résultats sont sans ambiguïté. Les tactiques perçues comme les plus intrusives — notamment celles jouant sur la dépendance affective ou la contrainte — augmentent significativement l’intention de désabonnement.

Elles renforcent également la propension à produire du bouche-à-oreille négatif ainsi que la perception d’un risque juridique pour la plateforme. Ce qui maximise la rétention à court terme fragilise la relation de confiance à moyen et long terme.

Un élément mérite une attention particulière. Parmi les six applications analysées, une seule, explicitement conçue autour du bien-être et de la santé mentale, ne déploie aucune de ces tactiques. Ce contre-exemple montre que la manipulation émotionnelle n’est pas une fatalité technologique. Elle résulte de choix de design, eux-mêmes orientés par des objectifs économiques et des indicateurs de performance.

Pour les entreprises, les implications sont directes. Peut-on continuer à mesurer le succès d’une IA relationnelle uniquement par le temps passé ou le nombre de messages échangés ? Comment distinguer une interaction choisie d’une interaction subie ? Où placer la frontière entre persuasion et manipulation lorsque l’IA exploite des normes sociales humaines que l’utilisateur projette spontanément sur elle ?

Au-delà du cas des IA compagnons, cette recherche ouvre un champ plus large : celui de la gouvernance émotionnelle des systèmes intelligents. La régulation actuelle se concentre sur les données, les biais, la transparence des modèles. Elle s’intéresse encore peu à la temporalité des interactions et aux moments de vulnérabilité psychologique qu’elles créent. Or c’est précisément dans ces interstices que se jouent les futurs enjeux de confiance.

Les IA relationnelles ne vont pas disparaître. Elles répondent à des besoins réels d’écoute, de dialogue, parfois de soutien. Mais à mesure qu’elles deviennent plus incarnées, plus convaincantes et plus présentes, une question s’impose avec acuité : qui décide du moment où la relation s’arrête ? L’utilisateur, ou l’algorithme ? C’est sans doute à cet endroit, discret, mais décisif, que se dessine la prochaine frontière éthique de l’intelligence artificielle.

Source De Freitas, Julian, Zeliha Oğuz Uğuralp et Ahmet Kaan Uğuralp, Emotional Manipulation by AI Companions, Harvard Business School Working Paper No. 26-005, août 2025 (révisé octobre 2025). Harvard Bus