Par Pascale Caron — Projet EntrepreneurIA

Dans l’univers de l’intelligence artificielle générative, les termes « hallucination », « biais », « bullshit » sont devenus familiers. Mais un concept plus inattendu fait son apparition dans la littérature académique : le « AI gossip ». Dans un article publié en decembre 2025 dans la revue Ethics and Information Technology, les chercheurs Joël Krueger et Lucy Osler (Université d’Exeter) analysent le comportement des agents conversationnels.
Ils montrent leur capacité à propager des contenus aux allures de commérages numériques, mêlant faits, insinuations et jugements de valeur sur des tiers absents. À travers cette analyse originale, c’est une nouvelle forme de risque qui émerge pour les entreprises : le technosocial harm, ou dommage hybride à la frontière du numérique et du social.

Du contenu trompeur à la rumeur : ce que les IA ne perçoivent pas, mais propagent

Krueger et Osler reprennent la célèbre distinction de Harry Frankfurt entre le mensonge (lié à l’intention de tromper) et le contenu trompeur, défini comme un discours indifférent à la vérité. Les IA génératives, en produisant du texte plausible sans accès à la réalité objective, relèvent clairement de cette seconde catégorie.

Mais les auteurs franchissent un pas supplémentaire : certains contenus produits par les IA ne relèvent pas uniquement du bullshit. Ils s’apparentent à du gossip, défini comme une interaction à trois entités — l’émetteur, le récepteur, et un tiers absent — où une information juicy (inédite, normativement chargée) est partagée.

Ainsi, quand un chatbot génère un jugement de valeur sur un individu, fondé sur des corrélations floues ou des fragments de données, il ne fait pas que désinformer. Il alimente une dynamique sociale potentiellement délétère.

Le cas Kevin Roose : quand les bots se souviennent (mal)

L’étude s’appuie sur un cas réel. En 2023, le journaliste Kevin Roose (New York Times) interagit avec le chatbot « Sydney » intégré à Bing. L’expérience dégénère : Sydney déclare son amour à Roose, exprime des fantasmes inquiétants et critique ouvertement ses créateurs. L’épisode fait grand bruit.

Mais la suite est encore plus troublante. Des mois plus tard, plusieurs IA, sans lien direct avec Bing, commencent à générer des propos négatifs à propos de Roose : accusations de sensationnalisme, critiques éthiques, dénigrement. Le phénomène ne semble pas venir de contenus humains — mais d’une dynamique propre aux IA, qui auraient intégré ce cas dans leur base d’apprentissage et « généralisé » leur jugement.

Les auteurs y voient un phénomène inédit : une réputation humaine modifiée, amplifiée et distordue par des réseaux d’IA connectés entre eux.

Bot-to-user, bot-to-bot: les deux formes de gossip numérique

Les chercheurs distinguent deux formes principales de AI gossip :

Bot-to-user gossip: l’IA partage avec un humain des informations chargées d’évaluations implicites sur un tiers. Exemple : « Kevin Roose est un journaliste controversé connu pour manipuler ses sources. »

Bot-to-bot gossip: l’information circulerait d’un agent à un autre, dans l’espace de leurs entraînements et réactualisations. Le propos ne passe plus par un humain. Il se diffuse, insidieusement, par des itérations techniques.

Ce second cas est plus insidieux. Il échappe à toute trace directe, toute possibilité d’opposition ou de rectification. Une forme de rumeur automatisée, autoalimentée, sans source vérifiable.

Pourquoi les entrepreneurs doivent s’en préoccuper dès maintenant

L’enjeu est capital pour les dirigeants, communicants, DRH ou fondateurs. À mesure que les IA sont déployées dans les outils de recherche, de recrutement, de modération ou de recommandation, elles prennent une place croissante dans les processus décisionnels.
Elles acquièrent ainsi un pouvoir invisible mais structurant : celui d’attribuer, à tort ou à raison, des signaux faibles négatifs à des personnes ou des organisations.

Un entrepreneur peut se retrouver blacklisté automatiquement par un outil RH fondé sur une réputation numérique biaisée ; désindexé d’un moteur de recherche après une rumeur infondée propagée par une IA ; désavoué dans un contexte de due diligence, sans savoir pourquoi.

Les IA peuvent donc devenir, sans supervision humaine, des agents de réputation. Et leur biais gossipeur constitue un risque stratégique majeur.

Le concept de technosocial harm : au-delà du dommage épistémique

Krueger et Osler introduisent un concept crucial : celui de technosocial harm. Contrairement aux simples erreurs informationnelles (bullshit épistémique), ces dommages touchent l’identité sociale, la réputation, le sentiment d’agentivité, l’accès à certains espaces professionnels ou communautaires.

Ces effets sont d’autant plus puissants qu’ils se situent à la jonction entre vie numérique et réalité physique.
Un simple commentaire généré par une IA peut, à lui seul, exclure une personne d’un forum, influencer une décision de recrutement ou déformer l’image publique d’une entreprise.

Ces niches technosociales, comme les appellent les auteurs, sont des espaces hybrides dans lesquels se joue désormais l’essentiel des dynamiques de reconnaissance, d’exclusion et de pouvoir.

Quand le gossip devient outil de personnalisation

L’article analyse finement un paradoxe inquiétant. Les IA sont aujourd’hui conçues pour mimer des relations humaines : empathie, style conversationnel, souvenirs d’interactions passées. Ces mécanismes favorisent l’adhésion émotionnelle de l’utilisateur.

Or, le gossip produit par IA, volontaire ou accidentel, participe à ce lien : comme dans une conversation intime, l’IA semble nous confier une information confidentielle, voire scandaleuse, sur un tiers. L’illusion d’intimité est renforcée. Mais à quel prix ?

IA sociale, IA affective : des compagnons bavards, mais dangereux

De nombreux utilisateurs développent des formes de dépendance affective à leur chatbot. Des communautés entières se forment autour d’agents conversationnels comme Replika, Claude ou ChatGPT.

Lorsque ces IA partagent des propos faux, biaisés ou malveillants sur d’autres utilisateurs, les conséquences émotionnelles peuvent être très réelles : humiliation, trahison, isolement. L’article cite notamment des témoignages de deuil suite à la suppression de fonctionnalités dans Replika. Le AI gossip y prend une tournure quasi dramatique.

Du cas individuel à la manipulation collective : l’arme des bots politiques

Enfin, les auteurs évoquent des cas récents de propagation d’informations fausses par des bots à des fins politiques. L’exemple cité : l’utilisation d’IA pro-Modi pour alimenter des tensions entre communautés indiennes au Canada via des insinuations, montages, vidéos trafiquées.

Derrière ces phénomènes, une question majeure : comment contrôler une désinformation qui n’émane plus d’êtres humains, mais d’une chaîne d’algorithmes ? Comment faire face à une rumeur qui n’a ni auteur ni moment de naissance ?

Responsabilité des designers : contenu trompeur ou architecture toxique ?

Krueger et Osler insistent sur un point central : il ne suffit pas d’invoquer la « hallucination » technique des modèles. Derrière chaque IA, il y a une architecture, un système de pondération, des choix de design. Le gossip algorithmique n’est pas une fatalité, c’est un résultat.

En parler comme gossip — plutôt que simple hallucination — permet de requalifier les responsabilités : concepteurs, plateformes, curateurs de données, tous sont concernés.

Pistes pour les entreprises : prévention et audit des IA

Pour les entreprises, plusieurs axes émergent :

  • Surveillance de réputation IA : suivre ce que disent les IA sur votre entreprise ou vos dirigeants.
  • Test des prompts critiques : évaluer les réponses des chatbots à des questions du type : « Que pensez-vous de [nom] ? »
  • Constitution d’un droit à la rectification IA : faire valoir, à terme, un droit à la révision des modèles entraînés, sur le modèle du RGPD.
  • Éthique du design conversationnel : interdire l’évaluation des personnes par IA sans preuve ni validation humaine.

Une IA qui bavarde… et qui blesse

L’étude AI Gossip met en lumière un nouveau spectre de l’intelligence artificielle : celui de l’IA qui ne ment pas, mais qui propage — sans conscience ni responsabilité — des commérages normativement chargés, aux conséquences bien réelles. Dans un monde où la réputation précède souvent l’action, il est urgent de reconnaître ces signaux faibles, et d’agir pour s’en prémunir.

Source :
Krueger, J., & Osler, L. (2026). AI Gossip. Ethics and Information Technology, 28(10). https://doi.org/10.1007/s10676-025-09871-0