Laurence Vanin est docteur en philosophie politique et en épistémologie. Elle est habilitée à diriger les recherches en section 72 sur la thématique de « L’éthique des relations aux objets connectés et aux robots. Elle a occupé le poste de directrice de la chaire « Smart City: Philosophie & Éthique » au sein de l’Université Côte d’Azur, où elle a exploré les implications éthiques et philosophiques des transformations urbaines intelligentes.
Actuellement, elle assume la direction du Bureau des Chaires et du Mécénat au Centre de Recherche de la Gendarmerie Nationale (CRGN). Elle y dirige le collège scientifique « Philosophie, éthique et épistémologie de l’expérience » de la Chaire Humanités Numériques (HuNum) du CRGN.
En tant qu’essayiste, Laurence Vanin a enrichi le paysage intellectuel par la publication de nombreux ouvrages. Animatrice passionnée, elle donne régulièrement des conférences accessibles au grand public, où elle aborde des thématiques variées mêlant philosophie, sciences humaines et enjeux contemporains.
Sa réflexion philosophique est marquée par une philosophie de l’action. Boris Cyrulnik la considère comme la « philosophe de la résilience ». Ses travaux mettent en avant la nécessité de préserver la responsabilité individuelle et l’authenticité dans les actions humaines face aux défis posés par un monde en constante évolution.
Peux-tu nous expliquer tes nouvelles activités ?
J’occupe un poste de Chef du Bureau des Chaires et des mécénats au Centre de Recherche de la Gendarmerie Nationale (CRGN). Mon rôle principal est de rechercher des mécènes pour financer les projets développés par le centre. Ceci pour financer l’organisation de journées dédiées aux thématiques des Chaires HiGeSet et HuNum et la production de podcasts, de publications issues de notre maison d’édition. Nous avons plusieurs programmes innovants en cours, notamment l’utilisation des drones pour retrouver des personnes disparues. Nous développons aussi des laboratoires d’analyse pour opérer sur des milieux contaminés affectés par exemple par la radioactivité. Un autre volet de nos travaux en cours de développement concerne la reconstitution de scènes historiques ou stratégiques grâce à l’intelligence artificielle. Nous collaborons avec une chaire d’histoire : nous analysons des batailles ou des scènes d’émeutes, et formons les gendarmes à des stratégies d’intervention en conditions réalistes. Nous menons également un projet axé sur la résilience des territoires, ainsi qu’une chaire intitulée « Humanités numériques ». Celle-ci se concentre sur des aspects technologiques liés à l’intelligence artificielle, tels que les algorithmes, les calculateurs et la cybersécurité. En parallèle, un volet dédié aux sciences humaines explore des dimensions philosophiques, éthiques et épistémologiques de ces expériences. Je dirige ce collège, ce qui me permet de capitaliser sur toute l’expérience que j’ai acquise en pilotant la chaire « Smart City: Philosophie & Éthique ». Ce que j’ai construit lors de mon parcours trouve ici une nouvelle orientation.
Quel est ton point de vue de philosophe sur l’Intelligence Artificielle ?
Aujourd’hui, on peut concevoir l’intelligence artificielle de deux façons principales. La première est celle d’une IA utile, qui optimise certains processus et facilite la vie des usagers. Elle se manifeste par des outils pratiques qui, bien que souvent invisibles, rendent de précieux services aux individus et aux collectivités. Prenons par exemple la réservation d’un train en ligne, le suivi des retards en temps réel, ou encore l’optimisation de la consommation d’électricité. Cette IA discrète remplit une fonction essentielle en soulageant les humains de tâches répétitives ou complexes. Sans elle, de telles tâches seraient à l’échelle globale quasiment impossibles à gérer seules. En ce sens, cette IA est un atout précieux.
La deuxième conception de l’IA se rapporte à son usage par les consommateurs. Il existe différents degrés de compréhension des outils, et c’est là qu’émerge une problématique philosophique. De nombreux individus emploient ces technologies sans réellement comprendre leur fonctionnement. Cela soulève des questions sur l’inclusivité, car l’illectronisme — l’incapacité à utiliser ou comprendre les technologies numériques — est encore largement répandu. Beaucoup ignorent les mécanismes sous-jacents des IA qu’ils manipulent, créant ainsi une situation où l’objet connecté, comme un téléphone ou un ordinateur, devient une abstraction, une zone d’opacité. Tout le monde n’est pas en mesure de comprendre comment les algorithmes fonctionnent ni comment les prestations de services associés aux usages fonctionnent par exemple à partir du cloud. Prenons un exemple courant : ceux qui affirment avoir tout dans leur téléphone ne s’imaginent pas qu’en réalité, leurs données sont hébergées dans le cloud, un espace externe et intangible. L’objet n’est qu’un intermédiaire, dépendant d’abonnements pour fonctionner. Cette abstraction de l’objet rend les utilisateurs vulnérables à des risques tels que les arnaques ou le phishing. Cela illustre l’urgence d’un travail de sensibilisation et de formation pour accompagner les individus dans l’usage de ces outils.
Comment rendre les technologies plus transparentes et inclusives ?
Cette question est également cruciale. Par exemple, OpenAI, malgré son nom, fonctionne comme une boîte noire. Les utilisateurs n’ont souvent aucune visibilité sur ses mécanismes internes. Cette opacité renforce la nécessité de développer des apprentissages pour aider les gens à mieux comprendre les systèmes qu’ils emploient, à reconnaître les risques et à éviter les dérives potentielles. Dans ce contexte, des initiatives comme l’Institut EuropIA jouent un rôle clé. Depuis sa création, cet institut s’efforce d’éduquer les individus, en tenant compte des besoins spécifiques de différents groupes, y compris les populations âgées, souvent confrontées à la dématérialisation forcée de services tels que la gestion des factures. Il est indispensable de leur fournir un minimum de formation pour qu’ils s’adaptent. Je suis convaincue que chacun, quel que soit son âge ou son niveau de connaissance, est capable de comprendre ces enjeux, à condition qu’on prenne le temps de les expliquer clairement. Ce travail d’éducation et d’acculturation est fondamental pour permettre à tous de tirer parti des avancées technologiques tout en limitant les inégalités et les vulnérabilités.
Comment préserver notre liberté face aux algorithmes ?
La deuxième observation sur l’intelligence artificielle réside dans son rôle dans la traçabilité. Pour la philosophe que je suis, l’idée d’être tracée ou traçable nuance profondément notre conception de la liberté. Cette limitation n’est pas seulement une conséquence de nos choix d’interaction avec la technologie, mais aussi une contrainte imposée par les objets eux-mêmes. Par exemple, ne pas activer la géolocalisation peut limiter l’accès à certaines applications ou fonctionnalités. Ainsi, l’IA génère des contraintes qui façonnent nos comportements et notre quotidien, au point que nous devenons des êtres prédictifs, définis par nos interactions numériques. Une question essentielle découle de cette observation : qui suis-je si je me déconnecte ? Qu’advient-il de ma personnalité, de mes désirs ou de mes choix, lorsque mes actions sont de plus en plus influencées par les algorithmes ? Par exemple, commander une crème solaire en ligne peut déclencher une série de suggestions — des serviettes de plage aux destinations de rêve — qui réduisent ma liberté d’imaginer un autre usage, comme d’aller à la montagne. Ce phénomène d’entonnoir, qui rétrécit le champ des possibles plutôt que de l’élargir, me semble problématique du point de vue des libertés individuelles.
À l’origine, Internet était perçu comme une porte ouverte vers un vaste univers de connaissances et d’échanges. Mais aujourd’hui, son utilisation prend souvent le pas sur son potentiel d’ouverture. L’imaginaire s’appauvrit lorsque l’information devient un produit algorithmique, préformaté par des systèmes qui nous guident presque automatiquement dans nos choix.
L’IA va-t-elle transformer la notion d’apprentissage ?
L’un des dangers de l’IA générative réside dans sa capacité à « prémâcher » les apprentissages. Plus nous confions des tâches à l’intelligence artificielle, moins nous nous impliquons activement dans ces processus d’apprentissage. Cela touche à tous les domaines, que ce soit des métiers manuels ou intellectuels. Par exemple, dans un travail de recherche, lire, analyser et synthétiser des rapports sont des étapes laborieuses, mais formatrices. De même, dans l’artisanat, sculpter le bois exige de la persévérance, mais cette pratique forge les compétences. Si tout est préfabriqué ou automatisé, comment pourrons-nous intégrer ces différentes étapes de formations et développer un esprit critique ?
La question devient alors : quelles substitutions trouver pour éviter que les IA ne supplantent les apprentissages humains ? L’effort, même laborieux, fait partie intégrante du processus d’acquisition et de construction des savoirs. Il est donc urgent de repenser la manière dont nous formons les individus. Les enseignants eux-mêmes doivent être éduqués pour comprendre et intégrer ces problématiques. Aujourd’hui, ils se heurtent à des défis nouveaux, comme détecter si une copie a été rédigée par un étudiant ou produite par une IA générative. Ce temps consacré à vérifier la provenance des travaux pourrait être mieux employé à reconsidérer les modes de transmission, afin d’encourager la créativité et la réflexion critique chez les apprenants. Il est important de souligner qu’il n’y a aucun pessimisme dans cette analyse. Le rôle du philosophe est de dresser un état des lieux, non pas pour alarmer, mais pour poser des bases de réflexion. Si l’IA s’améliore grâce au deep learning, il est crucial de valoriser également un deep learning humain, qui cultive les compétences intellectuelles et émotionnelles. La clé réside dans l’harmonisation entre l’évolution technologique et le bonheur humain. Nous devons transformer ces défis en opportunités pour repenser les apprentissages et redonner leur juste place à l’effort, à la créativité et à la pensée critique. Il en va de notre capacité à cohabiter avec l’IA tout en préservant notre humanité et notre autonomie.
Comment vois-tu l’évolution de l’éducation, inclusive et critique à l’ère technologique ?
Je pense que la notion de transmission, ainsi que la manière dont on dispense les cours et forme les individus, va devoir évoluer profondément. On devra inclure toutes les couches sociales, qu’il s’agisse de jeunes des banlieues, de personnes vivant en zones rurales, ou encore de ceux plus technophiles issus de milieux très spécialisés. L’objectif est d’intégrer tout le monde dans cette dynamique éducative, avec un réel souci d’inclusivité. Cela suppose une éducation qui participe du développement de l’esprit critique. L’idée est d’accompagner les nouveaux usages technologiques tout en évitant les pièges d’une paresse intellectuelle, où l’on se reposerait excessivement sur la machine sous prétexte qu’elle est plus rapide. Une solution pourrait consister à employer la technologie pour développer d’autres compétences, et ainsi inciter à réfléchir et à analyser. C’est en cultivant cet esprit critique que l’on pourra former des individus capables de se positionner librement face à la machine.
Devrait-on restreindre ou favoriser l’utilisation des technologies chez les jeunes enfants ?
Je pense que dans les premiers âges, il est nécessaire de limiter fortement l’exposition aux écrans pour favoriser le développement de la sociabilité. Ils doivent apprendre à se concentrer et à construire leurs facultés intellectuelles avant d’être exposés aux réseaux sociaux ou à des contenus numériques trop diversifiés. En grandissant, même si l’apprentissage passe par l’ordinateur, les usages doivent rester simples et encadrés, favorisant des compétences de base comme le français et les mathématiques (en ajoutant l’informatique) ou la compréhension des outils eux-mêmes. Une fois ces bases solides acquises, on peut intégrer progressivement des applications plus complexes, en montrant aux jeunes comment repérer les fake news ou déceler les textes générés automatiquement, afin qu’ils développent une vigilance critique.
Nous avons une responsabilité morale envers l’humanité : il ne suffit pas de transformer le monde avec de nouvelles technologies sans accompagner ce changement par une éducation adaptée. Il faut enseigner comment utiliser ces outils, mais aussi mettre en garde contre leurs limites. Les IA ne sont pas infaillibles ; elles peuvent être biaisées ou produire des erreurs. Sans une formation à la détection des incohérences ou des contenus problématiques, les individus risquent de ne pas s’en rendre compte. Le danger est de basculer dans un totalitarisme non voulu, imposé par les IA elles-mêmes, à travers des décisions automatisées qui influencent nos vies. Pour éviter ce scénario, les IA doivent être transparentes et dignes de confiance, ce qui nécessite un travail collectif, transdisciplinaire et mondial.
Quel est ton avis sur la réglementation et les enjeux éthiques liés à l’intelligence artificielle ?
Sur la scène internationale, la prise de conscience collective est essentielle. L’Europe a l’opportunité de jouer un rôle de modèle en développant des IA exemplaires, qui pourraient inspirer d’autres régions du monde. Même si certains pays ne suivent pas immédiatement ce modèle, les IAs vertueuses auront, à terme, un impact positif global. Les échanges entre les cultures et les technologies permettront aux individus de comparer leurs systèmes respectifs. Ceux qui se sentiront abusés par des IA peu transparentes et peu frugales chercheront à revenir à des modèles plus authentiques, plus respectueux de l’environnement. L’Europe se distingue par son approche réformatrice et son souci de réglementation, contrairement aux GAFAM qui sont plus expédients en la matière. La Chine, quant à elle, reste opaque et envahit le marché avec des IA et des API souvent très compétitives, mais peu contrôlées. Cela accentue l’urgence pour l’Europe de renforcer ses cadres et d’affirmer un leadership dans ce domaine. Si nous réussissons, cela pourrait établir un nouveau standard mondial pour les générations futures, alliant progrès technologique et respect des valeurs humaines fondamentales.
C’est pour cela que, selon moi, il finira par exister des labélisations spécifiques : IA certifiées européennes, américaines, russes, etc. Nous en sommes encore aux balbutiements, mais tout bouge à une vitesse qui dépasse celle de la réflexion. La modernité nous arrive avec ses transformations constantes : nos téléphones changent sans cesse, tout évolue rapidement. Mais à un moment donné, il faudra que nos esprits rattrapent cette cadence. Si nous n’y parvenons pas, cela risque de ralentir les systèmes ou de nous mener vers une domination des objets connectés sur les humains. Un monde où ils gouverneraient les hommes serait dramatique, nous serions alors aliénés à la technique.
Cependant, je crois fermement que les humains, aspirant à l’autonomie, éviteront ce scénario. Nous devons privilégier une autonomie humaine, responsable et éclairée. Cela ouvre un véritable champ d’action et d’innovation. Je suis optimiste : je ne critique pas les IA, mais je mets en lumière leurs points faibles et les zones où elles peuvent poser problème. J’ai confiance dans les ingénieurs. Lorsqu’ils sont confrontés à des défis, ils trouvent des solutions brillantes, et si le défi est éthique, il peut être source de belles opportunités salvatrices pour les utilisateurs. En France, nous avons d’excellents talents capables de perfectionner les IA en tenant compte des idées que nous, philosophes ou éthiciens, pouvons leur soumettre. Mais il faut ensuite avoir le courage de perdre du temps pour les mettre en pratique et trouver des solutions pour anticiper sur les futures crises existentielles. Pour cela, l’éthique ne doit pas être un simple discours creux. Trop souvent, lorsqu’on m’invite à aborder le sujet, je constate que mes propos, même s’ils sont pertinents, dérangent les exigences du marché et sont vite ignorés. À l’inverse, certains éthiciens tombent dans un catastrophisme excessif qui ne sert pas non plus à la cause. Ce clivage entre techno-optimistes et techno-pessimistes est une erreur fondamentale. Nous devons dépasser ces oppositions.
Et donc comment allier innovation technologique et respect des valeurs humaines fondamentales ?
En tant que philosophe, je souhaiterais participer à des projets concrets, et pouvoir dire : ce produit est excellent, mais voici un aspect à améliorer. Si un garde-fou est déjà en place, c’est formidable. Sinon, cela peut être l’occasion de challenger les ingénieurs pour qu’ils revoient certains points sans nécessairement remettre tout leur processus en question. La clé réside dans la transdisciplinarité : les ingénieurs et les philosophes doivent dialoguer pour construire des passerelles, car ces technologies, qu’elles concernent la santé, les objets connectés ou d’autres domaines, impliquent toujours des enjeux éthiques majeurs. Nous devons garantir un équilibre pour protéger les générations futures. Vivre sous la contrainte permanente ou face à des dilemmes éthiques incessants rendrait les individus malheureux. L’intelligence artificielle est un outil, un prolongement de nous-mêmes pour accélérer certaines tâches. Mais elle ne doit jamais compromettre notre dignité humaine, notre créativité ou notre autonomie. Il est aussi essentiel de reconnaître les limites des IA. Elles fonctionnent sur des algorithmes, une combinatoire de données déjà existantes. Elles ne peuvent pas créer comme un humain, avec sa spontanéité et son originalité. Elles ne maîtrisent pas non plus le second degré ou les nuances émotionnelles. Elles les miment simplement dans un simulacre. C’est pourquoi nous devons bien différencier leurs créations des nôtres, par exemple en étiquetant clairement les contenus générés par une IA. Cela rendrait les usages plus transparents et conforterait la confiance. D’un point de vue éthique, une réflexion essentielle s’impose et je suis prête pour ma part à intégrer des commissions et groupes de travail sur le sujet. L’intelligence artificielle s’intègre dans tous les aspects de notre quotidien que ce soit dans la domotique de nos maisons, à chaque coin de rue, dans nos comptes bancaires, etc. Mais la traçabilité qu’elle offre peut rapidement évoluer de manière intrusive. Où trouver un espace pour préserver notre intimité ?
Nous risquons de devenir des citoyens « de verre », constamment sous la surveillance des IA, et transparents aux systèmes. Il existe une différence cruciale entre la sphère publique, privée, et intime. Cette dernière doit rester un domaine réservé aux relations humaines authentiques : échanger avec son conjoint, parler à ses enfants, ou caresser son animal de compagnie sans craindre qu’un dispositif connecté enregistre ces moments. L’idée que des enceintes intelligentes ou des logiciels puissent capter ces instants soulève une inquiétude légitime. Un exemple frappant est lorsque vous consultez un ordinateur et découvrez qu’il vous propose une recette liée à une conversation informelle que vous pensiez privée. Cela montre que des mots peuvent être enregistrés à votre insu, même dans le cadre intime de votre foyer. Cependant, les IA peuvent également apporter une contribution précieuse, notamment en matière de sécurité. Elles peuvent être cruciales dans des situations d’urgence, par exemple pour localiser des personnes dans un bâtiment en feu et faciliter le travail des secours. Mais ces avantages doivent être contrebalancés par des précautions indispensables en cybersécurité.
Nous avons aussi un rôle à jouer en tant que citoyens. Nous devons rester vigilants et exprimer nos attentes concernant les IA, participer à ce projet collectif et ainsi renforcer le lien social. De plus, nous devons réaffirmer des droits fondamentaux, comme celui du droit à la déconnexion ou à préserver une sphère intime, loin de toute intrusion technologique.
L’avenir des IA doit être construit d’un commun accord, en tenant compte des besoins humains, de l’éthique et de la durabilité. En nous assurant que la technologie reste au service des individus, et non l’inverse, nous pourrons en tirer le meilleur pour bâtir une société équilibrée et harmonieuse. Il y aura toujours des êtres mal intentionnés, et il est crucial de protéger nos enfants de ces menaces. Nous avons charge d’âmes pour les générations futures. Par exemple, si l’on se trouve dans l’intimité de son salon, la nudité, ne dois jamais devenir une offrande involontaire à un inconnu qui observe à travers un système technologique intrusif. Cela implique aussi de préserver les plus jeunes des dangers tels que la pédocriminalité et des personnes malveillantes qui exploitent les vulnérabilités des plus fragiles.
Pour les créateurs d’intelligences artificielles, cela constitue un impératif éthique : concevoir des systèmes qui intègrent des mécanismes permettant de couper l’accès en cas de menace, d’interrompre des intrusions et de protéger les usagers. Faute de cela, les conséquences pour la collectivité pourraient être dramatiques. Les gens, face à des attaques répétées ou des arnaques, seraient poussés à souscrire à des assurances de plus en plus coûteuses. Il pourrait aussi rejeter cette société façonnée par les technologies. Cela entraînerait une hausse des prix et une insoutenabilité pour beaucoup. Il est donc impératif d’anticiper ces enjeux, d’adopter une réflexion éthique en amont et de poser des bases solides pour optimiser l’utilisation des IA, plutôt que de les interdire. Cela passe aussi par le contrôle. Les nouveaux usages que les IA apportent engendrent inévitablement de nouveaux risques. Ils doivent être anticipés et traités afin de garantir une adoption sereine des technologies. Cela nécessite une approche structurée et réfléchie, où l’expérience humaine reste au centre de l’analyse.
Comment peut-on concilier usage du numérique et authenticité dans les relations humaines ?
Il ne suffit pas de s’arrêter à une éducation scolaire, elle doit être globale. Elle commence à l’école, mais se poursuit à la maison, dans la rue, et au sein de la société dans son ensemble. Parents, enseignants, citoyens : chacun a un rôle à jouer pour transmettre des fondamentaux qui permettent à chaque individu de devenir autonome sans être vulnérable ou malheureux.
Cela implique aussi d’éduquer à la sincérité et à l’authenticité. Nous vivons dans un monde où l’image, souvent trompeuse, prend une place démesurée. Lorsque des jeunes cherchent à ressembler à leur version filtrée sur Instagram, au point de recourir à la chirurgie esthétique, cela montre à quel point cette déconnexion avec la réalité peut être destructrice. Une relation basée sur une fausse image ou des fake news compromet les fondations mêmes de la sincérité et de la vérité. Il devient alors indispensable de distinguer les moments de connexion numérique, des instants authentiques, de relations humaines. Pour cela, il faut former les enseignants à ces questions, mais responsabiliser aussi les parents, et engager la société dans son ensemble. C’est un devoir collectif, où chacun a un rôle à jouer pour guider, conseiller et soutenir, afin de bâtir une autonomie éclairée et un avenir où l’humain reste au centre des interactions.