Le Dr Luc Julia, expert reconnu en intelligence artificielle (IA) et interaction homme-machine, est une figure incontournable du domaine. Co-créateur de Siri, il a occupé des postes de direction en innovation chez Apple, Samsung et Hewlett-Packard avant de rejoindre Renault en tant que Chief Scientific Officer. Son approche de l’IA est pragmatique et centrée sur l’utilité réelle pour l’humain, loin des fantasmes technologiques souvent relayés par la culture populaire. Dans cet entretien, il partage sans filtre sa vision sur l’IA générative, ses limites, son impact écologique, l’éthique et l’avenir du domaine.

En tant que Chief Scientific Officer de Renault, Luc Julia travaille sur l’intégration de l’IA dans l’industrie automobile. Il supervise la mise en place d’algorithmes intelligents pour optimiser la conduite, améliorer l’interface homme-machine et rendre les véhicules plus sûrs et intuitifs. L’un des projets phares sous sa direction est le développement d’un assistant IA embarqué, illustré par l’avatar intelligent de la nouvelle Renault 5. Ce dernier n’est pas uniquement une interface vocale, mais un véritable compagnon de route capable de s’adapter aux habitudes du conducteur.

 

Selon vous, quelles sont les principales idées reçues sur l’IA générative, notamment avec l’essor de ChatGPT, que le public et les entrepreneurs devraient remettre en question ?

L’intelligence artificielle qui n’existe pas, c’est celle de Hollywood : une IA omnisciente et autonome, pouvant tout faire, seule. C’est ce que j’appelle l’Intelligence Artificielle Générale (AGI), et elle reste un fantasme. En revanche, les IA spécialisées, conçues pour accomplir des tâches précises et utiles au quotidien, sont bien réelles et nombreuses.

Le problème majeur avec ces systèmes génératifs, c’est l’illusion d’infaillibilité qu’ils créent. On leur attribue une capacité à répondre à tout, mais en réalité, plus une IA est généraliste, moins ses retours sont pertinents. L’une des idées reçues les plus répandues est de les assimiler à des humains, alors qu’elles ne font qu’imiter nos biais. Et plus on s’attend à ce qu’elles soient omnipotentes, plus la déception est grande.

Les chiffres précis sont difficiles à établir, mais certaines études estiment que ces IA donnent des réponses justes dans environ 64 % des cas. Cela signifie qu’elles produisent des erreurs ou des hallucinations dans 36 % des cas, ce qui est considérable. Pourtant, cette réalité est souvent méconnue.

La fiabilité des réponses dépend aussi de la manière dont la question est formulée. L’IA ne comprend pas véritablement ce qu’elle dit ; elle génère des réponses en fonction des modèles statistiques sous-jacents. Parfois, elle ne sait même pas compter correctement. Si vous lui demandez de prouver que 2 + 2 = 5, elle tentera de le faire sans remettre en question l’absurdité de la requête.

 

Quel est votre point de vue sur les nouveaux modèles d’IA ou sur les technologies émergentes, notamment celles évoquées par Yann Le Cun, en opposition aux modèles génératifs ?

Yann lui-même admet qu’il ne sait pas encore s’il parviendra à développer ce raisonnement sur lequel il travaille depuis plusieurs années.

En réalité, les IA généralistes sont vouées à disparaître progressivement. Elles sont déjà en déclin et seront remplacées par des modèles plus spécialisés. Deux grandes approches émergent : le finetuning, qui ajuste un modèle existant pour une tâche définie, et le RAG (Retrieval-Augmented Generation), qui permet d’intégrer des connaissances externes pour améliorer la pertinence des réponses.

Cette tendance vers des modèles spécialisés va s’intensifier. On parle aussi d’IA Agentique, un concept où plusieurs agents spécialisés collaborent pour accomplir des actions complexes. Chaque agent excelle dans un domaine précis, et leur interaction permet une certaine forme d’orchestration, qui pourrait évoquer du raisonnement — avec toutes les réserves nécessaires.

Cette évolution sera marquante dans les mois et années à venir. Aujourd’hui, les agents utilisent des méthodes d’intelligence artificielle générative, mais les principes d’orchestration, sont la depuis longtemps. Par exemple, CORBA, dans les années 80 et 90, reposait déjà sur des concepts d’agents collaboratifs.

Les approches actuelles, qui concilient IA générative et modèles statistiques, vont probablement perdurer. Ce que développe Yann est intéressant, et l’avenir pourrait voir émerger des systèmes hybrides. Il s’agit d’une combinaison entre des systèmes experts, parfois considérés comme des technologies « anciennes », et les méthodes modernes d’IA. Certains laboratoires de recherche explorent cette voie, qui semble prometteuse.

L’un des enjeux majeurs reste l’impact écologique. Les IA statistiques actuelles consomment énormément de ressources, et toute avancée qui permettrait d’optimiser leur efficacité tout en réduisant leur empreinte environnementale serait un progrès significatif.

L’informatique quantique, contrairement aux mathématiques, relève avant tout de la physique. Ici encore, on flirte avec la science-fiction, car même les chercheurs en quantique les plus honnêtes reconnaissent qu’ils ne savent quand, ou s’ils parviendront à des avancées concrètes.

Si l’on arrive à maîtriser cette technologie, il faudra tout repenser, repartir de zéro. Aujourd’hui, l’informatique repose sur des modèles mathématiques, tandis que l’informatique quantique s’ancre dans la physique. Une partie de cette discipline utilise néanmoins des statistiques pour stabiliser les modèles.

Mais qu’implique réellement cette évolution ? Certains imaginent que cela pourrait nous rapprocher du fonctionnement du cerveau biologique. Si nous parvenions à l’imiter, alors peut-être pourrions-nous reproduire l’intelligence elle-même. Cependant, ce raisonnement est hautement spéculatif. Non seulement nous ne comprenons pas encore pleinement le fonctionnement du cerveau — les neuroscientifiques estiment n’en maîtriser que 20 à 40 % — mais en plus, nous ne savons pas précisément ce qu’est l’intelligence. Cela relève donc, pour l’instant, de la fiction.

Ce qui est certain, en revanche, c’est que d’ici deux, trois ou cinq ans, des méthodes révolutionnaires d’intelligence artificielle émergeront et connaîtront un engouement massif. Comme à chaque cycle, certains annonceront que nous sommes proches de l’AGI. Puis, après quelques mois ou années, on réalisera que ces méthodes sont surtout efficaces pour des tâches spécialisées, l’enthousiasme retombera… avant qu’un nouveau cycle ne recommence.

Ce phénomène suit une dynamique bien éprouvée, proche du Hype Cycle de Gartner. Depuis 70 ans, l’IA traverse ces phases d’euphorie et de désillusion successives. Et ce schéma continuera probablement encore longtemps.

 

Croyiez-vous plus à l’open source, de type Meta, ou aux solutions propriétaires comme OpenAI qui n’a d’open que le nom ?

Si vous discutez avec des experts de l’open source, beaucoup vous diront que l’open source de Meta n’est pas si ouvert que cela. Certes, il l’est davantage qu’OpenAI, qui a officiellement abandonné l’open source en 2018 par choix stratégique.

L’open source, qu’il soit authentique ou partiel, est une approche très intéressante. Des initiatives comme celles de Mistral ou Meta permettent d’exploiter leurs modèles, même si l’accès aux données d’entraînement reste limité. En revanche, les algorithmes sont, dans une certaine mesure, accessibles et réutilisables.

L’un des avantages majeurs de ces modèles open source est qu’ils peuvent être exécutés localement. On peut les télécharger, les ajuster et les déployer sur un PC personnel ou des serveurs privés, ce qui offre une alternative aux solutions centralisées dans le cloud.

Cette approche a plusieurs bénéfices, notamment sur le plan écologique. Elle permet d’optimiser les modèles, de les spécialiser et de les alléger, ce qui les rend plus frugaux en ressources. En réduisant leur empreinte et en les rendant autonomes, on gagne aussi en contrôle sur les données et les usages.

Bien sûr, l’open source peut également être exploité dans le cloud. Mais je crois davantage à un open source « ramené downstairs », c’est-à-dire rapproché des utilisateurs et des infrastructures locales, plutôt que confiné aux grandes plateformes centralisées.

 

Vous avez évoqué l’impact et la frugalité. Quelle stratégie préconisez-vous pour réduire cet impact tout en maintenant l’innovation ? Lors du WAICF, il y a quelques semaines, David Gurle a justement abordé ce sujet avec Hivenet et les réseaux distribués.

Cela fait longtemps que l’on en parle, car ils offrent un avantage clé : leur décentralisation. Contrairement aux infrastructures centralisées, ces systèmes permettent d’effectuer les calculs localement, en périphérie du réseau (« downstairs »), tandis que la coordination des modèles reste en partie centralisée (« upstairs »).

L’un des aspects essentiels de cette approche est qu’elle déplace l’inférence — c’est-à-dire l’utilisation des modèles — vers des infrastructures locales, réduisant ainsi la dépendance aux data centers énergivores.

Aujourd’hui, la consommation des IA génératives est un vrai sujet. Les chiffres varient selon les études et la complexité des requêtes, mais on estime qu’environ 20 requêtes ChatGPT dépensent l’équivalent de 1,5 litre d’eau. Ce chiffre est alarmant, surtout quand on sait que des millions de requêtes sont effectuées chaque jour. Et cela ne tient même pas compte des émissions de CO₂.

Le modèle des data centers, pose un problème majeur, notamment parce que 60 % de leur consommation électrique sert uniquement au refroidissement des machines, empilées les unes sur les autres et générant une chaleur excessive.

Les solutions envisagées pour réduire cet impact sont parfois discutables. Certains proposent d’installer des centrales nucléaires à proximité des data centers, mais cela pose d’autres défis, en particulier en termes de consommation d’eau pour le refroidissement. D’autres suggèrent de les placer dans des zones polaires, sous l’océan, voire dans l’espace.

Des idées encore plus extrêmes émergent, comme celles d’Elon Musk, qui envisage d’installer des data centers sur la Lune ou Mars. Si cette approche peut sembler innovante, elle ne ferait que déplacer le problème ailleurs, avec un impact environnemental et écosystémique pour l’instant inconnu.

Au lieu de chercher à externaliser ces infrastructures, la vraie solution pourrait être d’adopter des modèles plus frugaux, mieux distribués et adaptés à une consommation d’énergie plus responsable.

 

Comment les entreprises peuvent-elles s’assurer que leur système d’IA sont conçus de manière éthique, en évitant les biais ?

Les biais sont inévitables. Plutôt que de chercher à les éliminer totalement, il faut les comprendre et les assumer.

Tant qu’un modèle est générique, il est biaisé, car il reflète la nature même d’Internet, qui est lui-même biaisé. Par exemple, environ 70 % du contenu en ligne provient des États-Unis, ce qui influence la manière dont ces modèles pensent et s’expriment. Ils adoptent une vision majoritairement américaine, avec ses propres références culturelles, ses erreurs et ses imprécisions — qui ne sont finalement pas très différentes des biais européens.

Lorsque l’on développe un modèle plus spécialisé, entraîné sur nos propres données, on peut avoir l’illusion d’un système plus éthique, car il repose sur des données que nous contrôlons et que nous considérons comme légitimes. Mais en réalité, cela ne fait qu’introduire nos propres biais dans le système.

Cependant, cela n’a rien d’anormal. Il faut simplement accepter que tout modèle est construit avec un prisme et comprendre comment il oriente ses réponses. Un système d’IA reproduit ce qu’on lui donne et répond en fonction des règles et des données qu’on lui impose. L’important n’est pas d’éliminer totalement les biais — ce qui est illusoire — mais d’avoir une conscience critique de leur présence et de leur impact.

 

Qu’est-ce que vous pensez du rôle de la réglementation ? Elle devrait jouer dans le développement, le déploiement de l’IA. Parce qu’en Europe, on a tendance à trop réglementer. Aux États-Unis, il n’y a pas du tout. Donc, est-ce qu’il y a un juste milieu ?

Aux États-Unis, la régulation fonctionne différemment de l’Europe. Elle intervient a posteriori, principalement à travers la jurisprudence, plutôt que par des lois anticipant les risques. C’est ce qui explique la différence d’approche :

  • Aux États-Unis, on expérimente, on assume les erreurs, puis on régule après coup, en réaction aux abus ou aux problèmes identifiés.
  • En Europe, la régulation est a priori, c’est-à-dire qu’on cherche à encadrer une technologie avant même d’en avoir pleinement compris les implications.

C’est ce qui donne naissance à une vision caricaturale : aux États-Unis, on invente, en Asie, on copie, en Europe, on régule.

Concernant les AI Acts, je pense que certaines décisions sont mal calibrées. Attention, je ne dis pas que la régulation est inutile. Au contraire, elle est essentielle : il faut des lois pour encadrer les usages et éviter les dérives. Mais ces règles devraient être fixées une fois que l’on comprend réellement les enjeux et les applications.

Le problème de l’AI Act, c’est son interdiction globale de certaines technologies, plutôt que de prohiber des applications spécifiques. Cette approche manque de granularité. Par conséquent, cela risque de bloquer l’innovation en empêchant le développement de technologies potentiellement bénéfiques.

Et en Europe, la machine législative est lente : si une erreur est faite, la correction peut prendre une décennie.

On a déjà commis cette erreur dans les années 80 avec la génétique. À l’époque, la France a interdit certaines manipulations génétiques par crainte de l’eugénisme. Mais l’eugénisme est une application de la génétique, pas la génétique elle-même. En interdisant aveuglément la technologie, on a freiné des avancées comme la thérapie génique, qui est aujourd’hui une révolution médicale.

L’histoire risque de se répéter avec l’IA : réguler trop tôt et trop large peut empêcher des avancées majeures avant même qu’on en saisisse tout le potentiel.

Au final, cette approche nous a fait perdre 10 ans. On réalise, après coup, qu’il aurait peut-être été préférable de ne pas interdire certaines technologies. Mais en attendant, le retard accumulé est considérable. Le problème vient d’un manque de granularité dans la régulation. Plutôt que de cibler des applications précises, on a imposé des restrictions trop larges, regroupant des technologies très différentes sous un même cadre réglementaire. Cela freine inévitablement l’innovation. On le voit déjà : des entreprises comme Meta, Apple et d’autres hésitent à déployer certaines fonctionnalités en Europe, de peur d’enfreindre des règles trop floues ou trop contraignantes. Et le risque est majeur : ne pas utiliser ces nouvelles technologies, c’est aussi se priver de découvertes potentielles. Certaines innovations pourraient déboucher sur des avancées essentielles, mais si elles sont bloquées en amont, nous ne le saurons jamais.

 

Et quel développement en IA vous enthousiasme le plus actuellement ? Comment voyez-vous l’évolution de cette technologie dans les prochaines années ?

Pour moi, les domaines d’application les plus prometteurs concernent en premier lieu la médecine. C’est un secteur où l’IA apporte déjà des avancées extraordinaires.

Les IA actuelles, qui reposent sur des modèles statistiques, se rapprochent en ce sens de la génétique, qui repose elle aussi sur des principes combinatoires, notamment dans l’analyse de l’ADN. Grâce à cette puissance de calcul, nous allons assister à des découvertes majeures :

  • Détection précoce des maladies, en identifiant des marqueurs bien en amont.
  • Thérapies ciblées, avec des traitements personnalisés basés sur le profil génétique.
  • Développement de nouvelles molécules, en accélérant la recherche et la conception de médicaments.

L’IA joue un rôle clé depuis des années en imagerie médicale, et avec l’arrivée des modèles génératifs, son impact s’étend encore plus loin. Ce sont des avancées fascinantes.

Un autre domaine qui me passionne est celui du transport. Avec le vieillissement des populations, les déplacements deviennent plus complexes, et les routes restent un enjeu majeur de sécurité, avec près d’un million de morts par an dans le monde.

L’IA peut apporter des solutions pour rendre les véhicules plus sûrs. Contrairement à la vision de la voiture totalement autonome — qui, selon moi, est trop coûteuse et complexe à généraliser —, je crois beaucoup aux systèmes d’aide à la conduite. Ces technologies, déjà présentes dans de nombreux véhicules, deviennent de plus en plus performantes et réduisent considérablement les risques d’accident.

Mais l’IA ne se limite pas à la sécurité routière. Elle ouvre aussi des possibilités en matière de divertissement et de pédagogie à bord des véhicules. Plutôt que de se distraire avec des jeux simplistes — comme compter les voitures rouges et bleues —, on pourra exploiter ces outils pour des expériences enrichissantes et interactives.

 

Justement, est-ce que vous avez des projets actuels sur ce sujet ?

Un bon exemple récent est la nouvelle Renault 5, lancée en décembre. Ce modèle intègre un avatar intelligent, bien que son intelligence soit encore limitée. Il est toutefois plus évolué que les systèmes audios traditionnels des voitures.

Il aide à comprendre le véhicule, avec une touche d’anthropomorphisme. Il incarne la voiture, interagit en langage naturel et possède même une expression visuelle.

L’intérêt principal de cet avatar réside dans son double fonctionnement :

  • Réactif : il répond aux questions, qu’il s’agisse d’une demande sur la voiture ou d’une curiosité comme la date de naissance de Napoléon.
  • Proactif : il anticipe les besoins du conducteur. Par exemple, à Paris, où la limitation est à 30 km/h, si vous dépassez la vitesse autorisée, l’avatar peut suggérer d’activer le régulateur de vitesse.

C’est une approche pédagogique, qui guide l’utilisateur sans être intrusive.

L’intelligence artificielle est désormais intégrée dans tous les secteurs de l’entreprise, et comme vous l’avez constaté auprès des entrepreneurs que vous interviewez, chaque métier peut bénéficier d’outils IA spécialisés.

Chez Renault, l’IA ne remplace pas les employés, mais elle augmente leurs capacités. C’est ce que j’appelle l’intelligence augmentée : elle assiste les travailleurs dans des tâches spécifiques, en optimisant ce qu’ils auraient pu faire avec leur propre raisonnement, mais de manière plus efficace et plus rapide.

 

Quels conseils donneriez-vous aux entrepreneurs qui veulent intégrer l’IA ?

Il est essentiel de ne pas ignorer l’IA, même si elle ne semble pas immédiatement utile à une entreprise. Comprendre ses potentiels et ses limites est crucial pour une adoption intelligente. L’éducation joue un rôle central : il ne s’agit pas seulement d’utiliser ces outils, mais de savoir comment et quand les appliquer. Cependant, il ne faut pas tomber dans l’effet de mode et chercher à intégrer l’IA à tout prix. Les entreprises doivent tester, expérimenter, mais également accepter d’abandonner les projets non pertinents.

Le mot clé ici est éducation. Il faut apprendre à maîtriser l’outil, mais aussi comprendre ses limites et ses dérives potentielles. L’IA est comme un marteau : on peut s’en servir pour planter un clou, mais aussi pour frapper quelqu’un. D’où la nécessité d’une régulation adaptée. Mais cette régulation ne doit pas être uniquement imposée par les États ou les institutions internationales, généralement déconnectés des réalités opérationnelles. Elle peut aussi émerger de la base, notamment au sein des entreprises.

En effet, la régulation ne se joue pas uniquement à l’échelle d’un pays ou du monde. Une entreprise peut et doit définir sa propre éthique d’usage, en déterminant ce qui est acceptable et ce qui ne l’est pas pour ses collaborateurs et ses clients.

L’un des risques majeurs est de vouloir appliquer l’IA partout, même là où elle n’apporte aucune valeur ajoutée. Un chiffre intéressant, bien que non encore officiellement publié, illustre cette tendance : dans les grandes entreprises françaises du CAC 40, environ 170 POC (Proof of Concept) en IA ont été lancés entre 2023 et 2024. Mais seuls 10 en moyenne ont été réellement implémentés ou implémentables. Cela représente à peine 5 % de succès, ce qui correspond au taux normal de l’innovation.

Pourquoi un tel engouement ? Parce que l’IA générative possède une caractéristique unique : une simplicité d’utilisation révolutionnaire. Contrairement aux précédentes technologies d’IA, elle peut être exploitée en langage naturel via des prompts, sans nécessiter de compétences techniques avancées.

Au début de 2023, l’un des métiers les plus en vogue dans la Silicon Valley était celui de Prompt Engineer. Mais ce rôle a rapidement disparu. Pourquoi ? Parce que les entreprises ont réalisé que tout le monde pouvait apprendre à écrire un prompt efficace. En langage naturel, n’importe quel utilisateur peut interagir avec ces IA de manière intuitive, rendant inutile le besoin d’une expertise spécifique.

Un autre phénomène amusant est l’explosion du « jailbreaking » des IA à travers les prompts. Beaucoup ont découvert comment contourner les restrictions des modèles pour leur faire générer des réponses qu’ils ne sont pas censés produire.

 

Ce qu’il faut retenir

Luc Julia incarne une approche pragmatique et lucide de l’intelligence artificielle. Pour lui, l’avenir réside dans des solutions spécialisées, conçues pour répondre à des besoins concrets. Il insiste sur le fait que l’IA est un outil puissant, à condition de l’utiliser de manière réfléchie et de ne pas se laisser emporter par les fantasmes de la science-fiction.

Son regard, à la fois critique et optimiste, apporte une vision précieuse sur l’évolution de cette technologie, avec une attention particulière portée à l’humain et à la responsabilité écologique. Son travail chez Renault illustre cette approche en développant des systèmes intelligents qui améliorent l’expérience de conduite, tout en renforçant la sécurité et l’efficacité des véhicules. Plutôt que de poursuivre des promesses irréalistes, il conçoit une IA tournée vers des applications concrètes, ancrée dans une logique d’innovation utile et responsable.