Au GTC 2025, la conférence la plus attendue n’a pas été une keynote spectaculaire, mais un échange intellectuel dense entre deux figures majeures de l’intelligence artificielle contemporaine. Yann LeCun, Chief AI Scientist chez Meta, et Bill Dally, Chief Scientist de NVIDIA, se sont retrouvés sur scène pour discuter des limites actuelles de l’intelligence artificielle et des architectures du futur.

Dès les premiers échanges, le ton est donné : il ne s’agit ni de spéculation marketing, ni de vagues prédictions, mais d’un retour exigeant sur les principes fondateurs de l’IA, dans une optique de long terme.

« Je ne m’intéresse plus vraiment aux LLMs »

Dally interroge :

“What’s been the most exciting development in the past year?”

LeCun répond, sans détour :

« Too many to count. But I’m not so interested in LLMs anymore. They’re kind of the last thing. »

Cette déclaration tranche avec l’effervescence médiatique actuelle autour de GPT-4o, Claude 3 ou Gemini. Pour LeCun, les modèles de langage sont à la fin d’un cycle de recherche fondamentale. Les progrès récents sont dus à des raffinements industriels : davantage de données, plus de compute, une optimisation d’infrastructure. En somme, de l’ingénierie, plus que de la science.

Une critique radicale du paradigme des tokens

Pourquoi un tel désintérêt ? Parce que les LLMs, selon LeCun, ne modélisent pas la réalité :

« The world is continuous and has low entropy. Predicting tokens, like language, is very high entropy. That doesn’t capture the world well. »

Autrement dit, les modèles actuels prédisent des successions de symboles, sans compréhension des contraintes physiques ou causales du monde réel. Ils échouent à prédire une vidéo, à planifier une action, ou à se doter d’une mémoire stable.

De la prédiction des pixels à l’anticipation dans l’abstraction

Face à cette impasse, LeCun propose une rupture : le JEPA, pour Joint Embedding Predictive Architecture.

« We don’t want to predict the unpredictable. We want to model structure in abstract space, not in pixel space. »

JEPA apprend à représenter le monde dans un espace latent, et à prédire l’évolution de ces représentations abstraites. L’enjeu est clair : réduire le coût computationnel, éviter le bruit inutile, et construire une compréhension plus stable du réel. Cette logique a déjà donné lieu à des implémentations comme I-JEPA, DINOv2 et bientôt V-JEPA, destinées à l’analyse de séquences vidéo.

Intelligence planifiante : du système 1 au système 2

LeCun convoque les travaux de Daniel Kahneman pour distinguer deux types d’intelligence :

  • Système 1 : rapide, associative, automatique — c’est ce que font les LLMs.
  • Système 2 : lente, analytique, planifiante — ce vers quoi doit tendre l’IA future.

« We don’t have systems that can plan. Not even LLMs. We need a new kind of architecture. »

Il propose un nouveau concept : AMI — Advanced Machine Intelligence, en rupture avec le fantasme flou d’AGI (Artificial General Intelligence). Pour LeCun, l’intelligence humaine elle-même n’est pas « générale », mais adaptée à un monde physique et social très particulier.

Horizon 2028 : une chronologie raisonnable

Quand verrons-nous émerger de véritables agents autonomes ? Selon LeCun :

« We could see systems with persistent memory, basic reasoning and planning abilities in 3–5 years. »

Des agents limités, mais réflexifs, capables d’interagir dans un environnement restreint, sont à portée. En revanche, une intelligence de niveau humain, intégrant perception, langage, logique, apprentissage et coordination, nécessitera probablement une décennie ou plus.

Matériel : compute, oui, mais pas n’importe comment

Bill Dally interroge la question du hardware. LeCun confirme :

« To run system 2 agents, we’ll need more compute. But we must use it better. »

Il critique le gaspillage actuel : prédire chaque pixel d’une vidéo est une tâche coûteuse et inutilement lourde. Les architectures JEPA offrent une alternative bien plus économe.

Sur les technologies émergentes :

  • Le quantique ? « Interesting for physics, not for AI. »
  • L’optique ? « Too noisy, not flexible enough. »
  • Le neuromorphique ? Prometteur sur l’edge, mais pas encore mûr.

En somme, CMOS reste le standard de court et moyen terme.

Open source et diversité : la clé de l’IA utile

LeCun insiste sur l’importance de l’open source. Il cite le succès de Llama, avec plus d’un milliard de téléchargements, et ResNet, conçu à Pékin chez Microsoft Research.

« Open innovation scales faster, especially when it involves culturally and linguistically diverse communities. »

Il défend une IA plurielle, multilingue, distribuée, résistante aux biais systémiques. Le contraire des écosystèmes fermés où l’innovation est centralisée dans quelques laboratoires.

L’IA comme outil, pas comme menace

Sur la question de la sécurité, LeCun adopte une posture rationnelle. Il rejette les discours catastrophistes sur une superintelligence hostile.

« If you want safer AI, build better AI. Not slower AI. »

Plutôt que d’imaginer des freins réglementaires inefficaces, il plaide pour une IA plus robuste, plus compréhensible, et plus supervisée. Une IA qui « knows when it doesn’t know » — qui apprend aussi de ses propres limites.

Analyse critique : une reconfiguration nécessaire

Cette session propose une feuille de route claire pour les chercheurs, développeurs et décideurs :

  1. Sortir de l’illusion des LLMs comme finalité.
  2. Construire des systèmes architecturés autour de la mémoire et de la planification.
  3. Investir dans les architectures JEPA-like.
  4. Favoriser l’open innovation intercontinentale.
  5. Maîtriser le coût écologique du compute.

Conclusion : penser l’IA non pas comme une machine à texte, mais comme un agent du réel

La conversation LeCun-Dally à GTC 2025 marque un point d’inflexion : le moment où les grands noms de l’IA reconnaissent que la génération de texte ne suffit pas. L’avenir se construit ailleurs — dans l’abstraction, la modélisation du monde, la mémoire de long terme, et la planification raisonnée.

L’AMI, selon LeCun, ne remplacera pas l’humain. Elle l’augmentera, le libérera des tâches répétitives, et lui offrira un miroir cognitif. Encore faut-il que cette intelligence soit ouverte, explicable, éthique et souveraine.

Références

  • LeCun, Y. & Dally, W. (2025). A Conversation at GTC25. NVIDIA On-Demand. Vidéo officielle
  • LeCun, Y. (2022). A Path Towards Autonomous Machine Intelligence. Meta AI.