L’intelligence artificielle (IA) est aujourd’hui au cœur des avancées technologiques, mais son coût énergétique et son impact environnemental sont souvent sous-estimés. Lors de sa conférence, David Gurle, CEO de Hivenet, a proposé une analyse percutante de cette problématique et a exposé une alternative audacieuse : le calcul distribué.

 

L’IA et son coût énergétique insoupçonné

David Gurle a ouvert sa conférence en introduisant une réalité souvent ignorée : l’énorme quantité d’énergie et d’eau nécessaires pour alimenter les modèles d’IA. Il a pris pour exemple une simple requête envoyée à ChatGPT, illustrant son impact énergétique par des comparaisons frappantes.

Un seul prompt généré par ChatGPT, consomme l’équivalent de la charge complète d’un iPhone. Ce chiffre peut paraître anodin, mais lorsqu’il est mis à l’échelle des 300 millions d’utilisateurs de ChatGPT, la situation devient alarmante. Si 10 % de ces utilisateurs effectuaient un prompt par jour, la consommation d’énergie atteindrait 87 MW et nécessiterait 15 millions de litres d’eau pour refroidir les serveurs.

Les centres de données sont de plus en plus gigantesques pour répondre à la demande croissante en intelligence artificielle. Gurle a illustré cette explosion par une comparaison surprenante : la consommation énergétique journalière de ChatGPT représente l’équivalent de 9395 batteries de Tesla Cybertruck ou 16 terrains de football remplis de batteries de Cybertruck.

Ce problème ne concerne pas uniquement ChatGPT. Il a rappelé que des entreprises comme Google, Meta et OpenAI continuent de déployer des infrastructures massives, avec des milliers de GPU dédiés à l’entraînement de modèles toujours plus performants. Selon une conversation avec Mark Zuckerberg, aucun seuil d’efficacité maximale n’a encore été trouvé : plus de GPU signifient de meilleurs résultats, ce qui alimente une course effrénée aux ressources.

Pour illustrer l’ampleur de la consommation énergétique, David Gurle a comparé l’usage de ChatGPT à celui de la ville de Cannes. Chaque année, Cannes consomme 215 000 MWh pour une population de 75 000 habitants (et 300 000 en haute saison). Or, ChatGPT consomme cette même quantité d’énergie en seulement 62 jours !

 

Pourquoi le modèle actuel est-il insoutenable ?

L’augmentation continue de la demande en IA pose un problème majeur : le modèle actuel repose sur des centres de données centralisés qui nécessitent d’énormes quantités d’électricité et d’eau pour fonctionner. Ce paradigme est inefficace et écologiquement non viable.

Le mythe de l’impossibilité du calcul distribué : Lors d’une discussion à l’Élysée, l’ancien CEO de Google, Eric Schmidt, a affirmé que le calcul distribué à grande échelle était impossible. Il expliquait que des tentatives avaient été faites, mais sans succès, car la latence et les contraintes de synchronisation rendaient ce modèle inefficace.

David Gurle, en revanche, est convaincu du contraire. Il a démontré qu’avec les progrès en connectivité et en puissance de calcul, cette vision dépassée peut être renversée.

 

HiveNet : Une Alternative Disruptive Basée sur le Calcul Distribué

L’idée fondamentale : utiliser les appareils existants. Plutôt que d’investir dans des data centers gigantesques, pourquoi ne pas employer la puissance de calcul déjà disponible ? Des dizaines de milliards d’appareils connectés existent à travers le monde (ordinateurs, smartphones, tablettes) et restent inutilisés la majorité du temps. L’idée derrière HiveNet est de créer un réseau distribué, où chaque appareil connecté participe à l’effort de calcul, réduisant ainsi la nécessité de centres de données énergivores.

Comment ça fonctionne ?

David Gurle a expliqué que les GPU ne sont en réalité que des unités de calcul parallélisées sur une puce compacte. Ce concept peut être étendu à une échelle mondiale, où chaque appareil partage une partie de sa puissance pour effectuer des calculs IA.

Ce modèle repose sur :

  1. La découpe des tâches : Un gestionnaire de tâches divise une opération complexe en plusieurs sous-tâches.
  2. La distribution du travail : Ces tâches sont envoyées à différents appareils disponibles sur le réseau.
  3. Le traitement distribué : Chaque appareil réalise une partie du calcul.
  4. L’agrégation des résultats : Une fois les calculs effectués, les résultats sont assemblés pour produire la réponse finale.

Pourquoi est-ce possible aujourd’hui ?

Historiquement, le principal obstacle au calcul distribué était la lenteur des réseaux. Mais aujourd’hui, avec des vitesses de 100 Gbit/s, ces limitations disparaissent progressivement. En réalité, le facteur limitant n’est plus la puissance des GPU, mais la connexion entre les serveurs.

HiveNet n’est pas un simple concept : il est déjà en application avec des résultats impressionnants. L’équipe de Hivenet a mis en place la plus grande infrastructure de stockage décentralisé au monde, en agrégeant l’espace inutilisé des utilisateurs. En seulement 14 mois, ce réseau a stocké 1,4 milliard de blocs de données et continue de croître à un rythme de 5 % par semaine.

Des économies d’énergie spectaculaires : L’expérimentation actuelle de HiveNet démontre que le même calcul effectué dans une infrastructure distribuée consomme 50 % moins d’énergie et zéro litre d’eau. Cette réduction drastique d’empreinte écologique prouve que la vision centralisée de l’IA est obsolète. Comme le souligne Gurle, « L’impossible est une opinion, pas un fait ».

 

Un changement de paradigme nécessaire

La conférence de David Gurle a mis en lumière un problème fondamental de l’IA moderne : son coût environnemental colossal. Alors que les grandes entreprises investissent massivement dans des centres de données toujours plus gourmands, une alternative existe : le calcul distribué. HiveNet prouve que cette approche est non seulement viable, mais qu’elle permet de réduire de moitié la consommation d’énergie et d’éliminer le gaspillage d’eau. Avec l’essor de la connectivité et l’amélioration des capacités matérielles, il est temps de repenser notre modèle d’IA pour qu’il soit plus durable, plus équitable et plus efficace. L’avenir de l’intelligence artificielle ne doit pas être une course effrénée à la puissance brute, mais une optimisation intelligente des ressources déjà disponibles.