Pruna AI a été fondée en 2023 par Bertrand Charpentier, John Rachwan, Rayan Nait Mazi et Stephan Günnemann.

C’est une startup franco-allemande basée à Paris (Station F) et Munich qui vient de lever 6,5 millions de dollars en seed funding auprès d’EQT Ventures, avec la participation de fonds, Daphni, Motier et Kima Ventures. Soutenue par des figures reconnues telles que Roxanne Varza, Olivier Pomel et Hervé Nivon, Pruna AI s’est imposée comme un acteur clé dans l’optimisation des modèles d’IA.

Sa solution permet, grâce à une ligne de code unique, de rendre n’importe quel modèle d’IA plus rapide, plus petit, moins coûteux et surtout plus écologique, quel que soit le hardware utilisé. Elle couvre un large spectre d’applications : vision par ordinateur, NLP, audio et graphique, pour des cas d’usage aussi bien prédictifs que génératifs.

Pruna AI a été sélectionnée parmi les 5 startups européennes du programme d’IA lancé par Meta, Hugging Face et Scaleway. Son moteur d’optimisation répond à un enjeu majeur : la consommation exponentielle de puissance de calcul, devenue une contrainte économique et écologique pour les entreprises. Leur technologie permet de réduire jusqu’à 91 % les émissions carbone, des modèles d’IA.

Créée par des chercheurs en machine learning, issus d’institutions telles que la Technical University of Munich, Pruna AI ambitionne de rendre l’IA accessible, performante et durable pour les entreprises, avec un focus particulier sur les PME européennes.

Avec Pruna AI, Bertrand Charpentier et son équipe veulent transformer le paysage de l’intelligence artificielle. Leur moteur d’optimisation permet aux sociétés, même les plus petites, de déployer des modèles performants tout en répondant aux enjeux économiques et environnementaux.

 

Expliquez-nous la genèse de Pruna AI

Notre objectif est de résoudre un problème fondamental dans l’écosystème IA : le coût et l’impact énergétique des modèles. Si 80 millions de personnes, l’équivalent de la population allemande, générait 5 pages avec ChatGPT chaque jour, il faudrait deux centrales nucléaires fonctionnant 24 h/24 pour couvrir la demande énergétique.

Un récent rapport de Deloitte met en lumière l’impact environnemental croissant de l’IA, en offrant une analyse détaillée de la consommation énergétique des data centers. Selon leurs projections, dans un scénario de forte adoption, la demande électrique pourrait atteindre 3 550 TWh d’ici 2050, un chiffre supérieur à la consommation actuelle de l’Union européenne. Cette croissance serait largement alimentée par l’intelligence artificielle, qui passerait de 11 % à 68 % de cette consommation.

Notre solution c’est un moteur d’optimisation, de modèles d’IA. En une seule ligne de code, nous réduisons automatiquement la taille, le temps d’exécution, le coût et l’empreinte carbone des modèles. Cela fonctionne sur tout type de hardware et couvre plusieurs genres d’IA : vision, NLP, audio et graphe, que ce soit pour des usages prédictifs ou génératifs.

L’accès à la puissance de calcul est un problème croissant. Pendant ma thèse à la Technical University of Munich, j’ai constaté que générer un simple article scientifique coûte environ 10 000 euros en ressources de calcul. Pour des entreprises développant de grands modèles, cette facture s’élève souvent à plusieurs millions d’euros. Par exemple, pour générer une image en haute définition, il faut l’équivalent de l’énergie contenue dans la batterie d’un téléphone. Certaines scaleups produisent jusqu’à 5 millions d’images par jour. Si l’on reporte cela sur un mois, les économies réalisées en matière de coûts énergétiques peuvent dépasser 1,5 à 1,7 million d’euros.

Nous avons donc développé une solution pour démocratiser l’accès aux performances IA. Grâce à nos compressions automatiques, même des startups ou PME peuvent exploiter des modèles complexes à moindre coût. Cela a transformé notre façon de voir l’IA : elle devient un outil accessible, performant et surtout durable.

 

D’autres entreprises tentent régulièrement de développer des solutions similaires. Elles sont souvent rachetées par de grands acteurs comme NVIDIA ou Red Hat, qui cherchent à internaliser des compétences autour de la compression de modèles.

À l’inverse d’une démarche de consulting qui compresse les modèles un par un, de manière manuelle, nous visons une automatisation complète du processus pour garantir reproductibilité, rapidité et efficacité.

Certaines entreprises tentent parfois de se spécialiser dans un type spécifique de modèle ou de matériel, ce qui limite leur capacité d’adaptation. À l’inverse, nous relevons ce défi en proposant une solution flexible, qui s’ajuste à divers modèles et environnements matériels qui peuvent fréquemment varier.

 

Quelle est votre vision à 3 ans ?

Elle repose sur deux axes majeurs : rendre l’IA accessible et durable. Aujourd’hui, beaucoup d’entreprises ne peuvent pas l’utiliser en raison de coûts élevés ou de contraintes technologiques importantes. En simplifiant la compression des modèles, nous réduisons ces barrières, permettant une adoption plus large. Les modèles d’IA consomment énormément d’énergie, ce qui limite leur déploiement dans de nombreux cas d’usage.

Sur un horizon de deux à trois ans, cette vision se concrétise de plusieurs façons. Pour l’instant, nous nous concentrons principalement sur la compression pour l’inférence, c’est-à-dire la phase où les modèles sont déployés et utilisés en production. Mais nous avons également développé une expertise solide sur la compression du training, en optimisant l’apprentissage des modèles d’IA, ce qui représente un enjeu majeur pour réduire les coûts et l’impact énergétique.

Un autre aspect essentiel est la performance et la fiabilité des modèles, qui sont au cœur de notre démarche. La compression ne doit jamais se faire au détriment de ces critères. Cela implique un benchmarking rigoureux pour valider que le modèle compressé, tout comme le modèle de base, reste fiable, même dans des conditions extrêmes.

C’est ici qu’intervient mon expertise en fiabilité par estimation d’incertitude. Cela consiste à s’assurer que le modèle maintient un comportement sûr et cohérent, même lorsqu’il est confronté à des situations anormales ou imprévues. Cela permet de garantir une IA non seulement performante, mais également fiable et robuste.

 

Quelles solutions d’IA avez-vous sélectionnées ?

Contrairement à d’autres approches qui emploient une seule méthode de compression, nous combinons plusieurs techniques pour trouver combiner les méthodes et trouver la configuration idéale selon les besoins : réduction du temps d’inférence, minimisation des coûts, compatibilité matérielle.

Nous utilisons également des plateformes comme Hugging Face. Nous prenons des modèles existants, les compressons automatiquement et les republions optimisés. Cela permet aux entreprises de comparer des modèles compressés et de gagner en performance sans effort supplémentaire.

 

Comment avez-vous surmonté les défis culturels et humains lors de l’intégration de l’IA ?

La première barrière est la vulgarisation. Beaucoup d’entreprises perçoivent encore l’IA comme une « magie noire ». Nous avons dû prouver sa fiabilité avec des résultats concrets : la réduction du temps d’inférence : de 13,5 secondes à 3,6 secondes, la réduction des coûts : de 10 000 euros à 2 600 euros pour un million d’images. Pour cela nous avons développé un comparateur qui est accessible ici https://flux-pruna-benchmark.vercel.app/

Nous démontrons par ces outils que l’IA peut apporter des gains réels : performance accrue, économies financières et réduction de l’empreinte énergétique.

 

Quels défis techniques avez-vous rencontrés lors de la mise en place ?

L’un des défis majeurs a été de rendre notre solution simple d’utilisation tout en garantissant des performances optimales. Notre moteur teste automatiquement plusieurs combinaisons de méthodes de compression pour s’adapter au cas d’usage.

Autre défi : instaurer la confiance. Nos clients veulent s’assurer que la compression ne dégrade pas les performances du modèle. Nous fournissons des benchmarks comparatifs pour valider chaque étape.

 

Quels changements positifs avez-vous observés dans la dynamique de votre équipe grâce à l’IA ?

Nous serons une équipe de 13 en janvier. Nous utilisons activement des outils comme GitHub Copilot et Cursor pour accélérer notre travail. Cela nous permet de gagner du temps sur les tâches répétitives et de rester concentrés sur l’innovation et la R&D.

Dès le départ, nous avons intégré l’IA dans nos processus, ce qui a favorisé une adoption naturelle. L’équipe est également en veille permanente pour tester les dernières nouveautés.

 

Quel conseil essentiel donneriez-vous aux PME hésitant à franchir le pas vers l’IA ?

Il faut oser tester. Beaucoup d’entreprises ne franchissent pas le pas par peur de la complexité ou du coût. Mais l’IA n’est pas une révolution insurmontable. Commencez par un projet simple, mesurez les résultats et ajustez.

L’important est de définir des métriques claires : réduction des coûts, gain de temps, satisfaction utilisateur ou réduction de l’empreinte carbone. L’IA est une science, pas de la magie. Les bénéfices sont concrets et mesurables.