L’essor fulgurant de l’intelligence artificielle (IA) soulève une question cruciale : quels modèles économiques sont viables et durables dans un monde où l’IA devient omniprésente ? Lors du AI Summit, le panel « Which Business Models for an AI World? » a exploré cette problématique en profondeur. Modéré par Océane Herrero (POLITICO), ce débat a réuni des acteurs clés du secteur :
- Jonas Andrulis, CEO d’Aleph Alpha
Jonas Andrulis est un ingénieur économique allemand. Aleph Alpha se concentre sur le développement de modèles de langage étendus (LLM) destinés aux entreprises et aux administrations, en mettant l’accent sur la transparence des sources utilisées pour générer les résultats. L’entreprise vise à créer une pile technologique souveraine pour l’IA générative, indépendante des entreprises américaines et conforme aux réglementations européennes en matière de protection des données. En novembre 2023, Aleph Alpha a levé plus de 500 millions de dollars auprès d’un consortium d’investisseurs, dont la Schwarz Gruppe, la Fondation Dieter Schwarz, Bosch, SAP, Hubert Burda Media et Hewlett Packard Enterprise. Jonas Andrulis est reconnu pour son engagement à renforcer la position de l’Europe dans le domaine de l’intelligence artificielle et à promouvoir des modèles d’IA transparents et conformes aux valeurs européennes.
- Yann Lechelle, CEO de Probabl
Yann Lechelle est un entrepreneur et dirigeant technologique français, actuellement cofondateur et PDG de Probabl.ai, une spin-off de l’INRIA dédiée à la distribution de technologies open source en science des données et en apprentissage automatique.
Avant de fonder Probabl.ai, Yann Lechelle a occupé le poste de PDG chez Scaleway, le fournisseur de services cloud européen. Au cours de sa carrière, il a fondé, développé et cédé avec succès plusieurs start-ups technologiques, notamment Snips.ai, une entreprise spécialisée dans le traitement de la voix respectueux de la vie privée, acquise par Sonos.
Yann Lechelle est reconnu pour son engagement en faveur de l’innovation open source et de la souveraineté numérique européenne, promouvant l’adoption de technologies transparentes et accessibles dans le domaine de l’intelligence artificielle.
- Meredith Whittaker, Présidente de Signal
Meredith Whittaker est la présidente de la Signal Foundation, une organisation à but non lucratif dédiée à la protection de la liberté d’expression et à la promotion de communications sécurisées à l’échelle mondiale. Avant de rejoindre Signal, elle a cofondé et dirigé l’AI Now Institute à l’Université de New York, se concentrant sur les implications sociales de l’intelligence artificielle. Elle a également travaillé chez Google pendant plus d’une décennie, où elle a fondé le groupe Open Research et cofondé M-Lab, une plateforme de mesure des performances Internet. En tant que présidente de Signal, elle défend fermement la confidentialité des utilisateurs et s’oppose aux modèles économiques basés sur la surveillance. Elle considère l’IA comme issue de la surveillance et plaide pour des technologies qui respectent la vie privée.
Ensemble, ils ont analysé les enjeux économiques, les modèles de financement et l’avenir des entreprises dans un monde où l’IA redéfinit les règles du jeu.
L’impact de l’IA sur les marchés et les investissements
Un marché en pleine mutation : le panel a démarré en revenant sur un événement qui a marqué l’actualité récente : l’effondrement du modèle économique d’une entreprise d’IA très médiatisée. Cette situation a provoqué une onde de choc à Wall Street, mettant en lumière les risques d’une bulle spéculative dans le secteur. Jonas Andrulis a souligné que cet événement était une confirmation de ses prédictions :
« Nous avons toujours pensé que le modèle économique des grands modèles de langage (LLM) ne fonctionne pas. Le marché est biaisé par des intérêts géopolitiques et des monopoles technologiques. »
Les modèles d’IA générative, comme GPT, Llama ou Mistral, sont extrêmement coûteux à développer et à entretenir. Leur rentabilité reste incertaine, notamment en raison des coûts énergétiques et des besoins en infrastructures massives.
Selon Andrulis, les grands modèles de langage ne sont pas rentables à long terme, notamment parce que :
- Ils nécessitent des investissements massifs en calcul et en stockage.
- Leur développement repose sur une quantité astronomique de données souvent captées via des plateformes centralisées.
- Ils sont soumis à une concurrence croissante des modèles open-source, qui offrent une alternative plus flexible et accessible.
L’Open Source et la souveraineté : une alternative viable ?
Le débat s’est rapidement tourné vers l’open-source et son rôle dans l’évolution des modèles économiques liés à l’IA. Yann Lechelle, CEO de Probabl, a défendu l’idée que l’ouverture est une force incontournable :
« L’histoire nous montre que l’ouverture finit toujours par l’emporter. La Chine l’a bien compris, et d’autres acteurs commencent à s’y intéresser. Les monopoles actuels devront s’adapter. »
L’illusion d’une IA universelle et homogène
Meredith Whittaker, Présidente de Signal, a souligné un point essentiel : l’IA ne peut pas être neutre ni universelle. Elle est le produit d’un contexte culturel et historique qui influence ses performances et ses biais. « Chaque pays, voire chaque entreprise, devra développer son propre modèle pour répondre à ses besoins spécifiques. »
Cette réflexion remet en question l’idée d’un modèle IA unique et globalisé et met en avant la nécessité de solutions souveraines adaptées aux contextes locaux.
Les défis de la centralisation et de la concurrence dans l’IA
Le marché de l’IA est actuellement dominé par quelques grands acteurs technologiques qui contrôlent :
- Les infrastructures cloud (AWS, Azure, Google Cloud)
- Les modèles d’IA propriétaires
- Les flux de données nécessaires à l’entraînement des modèles
Selon Meredith Whittaker, cela crée une situation de dépendance critique pour les entreprises qui souhaitent développer leurs propres solutions d’IA :
« Si vous ne payez pas, vous êtes le produit. C’est la logique même des géants du numérique, qui captent l’attention et la donnée pour en faire leur principale source de valeur. »
Le rôle des investisseurs et le piège du financement de l’IA
Le marché de l’IA est également influencé par une dynamique spéculative importante. Selon Jonas Andrulis, de nombreux investisseurs ne cherchent pas nécessairement à financer des projets viables, mais plutôt à optimiser leurs propres rendements financiers. Il cite le cas des grands fonds d’investissement, qui injectent des milliards dans des startups sans réelle considération pour la rentabilité de leurs modèles économiques.
Vers de Nouveaux Modèles de Monétisation de l’IA
L’un des modèles économiques envisagés repose sur le concept de Knowledge-as-a-Service (KaaS). Yann Lechelle met en garde contre ce modèle. Il pourrait conduire à une captation totale du savoir par quelques grandes entreprises :
« Le risque, c’est que toute la connaissance humaine soit enfermée dans des services payants, où nous deviendrions simplement des locataires du savoir. »
L’IA et le respect du droit d’auteur
Le panel a abordé la question du respect des droits d’auteur dans l’utilisation des modèles d’IA. Actuellement, les modèles d’IA générative sont entraînés sur des quantités massives de données sans toujours respecter les règles de propriété intellectuelle.
Jonas Andrulis a souligné que les entreprises doivent anticiper une probable régulation sur ce sujet et imaginer des modèles économiques respectueux des créateurs de contenu.
L’iInfrastructure : Un enjeu clé pour l’indépendance technologique
Les entreprises qui développent des modèles d’IA sont actuellement dépendantes des hyperscalers (Amazon, Microsoft, Google) pour héberger et exécuter leurs modèles.
Meredith Whittaker a insisté sur la nécessité pour l’Europe de développer des alternatives souveraines afin d’assurer son indépendance technologique :
« Si nous ne contrôlons pas notre infrastructure, nous restons à la merci des grandes entreprises américaines. »
Le piège des centres de données centralisés
Le débat a également porté sur l’impact environnemental et stratégique des centres de données et les dernières annonces du sommet. Selon Yann Lechelle, le véritable enjeu est de savoir qui contrôle ces infrastructures : « Si nous construisons simplement des data centers pour les hyperscalers, nous n’avons rien gagné. Il faut une vraie chaîne de valeur locale. »
Sécurité, Régulation et Éthique de l’IA
Le panel a mis en évidence plusieurs risques liés à l’IA :
- Les attaques par empoisonnement de données
- Les failles de sécurité dans les modèles d’IA
- L’impact des biais dans les décisions automatisées
Meredith Whittaker a insisté sur la nécessité d’une approche rigoureuse en matière de sécurité et d’éthique pour prévenir des dérives potentielles.
Enfin, la discussion a porté sur la régulation de l’IA et les enjeux de gouvernance. L’Europe tente de structurer un cadre réglementaire solide, mais l’enjeu est d’éviter de freiner l’innovation tout en protégeant les utilisateurs.
Quel avenir pour les modèles économiques de l’IA ?
Le panel a mis en lumière les défis et opportunités liés aux modèles économiques de l’IA :
- Les LLM propriétaires restent difficilement rentables à long terme.
- L’open-source pourrait offrir une alternative viable et souveraine.
- La centralisation des ressources pose un problème de dépendance aux géants du numérique.
- La monétisation du savoir via l’IA soulève des questions éthiques et économiques.
- L’infrastructure souveraine est un levier clé pour assurer l’indépendance technologique.
L’avenir des modèles économiques de l’IA résultera des choix stratégiques des entreprises et des régulateurs. Une chose est sûre : l’IA ne peut pas être un monopole, elle doit être un bien commun.