L’intelligence artificielle (IA) est devenue un enjeu stratégique majeur, influençant les dynamiques économiques et politiques mondiales. Les approches adoptées pour son développement et sa régulation varient selon les pays. On peut voir le techno libéral aux États-Unis, l’agile dans des régions comme le Golfe persique et Singapour, le planificateur en Chine et le régulateur en Europe. Ces modèles se distinguent par leur gestion de l’innovation, leur souveraineté technologique et leur contrôle réglementaire, impactant ainsi les équilibres géopolitiques.

 

Le modèle techno libéral aux États-Unis

Aux États-Unis, l’approche techno libérale privilégie l’innovation rapide et la domination du marché par des acteurs privés majeurs tels que les GAFAM (Google, Apple, Facebook, Amazon, Microsoft). Cette stratégie s’appuie sur une régulation minimale pour favoriser la compétitivité et l’avancement technologique. Les entreprises bénéficient d’une grande liberté pour concevoir et déployer des solutions d’IA, ce qui a conduit à des progrès significatifs et à une position dominante sur la scène mondiale.

Cependant, cette liberté comporte des risques, notamment en matière de protection des données, de biais algorithmiques et d’impacts sociaux. La publication en 2023 par la Maison-Blanche d’un décret présidentiel intitulé « Safe, Secure, and Trustworthy Artificial Intelligence » vise à encadrer le développement de l’IA. Ils mettent l’accent sur la sécurité, la protection de la vie privée et l’équité. Ce décret reflète une prise de conscience croissante des défis posés par une régulation limitée et la nécessité d’établir des normes pour garantir une utilisation responsable de l’IA. Depuis sa signature, les États-Unis n’ont pas émis de nouveaux décrets fédéraux spécifiques concernant l’intelligence artificielle (IA). Toutefois, des initiatives législatives ont été entreprises au niveau des États fédérés.

Le 21 mars 2024, le Tennessee a promulgué la loi ELVIS Act, ciblant spécifiquement les deepfakes audio et le clonage de voix. C’est la première aux États-Unis à protéger les droits des artistes contre l’utilisation non autorisée de leur voix et de leur image.

Le 13 mars 2024, le gouverneur Spencer Cox de l’Utah a signé la loi S.B. 149, connue sous le nom d’« Artificial Intelligence Policy Act ». Entrée en vigueur le 1ᵉʳ mai 2024, cette législation établit des responsabilités, notamment pour les entreprises qui n’informent pas de l’emploi de l’IA générative. Ou quand des utilisateurs commettent des infractions pénales en recourant à l’IA.

Bien qu’aucun nouveau décret fédéral n’ait été émis depuis octobre 2023, l’administration Biden a pris des mesures pour encadrer l’usage de l’IA. En 2023, elle a obtenu des adhésions volontaires de la part de compagnies majeures pour régir les risques associés à l’IA.

 

Le modèle agile dans le Golfe persique et à Singapour

Des régions comme le Golfe persique et Singapour ont choisi un modèle agile, caractérisé par une flexibilité réglementaire et une adaptation aux évolutions technologiques. Ces pays investissent massivement dans l’IA pour diversifier leurs économies et renforcer leur compétitivité. Ils favorisent l’expérimentation et l’adoption rapide de nouvelles technologies.

Cette agilité peut soulever des questions quant à la protection des données, à l’éthique et à l’impact social, nécessitant une vigilance accrue pour équilibrer innovation et responsabilités sociétales.

 

Le Modèle planificateur en Chine

La Chine adopte une approche planificatrice, avec une forte implication de l’État, dans le développement de l’IA. Le gouvernement chinois a défini des plans stratégiques ambitieux pour devenir le leader mondial de l’IA d’ici 2030, soutenus par des investissements massifs et une régulation proactive. Cette stratégie vise à intégrer l’IA dans tous les pans de la société, renforçant ainsi la souveraineté technologique du pays.

Cette centralisation permet une coordination efficace des efforts et une mise en œuvre rapide des techs. Cependant, elle soulève des préoccupations en matière de surveillance, de contrôle social et de respect des droits individuels. La Chine a récemment annoncé la mise en place de plus de cinquante nouvelles normes pour l’IA d’ici 2026, reflétant sa volonté de réguler étroitement le secteur tout en poursuivant ses ambitions de leadership mondial.

 

Le Modèle régulateur en Europe

L’Union européenne adopte une approche régulatrice, centrée sur la protection des droits fondamentaux, l’éthique et la sécurité. Cette stratégie vise à instaurer un cadre de confiance pour le développement et l’utilisation de l’IA, tout en préservant les valeurs européennes. L’UE a ainsi établi l’AI Act. L’objectif est de positionner l’Europe comme un centre mondial d’excellence, en matière d’IA.

Cette régulation stricte peut être perçue comme un frein à l’innovation par certains acteurs du secteur, notamment les start-ups, qui craignent des contraintes excessives. Cependant, elle offre également une opportunité de différenciation sur la scène internationale, en promouvant une IA responsable et éthique. L’UE aspire à ce que ses normes servent de référence mondiale, influençant ainsi les pratiques au-delà de ses frontières.

Le règlement sur l’intelligence artificielle (AI Act) de l’Union européenne est entré en vigueur le 1ᵉʳ août 2024. Ses objectifs principaux sont : la protection des droits fondamentaux en cohérence avec le RGPD, soutenir le développement de technologies d’IA tout en garantissant une mise en œuvre éthique et sécurisée. Enfin le but est de créer un cadre réglementaire homogène appliqué uniformément dans tous les États membres.

Il adopte une approche basée sur les risques, classant les systèmes d’IA en quatre catégories :

  1. Risque inacceptable : les interdits, tels que ceux manipulant le comportement humain ou utilisant la reconnaissance biométrique en temps réel dans les espaces publics.
  2. Risque élevé : ceux soumis à des obligations strictes en matière de transparence, de qualité des données et de surveillance humaine, notamment dans les domaines de la santé, de l’éducation ou de l’infrastructure critique.
  3. Risque limité : ceux avec des obligations de transparence, informant les utilisateurs qu’ils interagissent avec une IA.
  4. Risque minimal : les non réglementés, tels que les filtres antispam ou les jeux vidéo.

 

Pour les risques élevés, les fournisseurs doivent effectuer des évaluations de conformité avant la mise sur le marché et tout au long du cycle de vie du système. Ils doivent fournir des informations claires aux utilisateurs sur le fonctionnement de leur logiciel et ses limitations. Enfin ils ont l’obligation d’assurer une supervision humaine appropriée pour minorer les risques.

Le règlement prévoit des amendes pouvant atteindre jusqu’à 7 % du chiffre d’affaires annuel mondial de l’entreprise. Les montants fixes peuvent être appliqués allant de 7,5 à 35 millions d’euros, en fonction de la gravité de l’infraction.

Bien que l’AI Act vise à promouvoir une IA éthique et responsable, certaines critiques émergent, notamment concernant les coûts de conformité pour les petites sociétés et les start-ups, qui pourraient freiner l’innovation en Europe. L’AI Act représente toutefois une étape majeure vers une régulation harmonisée de l’intelligence artificielle au sein de l’Union européenne, cherchant à équilibrer innovation technologique et protection des droits fondamentaux.

 

Impact sur les dynamiques économiques et politiques globales

Ces différents modèles influencent significativement les dynamiques économiques et politiques mondiales. Le techno libéral américain favorise une domination des entreprises privées sur le marché mondial de l’IA, renforçant l’influence économique des États-Unis. L’agile adopté par des pays comme Singapour permet une adaptation rapide aux évolutions technologiques, attirant des investissements et des talents, et positionnant ces pays comme des hubs technologiques régionaux. Le planificateur chinois vise à établir une souveraineté technologique, réduisant la dépendance aux technologies étrangères et augmentant l’influence de la Chine sur la scène internationale. Enfin le régulateur européen cherche à imposer des normes éthiques, pouvant servir de référence internationale et offrant une alternative aux approches plus libérales ou autoritaires.

 

Importance de la collaboration internationale

Malgré ces approches divergentes, la nature transnationale de l’IA rend la collaboration internationale essentielle. Les défis posés par l’IA, comme les questions éthiques, la protection des données, la cybersécurité et les impacts socio-économiques, exigent une coopération au-delà des frontières nationales. Des initiatives telles que « le sommet mondial sur les risques de l’IA », qui a réuni 28 États en novembre 2023, témoignent de la reconnaissance de cette nécessité. Toutefois en 2023 à Bletchley Park, des acteurs majeurs comme Google DeepMind, Anthropic et OpenAI étaient présents, mais leur rivalité commerciale limitait toute réelle collaboration. Les États-Unis et la Chine, également présents, ont maintenu leurs positions divergentes sans véritable dialogue, tandis que l’Union européenne promouvait une régulation axée sur la sécurité et la transparence. Malgré des discussions initiées, les tensions géopolitiques et concurrentielles ont prédominé, freinant toute avancée vers une gouvernance mondiale de l’IA. Le prochain sommet sur l’IA est prévu à Paris les 10 et 11 février 2025. La France, en tant qu’hôte, a exprimé son engagement à poursuivre les discussions sur la gouvernance de l’IA. Elle met l’accent sur une approche équilibrée qui incorpore à la fois les risques sécuritaires et les impacts sociaux et environnementaux.

Par ailleurs, des initiatives telles que l’appel à manifestation d’intérêt « IA au service de l’efficience » ont été lancées. L’idée est de recueillir des exemples concrets d’intégrations réussies de l’IA, afin de renforcer la confiance et motiver d’autres organisations à adopter cette technologie.