L’intelligence artificielle (IA) est sans conteste l’une des innovations les plus transformatrices de notre époque. Elle s’infiltre dans tous les aspects de notre vie, de la manière dont nous consommons l’information à la façon dont les entreprises fonctionnent. Warren Buffet, l’un des investisseurs les plus prospères au monde, a reconnu l’ampleur de cette révolution en 2022, déclarant que l’IA allait changer notre société plus que tout ce que nous avons vu jusqu’à présent. Cependant, cela n’est pas sans susciter des inquiétudes. Le célèbre physicien Stephen Hawking, en 2014, avait déjà mis en garde contre les risques de l’IA. Il l’a qualifiée du plus grand événement de l’histoire humaine, qui pourrait aussi être le dernier si nous ne parvenons pas à gérer ses menaces.

L’étymologie des termes « intelligence » et « artificielle » nous invite à explorer les fondements mêmes de ce que nous entendons par « intelligence artificielle ». Le mot intelligence vient du latin intellegere, qui combine inter (entre) et legere (choisir, recueillir). Il désigne donc la capacité à discerner et relier des éléments pour parvenir à une compréhension, une synthèse ou une décision. Cette aptitude est l’un des traits les plus distinctifs de l’esprit humain. Elle met en lumière des facultés comme la logique, la créativité ou encore l’intuition.

En revanche, le terme artificielle provient du latin artificialis, dérivé de ars (art) et facere (faire). Il désigne ce qui est le fruit d’un travail ou d’une création humaine, imitant souvent la nature sans en être une partie intégrante. L’idée d’artificialité met en avant la notion d’imitation et de fabrication, une création qui, si elle est façonnée par l’homme, tend à reproduire des propriétés naturelles.

L’intelligence artificielle, à travers sa dénomination même, porte en elle une tension intrinsèque entre le naturel et l’artificiel. Elle vise à recréer, à travers des systèmes techniques, une aptitude que nous associons traditionnellement à la pensée humaine. Cette capacité repose sur des algorithmes, des modèles et des données, qui permettent à des machines de simuler la compréhension, l’apprentissage ou encore la résolution de problèmes.

L’étymologie même de l’expression « intelligence artificielle » révèle son ambition : un pont entre la créativité humaine et l’ingéniosité technologique, cherchant à reproduire — ou peut-être à dépasser — certaines des fonctions les plus complexes de l’esprit humain. Mais, voyons comment tout cela a commencé…

 

Histoire de l’IA : de ses débuts, à l’essor actuel

L’histoire de l’intelligence artificielle (IA) commence bien avant l’arrivée des ordinateurs modernes. Dans les années 1940, les travaux en informatique et en mathématiques, notamment ceux d’Alan Turing, posent les bases de la réflexion sur la création de machines capables de simuler la pensée humaine. En 1950, Turing propose le « test de Turing », un critère pour évaluer si une machine peut produire un comportement intelligent similaire à celui d’un humain.

Le terme « intelligence artificielle » apparaît en 1956, lors d’une conférence à Dartmouth College aux États-Unis. Cet événement rassemble des chercheurs comme John McCarthy, Marvin Minsky, Claude Shannon et Herbert Simon, qui explorent l’idée de construire des systèmes capables de raisonner, apprendre et résoudre des problèmes.

Les premières décennies voient l’émergence d’algorithmes capables de résoudre des problèmes complexes et de jouer par exemple aux échecs. En 1965, Joseph Weizenbaum conçoit ELIZA, un logiciel qui simule une conversation simple, ouvrant la voie aux interactions homme-machine. Cependant, ces progrès sont suivis par des périodes de ralentissement, appelées « hivers de l’IA », dues aux limites technologiques et à des attentes trop élevées. Les financements diminuent, freinant les recherches.

Dans les années 1980, les « systèmes experts » redynamisent le domaine. Ces programmes, basés sur des règles définies, reproduisent les décisions humaines dans des contextes précis, comme la médecine ou la finance. Bien qu’efficaces dans des cas spécifiques, ils peinent à s’adapter à des situations nouvelles.

En 1997, Deep Blue, un superordinateur d’IBM, bat le champion du monde d’échecs Garry Kasparov. Cet événement illustre la capacité des machines à maîtriser des tâches complexes. Cependant, l’IA reste limitée à des performances spécifiques, sans reproduire la flexibilité humaine.

À partir des années 2010, l’apprentissage automatique (machine learning) et le profond (deep learning) permettent des avancées significatives. Basées sur des réseaux neuronaux artificiels, ces méthodes rendent les machines capables d’apprendre à partir de grandes quantités de données. Elles trouvent des applications dans de nombreux domaines, comme la reconnaissance d’images, la traduction automatique ou les véhicules autonomes. En 2016, AlphaGo de DeepMind surpasse les meilleurs joueurs de Go, un jeu considéré comme plus complexe que les échecs.

Mais qu’est-ce qu’un algorithme ?

Imaginez-le comme un chef d’orchestre qui dirige les opérations d’une entreprise. Il s’agit d’un ensemble d’instructions précises qui guident les opérations et les décisions, permettant d’automatiser des tâches, d’analyser des informations et de résoudre des problèmes complexes.

Prenons l’exemple d’une boutique en ligne qui utilise un algorithme de recommandation. Ce dernier étudie l’historique d’achat des consommateurs, leurs préférences et leurs interactions sur le site pour leur proposer des produits susceptibles de les intéresser. Non seulement on améliore l’expérience client, mais on augmente aussi les ventes et la fidélité.
Il existe en deux types : tout d’abord les algorithmes explicites, comme une recette de cuisine, ils suivent des règles prédéfinies et transparentes.
Les algorithmes implicites, eux apprennent à partir de données, s’adaptant et évoluant au fil du temps.

 

Les données : le carburant des algorithmes

Si les algorithmes sont le moteur de l’IA, les données en sont le carburant. Elles les alimentent, leur permettant d’apprendre, de s’améliorer et de prendre des décisions intelligentes. Dans le cas d’un algorithme qui prédit la météo. Il a besoin de données : la température, la pression atmosphérique, la vitesse du vent… Plus il y a d’informations, plus ses prédictions seront précises.
Elles sont de deux types ; les données structurées, organisées de manière logique et facilement exploitables, comme les renseignements clients stockés dans une base de données. Et puis il y a celles non structurées, plus difficiles à exploiter. Les exemples sont les commentaires des clients sur les réseaux sociaux ou les e-mails. Des techniques d’analyse de texte et de traitement du langage naturel sont utilisées pour extraire les bonnes informations.

Si elles sont de mauvaise qualité, elles peuvent conduire à des résultats erronés et à des décisions inefficaces. La mise en place de processus de collecte, de nettoyage et de validation des données est essentielle. Ils sont donc intimement liés. Les algorithmes ont besoin de données pour fonctionner, et les données ont besoin d’algorithmes pour être exploitées.

Les LLMs : moteurs de l’IA générative

Le terme Large Language Models (LLMs) désigne une catégorie spécifique de modèles d’intelligence artificielle spécialisés dans le traitement et la génération de langage naturel. Ces modèles, qui tirent leur nom de leur taille impressionnante, reposent sur des architectures contenant des milliards, voire des trillions de paramètres. Le concept a émergé avec l’essor de l’apprentissage profond et des réseaux neuronaux, mais il s’est véritablement imposé au cours des dernières années grâce à des avancées technologiques majeures. Popularisé dans le domaine de l’IA générative, le terme fait référence à des systèmes capables de produire des textes, de comprendre le contexte linguistique et de s’adapter à des tâches variées, transformant ainsi notre manière d’interagir avec la technologie.

Ils sont entraînés sur des quantités massives de données, ce qui leur permet d’apprendre les nuances du langage et de produire des textes cohérents et pertinents. Le développement des LLMs a connu une accélération ces dernières années, avec des modèles performants, générant des textes de plus en plus sophistiqués et innovants.

Il existe aujourd’hui plus de 450 LLMs, chacun avec ses propres caractéristiques. Parmi les plus populaires, on trouve ChatGPT d’OpenAI, Gemini de Google, Llama de Meta, Claude d’Anthropic et Copilot de Microsoft. Ils diffèrent par leur coût, leur accessibilité, le nombre de jetons ou unités de texte, qu’ils peuvent traiter, et les langues qu’ils prennent en charge. Certains comme GPT, peuvent traiter des dizaines de milliers de jetons, ce qui leur permet de générer des textes plus longs et plus complexes. D’autres modèles sont spécialisés dans certaines langues ou certains types de tâches.

Utilisation des IA par les professionnels du digital

En France, les professionnels du digital utilisent l’IA pour automatiser des tâches, améliorer leur productivité et créer de nouveaux contenus. Selon une étude récente, les IA les plus employées sont Gemini de Google et Copilot de Microsoft pour les IA de texte, et Adobe Firefly pour les IA d’images. ChatGPT d’OpenAI est également employé par une part significative de ces professionnels. Ces outils leur permettent de générer du contenu marketing, de traduire des documents, de rédiger des articles de blog, de concevoir des images et des illustrations, et d’automatiser des tâches répétitives.

Le marché mondial de l’IA : une croissance exponentielle

L’une des raisons principales de l’essor fulgurant de l’IA est l’explosion des données. En 2023, la quantité de données créées chaque jour est tout simplement astronomique : 2,5 quintillions. Pour mettre cela en perspective, imaginez que chaque grain de sable sur Terre représente un octet de données. 2,5 quintillions d’octets, c’est l’équivalent de tout le sable de toutes les plages et de tous les déserts de la planète, multiplié par plusieurs milliers ! Chaque jour, nous générons 650 millions de Tweets/X, effectuons 8,5 milliards de recherches Google et envoyons 361 milliards d’e-mails. Tout cela constitue le carburant qui alimente le développement et l’apprentissage des systèmes d’IA. Plus il y en a, plus les algorithmes d’IA peuvent assimiler et s’améliorer.

Le marché mondial de l’IA est en pleine expansion, porté par cette explosion de données et les avancées technologiques constantes. En 2022, sa valeur était estimée à 177 milliards de dollars, ce qui représente déjà une somme considérable. Mais ce n’est que le début. Selon les prévisions, ce marché devrait atteindre 2745 milliards de dollars d’ici 2032, avec un taux de croissance annuel moyen de 36,8 %. Pour mieux comprendre l’ampleur de cette croissance, imaginez un investissement qui doublerait de valeur tous les deux ans. Il est dominé par le logiciel, qui représente la part la plus importante, suivi du matériel et des services. Les entreprises du monde entier investissent massivement dans l’IA, conscientes de son potentiel à transformer leurs activités et à créer de nouvelles opportunités.

NVIDIA est le aujourd’hui leader mondial de l’intelligence artificielle. Initialement spécialisée dans les processeurs graphiques (GPU) pour les jeux vidéo, elle a rapidement identifié leur potentiel pour l’IA et investi dans des architectures adaptées. Les GPUs, grâce à leur capacité à effectuer des calculs en parallèle, sont devenus essentiels pour traiter les vastes quantités de données requises par l’IA. NVIDIA est un acteur incontournable de l’écosystème de l’IA. En novembre 2024, sa capitalisation boursière est estimée à environ 3616 milliards de dollars américains, ce qui en fait la plus grande entreprise mondiale en termes de valeur marchande.

 

Préts à utiliser ce pont entre la créativité humaine et l’ingéniosité technologique ? Serez-vous un entrepreneur augmenté?