Google prépare discrètement une nouvelle étape de l’intelligence artificielle grand public. Son nom de code : « Remy ». Derrière cette appellation encore non officielle se dessine un changement majeur dans l’histoire des usages numériques. Il ne s’agit plus simplement d’un assistant conversationnel capable de répondre à des questions. Il s’agit d’un agent IA autonome susceptible d’agir directement à la place de l’utilisateur sur ses emails, ses documents, son agenda, ses achats, ses notifications ou ses outils professionnels.

Le sujet dépasse largement l’effet d’annonce technologique. Derrière l’innovation se profile une transformation profonde du rapport entre humains, entreprises et systèmes d’information. Google ne cherche plus uniquement à créer une interface conversationnelle. Le groupe semble vouloir construire une couche d’intention permanente entre l’utilisateur et l’ensemble de sa vie numérique.

Ce basculement ouvre une nouvelle phase de l’IA : l’ère des agents opérationnels. Avec elle apparaît un risque majeur encore largement sous-estimé dans les entreprises : le Shadow AI.

De l’IA conversationnelle à l’IA agentique

Depuis l’arrivée de ChatGPT fin 2022, les usages de l’IA générative se sont diffusés à une vitesse exceptionnelle dans les organisations. Les salariés utilisent désormais quotidiennement des outils capables de rédiger des emails, résumer des documents, analyser des données ou produire des contenus marketing.

Mais jusqu’ici, l’utilisateur restait relativement au centre de la boucle décisionnelle. L’IA suggérait. L’humain validait.

L’approche agentique modifie radicalement cette logique. Un agent IA autonome ne se contente plus de produire une réponse. Il peut déclencher des actions, enchaîner des tâches, accéder à différents systèmes, mémoriser des habitudes et prendre certaines décisions opérationnelles sans sollicitation constante.

La différence est fondamentale. Nous passons progressivement d’une IA qui parle à une IA qui agit. Des projets comme OpenClaw, AutoGPT, Devin ou Operator illustrent déjà cette évolution. OpenClaw symbolise particulièrement cette nouvelle génération d’agents capables d’interagir directement avec des outils numériques comme les emails, les agendas, les navigateurs, les messageries ou les plateformes SaaS.

L’intérêt stratégique pour les géants technologiques devient alors évident. Celui qui contrôlera l’agent IA personnel contrôlera potentiellement l’interface de travail, les flux d’information, les comportements numériques, les arbitrages de consommation et une partie croissante des décisions quotidiennes.

Google veut devenir l’orchestrateur invisible de la vie numérique

Le positionnement supposé de « Remy » est particulièrement révélateur. Selon plusieurs informations circulant dans l’écosystème technologique, Google travaillerait sur un agent Gemini capable de fonctionner en continu comme un « partenaire numérique 24/7 ».

Le terme est loin d’être anodin. L’objectif ne semble plus être uniquement l’assistance cognitive. L’ambition devient l’orchestration de la vie numérique. Emails Gmail, documents Google Drive, historique de navigation, agenda, achats, localisation, applications Android, notifications ou historique de recherche : Google possède déjà une quantité considérable de données contextuelles sur les utilisateurs. L’ajout d’un agent IA autonome transforme ce patrimoine informationnel en capacité d’action.

C’est précisément ce qui distingue les futurs agents IA des assistants précédents. L’intelligence ne réside plus uniquement dans la génération de texte. Elle réside désormais dans la compréhension contextuelle permanente et dans la capacité à exécuter. Ce changement peut sembler pratique pour le grand public. Mais il devient beaucoup plus complexe dans un environnement professionnel.

Le Shadow AI change d’échelle

Le Shadow IT existe depuis des décennies. Les collaborateurs utilisent régulièrement des outils non validés par les directions informatiques. Dropbox, WhatsApp, Trello, Google Docs ou Slack ont tous connu cette trajectoire avant leur adoption officielle.

Le Shadow AI représente une version beaucoup plus puissante de ce phénomène. Un salarié utilisant discrètement ChatGPT pour reformuler un email constitue déjà un premier niveau de risque. Mais un agent autonome connecté simultanément aux emails professionnels, aux documents internes, aux réunions, aux agendas, aux CRM, aux outils RH, aux plateformes financières et aux applications métiers change totalement l’équation.

Le danger ne vient plus uniquement de la fuite volontaire de données. Il provient de la délégation implicite de processus décisionnels à des systèmes non gouvernés. Google reconnaît lui-même dans certaines documentations internes que Gemini « peut divulguer des données par inadvertance ». Cette phrase mérite une attention particulière. Les agents IA ne manipulent pas seulement des données isolées. Ils créent des corrélations contextuelles extrêmement puissantes entre informations personnelles et professionnelles.

La frontière entre sphère privée et environnement d’entreprise devient alors particulièrement poreuse.

Une gouvernance encore largement absente

La majorité des entreprises n’est pas préparée à cette évolution.

Depuis deux ans, les organisations se concentrent principalement sur les gains de productivité, les cas d’usage rapides, l’automatisation documentaire, les copilotes IA et les expérimentations métiers. Peu d’entre elles disposent aujourd’hui d’une gouvernance spécifique des agents autonomes, d’une cartographie des usages IA réels, d’une observabilité complète des interactions IA ou d’une politique claire sur les droits d’action des agents.

Le problème est structurel. Les entreprises ont souvent abordé l’IA comme un simple outil informatique supplémentaire. Or les agents IA modifient profondément la structure opérationnelle des organisations. Ils deviennent progressivement des quasi-acteurs du système d’information.

Cette évolution pose des questions inédites. Qui est responsable d’une erreur d’agent ? Comment tracer une décision prise automatiquement ? Comment distinguer une action humaine d’une action IA ? Comment auditer un agent connecté à plusieurs systèmes ? Comment empêcher l’exfiltration involontaire de données sensibles ?

Ces problématiques deviennent encore plus critiques dans des secteurs réglementés comme la finance, la santé, la défense, le juridique, l’assurance ou l’énergie.

L’illusion de l’autonomie intelligente

L’un des risques majeurs réside dans l’anthropomorphisation croissante des agents IA. Les entreprises commencent déjà à parler « d’assistants », de « collaborateurs virtuels » ou « d’agents employés ».

Cette sémantique modifie progressivement la perception du risque. Plus un agent semble autonome et conversationnel, plus l’utilisateur tend à lui accorder une confiance implicite.

Or les modèles génératifs restent probabilistes. Ils peuvent halluciner, interpréter incorrectement un contexte, exécuter une mauvaise action, divulguer des informations sensibles ou amplifier des erreurs opérationnelles. Le problème devient alors moins technique que cognitif. L’utilisateur cesse progressivement de vérifier.

Plusieurs études récentes évoquent déjà un phénomène de « dette cognitive » lié à l’usage intensif de l’IA générative. Plus les systèmes deviennent autonomes, plus le risque de désengagement critique humain augmente.

Avec des agents capables d’agir directement, cette problématique pourrait prendre une ampleur considérable.

Une nouvelle surface d’attaque cyber

Les agents IA créent également une nouvelle catégorie de vulnérabilités en cybersécurité. Historiquement, les attaquants ciblaient les utilisateurs, les terminaux, les serveurs ou les applications. Demain, ils cibleront potentiellement les agents eux-mêmes.

Pourquoi ? Parce qu’un agent connecté dispose d’accès multiples, d’une mémoire contextuelle, de permissions transversales et parfois d’une capacité d’exécution automatique. Compromettre un agent IA pourrait offrir un accès massif aux données et workflows d’une entreprise.

Les risques incluent le prompt injection, la manipulation contextuelle, l’empoisonnement de mémoire, les détournements d’actions ou les exfiltrations invisibles de données.

Les directions cybersécurité commencent seulement à mesurer l’ampleur du sujet. Or l’adoption grand public risque d’aller beaucoup plus vite que les capacités de gouvernance des organisations.

Le futur du travail pourrait être profondément reconfiguré

L’émergence des agents IA ne concerne pas uniquement la technologie. Elle pourrait transformer la structure même du travail intellectuel.

Aujourd’hui, une partie importante des tâches tertiaires consiste à coordonner, rechercher, organiser, planifier, synthétiser, relancer ou arbitrer. Ce sont précisément ces micro-actions que les agents IA peuvent progressivement absorber. L’impact potentiel sur les métiers intermédiaires est majeur. Les fonctions support, les assistants administratifs, certains rôles de coordination ou certaines activités analytiques pourraient être profondément reconfigurés.

Mais le sujet le plus important n’est peut-être pas la suppression d’emplois. Il est possible que nous assistions surtout à une redistribution des capacités décisionnelles.

Les collaborateurs capables de piloter efficacement des agents IA pourraient voir leur productivité augmenter massivement. À l’inverse, les organisations incapables de gouverner ces nouveaux systèmes risquent de générer davantage de confusion, plus d’opacité et des risques accrus de fragmentation informationnelle.

L’Europe face à un défi de souveraineté

Le développement des agents IA soulève également une question géopolitique majeure. Les principaux acteurs capables de construire ces infrastructures restent aujourd’hui Google, OpenAI, Microsoft, Meta, Amazon ou Anthropic. Autrement dit, des groupes américains disposant déjà d’une position dominante sur les infrastructures cloud, les systèmes d’exploitation, les moteurs de recherche et les plateformes collaboratives.

L’agent IA devient alors potentiellement une nouvelle couche de dépendance stratégique. Celui qui contrôle l’agent contrôle progressivement les interfaces, les comportements, les arbitrages, les flux économiques et les données contextuelles.

L’Europe tente d’encadrer cette évolution via l’AI Act, le RGPD et diverses initiatives de souveraineté numérique. Mais la vitesse de déploiement des usages pourrait dépasser celle des cadres réglementaires.

Le risque est de voir émerger une dépendance opérationnelle silencieuse aux agents IA étrangers avant même que les entreprises aient réellement compris leurs implications.

Les conseils d’administration vont devoir s’emparer du sujet

Pendant longtemps, l’IA a été considérée comme un sujet technique relevant des DSI ou des directions innovation. Cette époque touche probablement à sa fin.

Les agents IA autonomes transforment désormais la gouvernance, la responsabilité, la conformité, la cybersécurité, les processus métiers et potentiellement les modèles économiques.

Le sujet devient stratégique.

Les conseils d’administration vont devoir se poser rapidement plusieurs questions fondamentales. Quels agents sont utilisés dans l’entreprise ? Quels accès possèdent-ils ? Quelles données manipulent-ils ? Quels processus peuvent-ils déclencher ? Quelle supervision humaine existe réellement ? Comment auditer leurs actions ? Quelle traçabilité conserver ?

Le véritable enjeu n’est pas d’interdire les agents IA. Il est d’éviter une adoption invisible, fragmentée et non pilotée.

L’entrée dans l’ère de l’IA agissante

Le projet « Remy » n’est peut-être encore qu’un nom de code. Son lancement public reste incertain. Mais il symbolise déjà une bascule historique. Pendant deux décennies, les plateformes numériques ont principalement capté notre attention. Les futurs agents IA chercheront probablement à capter notre intention.

La différence est considérable.

Une IA qui comprend ce que nous voulons faire et agit directement à notre place devient progressivement un intermédiaire opérationnel permanent. Nous entrons ainsi dans une nouvelle phase du numérique, moins conversationnelle, plus exécutive, plus autonome et potentiellement beaucoup plus intrusive. Le véritable débat n’est donc plus seulement technologique. Il devient politique, organisationnel, cognitif et civilisationnel.

La question centrale n’est plus : « Que peut répondre l’IA ? » mais désormais : « Que peut-elle faire sans nous ? »