Lors du WAICF 2025, David Grout, CE Manager SEMEA chez Google, a présenté « AI Trust, Security & Compliance: AI & Cybersecurity — Eternal Flame, Frozen Heart ». Dans cette intervention, il a analysé les menaces cybernétiques accrues par l’IA, les stratégies des cybercriminels, mais aussi les opportunités offertes par l’IA pour renforcer la cybersécurité.
L’IA, un double tranchant pour la cybersécurité
L’essor de l’intelligence artificielle représente à la fois une opportunité et un risque pour la cybersécurité. D’un côté, elle permet de renforcer les systèmes de défense, en détectant plus rapidement les menaces. De l’autre, elle est aussi utilisée par des acteurs malveillants pour perfectionner leurs attaques. David Grout a souligné que les discours médiatiques autour de l’IA sont souvent exagérés ou biaisés, entre mythes et réalités. Si certains imaginent déjà des attaques automatisées menées par des IA autonomes, la réalité est plus nuancée : la majorité des attaques actuelles sont encore initiées par des humains, mais elles sont optimisées par l’IA.
Le rôle croissant de l’IA dans les cyberattaques
Google suit de près l’évolution des cybermenaces, notamment celles impliquant des groupes étatiques ou des cybercriminels organisés. Ces groupes exploitent l’IA principalement de trois manières :
- Optimisation du phishing : L’IA générative est utilisée pour créer des emails frauduleux mieux rédigés, plus convaincants et dans plusieurs langues, augmentant ainsi le taux de succès des attaques de phishing.
- Recherche de vulnérabilités : Les attaquants utilisent des modèles IA pour analyser les failles de sécurité dans des logiciels et infrastructures existants.
- Développement de malwares plus sophistiqués : Grâce à l’IA, les malwares deviennent plus adaptatifs, capables de modifier leur code, pour éviter d’être détectés par les systèmes de défense.
Ces techniques permettent aux hackers d’automatiser une partie de leur travail et de gagner en efficacité.
L’intelligence artificielle comme outil de défense en cybersécurité
Si l’IA est une menace, elle est aussi une arme précieuse pour les défenseurs. David Grout a mis en avant plusieurs initiatives de Google pour améliorer la cybersécurité à l’aide de l’IA.
- Détection avancée des menaces
L’IA permet d’analyser un volume gigantesque de données pour identifier des pratiques suspectes en temps réel. Par exemple, elle peut repérer :
- Des tentatives d’accès frauduleuses à des systèmes sensibles.
- Des anomalies dans le comportement des utilisateurs, signe d’une compromission potentielle.
- Des malwares inédits, même s’ils ne sont pas encore répertoriés dans les bases de données de signatures traditionnelles.
Google mise sur la surveillance comportementale plutôt que sur une simple liste noire de menaces connues, ce qui permet de détecter les attaques zéro-day (attaques inédites exploitant des failles encore inconnues).
- Analyse automatisée des malwares
L’un des projets majeurs évoqués par David Grout concerne l’amélioration de l’analyse des malwares grâce à l’IA. Plutôt que de se contenter d’une analyse statique des fichiers malveillants, l’IA permet de :
- Anticiper les comportements d’un malware avant même son exécution.
- Générer des descriptions compréhensibles de son fonctionnement, même pour les analystes juniors.
- Automatiser la création de signatures pour bloquer des menaces similaires dès leur apparition.
Cette capacité d’automatisation et d’explication offre la possibilité d’accélérer la réponse aux incidents et de réduire la dépendance aux experts en cybersécurité.
- Sécurisation des modèles d’IA : Model Armor
Google a également présenté Model Armor, une nouvelle technologie conçue pour protéger les modèles d’IA contre les attaques adversariales.
Les cybercriminels tentent en effet d’empoisonner les modèles d’IA en leur injectant des données biaisées, ou de les manipuler en modifiant légèrement leurs inputs pour les tromper. Model Armor vise à :
- Renforcer la robustesse des modèles IA face aux manœuvres malveillantes.
- Protéger les interactions (prompt in, prompt out) pour éviter que des informations sensibles ne soient compromises.
- Détecter les tentatives d’exploitation des modèles en surveillant les requêtes suspectes.
Cette technologie est essentielle pour assurer la fiabilité des modèles d’IA utilisés dans des applications sensibles, notamment en cybersécurité.
Le rôle de l’open source dans la cybersécurité et l’IA
L’open source joue un rôle majeur dans le développement de l’intelligence artificielle et de la cybersécurité. D’un côté, il permet une innovation rapide et collaborative. Mais de l’autre, il offre aux cybercriminels un accès aux mêmes outils que les défenseurs.
David Grout a mis en garde contre l’usage détourné de technologies open source par des hackers. Par exemple :
- Les criminels peuvent exploiter des modèles IA open source pour perfectionner leurs techniques de phishing.
- Des outils de cybersécurité open source peuvent être analysés pour en identifier les failles et les contourner.
Malgré ces risques, David Grout a insisté sur l’importance de ne pas diaboliser l’open source. Il plaide pour une approche équilibrée, où :
- Les communautés open source continuent d’innover pour améliorer la cybersécurité.
- Des cadres de gouvernance sont mis en place pour éviter que ces outils ne soient détournés à des fins malveillantes.
En somme, l’open source reste un levier puissant pour la cybersécurité, à condition d’être encadré de manière responsable.
Vers une cybersécurité augmentée par l’IA
Malgré les défis posés par l’IA, les défenseurs ont une longueur d’avance sur les attaquants.
- L’IA comme catalyseur de résilience
L’IA ne remplace pas les experts en cybersécurité, mais elle augmente leurs capacités :
- Elle automatise les tâches répétitives, permettant aux analystes de se concentrer sur les cas critiques.
- Elle facilite la compréhension des menaces en générant des rapports clairs et détaillés.
- Elle accélère la réponse aux incidents, réduisant l’impact des attaques.
- Une collaboration essentielle
Google met l’accent sur la collaboration entre les entreprises, les chercheurs et les gouvernements pour construire une cybersécurité robuste. L’IA doit être développée de manière transparente et responsable, avec une approche centrée sur la protection des utilisateurs.
- Maintenir l’avantage des défenseurs
Les cybercriminels exploitent donc l’IA pour leurs attaques. Mais les experts en cybersécurité ont un atout majeur : ils comprennent mieux les mécanismes de l’IA et peuvent l’utiliser pour anticiper et neutraliser les menaces avant qu’elles ne se concrétisent.
David Grout a conclu en insistant sur l’importance de garder une longueur d’avance : en développant des outils IA robustes, sécurisés et accessibles aux défenseurs, nous pouvons bâtir un futur numérique plus sûr.
l’IA et la cybersécurité sont donc indissociables. Loin d’être un simple danger, l’IA représente une opportunité unique pour mieux protéger les infrastructures numériques et contrer les menaces émergentes. La clé réside dans une approche proactive, collaborative et éthique, où la technologie est au service de la sécurité et de la confiance numérique.