Les cybermenaces basées sur l'IA : faut-il combattre le mal par le mal ?

Alors que les progrès positifs générés grâce à de l'IA, comme les applications d'aides aux meilleurs diagnostics médicaux, continuent de se développer, nous assistons malheureusement à l'émergence de techniques de cybermenaces fondées sur cette même technologie.

En France, comme ailleurs, des individus peu qualifiés, souvent appelés "script kiddies", utilisent des outils d'IA générative pour créer des malwares. Bien que des outils comme ChatGPT bloquent les demandes nuisibles, des versions plus malveillantes comme WormGPT et FraudGPT circulent désormais. Les entreprises françaises sont désormais confrontées à des groupes de menaces plus sophistiqués utilisant l'IA pour explorer de nouvelles techniques d'attaque.

Pourquoi les cyberattaques alimentées par l'IA sont-elles si dangereuses ?

L'IA, en développement depuis longtemps, est désormais utilisée pour contourner les outils de sécurité existants. Les attaques fondées sur l'IA peuvent identifier des vulnérabilités, ouvrir et exploiter des ports pour exécuter du code malveillant ou se déplacer vers des actifs de grande valeur. Une tactique efficace est le « phone home morphing ». Une fois le malware dans le réseau, il utilise une API pour appeler un outil d'IA, rapporter ses progrès et recevoir des mises à jour pour surmonter les obstacles. Cela se répète jusqu'à ce que le malware réussisse, grâce au moteur d'IA qui le fait fonctionner rapidement.

Encore plus dangereux est le concept de code polymorphe auto-générant. Plutôt que de rappeler à la base, ce malware IA apprend de son environnement de manière indépendante et adapte ses tactiques. Cette approche est actuellement trop intensive en ressources pour être viable, mais ce n'est qu'une question de temps avec l'avancée de la puissance informatique.

Le danger de l'empoisonnement de l'IA

En plus des menaces de l'IA, il existe des menaces contre l'IA, connues sous le nom d'empoisonnement de l'IA. Des acteurs malveillants manipulent les outils d'IA pour fausser leurs conclusions. Par exemple, en empoisonnant les données avec de fausses informations, il est possible de tromper l'IA pour qu'elle considère des activités malveillantes comme bénignes, permettant aux attaquants de passer inaperçus. Une étude de l'Université Cornell a montré que même en empoisonnant seulement 0,01 % des ensembles de données d'apprentissage profond, il est possible de fausser significativement les décisions d'un modèle d'IA, démontrant la vulnérabilité de ces systèmes à de petites manipulations de données[1].

La réponse aux menaces de l'IA ne doit pas être plus d'IA

"Combattre le mal par le mal" est une réponse courante aux menaces alimentées par l'IA. Toutefois, bien que l'IA ait sa place dans l'écosystème technologique de sécurité, compter uniquement sur cette approche est une erreur. Les adversaires peuvent empoisonner et subvertir les outils de défense, rendant les solutions de sécurité IA vulnérables. Le déploiement plus large de la détection des menaces par IA signifie plus d'opportunités pour les acteurs malveillants de comprendre et de contrer les outils. Ainsi, l'IA doit être utilisée judicieusement, tout comme nous utilisons les antibiotiques avec prudence.

Limiter la surface d'apprentissage

Réduire la surface d'attaque est déjà une stratégie de sécurité courante. Nous devons maintenant limiter la "surface d'apprentissage" pour les outils d'IA offensifs dans le réseau.  Empêcher les malwares d'accéder aux ressources réduit leurs opportunités d'apprendre et de s'adapter. Le confinement des brèches, utilisant la micro-segmentation, se concentre sur la limitation et le maintien des acteurs malveillants dans le réseau. Plutôt que d'essayer de surpasser un intrus, la menace est stoppée net jusqu'à son élimination, améliorant la récupération des incidents car le rayon d'impact est limité.

Bien que l'IA soit une menace croissante, les capacités nécessaires pour la combattre ne sont pas nouvelles. Des principes comme le Cadre de sécurité des systèmes d'information (PSSI) de l'ANSSI soulignent la nécessité de comprendre comment les systèmes communiquent et l'utilisation de la segmentation du réseau[2]. Cependant, les approches traditionnelles de segmentation ne fournissent pas le contrôle et l'agilité nécessaires pour lutter contre les menaces alimentées par l'IA. Elles ne permettent pas de modifier les règles de sécurité par actif, en fonction du statut et du contexte, rendant difficile de suivre le rythme.

Utiliser la segmentation Zero Trust pour limiter les menaces de l'IA

La stratégie Zero Trust, fondée sur « ne jamais faire confiance, toujours vérifier », est bien adaptée à cette nouvelle ère de cybermenaces. Cela signifie un changement de paradigme : identifier les quelques bonnes choses et les autoriser, plutôt que d'essayer d'identifier toutes les mauvaises. La segmentation Zero Trust, une technologie cruciale dans le cadre d’une stratégie Zero Trust, déplace le contrôle des pare-feu statiques hérités vers l'actif individuel, créant un environnement de sécurité plus réactif. En améliorant la visibilité, les interconnexions entre les ressources peuvent être identifiées, les dépendances nécessaires autorisées, et toutes les autres communications refusées.

En cas d'attaque, les systèmes peuvent être verrouillés pendant que la menace est gérée, permettant une utilisation ciblée des défenses IA pour nettoyer l'environnement. En adoptant une approche plus dynamique, les organisations peuvent répondre et récupérer plus rapidement. Cette approche limite la capacité d'une attaque IA à apprendre sur les défenses et les systèmes, réduisant ainsi l'efficacité de toute attaque. Le résultat est que les organisations peuvent continuer à fournir des services critiques pendant une attaque générée par l'IA.

[1] https://www.lenouveleconomiste.fr/donnees-empoisonnees-pourquoi-ia-peut-tres-vite-deraper-100607/

[2] https://cyber.gouv.fr/cadre-de-gouvernance-de-la-securite-numerique-de-letat-pssie