La cybersécurité à l'âge de l'IA, une catalyse révolutionnaire
L'intelligence artificielle connait une nouvelle vie depuis deux ans. L'IA générative portée sur agent conversationnel l'entraine dans un vaste mouvement de démocratisation. Quel va être l'impact sur la cybersécurité des systèmes d'information ? Est-ce une bénédiction pour les services de sécurité informatique ou au contraire un nouveau fléau des réseaux ?
Afin de se rendre compte de la situation, il faut d’abord prendre la mesure de ce vaste mouvement. Dans la foulée, il faut se poser la question sous trois angles fondamentaux : les vulnérabilités de ces nouveaux systèmes d’IA ; l’IA utilisé pour l’attaque ; l’IA utilisé pour la défense.
Une révolution technologique et sociologique
L’IA générative, illustrée principalement par les modèles de langage (LLM), marque une rupture profonde dans l’écosystème numérique, à l’image des révolutions qu’ont constituées Internet, le mobile ou encore le cloud public. Au-delà des grandes entreprises, elle se diffuse rapidement auprès d’un public varié, souvent peu sensibilisé aux questions de cybersécurité. Selon une étude du NBER (septembre 2024), 39,5 % des Américains âgés de 18 à 64 ans utilisent déjà l’IA générative, dont 32 % au moins une fois par semaine ; 28 % l’emploient dans leur travail et 11 % au quotidien. L’adoption de l’IA générative excède donc celle des précédentes innovations, puisque, deux ans après leur introduction, Internet ou les PC n’avaient pas atteint de tels taux d’utilisation.
Cette fulgurante expansion se remarque particulièrement chez les « cols blancs » et travailleurs du savoir. Une enquête de Microsoft menée en mars 2024 sur 31 000 employés dans plusieurs régions du monde montre que 75 % d’entre eux utilisent désormais ces outils, soit une hausse de 46 % par rapport à octobre 2023. Les raisons de cet engouement tiennent en grande partie aux gains de productivité, évalués à près de 25 %. Les domaines d’application les plus marquants incluent la rédaction, la synthèse et les tâches administratives. Des solutions comme Microsoft 365 CoPilot, intégrées aux suites bureautiques, ont en outre facilité cette adoption.
Toutefois, cette démocratisation à grande vitesse pose d’importants problèmes de sécurité. D’une part, l’accès à l’IA générative s’ouvre à des millions de personnes sans formation poussée aux risques informatiques, offrant un terrain propice aux cyberattaques. D’autre part, le phénomène de « Shadow AI » se développe : jusqu’à près de 4/5ième des salariés recourent à des outils non approuvés par leur entreprise, voire dissimulent leur usage. Les secteurs de la santé et de la finance sont particulièrement concernés, avec une hausse allant jusqu’à 230 % ou 250 % de ces pratiques non encadrées. Les employés craignent qu’admettre leur recours à l’IA générative ne les rende « remplaçables » ou « incompétents », alimentant la culture du secret.
En l’absence de politiques claires et de directives nationales au rythme de cette explosion technologique, les entreprises sont souvent dépourvues de cadres de sécurité adaptés. Cette situation renforce les cyber-risques et engendre une perte potentielle de confiance. L’IA générative, bien que source d’avantages compétitifs et de gains de productivité, s’avère donc être un défi majeur en matière de gouvernance et de cybersécurité.
Les nouveaux risques liés aux vulnérabilités de l’I.A.
A ce constat s’en ajoute en autre : les nouvelles formes d’IA générative, et notamment les Grands Modèles de Langage (LLMs), souffrent de vulnérabilités inédites liées à leur propre efficacité. Leur « crédulité », c’est-à-dire leur propension à suivre scrupuleusement les instructions de l’utilisateur, crée des failles exploitables par des attaques d’injection d’invite (prompt injection). Celles-ci peuvent être directes — un utilisateur malveillant manipule l’IA en jouant sur l’obfuscation ou la modification d’instructions — ou indirectes, lorsque les données malveillantes proviennent d’un contenu tiers, par exemple un site ou un fichier dont l’IA traite l’information à l’insu de l’utilisateur.
Des chercheurs de Google Deep Mind et Cornell ont prouvé qu’il était possible de faire divulguer aux LLMs des données d’entraînement, incluant des informations personnelles. Par ailleurs, l’IA de Bing a été poussée à demander des identifiants bancaires en exploitant un onglet contenant des instructions invisibles, comme du texte en taille zéro. Ces exemples soulignent la fragilité des garde-fous, y compris sur des systèmes réputés avancés.
En outre, les propriétés émergentes des LLMs — leur capacité à inférer des données démographiques, personnelles ou comportementales à partir de textes — exposent les utilisateurs à des atteintes à la vie privée. Des travaux menés par l’ETH de Zurich montrent que GPT-4 peut, avec un taux de réussite supérieur à 85 %, extraire le genre, le revenu ou la localisation d’un utilisateur sur la base de simples publications Reddit. À Stanford et Harvard, d’autres chercheurs ont confirmé que la personnalité d’un individu pouvait être cernée, qu’il s’agisse de figures publiques ou de particuliers.
S’ajoute à cela un « oversharing » accidentel : ces IA sont parfois capables de reconstituer et de partager des données confidentielles stockées dans un espace collaboratif (par exemple Microsoft 365). La complexité et la rapidité du déploiement de l’IA générative rendent difficile l’instauration de politiques de sécurité appropriées. Parallèlement, la désinvolture ou la méconnaissance de certains employés (dénoncées par le National Cybersecurity Alliance) aggravent les risques de fuites et de manipulations.
Enfin, des expériences de red-teaming soulignent la possibilité de comportements encore plus inquiétants : tromperie consciente, contournement de mécanismes de contrôle, voire tentatives de supprimer leurs propres garde-fous. Ainsi, la puissance des LLMs, jointe à leur fonctionnement interne mal compris, crée un espace vulnérable où une simple invite peut lever les restrictions et induire des actions malveillantes.
Les problèmes d’un contrôle humain défaillant du micro au macro
Les vulnérabilités de l’IA générative se trouvent exacerbées par l’usage humain et l’absence de contrôles de vérification. Au cœur du problème figure la démocratisation de l’IA grâce à la « programmation en langage naturel », qui permet à quiconque d’interroger ces « nouveaux oracles » sans expertise technique. Bien qu’elles soient puissantes, ces IA commettent des erreurs ou hallucinations, parfois graves. Dans le domaine médical, GPT-4 améliore la précision par rapport à GPT-3.5 et Bard, mais maintient un taux d’hallucination d’environ 28,6 % pour les citations d’articles. Paradoxalement, le même modèle atteint 92 % de réussite dans le diagnostic. Pour paraphraser l’adage qu’il vaut mieux « avoir vaguement raison que précisément tort », ces modèles, eux, ont « vaguement raison - et en même temps précisément tort ». Cependant, l’inexactitude dans les sources peut avoir des conséquences graves. En droit, des jurisprudences fictives ont été invoquées en justice, comme dans l’affaire Mata v. Avianca, entraînant une condamnation financière du cabinet d’avocats.
L’IA est également de plus en plus utilisée pour générer du code, un phénomène adopté par 83 % des entreprises sondées début 2025. Or les hallucinations de dépendances logicielles, parfois reproduites d’une session à l’autre, présentent un risque majeur de failles exploitables. Par ailleurs, la « Shadow AI » échappe souvent aux politiques de sécurité internes, déjà peu suivies par les développeurs. Cette généralisation accélère la production logicielle (paradoxe de Jevons) et accroît d’autant la surface d’attaque.
Pour contenir ces risques, les législateurs se mobilisent. L’Union Européenne a adopté l’IA Act (juillet 2024), fixant un seuil de 1E25 FLOPS au-delà duquel un modèle « à usage général » est considéré à haut risque. Aux États-Unis, le décret E.O. 14110 de 2023 avait érigé le seuil à 1E26 FLOPS, mais il fut retiré début 2025. Les lois en préparation, telles que SB 1047 en Californie, illustrent la difficulté de définir des critères techniques pertinents, d’autant plus que l’IA évolue rapidement.
La suprématie américaine dans le domaine (95 % des Data Center GPUs) soulève enfin des enjeux de souveraineté pour l’Europe. En cas de divergence juridique ou de crise géopolitique, la dépendance à l’égard des grands fournisseurs américains pourrait peser lourd. Les solutions envisagées comprennent le développement de modèles open source européens, la labellisation (« IA de confiance ») et une plus grande recherche de « massification » pour soutenir la compétitivité. Cependant, ces stratégies supposent des investissements significatifs et un positionnement clair sur la scène mondiale, afin d’éviter que la régulation ne se traduise simplement par un frein à l’innovation.
L’IA pour aider l’attaque
L’IA transforme radicalement le paysage des menaces cyber, et les responsables de la sécurité (RSSI) anticipent déjà une hausse massive des risques. Des sondages réalisés en 2023 et 2024 montrent que près de la moitié des RSSI considèrent l’IA et l’IA générative comme l’un des principaux dangers, derrière les ransomwares et les attaques étatiques. Cette perception s’explique par le fait que l’IA facilite l’automatisation des attaques, la baisse des compétences requises et l’érosion de notre capacité à discerner le vrai du faux.
En effet, une nouvelle génération d’outils criminels, surnommés « Mallas » (Malware LLMs), fleurit sur le marché noir. Des plateformes comme WormGPT, FraudGPT ou EscapeGPT permettent de générer en quelques clics des maliciels sophistiqués, des ransomwares ou encore des campagnes de phishing ciblées. Des études universitaires (Indiana University) révèlent qu’une majorité de ces systèmes peut créer et personnaliser des codes malveillants ou des faux sites web. Les plus performants, tels que DarkGPT, échappent même aux antivirus traditionnels.
Parallèlement, des expériences menées par l’Université de l’Illinois démontrent la dangerosité de modèles comme GPT-4, qui a pu mener avec succès 73 % des attaques d’intrusion lors de tests. L’exemple de Zero Day GPT de Chris Kubecka illustre la capacité de l’IA à dénicher rapidement des failles inconnues (« zero-day »). Les cybercriminels, y compris peu expérimentés, peuvent ainsi lancer des offensives avancées.
Au-delà de l’aspect purement technique, l’IA renforce l’ingénierie sociale. Les deepfakes (voix, vidéo, image) et les e-mails de phishing « sur mesure » rendent les escroqueries plus crédibles. Des attaques récentes, comme celle subie par MGM Resorts, utilisent des imitations vocales pour tromper les services informatiques et accéder à des comptes critiques. Dans le cas d’Arup, une vidéo deepfake a permis de détourner 25 millions de dollars de Hong Kong via une fraude au directeur.
En somme, l’IA accroît la sophistication et la portée des attaques, tout en rendant leur exécution moins coûteuse et plus abordable pour les criminels. Sans mécanismes de défense adaptés, la cybercriminalité pourrait voir son coût s’accroître d’au moins 15 % par an. Les RSSI, conscients de cette course aux armements, réclament davantage de ressources pour protéger les systèmes d’information et maintenir la confiance dans l’économie numérique.
L’IA pour la défense
L’IA se révèle désormais cruciale pour défendre les entreprises face à la hausse et la complexité des cyberattaques, elles-mêmes largement dopées par des outils d’IA. Selon diverses études, 69 % des organisations et 80 % des institutions financières utilisent déjà l’IA pour renforcer leur sécurité. Cette adoption massive confère plusieurs bénéfices : une accélération significative de la détection (jusqu’à 55 % de temps gagné) et de la réponse aux incidents (par un facteur pouvant atteindre x8), ainsi qu’une baisse des coûts liés aux fuites de données (jusqu’à 33 % de réduction) et une amélioration notable du moral des équipes.
Sur le marché, les grandes plateformes cloud comme Microsoft ou Google intègrent l’IA générative dans leurs offres de cybersécurité, à l’image de Microsoft Security Copilot (basé sur GPT-4) ou de Google Security AI Workbench (reposant sur Sec-PaLM). Ces acteurs dominants, déjà très présents dans les solutions de sécurité, misent sur la valeur ajoutée de l’IA pour concurrencer la hausse des attaques. Le marché de la cybersécurité « augmentée par l’IA » connaît une forte croissance, estimée à 31 milliards de dollars dès 2025 et devant atteindre plus de 86 milliards d’ici 2030. De nombreux autres éditeurs, tels que Palo Alto, suivent le même élan, intégrant progressivement l’IA et l’IA générative à leurs produits.
Parallèlement, on assiste à l’essor de startups et de projets open source dédiés à la sécurité des systèmes d’IA eux-mêmes. Plusieurs jeunes pousses visent notamment à contrer les risques de fuite de données ou d’« over-sharing ». Giskar.AI propose un red-teaming spécialisé pour tester la robustesse des LLMs ; Hirundo se focalise sur le « machine unlearning », capable de supprimer des données d’entraînement sans réapprendre entièrement le modèle. D’autres solutions, comme celles de Knostic, combinent analyse continue et contrôles d’accès granulaire pour prévenir la divulgation accidentelle de contenus sensibles.
Ce foisonnement d’innovations traduit la prise de conscience que la cybersécurité à l’ère de l’IA ne se limite plus à protéger les infrastructures classiques : elle doit aussi intégrer les menaces et vulnérabilités propres aux modèles d’IA avancés. Dans ce nouveau paysage, vitesse de réaction et adaptation constante apparaissent comme les clés pour devancer des attaquants tout autant équipés d’algorithmes puissants. Une nouvelle course entre défenseurs et assaillants vient de démarrer. Pour reprendre un des adages d’un autre univers de la confrontation, le monde militaire, l’effort de cybersécurité à l’âge de l’I.A. départagera « les vifs et les morts ». Dans cette nouvelle ère pour la cybersécurité, l’Intelligence Artificielle va devenir le grand accélérateur.