Les progrès de l'intelligence artificielle et leur influence potentielle sur la cybersécurité

L'IA est un outil précieux pour les solutions de cybersécurité, mais les attaquants en tirent également grandement parti.

Ces dernières années, l’intelligence artificielle (IA) a progressé à pas de géants, jusqu’à occuper à présent une place centrale dans le paysage technologique actuel. En effet, selon une enquête menée par Gartner, l’investissement dans les produits logiciels d’IA devrait atteindre 62 milliards de dollars en 2022 – ce qui ne représente qu’une minuscule fraction de son potentiel.

Grâce à sa démocratisation croissante, l’IA est désormais outil accessible aux défenseurs, mais cela signifie également que les acteurs malveillants sont en mesure d’en tirer avantage. Afin de lutter contre les potentielles cyberattaques et de mieux protéger les entreprises comme les particuliers contre ces menaces, les acteurs de la sécurité s’intéressent de près aux développements de l’IA afin d’anticiper ses futures évolutions et leur influence dans le domaine de la cybersécurité.

Les défenseurs ne détiennent pas le monopole de l’innovation

Le degré de sophistication atteint par les solutions d’IA ces dernières années aurait été inimaginable il y a seulement dix ans et l’intelligence artificielle occupe une place de plus en plus dans une vaste gamme de solutions technologiques. Selon les prédictions de Gartner concernant les prochaines évolutions technologiques, à elle seule, la technologie d’IA générative devrait être à l’origine de 10 % de l’ensemble des données créées d’ici 2025, contre 1 % actuellement. La principale raison d’une telle hausse réside dans une plus grande accessibilité des modèles d’IA et une réduction des coûts liés à la puissance de calcul pour le développement par apprentissage automatique et l’exécution de ces modèles.

Les chercheurs qui travaillent pour des entreprises disposant de vastes clusters de calcul, à l’image de Google ou OpenAI, ont montré qu’en entraînant d’énormes modèles de paramètres d’IA à l’aide de de vastes quantités de données, il était possible de créer des modèles génératifs avec des niveaux de performance qui rendaient les contenus créés presque indistingables de ceux générés par des êtres humains. Il a notamment été démontré que ces modèles d’IA permettaient de générer des articles crédibles et réalistes, du code source à partir de descriptions textuelles, voire des œuvres artistiques capables de remporter des concours. Dans le même temps, certaines innovations, à l’image du modèle Stable Diffusion de Stability AI, contribuent à faire diminuer rapidement les coûts d’apprentissage et d’exploitation de ces modèles d’IA. 

Du fait de cette réduction rapide des coûts, les cybercriminels ne tarderont probablement pas à adapter et à intégrer ces nouvelles approches à leur arsenal. Ces adaptations risquent de donner naissance à de nouveaux types d’attaques peu coûteuses, qui seront plus difficiles à détecter. Les cyberattaquants seraient par exemple capables de générer automatiquement et de manière économique des millions de sites Internet de phishing ou de faux profils sur les réseaux sociaux, à première vue indistingables de pages authentiques aux yeux d’un être humain. Certains nouveaux modèles d’IA sont désormais en mesure de synthétiser des voix réalistes ou de créer des vidéos truquées ou deepfakes à partir d’un ensemble d’échantillons visuels réduits, facilitant ainsi grandement les attaques de whaling ciblées. 

Suivre la voie du progrès, tout en se protégeant dès maintenant

De nouvelles réflexions doivent être menées sur les manières de détecter les faux contenus générés par l’IA. Ce domaine de la recherche en cybersécurité est actuellement activement investi par les chercheurs, qui commencent déjà à s’intéresser à la possibilité de créer leurs propres modèles d’IA afin de détecter ce type de contenus. Dans le même temps, il sera peut-être nécessaire de modifier les approches et les attentes liées à la cybersécurité. En effet, en raison de l’hyperréalisme de ces contenus générés artificiellement, il semble de plus en plus illusoire d’attendre des utilisateurs finaux qu’ils réussissent à identifier eux-mêmes ces attaques sans l’aide d’outils additionnels. 

En attendant le développement de nouvelles méthodes de protection contre les cyberattaques par deepfakes, qui devront permettre de les détecter le plus tôt possible, les experts en cybersécurité continuent à conseiller une approche qu’ils considèrent être toujours aussi pertinente : s’assurer de disposer de multiples couches de protection actives pour lutter contre les cyberattaques à toutes les étapes de leur évolution, car même les adversaires les plus rusés finissent par perpétrer une action clairement malveillante, qu’aucune illusion créée grâce à l’IA ne peut déguiser.