Vincenzo Ciancaglini (Trend Micro) "Les acteurs malveillants commencent à exploiter l'IA pour gagner en efficacité"
Vincenzo Ciancaglini est senior threat researcher chez Trend Micro. Il analyse comment les risques en matière de cybersécurité se sont transformés au fil du temps. Il interviendra le 25 septembre à l'occasion de l'événement hubdate Free Pro en collaboration avec le JDN.
JDN. Constatez-vous une évolution de la menace cyber ces derniers mois ?
Vincenzo Ciancaglini. Nous observons une évolution notable, principalement liée à l'utilisation croissante de l'IA dans le domaine des cybermenaces. Cette évolution se manifeste moins sur le plan technologique que sur celui de la productivité. Nous constatons que les acteurs malveillants, tout comme nous d'ailleurs, exploitent de plus en plus l'IA pour gagner en efficacité et étendre leurs approches traditionnelles. Un domaine particulièrement impacté est celui de l'ingénierie sociale, notamment avec l'émergence des deepfakes. Ces technologies, auparavant réservées à des acteurs disposant de moyens techniques et financiers conséquents, deviennent désormais accessibles au plus grand nombre grâce à des applications grand public. C'est notamment pour répondre à ces évolutions que nous innovons et nous adaptons à l'évolution de la menace.
Comment les attaquants s'emparent-t-il des outils d'IA pour mener à bien leurs attaques ?
Nous observons l'émergence d'outils de plus en plus accessibles, notamment grâce aux grands modèles de langage (LLM). Ces technologies permettent désormais à des acteurs moins qualifiés techniquement de mener des attaques sophistiquées.
Par exemple, prenons le cas du pig butchering, une nouvelle forme d'arnaque en pleine expansion. Les escrocs ciblent des personnes isolées sur des plateformes de discussion en ligne. Ils commencent par établir une relation romantique fictive, puis attirent leurs victimes vers des forums de trading de cryptomonnaies. L'objectif est de les convaincre d'investir dans de fausses opportunités, les piégeant ainsi dans des escroqueries où ils perdent des sommes importantes. L'année dernière, nous avions anticipé que l'IA faciliterait ce type de processus. En effet, chaque étape de cette arnaque peut potentiellement être automatisée. Cela inclut la création de chatbots pour simuler des conversations, l'animation de forums avec de faux messages sur le trading, et la génération de sites web frauduleux imitant des plateformes de trading.
Avez-vous observé des applications concrètes de l'IA dans la génération de malwares ou d'autres menaces cybernétiques avancées ?
Nous n'avons pas encore observé l'émergence de malwares entièrement générés et animés par l'IA. Certes, des exemples théoriques ont été présentés par des chercheurs, notamment en 2023, montrant comment ChatGPT pourrait être exploité. Cependant, en pratique, la génération dynamique de code malveillant présente encore de nombreux défis qui la rendent peu rentable. Au niveau technique, l'utilisation de l'IA reste principalement centrée sur le support au développement. Cette approche n'est pas fondamentalement différente de ce que nous observons dans l'industrie classique : l'IA est utilisée pour augmenter la productivité, faciliter l'apprentissage et améliorer l'accès à certaines informations. Nous restons donc pour l'instant dans ce domaine d'application, sans observer de révolution majeure dans la création directe de menaces cybernétiques.
Commencez-vous à voir apparaitre des attaques automatisées ou semi-automatisées ?
Nous commençons effectivement à observer l'émergence d'attaques automatisées ou semi-automatisées, bien que cela reste encore relativement rare et souvent limité à des scénarios spécifiques. En collaboration avec Europol et les Nations Unies, nous avons mené une recherche sur les utilisations malveillantes de l'IA en 2019-2020, à une époque où l'on parlait encore peu d'IA générative, hormis les deepfakes. Nous avons identifié plusieurs exemples concrets.
Premièrement, des bots utilisant l'IA pour générer du trafic sur certains réseaux sociaux, notamment sur Spotify. Ces bots étaient capables de simuler efficacement le comportement d'un vrai utilisateur, contournant ainsi les systèmes de détection de la plateforme pour générer artificiellement des revenus pour certains artistes. Deuxièmement, nous avons observé des systèmes d'analyse de stratégie pour le poker en ligne. Ces outils utilisent l'IA pour analyser le jeu des autres joueurs et fournir des recommandations en temps réel, offrant un avantage déloyal aux utilisateurs.
Enfin, nous avons repéré un système d'attaque par force brute de mots de passe utilisant un réseau neuronal entraîné sur des bases de données de mots de passe piratés. Cette approche permet de craquer les mots de passe plus efficacement en exploitant la distribution statistique des caractères, plutôt que d'utiliser une approche linéaire classique. Ce dernier exemple est particulièrement intéressant car nous l'avons d'abord vu présenté avec le code source disponible, et plus récemment, nous l'avons observé mis en vente sur des forums du dark web.