Comment l'IA se met au service du cybercrime

Comment l'IA se met au service du cybercrime Deepfake vocal, campagnes de phishing personnalisées, détection automatique de vulnérabilités… les hackers ont de plus en plus recours à l'intelligence artificielle pour optimiser leurs attaques.

C'est une histoire digne d'un film de science-fiction que nous raconte le site Forbes. Début 2020, un directeur d'une banque de Hong-Kong reçoit un appel d'un homme dont il reconnait la voix. Ce dirigeant d'entreprise avec qui il s'était déjà entretenu est en passe de boucler une acquisition. Il a besoin pour cela que son établissement autorise des transferts d'argent à hauteur de 35 millions de dollars. Ce que ne sait pas le banquier c'est que la voix entendue est celle d'une machine. Il a été victime d'une arnaque au président augmentée par l'IA !

Selon Loïc Guézo, directeur senior en stratégie de cybersécurité chez Proofpoint, ce deepfake vocal constitue un vecteur d'attaque particulièrement pertinent. "Alors que le moindre défaut sur une image est facilement perceptible, on accepte que la qualité sonore d'un appel téléphonique d'un PDG, passé entre deux avions, soit déficiente. Non seulement il existe un grand nombre d'interviews en ligne de dirigeants d'entreprise mais le traitement de la voix nécessite moins de puissance de calcul qu'une deepfake vidéo", argue le consultant. Mais ce n'est qu'une question de temps avertit l'expert. "A l'avenir, les vidéos seront également détournées", prévient-il.

"Comme dans le cas des ransomware, on trouve sur le dark web des services prêts à l'emploi"

D'ores et déjà, la menace de ces opérations malveillantes, faisant appel à des contenus synthétiques imitant les caractéristiques physiques d'un individu, est prise très au sérieux. Un rapport du FBI paru en mars 2020 met en garde contre l'imminence d'attaques par deepfake. "Comme dans le cas du ransomware as a service, on trouve sur le dark web des services de deepfakes prêts à l'emploi", constate Claire Loffler, ingénieur sécurité chez Vectra, un éditeur spécialisé dans la détection des cybermenaces.

L'attaque au deepfake n'est qu'un exemple du recours au machine learning et deep learning dans le cybercrime. Sur le principe du reverse engineering, les pirates peuvent également pervertir un modèle algorithmique en y injectant des données toxiques. L'exemple le plus connu est celui de Tay, un chatbot de Microsoft, devenu raciste et homophobe après avoir échangé avec des suprémacistes blancs sur le forum 4chan.

Ce data poisoning aura de plus lourdes répercussions s'il parvient à manipuler les résultats d'un modèle prédictif intervenant sur le terrain des infrastructures critiques ou de la finance. Un empoissonnement par la donnée qui rendrait inopérant un système de protection entraîné sur des données d'apprentissage viciées. Abusé, il considérera comme normal un comportement malveillant. La charge virale se propagera alors à un grand nombre de machines, sans être détectée.

Automatiser le travail d'ingénierie sociale

Alors que l'humain demeure le maillon faible d'une politique de cybersécurité, l'IA va aussi automatiser le travail d'ingénierie sociale visant à le tromper, en allant collecter des informations personnelles sur les réseaux sociaux. Objectif : identifier les collaborateurs de l'organisation cible les plus susceptibles de répondre aux sollicitations d'une campagne de phishing. "Le contenu des messages qui leur seront envoyés tiendra compte de leur profil", poursuit Loïc Guézo. "Un collectionneur de guitares aura par exemple de fortes chances de cliquer sur un lien pointant vers un événement dédié à sa passion."

Au-delà de la personnalisation des techniques d'hameçonnage, l'IA devrait mettre fin aux faux grossiers en éradiquant les fautes d'orthographe et les traductions approximatives dans les mails d'hameçonnage. Elle peut aussi imiter le vocable et le style d'écriture d'un dirigeant afin de rendre les faux courriels toujours plus crédibles.

"Un système d'IA offensif peut passer en revue et de façon aléatoire différentes portes d'entrée jusqu'à trouver la bonne porte"

L'IA permet également aux cybercriminels d'adapter de façon dynamique leurs attaques à l'environnement cible. Alors que dénicher une faille zero day est souvent long et coûteux, l'IA peut tester de nouveaux schémas d'attaque et identifier de nouvelles vulnérabilités à exploiter. "Un système d'IA offensif peut passer en revue et de façon aléatoire différentes portes d'entrée jusqu'à trouver la bonne porte", explique Claire Loffler. "En cela, l'IA permet d'élargir la cible à un nombre de systèmes d'information nettement plus important, y compris les mieux protégés."

Une fois les hackers à l'intérieur, une course de vitesse débute avant qu'il ne soit détecter. Là encore, l'IA peut être utile en déterminant rapidement les informations sensibles à exfiltrer au sein de la masse de données compromises.

Enfin dans le cas d'un botnet, l'IA peut répartir les tâches au sein du réseau de machines infectées en fonction de leurs caractéristiques propres. "Les terminaux qui disposent de cartes graphiques puissantes seront dédiées au cryptomining, ceux qui ont une bonne connexion internet aux attaques en déni de service, etc.", explique Benoît Grunemwald, expert cybersécurité chez Eset France et Afrique francophone. De manière peut-être plus anecdotique, une IA sera en mesure de résoudre un captcha et faire tomber cette barrière à l'entrée d'une application ou d'un site web.

IA contre IA...

Pour contrer ces attaques d'un nouveau genre, les spécialistes en cybersécurité font eux-aussi appel à l'IA. A lire les exemples précédents, on comprend que le modèle traditionnel de la forteresse comme les solutions périmétriques (pare-feu, proxy, antivirus) reposant sur une base de signatures sont dépassés. "Pour se prémunir d'attaques toujours plus sophistiquées et personnalisées, il faut une deuxième couche qui va analyser les signaux faibles et prioriser les menaces", avance Claire Loffler.

Journaux de logs, adresses IP, fichiers... L'analyse d'un grand volume de données pour identifier un comportement anormal ou un schéma de fraude est, de fait, désormais dévolue à l'IA. Un apport qui se limite avant tout à la détection. "L'IA sert de premier rideau", complète Claire Loffler. "Bien sûr, l'objectif n'est pas de remplacer les humains mais de les décharger des tâches chronophages et fastidieuses". Au regard des volumes croissants de données à parcourir, un traitement par l'humain devient illusoire. Le facteur temps joue aussi car si les criminels utilisent l'IA il faut être d'autant plus réactif côté défense. Enfin, cette assistance de l'IA est également un moyen pour pallier la pénurie de compétences en cybersécurité sur le marché de l'emploi.

"Il y aura toujours besoin de spécialistes pour administrer les solutions, gérer la levée de doutes et transformer une alerte en incident", tempère Benoît Grunemwald. "En cas d'incident de sécurité avéré, l'arrêt d'une chaîne de production dans une usine, aux conséquences potentiellement très lourdes, relève forcément d'une décision humaine."

IA offensive vs IA défensive

Au-delà de la détection des menaces, l'IA permet, selon Loïc Guézo, de déterminer les profils à risques, ce qu'il appelle les top cliqueurs. "Du fait de leur personnalité ou de leur activité professionnelle, ils vont plus facilement cliquer sur un lien vérolé ou ouvrir une pièce jointe malicieuse", argue-t-il. Un environnement étanche permettra d'isoler ces cibles du reste du système d'information.

Dans ce jeu du chat et de la souris, une compétition s'est engagée entre pirates et experts en cybersécurité. Jusqu'à se neutraliser ? Via son programme Guaranteeing AI Robustness against Deception (Gard), la Darpa, l'agence américaine pour les projets de recherche avancée dans la défense, tente d'arriver à une sorte de système immunitaire en confrontant IA offensive et défensive.