Cybersécurité : comment l’intelligence artificielle peut se retourner contre vous

Nouvelle arme dans l’arsenal de la sécurité informatique ; l’Intelligence Artificielle parvient à détecter les cyberattaques connues mais aussi inconnues.

Mais cette prouesse n’est atteinte que parce que les attaquants mènent des offensives classiques. Qu’en sera-t-il lorsqu’ils utiliseront à leur tour l’Intelligence Artificielle pour s’en prendre à leurs victimes ? La question n’a rien de théorique puisque, selon une enquête récente : 62% des experts en cybersécurité estiment que des cyberattaques à base d’Intelligence Artificielle auraient déjà débuté. Cet article détaille les modes opératoires possibles.  
Le moteur de Machine Learning : la clef de l’efficacité
Pour bien comprendre le danger que représente l’Intelligence Artificielle entre les mains de cyber-assaillants, il faut revenir sur les bases de son fonctionnement. L’un de ses rouages essentiels est le moteur de Machine Learning. Il équivaut à la capacité d’apprentissage des êtres humains, mais à une échelle et une rapidité bien plus grande.En amont de la mise en production d’une IA, on soumet à son moteur de Machine Learning de très nombreuses informations en lui indiquant à chaque fois si le phénomène à identifier est présent ou non. Au fil des informations ingurgitées, le moteur de Machine Learning élabore une conjonction très pointue de statistiques qui, in fine, lui permet de déterminer tout seul quand le phénomène recherché se manifeste. Cette méthode marche aussi bien pour les informations textuelles, orales ou graphiques que pour celles liées aux mouvements, aux fichiers informatiques, etc.Un éditeur d’antivirus entraînera son intelligence artificielle à reconnaître une attaque, un industriel fera en sorte qu’elle reconnaisse les signes avant-coureurs d’une panne sur ses chaînes de production et un constructeur de véhicules autonomes se focalisera sur la reconnaissance d’un piéton qui traverse. Les cas d’usage de l’IA ne manquent pas. 

Cependant, ils se déclinent aussi au bénéfice des malfaiteurs. 

L’Intelligence Artificielle devient une arme dans les mains des malfaiteurs

Avec une intelligence suffisamment entraînée, un assaillant peut par exemple envoyer des malwares à l’assaut de sites protégés par des Captcha. Les Captcha sont ces fameux systèmes où l’on invite l’internaute à montrer qu’il sait reconnaître un mot écrit de manière fantaisiste, ou des éléments parmi une image, afin de prouver qu’il est bien un humain. Dès lors qu’un code parvient à se faire passer pour un internaute, cette protection ne tient plus et il devient possible de pénétrer des services jusqu’ici inattaquables. Ce n’est pas une fiction : des chercheurs sont déjà parvenus à entraîner une IA dans ce sens.  Autre exemple, l’intelligence artificielle pourrait être entraînée pour des phases de reconnaissance contre des systèmes d’informations ciblés, ce qui lui permettrait de savoir exactement quelles vulnérabilités connues elle va rencontrer et même de les exploiter automatiquement facilitant ainsi grandement cette phase fastidieuse de l’attaque pour un cybercriminel. Enfin, une IA peut aussi servir à repérer ce qu’une autre IA recherche dans les flux de données. Lorsqu’il le sait, l’assaillant peut alors envoyer des informations pour tromper la vigilance de sa cible.

La bonne nouvelle : les pirates ont un temps de retard sur les fournisseurs

Pour parvenir à entraîner un moteur de Machine Learning dans un temps raisonnable, il faut néanmoins beaucoup de ressources informatiques en amont. Un éditeur investit à cette fin dans une ferme de machines à base de GPU pour effectuer les calculs, par exemple. Un pirate, quant à lui, devra détourner une infrastructure existante, typiquement en volant les codes d’accès d’une ferme de machines virtuelles dans le cloud d’Amazon, ou encore en prenant possession d’un botnet, c’est-à-dire d’un réseau de machines déjà infectées. 

 Selon les experts en cybersécurité, il y a tout de même une bonne nouvelle : en matière d’intelligence artificielle, les fournisseurs de solutions de protection ont a priori des années d’avance sur les pirates. Les entreprises ont donc à leur disposition des outils qui devraient rester efficaces pour un bon moment. 

Mais encore faut-il qu’elles choisissent les bons. Car l’IA présente un autre danger, qui n’a à rien à voir avec le piratage : le marketing. S’étant emparées du phénomène, nombre de solutions matérielles ou d’antivirus prétendent en effet s’appuyer sur l’intelligence artificielle dans leurs dernières versions, sans pour autant intégrer déjà un moteur de Machine Learning. Un travers contre lequel les entreprises doivent, là aussi, apprendre à se protéger.  

Autour du même sujet

Cybersécurité : comment l’intelligence artificielle peut se retourner contre vous
Cybersécurité : comment l’intelligence artificielle peut se retourner contre vous

Mais cette prouesse n’est atteinte que parce que les attaquants mènent des offensives classiques. Qu’en sera-t-il lorsqu’ils utiliseront à leur tour l’Intelligence Artificielle pour s’en prendre à leurs victimes ? La question n’a rien de théorique...