Cybersécurité et Intelligence artificielle : quel futur ?

Difficile de prévoir ce qui se passera dans dix ans. En 2009, lorsque l’iPhone 3GS dominait le tout nouveau marché des smartphones et que Google Maps s’apprêtait à transformer notre façon de nous déplacer, nous n’aurions jamais imaginé l’avenir qui est aujourd’hui le nôtre.

D’un côté, nous pouvons tenter de deviner ce qui nous attend en tirant les enseignements de ces précédentes innovations. Après tout, les assistants vocaux et les services de streaming qui font partie de notre quotidien ont été imaginés il y a longtemps par des esprits suffisamment intelligents pour extrapoler les usages futurs à l’aune du passé. 

De l’autre, personne ne peut préjuger de l’avenir. Autrefois, on pensait qu’avec le temps, les ordinateurs deviendraient de plus en plus gros, tels les supercalculateurs qui occupaient des salles entières. D’innombrables ingénieurs, techniciens et analystes ont réitéré au fil des ans leurs prévisions qui, nous le savons aujourd’hui, étaient erronées puisque c’est un phénomène de miniaturisation qui s’est finalement produit. Aujourd’hui, un ordinateur portable, un téléviseur ou un grille-pain peut renfermer l’équivalent de plusieurs ordinateurs de l’époque.

Bonjour Google

À l’instar des ordinateurs miniatures qui ont depuis bien longtemps envahi nos domiciles et lieux de travail, l’intelligence artificielle (IA) prend, depuis 18 mois, le même chemin. D’Alexa à Google Home, de Nest aux enceintes connectées, rares sont les foyers qui n’ont pas intégré une quelconque forme d’IA. Au-delà de nos équipements, les moteurs de recommandations, via l’IA, proposent des publicités ultra-ciblées (d’une redoutable précision) sur le web et les réseaux sociaux.

L’apprentissage automatique et autres dérivés rendent l’IA encore plus intelligente : elle peut, ainsi, vérifier des anomalies, classer les données recueillies et prédire si un utilisateur s’apprête à quitter un service. 

Mais la multiplication des fonctionnalités implique des volumes de code plus conséquents et de fait, un plus grand nombre de bugs. L’IA est une nouvelle technologie, ce qui, par définition, la rend moins sûre. Il est donc facile de comprendre pourquoi les cybercriminels tirent profit de ce nouvel outil à risque. Toute la question est de savoir comment ils poursuivront leur démarche, et à quelle échelle.

Adieu la transparence

La presse se montre assez peu alarmiste mais chacun sait, que les pirates informatiques finiront par exploiter le potentiel criminel de l’IA pour causer des dommages encore plus graves. À mon sens, la 1ère attaque de ce genre risque d’émaner d’une arnaque audio.

Bien que les technologies, permettant d’enregistrer, d’analyser et d’émuler une voix, n’aient pas encore été criminalisées à grande échelle (par manque d’accès libre), elles existent déjà. Leur sécurisation ne dure qu’un certain temps, mais une fois qu’un petit génie du piratage aura trouvé la faille, d’autres s’empresseront de le suivre. Dès qu’ils auront ces outils en leur possession, ils les détourneront sans aucune limite. Imaginez qu’un cybercriminel téléphone à votre banque en se faisant passer pour vous, muni non seulement de vos identifiants et codes de sécurité, mais doté également d’une voix strictement identique à la vôtre ! Ou qu’un de vos dirigeants vous appelle, paniqué, en vous invitant à communiquer des informations stratégiques concernant l’entreprise ! Les exemples peuvent se décliner à l’infini…

Et ce n’est pas tout ; les deep fakes (contraction de "deep learning" et "fake news"), dans leur forme la plus élémentaire, pullulent déjà sur les réseaux sociaux. Mais ces détournements de l’IA ne se contentent pas de copier votre voix ; vous pouvez également être mis en scène dans une vidéo, en train de tenir des propos compromettants face à une webcam ou dans le cadre d’un appel FaceTime. À partir du moment où un cybercriminel a la mainmise sur le logiciel adéquat, il peut facilement vous observer et établir votre profil via votre webcam pour se procurer les informations dont il a besoin. Avec ce type d’attaques, les pirates peuvent causer de véritables ravages en truquant les propos tenus – et en créant l’illusion de votre présence physique afin de crédibiliser leur détournement. 

Un appel aux armes

L’IA ne montre aucun signe d’essoufflement ; elle est d’ailleurs tellement efficace qu’on ne peut plus s’en passer, raison pour laquelle nous l’avons adoptée sans la moindre hésitation. À l’évidence, il n’est nullement question de faire machine arrière.

En tant que défenseurs de l’IA, nous devons créer les outils, les modèles de sécurité et les processus qui permettront de combattre cette vague de deep fakes, en continuant à utiliser l’IA à notre avantage en toute sérénité.