L'IA et l'humain, indispensable à la sécurité des identités

En 1999, le film Matrix présentait le monde comme une réalité virtuelle mise en scène par des machines intelligentes.

Aujourd’hui, la frontière entre la réalité et la fiction s’est pratiquement évanouie et le message de ce film a pris une nouvelle dimension. Avec la place désormais prédominante tenue par les objets connectés, le quotidien des populations ont grandement changé. Cependant, comme toute nouveauté, l’Intelligence Artificielle (IA) et le machine learning (ML), viennent avec leur lot d’avantages et d’inconvénients.

Les robots n’ont pas encore pris le contrôle total de la vie quotidienne, mais cette dernière est désormais indissociable de l’IA et ML. En effet, ces technologies agissent en coulisse à chaque recherche sur internet, authentification biométrique sur un terminal connecté, recommandation sur des plateformes de vente en ligne, ou application de cartographie et d'assistance de navigation. Leur rôle dans les vies personnelles et professionnelles s’est rapidement développé ces dernières années, mais ce n’est qu’avec l’arrivée de ChatGPT, en novembre 2022, qu’un point de non-retour a été passé.

Dans le cyberespace, les technologies profitent aux deux parties

Un moment décisif dans l’histoire de l’IA s’est produit à DEFCON 24, en 2016. Pour la première fois, un affrontement s’est tenu entre différents systèmes autonomes de raisonnement cybernétique (CRS), capables de détecter des vulnérabilités cachées dans le code et de déployer des correctifs pour y remédier sans aucune assistance humaine. Le secteur IT a alors compris que l’IA et le machine learning allaient fondamentalement changer les pratiques des entreprises en matière de cybersécurité. Depuis, d’autres innovations ont changé la donne en permettant, notamment, d’analyser de grandes quantités de données et de réduire les délais de réaction.

En outre, l’évolutivité, la vitesse et le machine learning continu induits par ces technologies représentent une véritable aubaine pour les équipes de cybersécurité, aux ressources toujours limitées. Alors que le secteur est en recherche constante de talents, de nombreux responsables IT se réjouissent de ces nouvelles possibilités pour combler certaines lacunes et gagner en efficacité. Par exemple, beaucoup se tournent vers l’IA pour simplifier des processus d’authentification fastidieux. L’authentification multifactorielle (MFA) adaptative et les méthodes d’identification unique font alors appel à des principes d’analyse comportementale pour vérifier les identités en fonction des niveaux d’accès, de privilèges et de risque ; le tout sans ralentir les utilisateurs. Grâce à l’IA, du fait d’environnements hybrides et multiclouds qui gagnent en complexité, les équipes adoptent également une gestion automatisée des autorisations pour les nombreuses identités existant dans leur cloud.

ChatGPT est un autre atout précieux pour les professionnels de la sécurité, depuis la rédaction de communications accessibles et convaincantes pour promouvoir certains programmes auprès des équipes et des partenaires, jusqu’à la création de politiques types à personnaliser manuellement. Concrètement, la plupart des cas d’usage de cette plateforme dans le domaine de la cybersécurité se limitent encore actuellement sur l’automatisation des tâches, l’analyse des fichiers et des menaces actives jusqu’à la détection des vulnérabilités et l’aide au codage sécurisé pour les développeurs.

Les limites de l’Intelligence Artificielle

L’IA continue d’évoluer, mais n’est toujours pas en mesure de simuler un niveau comparable à celui des experts en cybersécurité. Dans une récente interview, Sam Altman, PDG d’OpenAI (la société qui a créé ChatGPT), a ainsi exhorté les utilisateurs à considérer le chatbot comme un outil complémentaire plutôt que comme un substitut aux experts humains.

Toutefois, les hackers aussi s’adaptent et exploitent l’IA/ML pour les mêmes raisons que les équipes de cybersécurité. Nos recherches ont notamment démontré la facilité à créer des malwares polymorphes à l’aide de la plateforme. Grâce à une certaine créativité dans les requêtes, il est possible de générer, et de modifier de façon continue, du code à injecter, tout en créant des modules de recherche et de chiffrement de fichiers nécessaires à la diffusion de ransomware et d’autres assets malveillants. En outre, différents cas d’usage de ChatGPT comprennent la création de malwares capables de voler des informations, la conception d’outil de chiffrement multicouche et le lancement d’une marketplace automatisée sur le Dark Web pour les transactions illicites.

Selon une étude réalisée en 2023 par Blackberry Global Research, 51 % des personnes interrogées pensent de plus qu’une cyberattaque réussie sera attribuée à ChatGPT au cours de l’année. Mais ce qui inquiète le plus ces responsables est la capacité du chatbot à aider les hackers à créer des e-mails de phishing plus crédibles (53 %). Ce phénomène confirme qu’il est nécessaire d’assurer une sécurité robuste des terminaux ; englobant tous les aspects de la protection, de la gestion rigoureuse des privilèges associés aux terminaux, ainsi que des formations régulières de sensibilisation à la cybersécurité pour reconnaître les pratiques fréquentes de phishing et d’ingénierie sociale. L’étude a également révélé que les responsables interrogés redoutent que des hackers moins expérimentés fassent appel à l’IA pour améliorer leurs connaissances et leurs compétences (49 %), ou que l’IA facilite la diffusion de désinformation (49 %).

Alors que le débat public et l’examen réglementaire autour de l’IA/ML s’intensifient, les équipes de cybersécurité doivent rester vigilantes sans perdre de vue les grands enjeux : les cyberattaques sont inévitables, quels que soient la manière, le lieu et la raison de leur apparition, mais leurs conséquences ne le sont pas. Les entreprises doivent protéger leurs données les plus précieuses en sécurisant les identités tout au long du processus d’accès à chaque ressource, quelle que soit l’infrastructure concernée. Pour ce faire, il convient d’adopter une approche intégrant des technologies innovantes alliée à l’expertise humaine. Toute plateforme efficace de sécurité des identités doit aussi protéger les données et les systèmes critiques contre des menaces pour la confidentialité, l’intégrité et la disponibilité. Alors que les capacités de l’IA et du machine learning se développent rapidement, les experts continuent à mettre ces technologies à l’épreuve et à en repousser les limites, tout en partageant les informations en leur possession et en militant pour la mise en place de garde-fous. C’est en effet uniquement en travaillant ensemble qu’il est possible de concevoir le meilleur de l’IA, tout en contenant ses conséquences négatives.