Comment Doctolib a essuyé une cyberattaque assistée par IA

Comment Doctolib a essuyé une cyberattaque assistée par IA Le groupe français leader dans la réservation de rendez-vous médicaux en ligne a fait l'objet d'une cyberattaque d'un nouveau genre. L'attaquant pourrait avoir eu recours à un modèle d'intelligence artificielle.

L'IA générative explose dans tous les secteurs, y compris les plus sombres. La cybercriminalité n'y coupe pas. La démocratisation des outils d'intelligence artificielle a également profité aux cybercriminels qui n'hésitent plus à s'aider de ces nouveaux outils pour mener leurs attaques. Doctolib a accepté de partager avec nous une de ses premières expériences en matière d'attaque assistée par intelligence artificielle. Des patterns non conventionnels ont permis aux équipes d'identifier l'origine probable de la menace.

Une adaptation aux dispositifs de sécurité

Retour fin 2023. Comme il y est habitué depuis plusieurs années, Doctolib subit une cyberattaque, précisément un déni de service (DDoS). Le site de réservation de rendez-vous médicaux en ligne est régulièrement victime d'attaques en tous genres. Dans la majorité des cas, les systèmes de l'entreprise ne sont pas impactés et continuent d'assurer un fonctionnement nominal. Au cours de cette nouvelle attaque, les équipes observent en revanche un comportement jusqu'alors peu courant. L'attaquant semble s'adapter aux dispositifs de sécurité déployés par l'entreprise.

"L'attaque DDoS s'est déroulée de manière progressive, avec plusieurs vagues d'intensité croissante. Au début, il s'agissait d'une attaque DDoS assez simple. Puis, quelques minutes plus tard, l'attaque est revenue avec un schéma d'attaque plus élaboré, ciblant plusieurs endpoints à tour de rôle plutôt qu'un seul. L'attaquant semblait aussi utiliser des techniques pour tenter de contourner les mesures de sécurité en place", se rappelle Clément Thersiquel, senior application security engineer chez Doctolib. Pendant plusieurs heures, l'attaquant s'adaptait et faisait évoluer ses méthodes au fur et à mesure, rendant l'attaque de plus en plus complexe.

Des patterns communs identifiés par Cloudflare

Les équipes de Cloudflare, qui protègent une partie des installations de Doctolib, ont partagé leurs doutes sur les moyens utilisés pendant cette attaque. "Ils nous ont indiqué que le schéma d'attaque observé était un modèle qu'ils avaient déjà rencontré auparavant et qui semblait être le fait d'une attaque automatisée, potentiellement pilotée par une intelligence artificielle", explique Clément Thersiquel. Techniquement, les méthodes de l'attaquant ont évolué au fil des différents blocages du système de défense en place.

"Bien que Cloudflare filtre une grande partie du trafic malveillant, une partie de la sécurité reste gérée par nos propres systèmes. Et c'est précisément sur cette partie que l'attaquant s'est concentré, en mettant en place des techniques pour tenter de contourner ces défenses, notamment avec un changement régulier des adresses IP. On avait des runs d'une heure parfois entre des changements de pattern", rappelle le spécialiste. Pour lui, cette attaque d'un nouveau genre ne s'apparente pas à un système d'IA automatisée à 100%. L'attaquant aurait pu, très simplement, s'aider d'un large language model ou LLM qui aurait pu le conseiller en lui suggérant comment mener son attaque en temps réel.

Bien que novatrice par sa forme, l'attaque n'a pas causé de dérangement des systèmes de Doctolib, grâce au filtrage de la majorité des requêtes. Depuis lors, aucune cyberattaque du genre n'a été détectée par l'entreprise.

Des attaques bientôt automatisées à 100 % ?

Pour Clément Thersiquel, la démocratisation des LLM va inexorablement conduire à une hausse de leur utilisation par des cybercriminels. Il se pourrait même que des systèmes entièrement automatisés basés sur des modèles d'IA soient mis en œuvre. "Il est vrai que ces attaques automatisées par IA seraient probablement plus sophistiquées et efficaces que de simples scripts ou scanners classiques. L'IA serait capable d'analyser un grand nombre de données, d'identifier les vulnérabilités et d'adapter dynamiquement ses méthodes d'attaque", anticipe Clément Thersiquel.

Une évolution qui n'inquiète pas le spécialiste. Pour lui, des hackers humains expérimentés seront toujours plus efficaces que des modèles d'IA automatisés. Entraîné à partir de données et failles déjà publiques, les modèles n'auraient que peu d'avantages. De plus, le coût et les ressources nécessaires pour faire tourner des modèles d'IA de pointe limiteraient aussi leur impact à grande échelle. "Réaliser des scans de masse ou des attaques complexes nécessiterait des investissements importants", explique Clément Thersiquel.