Naviguer dans une cybersécurité à l'ère de l'IA à double facette : deepfakes en surface, zero-days en profondeur…

L'IA agentique transforme le paysage des cybermenaces : des campagnes de phishing et deepfakes aux attaques zéro-day en continu et ransomwares automatisés.

L’image qui illustre le mieux la cyber à l’ère de l’IA, serait en effet celle d’un iceberg qui intègre à la fois des menaces visibles et des menaces beaucoup plus profondes et insidieuses.

Il est clair que la plupart des organisations ne pourront pas suivre le rythme, mais cette même puissance de l’IA peut aussi alimenter des défenses autonomes capables d’inverser enfin le rapport de force en faveur des défenseurs.

Nous évoluons dans le monde numérique sans vraiment penser à ce qui lui permet de fonctionner. Nous utilisons des appareils, nous nous connectons à un réseau, et utilisons des applications réparties entre le cloud et les centres de données pour accomplir notre travail. Comme tout cela « fonctionne simplement », il est facile de penser que les pratiques de cybersécurité n’ont pas besoin d’évoluer.

Si un compte est compromis, nous le réinitialisons. Si un ordinateur est infecté, nous le réinstallons. Si une application plante, nous la mettons à jour ou la remplaçons. Ces tâches semblent gérables, et la pile de sécurité tourne en arrière-plan, émettant parfois une alerte, pendant que les pare-feu, protections des endpoints, SIEM et MFA maintiennent la stabilité — du moins jusqu’à ce que les attaquants trouvent une faille.

Le défi, c’est d’imaginer ce qu’il advient lorsque ces failles ne sont plus exploitées par des hackers humains opérant une campagne à la fois, mais par des adversaires autonomes et agentiques.

Ces systèmes d’IA ne se contentent en effet pas de générer du contenu convaincant : ils planifient, agissent et s’adaptent par eux-mêmes.

Contrairement à un simple chatbot ou à un script, une IA agentique peut cartographier une entreprise cible, récolter des informations sur ses employés, lancer des campagnes de phishing ciblées, ajuster ses tactiques en cas de blocage, et même négocier des rançons tout en blanchissant l’argent via des plateformes de cryptomonnaie. Autrement dit, ces IA ne soutiennent pas les attaquants : elles sont les attaquants.

La partie visible de l’iceberg : deepfakes et ingénierie sociale

Les menaces les plus visibles aujourd’hui sont les deepfakes et le phishing générés par l’IA. Nous voyons des vidéos truquées de personnalités publiques et recevons des e-mails d’apparence authentique.

Mais l’IA agentique rend ces menaces plus insidieuses. Imaginez un système qui ne se fatigue jamais d’analyser votre réseau LinkedIn, de générer des messages personnalisés à vos collègues, et de perfectionner son approche après chaque tentative ignorée.

Ce qui était autrefois du phishing « à l’aveugle » devient une manipulation continue et adaptative conçue pour épuiser les défenses humaines.

Sous la surface : les exploits Zero-Day

Les vulnérabilités logicielles font partie de la réalité. Avec une faille pour quelques milliers de lignes de code, les plateformes complexes cachent des milliers de faiblesses potentielles. Jusqu’à présent, leur découverte reposait sur la compétence, la patience et également sur un peu de chance.

L’IA agentique change complètement la donne : elle peut explorer les dépôts publics, tester automatiquement les applications et enchaîner de petites failles pour créer des exploits fonctionnels, en boucle continue.

Imaginez l’impact : pendant que les équipes IT luttent avec des cycles de correctifs mesurés en semaines, une IA adversaire découvre et arme des vulnérabilités en quelques heures.

Le stock de failles non corrigées devient une mine d’or, et les défenseurs restent constamment en retard.

Des attaques à l’échelle, qui ne laissent aucun répit

Les groupes criminels d’aujourd’hui ciblent déjà des centaines de victimes à la fois. Avec l’IA agentique, le rythme et l’ampleur s’intensifient.

Ces systèmes ne dorment jamais et n’ont besoin d’aucune supervision. Ils parcourent le web, identifient de nouvelles cibles, génèrent des kits de phishing et gèrent les négociations automatiquement.
Certains groupes de ransomware utilisent déjà des chatbots pour « assister » leurs victimes pendant l’extorsion.

L’IA agentique ira encore plus loin : négociations multilingues en temps réel, ajustement des demandes selon les rapports financiers des entreprises, et coordination de multiples campagnes simultanément.

Ce qui était autrefois une bande d’opérateurs devient désormais une armée de machines infatigables.

La crypto comme moteur

Une fois l’accès obtenu, l’IA agentique peut aussi gérer la dimension financière du crime.
Les paiements en cryptomonnaie sont automatisés, blanchis à grande vitesse, et réinvestis dans de nouveaux outils.

Souvenez-vous de la révolution provoquée dans la finance par le trading algorithmique : appliquez maintenant ce cycle de croissance auto-alimenté à la cybercriminalité.
Chaque intrusion réussie finance la suivante, sans aucun goulet d’étranglement humain pour ralentir le processus.

La base de l’iceberg : les limites du Zero Trust

Le modèle Zero Trust — « ne jamais faire confiance, toujours vérifier » — reste un idéal difficile à atteindre.

La plupart des organisations ne parviennent pas à l’appliquer à tous les niveaux :
les endpoints sont patchés de manière inégale, le MFA ne couvre pas toutes les applications, les réseaux sont encore trop plats, et le trafic chiffré reste largement non inspecté.
Ce sont précisément ces angles morts que les adversaires agentiques exploitent le mieux.
Ils sondent en permanence, pivotent dès qu’ils sont bloqués, et exploitent tout ce qui n’est pas surveillé.

Pendant ce temps, les équipes de sécurité croulent sous les alertes et tentent de se renforcer en recrutant, tandis que les attaquants se renforcent par l’IA.

Là où les défenseurs doivent aller

L’iceberg n’est pas une fatalité. Les mêmes principes qui rendent l’IA agentique dangereuse peuvent aussi être mis au service de la défense.

Le centre opérationnel de sécurité (SOC) de demain combinera la vitesse de l’IA à la finesse du jugement humain. Imaginez une télémétrie fusionnée entre chaque endpoint, pare-feu et fournisseur d’identité ; une application des politiques en temps réel à chaque point d’accès ; un trafic chiffré déchiffré, inspecté, puis rechiffré en millisecondes.

Imaginez enfin des systèmes d’IA capables non seulement de détecter les menaces, mais aussi de les contenir et les corriger automatiquement, remettant aux analystes un environnement déjà stabilisé. Ce n’est pas un rêve : c’est la voie à suivre.

Les analystes resteront dans la boucle pour définir la stratégie, mais l’IA exécutera les mille premiers mouvements. Lorsque cette vision deviendra réalité, le Zero Trust ne sera plus un idéal : il sera appliqué, de manière invisible et à grande échelle.

Pour la première fois depuis des décennies, l’équilibre des forces pourrait enfin pencher du côté des défenseurs. L’image de l’iceberg reste valable : la partie la plus dangereuse demeure invisible.

Avec l’IA agentique, cette masse cachée ne cesse de croître.

La seule manière d’éviter la collision est d’évoluer plus vite que les adversaires qui la construisent déjà.