SASE : face aux pannes cloud, la continuité passe par une infrastructure contrôlée

Face aux pannes cloud, une infrastructure SASE propriétaire et maîtrisée garantit la résilience, la sécurité et la continuité des services critiques, au-delà des limites des hyperscalers.

Le 12 juin dernier, une panne mondiale de Google Cloud Platform (GCP) a mis à l’arrêt des infrastructures critiques dans le monde entier. Des services comme ceux de Palo Alto Networks et Cloudflare, tous deux hébergés sur GCP, sont restés inaccessibles plusieurs heures et de nombreuses entreprises se sont retrouvées aveugles et exposées. S'appuyer sur une infrastructure d’hyperscaler permet aux fournisseurs de SASE (Secure Access Service Edge) d'accéder rapidement au marché, mais compromet la disponibilité, comme le montre les récentes pannes

Ce type d'incident n'est ni nouveau ni exceptionnel, mais il nous rappelle brutalement que lorsqu'une plateforme SSE ou SD-WAN tombe en panne, c'est toute l'entreprise qui est ébranlée. Les architectures SASE rendent le réseau plus central que jamais, ne se contentant pas de transporter des paquets de données, mais s'assurant que chaque flux est inspecté, sécurisé et contrôlé, sans que les performances soient compromises. Un réseau robuste, distribué et intelligent devient le fondement invisible de toute architecture sécurisée.

Dans le modèle SASE, la sécurité suit les utilisateurs et les applications, où qu’ils se trouvent. Cela rend le réseau plus central que jamais puisqu’il s’agit non pas de simplement transporter des paquets de données, mais de garantir que chaque flux est inspecté, sécurisé, contrôlé, sans compromis sur la performance. Un réseau robuste, distribué et intelligent devient la fondation invisible de toute architecture sécurisée.

Le mirage de la redondance dans le cloud

Certes, les hyperscalers comme GCP, AWS ou Azure disposent d’une capacité de déploiement à très grande échelle. Mais leurs architectures sont pensées pour héberger des applications généralistes, pas des services critiques de réseau et de sécurité lesquels exigent des performances en temps réel et un SLA de 99,999 % ! Miser sur eux, c’est donc hériter de leurs faiblesses. Une panne de GCP impacte tout ce qui y repose. La redondance  c’est-à-dire la duplication des ressources (centres de données, liens réseau, instances de calcul, etc.) à des fins de continuité de service chez un fournisseur généraliste n’offre qu’une protection partielle face aux pannes majeures liées à une défaillance systémique d’une telle ampleur. Quant à la résilience inter-cloud, elle ne fonctionne vraiment que si elle est conçue dès le départ, pas greffée à posteriori.

Certaines plateformes ont donc adopté une approche radicalement différente : elles ont construit leur propre backbone mondial, s’appuyant sur des points de présence (PoP) répartis dans des datacenters haut de gamme, sur du matériel dédié. Chaque PoP intègre une pile redondante, avec une pile logicielle unifiée effectuant toutes les opérations de mise en réseau et de sécurité. En cas de défaillance, le trafic est automatiquement rerouté, sans intervention humaine et sans interruption.

Un réseau propriétaire comme socle de confiance

Dans un monde SASE, le réseau n’est plus une commodité, mais un levier stratégique. Maîtriser son réseau global est fondamental car il permet un contrôle de bout en bout sur la performance, la sécurité et la résilience. Cette approche garantit la disponibilité des services critiques, même lors d’incidents majeurs. Et contrairement aux architectures dépendantes d’infrastructures tierces, un réseau natif limite les points de vulnérabilité.

Plusieurs cas concrets illustrent les atouts de l’approche SASE : une coupure de fibre sera sans impact visible pour les utilisateurs, une panne de datacenter sera absorbée sans interruption de service, et en cas de coupures de courant à l’échelle régionale, la continuité de service sera encore assurée. Ces performances ne relèvent pas du hasard, mais d’une architecture pensée pour la résilience.

Maîtriser le plan de données, clé de la résilience

La résilience ne s’improvise pas et ne se résume pas non plus à empiler du matériel, mais plutôt à supprimer les points de défaillance, dans le calcul, la connectivité ou le contrôle. Certaines architectures prévoient une inspection répartie sur des milliers de moteurs parallèles. Si l’un tombe, un autre prend immédiatement le relais. Si un PoP tombe, les tunnels se redirigent automatiquement vers un point sain, sans reconfiguration ni délai. À l’inverse, les solutions basées sur des dispositifs physiques ou hébergés dans le cloud nécessitent souvent des scripts, des tests et des manipulations manuelles. Imaginez en pleine crise...

Le réseau, garant de l’expérience et de la sécurité

Dans un environnement SASE, chaque session utilisateur est critique. Une latence élevée, une inspection ralentie ou une coupure de session sont autant de cas qui compromettent à la fois la sécurité et la productivité. Le réseau ne peut être externalisé à la légère : il doit être natif, programmable et intégré au plan de données. Ce n’est qu’avec un routage stable qu’une politique de sécurité peut être appliquée en temps réel et à tout moment.

Pour garantir la continuité de service, la résilience doit elle aussi être ancrée dans le plan de données. C’est à ce niveau que les sessions sont inspectées, sécurisées, acheminées. Le SLA visé ne peut être générique : il doit s’exprimer en 99,999 %, au cœur même du trafic et ce n’est possible qu’en maîtrisant l’infrastructure, en en étant propriétaire. Les composants tiers eux-mêmes doivent être remplaçables, surveillés, rendus tolérants aux pannes et intégrés dans un système capable de s'auto réparer. Un fournisseur SASE incapable de survivre à une panne de cloud n’a pas bâti un vrai cloud SASE, il s’est juste contenté de louer son infrastructure. Il est donc essentiel de poser les bonnes questions : Où est hébergé le plan de contrôle ? Que se passe-t-il si un PoP tombe ? Quel est le délai de bascule entre régions ou fournisseurs ? Les moteurs d’inspection sont-ils multi tenants, auto-réparables et équilibrés ?

Et enfin et surtout : ces mécanismes ont-ils été testés, éprouvés et validés ? C’est la preuve par la résilience réelle d’une infrastructure réseau qui fonde la confiance. Pas le discours.