Quand l'expansion du Cloud rime avec la simplification des réseaux
La notion de fabric réseau pour le Cloud est devenue de plus en plus prégnante. Cette évolution est liée au déplacement des machines virtuelles (VM) de serveur en serveur, engendrant une augmentation du trafic est-ouest au sein du Cloud.
Les architectures traditionnelles des réseaux, fondées sur plusieurs étages de commutation, ne sont plus adaptées à ces nouveaux modèles de trafic.
Ces architectures
étaient en effet davantage appropriées à une circulation nord-sud du trafic ;
cependant, même dans de telles structures à plusieurs niveaux, l'accroissement
des temps de latence et la congestion du réseau ralentissaient considérablement
les performances applicatives.
En outre, l'adoption croissante du stockage sur
Ethernet impose le besoin de performances prédictives et de temps de latence
réduits. De là est née l’idée d'une architecture basée sur une fabric de
plus en plus « plate », établie sur deux principes clefs.
D'une part, cette
architecture de réseau se caractérise tout simplement par un nombre réduit de couches,
où serveurs, machines virtuelles et serveurs de stockage sont interconnectés
les uns aux autres avec une distance d’au maximum un ou deux sauts. Les
avantages sont multiples : un temps de latence réduit, une bande passante
plus importante et une meilleure anticipation des performances.
La seconde
caractéristique de cette architecture est sa capacité à utiliser l'intégralité
de la bande passante disponible en utilisant activement tous les chemins
physiques. Les réseaux traditionnels utilisaient le Spanning Tree Protocol (STP) afin de résoudre les boucles réseau, qui
impliquait de bloquer un ou plusieurs liens. Grâce à la technologie Multi System Link Aggregation (MLAG), il
est possible de profiter d'un double attachement sécurisé sur deux éléments
distincts du réseau afin d’assurer la résilience, tout en utilisant la bande
passante disponible sur ces deux liens.
Des technologies encore plus récentes,
telles que les protocoles TRILL ou Shortest Path Bridging (SPB), permettent
également d'utiliser plusieurs liens actifs. Cependant, elles impliquent des
investissements dans de nouveaux équipements capables de prendre en charge les
nouveaux formats de paquets propres à ces protocoles.
En outre, le
support du trafic Ethernet traditionnel et du trafic de stockage (Fiber Channel
notamment) a reposé jusqu’à présent sur différentes fabrics. Même s’ils
utilisent des technologies telles que iSCSI ou NFS, de nombreux fournisseurs
déploient des réseaux de stockage basés sur Ethernet distincts afin d'optimiser
la performance et la prédictibilité. Cette logique entraîne des coûts de
déploiement supplémentaires, notamment du fait de l'ajout de cartes réseau
(NIC), de câbles supplémentaires, etc.
Grâce à la disponibilité
de la technologie Data Center Bridging (DCB), la convergence sur une fabric
Ethernet commune est maintenant une réalité. La technologie DCB permet de
procéder à une séparation du trafic empruntant la fabric Ethernet commune en
plusieurs classes de trafic, autorisant ainsi le contrôle de flux et
l’attribution de paramètres spécifiques de bande passante à chacune des classes
de trafic. Un trafic de stockage iSCSI peut par exemple se voir attribuer sa
propre classe de trafic, à laquelle seront affectées des garanties de bande
passante ainsi que des règles de contrôle de flux indépendantes du reste du
trafic circulant sur la même fabric Ethernet. Grâce à ce système,
le trafic de stockage sera isolé des effets liés à la quantité de trafic de
données et l'utilisateur bénéficiera de performances de stockage plus prédictives.
Des architectures
de fabric plus « plates » permettent donc d'exploiter une fabric
Ethernet commune pour les données et pour le stockage, garantissant à la fois
une réduction des coûts et une simplification des défis liés au déploiement.
Enfin, avec la
multiplication des taux de virtualisation, le besoin en bande passante à la
périphérie du datacenter ne cesse de croître. Mettre en œuvre le stockage sur une
fabric Ethernet commune implique également des exigences accrues en termes de
bande passante pour l’initiateur ou le destinataire. Ces besoins entraînent l’évolution
vers une périphérie de réseau à 10 GbE haute densité tandis que le cœur de
réseau migre vers le 40 GbE. En d'autres termes, la technologie 40 GbE
dans le cœur ainsi qu'une couche d’accès serveur à 10 GbE constituent la
base même d'une fabric Ethernet convergée, dotée de hautes capacités et de
faibles temps de latence.
L'un des éléments clé
de cette architecture est la capacité de la fabric à prendre en charge la
virtualisation. En effet, la possibilité de garantir l'automatisation, le
contrôle et une vision globale du cycle de vie des machines virtuelles constitue
un atout essentiel de cette nouvelle fabric Ethernet. À titre d'exemple, afin
de mieux respecter le niveau de qualité de service lié aux machines virtuelles (VMs), toute allocation
de ressources au sein du réseau devra prendre en charge les modèles de type
« Suivi de la VM », qui permettent aux politiques réseaux de repérer
et de suivre automatiquement les machines virtuelles au fur et à mesure de
leurs déplacements de serveur en serveur. L’allocation de ressources réseau basée
sur des ports virtuels ou encore la remontée de statistiques concernant les
machines virtuelles présentes sur le réseau sont également des éléments incontournables
de cette nouvelle architecture de fabric en environnement Cloud.
Pour conclure, l’accroissement
du trafic est/ouest, l’augmentation des besoins en bande passante au niveau de la
périphérie du réseau en raison notamment de l’augmentation des taux de
virtualisation et la convergence du stockage et des données sur un réseau
Ethernet commun conduisent à la nécessité de disposer d’une Fabric Ethernet
convergée spécialement conçue pour le Cloud, présentant de hautes performances,
des temps de latence réduits et une meilleure prise en charge de la virtualisation.