Quand l'expansion du Cloud rime avec la simplification des réseaux

La notion de fabric réseau pour le Cloud est devenue de plus en plus prégnante. Cette évolution est liée au déplacement des machines virtuelles (VM) de serveur en serveur, engendrant une augmentation du trafic est-ouest au sein du Cloud.

Les architectures traditionnelles des réseaux, fondées sur plusieurs étages de commutation, ne sont plus adaptées à ces nouveaux modèles de trafic.
Ces architectures étaient en effet davantage appropriées à une circulation nord-sud du trafic ; cependant, même dans de telles structures à plusieurs niveaux, l'accroissement des temps de latence et la congestion du réseau ralentissaient considérablement les performances applicatives.
En outre, l'adoption croissante du stockage sur Ethernet impose le besoin de performances prédictives et de temps de latence réduits. De là est née l’idée d'une architecture basée sur une fabric de plus en plus « plate », établie sur deux principes clefs.
D'une part, cette architecture de réseau se caractérise tout simplement par un nombre réduit de couches, où serveurs, machines virtuelles et serveurs de stockage sont interconnectés les uns aux autres avec une distance d’au maximum un ou deux sauts. Les avantages sont multiples : un temps de latence réduit, une bande passante plus importante et une meilleure anticipation des performances.
La seconde caractéristique de cette architecture est sa capacité à utiliser l'intégralité de la bande passante disponible en utilisant activement tous les chemins physiques. Les réseaux traditionnels utilisaient le Spanning Tree Protocol (STP) afin de résoudre les boucles réseau, qui impliquait de bloquer un ou plusieurs liens. Grâce à la technologie Multi System Link Aggregation (MLAG), il est possible de profiter d'un double attachement sécurisé sur deux éléments distincts du réseau afin d’assurer la résilience, tout en utilisant la bande passante disponible sur ces deux liens.
Des technologies encore plus récentes, telles que les protocoles TRILL ou Shortest Path Bridging (SPB), permettent également d'utiliser plusieurs liens actifs. Cependant, elles impliquent des investissements dans de nouveaux équipements capables de prendre en charge les nouveaux formats de paquets propres à ces protocoles.
En outre, le support du trafic Ethernet traditionnel et du trafic de stockage (Fiber Channel notamment) a reposé jusqu’à présent sur différentes fabrics. Même s’ils utilisent des technologies telles que iSCSI ou NFS, de nombreux fournisseurs déploient des réseaux de stockage basés sur Ethernet distincts afin d'optimiser la performance et la prédictibilité. Cette logique entraîne des coûts de déploiement supplémentaires, notamment du fait de l'ajout de cartes réseau (NIC), de câbles supplémentaires, etc.
Grâce à la disponibilité de la technologie Data Center Bridging (DCB), la convergence sur une fabric Ethernet commune est maintenant une réalité. La technologie DCB permet de procéder à une séparation du trafic empruntant la fabric Ethernet commune en plusieurs classes de trafic, autorisant ainsi le contrôle de flux et l’attribution de paramètres spécifiques de bande passante à chacune des classes de trafic. Un trafic de stockage iSCSI peut par exemple se voir attribuer sa propre classe de trafic, à laquelle seront affectées des garanties de bande passante ainsi que des règles de contrôle de flux indépendantes du reste du trafic circulant sur la même fabric Ethernet. Grâce à ce système, le trafic de stockage sera isolé des effets liés à la quantité de trafic de données et l'utilisateur bénéficiera de performances de stockage plus prédictives.
Des architectures de fabric plus « plates » permettent donc d'exploiter une fabric Ethernet commune pour les données et pour le stockage, garantissant à la fois une réduction des coûts et une simplification des défis liés au déploiement.
Enfin, avec la multiplication des taux de virtualisation, le besoin en bande passante à la périphérie du datacenter ne cesse de croître. Mettre en œuvre le stockage sur une fabric Ethernet commune implique également des exigences accrues en termes de bande passante pour l’initiateur ou le destinataire. Ces besoins entraînent l’évolution vers une périphérie de réseau à 10 GbE haute densité tandis que le cœur de réseau migre vers le 40 GbE. En d'autres termes, la technologie 40 GbE dans le cœur ainsi qu'une couche d’accès serveur à 10 GbE constituent la base même d'une fabric Ethernet convergée, dotée de hautes capacités et de faibles temps de latence.
L'un des éléments clé de cette architecture est la capacité de la fabric à prendre en charge la virtualisation. En effet, la possibilité de garantir l'automatisation, le contrôle et une vision globale du cycle de vie des machines virtuelles constitue un atout essentiel de cette nouvelle fabric Ethernet. À titre d'exemple, afin de mieux respecter le niveau de qualité de service lié aux machines virtuelles (VMs), toute allocation de ressources au sein du réseau devra prendre en charge les modèles de type « Suivi de la VM », qui permettent aux politiques réseaux de repérer et de suivre automatiquement les machines virtuelles au fur et à mesure de leurs déplacements de serveur en serveur. L’allocation de ressources réseau basée sur des ports virtuels ou encore la remontée de statistiques concernant les machines virtuelles présentes sur le réseau sont également des éléments incontournables de cette nouvelle architecture de fabric en environnement Cloud.
Pour conclure, l’accroissement du trafic est/ouest, l’augmentation des besoins en bande passante au niveau de la périphérie du réseau en raison notamment de l’augmentation des taux de virtualisation et la convergence du stockage et des données sur un réseau Ethernet commun conduisent à la nécessité de disposer d’une Fabric Ethernet convergée spécialement conçue pour le Cloud, présentant de hautes performances, des temps de latence réduits et une meilleure prise en charge de la virtualisation.