Qu'attendent les DSI des réseaux d’entreprise du futur ?

Réduction de la latence, amélioration de la fiabilité et augmentation du débit figurent sur la liste des priorités des services informatiques. La recherche d'une infrastructure réseau unique pour gérer données, clustering et stockage est une priorité.

Il n'est guère surprenant que bon nombre de DSI examinent à la loupe leur infrastructure réseau actuelle et les trouvent défaillants. Aujourd'hui, leurs équipes gèrent généralement deux ou trois réseaux en parallèle. Le réseau de stockage est conçu pour allier fiabilité, intégrité des données et performances non bloquantes. Le réseau de données n'offre quant à lui aucune garantie en termes de performance, sa bande passante est imprévisible et sa complexité souvent frustrante. Des commutateurs, des adaptateurs de bus hôte (HBA), des cartes interface réseau (NICs) et des câbles, tous différents, sont nécessaires pour chacun des réseaux.

 

Cette situation alourdit la charge de travail et le budget du département informatique. Elle a également des répercussions sur l'environnement, les administrateurs devant veiller à ce que chaque élément du réseau dispose de l'alimentation et du refroidissement nécessaires.

 

La course à la consolidation des serveurs et des systèmes de stockage par la virtualisation, en dépit de son gain d'efficacité considérable, n'a fait qu'ajouter aux exigences vis-à-vis de l'infrastructure réseau de l'entreprise. En permettant à plusieurs applications de s'exécuter sur un même serveur, les équipes informatiques ont pu réduire la taille du parc ainsi que la consommation énergétique, et améliorer considérablement l'efficacité opérationnelle.

 

Toutefois, un serveur hébergeant une vingtaine de machines virtuelles nécessite une bande passante importante afin d'assurer le bon fonctionnement de ces services. Le déplacement dynamique des machines virtuelles entre différentes machines physiques en fonction de leurs besoins de calcul et des demandes des utilisateurs introduit d'autres difficultés dans la gestion des réseaux. Si les connexions réseau ne suivent pas sans problème les machines virtuelles associées, ou si elles imposent une charge imprévue aux serveurs physiques pendant les périodes de pointe, les performances du réseau - et les conditions de travail des utilisateurs finaux - se dégradent rapidement.

 

Les prochaines étapes de cette évolution réservent d'autres difficultés aux administrateurs réseau. Les entreprises capitalisent de plus en plus sur les avantages acquis avec la virtualisation pour créer des Couds internes ou privés) Tout le parc informatique interagit continuellement, constituant un pool unique de ressources informatiques. Au-delà, elles prévoient d'évoluer vers un modèle de Cloud hybride, où les applications et les services sont fournis par une combinaison de ressources internes et externes indépendantes. D'une manière ou d'une autre, le Cloud Computing - où les applications réparties sur différentes machines exécutent toutes différentes parties d'un processus métier vital - implique clairement davantage de trafic sur le réseau de l'entreprise et au delà du pare-feu.

 

En conséquence, les DSI considèrent que les réseaux d'entreprise de demain doivent répondre à tout un éventail de besoins parfois conflictuels. Ils recherchent une évolutivité sans précédent mais une administration simplifiée ainsi qu'une mobilité transparente mais avec une orchestration étroite. Plutôt que de remplacer intégralement leur environnement, ils préfèrent que les nouvelles technologies réseau complètent les investissements qu'ils effectuent dès à présent. Pour toutes ces raisons, les réseaux unifiés prennent de plus en plus d'importance dans l'agenda des DSI.

 

Promesse de la convergence


L'environnement réseau de demain regroupera le trafic applicatif des utilisateurs et les trafics stockage et données, sur un réseau unique, extrêmement performant et disponible. Celui-ci intégrera les fonctionnalités intelligentes nécessaires pour identifier les différents types de trafic et les gérer en conséquence, selon des règles prédéfinies. Les avantages de ce concept sont évidents en termes de temps, de coût, de compétences et d'approvisionnement, sans parler de la simplification du câblage. Bien qu'il reste beaucoup à faire pour parvenir à un tel environnement, une approche progressive peut éviter des perturbations inutiles tant pour l'équipe informatique que pour les utilisateurs finaux.

 

Nous sommes actuellement dans un cycle d'innovation majeure dans l'informatique. Nous passons en effet d'une infrastructure conçue pour automatiser les processus existants vers des architectures orientées services qui accélèrent la distribution de nouveaux services innovants. L'adoption de nouvelles technologies implique de nouveaux modèles et une transformation des relations avec les clients, les partenaires et les salariés.

 

L'époque où la plus grande partie de la puissance de calcul était dans le centre de données est révolue. Aujourd'hui, nous disposons de terminaux extrêmement intelligents et puissants, qui sont à la fois distants, répartis et mobiles. Les informations et les applications sont virtualisées. Elles peuvent résider n'importe où dans l'infrastructure que nous appelons Cloud Computing.

 

Le modèle informatique a été inversé : l'information et sa consommation sont aujourd'hui distribuées. Cette évolution marque l'importance des communications réseau. En répartissant la puissance de calcul et le stockage des données, c'est finalement le centre de données qui est désormais réparti.

 

En conséquence, l'infrastructure réseau doit intégrer les caractéristiques du centre de données. En outre, si le réseau se substitue au centre de données, le réseau devient notre affaire. Dans cet environnement hautement réparti et dynamique, le modèle commercial, le service client et la productivité du personnel dépendent tous de la robustesse du réseau.

 

Au cœur du réseau se trouve une technologie éprouvée et bien connue : Ethernet. Il s'agit du réseau prédominant qui relie les serveurs entre eux dans les réseaux locaux (LAN) pour acheminer le trafic applicatif des utilisateurs. Le concept de convergence 2.0 propose également de faire basculer le réseau Fibre Channel séparé, qui achemine habituellement le trafic de stockage du SAN, sur le réseau Ethernet ou Data Centre Bridging (DCB).

 

Cependant, pour que cette convergence SAN/LAN soit possible, DCB doit offrir les mêmes caractéristiques de fiabilité et de latence que la technologie Fibre Channel. En effet, les réseaux de stockage nécessitent que les données soient transmises intactes et dans l'ordre. Autrement dit, cela nécessite ce que l'on appelle dans le langage métier une infrastructure "sans pertes". De ce point de vue, Ethernet ne répond pas aux attentes. Ce type de réseau repose sur une approche n'offrant aucune garantie, les données n'étant pas nécessairement transmises dans le bon ordre. Certains paquets peuvent même se perdre en cas de congestion du réseau.

 

Face à cette problématique, l'essence même de  DCB repose sur les vitesses supérieures de transmission, basées sur des réseaux Ethernet à 10 gigabits (GbE) et sur les améliorations des spécifications Ethernet sous-jacentes, en vue de reproduire la fiabilité et la classe de service des environnements SAN existants.

 

Aujourd'hui, les organismes de normalisation, qui représentent certains des premiers fournisseurs mondiaux de technologies de stockage et réseau, s'attachent à définir de nouvelles spécifications allant dans ce sens. Il s'agit en effet de rendre les réseaux Ethernet existants plus performants et d'acheminer le trafic Fibre Channel en tunnel en toute sécurité et rapidement dans les infrastructures Ethernet.

 

L'une des plus importantes spécifications est la norme Fibre Channel over Ethernet (FCoE). Ce protocole d'encapsulation place les données de stockage Fibre Channel dans des trames Ethernet, permettant de les acheminer via un nouveau réseau Ethernet sans pertes. Définie par le comité technique T11 de l'International Committee for Information Technology Standards (INCITS), elle repose sur le contrôle de flux pour repérer les zones tampons presque saturées. Dans ce cas, elle demande à l'expéditeur d'arrêter la transmission jusqu'à ce que la zone tampon soit vidée et que la transmission puisse reprendre.

 

L'un des principaux avantages de la technologie FCoE réside dans l'utilisation des pilotes, des commutateurs, du câblage et des applications d'administration déjà en place avec Fibre Channel. Les entreprises peuvent ainsi introduire dès aujourd'hui des concepts tels que la fabrique unifiée aux portes mêmes des réseaux de leur centre de  données, en combinant les technologies FCoE et DCB à 10 Gbits/s, pour acheminer les trafics données et stockage jusqu'au premier commutateur d'accès disponible. Ce trafic peut alors se diriger vers le réseau local de l'entreprise ou vers le SAN Fibre Channel existant, selon les cas. Cela réduit immédiatement le nombre de câbles à brancher à une armoire de serveurs.

 

Perspectives

 

Ainsi, une technologie qui n'en est encore qu'à ses débuts commence déjà à prendre forme à la périphérie des réseaux des centres de données, les premiers à l'adopter. D'autres ne manqueront pas de suivre cet exemple. Selon Richard Villars, vice-président de la division Storage Systems du cabinet d'études de marché IDC, 2010 verra apparaître un nombre croissant de projets pilotes de convergence réseaux, des déploiements importants de cette technologie étant à prévoir en 2011selon Forrester Consulting. Selon les chiffres de la société d'études de marché Dell'Oro Group, environ 10 000 ports FCoE ont été livrés en 2008, mais ce chiffre devrait passer à 1 million en 2011.

 

Bien entendu, la généralisation de la convergence dépend aussi d'autres facteurs. Les fournisseurs de systèmes de stockage doivent permettre l'installation d'adaptateurs FCoE sur leurs produits. Le prix des cartes réseau 10 GbE doit continuer à baisser, et ces cartes doivent être incorporées aux cartes mères des serveurs. En outre, dans les entreprises proprement dites, les DSI doivent réorganiser leurs services. Par exemple, ils souhaiteront peut-être pouvoir surveiller les environnements stockage, serveur et réseau depuis une même console. Quant aux équipes en charge des réseaux et du stockage, elles devront collaborer beaucoup plus étroitement que dans les environnements cloisonnés d'aujourd'hui. En outre, lorsque les commutateurs de centre de données seront prêts à être remplacés, il sera nécessaire de s'assurer que les nouvelles solutions envisagées sont compatibles avec la fabrique unifiée.

 

Partant de ces constats, les analystes de Forrester décrivent l'utilisation d'Ethernet pour les réseaux locaux et les SAN comme un concept qui "monte en puissance". Selon eux, il y a fort à parier qu'il offrira des avantages considérables à ceux qui opteront pour cette technologie. "Bien que l'on ne sache pas encore comment et quand la plupart des entreprises adopteront cette technologie», ajoutent-ils, « il apparaît judicieux d'approfondir ces concepts et les technologies sous-jacentes pour évaluer dès aujourd'hui les offres de stockage Ethernet annonçant l'unification future des réseaux".

 

Dans ce marché, certains voudraient faire croire aux utilisateurs finaux que la convergence des réseaux de stockage et de transmission de données est relativement simple et qu'elle doit être implémentée dès que possible. Cette affirmation est toutefois confrontée aux impératifs temporels des entreprises. La complexité du déploiement et de l'administration d'un réseau et d'un centre de traitement de données atteint des niveaux inacceptables.

 

Avec l'arrivée du Cloud Computing et l'évolution vers la convergence, ce changement de paradigme permet d'externaliser ou d'étendre sélectivement une partie importante de l'infrastructure informatique. Les entreprises disposent désormais d'un vaste choix de modèles répondant à des besoins très divers. Certaines souhaitent évoluer rapidement vers un modèle payant selon l'utilisation, tandis que d'autres préfèrent migrer progressivement vers un modèle privé élaboré en interne.

 

D'une manière ou d'une autre, les entreprises bénéficient de la révolution de la convergence en adoptant de nouveaux modèles d'exploitation et en créant des entreprises virtuelles. Elles sont ainsi beaucoup plus agiles et flexibles, ont un meilleur rendement et sont plus compétitives, mais à condition que l'architecture mise en place soit abordable et fiable.