Applications du 21eme siècle, réseaux du 20ème siècle

“En faire plus avec moins” : le mot d’ordre des entreprises pour 2009. La crise souligne un impératif économique et moral, qui est de redéfinir les méthodes de travail. Les objectifs ? Produire davantage, maîtriser ses coûts, doper sa productivité tout en assurant davantage de flexibilité.

La virtualisation et l'hébergement des applications au sein des centres de données forment un axe qui participe activement à ces objectifs, et de tels projets ont été initiés bien avant la récession actuelle.


Les applications, et celles dédiées à la voix notamment, ne sont  plus hébergées sur un serveur dans un bureau local, mais généralement fournies à partir d'un lieu unique et sécurisé, ce qui simplifie les sites distants et offre un point d'administration et de monitoring centralisé. La centralisation des serveurs à l'échelle d'un centre de données améliore la sécurité, et, surtout, simplifie la tâche des équipes d'administrateurs, qui n'ont plus à gérer des dizaines, voire des centaines de serveurs distants. Les applications clients légères offrent des avantages similaires : une infrastructure simplifiée en périphérie de réseau, une gestion centralisée et une meilleure sécurité.

 

Ainsi, la centralisation des infrastructures complexes à l'échelle du coeur de réseau multiplie les avantages. Dans ce cas, pourquoi les réseaux distants actuels qui fournissent les services applicatifs persistent-ils sur le modèle traditionnel des années 1990, à savoir une infrastructure multisite complexe et, au final, coûteuse?

 

Simplement parce que le changement est laborieux, notamment lorsqu'il remet en cause les intérêts de certains qui n'ont aucune raison d'encourager ce changement.

 

Lorsque la bande passante des réseaux WAN était coûteuse, les entreprises avaient tout intérêt à stocker la majorité de leurs données sur des serveurs déployés sur les sites distants. Les applications étaient exécutées en local, tandis que le routeur créait des sous-réseaux, dissociait les différents bureaux et prévenait toute surconsommation du lien WAN, ce dernier étant souvent limité en capacité.

 

Aujourd'hui, l'allégement des coûts WAN et l'avènement des services xDSL ont levé les barrières en matière de connectivité. Désormais, la majorité des grandes entreprises et organisations hébergent et gèrent leurs données et applications de manière centralisée. Le changement a donc eu lieu, mais il ne s'est pas encore opéré sur les réseaux distants.

 

Promouvoir des infrastructures réseau qui utilisent un routeur par bureau distant


Les équipementiers réseau dont le cœur de métier est le routeur ont tout intérêt à pérenniser ce statut quo, ou, du moins, à promouvoir des infrastructures réseau qui utilisent un routeur par bureau distant. En revanche, les intégrateurs, de leur côté, ne s'inscrivent pas dans cette logique.


Un bon partenaire technologique doit en effet être source de valeur pour les entreprises (en clair, se différencier tout en assurant sa rentabilité sur les services offerts) : cette attitude implique de privilégier l'innovation, de remettre en cause ce statut quo et d'identifier les axes du changement chez les clients. Le risque pour l'intégrateur qui occulte les solutions novatrices est que son service devienne une commodité et que sa relation avec l'utilisateur final stagne, au moment précis ou cet utilisateur a plus que jamais besoin des conseils de l'intégrateur.


Analyser les problématiques sous de nouveaux angles


'En faire davantage avec moins' implique d'analyser les problématiques sous de nouveaux angles. Dans le domaine informatique, il s'agit de reconsidérer la valeur générée par les infrastructures complexes et coûteuses. Dans ce marché, la priorité est de se pencher sur l'objectif final, à savoir améliorer la mobilité, simplifier le réseau et connecter les utilisateurs à leur réseau le plus simplement possible. Le choix de l'outil doit être déterminé par l'objectif final, et non le contraire.


L'exemple suivant en est une parfaite illustration : si un client souhaite apporter le réseau d'entreprise sur ses sites distants, certains fournisseurs lui conseilleront d'installer un routeur sur chaque site distant. La raison : ces fournisseurs capitalisent historiquement sur des VLAN et des sous-réseaux pour gérer les utilisateurs présents sur un siège social, et ils appliquent cette approche pour les sites distants.

 

Sauf qu'un routeur n'est qu'un outil et que la boîte à outil offre sans doute de meilleures alternatives.

 

Prenons le cas de la virtualisation : si les avantages de la virtualisation des applications (gestion plus simple, meilleure sécurité et livraison plus facile) à partir d'un lieu centralisé sont prouvés, peut-on pour autant virtualiser le réseau distant ?

 

La virtualisation d'un réseau distant crée un tunnel de couche 2 via la couche 3 d'un réseau. Les utilisateurs finaux et leurs équipements (portables, téléphones et scanners) se connectent directement au centre de données, sans routage complexe en périphérie de réseau. En sachant que, dans la majorité des cas, une part majeure de ce trafic, revient vers le centre de données, ne s'agit-il pas de la meilleure approche?

 

La virtualisation des réseaux distants évite les tâches fastidieuses de configuration des routeurs sur chaque site distant, et des interfaces WAN, interfaces LAN, listes de contrôle d'accès, VLAN, DHCP et autres services DNS associés. La virtualisation offre ainsi aux intégrateurs une solution novatrice à une problématique vécue par de nombreuses entreprises et devant être résolue.

 

La virtualisation des réseaux distants permet ainsi aux intégrateurs de faire plus avec moins. Elle remet en cause les approches traditionnelles et constitue un vecteur de différentiation des services fournis et de création de valeur pour l'utilisateur final.

Ceux qui sauront épouser le changement seront récompensés. Ceux qui tenteront de pérenniser le statut quo échoueront à coup sûr.

Autour du même sujet