Etudes
Le SAN pourrait représenter 50% du marché du stockage dès 2004, selon le Meta Group
Pour que le stockage en réseau tienne toutes ses promesses, les solutions de virtualisation devront évoluer. 2002 devrait marquer un premier tournant dans cette évolution. (Jeudi 7 février 2002)
     

Si le stockage en réseau, SAN et NAS, commence à être connu des entreprises, il tarde cependant à être reconnu d'elles, puisque moins de 10% des sociétés y ont aujourd'hui recours. C'est le constat que dresse le cabinet d'études américain Meta Group, selon lequel il faudra attendre encore quelques années que les solutions de virtualisation se développent, pour que les réseaux SAN puissent enfin complètement exploiter leur potentiel. Panorama autour de "la promesse virtuelle" du stockage, pour reprendre le titre de l'étude du directeur des programmes d'infrastructures serveur, Phil Goodwin.

Une technologie encore immature
Alors que le stockage en réseau SAN (Storage Area Network) promettait monts et merveille aux responsables
informatiques il y a peu, 12 à 18 mois après les premières installations de SAN, les retours d'expérience des entreprises sont assez mitigés. Disponibilité accrue, évolutivité et facilitation de l'administration n'ont pas été au rendez-vous dans de nombreux cas, car les problèmes de formation, de gestion de système et de choix matériels ont trop souvent été sous-estimés. Ces erreurs de jeunesse ne devraient pas pour autant masquer l'importance croissante que le SAN va prendre dans les deux ou trois années qui viennent et les services réels qu'il pourra apporter aux entreprises.

Du "many-to-one" au "many-to-many"
Ainsi le stockage en réseau (SAN et NAS confondus) pourrait-il représenter près de 50% du solutions de stockage en 2004 ou 2005, contre seulement 10% environ actuellement, selon les estimations du Meta Group. Dès 2008, il pourrait même s'être imposé comme un standard de facto, avec plus de 80% de parts de marché. Le principal vecteur de cette évolution sera la virtualisation des ressources de stockage, qui avant d'être parfaitement mature laisse augurer plusieurs phases pour le SAN.

La première d'entre elles est celle des SAN implémentés il y a deux ans, caractérisés par un faible degré d'intéropérabilité et supportant un seul système d'exploitation. La seconde, est celle que les entreprises traversent en ce moment, que Phil Goodwin appelle le "many-to-one", c'est à dire le support des plusieurs OS au sein d'un même système de stockage. La troisième génération de SAN apparaîtra en 2003/2004, et offrira enfin la possibilité de gérer plusieurs OS dans un système de stockage hétérogène multi-constructeurs (connectivité "many-to-many"), grâce aux solutions de virtualisation.

Sur ce marché, on retrouve deux types d'acteurs, qui vont poursuivre leurs développement sur ce credo. Les acteurs généralistes, tels que Veritas, Compaq ou EMC d'une part, et des acteurs de niche émergents, spécialistes de la virtualisation, comme DataCore, FalconStor ou StoreAge. Meta Group prévoie qu'en 2002, les solutions proposées resteront largement mono-constructeur, c'est à dire qu'elles permettront certes de gérer le stockage en environnement multi-plateformes, mais essentiellement entre composants issus d'un seul fabricant. C'est notamment pourquoi la troisème génération de réseaux SAN ne verra probablement pas le jour avant 2003.

Virtualisation in-band ou out-of-band ?
Deux types de solutions s'offriront à ce moment-là aux responsables réseaux des entreprises, selon le Meta Group: les solutions "in-band" et "out-of-band". Le in-band place le
logiciel de virtualisation sur un serveur dédié qui est installé entre les serveurs d'application et les SGBD d'une part et les unités de stockage d'autre part, et connecté à eux par plusieurs liens. Avantage et inconvénient à la fois de cette technique, les données comme la description de leur emplacement doivent transiter par les serveurs de virtualisation, risquant de créer des goulots d'étrangelement pour le transfert des données. Autre option, la technique de out-of-band, bien qu'elle utilise également un serveur de virtualisation dédié, le connecte elle directement aux serveurs d'applications via un réseau LAN, qui est relié lui-même de l'autre côté au réseau SAN. Seule l'information concernant l'emplacement des données transite par les moteurs de virtualisation, laissant les données dialoguer directement entre serveurs d'applications et sytèmes de stockage via le réseau SAN.

En conclusion, l'étude invite les responsables de projets de stockage à procéder par étapes. Avant de faire le grand saut vers les techniques de virtualisation, Phil Goodwin recommande de consolider son expertise SAN, de même qu'il propose aux entreprises encore en DAS (Direct Attachment Storage) d'envisager le NAS sans un premier temps, plus simple et rentable à mettre en place que le SAN. L'auteur de l'étude table enfin sur l'arrivée de commutateurs hétérogènes, tels que ceux de McData et de Brocade, dans le courant de l'année pour permettre de relier entre eux les ilôts SAN aujourd'hui isolés.

[Marc Lemesle, JDNet]
 
Accueil | Haut de page
 
 

  Nouvelles offres d'emploi   sur Emploi Center
Auralog - Tellmemore | Publicis Modem | L'Internaute / Journal du Net / Copainsdavant | Isobar | MEDIASTAY

Gratuit - L'actualité des technologies
e-business

Toutes nos newsletters
 
 
 
 
 
 
Logiciels libres
Retours d'expérience, panorama, analyses.
Sommaire
 
Failles de sécurité
Vulnérabilités des logiciels & évaluation des risques.
Sommaire
 
 

Les entreprises de l'Internet
Plus de 5000 sociétés référencées

Les prestataires
Plus de 2600 prestataires

Les fonds
Plus de 100 fiches descriptives

Le carnet des managers Internet
Plus de 1500 dirigeants

Guide des solutions
Plus de 310 briques logicielles