Si
le stockage en réseau, SAN et NAS, commence à
être connu des entreprises, il tarde cependant
à être reconnu d'elles, puisque moins de
10% des sociétés y ont aujourd'hui recours.
C'est le constat que dresse le cabinet d'études
américain Meta
Group, selon lequel il faudra attendre encore quelques
années que les solutions de virtualisation se
développent, pour que les réseaux SAN
puissent enfin complètement exploiter leur potentiel.
Panorama autour de "la promesse virtuelle"
du stockage, pour reprendre le titre de l'étude
du directeur des programmes d'infrastructures serveur,
Phil Goodwin.
Une
technologie encore immature
Alors que le stockage en réseau SAN
(Storage Area Network) promettait monts et merveille
aux responsables
informatiques
il y a peu, 12 à 18 mois après les premières
installations de SAN, les retours d'expérience
des entreprises sont assez mitigés. Disponibilité
accrue, évolutivité et facilitation de
l'administration n'ont pas été au rendez-vous
dans de nombreux cas, car les problèmes de formation,
de gestion de système et de choix matériels
ont trop souvent été sous-estimés.
Ces erreurs de jeunesse ne devraient pas pour autant
masquer l'importance croissante que le SAN va prendre
dans les deux ou trois années qui viennent et
les services réels qu'il pourra apporter aux
entreprises.
Du "many-to-one"
au "many-to-many"
Ainsi le stockage
en réseau (SAN et NAS confondus) pourrait-il
représenter près de 50% du solutions de
stockage en 2004 ou 2005, contre seulement 10% environ
actuellement, selon les estimations du Meta Group. Dès
2008, il pourrait même s'être imposé
comme un standard de facto, avec plus de 80% de parts
de marché. Le principal vecteur de cette évolution
sera la virtualisation des ressources de stockage, qui
avant d'être parfaitement mature laisse augurer
plusieurs phases pour le SAN.
La première d'entre elles est celle des SAN implémentés
il y a deux ans, caractérisés par un faible
degré d'intéropérabilité
et supportant un seul système d'exploitation.
La seconde, est celle que les entreprises traversent
en ce moment, que Phil Goodwin appelle le "many-to-one",
c'est à dire le support des plusieurs OS au sein
d'un même système de stockage. La troisième
génération de SAN apparaîtra en
2003/2004, et offrira enfin la possibilité de
gérer plusieurs OS dans un système de
stockage hétérogène multi-constructeurs
(connectivité "many-to-many"), grâce
aux solutions de virtualisation.
Sur ce marché, on retrouve deux types d'acteurs,
qui vont poursuivre leurs développement sur ce
credo. Les acteurs généralistes, tels
que Veritas,
Compaq
ou EMC
d'une part, et des acteurs de niche émergents,
spécialistes de la virtualisation, comme DataCore,
FalconStor
ou StoreAge.
Meta Group prévoie qu'en 2002, les solutions
proposées resteront largement mono-constructeur,
c'est à dire qu'elles permettront certes de gérer
le stockage en environnement multi-plateformes, mais
essentiellement entre composants issus d'un seul fabricant.
C'est notamment pourquoi la troisème génération
de réseaux SAN ne verra probablement pas le jour
avant 2003.
Virtualisation
in-band ou out-of-band ?
Deux
types de solutions s'offriront à ce moment-là
aux responsables réseaux des entreprises, selon
le Meta Group: les solutions "in-band" et
"out-of-band". Le in-band place le
logiciel
de virtualisation sur un serveur dédié
qui est installé entre les serveurs d'application
et les SGBD d'une part et les unités de stockage
d'autre part, et connecté à eux par plusieurs
liens. Avantage
et inconvénient à la fois de cette technique,
les données comme la description de leur emplacement
doivent transiter par les serveurs de virtualisation,
risquant de créer des goulots d'étrangelement
pour le transfert des données. Autre option,
la technique de out-of-band, bien qu'elle utilise également
un serveur de virtualisation dédié, le
connecte elle directement aux serveurs d'applications
via un réseau LAN, qui est relié lui-même
de l'autre côté au réseau SAN. Seule
l'information concernant l'emplacement des données
transite par les moteurs de virtualisation, laissant
les données dialoguer directement entre serveurs
d'applications et sytèmes de stockage via le
réseau SAN.
En conclusion, l'étude invite les responsables
de projets de stockage à procéder par
étapes. Avant de faire le grand saut vers les
techniques de virtualisation, Phil Goodwin recommande
de consolider son expertise SAN, de même qu'il
propose aux entreprises encore en DAS (Direct Attachment
Storage) d'envisager le NAS sans un premier temps, plus
simple et rentable à mettre en place que le SAN.
L'auteur de l'étude table enfin sur l'arrivée
de commutateurs hétérogènes, tels
que ceux de McData
et de Brocade,
dans le courant de l'année pour permettre de
relier entre eux les ilôts SAN aujourd'hui isolés.
|