JDNet
Solutions. On parle beaucoup de "virtualisation"
depuis quelques temps. De quoi s'agit-il au juste ?
Jean-Jacques
Braud. Virtualiser
un espace de stockage, c'est faire abstraction de la
couche matérielle du réseau de stockage,
pour gérer ses ressources indépendamment
des différentes composantes du réseau
et de leur emplacement physique.
Presque
tous les acteurs du marché du stockage (EMC,
Compaq, Veritas, etc.) prétendent disposer de
solutions de virtualisation. Comment jugez-vous la maturité
de leurs offres ?
En effet, de nombreux
fabricants ont mis au point des logiciels qui permettent
de virtualiser les ressources de stockage. Mais aujourd'hui,
ces solutions restent propriétaires pour
l'essentiel. Dans le cas de Veritas, il s'agit plutôt
d'une solution de management que d'un logiciel de virtualisation
à proprement parler.
Quelle différence faites-vous
précisément entre outils de management
et de virtualisation ?
L'administration
du stockage gère la couche physique (disques
ou robots) des composants. La virtualisation, comme
son nom l'indique, consiste à s'abstraire de
ce niveau, et gère les opérations de stockage
(sauvegarde, administration, réplication, etc.)
indépendamment des serveurs (constructeurs, système
d'exploitation).
Quels
sont les avantages respectifs des solutions de virtualisation
dites "in-band" et de celles dites "out-of-band"
?
Les technologies in-band sont des techniques de virtualisation
symétriques, où le transfert et le contrôle
des données s'effectuent sur le même médium
(un lien fibre optique le plus souvent). L'avantage
de cette option, c'est qu'elle évite d'installer
le logiciel de virtualisation sur les différents
composants serveurs du réseau SAN, ce qui facilite
l'administration du serveur de virtualisation. Le revers
de la médaille, c'est la dégradation des
performances (du débit) car les données
en lecture/écriture comme le contrôle passent
par le serveur de virtualisation qui est connecté
directement au réseau.
L'out-of-band est quant à elle une solution asymétrique,
où le serveur de virtualisation est connecté
au SAN via un réseau LAN distinct, de type Ethernet.
Le principal avantage, c'est que le contrôle des
données se fait par le réseau LAN, ce
qui évite d'altérer le débit. En
revanche, l'out-of-band nécessite l'installation
d'un morceau logiciel sur chacun des serveurs de production
du SAN, ce qui en fait une solution beaucoup plus lourde
à administrer que le in-band, qui est lui plug
and play
Quels
sont les critères à examiner lorsqu'un
éditeur ou un fabricant propose une solution
de virtualisation ?
Sur
le plan technique, plusieurs points sont à prendre
en considération.
L'amélioration
des performances E/S (entrées-sorties) grâce
à la gestion du cache mémoire d'abord.
L'aptitude à tenir à la charge des outils
de virtualisation, et notamment les possibilités
offertes quant à la redondance des éléments,
et la capacité d'adaptation au taux d'occupation
du réseau de stockage ensuite. Enfin, la capacité
d'intégration de l'existant bien entendu.
Qui
utilise des logiciels de virtualisation aujourd'hui
en France, et quels sont les enjeux
futurs du stockage à votre avis ?
Les
techniques de virtualisation concernent actuellement
une dizaine de très grandes entreprises, en général
multi-sites, dont les besoins de stockage sont supérieurs
au téraoctet. Cependant, il est vrai qu'un réseau
SAN coûte encore cher, et que beaucoup de grands
comptes en France sont encore en attachement direct
(DAS) avec les liens en fibre optique. Quant aux enjeux
technologiques, on peut les résumer d'un mot
: normalisation. Pour que les nouvelles technologies
de stockage soient adoptées plus largement, il
faut qu'on parvienne à stabiliser les normes
entre les différents composants d'un SAN
(commutateurs, cartes HBA, baies de disques et librairies
de bandes.
|