>
Evaluer : qu'est-ce
qu'une bonne infrastructure de stockage ?
Trois indicateurs phares
sont à prendre en considération avant
de pouvoir poser un diagnostic :
- La disponibilité
du système de stockage. Plusieurs facteurs peuvent
rendre les données qu'il renferme temporairement
indisponibles : la qualité du matériel
employé, la stabilité du serveur qui le
pilote, le nombre et la durée des interventions
effectuées par les équipes techniques,
etc. Les disparités peuvent être importantes
entre un système bien administré et un
système en roue libre.
- La propension à
la saturation. Les espaces alloués aux hommes
et aux applications sont-ils régulièrement
saturés ? Si c'est le cas, les utilisateurs
finaux
en ressentiront nécessairement le contrecoup,
sinon une certaine frustration. Une bonne infrastructure
de stockage doit être capable d'anticiper la saturation
d'un de ses îlots.
- Le rapport coût/performances,
qui conditionne évidemment le ROI. C'est l'aspect
le plus visible du problème. Un système
de stockage doit être suffisamment rapide d'accès,
et d'une capacité assez grande pour accueillir
et distribuer les données d'une entreprise. Mais
son coût global doit toujours tendre vers le bas.
>
Décider : faut-il chasser l'espace libre
ou investir dans de nouveaux systèmes de stockage ?
Lorsqu'une application
menace de saturer un système de stockage, on
a aujourd'hui le choix entre deux solutions : investir
dans de l'espace disque, ou essayer d'en trouver en
interne. Pas besoin de chercher bien loin pour trouver
des capacités inutilisées : selon
le Gartner Group, 40 à 50 % en moyenne de
l'espace de stockage total d'une entreprise est inemployé.
Il est communément
admis que la procédé du stockage en réseau
(SAN,
NAS ou IP) améliore souvent le rapport coût/performance
d'un système de stockage. En tout logique, en
interconnectant tous les îlots de stockage d'une
entreprise, on est en mesure d'exploiter les capacités
inutilisées de l'un ou de l'autre. Il devient
également beaucoup plus facile de jongler avec
les besoins des uns et des autres, et donc de réduire
la propension de chaque îlot à la saturation.
La direction informatique se transforme donc à
cette occasion en fournisseur de capacités de
stockage.
Par contre, pour ce qui
est de la disponibilité du système, on
fait un pas en arrière : les SAN et les
NAS ne sont pas aussi rapides qu'un système de
stockage traditionnel. Ils sont aussi moins sûrs :
on ajoute un maillon de plus entre l'applicatif et la
mémoire morte : l'infrastructure réseau.
Un maillon qui peut évidemment défaillir.
Si l'on opte pour cette solution, il faut donc se donner
les moyens de la faire fonctionner sans heurts, et donc
surveiller de très près ses performances.
C'est le revers de la médaille.
>
Piloter : faut-il investir dans un logiciel de
monitoring ou tout gérer 'à vue' ?
Le futur du stockage passe
par le monitoring global des capacités d'une
entreprise. C'est du moins l'opinion des vendeurs de
matériel, qui tels IBM et EMC investissent massivement
dans leur division 'logiciels de stockage'. Pour une
raison fort simple : il est souvent difficile de
garder une vue cohérente de son architecture
de stockage sans en passer par de tels produits -
toutes les informations deviennent disponibles instantanément
en quelques clics. Un investissement dans un SRM (Storage
Resource Management) sera donc rapidement rentabilisé.
Ce système permet de garder un oeil sur chaque
application demandeuse d'espace, et de lui réattribuer
à distance de l'espace disque - si nécessaire.
A terme, les fabricants
de solutions de stockage font miroiter des merveilles.
Le SRM devrait en effet permettre d'automatiser la réallocation
de capacités de stockage. Plus besoin d'intervenir
pour répartir les capacités entre les
applications : le système s'en chargera
de façon tout à fait automnome.
Quant au SNM (Storage Network
Management), il devrait permettre de contrôler
la fiabilité de chaque îlot de stockage
en temps réel, et éventuellement de répartir
la charge sur des points qui ne sont pas touchés
par une interruption de service. Le tout sur un réseau
hétérogène : la virtualisation
devant permettre de relier des technologies et des marques
qui ne sont pas compatibles à l'origine, et ceci
grâce à un standard unique.
>
Agir : faut-t-il attendre ou investir dés
maintenant ?
La réponse est
claire : en 2002, on peut déjà investir
dans un réseau de stockage efficace à
l'usage. Mais si la demande n'est pas trop urgente,
on gagnerait à attendre encore quelques trimestres.
Les SAN et les NAS ont déjà fait leurs
preuves. Mais les technologies de SRM, de SNM et de
Virtualisation sont encore loin d'être matures,
et les coûts d'implémentation risquent
encore d'être très élevés.
Dans quelques années,
il devrait être possible de connecter des produits
de marque différentes avec un protocole universel.
Si l'on est poussé par aucune
contrainte
urgente, autant temporiser
avant de s'aventurer dans un Bib Bang du Data System.
Quitte à trouver une solution de dépannage
en attendant.
A terme toutefois, la révolution
du stockage arrive, et elle devrait bouleverser
l'administration des architectures de stockage.
|