Management
Les quatre règles d'or du stockage
Comment éviter l'explosion du poste 'stockage' dans un budget ? Quelques conseils indispensables. (Vendredi 19 juillet 2002)
     
A lire également
Panorama des nouvelles technologies de stockage

Cas utilisateur : le réseau de stockage de la Sonacotra

L'intégralité du dossier sur le stockage

> Evaluer : qu'est-ce qu'une bonne infrastructure de stockage ?

Trois indicateurs phares sont à prendre en considération avant de pouvoir poser un diagnostic :

- La disponibilité du système de stockage. Plusieurs facteurs peuvent rendre les données qu'il renferme temporairement indisponibles : la qualité du matériel employé, la stabilité du serveur qui le pilote, le nombre et la durée des interventions effectuées par les équipes techniques, etc. Les disparités peuvent être importantes entre un système bien administré et un système en roue libre.

- La propension à la saturation. Les espaces alloués aux hommes et aux applications sont-ils régulièrement saturés ? Si c'est le cas, les utilisateurs
finaux en ressentiront nécessairement le contrecoup, sinon une certaine frustration. Une bonne infrastructure de stockage doit être capable d'anticiper la saturation d'un de ses îlots.

- Le rapport coût/performances, qui conditionne évidemment le ROI. C'est l'aspect le plus visible du problème. Un système de stockage doit être suffisamment rapide d'accès, et d'une capacité assez grande pour accueillir et distribuer les données d'une entreprise. Mais son coût global doit toujours tendre vers le bas.

> Décider : faut-il chasser l'espace libre ou investir dans de nouveaux systèmes de stockage ?

Lorsqu'une application menace de saturer un système de stockage, on a aujourd'hui le choix entre deux solutions : investir dans de l'espace disque, ou essayer d'en trouver en interne. Pas besoin de chercher bien loin pour trouver des capacités inutilisées : selon le Gartner Group, 40 à 50 % en moyenne de l'espace de stockage total d'une entreprise est inemployé.

Il est communément admis que la procédé du stockage en réseau (SAN, NAS ou IP) améliore souvent le rapport coût/performance d'un système de stockage. En tout logique, en interconnectant tous les îlots de stockage d'une entreprise, on est en mesure d'exploiter les capacités inutilisées de l'un ou de l'autre. Il devient également beaucoup plus facile de jongler avec les besoins des uns et des autres, et donc de réduire la propension de chaque îlot à la saturation. La direction informatique se transforme donc à cette occasion en fournisseur de capacités de stockage.

Par contre, pour ce qui est de la disponibilité du système, on fait un pas en arrière : les SAN et les NAS ne sont pas aussi rapides qu'un système de stockage traditionnel. Ils sont aussi moins sûrs : on ajoute un maillon de plus entre l'applicatif et la mémoire morte : l'infrastructure réseau. Un maillon qui peut évidemment défaillir. Si l'on opte pour cette solution, il faut donc se donner les moyens de la faire fonctionner sans heurts, et donc surveiller de très près ses performances. C'est le revers de la médaille.

> Piloter : faut-il investir dans un logiciel de monitoring ou tout gérer 'à vue' ?

Le futur du stockage passe par le monitoring global des capacités d'une entreprise. C'est du moins l'opinion des vendeurs de matériel, qui tels IBM et EMC investissent massivement dans leur division 'logiciels de stockage'. Pour une raison fort simple : il est souvent difficile de garder une vue cohérente de son architecture de stockage sans en passer par de tels produits - toutes les informations deviennent disponibles instantanément en quelques clics. Un investissement dans un SRM (Storage Resource Management) sera donc rapidement rentabilisé. Ce système permet de garder un oeil sur chaque application demandeuse d'espace, et de lui réattribuer à distance de l'espace disque - si nécessaire.

A terme, les fabricants de solutions de stockage font miroiter des merveilles. Le SRM devrait en effet permettre d'automatiser la réallocation de capacités de stockage. Plus besoin d'intervenir pour répartir les capacités entre les applications : le système s'en chargera de façon tout à fait automnome.

Quant au SNM (Storage Network Management), il devrait permettre de contrôler la fiabilité de chaque îlot de stockage en temps réel, et éventuellement de répartir la charge sur des points qui ne sont pas touchés par une interruption de service. Le tout sur un réseau hétérogène : la virtualisation devant permettre de relier des technologies et des marques qui ne sont pas compatibles à l'origine, et ceci grâce à un standard unique.

> Agir : faut-t-il attendre ou investir dés maintenant ?

La réponse est claire : en 2002, on peut déjà investir dans un réseau de stockage efficace à l'usage. Mais si la demande n'est pas trop urgente, on gagnerait à attendre encore quelques trimestres. Les SAN et les NAS ont déjà fait leurs preuves. Mais les technologies de SRM, de SNM et de Virtualisation sont encore loin d'être matures, et les coûts d'implémentation risquent encore d'être très élevés.

Dans quelques années, il devrait être possible de connecter des produits de marque différentes avec un protocole universel. Si l'on est poussé par aucune
contrainte urgente, autant temporiser avant de s'aventurer dans un Bib Bang du Data System. Quitte à trouver une solution de dépannage en attendant.

A terme toutefois, la révolution du stockage arrive, et elle devrait bouleverser l'administration des architectures de stockage.

 

[Nicolas Six, JDNet]
 
Accueil | Haut de page
 
 

  Nouvelles offres d'emploi   sur Emploi Center
Auralog - Tellmemore | Publicis Modem | L'Internaute / Journal du Net / Copainsdavant | Isobar | MEDIASTAY

Voir un exemple

Voir un exemple

Voir un exemple

Voir un exemple

Voir un exemple

Toutes nos newsletters