Stockage : les prix baissent, mais les volumétries explosent

Depuis 5 ans, le prix au gigaoctet ne cesse de baisser. Pourtant, le budget alloué au stockage reste stable, en raison notamment d'une hausse non maîtrisée des données non structurées.

Dans sa dernière étude sponsorisée par EMC, le cabinet d'études IDC prévoit qu'à l'horizon 2011, la quantité de données numériques à stocker sera 10 fois supérieure à celle de 2006. Or, les données à stocker explosent déjà tous les compteurs : IDC estime à 281 milliards de gigaoctets l'ensemble de l'univers numérique aujourd'hui.

Comment se comporte en parallèle l'évolution du coût des solutions de stockage, de son exploitation et de son administration ? Dans les entreprises, comment contenir le budget alloué aux solutions de stockage ? Et sur quelles solutions ou quelles améliorations technologiques s'appuyer ?

"Depuis 5 ans, la tendance est à la baisse du prix du gigaoctet. Cette tendance s'accompagne d'une augmentation de la densité du stockage sur disque. Les plus gros disques vendus en 2006 disposaient de 750 Go, puis 1 To en 2007, et devraient atteindre 1,5 To en 2008. Le prix varie énormément d'un fournisseur à l'autre, et d'une solution à l'autre en fonction du logiciel embarqué. Pour une plate-forme sans aucune intelligence logicielle, le coût du stockage au gigaoctet se situe entre 80 et 90 cents seulement", constate Bruno Picard, SE Manager France chez NetApp.

En entrée de gamme comme en haut de gamme, les prix au gigaoctet tendent donc à baisser sous l'effet de la demande. Le prix du matériel en tant que tel baisse également. Une baie de disque d'entrée de gamme est désormais disponible à partir de 5 000 euros. A ce prix là, HP fournit par exemple sa baie MSA 2000, évolutive jusqu'à 48 disques 1 To, disposant de fonctionnalités de snapshots (sauvegardes incrémentales).

Une baie de disques à 5000 euros fournit jusqu'à 48 To

"La tendance forte sur toutes les gammes de produits de stockage consiste à se recentrer sur le volume et les bas prix. D'ailleurs, nous voyons de plus en plus de fonctions réservées autrefois aux baies haut de gamme, arriver sur le matériel d'entrée de gamme.

Cependant, même si les fonctions sont identiques dans les baies, la qualité de service n'est pas la même. A bas prix, nous sommes capables de faire du 99 % de taux de disponibilité, mais plus on se rapproche de 100 %, plus le prix monte de manière exponentielle", indique Alain Clément, chef produit de la division stockage chez HP.

Sur le haut de gamme, le prix moyen constaté au gigaoctet se situe donc plus entre 10 et 15 euros chez HP. Une situation qui s'explique par la typologie des besoins des clients haut de gamme. Ceux-ci sont en effet plus attirés par la montée en charge (nombre d'entrées / sorties gérées à la seconde), la fiabilité et la puissance de la solution que par sa volumétrie, en régle générale.

Cette hausse des besoins en capacité de stockage n'est toutefois pas un fait exceptionnel. Cependant, d'ordinaire, elle est absorbée naturellement par l'augmentation de la densité des disques durs. Aujourd'hui, toutefois, la hausse des besoins en stockage dans les entreprises est telle que l'évolution de la capacité des disques ne suffit plus.

"L'explosion de la volumétrie s'explique par de nombreux facteurs. D'abord, la dématérialisation de nombreux processus autrefois physiques, la multiplication des applications d'entreprise, et leurs évolutions. Mais cette partie là est relativement prévisible. En revanche, ce sont les données non structurées qui font exploser le stockage : énormément d'informations passent par le mail ou sont stockées de manière informelle sur le poste de travail. Tout le monde crée désormais de la donnée dans l'entreprise sans en avoir conscience, et sans que celle-ci ne soit véritablement gérée", déclare Bruno Picard de NetApp.

"50% de nos clients estiment que leur capacité de stockage est occupée à 80-85%" - Bull France

Un constat que relève également Bull : "Nous venons de mener une enquête auprès de nos clients européens. Il en ressort que la moitié utilise aujourd'hui entre 80 et 85 % de leur capacité de stockage. Une solution consiste donc pour eux à investir, à niveau de matériel constant, dans des solutions logicielles telles que la déduplication pour faire baisser les coûts", estime Neil Dillon, spécialiste stockage chez Bull France.

"Nous voyons également apparaître de plus en plus, les concepts de stockage hiérarchisés. Même si l'attribution des ressources de stockage selon la valeur des données existe depuis longtemps, il est désormais possible de déplacer dynamiquement les données en fonction de leurs usages. Il s'agit désormais de prendre en compte la valeur économique et le cycle de vie des données", ajoute Neil Dillon.

Chez NetApp, les solutions les plus adéquates pour endiguer l'explosion du coût du stockage se nomment déduplication, thin provisionning, et le clonage sans augmentation d'espace disque. Dans le premier cas, il s'agit de retirer les doublons éparpillés dans ses différentes baies de stockage. Le thin provisionning, lui, permet l'allocation dynamique de ressources en maintenant systématiquement de l'espace libre disponibles pour les applications.

"Pour les clients dont l'infrastructure de stockage évolue très vite, typiquement sur des plates-formes Web, d'autres solutions à bas coût se développent. Il s'agit de stockage Open Source, sans intelligence, utilisant du matériel générique, une carte serveur comme contrôleur et un OS comme Open Solaris. Ce trio forme un système de stockage à part entière, dont on peut renforcer la disponibilité par des techniques de clustering. C'est le meilleur moyen d'obtenir une infrastructure à très bas coût", affirme Laurent Bartoleti, chef produit chez Sun Microsystems.

Vers une gestion intelligente de la donnée ?

Les systèmes de stockage panachés sont également une solution à court terme. L'iSCSI, les disques SATA, et prochainement le Fiber Channel Over Ethernet, permettent aux directions informatiques d'adapter plus finement le niveau de performance en fonction de leurs données. Mais ces solutions font office de palliatifs face à la croissance continue des données.

Car gérer une masse plus importante de données implique plusieurs conséquences. Tout d'abord, les équipes d'exploitation sont amenées à augmenter progressivement. Ensuite, le coût en datacenter s'accroît également sous l'effet de l'augmentation du nombre de machines et de disques. Face à cela, les constructeurs proposent désormais de réduire la vitesse de rotation des disques non utilisés, voire de les éteindre et de les rallumer dynamiquement pour faire baisser la consommation électrique et les besoins en refroidissement.

Mais même ainsi, l'augmentation du volume sur une densité plus forte pose la question de la fiabilité. Si l'entreprise multiplie les données sur une même baie, il faut ensuite qu'elle soit en mesure de garantir une disponibilité correcte à ses utilisateurs. Or, si le nombre de disques et la volumétrie augmente, le nombre de pannes augmente également.

Seule solution véritablement viable à long terme, la sélection des informations à stocker. "Les années à venir vont voir apparaître des outils sophistiqués capables de réaliser un tri plus efficace en amont sur les données. On est à l'approche de la décennie de la gestion intelligente de la donnée. Il y a aujourd'hui beaucoup de données stockées inutilement dans les entreprises. Chez certaines, jusqu'à 30% de l'espace de stockage est occupé inutilement. Il faudra donc des personnes chargées d'étudier la pertinence du contenu, et d'envisager sa suppression", suggère Alain Clément de HP.