Comment accroître la valeur de l’informatique d’entreprise en temps de crise ?

Avec la crise, les professionnels de l'informatique vont devoir mettre en valeur la rentabilité des équipements en place. En matière de stockage et de sauvegarde, virtualisation et déduplication représentent des pistes clés.

Vers la fin du troisième trimestre 2008, le système bancaire américain a connu une crise financière qui s’est propagée bien au-delà de l’Amérique du Nord pour également toucher les marchés financiers en Europe et en Asie. Ainsi, fin 2008, les entreprises (tous secteurs confondus) ont revu à la baisse leurs prévisions de chiffre d’affaires et commencé à mettre en place des mesures strictes de manière à contrôler la moindre dépense. Les consignes de 2009 sont simples : réduire les investissements et les coûts d’exploitation, mais aussi économiser l’énergie. Raison pour laquelle les professionnels de l’informatique vont devoir faire preuve de créativité et mettre en valeur les technologies à même d’améliorer le retour sur investissement (ROI).

La crise s’étant installée en 2009, les entreprises se doivent de maximiser leur retour sur actifs (ROA). Les budgets d’exploitation étant limités, les responsables informatiques doivent restreindre leurs investissements et optimiser la rentabilité avec les équipements en place.

Le rythme effréné de croissance du stockage
La pression constante pour l'achat de nouveaux équipements est particulièrement importante dans le stockage de données, où les besoins augmentent à un rythme effréné du fait d'une croissance exponentielle de la volumétrie des informations. Même dans un contexte de ralentissement économique, les données continuent à proliférer. De plus, les besoins de solutions de protection et de reprise d'activité après sinistre n'ont jamais été aussi grands. L'information reste l'actif le plus précieux de toute entreprise, pour qui une interruption d'accès ou une perte de données peut être préjudiciable, voire fatale.
 
La virtualisation du stockage est à la fois, une solution qui permet de gagner en efficacité, ainsi qu'un moyen de concentrer et de maximiser les avantages apportés par les précieuses ressources de stockage. La virtualisation facilite le regroupement physique des périphériques en attachement direct (DAS) et la mutualisation du stockage. C'est également la seule solution pour récupérer l'espace disque inutilisé et l'affecter aux applications nécessitant de grandes quantités de stockage. De plus, virtualiser le stockage permet de différer l'achat de baies de stockage supplémentaires.

Au cours de ces dernières années sont apparues des baies de stockage modulaires, plus souples d'utilisation et qui ont bousculé avec succès le concept traditionnel des baies de disques monolithiques pour mainframes. Cependant, la plupart des solutions de virtualisation imposent l'utilisation de matériel de stockage propriétaire. Ces nouveaux systèmes se caractérisent par une gestion automatisée du stockage reposant sur une virtualisation sous-jacente réservée à des équipements propriétaires. Cela conduit de très nombreux responsables informatiques à s'interroger sur la possibilité d'une véritable virtualisation d'environnements de stockage hétérogènes.

Il est donc nécessaire de disposer d'une plate-forme logicielle ouverte capable de virtualiser les équipements de stockage indépendamment de leurs fabricants, au moyen de tout protocole, de sorte que les responsables informatiques puissent virtualiser, consolider et protéger la totalité de leurs ressources de stockage existantes au sein d'un unique système de gestion, ce sans se voir contraints de procéder à une migration massive vers une nouvelle plate-forme matérielle.
 
Vers un nouveau modèle révolutionnaire
Ce nouveau modèle de virtualisation du stockage hétérogène exige un abandon radical des anciens modes de pensée sans nécessiter pour autant de dépenses importantes. Dans le cadre de ce nouveau modèle de stockage logiciel ouvert, toutes les fonctions de virtualisation et de protection des données - allocation, migration, déduplication, réplication, instantanés (snapshots), archivage - peuvent être réalisées à l'aide d'une seule et même plate-forme logicielle intégrée. Le principal atout de ce modèle réside dans la maximisation du ROA. Une fois les ressources de stockage existantes consolidées et virtualisées, de l'espace supplémentaire est libéré, des blocs inutilisés sont récupérés et l'espace disque est alloué aux applications qui en ont besoin, évitant d'autant l'acquisition superflue d'autres baies de stockage.
 
Récupérer l'espace de stockage et de la puissance de calcul
La virtualisation du stockage facilite et complète la virtualisation des serveurs, une autre obligation pour tout service informatique cherchant à tirer meilleur parti de ses ressources existantes. La virtualisation des serveurs évite la prolifération des serveurs en regroupant plusieurs serveurs applicatifs sur un même hôte physique. Dès lors que cet hôte est connecté à un pool entièrement virtualisé de stockage mutualisé, il en résulte une plus grande liberté, une souplesse et des économies considérables. En outre, ceci permet de réduire le nombre de serveurs pour gérer les mêmes applications, voire davantage, réduisant d'autant l'espace physique nécessaire dans les centres de données, ainsi que les besoins de ventilation et la consommation d'énergie.
 
Des techniques évoluées de virtualisation telles que le "Thin Provisioning" (Allocation fine) permettent aux responsables informatiques d'affecter de façon dynamique le stockage aux applications en fonction des besoins, optimisant ainsi davantage l'utilisation des ressources de stockage. Grâce à la virtualisation du stockage, ceux-ci peuvent bâtir des environnements de stockage multi-niveau, intégrés et économiques, répondant aux impératifs spécifiques de leur activité en matière de protection et de disponibilité des données. Il est alors possible de différer l'achat d'équipements de stockage, et donc éviter toute surallocation et amortir les investissements dans l'infrastructure de stockage sur de plus longues périodes, pour un ROI plus élevé.

Virtualisation des serveurs et reprise après sinistre
La virtualisation des serveurs doit souvent être associée à une solution de reprise d'activité en cas de sinistre car désormais plusieurs applications critiques peuvent être exécutées sur un seul hôte physique. Les responsables stockage doivent non seulement assurer la protection des volumes de stockage virtuel alloués à chaque serveur virtuel, mais aussi le basculement du serveur virtuel d'un hôte physique vers un autre. En fait, la plate-forme de virtualisation du stockage doit être une plate-forme de protection des données fonctionnant avec les systèmes de sauvegarde locale et effectuant la réplication des données vers un site distant pour reprise après sinistre. Cette plate-forme doit être compatible avec tous les systèmes majeurs de virtualisation des serveurs et les capacités de basculement offertes par ces derniers.
 
Un premier remède : la déduplication des données
Paradoxalement, la sauvegarde constitue la cause numéro un de la duplication des données. Dans un souci de protection des données, le principe traditionnel de la sauvegarde consiste à recopier plusieurs fois les données sur un support de stockage secondaire, générant un volume considérable d'informations redondantes. Dans ces conditions, chaque nouvelle sauvegarde aggrave le problème.

Face à l'accroissement du stockage secondaire, les entreprises ont désormais besoin d'une solution capable de réduire nettement les données redondantes. Par ailleurs, les contraintes réglementaires accentuent cette problématique, obligeant les entreprises à reconsidérer leur vision de la protection des données.
 
Voilà pourquoi les technologies de déduplication ont rencontré un tel succès l'an passé. En éliminant les données redondantes et en compactant autant que possible leurs archives, les entreprises peuvent conserver davantage d'informations en ligne, plus longtemps et à un coût nettement moindre. La déduplication est reconnue comme la prochaine étape dans l'évolution des systèmes de sauvegarde et représente désormais un impératif technologique pour toute entreprise désireuse d'optimiser les performances, l'efficacité et le coût de son environnement de sauvegarde.

Les bénéfices sont tangibles et extrêmement concrets : l'élimination des doublons dans les archives de stockage secondaire peut faire chuter le coût des supports, rationaliser les tâches de gestion et réduire la bande passante nécessaire à la réplication des données. En bref, la déduplication permet de gagner en efficacité et de réaliser des économies substantielles.
 
Protection en continue des données : changer les règles
Si la déduplication est le remède à la prolifération des données, la prévention consiste à éliminer les informations redondantes dès le départ grâce à un processus complet de protection en continue des données (CDP). Il s'agit d'une approche entièrement nouvelle qui révolutionne la sauvegarde classique en y apportant des avantages significatifs.
 
Les plans de sauvegarde classiques sont davantage axés sur la sauvegarde et l'archivage de données que sur la protection ou la restauration de l'ensemble du système ou du site. Si un disque système est endommagé ou corrompu, les administrateurs doivent réinstaller le système d'exploitation et les applications, puis restaurer les informations sauvegardées antérieurement afin de remettre tout le système en état. Il peut en résulter des heures d'interruption de l'activité très coûteuse et éventuellement d'importantes pertes de données ou modifications récentes, postérieures à la dernière sauvegarde avant la panne.

Par contre, une solution CDP déployée en totalité assure une protection des données sur disque à haut débit, assortie d'une restauration instantanée et granulaire. En conservant une copie miroir complète des données dans leur format natif, ainsi qu'une série de snapshots (des copies instantanées reflétant uniquement les modifications intervenues dans un ensemble de données à intervalles prédéfinis), le CDP garantit une restauration extrêmement rapide et granulaire. Il peut également faire appel à la journalisation, qui protège les données au niveau granulaire de chaque écriture, permettant ainsi de restaurer jusqu'au dernier bit d'information enregistré avant la panne.

Les snapshots périodiques procurent aux administrateurs informatiques de nombreuses images bootables offrant bien plus de points de restauration qu'une sauvegarde classique nocturne sur bande. En outre, si une entreprise a besoin de sauvegardes sur bande, le CDP peut accélérer leur réalisation grâce à un modèle de sauvegarde sans serveur et sans impact.
 
L'utilisation d'une solution unique intégrée pour les opérations de sauvegarde et de reprise après sinistre aura un effet non seulement sur le coût global de la gestion informatique, mais aussi sur les coûts d'exploitation de la sauvegarde au quotidien (production et transport des bandes, cycles processeur, ressources réseau). Cette nouvelle approche en matière de protection des données optimise le fonctionnement de l'informatique, améliore considérablement les niveaux de service (SLA) et engendre davantage de gains de productivité. La réduction des interruptions d'activité et la fourniture d'un accès constant aux données et applications métier ont une incidence directe sur les résultats financiers d'une entreprise.

Autour du même sujet