Cloud : quand le stockage devient élastique
Les entreprises accumulent des données en masse, sans distinction de secteur d'activité. De plus avec les contraintes légales pesant sur la durée de conservation des informations, le stockage est devenu une véritable problématique professionnelle.
Écartons tout de suite les solutions de sauvegarde sur bande ou logicielles peu adaptées pour des volumétries importantes. Pour évaluer et préconiser les solutions de stockage les plus adaptées aux entreprises, voici les 3 clés à retenir : sécurité, accès et capacité
Le scandale PRISM a au moins le mérite de réveiller les consciences et de remettre la sécurité au cœur du Cloud et du stockage en particulier. Cependant, la confidentialité n'est pas suffisante, il faut aussi s'assurer de l'intégrité et la disponibilité des données stockées
La disponibilité aux données est rendue possible par un accès rapide. Or avec une bande passante de 1 mégabit par seconde, pour sauvegarder 1 gigaoctet de données, comptez plus de 2 heures... Seule la fibre optique s'avère vraiment appropriée pour ce type d'usage.
Les besoins de stockage ne s'évaluent désormais plus en Gigas mais en Téras, voire en Pétas. Les capacités des solutions doivent s'avérer scalables et sans limite.
Compte-tenu de ces contraintes, certaines entreprises se sont dotées de leur propre datacenter relié en fibre optique. Sécurisée, cette solution reste néanmoins coûteuse et techniquement limitée. En effet, avec les technologies actuelles, de type NFS / CIFS ou SAN avec serveur centralisé, l'augmentation des capacités de stockage consiste à ajouter des disques aux serveurs. L'ajout de disques peut dégrader peu à peu les performances du serveur ainsi que la sécurité globale de la solution. Et quand il n'y a plus de place dans le serveur, il faut le remplacer par un autre plus gros et plus cher avec les contraintes de migration.
Les entreprises
peuvent aussi externaliser leurs données dans le "nuage" avec des offres
IaaS ou Infrastructure as a Service. Coûts avantageux car mutualisés,
capacités flexibles et absence de matériel spécifique participent au
succès de ces offres. Cependant, après étude, le panel de fournisseurs
reste limité. Les prestataires globaux, plutôt nord-américains pour ne
pas les citer, et les brokers de Cloud (bien français quant à eux) ne
garantissent en rien la localisation des données et du coup leur
confidentialité (syndrome PRISM à nouveau).
De plus, les technologies et
accès des solutions ne sont pas connues, donc le niveau de performance
ne peut pas être évalué objectivement. Basées le plus souvent sur des
technologies SAN, leur coût peut devenir prohibitif au delà de 100
téraoctets. De plus, la portabilité des données entre solutions
concurrentes n'est pas assurée ce qui peut poser soucis en cas de
migration notamment.
Les entreprises ont donc intérêt à s'orienter vers des fournisseurs prouvant que leurs stockages s'effectuent dans des centres informatiques, localisés en France, sécurisés et accessibles via la fibre optique. De plus, elles devront exiger des capacités de stockage sans limite ou un stockage élastique. Ces offres sont rendues possibles grâce à la nouvelle génération de clusters de machines ou « fermes de calcul » construits sans base MySQL (NoSQL hiérarchique). Cette technologie révolutionne encore confidentiellement mais très sûrement le marché. Dans le cluster, l'ajout de machines n'amoindrit pas les performances, bien au contraire il renforce les capacités de traitement, tout en augmentant les capacités de stockage. Plus vous consommez, plus le système devient performant et économique...
C'est pourquoi le mode de facturation devient révélateur de la technologie et de la pérennité de l'offre. Choisissez des offres sans coût fixe, sans minimum ni maximum tout simplement.