6 tendances majeures pour l’évolution du marché du stockage en 2020

Tour d'horizon de six tendances majeures qui animeront 2020 et auxquelles il est primordial de se préparer sur le terrain du stockage de données.

Alors que le volume de données ne cesse de croître, les entreprises doivent non seulement les stocker, mais aussi adopter la meilleure approche de gestion possible et rester à l’affût des tendances. Celles qui opteront pour des stratégies de stockage novatrices pourront faire évoluer leurs activités et prospérer dans l'économie numérique actuelle.

Dans ce contexte, comment les entreprises peuvent-elles assurer le stockage de leurs données ? Voici les six tendances majeures qui animeront 2020 et auxquelles il est primordial de se préparer.

Une approche centrée sur la donnée

De nos jours, les entreprises génèrent une quantité considérable de données - qui n'ont pas la même importance selon leur activité. Celles qui l'ont compris - et qui sont en mesure d'identifier les plus pertinentes - peuvent adapter leur stratégie de stockage et optimiser le traitement des données.

Les organisations s'efforcent de maximiser leurs pools de stockage et par conséquent, peuvent placer par inadvertance des données cruciales sur des serveurs secondaires. Cela pose problème puisqu'il faut généralement plus de temps à ces systèmes secondaires d’accéder aux données stratégiques, et donc pour les exploiter. Ce manque de vitesse et d'agilité peut nuire à l’activité de l’entreprise.

Généralement, les équipes IT adoptent une approche basée sur le serveur pour leurs opérations de sauvegarde et de restauration des données. Leur priorité est alors de sauvegarder leurs systèmes les plus critiques et non de se concentrer sur les données essentielles à leur activité.

Ainsi, plutôt que de disposer de politiques de sauvegarde et de restauration basées sur la criticité de chaque serveur, nous commencerons à voir les entreprises associer leurs systèmes centraux à leurs données principales. Le contenu réel des données devient alors déterminant du point de vue de la sauvegarde.

Les modèles à suivre sont donc ceux qui adoptent une stratégie de stockage basée non pas sur la hiérarchie des serveurs, mais sur la valeur des données.

La démocratisation du stockage flash

Avec le développement continu de technologies telles que l'IoT, l'intelligence artificielle ou la 5G, le besoin de stockage haute performance ne cessera d'augmenter, et la notion de stockage "all-flash" sera de plus en plus répandue. La difficulté réside aujourd'hui dans le fait que le stockage flash est comparable à une voiture de grande performance : tous deux sont attrayants mais proposent des prix qui restent hors de portée pour la plupart.

Pourtant, le stockage sur disque traditionnel est de moins en moins à la hauteur. Malgré sa fiabilité, il peut être lent, voire impossible à utiliser. Mais nous évoluons de plus en plus dans un monde hautement numérique où les données doivent être disponibles immédiatement et où toutes les entreprises, et pas seulement les plus grandes et riches, ont besoin d'un stockage performant pour mener à bien leurs activités.

La baisse du coût du stockage flash permettra alors aux fournisseurs de stockage de proposer des solutions "all-flash" au marché des entreprises de taille intermédiaire afin d'en ouvrir l'accès au plus grand nombre.

Le rapatriement des données hébergées dans le cloud

Nombre d'entreprises réalisent aujourd'hui que le passage au cloud n'est pas aussi rentable, sécurisé ou évolutif qu'elles le pensaient. Ainsi, elles tentent maintenant de rapatrier au moins une partie de leurs données et applications clés dans leurs datacenters sur site.

En réalité, le volume de données stocké dans le cloud est devenu difficile à gérer. Les entreprises découvrent que ce type de stockage est non seulement plus coûteux qu'elles ne le pensaient, mais qu'il est également difficile d'accéder rapidement à ces données en raison de la latence inhérente au cloud. Par conséquent, le rapatriement des données sur site peut être plus avantageux en termes de coût, de sécurité et de performance.

Conscientes de l'importance du cloud, les entreprises adoptent désormais des stratégies de rapatriement des données dans cet environnement. Elles déploient progressivement une infrastructure hybride dans laquelle certaines données et applications restent dans le cloud, tandis que les données et applications stratégiques sont, quant à elles, rapatriées sur site.

Un stockage immuable pour les entreprises de toutes tailles

Les ransomwares resteront un véritable fléau pour toutes les entreprises. Et parce que les pirates ont réalisé la valeur des données stockées sur les baies de stockage en réseau, leurs attaques se feront de plus en plus sophistiquées et ciblées. Cette situation est très problématique puisque les données de sauvegarde constituent généralement la dernière ligne de défense. Les pirates attaquent également les données non structurées de sorte d'atteindre les données primaires et secondaires cryptées et d'obliger les entreprises à verser une rançon pour les récupérer. La probabilité qu'une organisation, sans plan de récupération spécifique et immuable en place, paie une rançon pour reprendre le contrôle de ses données s'en trouve alors accrue.

La question n'est pas de savoir si, mais quand une entreprise aura besoin de se remettre d'une attaque de ransomware. Par conséquent, il est plus important que jamais de protéger ces données grâce à un stockage en mode objet immuable et à une protection continue. Les entreprises doivent rechercher une solution de stockage qui protège continuellement les informations en prenant notamment des snapshots aussi fréquemment que possible (par exemple, toutes les 90 secondes). De cette façon, même lorsque les données sont écrasées, il est possible de restaurer une version originale enregistrée grâce au snapshot. Puisque le stockage en mode objet est immuable, même si le ransomware infecte le stockage primaire, il existera toujours une autre copie des objets originaux qui constituent les données de l'entreprise et qui pourra être récupérée instantanément... et ce, même s'il s'agit de centaines de térabytes.

Un stockage plus écologique

Les datacenters mondiaux consomment de très importantes quantités d'énergie, contribuant ainsi au réchauffement climatique. À l'heure actuelle, on estime qu’ils consomment environ 3 % de l'approvisionnement mondial en électricité et sont responsables d'environ 2% des émissions de gaz à effet de serre. Ces chiffres placent l'empreinte carbone des datacenters au même niveau que celle de l'ensemble de l'industrie aérienne.

Dans ce contexte, de nombreuses entreprises cherchent à réduire leur empreinte carbone et recherchent de plus en plus des solutions de stockage plus respectueuses de l'environnement. Il est désormais nécessaire d'assurer à la fois un haut niveau de performance mais également une consommation d'énergie la plus faible possible.

L’ère de la prévention sera remplacée par celle de la restauration

Les entreprises devront chercher des moyens différents et plus efficaces pour protéger les données structurées et non structurées. Un élément essentiel pour se préparer à cette "ère de la restauration" consistera à migrer les données non structurées vers un stockage en mode objet immuable avec réplication à distance, éliminant ainsi le besoin de back up traditionnel. De plus, la sauvegarde quotidienne disparaîtra et sera remplacée par les snapshots pris toutes les 90 secondes. Cette approche permettra notamment de réduire le budget de stockage primaire, le stockage VMware/Hyper-V, et le CPU/mémoire des serveurs critiques.

Si la protection des données reste cruciale, plus tôt les entreprises adopteront cette stratégie de restauration et de récupération, mieux elles seront en mesure d'assurer la continuité de leurs activités en 2020 et au-delà.