Stockage de données : les workloads à grande échelle vont migrer vers le cloud

La flexibilité du stockage des données non-structurées dans le cloud devient primordiale. Celui-ci doit devenir aussi élastique que le cloud lui-même.

Face à l'importance stratégique qu'elles présentent et la montée du cyber risque, la croissance exponentielle des volumes de données non-structurées est aujourd'hui une préoccupation croissante pour de nombreuses entreprises de tous secteurs. Ce phénomène s'est accéléré l'an dernier et on peut déjà entrevoir qu'il va continuer à s'accentuer cette année. Pour répondre à cette situation, il ne s'agit plus de stocker toutes les données dans un serveur et ne plus avoir besoin de les toucher.

Aujourd'hui avec les progrès technologiques, le stockage est passé de statique à dynamique pour donner vie aux données. Les clients exploitent des flux de travail à forte intensité de données, comme le traitement des images médicales et l'analyse prédictive, qui exigent d'énormes quantités de données disponibles à tout moment. Au lieu de les laisser seules dans un stockage froid ou de dépenser une quantité déraisonnable d'argent et de puissance de calcul pour s’en servir à nouveau, les entreprises devraient pouvoir accéder à autant de données souhaitées et à tout moment. Il est donc normal que les équipes IT aujourd’hui recherchent des solutions de stockage plus flexibles et dynamiques. 

La flexibilité du stockage des données non-structurées dans le cloud devient primordiale. Celui-ci doit devenir aussi élastique que le cloud lui-même. Les nouvelles offres de stockage fichiers ont ainsi amené les architectures on-premise à basculer dans le cloud. Le stockage doit s’adapter de manière dynamique et à l’infini. Il n’est, en effet, plus acceptable de consentir aux limites d'échelle et au provisionnement complexe qui rend une infrastructure cloud aussi peu flexible que les serveurs on-premise. 

Par exemple, pour certains secteurs tels que les médias et le divertissement, la technologie vidéo est de plus en plus sophistiquée. Des fréquences d'images plus élevées, une meilleure résolution, l'imagerie volumétrique (etc.) contribueront à augmenter la taille des données non-structurées dans ce secteur. Dans l'enseignement supérieur et l'informatique de recherche également, les établissements utilisent le séquençage du génome pour réaliser de grandes choses telles que le vaccin de la Covid-19 ou les traitements de précision contre le cancer. D'ici 2025, les données génomiques vont probablement exploser à l'échelle de l'exaoctet, c'est-à-dire des milliards de gigaoctets. 

À terme, on devrait constater que les workloads à gros volumes des grandes entreprises basculent eux aussi vers le cloud. On constate actuellement que les workloads de fichiers à grande échelle sont les derniers à migrer vers le cloud public car ils sont compliqués et ne peuvent pas être facilement remaniés pour le stockage objet, les rendant critiques. Cependant, au cours des trois prochaines années on devrait voir les workloads liées aux fichiers migrer en masse vers le cloud. Avec des facteurs attrayants, les entreprises seront poussées à déplacer ces workloads dans le cloud, les clients recherchant l'élasticité, l’accessibilité au niveau mondial et les services avancés disponibles auprès des fournisseurs. Les clients commenceront par la reprise après sinistre et le cloud Disaster Recovery pour se familiariser, en créant des secondes copies sûres de leurs données dans le cloud, pour ensuite passer aux workloads primaires.