Les données pilotent la stratégie multicloud, pas les applications

Auparavant, les choix en matière d'infrastructure étaient dictés par les applications. Aujourd'hui, à l'heure où les données augmentent de façon exponentielle, leur exploitation doit s'appuyer sur une meilleure accessibilité et mobilité.

Le rôle stratégique des données au sein des projets d'innovation des entreprises n'est plus à prouver. L’intelligence artificielle, l’apprentissage automatique et l’analytique sont rapidement passés de simples tendances technologiques à une réalité quotidienne et concrète.

Néanmoins, les données et leur diversité continuent à tout submerger. Données transactionnelles, appareils IoT et capteurs, ou encore vidéo et audio sont autant de sources de volumes de données toujours plus vastes. Le trafic internet global se mesure désormais en zettabytes et le déluge continue d'augmenter rapidement.

Selon une étude du MIT Technology Review, les chefs d'entreprise sont nombreux à affirmer que les données sont à l’origine de projets stratégiques pour l’avenir de leur société, mais également pour améliorer l'expérience client et soutenir la croissance. D'un autre côté, ils reconnaissent également leurs difficultés à comprendre, analyser et interpréter ces données. Cette gestion entraîne des coûts élevés.

Il est important, pour une entreprise, de pouvoir accéder en temps réel à toutes ses données pour en tirer le meilleur parti possible au sein d'un environnement multicloud. Cela permet de déplacement librement les applications entre le stockage sur site et le cloud privé ou public. En gardant à l'esprit que la bonne stratégie est à la fois "sur site" et dans le cloud, et non plus l’un ou l’autre.

Pourquoi est-ce important ? Selon une enquête d’IDG, 9 entreprises sur 10 auront, cette année, une partie de leurs applications ou de leurs infrastructures dans le cloud. Cette migration, qu'ils ont effectué durant les dernières années, leur a appris l'importance de surveiller l’efficacité de ces initiatives et les coûts engendrés. Le fait de déverrouiller l’accès aux données nécessite souvent une approche différente pour être réellement efficace.

Le choix des environnements doit dépendre du type de données et des applications utilisées. Les applications critiques qui fonctionnent de manière régulière et continue d'un jour à l'autre sont par exemple davantage adaptées à un hébergement sur site, plus rentable que le cloud.

D'un autre côté, les charges de travail qui varient fréquemment et nécessitent des calculs intenses sont plus adaptées au cloud public. Les entreprises peuvent ainsi bénéficier du fonctionnement du cloud et ne payer que pour le temps où les applications sont réellement utilisées.

Pour convaincre les dirigeants d'entreprise de construire leur prise de décision stratégique sur les données plutôt que sur les applications, il faut repenser le concept classique de hiérarchisation des applications.

Faire évoluer la hiérarchisation

Une majorité d'entreprises génère aujourd'hui des charges de travail très variables. L'avènement du stockage 100% flash a contribué à faire évoluer le concept de hiérarchisation. La croyance selon laquelle le stockage haute performance est fait pour les applications critiques de niveau 1 et que le stockage de moyenne performance est fait pour les applications de niveau 2, sans parler des applications de niveau 3, est désormais révolue. Le stockage flash a démocratisé le data center. Les entreprises ont désormais conscience que toutes leurs données ont de la valeur, et que les données dites "froides" n'existent plus.

Avec la place centrale qu'occupent désormais les données, la mobilité des applications, autrement dit la capacité à les déplacer de façon transparente du cloud vers un environnement sur site ou vice versa, selon les besoins dictés par les données, est un facteur essentiel.

Pour rendre les données mobiles dans le cloud public et privé, une couche commune est nécessaire pour les partager. Si une base de données Oracle peut s'exécuter sur un stockage de niveau 1, les données qui en sont issues peuvent être exploitées depuis différents endroits de l'entreprise selon le cas d'usage.

Les données étant un élément vital pour l'entreprise, le fonctionnement doit être continu, résilient et s'appuyer sur une plateforme de stockage performante sur site. Néanmoins, les rapports d'analyse périodiques et les rapports mensuels sont parfaitement adaptés au cloud, car l’agilité du cloud garantit que les calculs sont réalisés rapidement. Pour accélérer la livraison d'un rapport, il suffit d’augmenter la puissance de calcul. La couche de données commune permet d'améliorer la mobilité des données et l’agilité des applications.

Le modèle de traitement centré sur les données sert de lien dans un monde multi-cloud

Il existe encore aujourd'hui un fossé entre les environnements hébergés sur site et dans le cloud public, avec des expériences de gestion et de consommation, d’architectures d'applications et de stockage très variées.

Les entreprises sont plus compétitives quand elles s'appuient sur un modèle centré sur les données, qui facilite le déploiement de l'ensemble des services informatiques en donnant un accès en temps réel aux données, nécessaire pour accélérer la prise de décision. Le cloud hybride requiert une architecture centrée sur les données, spécifiquement designée pour un partage des données en temps réel et des déplacements facilités pour les applications et les données.

En reprenant l'exemple précédemment cité de l’instance de base de données OLTP Oracle et son exécution sur site, la capacité des entreprises à envoyer des copies de données vers le cloud public leur confère une forte capacité d’évolution avec une architecture de calcul agile. La couche commune de données permet d'utiliser la même architecture centrée sur les données sur site et dans le cloud public.

Enfin, il est possible d'améliorer les déploiements natifs d'applications cloud grâce aux services de données qui représentent un gain en efficacité grâce aux fonctionnalités de réduction des données, de copies instantanées et de réplication. Il est même possible pour les données d'être à l’origine du choix de mode de reprise après sinistre. Dans un monde multicloud, le fait que les données soient au centre permet d'exploiter le cloud comme un second data center. Dans un environnement sur site, la restauration devient plus difficile à mesure que le rythme des sauvegardes dans le cloud s'accélère.

C'est de cette façon qu'on réussit à libérer les applications, unifier le cloud, et gérer les données de façon homogène depuis le data center et le cloud.