Les charges applicatives défient-elles les lois de la physique des réseaux ?

Face à la crise sanitaire, alors que de nombreuses équipes IT n'ont pas pu accéder à leurs data centers locaux, le déploiement des charges applicatives dans le cloud public a souvent été la seule option disponible. Cependant, combien d'entre elles resteront dans le cloud public à l'avenir ?

L’année 2020 a permis une accélération considérable de la migration des charges applicatives vers le cloud public. Selon l’enquête State of the Cloud 2020 de Flexera, plus de la moitié des entreprises interrogées s’attendent à intensifier leur utilisation du cloud public de manière significative en raison des bons résultats obtenus durant la crise sanitaire. Toutefois, il ne suffit pas de migrer les charges de travail pour en tirer le meilleur parti. En effet, il faut placer les bonnes charges de travail dans le bon environnement, pour des performances et une efficacité optimale. Alors que de nombreuses équipes informatiques ne pouvaient pas accéder aux data centers locaux, le déploiement des charges applicatives dans le cloud public a souvent été la seule option disponible. Cependant, combien de ces charges de travail resteront dans le cloud public à l’avenir ?

2020, un défi pour la gestion des applications

De nombreux services informatiques se sont adaptés aux nouvelles réalités de 2020 en adoptant simplement des plateformes SaaS (software-as-a-service) qui permettent d’externaliser la gestion des applications. Si cette solution a fonctionné pour certaines charges de travail, bon nombre d’applications nécessitent un replatforming important pour tirer profit des capacités du cloud public, ce qui prend du temps. En outre, les équipes informatiques ont dû relever le défi de fournir un accès sécurisé et de gérer des niveaux de service avec un personnel désormais en télétravail. Il est important de noter que les lois de la physique et surtout la connectivité Internet à domicile de chaque employé, ont créé de nouveaux obstacles à surmonter. Le monde dans lequel nous vivons fonctionne d’une certaine manière, notamment décrite par les lois de la physique. Par exemple, la visibilité limitée des applications SaaS fait qu’il est impossible de déterminer facilement si un problème de niveau de service est dû au fournisseur ou à l’utilisateur.

La plupart des charges applicatives sont encore exécutées dans des environnements informatiques sur site, plus de dix ans après l’avènement des plateformes de cloud computing public. Une étude réalisée par Enterprise Strategy Group montre que la majorité (89%) des entreprises continuent d’accorder de l’importance aux environnements sur site. En effet, bon nombre des applications développées dans le cloud public finissent par être déployées dans des environnements de production sur site. Néanmoins, il existe de nombreuses raisons pour lesquelles des charges applicatives doivent être déployées localement : de meilleures performances, ou encore des exigences en matière de sécurité et de conformité.

Transformation numérique : quel modèle opérationnel ?

La nature des applications développées et déployées connaît également une évolution radicale. Les initiatives de transformation numérique des entreprises reposent en grande partie sur des applications en temps réel qui traitent et analysent les données au plus près du lieu de création et d’utilisation de celles-ci. Cela entraîne la création de sites ou environnements d’edge computing. Les utilisateurs ont une faible tolérance vis-à-vis du temps de latence du réseau lors de l’accès aux applications. Des transferts de données entre différentes applications peuvent être nécessaires, en fonction du cas d’utilisation. Or, il sera toujours plus efficace d’amener le code là où se trouvent les données, plutôt que de transférer des quantités astronomiques de données entre des réseaux étendus (WAN) à bande passante restreinte. De plus, le coût de transfert d’importants volumes de données peut également être prohibitif.

De nombreux développeurs préfèrent les plateformes de cloud public, car elles permettent de fournir facilement des ressources d’infrastructure. Par ailleurs, le cloud public peut constituer une bonne solution pour les applications en cours de développement pour lesquelles la capacité de ressources est inconnue. Cependant, le cloud public est une solution générique qui ne répond pas aux besoins de toutes les charges de travail. Les entreprises devront donc toujours exécuter les charges de travail dans l’environnement le plus adapté aux exigences de l’application et aux besoins de l’entreprise, qu’il s’agisse de data centers, de clouds privés, de clouds publics ou d’edge computing. Le défi auquel sont confrontées les équipes responsables des opérations informatiques consiste à créer un modèle opérationnel cloud englobant plusieurs plates-formes, avec des solutions d’infrastructure informatique de pointe bien intégrées qui présentent une évolutivité optimale. Avec la réalisation de cet objectif, il devient évident que l’avenir de l’informatique d’entreprise est et restera toujours hybride.

Comment pallier les limites du cloud public ?

Cela s’est régulièrement avéré au sein d’entreprises qui se sont rendues compte que le cloud public ne pouvait pas répondre à tous leurs besoins. Elles passaient trop de temps à corriger et à gérer les solutions informatiques existantes, rendant difficile, chronophage et coûteux la migration de leurs charges de travail vers le cloud public. Bénéficier d’une gestion automatisée du cycle de vie et d’opérations rationalisées est donc essentiel afin de mener à bien cette opération, qui permet aux entreprises de prendre conscience de l’avantage d’héberger et de transférer les données entre le edge, le cloud public et le cloud privé, et ainsi augmenter les investissements.

La physique est essentiellement une science naturelle qui étudie la matière, les mouvements et les comportements dans le temps et l’espace en fonction de l’énergie et des forces en jeu. Les réseaux et les données qui s’y trouvent fonctionnent donc selon un principe similaire : les informations qu’ils contiennent sont stockées, récupérées, transmises et manipulées. La valeur des données est maximale lorsque celles-ci sont transférées au bon endroit, au bon moment ; dans certains cas d’utilisation, il est encore plus important de disposer de données en temps réel. Afin de tenir compte des lois de la physique des réseaux, il est donc nécessaire d’adopter une approche de cloud hybride, de manière à bénéficier d’une évolutivité, d’une gestion et d’une mobilité optimales pour divers clouds et charges de travail, tout en assurant la sécurité et la confidentialité.