Concevoir une plateforme de données autonome et autopilotée

L'arrivée d'appareils en périphérie sous une incroyable diversité de formes ne fera qu'augmenter la pression sur l'IT pour prendre en charge à la fois les exigences de calcul et de données provenant du edge.

La plupart des grandes entreprises déclarent déployer une infrastructure cloud au sein de leurs propres centres de données, à l’aide d’une virtualisation VMware et de piles cloud, d’OpenStack ou autre architecture cloud. Au cours des dix dernières années, les entreprises semblent avoir acquis suffisamment d’expérience dans le domaine des clouds privés et publics pour pouvoir bénéficier des avantages d’un cloud hybride ; elles souhaitent désormais tirer pleinement profit de la liberté et de la flexibilité du multicloud. Ainsi, les services agiles et à la demande du cloud public peuvent être utilisés là où ils sont le plus efficaces (pour des besoins ponctuels spécifiques ou pour des services informatiques spécialisés, par exemple), tout en permettant aux entreprises de garder le contrôle et de profiter des performances d’un cloud privé local au sein de leurs centres de données d’entreprise.

Tandis que les entreprises entament leur transformation numérique, nous constatons l’émergence de deux nouvelles tendances qui vont façonner l’avenir des infrastructures informatiques : le déploiement de services IT sous forme de conteneurs, et l’informatique en périphérie. Pour les nouvelles applications cloud natives, la conteneurisation (à l’instar des services basés sur Docker) a déclenché la mise en place d’un nouveau modèle de déploiement aussi bien pour les applications que pour les infrastructures sous-jacentes sous la forme de services légers et distribués (et même souvent sans état). Les conteneurs et Kubernetes sont de plus en plus adoptés comme modèles de déploiement et d’orchestration. Il s’agit de la nouvelle vague qui fait suite aux machines virtuelles et aux structures d’orchestration cloud.

L’arrivée d’appareils en périphérie sous une incroyable diversité de formes ne fera qu’augmenter la pression sur l’IT pour prendre en charge à la fois les exigences de calcul et de données provenant du edge. Comme le prévoit IDC dans ses prévisions 2019, les communautés d’appareils intelligents ou connectés exécutés en edge (tels que les scanners et l’IoT des usines et des hôpitaux, les appareils mobiles dans les stades, les kiosques des aéroports, les appareils de loisirs des bateaux de croisière, et bien d’autres) vont créer une nouvelle catégorie de mini-clouds capables d’offrir des services IT locaux et dédiés. Il sera notamment nécessaire de répliquer et de gérer les données des environnements à cloud hybride des entreprises, mais aussi de mettre en cache et de stocker les données des appareils en edge. IDC prévoit l’émergence de millions de ces centres de données pour services edge, avec des besoins en services de calcul et de gestion des données à l’échelle locale, et le recours à de nouveaux services à base de conteneurs utilisant Kubernetes pour l’automatisation.

Enfin, les entreprises devront pouvoir gérer les données pour qu’elles s’adaptent aux processus et exigences spécifiques découlant de leurs propres flux de données. Ceci nous amène donc au cœur de la complexité concernant la gestion des données : pouvoir garantir la protection des données, se conformer aux exigences en matière de réglementation et de souveraineté des données, garder le contrôle de la mobilité des données, et aider les DSI et les nouveaux responsables des données d’entreprise à relever l’immense défi de la gouvernance des données. Pour y parvenir, il faudra trouver des moyens plus simples pour définir et orchestrer les politiques de gestion de données spécifiques, intelligentes et fondées sur les métadonnées, et les intégrer à toute nouvelle plateforme de données.