Répartition de la charge dans le cloud : une approche en pleine évolution

La répartition de la charge apporte davantage de valeur et d’efficacité à l’équipe opérationnelle. C’est notamment le cas grâce à l’architecture de microservices et du déploiement de conteneurs logiciels.

La répartition de la charge du trafic applicatif est un concept qui existe depuis longtemps. Cependant, à mesure que les entreprises optent pour les environnements de cloud privés et publics, ce phénomène connaît une évolution significative. 

État actuel de la répartition de la charge dans le cloud

Le concept de répartition avancée de la charge s’est imposé comme un élément majeur des activités informatiques modernes. Cette technologie a évolué en fonction des trois exigences DevOps présentées ci-dessus. Historiquement, cette tâche permettait de gérer exclusivement la répartition du trafic entre les serveurs et, dans certains cas, le déchargement SSL (SSL offload).

Les répartiteurs de charge sont au cœur du trafic applicatif des entreprises. Ils occupent une position critique qui leur permet de visualiser une énorme quantité d’informations concernant les données échangées.

Cette répartition avancée de la charge apporte davantage de valeur et d’efficacité à l’équipe opérationnelle. C’est notamment le cas grâce à l’architecture de microservices et du déploiement de conteneurs de data centers ou des environnements de conteneurisation de type Kubernetes.

Cinq avantages des répartiteurs de charge pour le cloud

1. Optimiser la  visibilité, la pertinence et les capacités d'analyse

En augmentant la visibilité, les insights et les capacités analytiques, les entreprises peuvent atteindre plusieurs objectifs.

  • Améliorer la surveillance du trafic réseau en intégrant le trafic applicatif à la surveillance traditionnelle des infrastructures. Les entreprises peuvent ainsi savoir quel type de trafic arrive et s’il est traité avec efficacité ; 
  • Des rapports détaillés et des statistiques relatives à la santé du réseau permettent de mieux comprendre le fonctionnement de l’infrastructure ;
  • Des équipes en charge de l’exploitation peuvent exécuter le processus de dépannage avec une efficacité accrue ;
  • Les outils analytiques et les informations pertinentes (insights) deviennent proactifs. Une entreprise peut identifier un problème de latence et le résoudre avant que les utilisateurs n’ouvrent des tickets d’incident ;
  • Utiliser des insights pour exécuter des actions automatiquement. L’infrastructure peut être modulée automatiquement en cas de modification du trafic applicatif, et il est possible de bloquer un utilisateur identifié comme un attaquant.
2. Sécurité intégrée

La gestion centralisée évite de se connecter à des répartiteurs de charge individuels. Il est possible de visualiser l’ensemble de la pile d’applications sur un tableau de bord unifié. Les clouds publics permettent d’exécuter la pile d’applications dans plusieurs régions, et l’administration centralisée de gérer le trafic applicatif dans l’ensemble des régions à partir d’une console unique, avec à la clé une efficacité accrue doublée d’une administration simplifiée.

Les répartiteurs de charge avancés s’intègrent aux outils d’administration centralisés. La gestion centralisée des règles a encore plus de valeur lorsque des répartiteurs sont déployés sur plusieurs clouds. Une telle puissance accroît la visibilité et la capacité d’analyse centralisées de l’environnement. L’analyse centralisée assure la corrélation entre les données provenant de différents sites, ce qui permet d’accéder à des informations actionnables dans l’ensemble de l’environnement.

Les observations associées à un site donné, notamment lorsqu’elles sont liées à des cyberattaques, peuvent être utilisées pour mener des actions proactives sur d’autres sites. Par exemple, un cyberattaquant identifié sur un site pourra être bloqué sur tous les sites à partir d’une console centralisée.

4. Automatisation et intégration multicloud

Plus de 70 % des entreprises opèrent dans un environnement multiclouds et dans ce cadre, toutes les technologies qu’elles adoptent doivent s’intégrer à l’ensemble de l’environnement : clouds publics ou privés, data centers et autres serveurs « bare metal ». Cette exigence d’intégration s’applique également au choix des répartiteurs de charge.

Il est donc important que ces répartiteurs disposent d’interfaces API pour optimiser le processus d’intégration. De nombreuses entreprises ont déjà mis en place des pipelines d’intégration - et de livraison continue (CI/CD). Les répartiteurs de charge doivent s’intégrer aux plateformes d’infrastructure à la chaîne d’outils DevOps.

L’intégration n’est finalisée que lorsque les appels d’API sont possibles dans toutes les directions. Les outils DevOps peuvent appeler l’API de répartition de la charge et le répartiteur à la responsabilité d’appeler l’API externe en cas d’alerte ou d’événement.

5. Intégration des conteneurs et des systèmes d’orchestration 

L’industrie adopte de façon croissante des conteneurs et des systèmes d’orchestration de conteneurs. Selon une enquête récemment publiée par le cabinet 451 Research, 71 % des entreprises utilisent ou évaluent des options comme Kubernetes ou Docker.

Les applications évoluent d’une architecture monolithique vers une architecture à base de microservices. De leur coté, les déploiements migrent des serveurs matériels traditionnels à base de machines virtuelles fonctionnant dans le cloud, vers des conteneurs fonctionnant dans plusieurs environnements.

Les technologies Kubernetes et Docker ont été adoptées par de nombreux acteurs majeurs de l’industrie, notamment Google, Amazon, Microsoft, VMware, RedHat, IBM, etc., s’imposant de facto comme des standards du marché.

Les critères de choix des data centers doivent inclure l’intégration aux technologies de conteneurs. Les applications conteneurisées doivent être automatiquement modulées en fonction des besoins tout en conservant une visibilité complète, évitant ainsi de configurer les stratégies ou de gérer les mises à l’échelle de façon manuelle.

Compte tenu des avantages significatifs que procure la répartition de la charge dans le cloud, on comprend aisément pourquoi les entreprises optent pour des solutions nouvelles et avancées, une approche qui évolue vers la lutte contre des cybermenaces.