L'infrastructure composable, prochaine grande mutation du data center

L'infrastructure composable, prochaine grande mutation du data center Principe, fonctionnement, avantage… Le point en 6 questions sur cette technologie de serveur virtuel qui contribue à automatiser la production informatique.

Ces dernières années, l'automatisation des centres de données s'est accrue à la faveur de l'hyper convergence des infrastructures. Désormais, une nouvelle phase se dessine avec l'infrastructure composable. De quoi s'agit-il ? Le point en 6 questions.

1. Quel est le principe de l'infrastructure composable ?

L'infrastructure composable consiste à concevoir des racks de serveurs virtuels de très haute densité (fédérant ressources de calcul, de stockage et couche réseau) et configurés sur-mesure. A la manière de serveurs physiques, ces serveurs virtuels exécutent l'ensemble de la pile d'infrastructure logicielle : OS serveur, machine virtuelle, container, serveur d'applications...

2. Comment ça marche ?

Au sein d'une infrastructure composable, les ressources IT sont utilisées à la manière de services. Nul besoin de configurer physiquement les couches matérielles et réseau. Via un moteur d'orchestration, il suffit de définir des règles de consommation de puissance informatique en fonction des besoins de l'application à exécuter. Le moteur se charge ensuite de lancer les appels d'API pour assembler ou "composer" les différentes briques d'infrastructure (CPU/RAM, stockage et réseau) au sein d'une machine virtuelle intégrée.

Optimiser finement la consommation de puissance IT

Quand un système fait appel à une infrastructure composable pour s'exécuter, le moteur lui attribue des ressources disponibles. Lorsqu'une ressource n'est plus nécessaire, elle est remise dans le pot commun avant d'être réattribuée à une autre application qui en fait la demande.

3. Quel avantage ?

L'infrastructure composable permet d'optimiser la consommation de puissance IT au sein d'un cloud privé en fonction du trafic et des besoins de traitement. Elle contribue ainsi à réduire la part de ressources informatiques inutilisées, et par la même à rationaliser l'investissement réalisé dans les serveurs en sollicitant les data centers au maximum de leur capacité.

4. Est-ce la même chose que l'infrastructure as a code ?

Oui. L'infrastructure composable rejoint la logique de l'infrastructure pilotée par le code ou infrastructure programmable (qui est également appelée software-defined infrastructure). Les fournisseurs de plateformes de cloud privé positionnés sur ce segment reprennent la logique des offres de cloud public dites serverless (comme Amazon Lambda, Azure Functions ou Google Cloud  Functions). Des services qui permettent d'allouer automatiquement, et à la volée, des capacités informatiques aux applications en réponse à des événements (l'ouverture d'une page web, la gestion d'un tunnel de commande...). In fine, l'objectif de l'infrastructure as a code ou composable est de tendre vers des data centers qui s'auto-administrent, avec le moins possible d'interventions humaines.

5. Quels sont les fournisseurs positionnés sur ce terrain ?

Intel a été l'un des tous premiers groupes informatiques à proposer une offre d'infrastructure composable (via sa solution Rack Scale Design). Il a été suivi par Cisco et HPE (avec la solution Synergy) et plus récemment par la start-up Liqid.

6. Comment l'infrastructure composable parvient-elle à virtualiser la couche réseau ?

Virtualiser la couche réseau tout en conservant un bon niveau de performance d'accès aux applications figure parmi les principaux défis techniques de l'infrastructure composable. La technologie PCIe (pour Peripheral Component Interconnect Express) fournit une réponse à cette problématique. Elle permet en effet de virtualiser un réseau sans pour autant accroitre les temps de latence. Ne nécessitant aucun logiciel pilote pour fonctionner, elle peut s'intégrer à n'importe quel serveur standard. Enfin, PCIe s'adapte à des réseaux aussi bien en cuivre qu'en fibre optique, courant sur des distances de plus d'une centaine de mètres. Côté fournisseurs, Intel prend en charge PCIe dans son offre Rack Scale Design. Liqid avance également ses pions sur ce terrain avec un commutateur PCIe basé sur une architecture de processeur Xeon.