Tendance 5G, catalyseur d'un modèle cloud distribué en périphérie ?

La 5G est la pierre angulaire qui amène les opérateurs télécoms et les grandes organisations qui opèrent leurs propres réseaux à basculer dans une nouvelle approche des infrastructures et de la fourniture de services, au plus proche de la génération des données.

À ce stade de son déploiement dans le monde, les perspectives de la 5G ont été abondamment détaillées par différents acteurs du marché, opérateurs télécoms et fabricants de terminaux en tête. Pour le grand public, la promesse est simple et, du reste, tenue : fiabilité accrue des connexions, bande passante supérieure et latence réduite. Sur le marché B2C, la 5G apporte un confort supplémentaire indéniable pour la consommation de services numériques en tout genre et dans un premier temps sera complémentaire à la 4G, notamment pour les amateurs de jeux et les gros consommateurs de contenus en streaming, mais ne révolutionnera sans doute pas les usages si ce n’est dans les services amenés par des modèles B2B2C tels que la voiture connectée.

Sur le marché B2B, l’enjeu est bien plus grand et engendre de nouvelles modalités de collaboration entre ceux qui fournissent la connectivité, ceux qui fournissent les services cloud, et ceux qui les consomment. Pour les opérateurs de réseaux publics ou privés, les grandes entreprises, les universités, les administrations ou encore les sites industriels, la 5G offre l’opportunité d’un nouveau paradigme pour l’architecture de systèmes et la fourniture de services. Contrairement à la 4G et au Wi-Fi, la 5G permet d’envisager la création de réseaux largement décentralisés. Elle pourrait bien entraîner une érosion de la distinction entre périphérie, cœur de réseau et datacenter.

Deux tendances significatives du marché des systèmes d’information ont convergé pour préparer le terrain.

À la recherche d’une flexibilité accrue et d’un meilleur contrôle des coûts, les entreprises se sont détournées des systèmes propriétaires, ont dit adieu au vendor lock-in et ont adopté une approche software-defined pour leur stockage, leur capacité de calcul et le déploiement de leurs réseaux. Toutes les organisations qui déploient et opèrent des réseaux dans le monde entier, que ce soit leur cœur de métier ou non, renouvellent, quand ce n’est pas déjà le cas, leurs infrastructures avec des solutions complètement virtualisées. Celles-ci leur offrent un contrôle plus fin, une agilité renforcée et la possibilité de déployer une grande variété de services.  

En parallèle, la pérennisation des technologies de conteneurisation a amorcé la transformation inexorable des architectures applicatives monolithiques en flottes de microservices. Les anciennes plateformes, gourmandes en ressources, ne trouvant leur aise qu’au sein de vastes datacenters, sont progressivement fractionnées en une multitude de services plus restreints, parfois de simples scripts, facilement orchestrales et déployables avec une flexibilité bien supérieure, y compris en périphérie de réseaux, au plus proche des machines et des hommes qui les consomment, les utilisent et qui produisent les données.

Face à ce phénomène, les entreprises sont de moins en moins disposées à payer pour des plateformes ou des applications complexes dont elles n’utilisent que quelques fonctions. Elles privilégient les offres avec une granularité plus élevée qui leur permettent d’atteindre une couverture fonctionnelle au plus proche de leurs besoins réels tout en maîtrisant les dépenses. Le contexte sanitaire exerce une pression supplémentaire sur les centres de coûts et engendre un besoin accru de services digitaux en périphérie.

Cette nouvelle manière de déployer et de consommer les services applicatifs offre à ceux qui opèrent les réseaux une opportunité claire de se repositionner dans le paysage des services de cloud computing tout en optimisant le trafic sur leurs infrastructures. Dans le monde d’avant, les opérateurs fournissaient une voie d’accès, mais les services consommés étaient pour l’essentiel dans des datacenters.

Désormais, les opérateurs télécoms et même les opérateurs de réseaux privés sont en mesure de déployer des services directement sur leurs infrastructures et de les proposer à leurs usagers avec trois avantages majeurs. Premièrement, les services edge, par définition, permettront moins de sollicitation du cœur de réseau. Ce désengorgement permettra de gérer la multiplication d’objets connectés. Deuxièmement, les opérateurs pourront redéfinir la chaîne de valeur des services réseaux qu’ils soient nationaux ou locaux, les augmenter de services cloud et les monétiser plus finement. Enfin, et c’est peut-être le plus important, avec cette approche du déploiement de service à la périphérie des réseaux et au plus proche du consommateur, les opérateurs, y compris privés, peuvent tirer le meilleur parti possible de la latence exceptionnellement basse de la 5G et envisager des cas d’usage jusque-là tout simplement impossibles, amplifiant d’autant leur catalogue de services et l’attractivité de leurs offres.

Mc Kinsey, dans son rapport The 5G Era, évoque deux exemples très parlants.

Aujourd’hui les véhicules à guidage autonome (VGA) utilisés sur des sites industriels s'appuient sur des capteurs pour faciliter la navigation et le contrôle des collisions. Ils fonctionnent généralement selon des trajectoires fixes ou avec des capacités d’optimisation minimales. La prochaine génération fera appel à des analyses avancées et à l'apprentissage automatique pour prendre des décisions. Ces capacités permettront aux VGA d'examiner les données et de prendre des décisions de navigation sophistiquées - par exemple, éviter les zones encombrées par d'autres véhicules – et reposeront sur des réseaux 5G privés. La 5G permettra aux VGA d'exécuter des logiciels de contrôle et de traiter des données à la périphérie, ce qui leur fournira une immense puissance de calcul à un coût inférieur à celui du traitement embarqué.

Par ailleurs, les travailleurs peuvent utiliser des lunettes de réalité augmentées qui affichent des instructions dans leur champ visuel pour guider leurs processus de travail et leur workflow dans diverses tâches, comme les contrôles qualité. Ici, la 5G est un catalyseur, car les lunettes de réalité augmentée doivent traiter les données en temps réel pour offrir une expérience fluide et réactive. Les communications à faible latence et à haut débit permettront de traiter les données de la réalité augmentée dans le cloud edge, ce qui réduira les coûts et augmentera l'efficacité énergétique pour les entreprises.

Le cabinet d’analyse IDC prévoit que 80% des données seront générées en périphérie des réseaux et non pas dans les datacenters d’ici 2025, ce qui semble confirmer que le changement est en cours. En Asie, un certain nombre d’alliances entre des fournisseurs de services et des opérateurs télécoms allant dans ce sens commencent à émerger afin de proposer des services inédits. La 5G rebat les cartes et offre l’opportunité à toutes les organisations opérant des réseaux de changer la manière dont elles abordent la distribution des services applicatifs et des ressources informatiques et peut-être même leur rapport au Cloud. Gageons que l’informatique quantique puisse à son tour amener de nouveaux paradigmes au niveau de la consommation des ressources : qu’il s’agisse de puissance de calcul ou de l’exploitation de la donnée. Il paraît que l’évolution de l’informatique est un mouvement pendulaire perpétuel.