Dilemmes des centres de données : quels sont les obstacles auxquels les opérateurs sont confrontés en 2024 ?
Sans surprise, en 2023, la consommation de données a fait un nouveau bond en avant. La considération la plus universelle pour les opérateurs de centres de données en 2024 est l'optimisation de l'espace.
Selon une étude de JLL, axée sur la région EMEA, le premier semestre de l'année a été marqué par le plus fort développement de centres de données jamais enregistré sur les marchés européens de premier ordre que sont Francfort, Londres, Amsterdam, Paris et Dublin, soit un bond de 65% par rapport à la même période en 2022.
Dans la région MENA, un récent rapport de Knight Frank fait état d'une augmentation combinée de 20,7 % de la capacité informatique live dans la région, principalement due à la demande de déploiement du cloud. En Europe, un rapport similaire de Knight Frank fait état de la croissance dans les marchés émergents comme Bucarest, Istanbul et Manchester. La croissance de cette dernière destination est en partie tirée par des entreprises comme KAO Data qui a annoncé l'année dernière son intention d'ouvrir un centre de données avancé de 350 millions de livres sterling dans la région.
À bien des égards, les facteurs de cette forte augmentation de la demande de centres de données sont les mêmes qu'au cours de la dernière décennie : un besoin de plus en plus grand en bande passante à mesure que de nouvelles technologies et applications à forte intensité de données mûrissent et sont adoptées.
Ces dernières années, quelques facteurs en particulier ont fait exploser cette consommation de données. Tout d'abord, la pandémie et l'essor qu'elle a créé dans des applications telles que les services de streaming et les conférences virtuelles. Les technologies gourmandes en bande passante, telles que Deep et Automatic learning, sont de plus en plus adoptées. 2024, une année charnière pour l'intelligence artificielle (IA) semble prête à porter cela à des sommets encore plus élevés.
La construction de nouveaux centres de données pour répondre à cette demande est coûteuse. De plus, des facteurs tels que l’obtention de permis de construire ou la disponibilité de l'électricité peuvent ajouter des obstacles au processus. Bien que les centres de données en colocation offrent un bon compromis pour obtenir plus de ressources pour de nombreux opérateurs de centres de données et les entreprises, la meilleure option consiste à trouver des moyens de mettre à niveau et de pérenniser les ressources existantes – mais de quelle manière cette rénovation est-elle possible ?
La volonté de plus de densité
Alors que les émetteurs-récepteurs optiques Ethernet 400G sont principalement utilisés dans les centres de données à grande échelle et que de nombreuses entreprises fonctionnent actuellement en 40G ou 100G, la connectivité des centres de données évolue déjà vers 800G et au-delà. Nous pouvons nous attendre à ce que cela s'accélère à mesure que l'IoT et l'intelligence artificielle décollent vraiment dans le monde de l’entreprise.
Par conséquent, il y a de plus en plus d’éléments à prendre en compte lorsqu'il s'agit de mettre à niveau l'infrastructure, notamment celle de savoir s'il faut utiliser une solution Base-8 ou Base-16 – la première option étant plus flexible et la seconde offrant une plus grande densité de ports et un chemin alternatif vers 1,6 T. La recherche de solutions de câblage capables de gérer les vastes clusters de GPU nécessaires à la prise en charge de l'IA générative, qu'ils comprennent des GPU 16K ou 24K, sera également essentielle pour certains opérateurs.
Cependant, la considération la plus universelle pour les opérateurs de centres de données en 2024 est l’optimisation de l’espace. Les exigences d'augmentation de bande passante dans les extensions de réseau entrent souvent en conflit avec un manque d'espace pour des racks et des cadres supplémentaires, et de ce fait, ajouter plus d'interconnexions fibre optique devient une stratégie insoutenable, compte tenu des contraintes d’alimentation et de terrain.
Il est utile de relever que les derniers switchs réseau utilisés pour interconnecter les serveurs d'IA dans un centre de données sont bien équipés pour prendre en charge les interconnexions 800G. Souvent, les ports émetteurs-récepteurs de ces commutateurs réseau fonctionnent en mode breakout, où le circuit 800G est divisé en deux circuits 400 ou plusieurs circuits 100. Cela permet aux opérateurs de centres de données d'augmenter la capacité de connectivité du commutateur et d'interconnecter davantage de serveurs.
Cette technologie ne cesse de progresser. Prenons l'exemple d'un émetteur-récepteur optique 400G SR8 multimode typique. Il dispose de 16 connexions fibre optique et constitue un bon choix pour les applications à courte portée, mais les progrès de la technologie optique permettent d'obtenir plus de données sur la fibre et les longueurs d'onde. Les émetteurs-récepteurs optiques 400G SR4 font leur entrée sur le marché, réduisant le nombre de fibres à huit. Ces émetteurs-récepteurs optiques, ainsi que d'autres tout aussi récents, aident réellement les centres de données à répondre à la demande croissante de données.
Le refroidissement sera la clé
En plus de ses énormes besoins en bande passante, l'IA crée également un besoin encore plus grand en efficacité énergétique et en refroidissement dans le centre de données. En tant qu’industrie déjà notoirement gourmande en énergie, il s'agit d'un défi croissant. Or de nombreuses entreprises ont maintenant des objectifs ambitieux en matière de développement durable. Certains experts prédisent même une crise mondiale de l'eau en raison d'applications "assoiffées" comme ChatGPT.
Pour ceux qui en ont les moyens, un choix intelligent de l'emplacement peut être une solution aux problèmes de refroidissement : Meta (Facebook) dispose de plusieurs centres de données à Luleå, au pôle Nord, qui utilise les températures de l'air et de la mer inférieures à zéro de la région.
Bien sûr, il existe également un certain nombre d'approches de plus petite échelle et plus accessibles qui peuvent également être adoptées par les opérateurs de centres de données pour prendre en charge le refroidissement, tels que des choix de câblage intelligents. Cependant, avec les énormes demandes de l'IA, il est probable que ces changements et avantages progressifs ne se révèlent pas suffisants.
Diverses techniques de refroidissement sont actuellement adoptées sur le marché, notamment le refroidissement par air, qui utilise des plénums de plancher surélevé et des conduites aériennes pour distribuer de l'air frais à l'équipement. Le refroidissement en rangée, dans lequel plusieurs unités de refroidissement sont placées directement dans une rangée de racks de serveurs ou au-dessus des allées froides, est une approche efficace pour ces systèmes.
Parmi les techniques émergentes, citons le refroidissement par immersion liquide, qui consiste à immerger un équipement informatique (directement sur la puce dans certains cas) dans un fluide diélectrique, évitant ainsi le risque de surconsommation d'eau. Cette méthode permet un refroidissement efficace directement des composants, minimisant ainsi le besoin de circulation d'air. Ce type de refroidissement apportera toutefois des défis supplémentaires en ce qui concerne les composants de connectivité, qui devront être adaptés au liquide de refroidissement.
Applications en périphérie
En 2024, de nombreuses entreprises créeront des réseaux pour soutenir le développement de leurs propres grands modèles de langage (LLM). Cela nécessite le développement de nouveaux réseaux d'inférence où les prédictions sont faites en analysant de nouveaux ensembles de données. Ces réseaux peuvent nécessiter un débit plus élevé et une latence plus faible. De plus, de nombreux opérateurs chercheront à étendre leur infrastructure pour prendre en charge les capacités d'edge computing, rapprochant ainsi le calcul de la source des données.
Au-delà de ce cas d'utilisation spécifique, l'edge computing est particulièrement utile dans les scénarios où des analyses locales et des temps de réponse rapides sont nécessaires, comme dans un environnement de fabrication qui s'appuie sur l'IA, ce qui contribue également à réduire les coûts de mise en réseau. À l'avenir, la 5G jouera un rôle majeur dans l'optimisation des capacités des centres de données périphériques, en garantissant la latence incroyablement faible nécessaire pour les applications et les cas d'utilisation les plus exigeants.
L'edge computing est permis par les solutions de centre de données à grande échelle en colocation qui travaillent pour fournir des services garantissant les temps de réponse requis. Il ne fait aucun doute que la colocation sera essentielle, car ces centres de données peuvent être positionnés plus près des utilisateurs et offrir une infrastructure adaptative qui peut fournir la flexibilité et l'évolutivité nécessaires face à des événements inattendus. Cela permet également d'alléger le besoin de main-d'œuvre qualifiée du côté des utilisateurs finaux.
La configuration et l'optimisation de ces centres de données périphériques, une fois de plus, impliquent une augmentation constante de la densité des fibres, ainsi qu'une modularité pour permettre des déplacements, des ajouts et des modifications plus faciles à mesure que les besoins en données augmentent.
La voie à suivre
Pour les entreprises qui cherchent à déployer ou à développer leurs capacités d'IA, il y aura un certain nombre de décisions clés à prendre au cours des 12 prochains mois. À l'instar de la transition initiale vers le cloud, l'une des principales considérations sera de savoir quelle proportion de leur charge de travail d'IA sera gérée sur site et ce qui sera déchargé dans un environnement cloud externe.
Indépendamment de ces choix, pour l'ensemble du secteur des centres de données, il y a beaucoup de travail à faire pour construire et maintenir une infrastructure résiliente capable de prendre en charge l'IA et d'autres technologies qui n'ont même pas encore été conçues.
Ces développements continueront de dépasser la capacité des centres de données et à un rythme encore plus rapide à mesure que l'IA sera plus largement adoptée. En 2024, la priorité des opérateurs de centres de données, quels que soient leur type et leur taille, sera d'apporter les adaptations nécessaires à leur infrastructure pour rester agiles et prêts à faire face à toutes les éventualités futures.