Les data centers et centres de calcul de haute performance face au défi quantique

L'informatique quantique va bouleverser la puissance de calcul : seuls des data centers spécialisés permettront d'y accéder, changeant radicalement l'avenir du cloud et du HPC.

L'informatique quantique s'annonce comme une révolution technologique majeure, promettant de transformer radicalement nos capacités de calcul. L’ordinateur quantique nécessite des conditions d’opération extrêmement particulières, comme des températures proches du zéro absolu, et chacun n’en aura pas un chez soi demain. Ils seront accessibles à distance via le cloud, depuis des centres de calcul spécialisés. Cela aura un impact profond sur les data centers et les centres de calcul de haute performance (HPC), qui doivent s’y préparer dès maintenant. 

Vers de nouvelles infrastructures de calcul

Les nouvelles technologies comme l’intelligence artificielle (IA) et le calcul quantique sont rarement des technologies de substitution mais permettent d’élargir l’horizon des possibles. Imaginez le calcul intensif comme une énorme centrale, où des milliers de processeurs (CPU, GPU, ...) travaillent en parallèle comme des chaînes de montage hautement coordonnées, exécutant un grand nombre de calculs à une vitesse incroyable. L'IA agit comme une couche d'intelligence, analysant les modèles, optimisant les flux de travail et guidant les calculs vers des solutions plus efficaces.

Et quand l'informatique quantique entre en scène, c’est comme une petite équipe de spécialistes d'élite disposant d'outils très particuliers. Ces spécialistes ne sont pas censés s'occuper de toutes les tâches, mais s'attaquer uniquement aux problèmes qui sont trop complexes ou difficiles à résoudre, même pour les systèmes classiques les plus puissants. 

Pour aller vers ce potentiel, les infrastructures de calcul intensif doivent évoluer en intégrant, en plus du calcul de haute performance, l'IA et l'informatique quantique dans un écosystème unifié.

L'intégration des technologies quantiques dans les infrastructures existantes

L'un des défis majeurs consiste à intégrer efficacement les technologies quantiques aux infrastructures existantes. Cette intégration soulève des questions complexes en termes d’équipements, d'architecture logicielle et de consommation énergétique. Les acteurs majeurs du secteur travaillent déjà sur la conception de centres de calcul hybrides combinant informatique conventionnelle, AI et quantique.

D’un point de vue des équipements, l'hébergement d'un ordinateur quantique n'est pas comparable à l’arrivée  d'une nouvelle génération de GPU ou de puces classiques spécifiques, car une puce quantique doit être opérée dans des conditions particulières, proches du zéro absolu et sans perturbations électro-magnétiques. Cela nécessite des infrastructures nouvelles de refroidissement et d’isolation. Rien d’impossible, loin de là.

En termes d’architecture logicielle, les connexions entre le “manager” du centre de calcul intensif (qui dispatche les calculs) et l’ordinateur quantique sont de nouveaux standards à développer. Et il faudra aussi développer des connexions entre le calcul de haute performance et l’ordinateur quantique, entre les usines d’IA et l’ordinateur quantique, ou même entre ordinateurs quantiques… A plus long terme, l’intégration logicielle entre ordinateur quantique et serveurs classiques est critique pour avoir le fonctionnement le plus efficace. La calibration, l’orchestration, la correction d’erreurs quantiques du QPU, l'exécution d’algorithmes hybrides classiques/quantiques, tout cela requiert une intégration très efficace, avec le moins de latence possible.

Enfin, concernant la consommation énergétique, si les premiers ordinateurs quantiques à être intégrés dans les centres de calcul seront des prototypes avec des consommations négligeables, il est encore difficile d’estimer celle des ordinateurs quantiques à l’échelle ou universels, car cela dépend fortement de la technologie.    

L'enjeu énergétique et l'optimisation des performances

La consommation d'énergie des data centers est déjà un sujet de préoccupation majeur. L'intégration de technologies quantiques pourrait exacerber ce problème ou, au contraire, offrir des solutions innovantes. Tout dépend de la technologie de qubit qui est utilisée. Des initiatives de recherche se penchent sur la question cruciale de la consommation énergétique des futurs ordinateurs quantiques. L'objectif est d'optimiser la consommation d'énergie dès la conception des systèmes quantiques, plutôt que de découvrir a posteriori leur caractère énergivore, comme cela a été le cas avec l'IA.  

L’Europe en avance

Nous assistons à l'émergence des premiers data centers quantiques en Europe, marquant une étape importante vers la réalisation de supercalculateurs quantiques. Ces futures infrastructures combineront processeurs quantiques, CPU et GPU classiques dans une matrice de calcul capable de résoudre des problèmes d'une complexité sans précédent. 

L’initiative EuroHPC (European High Performance Computing Joint Undertaking), un partenariat entre l’Union européenne, les pays membres et des partenaires privés visant à développer un écosystème européen de calcul haute performance, a un rôle clef à jouer pour garantir l’indépendance technologique européenne. Ils ont déjà annoncé l’acquisition de 10 prototypes d’ordinateurs quantiques basés sur 6 technologies différentes. 

L'intégration de l'informatique quantique dans nos data centers et centres HPC représente un défi technologique majeur, mais aussi une opportunité unique d'innovation. Elle promet de révolutionner notre capacité à traiter des problèmes complexes, tout en soulevant des questions cruciales en termes d'efficacité énergétique. Pour relever ces défis, une collaboration étroite entre chercheurs, industriels et décideurs politiques sera essentielle. L'Europe se positionne déjà comme un acteur clé de cette révolution, avec des initiatives pionnières dans le domaine des data centers publiques.