Amazon, Google ou Microsoft : qui gagnera la course à l'informatique quantique ?
Alors que les ordinateurs d'aujourd'hui utilisent le bit comme unité fondamentale, le calculateur quantique, lui, s'adosse sur une valeur appelée le qubit (ou quantum bit). Une valeur qui permet non seulement de s'exprimer par le biais de 1 et 0, mais également par une superposition des deux. La vitesse de calcul se voit ainsi augmenter de manière exponentielle, la machine étant capable de traiter simultanément plusieurs états à la fois. La mesure de puissance du qubit ? Elle est de 2 à la puissance N (N étant le nombre de qubits du processeur). Ainsi, une machine binaire reposant sur une architecture à 6 bits pourrait créer une des 64 (2 à la puissance 6) combinaisons possibles (000000, 000001, 000010...). Le qubit étant une superposition de 1 et 0, peut tendre d'un coup vers 64 états.
Problème : contrairement aux bits classiques, les qubits sont extraordinairement sensibles aux perturbations environnementales : chaleur, vibrations, rayonnement électromagnétique ou même rayons cosmiques. Ces interférences provoquent des erreurs qui compromettent la fiabilité des calculs. Amazon, Google et Microsoft, désormais tous les trois engagés dans cette course à l'informatique quantique, divergent précisément sur le terrain de la correction d'erreurs.
Microsoft mise sur le fermion de Majorana
Face à AWS et Google, Microsoft a pris le pari le plus audacieux en misant sur une particule exotique appelée fermion de Majorana, qui n'existe pas naturellement. Le cœur de cette innovation réside dans le développement d'un "topoconducteur", un matériau hybride composé d'arséniure d'indium et d'aluminium. Ce matériau crée un état entièrement nouveau de la matière (un état topologique), qui permet d'observer et de contrôler les particules. Contrairement aux qubits traditionnels, les qubits de Microsoft facilitent le contrôle nécessaire à leur fonctionnement ainsi que leur mise à l'échelle. "Notre approche basée sur la mesure simplifie la correction des erreurs quantiques de manière radicale : nous effectuons la correction des erreurs uniquement via des mesures activées par de simples impulsions numériques connectant et déconnectant des points quantiques équipés de nanofils. Ce contrôle numérique rend la gestion de vastes ensembles de qubits beaucoup plus pratique pour des applications réelles", souligne Chetan Nayak, chercheur émérite chez Microsoft.
En février 2025, Microsoft affirmait "être parvenu à créer le premier topoconducteur au monde, un matériau capable d'observer et de contrôler les particules de Majorana pour produire des qubits fiables et évolutifs". Selon l'éditeur, cette technologie ouvre une voie claire pour intégrer jusqu'à un million de qubits sur une seule puce tenant dans la paume de la main. Le million de qubits est le seuil considéré comme nécessaire pour atteindre l'avantage quantique. Entendez par là un nombre de qubits au-delà duquel plus aucun superordinateur classique n'est capable de gérer la croissance exponentielle de la mémoire et la bande passante de communication nécessaire pour simuler son équivalent quantique. Une étape que Microsoft entend atteindre d'ici quelques années. "L'informatique quantique à cette échelle pourrait conduire à des innovations telles que des matériaux auto-réparateurs capables de combler les fissures des ponts, une agriculture durable et des découvertes de produits chimiques plus sûrs. Ce qui nécessite aujourd'hui des milliards de dollars en recherches expérimentales approfondies et en expériences en laboratoire pourrait être réalisé grâce aux calculs d'un ordinateur quantique", commente Chetan Nayak.
AWS s'inspire d'Alice & Bob
Reposant sur les qubits de chat, nommés d'après l'expérience de pensée du chat de Schrödinger, la technologie Ocelot d'AWS, qui s'inspire des recherches de la start-up française Alice & Bob, exploite la superposition quantique d'états classiques pour supprimer certains types d'erreurs, notamment les erreurs de bit-flip et phase-flip. Dévoilée fin février 2025, cette technologie utilise des oscillateurs fabriqués à partir d'un film mince de tantale, un matériau supraconducteur. Ils génèrent un signal électrique répétitif avec une synchronisation régulière pour stocker les états quantiques. Architecturalement, Ocelot est composé de deux puces de silicium microélectroniques, chacune d'environ 1 cm², empilées et connectées électriquement. Chaque puce comprend 14 composants principaux : cinq qubits de données (les fameux qubits de chat), cinq "circuits tampon" pour stabiliser les qubits de données, et quatre qubits supplémentaires dédiés à la détection d'erreurs.
Selon AWS, "le principal atout d'Ocelot réside dans sa capacité à réduire les coûts de la correction d'erreurs quantiques jusqu'à 90% par rapport aux approches conventionnelles". Cette efficacité provient de la suppression intrinsèque de certains types d'erreur par les qubits de chat. Ocelot utilise par ailleurs des processus de fabrication empruntés à l'industrie microélectronique, ce qui facilite sa production à grande échelle. "A l'avenir, les puces quantiques construites selon l'architecture Ocelot pourraient coûter aussi peu qu'un cinquième du prix des approches actuelles. Et ce, en raison du nombre considérablement réduit de ressources nécessaires à la correction d'erreurs. Concrètement, nous pensons que cela nous permettra d'aboutir à un ordinateur quantique exploitable d'ici cinq ans", pointe Oskar Painter, directeur du matériel quantique chez AWS.
Google mise sur la technologies des transmons
Du côté de Google, Willow utilise des qubits physiques basés sur la technologie des transmons. Ce composant est un condensateur supraconducteur refroidi à des températures extrêmes proches du zéro absolu, et développé initialement à l'Université de Yale il y a 20 ans. L'enjeu pour Google ? Combiner plusieurs qubits physiques en réduisant les erreurs provoquées par le bruit ambiant auquel ces derniers sont sensibles, en vue d'obtenir in fine des qubits logiques stables.
Présenté en décembre 2024, le processeur développé à ce jour par Google comprend 105 qubits physiques. Le groupe a accordé une attention particulière à l'ingénierie de tous les composants du système, des portes à qubit unique et à deux qubits, à la réinitialisation des qubits en passant par leur lecture. L'entreprise de Mountain View est parvenue à réduire les erreurs des qubits physiques en dessous du seuil critique, rendant possible la création d'un qubit logique fiable. Fait marquant, Willow parvient à réduire le nombre d'erreurs de manière exponentielle avec l'augmentation du nombre de qubits. Google a testé des réseaux de qubits de plus en plus grands, passant d'une grille de 3x3 qubits à une grille de 5x5, puis à une grille de 7x7. À chaque augmentation de taille, le taux d'erreur était réduit de moitié. En termes de performance, Willow a en outre réalisé un calcul d'échantillonnage de circuits aléatoires en moins de cinq minutes. Un traitement qui aurait demandé à l'un des supercalculateurs les plus rapides d'aujourd'hui 10 septillions (10²⁵) d'années pour être réalisé.
Bien que Willow ait démontré une correction d'erreurs efficace, son approche nécessite toujours un nombre important de qubits physiques pour chaque qubit logique, ce qui pose des défis pour atteindre le million de qubits. Le benchmark RCS utilisé pour démontrer la supériorité quantique de Willow, bien qu'impressionnant, n'a en outre pas d'applications pratiques connues dans le monde réel. Google reconnaît que le prochain défi est de démontrer un calcul qui soit à la fois au-delà des capacités classiques et utile pour une application concrète.
En comparant les stratégies retenues par les trois acteurs, celle d'AWS semble la plus pertinente tant du plan de la réduction d'erreurs que du passage à l'échelle. Amazon a - pour l'heure - trouvé le meilleur équilibre.