Dans l'informatique quantique, l'heure des grandes manœuvres a sonné

Dans l'informatique quantique, l'heure des grandes manœuvres a sonné Google, IBM et Microsoft sont dans la course. En France, Atos se positionne également avec en ligne de mire la volonté de sortir des machines hybrides.

Les promesses de l'informatique quantique sont des plus alléchantes. Alors que les ordinateurs actuels utilisent le bit comme unité fondamentale, les ordinateurs quantiques reposent sur le qubit (ou "quantum bit") qui s'exprime non seulement par des 0 et 1, mais également une superposition des deux (d'où le terme de "superposition quantique"). Grâce à cet espace de traitement multidimensionnel, la puissance de calcul théorique doublerait à chaque nouveau qubit. La vitesse d'une telle infrastructure augmenterait alors de façon exponentielle au fur et à mesure. Avec une telle machine, il deviendrait potentiellement possible de venir à bout en quelques minutes de problèmes qu'un supercalculateur traditionnel mettrait des milliards d'années à résoudre. Dans cette course au Graal informatique, les chercheurs seraient désormais sur le point d'aboutir.

"Il n'est pas avéré que D-Wave soit plus rapide qu'une machine classique"

Conscients de ce potentiel, les géants du numérique investissent le terrain. C'est le cas de Google, IBM, Intel ou Microsoft. Dès 2013, le premier inaugurait son Quantum Artificial Intelligence Lab. Google compte sur ce laboratoire pour améliorer ses performances en matière de search ou de reconnaissance vocale. Monté avec la Nasa, le centre de recherche de Google est équipé d'un D-Wave de dernière génération comptant 2 000 qubits. Fondé en 1999, D-Wave se présente comme le tout premier acteur de l'informatique quantique. Son premier modèle commercial (de 128 qubits) remonte à 2011.

Google et IBM, précurseurs

Pour aboutir à un ordinateur quantique fonctionnel, "l'un des premiers défis est d'obtenir des qubits stables dont la superposition quantique, et donc la capacité de traitement, se maintient le plus longtemps possible", insiste Mazyar Mirrahimi, responsable de l'équipe de recherche QUANTum Information Circuits (Quantic) à l'INRIA. Pour lutter contre l'instabilité des qubits (généralement due aux perturbations de l'environnement), on a recours à des codes correcteurs d'erreurs. Chaque qubit est ainsi associé (ou "intriqué") avec plusieurs autres chargés d'exécuter ces programmes. Principal conséquence : la nécessité de recourir à un grand nombre de qubits (dits physiques) pour obtenir un petit nombre de qubits (dits logiques) efficaces et utiles au calcul. Jusqu'à plusieurs milliers de qubits physiques peuvent être nécessaires pour parvenir à 1 qubit logique.

Les acteurs de l’informatique quantique misent sur différentes technologies : D-Wave et IBM investissent dans les circuits supraconducteurs, Microsoft dans le fermion de Majorana et Intel dans le Qubit de spin. © D-Wave

"Certains acteurs (tel IBM, ndlr) gardent une activité importante de recherche sur les codes correcteurs d'erreurs. D'autres, comme D-Wave, créent des environnements avec un maximum de qubits, sans code correcteur, et observent les résultats qu'ils peuvent en tirer. Reste qu'il n'est pas prouvé pour le moment que ce second type de machine dépasse les résultats d'un supercalculateur classique", pointe Mazyar Mirrahimi.

Sous le capot, Google (avec D-Wave) comme IBM s'orientent vers des systèmes à base de circuits supraconducteurs. Lors du CES début janvier, Intel a levé le voile sur un processeur de 49 qubits reposant sur la même technologie. "En l'état actuel, ce type de circuit permet d'exécuter entre 1 000 et 10 000 opérations logiques sur un qubit avant que celui-ci ne perde ses propriétés quantiques", note Mazyar Mirrahimi.

Chez IBM, c'est la division Watson qui est chargée du quantique. Sur le sujet, Big Blue est allé vite. Dès 2016, le groupe lance un service de calcul quantique en mode cloud, baptisé IBM Q Systems. Dans sa dernière itération, il s'adosse à une machine de 20 qubits, avec à la clé des codes correcteurs d'erreurs capables de maintenir la stabilité d'un qubit pendant 90 microsecondes en moyenne. L'offre a déjà séduit 60 000 clients. Plus de 1,7 million d'expériences ont été menées via ce service, et sur cette base quelque 35 articles scientifiques publiés. Le géant IT ne compte pas s'arrêter là. IBM vient d'annoncer avoir réalisé un prototype de 50 qubits avec une efficacité équivalente.

Microsoft : une voie différente

Volkswagen et Airbus ont initié des recherches en informatique quantique, le premier sur le front de l’optimisation du trafic routier, le second en vue d’améliorer la simulation numérique des avions en vol. © Airbus

Face à Google et IBM, Microsoft se démarque en axant ses travaux sur le fermion de Majorana. "La recherche en est à une phase préliminaire dans ce domaine. Il n'existe pour le moment aucun ordinateur basé sur ce procédé. Mais d'après la théorie, il permettrait d'aboutir à des plateformes potentiellement très efficaces sans code correcteur d'erreur", indique Mazyar Mirrahimi.

Chez Microsoft, on se veut rassurant. "Nous devrions aboutir à une première machine d'ici 10 ans", confie Harry Shum, vice-président exécutif du groupe IA et recherche de l'éditeur américain. "Nous avons développé une équipe pluridisciplinaire sur le sujet, composée d'informaticiens, de physiciens, de mathématiciens, d'ingénieurs en cryogénie..."

En France, Atos avance lui-aussi ses pions sur l'échiquier de l'IT quantique. Positionné dans le HPC depuis le rachat de Bull en 2014, le groupe de Thierry Breton a commercialisé un premier produit : un simulateur quantique (conçu pour simuler jusqu'à 40 qubits). A l'instar de l'approche d'IBM, l'ESN française propose aussi un premier environnement de développement (QLM).

Vers un supercalculateur hybride chez Atos

A moyen terme, Atos espère construire un supercalculateur combinant qubits et bits (CPU et GPU). "Le quantique peut engendrer une accélération des temps de calcul pour certains algorithmes, mais pas tous. Pour beaucoup, l'informatique traditionnelle reste plus appropriée. D'où l'intérêt de combiner les techniques", analyse Philippe Duluc, CTO big data & security chez Atos.

Ici, un cryostat (permettant d'obtenir des températures cryogéniques) contenant le processeur quantique d’IBM. Des températures très froides sont nécessaires pour stabiliser les qubits. © IBM

Et Mazyar Mirrahimi d'enfoncer le clou : "A l'heure qu'il est, seuls quelques algorithmes ont démontré leur capacité à atteindre de hauts niveaux d'accélération." La factorisation en nombres premiers de Peter Shor offre par exemple un potentiel d'accélération exponentielle, et l'algorithme de recherche de Grove une accélération quadratique. "C'est un domaine de recherche très vivant et on peut espérer découvrir d'autres algorithmes à performance équivalente dans les années à venir", ajoute Mazyar Mirrahimi. "Notez qu'il se peut très bien également qu'on mette le doigt sur des algorithmes classiques qui soient aussi exponentiellement plus rapides."

Pour aboutir à un processus de calcul quantique efficace, il faudrait par ailleurs disposer d'un volume minimum de qubits. Ce volume étant différent en fonction de la complexité du calcul à réaliser, et donc de l'algorithme. "Une simulation de molécule nécessite par exemple au moins 50 à 100 qubits logiques", estime Philippe Duluc.

Compte-tenu de l'état de la recherche, l'informatique quantique pourrait trouver assez rapidement des débouchés. Ce serait une question d'années. Les champs d'application potentiels ? Le chiffrement asymétrique, la vision par ordinateur, la simulation (de physique des particules, moléculaire), la prévision (financière, météorologique)… "On va ainsi voir apparaître des calculateurs quantiques spécialisés par domaine. En revanche, l'avènement d'un calculateur universel prendra plus de temps", lâche pour finir Mazyar Mirrahimi.