L'informatique quantique : la quête du Graal numérique

L'ordinateur quantique Permettant de démultiplier les performances de calcul actuelles, l'informatique quantique pourrait être l'une des solutions à la fin de la loi de Moore. Restent de nombreux obstacles.

La notion d'ordinateur quantique est née dans les années 1970 et 1980. Elle est notamment portée par le physicien américain David Wineland - qui a d'ailleurs reçu le Prix Nobel de physique pour ses recherches dans ce domaine. Derrière ce concept figure l'idée selon laquelle les phénomènes quantiques pourraient être utilisés pour décupler la puissance de calcul des machines classiques. Alors que les ordinateurs d'aujourd'hui utilisent le bit comme unité fondamentale, le calculateur quantique, lui, s'adosse sur une valeur appelée le qubit (ou quantum bit). Une valeur qui permettrait non seulement de s'exprimer par le biais de 1 et 0, mais également par une superposition des deux.

Dépasser les limites de la loi de Moore

d ware
D-Wave serait la première société à avoir commercialisé un calculateur quantique. Mais des chercheurs mettent en doute le caractère quantique de ses machines. © Capure JDN

La vitesse de calcul se voit ainsi augmenter de manière exponentielle, la machine étant capable de traiter simultanément plusieurs états à la fois. La mesure de puissance du qubit ? Elle est de 2 à la puissance N (N étant le nombre de qubits dans le processeur). Ainsi, une machine binaire reposant sur une architecture à 6 bits pourrait créer une des 64 (2 à la puissance 6) combinaisons possibles (000000, 000001, 000010...). Le qubit pouvant être une superposition de 1 et 0, pourrait tendre d'un coup vers 64 états. L'informatique quantique permettrait ainsi de passer outre les limites de la loi de Moore, selon laquelle la complexité des semi-conducteurs d'entrée de gamme double tous les ans à prix constants.

Mais comment alors créer un qubit d'information ? Très schématiquement, le fonctionnement d'un qubit (que l'on peut comparer à un atome artificiel) repose sur différents phénomènes de physique nucléaire. C'est aussi la raison pour laquelle l'ordinateur est dit quantique. Il fait en effet référence à la physique quantique décrivant le comportement des atomes et particules. Quels sont ces phénomènes nucléaires ? Un qubit peut être créé en s'appuyant par exemple sur la polarisation d'un photon (et la mesure du plan de polarisation), ou bien sur le niveau d'énergie d'un atome, ou les moments cinétiques de "spin", ou révolution, de l'électron autour de lui.

Comment passer du bit au qubit ? That is the question...

Il existe plusieurs techniques pour créer des qubits. Grâce aux supraconducteurs, ils peuvent être embarqués sur des circuit électroniques dotés de semi-conducteurs fabriqués à partir de méthodes déjà connues, empruntées à la nanoélectronique.

Un obstacle de taille : le système doit rester totalement isolé le temps du calcul

Reste un obstacle technique de taille avant de faire fonctionner un ordinateur quantique. Le système, pendant la phase de calcul, doit être totalement isolé de toute interférence thermique ou magnétique. Du fait de la physique nucléaire qui le met en musique, le qubit est en effet sensible à toute perturbation, notamment les champs électromagnétiques. Les chercheurs appellent le temps de "décohérence" la période pendant laquelle le système reste ainsi isolé, l'intégrité de ses propriétés quantiques étant alors complètes.

Les problèmes de conception sont également très nombreux. Au-delà de la création d'un qubit, il faut notamment aussi être capable de créer des détecteurs pour mesurer l'information portée par le qubit. Cela implique de maitriser les paramètres du flux magnétique (intensité et distribution spatiale), ce qui est complexe.

Google lancé dans la recherche à l'ordinateur quantique

Plusieurs acteurs se sont lancés dans les années 2000 dans la course à la construction d'un ordinateur quantique. La société américaine D-Wave est la première. Elle a annoncé en 2007 être parvenue à construire un prototype, sans pour autant le présenter à la communauté scientifique - pour des raisons de confidentialité. De 1 qubit, cet ordinateur présenté comme fonctionnant en milieu cryogénique était cependant limité à certaines opérations quantiques d'optimisation. Présentant une feuille de route visant à atteindre les 512 qubits, D-Wave annonce avoir pu concevoir une puce de 128 qubits en 2009. La même année, la start-up signe un accord de co-innovation avec Google. C'est la première fois que le géant informatique communique alors sur le sujet. En 2011, D-Wave est vendu à Lockheed Martin, et la société, dont la marque perdure, a depuis lancé la commercialisation d'un ordinateur quantique.

puce quantique
Puce conçue par IBM hébergeant trois qubits. © IBM

En mai 2013, Google annonce tambour battant le lancement d'un laboratoire de recherche centré exclusivement sur l'informatique quantique : le Quantum Artificial Intelligence Lab. Objectif : proposer une nouvelle voie au machine learning et au calcul combinatoire en vue d'améliorer l'efficacité des modèles prédictifs. Google évoque notamment les grands défis sociétaux du monde moderne : le climat, la santé et l'alimentation. Hébergé par la Nasa, le laboratoire est doté d'un ordinateur quantique... Un D-Wave de deuxième génération (2X) qui repose sur une architecture de 1 097 qubits.

Des questions restent en suspens

Le groupe de Mountain View n'est désormais plus le seul géant informatique à s'intéresser à l'informatique quantique.  D'autres lui ont emboîté le pas. C'est notamment le cas d'IBM. Fin 2013, l'activité Recherche du groupe américain a présenté les résultats d'un prototype. Faisant appel au phénomène quantique des condensats de Bose-Einstein, il est formé de polymères luminescents, et pourrait permettre de construire des lasers très efficaces énergétiquement et des commutateurs optiques ultra-rapides. "Il s'agit de composants critiques pour bâtir des systèmes efficaces énergétiquement capables de traiter des volumes de données massifs dans le Big Data", indique IBM. Chez Microsoft également, un projet de recherche a aussi été lancé (en 2015). Mais aussi chez Intel. Le fondeur a annoncé un investissement de 50 millions de dollars sur le sujet en septembre 2015, dans l'optique très claire de passer outre les frontières de la loi de Moore.

Reste qu'un débat existe entre les chercheurs, et certains mettent sérieusement en doute l'authenticité des procédés quantiques de D-Wave. Certains ingénieurs d'IBM (du T J Watson Research Laboratory) ont ainsi émis des doutes quant à la capacité de ces machines à dépasser les performances de l'informatique conventionnelle. Jusqu'ici, les experts peinaient à prouver que cette avance est bien réelle. Pour répondre à ces interrogations, les équipes de R&D des principaux groupes impliqués dans la recherche sur l'informatique quantique se sont mis au travail. Google a ainsi par exemple publié une étude comparative en décembre 2015 qui tend à prouver les capacités de l'ordinateur quantique (lire l'article : Un ordinateur quantique serait 100 millions de fois plus rapide qu'un ordinateur conventionnel).

Du quantique à l'informatique douée de conscience

La France est elle aussi présente dans cette course à l'informatique quantique. Depuis les années 2000, le CEA travaille sur le sujet. Le centre à l'énergie atomique a mis au point une puce en silicium à base de nanojonctions pour gérer le qubit. Depuis, les recherches se sont poursuivies au travers de plusieurs expérimentations. Souvent ouvertement critiqués par la communauté scientifique, certains chercheurs, et notamment français, ont aussi imaginé la prochaine étape. Simon Thorpe, directeur de recherche du CNRS au CERCO (Centre de recherche cerveau et cognition) à Toulouse, n'hésite pas affirmer l'existence d'un lien entre conscience et physique quantique, en faisant référence notamment aux travaux des chercheurs américains Stuart Hameroff et Roger Penrose. De là à évoquer un futur ordinateur quantique qui serait doué de conscience... Simon Thorpe pose la question de cette éventualité pour le futur (voir sa présentation relative à une conférence donnée en 2013).

A lire aussi :

 

Serveurs / Big Data