IBM en voie de hisser l'informatique quantique au stade industriel
Big Blue est parvenu dans ses laboratoires à réaliser grâce à l'informatique quantique des traitements inaccessibles aux supercalculateurs classiques.
Dès 2016, IBM lance un premier ordinateur quantique de cinq qubits en mode cloud. Ce qui lui permet de développer un premier embryon d'écosystème et de promouvoir un framework open source (baptisé Qiskit) pour créer des algorithmes adaptés. "C'est désormais le framework quantique le plus utilisé au monde, avec 6,5 millions de téléchargements", souligne Xavier Vasques, président et CTO d'IBM Technology et R&D en France.
Depuis, Big Blue déroule sa feuille de route. A ce jour, le groupe revendique huit systèmes de calcul quantique déployés chez des partenaires ou des clients. Des systèmes auxquels s'ajoutent 38 centres d'innovation. Ces centres ont pour but de donner accès à des machines de calcul quantique partout dans le monde. Au total, 280 grandes entreprises, start-ups et universités travaillent en collaboration avec ces centres sur des sujets de R&D.
Les centres en question sont utilisés pour simuler des systèmes physiques de matériaux ou encore réaliser de la modélisation de molécules. Ils sont également taillés pour traiter des opérations mathématiques. Enfin, ils sont utilisés pour optimiser des flux, notamment dans la logistique, par exemple pour fluidifier la navigation d'une flotte de bateaux en fonction des ports de départ et d'arrivée, de la météo, de l'alimentation en carburant... Au total, l'idée est de mettre en musique des traitements adaptés au calcul quantique.
La conception de batterie au lithium
Depuis, IBM a beaucoup progressé. En 2017, il parvient à modéliser une molécule d'hydrure de lithium 3. A l'époque, IBM gère ce processus sur la base de 4,8 milliards de circuits quantiques. Au final, ce traitement avait nécessité 290 jours pour être exécuté. "Récemment, nous avons réduit ce calcul à 7 heures. Ce qui nous fait dire que le potentiel du quantique est important, notamment en vue de la conception de nouvelles batteries au lithium", commente Xavier Vasques.
IBM explore aussi l'application de l'informatique quantique dans le domaine de l'intelligence artificielle. Avec à la clé des résultats qui commencent à surpasser les algorithmes de machine learning classique. Pour ce faire, l'éditeur reprend via son infrastructure Qiskit les librairies de machine learning standard, type Pytorch ou scikit-learn, pour pouvoir les brancher sur des ordinateurs quantiques.
"En matière de hardware, le principal problème à résoudre est le cross talk, c'est-à-dire la perturbation des qubits au voisinage des qubits manipulés"
Côté hardware, IBM avance également ses pions. "Nous avons développé un processeur de 127 qubits, baptisé Eagle, qui permet de faire tourner 3 000 portes quantiques. Avec à la clé un taux d'erreur de 0,6 à 0,7%. Quant à la performance d'exécution des portes, elle est comprise entre 500 et 600 nanosecondes. Le principal problème à résoudre est le cross talk, c'est-à-dire la perturbation des qubits au voisinage des qubits manipulés", précise Xavier Vasques.
L'entrée dans l'ère de l'utilité quantique
Pour le CTO d'IBM en France, on rentre désormais dans l'ère de l'utilité quantique. Pour la première fois en 2023, le groupe américain est parvenu à réaliser, par le biais d'Eagle, un calcul qui ne peut être réalisé via des supercalculateurs classiques. En lien avec l'université de Berkeley, IBM a comparé les deux systèmes (classique et quantique) en itérant une simulation de spins de plus en plus complexes. "Et à un moment donné, l'ordinateur classique n'a pas été capable de suivre", indique Xavier Vasques. Reste qu'il a fallu démontrer que les résultats obtenus par l'ordinateur quantique étaient valides. "Plusieurs laboratoires de recherche se sont penchés sur le sujet, et tous sont parvenus à reproduire l'expérience en allant parfois même un peu plus loin en termes d'itérations", constate Xavier Vasques.
Ces derniers mois, IBM a réalisé six expériences dans la même veine. "Ce qui démontre que l'informatique quantique est utilisable en tant que tel et plus comme un objet d'étude", commente Xavier Vasques. Et ce, sachant que le processeur à 127 qubits sur lesquelles ces expériences ont été réalisées présente des limitations. Ce qui rend confiant IBM pour la suite.
En parallèle, le groupe a développé un autre processeur, baptisé Heron, comptant 133 qubits et affichant un taux d'erreur sur les portes de 0,1%. Quant au cross talk, il engendrait avec Eagle une dégradation de la performance du processeur au court du temps. Avec Heron, IBM affirme avoir "quasiment éliminé" le problème.
Cap sur le milliard de qubits
Dans le même temps, la performance d'exécution des portes est passée d'une fourchette de 500 à 600 nanosecondes avec Eagle à 96 nanosecondes avec Heron. Résultat : là où Eagle enregistre 3 000 portes d'exécution quantique, Heron passe à environ 9 300. "Ce qui va permettre d'aller encore au-delà en matière d'expérimentation et de calcul comparé aux méthodes HPC classiques. Depuis 2017, nous avons amélioré la performance du hardware quantique d'un facteur 1 000", estime Xavier Vasques.
D'une phase de pure recherche, IBM entre maintenant dans une phase de recherche et d'ingénierie. Objectif affiché : passer à l'échelle en développant des ordinateurs de 5 000 qubits, 10 000 qubits, 100 millions de qubits, voire 1 milliard de qubits. L'entreprise de New York est certes capable de faire fonctionner des qubits et de les faire communiquer sur le même processeur. Reste qu'IBM fait face à des défis d'ingénierie que sont la miniaturisation de l'électronique, la communication quantique, le calcul distribué. A partir de là, IBM a défini une feuille de route pour l'amener entre 2030 et 2033 à un supercalculateur capable de réaliser des traitements répartis sur plusieurs ordinateurs quantiques.
Enfin, reste la question de la cybersécurité. Les systèmes quantiques posséderont une puissance telle qu'ils seront capables de casser les mots passe les plus complexes en vue de pénétrer dans les applications. "Face à ce risque, nous avons développé ce qu'on appelle des algorithmes de cryptage post-quantique pour se prémunir face à ce type de risque. Nous les avons déjà implémentés dans nos systèmes mainframe. Ces systèmes sont très utilisés par les banques et les assurances qui souhaitent évidemment se prémunir contre ce type de risque", indique pour finir Xavier Vasques.