Ce que l'informatique quantique va changer dans l'IA

Ce que l'informatique quantique va changer dans l'IA La hausse exponentielle de la puissance informatique qui se dessine ouvre de nouvelles perspectives en matière de machine learning. Mais sans pour autant révolutionner le concept.

Avec l'avènement de l'ordinateur quantique, l'informatique va entrer dans une nouvelle ère. Cette future génération de supercalculateur permettra de multiplier la puissance de calcul par deux à chaque nouveau qubit (ou quantum bit). La promesse ? Pourvoir traiter en quelques secondes des traitements demandant plusieurs milliers d'années aux supercalculateurs traditionnels. Mais pour parvenir à ce résultat, il faudra d'abord créer des qubits suffisamment stables. Ce qui n'est pas encore gagné. Amazon, Google, IBM, Microsoft, ainsi qu'Atos en France sont dans la course. En parallèle, tous anticipent déjà l'étape suivante : le développement d'algorithmes optimisés pour la nouvelle architecture. Et parmi ces applications, l'intelligence artificielle figure en bonne place.

"Grâce à la puissance fournie par l'informatique quantique, il va devenir envisageable d'entraîner des modèles de machine learning sur des bases d'apprentissage gigantesques", souligne Florian Carrière, senior manager en charge des technologies émergentes chez Wavestone. Partant de là, un algorithme quantique basé sur une méthode probabiliste pourrait identifier des connexions autrefois impossibles à discerner. "Un modèle de traitement automatique du langage comme GPT 3 compte déjà 175 milliards de paramètres d'apprentissage. On va pouvoir aller encore beaucoup plus loin. Ce qui va permettre de passer un nouveau gap en matière de traduction complexes ou d'analyse de sentiments", avance Cyril Allouche, en charge du programme de R&D quantique chez Atos.

Des milliards de milliards de paramètres

Idem pour la vision par ordinateur. Dans ce domaine, les réseaux de neurones convolutifs pourront compulser des milliards de milliards de paramètres, en bénéficiant notamment des réseaux réentrants. La reconnaissance de formes et de scènes, dans le véhicule autonome par exemple, atteindra un degré de finesse et de précision inédit. Aux côtés de la taille de la mémoire quantique, l'avantage résidera, évidemment, dans l'accélération de la vitesse d'apprentissage.

"Recourir à l'intrication quantique pour créer un nouveau type de réseau de neurones ne présente pas d'avantage"

Au-delà du recours aux modèles d'intelligence artificielle déjà existants, les infrastructures quantiques pourraient-elles donner naissance à des structures d'apprentissage d'un nouveau genre ? "Recourir à l'intrication quantique pour créer un nouveau type de réseau de neurones, dans lequel les poids ne seraient pas des valeurs réelles mais des valeurs en superposition, ne présente pas d'avantage. Les chercheurs comme les industriels sont parvenus à un consensus sur ce point", répond Cyril Allouche.

Quant aux modèles de machine learning existants, ils seront aisément applicables à un environnement quantique stable doté d'un nombre minimum de qubits. "La majorité des travaux de recherche publiés sur le sujet ont pour but de convertir les algorithmes d'apprentissage actuels en vue de les faire tourner sur des environnements quantiques", insiste Xavier Vasques, CTO et distinguished data scientist chez IBM France. "Les réseaux antagonistes génératifs ou GAN ou encore les support vector machine (SVM), sont de bons exemple."

Dans le cas des SVM, des fonctions à noyau (exponentielle, gaussienne, hyperbolique, angulaire, linéaire) résolvent des problèmes de classification, de régression ou de détection d'anomalie au sein d'espace 2D ou 3D. "Plus le volume de caractéristiques sera grand, plus le calcul sera coûteux en termes de puissance machine. On gagne donc à transformer ces fonctions en algorithmes quantiques pour accélérer le calcul", explique Xavier Vasques. Autre avantage de l'informatique quantique : elle permet de définir plus rapidement les hyperparamètres d'un modèle dans un espace en trois dimensions en parallélisant les calculs en 3D.

"Les algorithmes quantiques parviennent à détecter des paterns dans des données bruitées que les algorithmes classiques n'identifient pas"

"Les premiers résultats que nous avons obtenus sur les algorithmes quantiques montrent qu'ils parviennent à détecter des paterns dans des données bruitées là où les algorithmes classiques n'en identifient pas", constate Xavier Vasques. "Pour observer la production du Boson de Higgs qui est extrêmement ténue, le CERN utilise des SVM quantiques pour détecter des micro-évènements révélateurs dans les mégadonnées produits par son accélérateur de particules. Ces machines à vecteur de support génèrent une classification du signal, du bruit de fonds…" Des SVM quantiques qui parviennent au même résultat que les classificateurs développés par le CERN openlab en s'appuyant sur des méthodes classiques. "Ce qui laisse présager de belles avancées au fur et à mesure de la progression de la recherche en matière de hardware quantique", conclut Xavier Vasques.

L'IA NISQ

Du SVM aux réseaux de neurones convolutifs, l'informatique quantique laisse entrevoir une accélération de la recherche dans de multiples domaines : analyse génétique, prédiction de la structure des protéines et découverte de nouveaux traitements, optimisation logistique, moteur de recommandation de produits, détection des fraudes, chimie, développement de nouveaux matériaux... Dans l'industrie, Airbus ou encore EDF sont engagés dans la recherche en informatique quantique. Autre secteur très investi : la finance. Dans ce domaine, Barclays, Goldman Sachs et JPMorgan sont sur les rangs. Leur objectif est notamment de tirer parti du machine learning quantique statistique pour aboutir à des modèles de prédiction plus solides ou affiner le scoring d'actifs ou de crédits.

En attendant de bénéficier de machines quantiques stables, les premiers systèmes NISQ (pour Noisy Intermediate-Scale Quantum) devraient voir le jour d'ici 2023. Il s'agit de machines quantiques comptant entre 50 et quelques centaines de qubits, mais avec une stabilité trop courte pour réaliser certaines opérations. "Les SVM par exemple ne fonctionneront pas en mode NISQ. Le reinforcement learning est plus prometteur. Quant aux réseaux de neurones, ils nécessiteront des centaines de milliers voire des millions de qubits pour fonctionner dans ce mode, le coût d'encodage étant quadratique par rapport au nombre de paramètres à optimiser", explique Cyril Allouche chez Atos. Le deep learning quantique pourrait néanmoins se révéler plus robuste au bruit des systèmes NISQ dans la reconnaissance d'images. Comme souvent en informatique, les premières IA quantiques ne devraient pas être sans contraintes.