beebright - stock.adobe.com

Explicabilité et fiabilité : les deux grands défis de l’informatique quantique

Alors que le hardware quantique évolue, il devient difficile de prouver que le résultat d’un algorithme quantique est correct et de ne pas créer de boîte noire. Mais des pistes de solutions sont déjà explorées. Et tous les cas ne demanderont pas forcément de telles validations.

L’avènement de l’intelligence artificielle (IA) pose de grandes questions aux sociétés sur le plan éthique. Le quantique risque de faire de même.

Lorsqu’on applique des algorithmes à des sujets sensibles – disons les données RH ou la justice –, une des exigences est qu’il faut pouvoir expliquer la manière dont on obtient le résultat. Pas question d’avoir des boîtes noires qui recommandent telle ou telle option sans plus d’argumentation.

S’il faut encore attendre plusieurs années avant de voir réellement une informatique quantique opérationnelle, la perspective de sa « supériorité » pose le même type de question.

Il sera en effet rapidement impossible de simuler, sur un ordinateur classique, les algorithmes exécutés sur un matériel quantique digne de ce nom. Et sachant la quantité astronomique de paramètres qu’un ordinateur quantique peut ingérer pour rechercher une réponse, comment un humain pourrait-il en sonder les profondeurs pour déterminer si un calcul a, ou non, du sens ?

« Si un ordinateur quantique peut résoudre efficacement un problème, peut-il pour autant convaincre un observateur que sa solution est correcte ? », questionne Marc Carrel-Billiard, Responsable de l’innovation technologique mondiale chez Accenture.

Déjà des cas d’usages pertinents envisagés pour l’informatique quantique

L’informatique quantique n’existe pas encore, mais on sait comment elle se comportera et les chercheurs comprennent de mieux en mieux dans quels domaines elle peut s’utiliser de manière pertinente.

Responsable des sciences et technologies chez IBM, et à la tête de l’IBM Research Quantum Europe, Heike Riel explique que « ce n’est pas qu’une question de beauté technologique. Nous cherchons à générer de la valeur. C’est un cheminement : développer la technologie, trouver les applications en avance de phase les mieux adaptées, présenter et prouver ladite valeur, puis développer le matériel et les logiciels. »

Le cheminent a d’ores et déjà commencé, par exemple, chez Eon Energy qui a rejoint l’IBM Quantum Network. La transition vers des sources plus vertes, comme le solaire et l’éolien, a multiplié les types d’énergie à gérer par un réseau électrique. L’informatique quantique pourrait aider à optimiser ces réseaux si, demain, des entreprises et de nombreux foyers devenaient producteurs d’électricité via leurs propres systèmes photovoltaïques ou leurs véhicules électriques, grâce à des initiatives comme le projet Vehicle to Grid (V2G) d’Eon.

« C’est un cheminement : développer la technologie, trouver les applications en avance de phase les mieux adaptées, présenter et prouver valeur, puis développer le matériel et les logiciels. »
Heike RielResponsable des sciences et technologies chez IBM

Dans ce projet, les batteries des véhicules électriques sont connectées au réseau en tant que supports de stockages flexibles. Ainsi, il devient possible d’équilibrer les fluctuations de la production des sources renouvelables. L’informatique quantique permettrait de piloter ces processus de manière plus efficace et plus effective.

« Toutes ces sources ont des caractéristiques différentes ; les prévisions deviennent plus complexes », rappelle Heike Riel. « Il faut optimiser le système en temps réel. Or la complexité croît de manière exponentielle avec le nombre de paramètres, pour finir par devenir un problème difficile à résoudre au moyen d’une informatique classique. »

Autre exemple d’application, dans la science, le physicien théoricien et responsable scientifique chez Cambridge Quantum Computing, Bob Coecke assure que le comportement des atomes et des molécules – qui sont régis par les lois de la mécanique quantique – doivent pouvoir être modélisé sur un ordinateur quantique régi par ces mêmes lois.

« Au regard du fonctionnement complexe de la mécanique quantique, simuler une matière physique [au niveau moléculaire] est de plus en plus coûteux », explique-t-il. En fait, rien qu’en termes de stockage, explique-t-il, il serait impossible d’adapter un ordinateur classique à ce genre de problèmes.

Simuler de nouveaux matériaux et modéliser le comportement des particules sont d’ailleurs deux des plus grands cas d’usages envisagés pour les ordinateurs quantiques. En août 2021, Nicholas Rubin et Charles Neill, deux scientifiques chercheurs chez Google AI Quantum, ont rédigé un article de blog sur une expérience qui vise à créer une simulation chimique complexe au moyen d’un modèle Hartree-Fock issu de la physique numérique.

« Une prédiction numérique précise [sur] des processus chimiques, en partant des lois de la mécanique quantique qui les régissent, peut ouvrir de nouvelles voies en chimie, et aider à améliorer d’un large spectre d’industries », écrivent les chercheurs.

Fiabilité des résultats et bruit quantique

Toutefois, ces promesses arrivent avec leurs lots de défis à relever. Les deux chercheurs de Google constatent par exemple que leurs algorithmes sont encore entravés par le taux d’erreur élevé des premiers ordinateurs quantiques.

« Si un ordinateur quantique peut résoudre efficacement un problème, peut-il pour autant convaincre un observateur que sa solution est correcte ? »
Marc Carrel-BilliardResponsable de l’innovation technologique mondiale chez Accenture.

À l’instar d’une capacité des réseaux neuronaux classiques à tolérer des imperfections dans les données, le binôme explique que dans leur expérimentation, l’algorithme VQE (pour Variational Quantum Eigensolver) tente d’optimiser les paramètres d’un circuit quantique pour réduire le « bruit » qui parasite l’algorithme.

IBM planche sur le même problème. Avec peu de qubits, il reste possible de vérifier simplement le résultat d’un algorithme quantique sur un ordinateur quantique, en le comparant au résultat de ce même algorithme sur une machine classique qui simule un comportement d’ordinateur quantique.

Mais la méthode n’est possible que tant que le nombre de qubits reste suffisamment faible, explique Heike Riel d’IBM. Le point clef ici est d’arriver à bien comprendre comment le « bruit » de nombreux qubits influence le système en produisant des résultats erronés.

Aujourd’hui, IBM poursuit sa feuille de route avec un système à 128 qubits et veut « apporter la preuve que la correction d’erreur peut fonctionner », confie Heike Riel, « nous travaillons à vérifier les résultats ».

Explicabilité

Mark Mattingley-Scott, Directeur général Europe chez le fabricant Quantum Brilliance, soulève un autre défi : l’explicabilité.

« C’est un des paradoxes de l’informatique quantique. Quand on atteint le stade où elle est utile – quand un algorithme quantique peut effectuer des calculs à une vitesse et avec une précision impossibles avec un ordinateur classique –, il devient impossible de vérifier directement la justesse des résultats obtenus », résume-t-il.

« On peut vérifier la justesse du procédé sur des versions réduites du même problème, ce que nous faisons tous les jours avec les algorithmes classiques, mais il n’y aura aucun moyen de “contrôle” à proprement parler. »

Or l’informatique quantique est, par essence, non déterministe. Mark Mattingley-Scott insiste donc sur le fait que les résultats produits reposent sur des probabilités. « Un algorithme quantique fonctionne en employant un mécanisme quantique qui renforce de manière constructive la “bonne” réponse, et supprime de manière destructive la “mauvaise” réponse », explique-t-il. Mais cette construction reste le fruit de probabilité. « Il reste donc systématiquement une part d’incertitude. Et recourir à un ordinateur classique pour valider un ordinateur quantique n’est possible qu’au niveau méthodologique, pas au niveau des données proprement dites. »

« C’est un paradoxe de l’informatique quantique. Quand elle devient utilisable, il devient aussi impossible de vérifier directement la justesse de ses résultats »
Mark Mattingley-ScottDirecteur général Europe chez Quantum Brilliance

Pour sa part, Bob Coecke, de la société  spécialisée Cambridge Quantum Computing, considère que le principe de compositionnalité et la théorie des catégories peuvent aider à comprendre ce qui se passe dans un ordinateur quantique.

Le chercheur belge expliquait cette idée dans un ouvrage co-écrit avec Aleks Kissinger (« Picturing quantum processes »). D’un point de général, le livre se penche sur la manière de fragmenter de grands problèmes quantiques en plus petits composants. Selon Bob Coecke, ces « petits blocs » sont plus compréhensibles et vérifiables.

D’une manière similaire, l’équipe de Mark Carrel-Billiard d’Accenture travaille sur la manière de cartographier certains problèmes en sous-groupes de problématiques mathématiques. Ces « sous-problèmes » sont alors codés avec des SDK et des librairies de plusieurs plateformes quantiques. En testant les programmes sur différentes architectures matérielles quantiques, il devient alors théoriquement possible de déterminer s’ils produisent des résultats homogènes.

Dans certains cas, la validation peut aussi se faire « in vivo ». Dans la chimie par exemple, Michael Biercuk, PDG et fondateur de Q-CTRL, explique que « pour une structure moléculaire ou pour une dynamique chimique calculée sur un ordinateur quantique, il peut être impossible de valider le calcul de la simulation elle-même. En revanche, on peut faire à une vraie expérience chimique [ou une analyse comparative avec des molécules connues] pour en valider les résultats. »

Comprendre ou ne pas comprendre, telle est la question

L’informatique quantique restera par ailleurs une approche parmi d’autres. « Si vous avez un problème complexe d’optimisation à résoudre, peu vous importe la manière, ou le type d’ordinateur que vous utiliserez tant que vous obtenez un résultat de la manière la plus rapide et la plus efficace possible », assure Heike Riel d’IBM.

Du point de vue d’IBM, un problème de calcul complexe a souvent plusieurs parties distinctes. Certaines seront traitées avec l’informatique quantique, d’autres avec l’informatique classique.

Et même dans le premier cas, la compréhension de la mécanique quantique ne sera pas forcément nécessaire. Une fois les bases posées, « vous aurez besoin d’un développeur de modèles qui n’aura pas besoin de comprendre en détail l’informatique quantique, mais qui devra savoir décrire le problème et utiliser la meilleure option pour le résoudre », prédit Heike Riel d’IBM. « Le développeur de modèles n’a pas à s’embarrasser de connaissances quantiques poussées. », insiste-t-elle.

Mais l’explicabilité et la fiabilité, elles, resteront deux impératifs fortement intriqués à ces technologies.

Pour approfondir sur HPC