On a enfin compris à quoi correspondait le volume quantique d’IBM

IBM a exprimé coup sur coup ses derniers exploits en informatique quantique avec des volumes quantiques puis des nombres de qubits. Deux notions pour un seul enjeu : l’écriture des algorithmes.

IBM a dévoilé plus tôt en septembre sa feuille de route pour l’ordinateur quantique : il saura construire fin 2023 un processeur quantique, le Condor, de 1121 qubits. Cela sonne beaucoup mieux que l’annonce précédente d’IBM qui disait avoir atteint un volume quantique de 64, sauf que les deux performances ne parlent pas du tout de la même chose.

Suite de l'article ci-dessous

« Les 1121 qubits du Condor seront des qubits physiques, les molécules d’aluminium – des transmons – auxquelles on envoie les impulsions qui correspondent aux instructions d’un algorithme. Plus il y a de qubits, plus on peut envoyer d’impulsions en parallèle et plus on peut écrire des algorithmes complexes. L’enjeu étant d’atteindre l’Avantage quantique, c’est-à-dire le seuil à partir duquel un processeur quantique devient plus performant qu’un processeur classique pour résoudre des problèmes aussi complexes », explique au MagIT Olivier Hess, le responsable des activités quantiques pour la France au sein d’IBM Q, la division d’IBM en charge de l’ordinateur quantique.

« Le problème est que l’algorithme ne peut fonctionner que pendant le laps de temps durant lequel les transmons restent dans un état superposé. Or, cette durée dépend d’une vingtaine de paramètres, parmi lesquels le nombre de qubits, mais aussi la nature de chaque impulsion. La performance du processeur quantique ne peut donc pas être mesurée que sur son nombre de qubits. C’est pourquoi nous avons imaginé le volume quantique : une mesure qui consiste à faire la moyenne de ces vingt paramètres et qui permet de mieux situer la performance du processeur. »

Reste que le volume quantique se calcule a posteriori. On ignore encore quel sera celui qu’atteindra le Condor. Tout comme on ignore encore celui des processeurs quantiques qu’IBM mettra au point d’ici là : l’Eagle à 127 qubits en 2021 et l’Osprey à 433 qubits en 2022. On ne sait d’ailleurs pas non plus encore quel est le volume quantique d’Hummingbird, le processeur quantique à 65 qubits qu’IBM a mis au point il y a quelques jours à peine. Il aura fallu attendre août dernier pour qu’IBM ait suffisamment d’éléments d’observation pour calculer que son processeur Falcon à 27 qubits, lancé un an auparavant, atteignait en définitive un volume quantique de 64.

Du volume quantique pour standardiser la mesure des performances…

À date, le volume quantique imaginé par IBM semble parti pour s’imposer comme un standard afin de mesurer la performance des processeurs quantiques. Les autres acteurs qui s’impliquent dans la mise au point de ce type de machines ne manifestent plus leur intention de trouver mieux.

Sauf qu’il est peut-être périlleux de s’en servir comme étalon pour mesurer les performances d’ordinateurs quantiques qui n’ont rien à voir les uns avec les autres. On a ainsi appris entretemps qu’Honeywell, qui se targuait en juin dernier d’être le premier à atteindre un volume quantique de 64, parlait en réalité d’une mesure effectuée sur un processeur quantique maison doté de seulement… 5 qubits.

On déduira que la technologie d’IBM, basée sur la supraconductivité des molécules d’aluminium quand elles sont cryogénisées dans une cuve de 3,5 m de haut, est plus efficace pour graver un grand nombre de qubits. Et que celle d’Honeywell, qui consiste à piéger des électrons dans un gaz en les bombardant avec un laser, serait meilleure pour les maintenir longtemps en opération. Mais ce n’est pas le problème. Le problème est qu’on se doute qu’un algorithme qui envoie peu d’instructions successives à un nombre élevé d’unités de calcul disposées en parallèle (le cas d’IBM) n’a pas grand-chose à voir avec un algorithme qui envoie un nombre élevé d’instructions successives à peu d’unités de calcul disposées en parallèle (le cas d’Honeywell).

… à la standardisation des algorithmes quantiques

Or, derrière la performance brute et la quête d’atteindre le fameux Avantage quantique, l’un des principaux enjeux économiques de l’ordinateur quantique est, justement, de définir comment il faudra en écrire les algorithmes.

« C’est la raison d’être de ma présence à Montpellier, à deux pas de l’université des sciences et technologies avec laquelle l’unité IBM Q collabore étroitement. Nous avons deux chantiers. Le premier est de travailler sur les cas d’usage qui se prêtent à un traitement quantique et sur la manière de programmer leurs algorithmes. Le second est de savoir comment nous allons former les programmeurs de ces algorithmes », indique Olivier Hess.

Olivier Hess s’enthousiasme à l’idée que ces efforts contribueront à faire de Montpellier le berceau du prochain écosystème de startups dédiées à l’informatique quantique. Cela ferait de la France l’un des principaux épicentres du secteur, les centres de recherche d’IBM Q à Watson, aux USA, et à Zurich, en Suisse, étant plutôt dédiés à la conception des processeurs eux-mêmes. Du moins si l’ordinateur quantique d’IBM s’impose. Car on ignore encore totalement si les connaissances algorithmiques dispensées à Montpellier seraient transposables sur la machine quantique d’Honeywell. Ni sur celles des autres architectures quantiques que le Français Atos a identifiées, pour commencer par vendre des accélérateurs quantiques aux supercalculateurs.

Trouver d’un coup la solution qui se combine le mieux à un problème

Reprenons. L’objectif de l’ordinateur quantique est de trouver plus rapidement la bonne solution à un problème non pas en évaluant une à une toutes les possibilités, ce que fait un ordinateur classique, mais en trouvant tout de suite celle qui se combine le mieux au problème. Cette faculté est théoriquement rendue possible par les propriétés de la physique quantique : à l’échelle microscopique, une particule peut-être dans tous ses états énergétiques à la fois (la « superposition quantique »), jusqu’à ce qu’on lui envoie une impulsion électromagnétique qui la gèle dans un état particulier (la « décohérence quantique »). Cet état est celui qui se combine le mieux avec l’impulsion électromagnétique reçue.

Pour transposer ce principe physique à l’informatique, les chercheurs ont eu l’idée d’utiliser les particules comme on utilise des transistors en électronique. En l’occurrence, il s’agit de les aligner avec une certaine topologie, de sorte que des particules, en se gelant dans un certain état selon l’algorithme, influencent la nature des impulsions envoyées ensuite à d’autres particules. Au final, toutes les particules sont gelées dans un certain état, qui correspond soit à 0 ou à 1, et l’ensemble indique en binaire le résultat de l’opération.

En informatique classique, les liaisons entre transistors sont physiquement gravées sur le silicium des processeurs. Elles dessinent des portes logiques (AND, OR, XOR, etc.) qui sont regroupées en circuits électroniques, là, pour effectuer une opération arithmétique, là, pour stocker une information dans un registre, là, pour comparer deux registres, là, pour sauter à un autre endroit du programme… Ces circuits électroniques correspondent aux instructions exécutables depuis un programme.
Attention, on parle ici d’instructions en assembleur, directement interprétables par le processeur, et qui ont été générées automatiquement lors de la compilation d’une application. De nos jours, cette application est écrite par un développeur dans un langage de plus haut niveau (Java, C, Python… voire depuis un environnement Low-code tout graphique) bien plus compréhensible pour un humain.

En informatique quantique, aucun circuit n’est gravé. « La seule chose que nous gravons, ce sont des transmons, c’est-à-dire un assemblage de particules qui va se comporter comme un atome d’aluminium, mais qui est plus gros qu’un atome d’aluminium afin de demeurer le plus longtemps possible dans un état superposé », explique Olivier Hess.

Programmer en quantique : plus FPGA que data science

« Notre savoir-faire actuel est véritablement de parvenir à disposer sur une surface 65 transmons, qui peuvent rester en état superposé pendant environ cent microsecondes et qui reçoivent pendant ce laps de temps une succession d’impulsions électromagnétiques à 5 GHz. C’est en améliorant nos techniques de cryogénisation et d’assemblage microscopique que nous comptons parvenir à disposer 1121 transmons en 2023, lesquels devraient, en théorie, rester en état superposé au moins autant de microsecondes », précise-t-il.

En somme, la tâche du développeur d’algorithmes quantiques a ceci d’ardu qu’il doit commencer par définir lui-même des liaisons entre les transmons, de sorte qu’ils se comportent avant tout comme des portes logiques. C’est-à-dire que l’expertise nécessaire est, à ce stade, plus celle d’un électronicien qui programme les circuits d’un FPGA, que celle d’un data scientist qui jongle avec des langages de haut niveau pour déterminer l’évolution la plus probable d’une action en bourse, l’un des objectifs de l’ordinateur quantique.

« Le développeur a une quinzaine d’instructions à sa disposition pour écrire ses algorithmes. Parmi ceux-ci, il y a celle qui met un transmon dans un état superposé au tout début de l’algorithme, celle qui synchronise l’état d’un transmon avec celui d’un autre (“l’intrication quantique”), ou encore celle qui assure la décohérence à la fin de l’algorithme », dit le responsable d’IBM.  

Le volume quantique mesure surtout la complexité possible des algorithmes

On notera que, contrairement à ce que laisse supposer la célèbre expérience de pensée du Chat de Schrödinger, qui illustre à elle seule la physique quantique, il serait ici possible d’envoyer successivement plusieurs impulsions électromagnétiques à un transmon superposé sans provoquer immédiatement son effondrement dans un état donné.

Cela dit, la quantité d’impulsions électromagnétiques successives est limitée : au-delà d’un certain nombre, le transmon s’effondrerait dans un état avant d’avoir atteint les 100 microsecondes. Ce nombre serait par ailleurs fonction de l’impulsion : des instructions useraient plus vite que d’autres les particules. Il faut aussi prendre en compte que, de toute façon, le dispositif qui véhicule les impulsions à 5 GHz jusqu’aux transmons n’est pas plus capable qu’un ordinateur classique d’envoyer un nouveau signal toutes les 0,0000000002 seconde (une seconde divisée par cinq milliards soit théoriquement 2000 impulsions électromagnétiques au maximum par transmon durant 100 microsecondes). La prise en compte de tous ces paramètres, conjugués au nombre de transmons disponibles, permet de calculer le volume quantique.

« J’invite tout le monde à tester gratuitement la mise au point des algorithmes en s’inscrivant sur le portail IBM Quantum Experience. Nous nous sommes efforcés de mettre en place des outils très graphiques qui représentent les qubits et la succession d’instructions qu’on leur envoie comme des portées de musique. C’est excessivement ludique », conclut Olivier Hess.

Pour approfondir sur HPC

Close