Cet article fait partie de notre guide: Les enjeux de l’informatique quantique

L’ordinateur quantique est pour bientôt (dans quelques décennies)

BPIFrance organisait une journée sur le calcul quantique. L’occasion de revenir sur ce qui existe réellement en la matière.

Salle comble, participants debout, invités prestigieux : la journée qu’a consacrée BPIFrance à l’ordinateur quantique a connu un franc succès. Une belle performance pour un ordinateur qui n’existe pas.

Alors que les communiqués à coup de nombre de qubits de plus en plus élevé s’échelonnent à intervalles réguliers, cette journée a été l’occasion de rétablir quelques vérités. Pour rappel, alors que l’informatique classique s’appuie sur des valeurs discrètes (0 et 1), les qubits s’apparentent à des valeurs continues (0 et 1 simultanément).

Le principal problème est que les qubits produits réellement sont très bruyants. À l’heure actuelle, un ordinateur quantique de 100 qubits « parfaits » nécessiterait la production de 1 000 000 de qubits « réels ». On est encore loin du compte (moins d’une centaine aujourd’hui, que ce soit chez IBM ou Google, pour ne citer qu’eux).

Le bruit accompagnant la génération des qubits se traduit par des erreurs de calcul. « Le taux d’erreur est aujourd’hui de 1/1000. Autrement dit, un calculateur quantique ne peut faire que 1000 opérations avant de produire une erreur », explique Joseph Emerson, fondateur de Quantum Benchmark.

La bonne nouvelle est que, si l’on veut faire une similitude avec la loi de Moore, ce taux d’erreurs est divisé par 2 tous les 10 mois. La mauvaise nouvelle, alors que la puissance d’un ordinateur quantique varie exponentiellement avec le nombre n de qubits en 2n, le taux d’erreurs évolue en 24n… Bref, « Ce n’est pas uniquement le nombre de qubits qui compte. La durée pendant laquelle ils sont exploitables, la décohérence, la communication entre ces qubits sont des facteurs aussi importants », résume Heike Riel, physicienne chez IBM.

Pas d’avantage quantique pour l’instant

Pas étonnant dès lors que l’avantage quantique - parfois incorrectement dénommé suprématie quantique - n’ait pas été atteint. Et ce quelle que soit la définition prise pour cet avantage quantique : au sens strict, la résolution d’un problème irréalisable par un quelconque ordinateur classique, ni même au sens plus souple, à savoir l’exécution d’une tâche 1000 fois plus rapidement qu’un super calculateur (en particulier l’algorithme de Shor, sur lequel fantasment tous les experts en sécurité, car il remettrait en cause le chiffrement RSA).

Les propriétés physiques des qubits (réplicabilité, stabilité, connectivité, scalabilité…) dépendent de leurs moyens de production : à partir de matériaux supraconducteurs, d’anions, d’ions piégés… Sur ce point Alain Aspect, éminent chercheur et membre de l’Académie des Sciences, et Vern Brownwell, PDG de D-Wave, s’accordent : différentes implémentations hardware coexisteront.

Tout comme il n’existera pas d’ordinateur quantique unique, il n’existera pas de langage de programmation unique à court terme. Ce qui n’empêche pas la possibilité de s’entraîner dès maintenant sur les émulateurs quantiques, à savoir des supercalculateurs classiques qui modélisent le comportement des qubits. En Europe, Atos est bien placé avec Quantum Learning Machine, modélisant 41 qubits.

Les promesses des simulateurs quantiques

Mais pour Alain Aspect, la véritable nouveauté dans le domaine, ce sont les simulateurs quantiques, des systèmes physiques à base de qubits réels (donc bruyants), mais que l’on peut programmer pour étudier des phénomènes quantiques spécifiques.
De fait, Alain Aspect prévoit à plus court terme des processeurs quantiques spécialisés (comportant quelques qubits) pour accélérer les supercalculateurs actuels dans certaines tâches.

Pour approfondir sur Processeurs et composants

Close