abangaboy - stock.adobe.com
Petite Histoire de l’informatique quantique
L’informatique quantique s’appuie sur des théories qui ont plus d’un siècle. Mais ses bases se sont réellement concrétisées dans les années 2000. Depuis, ses progrès ne cessent de s’accélérer. Voici les étapes clés d’une histoire passionnante qui permettent de mieux comprendre un domaine – pas si complexe – où la France est par ailleurs à la pointe, grâce à ses chercheurs.
L’informatique quantique a connu des avancées remarquables depuis l’exploration des premières applications théoriques de la physique quantique dans les années 1970. Cette technologie promet un bond spectaculaire dans notre capacité à comprendre le monde, à optimiser les processus et à développer de meilleurs systèmes d’intelligence artificielle et de Machine Learning. Dans le même temps, elle promet aussi, et malheureusement, de faciliter le piratage, en cassant les algorithmes de chiffrement à clé publique, un des fondements de l’économie numérique.
Quels sont les principes de base de l’informatique quantique ?
Les ordinateurs quantiques encodent et traitent l’information à l’aide d’unités d’information appelées « qubits », l’équivalent aux bits de l’informatique classique. Mais ils ne sont pas vraiment « équivalents ». La différence fondamentale réside dans le fait que les bits « classiques » ne peuvent exister que dans deux états (0 ou 1). Les qubits, eux, peuvent exister dans plusieurs états simultanément (0 et 1). Cette particularité quantique, appelée superposition, promet des traitements parallèles plus efficaces.
Des progrès considérables ont été accomplis pour relever les défis de l’informatique quantique au niveau matériel, algorithmique et de la correction d’erreurs. Le but est de rendre la technologie fiable, ou « tolérante aux pannes ».
Divers phénomènes physiques – supraconductivité, résonance magnétique nucléaire (RMN), photons, ions piégés, etc. – sont passés de quelques qubits dans les années 2000 à plus de mille aujourd’hui.
Les algorithmes quantiques, proposés pour la première fois au milieu des années 1990, sont passés à l’échelle et ont été adaptés à du matériel spécifique.
Les chercheurs découvrent également des moyens de réduire le coût de transformation des qubits « physiques » en qubits « logiques » (agglomération virtuelle de plusieurs qubits physiques) robustes et durables, nécessaires à la résolution de problèmes complexes.
Chronologie de l’histoire de l’informatique quantique
Les débuts de l’histoire : la mécanique quantique
Au début des années 1900, des scientifiques tentent d’expliquer les divergences expérimentales entre de nouvelles observations et ce que prédit la physique classique. Dans les années 1920, les chercheurs proposent de nouvelles théories sur la manière dont les particules, les ondes et l’énergie sont liées, suscitant des débats intenses et des découvertes considérables. C’est la mécanique quantique.
En 1959, un des plus importants physiciens de l’Histoire, Richard Feynman, évoqua la notion d’informatique quantique lors d’une conférence intitulée « There’s Plenty of Room at the Bottom ». L’essentiel de la discussion portait sur l’élargissement des limites des approches informatiques classiques grâce à des principes physiques différents.
« Lorsque nous atteignons le monde très, très petit - disons des circuits de sept atomes –, il se passe beaucoup de choses nouvelles qui représentent des possibilités de conception totalement inédites », entrevoyait-il. « À petite échelle, les atomes se comportent d’une manière qui n’a rien à voir avec ce qu’on observe à grande échelle, car ils obéissent aux lois de la mécanique quantique ».
Dans les années 1970, des recherches commencent sur les liens possibles entre la mécanique quantique et la théorie de l’information – l’étude mathématique du codage et de la transmission de l’information.
Années 1980 : du simulateur au processeur quantique universel
Mais il a fallu attendre une décennie pour que les scientifiques posent les bases théoriques de la construction d’ordinateurs quantiques.
En 1980, le physicien Paul Benioff soutient que l’architecture de la machine de Turing, utilisée dans les ordinateurs classiques, ne peut pas simuler fidèlement les phénomènes quantiques, contrairement à un ordinateur quantique.
En 1981, Richard Feynman donne une conférence au MIT intitulée « Simuler la physique avec des ordinateurs », dans laquelle il confirme que pour simuler les processus physiques quantiques il faudra nécessairement une informatique qui s’appuie sur des principes quantiques.
Cet exposé suscita un vif intérêt au sein de la communauté scientifique. En 1982, il publie un article portant le même titre décrivant les problèmes dans lesquels les ordinateurs quantiques pourraient exceller.
En 1985, David Deutsch, de l’Université d’Oxford, introduisit la notion « d’ordinateur quantique universel ». Ce concept permet de conceptualiser comment les ordinateurs quantiques pourraient évoluer, au-delà de la simulation, afin de traiter les problèmes que gère l’informatique classique en général (dont les calculs).
Cette notion « d’ordinateur quantique universel » inclut les concepts de portes logiques quantiques et de qubits. Elle établit aussi le cadre théorique des algorithmes et des processeurs quantiques.
Années 1990 : les premiers circuits quantiques
En 1994, Peter Shor, des laboratoires Bell, présente un algorithme quantique de factorisation des nombres entiers, connu depuis sous le nom d’algorithme de Shor.
Peter Shor suggéra une façon dont l’informatique quantique pourrait être capable de casser les algorithmes de chiffrement à clé publique (asymétrique), largement utilisés pour sécuriser l’autorisation, l’authentification et l’échange de clés privées. L’algorithme stimula la recherche sur l’implémentation d’ordinateurs quantiques et de nouveaux algorithmes de cryptographie post-quantique (PQC).
En 1995, Dave Wineland et Christopher Monroe, du NIST, démontrent la possibilité d’un circuit quantique simple à deux qubits. Parallèlement, Peter Shor et ses collaborateurs découvrent les premiers codes de correction d’erreurs quantiques – un moyen de surmonter les problèmes de bruit et de stabilité inhérents aux qubits.
Ces développements ont prouvé la faisabilité des éléments de base des ordinateurs quantiques évolutifs et tolérants aux pannes.
Puis, en 1996, Lov Grover, des laboratoires Bell, présente un algorithme qui utilise les principes quantiques afin d’accélérer les recherches dans des données non structurées. Cet algorithme permet également de réduire significativement le temps nécessaire pour résoudre certains problèmes mathématiques utilisés en cryptographie symétrique, en divisant ce temps par un facteur proportionnel à la racine carrée de la taille du problème. Dès lors, il est connu sous le nom d’algorithme de Grover.
Parallèlement, David DiVincenzo, d’IBM, formule les critères pratiques qu’il faut suivre pour construire un ordinateur quantique et pour la communication quantique – qui doit permettre de relier plusieurs dispositifs quantiques entre eux (ordinateurs quantiques, capteurs quantiques, etc.)
Ses cinq conditions sont :
- Qubits physiques évolutifs
- La capacité d’initialiser les qubits
- Longue durée de la cohérence quantique
- Portes quantiques universelles
- Une capacité de mesure du qubit
La connexion d’ordinateurs quantiques entre eux nécessite également deux conditions : la capacité de convertir les qubits stockés en qubits mobiles, et la capacité de maintenir l’intégrité des qubits pendant le transit.
En 1998, des chercheurs d’IBM exécutent l’algorithme de Grover sur deux qbits utilisant les principes de la RMN.
En 1999, des chercheurs du NEC développent des circuits supraconducteurs – qui conduisent l’électricité sans résistance lorsqu’ils sont refroidis à des températures extrêmement basses. Ils intègrent une structure particulière (appelée « jonction Josephson »), qui exploite les propriétés quantiques de ces matériaux très utiles pour les ordinateurs quantiques. Ces circuits ont été fabriqués à l’aide de techniques similaires à celles utilisées pour les puces électroniques classiques.
Années 2000 : plusieurs approches apparaissent pour faire des qubits
En 2000, Michael Nielsen et Isaac Chuang publient un ouvrage de référence, « Quantum Computation and Quantum Information », qui fit de l’information quantique une discipline à part entière.
Parallèlement, des chercheurs américains et allemands progressent dans le dimensionnement d’ordinateurs quantiques RMN à sept qubits capables d’utiliser l’algorithme de Shor pour des problèmes simples.
En 2003, le domaine commence à se diversifier lorsque des chercheurs démontrent qu’il était possible de faire des ordinateurs quantiques utilisant de nouveaux phénomènes physiques avec des ions piégés et des photons.
La recherche s’est alors élargie pour déterminer les avantages et les inconvénients de ces différentes approches technologiques.
Les laboratoires rivalisaient pour construire de meilleurs qubits et des circuits quantiques. En 2007, la société D-Wave Systems présente un dispositif de 28 qubits capable de résoudre des problèmes d’optimisation. Bien qu’il ne s’agisse pas d’un ordinateur quantique universel, il illustre comment des approches plus simples peuvent être dimensionnées plus facilement, pour certains types de problèmes.
Années 2010 : l’ère NISQ et la multiplication du nombre de qbits
En 2011, D-Wave commercialise D-Wave One, une machine de 128 qubits. C’est le premier ordinateur quantique commercial destiné à être utilisé en dehors de la recherche. Cette machine devait permettre d’accélérer certains problèmes d’optimisation et d’orienter la recherche sur les algorithmes de « recuit quantique » pour la simulation. Mais elle ne montra pas d’avantages en matière de coûts ou de performances, par rapport aux ordinateurs classiques.
En 2013, Google et la NASA créèrent le Quantum Artificial Intelligence Lab en commençant avec le D-Wave Two, de 512 qubits, alors le plus grand ordinateur quantique au monde.
Ce partenariat a permis d’étudier comment les ordinateurs quantiques pourraient être appliqués au Machine Learning, à la programmation et à l’exploration spatiale.
C’est en 2015 que le secteur de la cybersécurité commence à envisager sérieusement les risques liés aux ordinateurs quantiques en cryptographie. Michele Mosca publie un article dans lequel il met alors en lumière les risques liés à la protection des informations confidentielles sur de longues périodes. Il explique que si ces informations sont interceptées aujourd’hui, elles pourraient être décryptées à l’avenir, une fois que les ordinateurs quantiques seront suffisamment puissants pour briser les systèmes de cryptage actuels. Ce principe est depuis connu sous le nom de théorème de Mosca.
Michele Mosca prévoyait qu’il y avait une chance sur deux de casser le célèbre système de chiffrement Rivest-Shamir-Adleman (RSA) d’ici 2031. En 2017, les chercheurs de Microsoft estimèrent qu’un ordinateur quantique doté de 4 098 qubits logiques pourrait casser une clé de chiffrement RSA-2048.
En 2015 toujours, des chercheurs australiens construisent la première porte logique quantique à deux qubits en silicium en utilisant des procédés de production de puces semi-conductrices. Cette approche promettait une alternative viable pour dimensionner les ordinateurs quantiques de manière plus rentable.
Entre 2015 et 2017, le simulateur quantique de D-Wave passe de 1 000 à 2 000 qubits en 2017. En 2016, IBM rend accessible un ordinateur de 5 qubits dans le cloud. D’autres grands fournisseurs de services cloud, comme AWS et Microsoft, lancèrent alors rapidement des offres similaires de quantiques « as a service ».
En 2017, Intel et IBM étendent les approches supraconductrices à environ 50 qubits.
L’année suivante, John Preskill invente le terme « noisy intermediate-scale quantum » (NISQ) pour désigner les machines de moins de 1 000 qubits qui n’ont pas la capacité et la tolérance aux pannes nécessaires pour procurer un « avantage quantique » (également appelé parfois « suprématie quantique »).
L’état de l’art actuel est souvent décrit comme l’ère NISQ, et des algorithmes NISQ ont été développés pour rendre le calcul pratique sur les systèmes sujets aux erreurs.
En 2019, Google affirme avoir atteint l’avantage quantique en utilisant un ordinateur doté d’une puce supraconductrice de 53 qubits (baptisée Sycamore) pour résoudre un problème mathématique obscur. Mais l’affirmation fait encore débat.
L’enthousiasme a ainsi stimulé des programmes de recherche gouvernementaux de plusieurs milliards de dollars et des efforts de coordination aux États-Unis, en Europe et en Chine.
Années 2020 : vers les qubits logiques
En 2020, des chercheurs chinois présentent un simulateur quantique à base de photons pour résoudre un problème qui aurait pris des milliards d’années à une machine classique. L’année suivante, ils sortent un processeur supraconducteur de 66 qubits et un algorithme qui a permis de résoudre une variante plus complexe du problème résolu par Google en 2019.
Les constructeurs réalisent également des progrès considérables dans l’augmentation du nombre de qubits physiques. IBM atteint 127 qubits en 2021, 433 qubits en 2022 et plus de 1 000 qubits fin 2023.
De nombreuses startups issues d’universités et de géants établis continuèrent à progresser.
L’objectif revient alors à dépasser la simple mise à l’échelle des qubits physiques – souffrant de problèmes de bruit et de durées d’exécution limitées – pour passer à des qubits logiques qui résolvent ces limitations. Ces recherches couvrent l’amélioration de la qualité des qubits physiques, le développement de codes de correction d’erreur plus efficaces et de nouvelles approches de connexion.
En 2023, des chercheurs de la société QuEra et de l’université de Harvard présentent un ordinateur à 48 qubits logiques. Google trouve un moyen d’étendre la durée de la correction d’erreur pour supporter plus de 10 milliards de cycles sans erreur.
En 2025, après plus de 8 ans de recherche, Microsoft dévoile sa puce Majorana, basée sur des qubits « topologiques » censés être plus résistants que d’autres approches de qubits physiques.
Parallèlement, la communauté de la cybersécurité progresse dans l’élaboration d’une feuille de route pour la migration vers des algorithmes de chiffrement asymétriques résistants aux attaques quantiques. Fin 2024, le NIST sort les premières normes PQC et établit un calendrier pour la migration de tous les systèmes gouvernementaux américains vers les nouveaux algorithmes. Un an plus tard, en France, la gendarmerie se prépare à la même transition.
En 2025, les chercheurs continuent de faire progresser la distribution de clés de chiffrements. Les réseaux quantiques ne font pas transiter les clés elles-mêmes, mais ils utilisent des principes quantiques pour détecter les tentatives d’interception des clés de chiffrement symétriques.
Quelles sont les prochaines étapes du développement de l’informatique quantique ?
Des progrès considérables ont été réalisés dans le développement d’ordinateurs et d’algorithmes quantiques au cours des dernières décennies. Malgré ces avancées, la question de savoir quand et comment l’informatique quantique offrira des avantages clairs, par rapport aux approches informatiques classiques, fait l’objet d’un vaste débat (par exemple entre Bill Gate et Jensen Huang).
À court terme, les premiers avantages viendront probablement d’ordinateurs quantiques spécialisés, conçus pour résoudre des problèmes d’optimisation, de recherche et de simulation. Ces systèmes devraient être utiles dans des domaines comme l’optimisation de la chaîne d’approvisionnement, le développement d’algorithmes d’IA, la R&D sur les matériaux et la recherche (physique, pharmaceutique, etc.).
Le développement d’autres applications nécessitera des améliorations dans de nombreux domaines technologiques. Il faudra notamment améliorer la qualité et la durée des qubits physiques, réduire la surcharge des algorithmes de correction d’erreurs et développer des mémoires et des réseaux quantiques pour le stockage et le partage des qubits.
À plus long terme, l’accent se déplacera des qubits physiques vers les qubits logiques et vers le nombre de portes qui pourront être construites entre eux.
Par exemple, IBM est passé de 53 qubits physiques en 2019 à 1 092 qubits physiques en 2025, reliés par 5 000 portes. Sa feuille de route prévoit une progression modeste jusqu’à 2 000 qubits d’ici 2033… mais ils seront connectés par un milliard de portes.
La France en bonne place dans l’informatique quantique
Aux côtés d’IBM, de Google ou de Microsoft, plusieurs acteurs français ont réussi à se faire une place, notamment grâce à l’excellence de sa recherche universitaire.
Le prix Nobel de Physique, Alain Aspect a par exemple fondé Pasqal. Le prix Nobel 2025, Michel Devoret a aidé à lancer Alice&Bob (il a depuis rejoint Google).
Dans les processeurs photoniques, la startup Quandela multiplie les partenariats (TotalEnergies, MBDA, EDF, OVHcloud, etc.). Et C12 se positionne à l’avant-garde d’une technologie prometteuse à base de nanotubes en carbone.
Au fil des années, la France s’est par ailleurs construit un écosystème actif qui fait dire à certains, dont Octave Klaba, que « si la Silicon Valley est en Californie, la Quantum Valley est à Paris ».
