Definition

Informatique quantique

L'informatique quantique est un domaine d'étude visant à développer des technologies basées sur les principes de la théorie quantique. Cette théorie explique la nature et le comportement de l'énergie et de la matière au niveau quantique (atomique et subatomique).

Le développement d'un ordinateur quantique, s'il devenait possible, représenterait un bond en avant en termes de capacités de calcul bien plus important que le passage du boulier au supercalculateur moderne, avec des performances multipliées par un milliard voire plus. Un ordinateur de ce type, suivant les lois de la physique quantique, augmenterait sa puissance de traitement de manière phénoménale grâce à sa capacité à se trouver dans plusieurs états et à réaliser des tâches en utilisant simultanément toutes les permutations possibles.

Parmi les centres de recherche actuels en informatique quantique figurent notamment le MIT, IBM, l'université d'Oxford et le Los Alamos National Laboratory.

Les éléments essentiels de l'informatique quantique ont été définis par Paul Benioff, qui travaillait à Argonne National Labs, en 1981. Il a jeté les bases théoriques d'un ordinateur classique fonctionnant avec certains principes de mécanique quantique. Cependant, il est généralement admis que c'est David Deutsch, de l'université d'Oxford, qui a donné l'élan déterminant en faveur de la recherche en informatique quantique.

En 1984, au cours d'une conférence sur la théorie computationnelle, il a commencé à s'interroger sur la possibilité de mettre au point un ordinateur basé exclusivement sur des règles quantiques, publiant son article révolutionnaire quelques mois plus tard et déclenchant ainsi la course à l'exploitation de ses idées. Avant de nous pencher sur les conséquences de ses travaux, il peut être utile de rappeler les fondamentaux de l'univers quantique.

Théorie quantique

Le développement de la théorie quantique a commencé en 1900 par une présentation de Max Planck à la Société allemande de physique, dans laquelle il introduisit l'idée que l'énergie, à l'instar de la matière, existe en unités individuelles (qu'il baptisa « quanta »). Au cours des trente années qui ont suivi, de nombreux chercheurs ont développé cette théorie des quanta pour aboutir à la physique quantique dans sa version moderne.  

Eléments essentiels de la théorie quantique

  • L'énergie comme la matière se composent d'unités discrètes, plutôt que d'une onde continue.
  • Les particules élémentaires d'énergie et de matière peuvent se comporter, selon les conditions, comme des particules ou comme des ondes.
  • Leur mouvement est intrinsèquement aléatoire et donc, imprévisible.
  • La mesure simultanée de deux valeurs complémentaires, telles que la position et le mouvement d'une particule élémentaire, est inévitablement faussée, car plus une valeur est mesurée avec précision, plus la mesure de l'autre valeur est indéterminée.

Développements ultérieurs de la théorie quantique

Niels Bohr a proposé l'interprétation de Copenhague de la théorie quantique, qui affirme qu'une particule est fonction de la mesure qui en est faite (par exemple, une onde ou une particule) mais qu'on ne peut pas lui attribuer des propriétés particulières tant qu'on ne l'a pas mesurée. En bref, Bohr disait que la réalité objective n'existe pas. Il en découle un principe appelé superposition qui postule que, tant que nous ne connaissons pas l'état d'un objet donné, il revêt en réalité tous les états possibles en même temps, du moment que nous ne cherchons pas à le vérifier.

Pour illustrer cette théorie, nous pouvons utiliser l'analogie célèbre et quelque peu cruelle du chat de Schrödinger. Il s'agit de prendre un chat et de l'enfermer dans une boîte en plomb. A ce stade, il est indiscutable que le chat est vivant. On jette ensuite un flacon de cyanure dans la boîte, qui est alors scellée. Nous ne savons pas si le chat est vivant ou s'il est mort après avoir brisé le flacon. Dans l'ignorance, le chat est à la fois mort et vivant, selon la loi quantique, c'est-à-dire dans des états superposés. Ce n'est que lorsque nous ouvrons la boîte pour constater l'état réel du chat que cette superposition disparaît, car le chat doit nécessairement être vivant ou mort.

La deuxième interprétation de la théorie quantique est celle des multivers ou mondes multiples. Elle considère que du moment qu'un objet quelconque peut potentiellement se trouver dans n'importe quel état, l'univers de cet objet se divise en une série d'univers parallèles correspondant au nombre d'états possibles de l'objet, chacun de ces univers contenant un seul et unique état possible de cet objet. De plus, il existe un mécanisme d'interaction entre ces univers, qui permet à tous les états d'être accessibles d'une certaine manière et à tous les états possibles d'être influencés d'une manière ou d'une autre. Stephen Hawking et Richard Feynman figurent parmi les scientifiques ayant exprimé une préférence pour la théorie des mondes multiples.

Quel que soit l'argument retenu, le principe selon lequel, d'une certaine manière, une particule peut exister dans plusieurs états entraîne de profondes implications dans le domaine informatique.

Comparaison entre informatique classique et informatique quantique

L'informatique classique repose fondamentalement sur des règles édictées par l'algèbre de Boole, fonctionnant sur le principe des portes logiques à 7 modes (en général), bien qu'il soit possible de n'en utiliser que trois (AND, NOT et COPY). Les données doivent à tout moment être traitées dans un état binaire exclusif, qui est soit 0 (hors tension / faux), soit 1 (sous tension / vrai). Ces valeurs constituent des nombres binaires ou bits. Ainsi, les millions de transistors et condensateurs qui résident au coeur des ordinateurs ne peuvent être que dans un seul état à un moment donné. Même si, à l'heure actuelle, le temps nécessaire à chaque transistor ou condensateur pour passer d'un état à un autre se mesure en milliardièmes de seconde, la vitesse de changement d'état de ces éléments est nécessairement limitée. Plus les circuits fabriqués deviennent petits et rapides, plus nous nous rapprochons des limites physiques des matériaux et du seuil d'application des lois classiques de la physique. Au-delà, le monde quantique prend le relais, ouvrant des perspectives aussi vastes que les défis qu'il présente.

L'ordinateur quantique, lui, peut fonctionner avec une porte logique à deux modes : XOR et un mode que nous appellerons QO1 (la possibilité de transformer 0 en une superposition de 0 et 1, une fonction logique qui n'existe pas en informatique classique). Dans un ordinateur quantique, il est possible de faire intervenir un certain nombre de particules élémentaires telles que des électrons ou des photons (en pratique, des ions ont également été utilisés avec succès), leur charge ou leur polarisation agissant comme une représentation de 0 et/ou de 1. Chacune de ces particules est désignée sous le nom de bit quantique ou qubit, dont la nature et le comportement forment la base de l'informatique quantique. Les deux principaux aspects de la physique quantique sont les principes de la superposition et de l'intrication.

Superposition

Considérons un qubit comme un électron dans un champ magnétique. Le spin de l'électron peut être soit parallèle (état spin-up), soit opposé au champ (état spin-down). Le passage d'un état à l'autre s'effectue au moyen d'une impulsion d'énergie, émise par exemple par un laser ; supposons que nous utilisions 1 unité d'énergie laser. Mais que se passe-t-il si nous n'utilisons qu'une demi-unité d'énergie laser et que nous isolons complètement la particule de toute influence extérieure ? Selon les lois de la physique quantique, la particule adopte alors une superposition d'états, qui la fait se comporter comme si elle se trouvait simultanément dans les deux états. Chaque qubit utilisé pourrait ainsi présenter une superposition de 0 et de 1.

Le nombre de calculs qu'un ordinateur quantique pourrait entreprendre serait alors égal à 2^n, n désignant le nombre de qubits utilisés. Un ordinateur quantique composé de 500 qubits aurait la capacité d'effectuer 2^500 calculs en une seule étape. Ce nombre est vertigineux : 2^500 représente infiniment plus d'atomes que n'en contient l'univers connu (il s'agit d'un véritable traitement parallèle, alors que les ordinateurs actuels, même les prétendus processeurs parallèles, ne font toujours vraiment qu'une seule chose à la fois ; ils se mettent simplement à plusieurs pour la faire). Mais comment ces particules interagiraient-elles les unes avec les autres ? Eh bien, elles utiliseraient l'intrication quantique.

Intrication

Les particules (photons, électrons ou qubits) qui ont interagi à un moment donné conservent une sorte de connexion et peuvent être « intriquées » les unes avec les autres, par paires, dans un processus appelé corrélation. Si l'on connaît l'état de spin d'une particule intriquée (up ou down), on sait que le spin de l'autre membre de la paire a la valeur exactement opposée. Le plus étonnant, c'est que grâce au phénomène de superposition, la première particule ne présente pas un spin dans une direction déterminée avant d'être mesurée, mais se trouve simultanément dans un état spin-up et spin-down.

L'état de spin de la particule mesurée est décidé au moment de la mesure et communiqué à la particule corrélée, qui adopte donc au même moment la direction de spin opposée à celle de la particule mesurée. Il s'agit d'un phénomène réel (qu'Einstein qualifiait d'« action fantomatique à distance ») dont le mécanisme ne peut à ce jour s'expliquer par aucune théorie, mais qui doit simplement être considéré comme acquis. L'intrication quantique permet à des qubits séparés par des distances incroyables d'interagir instantanément (sans se limiter à la vitesse de la lumière). Quelle que soit la distance entre les particules corrélées, elles resteront intriquées tant qu'elles sont isolées. Ensemble, la superposition et l'intrication quantiques génèrent une puissance de calcul incroyablement accrue. Là où un registre de 2 bits dans un ordinateur banal peut stocker uniquement une des quatre configurations binaires possibles (00, 01, 10, or 11) à un moment donné, un registre de 2 qubits dans un ordinateur quantique pourra stocker les quatre nombres à la fois, puisque chaque qubit représente deux valeurs. En ajoutant des qubits, il est donc possible d'augmenter la capacité de façon exponentielle.

Programmation quantique

Au-delà de sa puissance brute, l'informatique quantique fascine sans doute plus encore par les perspectives radicalement nouvelles qu'elle ouvre en matière de programmation. Ainsi, un ordinateur quantique pourrait intégrer une séquence de programmation du genre « prendre toutes les superpositions de tous les calculs antérieurs » (instruction qui n'a aucun sens sur un ordinateur classique), permettant ainsi de résoudre de façon extrêmement rapide certains problèmes mathématiques, tels que la factorisation de grands nombres, dont nous présentons un exemple plus bas.

A ce jour, la programmation quantique a enregistré deux succès importants. Le premier est survenu en 1994 lorsque Peter Shor (aujourd'hui chez AT&T Labs) a développé un algorithme quantique capable de factoriser efficacement des grands nombres. Cet algorithme s'articule autour d'un système qui utilise la théorie des nombres pour estimer la périodicité d'une longue suite de nombres. L'autre avancée majeure est due à Lov Grover de Bell Labs. En 1996, il a mis au point un algorithme qui s'est avéré être le plus rapide possible pour les recherches dans des bases de données non structurées. Cet algorithme est si efficace qu'il nécessite seulement, en moyenne, environ racine carrée de N recherches (N étant le nombre total d'éléments) pour trouver le résultat souhaité, tandis qu'une recherche en informatique classique exige en moyenne N/2 recherches.

Problèmes - et quelques solutions

Tout cela semble très prometteur, mais il reste des obstacles énormes à surmonter. L'informatique quantique pose notamment les problèmes suivants :

  • Interférence - Lors de la phase de calcul d'une opération quantique, la plus petite perturbation d'un système quantique (par exemple, un photon égaré ou une onde de radiation électromagnétique) provoque l'effondrement du traitement ; un processus appelé décohérence. Un ordinateur quantique doit donc être entièrement isolé de toute interférence extérieure au cours de la phase de calcul. Des progrès ont été réalisés avec l'utilisation de qubits dans des champs magnétiques intenses, par le recours aux ions.
  • Correction d'erreurs - Etant donné l'extrême difficulté que pose l'isolement absolu d'un système quantique, des systèmes de correction d'erreurs ont été développés pour les calculs quantiques. Les qubits ne sont pas des bits numériques de données et ne peuvent donc pas être soumis à une correction d'erreurs conventionnelle (et très efficace), telle que la méthode de la triple redondance. Compte tenu de la nature de l'informatique quantique, la correction d'erreurs est absolument essentielle : une seule petite erreur dans un calcul et l'ensemble du traitement est invalidé. Des progrès considérables ont été réalisés dans ce domaine, avec le développement d'un algorithme de correction d'erreurs qui utilise 9 qubits (1 de calcul et 8 de correction). Plus récemment, IBM a réussi à utiliser uniquement un total de 5 qubits (1 de calcul et 4 de correction).
  • Observation des résultats - Ce problème est étroitement lié aux deux précédents, car la récupération des données en sortie après un calcul quantique comporte un très grand risque d'altérer les données. En prenant l'exemple d'un ordinateur quantique de 500 qubits, il existe 1 chance sur 2 500 d'observer le bon résultat si l'on parvient à quantifier la sortie. Il faut donc une méthode qui permette de s'assurer que, dès que les calculs sont faits et que l'observation a lieu, la valeur observée corresponde à la bonne réponse. Comment faire ? Grover y est parvenu avec son algorithme de recherche dans les bases de données. Cet algorithme repose sur la forme « ondulatoire » spécifique de la courbe de probabilité inhérente aux ordinateurs quantiques. Cette forme garantit qu'une fois tous les calculs effectués, lors de la mesure, les états quantiques seront l'objet d'une décohérence en la réponse exacte.

Malgré les nombreux problèmes à résoudre, les avancées des 15 dernières années, et en particulier des 3 dernières, permettent d'imaginer certaines applications de l'informatique quantique, sous une forme ou une autre, mais le débat fait rage quant à l'échéance d'une telle éventualité, entre d'ici moins de dix ans et plus d'un siècle. Quoi qu'il en soit, les perspectives offertes par cette technologie suscitent un formidable intérêt, secteurs public et privé confondus. Les applications militaires comprennent notamment le cassage de clés de chiffrement au moyen de recherches par force brute, tandis que les applications civiles vont de la modélisation de l'ADN à des analyses complexes en science des matériaux. C'est ce potentiel qui permet d'éliminer rapidement les obstacles à cette technologie, mais la question reste de savoir si tous les obstacles peuvent être surmontés, et dans quel délai.

 

Cette définition a été mise à jour en avril 2018

Pour approfondir sur Serveurs et Hardware

Close