Note de veille

Recherche, sciences, techniques

Vers la suprématie quantique ?

Par

Le 23 octobre 2019, dans la revue Nature, l’entreprise Google a annoncé avoir atteint, en partenariat avec la NASA (National Aeronautics and Space Administration) et le Laboratoire national d’Oak Ridge (ORNL), le seuil de suprématie quantique désignant la capacité d’un calculateur quantique à mener un ou des calculs qu’aucun superordinateur classique n’est capable de simuler en un temps raisonnable. Censé mobiliser 54 qubits (unités d’information quantique), dont 53 seulement auraient fonctionné, le processeur Sycamore a produit un million de nombres aléatoires en 200 secondes. Or, selon Google, cette tâche aurait demandé 10 000 ans au plus puissant superordinateur classique. L’annonce a aussitôt provoqué de nombreuses discussions. L’ampleur de la prouesse a notamment été contestée par IBM, qui a déclaré pouvoir simuler la tâche en question en seulement deux jours et demi avec un algorithme spécifique. Mais qu’est-ce que la suprématie quantique et quels en sont les enjeux ?

Pourquoi parle-t-on de suprématie quantique ?

Le terme de suprématie quantique a été introduit en 2012, par John Preskill, chercheur à Caltech. Un des atouts de l’informatique quantique, en effet, est sa capacité à réduire la complexité de tâches, donc le temps de calcul nécessaire pour les traiter. Elle permettrait ainsi de traiter des problèmes impliquant une explosion combinatoire, donc un temps de calcul et / ou un espace mémoire inaccessibles à tout ordinateur classique. Le seuil théorique de la suprématie quantique est généralement fixé à 50 qubits (une capacité théorique de traiter parallèlement 250 opérations), même si ce nombre semble en réalité une convention : les informaticiens estiment qu’il est en pratique nécessaire de coordonner 70 à 100 qubits dotés d’une certaine structuration pour exploiter une telle puissance de calcul.

La question de la suprématie quantique est d’abord théorique. Selon Thomas Coudreau, expert du sujet, l’expression « avantage quantique » serait plus pertinente. D’une part, il est très difficile de prouver effectivement qu’un seuil de suprématie a été atteint (qu’aucun algorithme classique ne peut simuler le calcul accompli). D’autre part, l’avantage d’un calculateur sur une tâche particulière ne constitue qu’une étape : il s’agit encore d’obtenir un tel avantage sur une tâche jugée réellement utile et de l’exploiter. La performance de Google est importante et prouve qu’il est possible de faire fonctionner un calculateur quantique mobilisant plus de 50 qubits. Pour autant, passer d’un simple calculateur à un ordinateur quantique impliquerait de réaliser l’intrication de quelques milliers de qubits, seuil encore très lointain tant il semble difficile de maintenir l’intrication assez longtemps pour mener les calculs voulus. Les recherches pour cela concernent autant les matériaux que la correction spontanée des erreurs.

Augmenter les ordinateurs classiques par des applications quantiques

L’informatique quantique n’a pas vocation à remplacer l’informatique traditionnelle, mais à la surpasser dans certaines tâches bien définies. Diverses idées sont testées pour cela.

Certains prototypes entendent ainsi combiner des couches quantiques et des couches classiques. L’entreprise canadienne D-Wave propose un modèle de plus de 2 000 qubits (qui ne sont pas tous connectables entre eux) dont le fonctionnement est intermédiaire entre l’ordinateur universel programmable et les simulateurs. Il n’a cependant pas été démontré qu’une telle machine apportait une rupture significative avec les méthodes classiques. Autre voie explorée dans les laboratoires de Delft ou du NQIT (Networked Quantum Information Technologies) d’Oxford : relier par des fibres optiques des petits calculateurs quantiques, en leur permettant d’échanger de l’information grâce à des photons. Ian Walmsley, directeur du NQIT, envisage ainsi d’avoir, dans les cinq à dix ans, cinq nœuds de 50 qubits, contre deux de deux qubits aujourd’hui. Les simulateurs quantiques, enfin, n’utilisent pas les propriétés quantiques pour faire des calculs mais pour reproduire des effets naturels dans la matière : le Collège de France a contribué à la conception d’un tel dispositif pour simuler la surface d’une étoile à neutrons.

Les recherches concernent également la possibilité de faire évoluer la structure de base de l’information quantique. Les chercheurs s’intéressent dans ce but au concept de « qutrit », unité d’information quantique plus robuste et plus fiable que le qubit, qui relève d’une superposition de trois états quantiques orthogonaux.

Les grandes manœuvres continuent

Ces recherches et projets s’inscrivent dans des stratégies nationales et internationales de grande ampleur, qui impliquent des investissements lourds et mobilisent les grands groupes de la tech, les industriels traditionnels (en France Atos, mais aussi Airbus, BASF, EDF, Total), ainsi que des institutions ayant besoin de puissance de calcul (en France, le Commissariat à l’énergie atomique et aux énergies alternatives [CEA], le Centre national de la recherche scientifique, la Défense, Météo France). Le type de recherches à mener (en termes de matériaux autant que d’algorithmique), la lourdeur et la durée des cycles de développement semblent inaccessibles aux start-ups.

En 2018, le Conseil européen a débloqué une bourse de 14 millions d’euros pour trois équipes de Grenoble pour le développement d’un nouveau calculateur quantique. De même, le centre de recherche belge IMEC (Institut de micro-électronique et composants) et l’institut de recherche français CEA-Leti (Laboratoire d’électronique et de technologie de l’information) ont signé un protocole d’accord pour des collaborations dans les domaines de l’intelligence artificielle et de l’informatique quantique, dans une perspective industrielle. Aux États-Unis, un projet de loi signé la même année prévoit des investissements de 1,2 milliard de dollars US pour financer la recherche dans le domaine de l’informatique quantique sur une période initiale de cinq ans. Ce projet préconise la création d’un bureau national de coordination quantique, l’élaboration d’un plan stratégique quinquennal et la constitution d’un comité consultatif du quantique.

Une création de valeur potentiellement importante mais encore incertaine

La création de valeur potentielle pourrait être considérable. Selon le BCG, qui a réalisé une première typologie de l’écosystème d’informatique quantique, celle-ci pourrait à terme générer des gains de productivité et de revenus de plus de 450 milliards de dollars US par an, dont 35 à 75 milliards dans l’industrie pharmaceutique. Autres domaines concernés : les services financiers et les activités liées à la dynamique des fluides comme l’aéronautique ou l’automobile (qui, avec l’industrie pharmaceutique, devraient concentrer près de 40 % de la création de valeur dans les trois à cinq ans), ainsi que le transport, la logistique, l’énergie, ou la cryptographie. Le passage à l’échelle implique cependant le franchissement de seuils techniques difficiles à situer sur une échelle de temps conduisant à une croissance brutale.

Moins qu’une révolution à proprement parler, l’informatique quantique apparaît pour l’instant comme une nouvelle technologie prometteuse, qui entre peu à peu dans sa phase d’industrialisation et dont les usages sont amenés à se diversifier. Les promesses de percées plus profondes sont à considérer avec prudence, si l’on pense que 20 ans à peine se sont écoulés entre la mise en marche du premier ordinateur électronique en 1945 et les premiers ordinateurs de taille moyenne à transistors vers 1965. Conceptualisée il y a 40 ans par Richard Feynman, l’informatique quantique semble encore loin d’une telle maturité.

À lire également

Devenir membre

Cet article est en accès libre jusqu'au 19/01/2020. Devenez membre pour accéder à l'ensemble des productions de l'association.

Adhérer