L’informatique est un outil irremplaçable dans la plupart des activités, mais la croissance de la puissance de calcul des ordinateurs va plafonner, la miniaturisation des transistors, dont la dimension est proche de celle des atomes, devenant impossible [1]. Il faut donc trouver une alternative à l’informatique classique. Celle-ci manipule des données, des bits de valeur 0 ou 1 ; or, en physique quantique, si un « objet » existe dans deux états (l’aimantation d’un électron, parallèle ou antiparallèle à un champ magnétique est associée aux états 0 ou 1), il peut être aussi dans une superposition de ces états appelée « qubit » (quantum bit). L’information portée par deux qubits étant distribuée sur ceux-ci, ils restent corrélés même à distance, c’est le principe d’intrication. Avec des qubits (des photons, des électrons, des ions), on a une capacité exponentielle d’opérer sur des données (avec 3 qubits on a 23 = 8 états possibles, et 1024 avec 10…). Ces principes sont à la base de l’informatique quantique dont les débuts datent des années 1990 ; celle-ci permettrait d’effectuer des calculs complexes rapidement, en manipulant un grand nombre de données : crypter des messages et casser des codes (en factorisant en nombres premiers un nombre avec des dizaines de chiffres), simuler des phénomènes chimiques et physiques (aider la conception de médicaments), prévoir des phénomènes météorologiques…
Il est nécessaire de résoudre trois problèmes : réaliser un support pour les qubits, conserver leur cohérence d’ensemble, disposer d’algorithmes pour des calculs [2]. Il existe plusieursalgorithmes performants, dont celui de Shor [3]. Sur les deux autres fronts, les avancées ont été plus lentes. Après la mise en œuvre d’un premier ordinateur quantique, en 2007, par la société canadienne D-Wave, dont les performances n’ont pas été explicitées, Google a annoncé, en 2019, avoir démontré la «...