L’informatique quantique promet de résoudre des problèmes qui sont aujourd’hui hors de portée des ordinateurs classiques. Pourtant, malgré des avancées spectaculaires ces dernières années, les machines quantiques actuelles restent limitées dans ce qu’elles peuvent réellement accomplir. La raison principale tient à un phénomène fondamental : le risque d’erreurs.
Pour comprendre pourquoi la correction d’erreurs est indispensable, et ce que l’on appelle le calcul quantique tolérant aux fautes, il faut revenir à la nature même de l’information quantique.
Pourquoi un qubit peut-il être considéré comme fragile ?
Dans un ordinateur classique, l’information est stockée dans des bits prenant la valeur 0 ou 1, généralement à l’aide de transistors conçus pour être extrêmement stables. En revanche, en informatique quantique, l’information est portée par des qubits, qui sont sensibles au « bruit ». Ils reposent en effet sur des systèmes physiques beaucoup plus fondamentaux : le spin d’un électron, des niveaux d’énergie atomiques, ou encore des états d’oscillation dans des circuits supraconducteurs.
Ces systèmes n’existent jamais de manière parfaitement isolée. Un électron, par exemple, interagit nécessairement avec son environnement : autres électrons, matière environnante, champs électromagnétiques, rayonnements cosmiques, etc. Il peut même arriver qu’un rayon gamma perturbe l’état d’un qubit, ce qui corrompt l’information stockée.
C’est donc cette sensibilité intrinsèque à l’environnement qui rend les qubits très vulnérables au bruit.
Un risque d’erreur élevé à maîtriser
A chaque opération réalisée sur un qubit, il existe une probabilité d’erreur non négligeable. Aujourd’hui, lorsqu’on applique une porte quantique sur un qubit, c’est-à-dire un opérateur amené à transformer le système quantique d’un état vers un autre, la probabilité d’erreur est typiquement de l’ordre de 10⁻³ à 10⁻⁴. Ainsi, après environ 1 000 à 10 000 opérations, la probabilité qu’au moins une erreur se produise devient proche de 1.
En pratique, cela signifie qu’après quelques milliers d’opérations, une erreur devient quasiment certaine. Or, les principaux algorithmes quantiques, comme ceux en cryptographie (algorithme de Shor) ou en recherche (algorithme de Grover), nécessitent des millions, voire des milliards d’opérations successives. Pour qu’ils fonctionnent, il faudrait donc des taux d’erreur de l’ordre de 10⁻⁹ à 10⁻¹².
Sans solution pour maîtriser ces erreurs, le calcul quantique resterait donc limité à des démonstrations expérimentales.
Le principe derrière la correction d’erreurs quantiques
La correction d’erreurs quantiques repose sur le principe suivant : ne plus confier l’information à un seul qubit. Au lieu d’encoder un calcul dans un qubit physique unique, on répartit l’information sur plusieurs qubits physiques afin de former ce que l’on appelle un qubit logique.
Grâce à des codes correcteurs d’erreurs quantiques, il devient possible de détecter les erreurs qui apparaissent sur les qubits physiques et de les corriger sans jamais mesurer directement l’information quantique elle-même. Collectivement, les qubits permettent de construire une information bien plus robuste.
Ce concept n’est pas nouveau, ni propre au calcul quantique en soi. L’informatique classique utilise depuis longtemps des mécanismes similaires, par exemple dans les mémoires, les communications ou les systèmes critiques. La différence tient à l’ampleur du problème : là où les composants classiques sont relativement stables, les qubits sont intrinsèquement fragiles.
C’est pourquoi, il est important de bien distinguer ces deux notions :
- Qubit physique : le qubit réel, implémenté dans le matériel, sensible au bruit.
- Qubit logique : une entité construite à partir de plusieurs qubits physiques et qui serait protégée par la correction d’erreurs.
Plus on utilise de qubits physiques pour un qubit logique, plus celui-ci devient fiable. En contrepartie, le coût matériel augmente fortement. Toute la difficulté du calcul quantique tolérant aux fautes consiste donc à trouver un équilibre entre robustesse, ressources matérielles et faisabilité industrielle.
La correction d’erreurs comme condition indispensable pour passer à l’échelle
On parle de calcul quantique tolérant aux fautes lorsqu’un système est capable de détecter et corriger ses propres erreurs tout en poursuivant un calcul complexe. C’est seulement à cette condition que les algorithmes quantiques, tels qu’ils sont décrits sur le papier, pourront un jour devenir des outils concrets pour l’industrie et la recherche.
Le chemin est encore long, mais les principes scientifiques sont désormais bien établis. La question n’est plus de savoir si la correction d’erreurs est nécessaire, mais comment la déployer efficacement à grande échelle.
Cet article pose les bases et les grands principes du calcul quantique tolérant aux fautes. Une fois ces fondations posées, d’autres questions émergent naturellement : où en est réellement l’état de l’art ? Quels sont les verrous technologiques encore ouverts ? Et comment les acteurs industriels se positionnent-ils concrètement sur ces enjeux ?