De la preuve de concept à l’ordinateur quantique à grande échelle
Après des années dominées par les démonstrations de principe, le calcul quantique entre dans une phase charnière. La question n’est plus seulement de manipuler quelques dizaines ou centaines de qubits, mais de comprendre comment construire des systèmes capables d’exécuter des calculs longs, complexes et fiables. Au cœur de cette transition se trouve la tolérance aux fautes.
La correction d’erreurs quantiques, dont nous avons expliqué le concept et l’importance dans notre précédent article, est désormais un sujet structurant des feuilles de route académiques et industrielles. Elle conditionne directement la capacité du calcul quantique à générer un avantage réel face au calcul classique.
Sans correction d’erreurs, pas de passage à l’échelle
Les taux d’erreur physiques observés aujourd’hui, typiquement compris entre 10⁻³ et 10⁻⁴ par porte, imposent une limite sévère sur le nombre d’opérations dans un circuit quantique exploitable. Dès que le nombre d’opérations augmente, la probabilité d’erreur devient rapidement dominante.
Or, les algorithmes quantiques à fort impact industriel nécessitent des taux d’erreur plus faibles compris entre 10⁻⁹ ou 10⁻¹². La construction de qubits logiques protégés par des codes correcteurs d’erreurs opérant sous leur seuil critique apparaît donc comme la seule trajectoire crédible.
Codes correcteurs : où en est l’état de l’art en 2025 ?
Aujourd’hui, plusieurs laboratoires ont démontré des premiers qubits logiques corrigés, encodés dans des codes de petite taille (par exemple une quinzaine de qubits physiques). Ces expériences montrent un léger gain sur le taux d’erreur, mais restent très loin des objectifs finaux.
Le surface code s’est imposé comme le candidat le plus mature à ce jour. Il repose sur une architecture bidimensionnelle avec des interactions locales entre qubits voisins, ce qui le rend particulièrement attractif d’un point de vue industriel, notamment pour les supraconducteurs.
Les color codes offrent des propriétés intéressantes, notamment en matière de portes transversales, mais au prix d’un décodage plus complexe. Ils apparaissent prometteurs pour certaines plateformes (ions piégés, atomes neutres), tout en posant des défis spécifiques à grande échelle.
En parallèle, les codes LDPC (Low Density Parity Check, à matrice de parité creuse) quantiques suscitent un intérêt croissant. Leur faible densité de contraintes et leur potentiel de décodage plus efficace en font des candidats sérieux à moyen et long terme, même si leur implémentation matérielle reste encore exploratoire.
Aucun code n’est parfait : il n’existe pas de code permettant d’implémenter toutes les portes logiques de manière transversale. Le défi consiste donc à maximiser les compromis entre robustesse, facilité de décodage et faisabilité matérielle.
Des défis encore largement ouverts
Malgré des progrès significatifs, plusieurs obstacles structurants subsistent :
- Le nombre de qubits physiques disponibles
Aujourd’hui, le nombre de qubits physiques reste limité. Or, encoder un qubit logique nécessite une forte redondance. Peu de qubits physiques implique encore moins de qubits logiques, ce qui limite fortement la taille des calculs possibles. - Le taux d’erreur physique
Le taux d’erreur physique est la probabilité qu’une erreur se produise lorsqu’on manipule un qubit. Il existe une limite clé appelée seuil de correction d’erreurs.Si le matériel est trop bruité, c’est-à-dire si le taux d’erreur est au-dessus de ce seuil, alors la correction d’erreurs introduit plus d’erreurs qu’elle n’en corrige, ce qui amplifie le bruit.Si le matériel est suffisamment précis, donc avec un taux d’erreur en dessous de ce seuil, alors la correction d’erreurs devient efficace. En utilisant de la redondance, elle permet de réduire progressivement les erreurs et d’obtenir des qubits beaucoup plus fiables.Les technologies actuelles sont proches de ce seuil, ce qui est encourageant, mais laisse peu de marge de manœuvre. La moindre dégradation du matériel peut faire repasser le système du mauvais côté du seuil et chaque amélioration du matériel simplifie le travail de correction d’erreur. - Les défis d’ingénierie
Encoder un qubit logique peut nécessiter plusieurs centaines de qubits physiques. Concevoir, connecter et contrôler de telles architectures pose d’immenses problèmes d’ingénierie (connectivité, contrôle, refroidissement, etc.). - Le décodage des erreurs
Lorsqu’on corrige les erreurs dans un ordinateur quantique, on ne peut pas simplement “regarder” l’état des qubits pour voir s’ils sont faux, car mesurer directement un qubit détruit l’information quantique qu’il contient. La correction d’erreurs doit donc procéder autrement.Elle repose alors sur la mesure de syndromes, des indicateurs indirects qui doivent être décodés pour identifier les erreurs survenues. Le décodage est un problème complexe, parfois à effectuer en temps réel, avec un aller-retour constant entre ordinateur quantique et ordinateur classique, à des vitesses extrêmement élevées.
Tendances industrielles et dynamiques globales
La correction d’erreurs n’est plus un sujet purement académique. Elle est aujourd’hui au cœur des stratégies des fabricants de QPU, startups, laboratoires industriels et programmes publics nationaux et européens.
Les roadmaps annoncées évoquent souvent des démonstrateurs corrigés à l’horizon 2027–2030. Ces projections restent ambitieuses et doivent être analysées avec prudence, mais elles témoignent d’un consensus : la valeur industrielle du quantique passe par la tolérance aux fautes.
Dans les faits, les démonstrations actuelles restent majoritairement centrées sur des mémoires quantiques corrigées, avec encore peu d’exemples de calculs logiques complets multi-qubits.
Le positionnement d’Eviden : outils, intégration et vision système
Dans cet écosystème en structuration, Eviden adopte une approche centrée sur l’outillage et l’intégration. Nos travaux sont guidés par le fait qu’il existe aujourd’hui un déficit d’outils permettant d’implémenter, de comparer et d’évaluer des codes correcteurs d’erreurs dans des environnements réalistes et technologiquement variés.
Nos axes prioritaires de recherche incluent :
- le développement d’émulateurs de matériel quantique bruité
- des outils permettant d’implémenter et caractériser différents codes correcteurs
- la séparation entre algorithmes quantiques et mécanismes de correction d’erreurs
- la standardisation des approches pour une intégration future sur différentes technologies
L’objectif est de permettre aux chercheurs et utilisateurs de tester des algorithmes quantiques dans des régimes corrigés, sans être experts de la correction d’erreurs.
Eviden est également impliqué dans plusieurs initiatives françaises et européennes, comme le projet France Hybrid Quantum Infrastructure (HQI), visant à intégrer les technologies quantiques dans des environnements HPC.
Vers une ingénierie du calcul quantique fiable
Le passage au calcul quantique tolérant aux fautes marque une transition profonde qui impose un changement d’échelle, mais aussi un changement de méthode.
À mesure que les architectures gagnent en maturité, la correction d’erreurs devient un enjeu transversal, à l’interface du matériel, du logiciel, de l’algorithmique et du calcul haute performance.
Dans ce contexte, aucune technologie, aucun code correcteur et aucun acteur ne peut prétendre, seul, définir la trajectoire gagnante. L’enjeu est collectif : construire des outils, des cadres et des méthodologies qui permettront d’évaluer, de comparer et de faire converger les approches, tout en restant agnostiques vis-à-vis des choix technologiques.