Retour aux actualités
Article suivant Article précédent

La correction d’erreurs #197

Articles Revue TELECOM

-

09/07/2020

par Filippo Miatto et Isabelle Zaquine dans la revue 197


# La correction d’erreurs classique  en bref           

Le calcul sur ordinateur nécessite un support physique : une information initiale est encodée sur un dispositif physique, celui-ci est modifié par application d’une série bien définie d’étapes appelée algorithme et la lecture de l’information du système modifié fournit le résultat du calcul encodé.

Quand on conçoit un algorithme, on suppose bien sûr que les modifications vont se produire exactement comme prévu en théorie mais la réalité est différente : les dispositifs physiques sont sujets à des défauts de fabrication, à des interactions parasites avec leur environnement, à des bruits électroniques de l’alimentation électrique, etc… Tous ces effets peuvent introduire des erreurs, qui modifient l’information de manière aléatoire pendant le calcul. On va rencontrer le même type de problèmes pour les télécommunications, où l’information est encodée sur des ondes radio qui se propagent dans l’air, sur des signaux électriques transmis dans des câbles ou encore sur des impulsions lumineuses dans des fibres optiques : l’information peut être modifiée par les interactions parasites qui se produisent dans ces différents canaux de transmission. On peut également citer les dispositifs de stockage de l’information où celle-ci est encodée sur un support magnétique. 

Dans ce cas, on s’intéressera plutôt à sa conservation au fil du temps.      
   

La solution classique pour lutter contre les erreurs ainsi introduites est la redondance.

Si on a plusieurs copies de l’information, on peut se permettre d’en perdre une partie. C’est pour cette même raison que l’on fait des sauvegardes sur le « nuage », que l’on a une roue de secours dans nos voitures ou encore que le panneau « STOP » comporte non seulement le mot « STOP » mais aussi une forme spécifique, … L’importance de la redondance est mise en évidence quand on comprime l’information. En effet, la compression supprime la redondance et les erreurs deviennent alors très néfastes.          

Prenons, par exemple, cette phrase française, comprimée en supprimant certaines voyelles. On peut encore comprendre le message, parce que la langue présente des redondances et peut donc être comprimée sans perdre le sens :    
Ls ordnturs quntqus sont trs pussnts

Mais prenons une deuxième phrase dans laquelle des erreurs ont été introduites après la compression (ici il s’agit de changements de lettres). On voit qu’il devient beaucoup plus difficile de la déchiffrer que dans l’exemple précédent :    
Ns qrrus pumnt vndr l phrse lltbl

On peut comparer au cas où les mêmes erreurs sont introduites dans la phrase non comprimée :    
Nes eqreurs peument vendre la phrise illitible

On voit ainsi que la redondance nous permet de ne pas perdre d’information, malgré les erreurs. C’est pourquoi, la quantité de redondance à introduire dépend du taux d’erreurs classique à corriger. Bien sûr, ces codes classiques correcteurs d’erreurs déploient tout un art mathématique mais dans le principe, il s’agit de trouver des manières efficaces d’inclure plusieurs fois la même information pour pouvoir se permettre d’en perdre une partie. Rien de plus !

           

# La correction d’erreurs quantique en bref           

Le traitement de l’information quantique ressemble à celui de l’information classique :  l’information est aussi encodée sur un système physique, un traitement modifie le système et on termine par la lecture du résultat. Mais l’information quantique en elle-même est différente de l’information classique.     

Tout d’abord, copier une information quantique inconnue pour introduire de la redondance, est interdit par le théorème d’impossibilité du clonage quantique.           

Ensuite, alors que les erreurs classiques sont d’un seul type (l’inversion de bit), il existe une infinité d’erreurs quantiques parce qu’un bit quantique (qubit) est une superposition continue de l’état « zéro » et de l’état « un », ce qui signifie que l’erreur peut être n’importe quel changement des coefficients de la superposition.           

Enfin, quand des systèmes quantiques interagissent avec leur environnement, ils peuvent devenir intriqués avec celui-ci et subir de la décohérence, c’est à dire perdre leurs propriétés quantiques et commencer à évoluer vers un comportement classique. On peut se représenter la décohérence comme une fuite de l’information quantique, qui se disperse dans l’environnement.           

Ces différences fondamentales, signifient que la correction d’erreurs quantique ne peut pas fonctionner comme la correction d’erreurs classique et qu’elle doit faire appel à des principes nouveaux.

 Voici comment on procède : on place le système quantique à protéger dans un sous-espace d’un plus grand système, qui comporte plus de qubits. L’information quantique est hébergée dans ce sous-espace protégé. En cas d’interaction parasite, l’objectif est que l’information quantique sortant du sous-espace protégé reste dans le grand système. On parle ainsi d’« erreur corrigeable » car l’information quantique est encore disponible : il suffit de la ramener dans le sous-espace protégé.           

On fait alors une mesure sur le système global pour trouver où est partie l’information (opération appelée détection de syndrome), ce qui nous permet de trouver comment ramener l’information dans le sous-espace protégé (cette opération constitue la correction d’erreurs proprement dite).           

La correction d’erreurs quantique consiste à répéter cette opération de détection de syndrome aussi souvent que possible et dès que l’on détecte que l’information a bougé, on la rapatrie dans son sous-espace protégé.

Pour comparer les corrections d’erreurs classiques et quantiques, on pourrait utiliser l’analogie suivante : imaginez que vous allez chercher un paquet de bonbons pour le rapporter chez vous. Le paquet est percé et vous perdez des bonbons sur la route. Comment faire ?          

La correction d’erreurs classiques consisterait à acheter plusieurs paquets, pour qu’il reste assez de bonbons, une fois rentré à la maison.           

La correction d’erreurs quantiques consisterait plutôt à mettre le paquet percé dans un plus grand paquet : à chaque fois que vous voyez un bonbon sortir, vous le récupérez dans le grand paquet pour le remettre dans le petit.

           

# Codes topologiques et le futur de la correction d’erreurs quantiques

Il est nécessaire d’aller plus loin. Les erreurs dans les systèmes quantiques sont trop fréquentes pour que l’on ait le temps de réaliser nos algorithmes quantiques. Il faut améliorer la correction d’erreurs pour obtenir un ordinateur quantique tolérant à l’erreur, c’est à dire qui puisse exécuter des algorithmes quantiques, quel que soit le nombre d’étapes. Pour le moment les meilleures stratégies de correction d’erreurs utilisent des codes topologiques, qui utilisent le positionnement géométrique des qubits les uns par rapport aux autres (habituellement sur une surface) pour faciliter la détection de syndrome. De plus, les codes topologiques nous permettent non seulement de protéger l’information mais aussi de réaliser les calculs directement sur l’information protégée, à condition de modifier la façon dont on fait la détection de syndrome. Comme le disait Andrew Steane [1] : « Les ordinateurs quantiques sont des dispositifs qui réalisent de la correction d’erreurs. Le calcul est accessoire ».  


Les chercheurs travaillent aussi à améliorer les qubits pour réduire les possibilités d’erreurs. Cela signifie explorer des directions complètement différentes (faire des qubits à partir d’ions, de photons ou de matériaux supraconducteurs, …) et mettre en œuvre les conditions qui permettent de mieux isoler l’information quantique de l’environnement (meilleur vide, températures plus basses, …).          

Pour mesurer les progrès, on utilise le théorème du seuil, qui donne le seuil de bruit sous lequel le calcul quantique tolérant à l’erreur est possible. On essaie de faire monter le seuil (de tolérer plus de bruit) avec de meilleurs codes correcteurs et en même temps de faire baisser le niveau de bruit en produisant de meilleurs qubits.           

On est encore loin de l’ordinateur quantique tolérant à l’erreur mais beaucoup de chercheurs travaillent sur ces deux aspects complémentaires. En repoussant les limites chacun de son côté, on peut espérer qu’ils se retrouveront un jour au seuil.

       

Référence                   

1 Andrew Martin Steane est professeur de physique à l’Université d’Oxford. Il est également membre de l’Exeter College d’Oxford. Ses principaux travaux, à ce jour, portent sur la correction d’erreurs dans le traitement de l’information quantique, y compris les codes Steane. Il a reçu la médaille et le prix Maxwell de l’Institut de physique en 2000.

                                                                                  

À retenir

La redondance d’information permet la correction d’erreurs classique.           

Elle est impossible avec l’information quantique.           

En information quantique on intègre le système quantique dans lequel l’information est encodée dans un système plus grand qui fait écran pour éviter les fuites d’information vers l’environnement. La correction d’erreurs consiste à récupérer l’information qui a fui vers le système écran et à la restituer à son système initial.           

Les recherches consistent à protéger les qubits par des codes de plus en plus performants mais aussi à concevoir des qubits qui présentent naturellement moins de fuites vers l’environnement.

                    

Isabelle Zaquine           

Professeur à Télécom Paris, responsable de l’équipe « Information Quantique et Applications ». Sa recherche expérimentale porte sur l’étude et l’optimisation de sources de paires de photons fibrées et plus récemment sur le calcul quantique optique utilisant des composants telecom.

 Filippo Miatto          

Maître de Conférences à Télécom Paris, dans l’équipe « Information Quantique et Applications ». Il développe des outils pour modéliser et optimiser les circuits photoniques quantiques à l’aide du Machine Learning et de l’IA.

                     

retour au sommaire

Abonné.e à la revue ?
Lis la revue en mode liseuse


113 vues Visites

J'aime

Commentaires0

Veuillez vous connecter pour lire ou ajouter un commentaire

Articles suggérés

Articles Revue TELECOM

Bataille pour le contrôle de l’industrie des télécoms en Afrique # 198

photo de profil d'un membre

Rédaction Revue TELECOM

28 octobre

Articles Revue TELECOM

Pour une communication publique sans stéréotype de sexe # 198

photo de profil d'un membre

Rédaction Revue TELECOM

28 octobre

Articles Revue TELECOM

Sexisme dans l’espace public : conquérir le sentiment de légitimité par le chahut-cancan # 198

photo de profil d'un membre

Rédaction Revue TELECOM

28 octobre