Sciences et Actuariat
Bienvenue sur ce site
0 0 0 1 1 1 0 1 11 01 111 0000 111 00 111 0 1 0 1 0 1111 0110 111000 111 0 11 0 111100 1110 1100000 111 11 0 01 1 0 1 0 0111 011 0001 0111 0100
0 0 0 1 1 1 0 1 11 01 111 0000 111 00 111 0 1 0 1 0 1111 0110 111000 111 0 11 0 111100 1110 1100000 111 11 0 01 1 0 11 01 101 001 1011
0 0 0 1 1 1 0 1 11 01 111 0000 111 00 111 0 1 0 1 0 1111 0110 111000 111 0 11 0 111100 1110 1100000 111 11 0 01 1
0 0 0 1 1 1 0 1 11 01 111 0000 111 00 111 0 1 0 1 0 1111 0110 111000 111 0 11 0 111100 1110 1100000 111 11 0 01 1 10111 0110 100011
0 0 0 1 1 1 0 1 11 01 111 0000 111 00 111 0 1 0 1 0 1111 0110 111000 111 0 11 0 111100 1110 1100000 111 11 0 01 1
Définitions et premières propriétés.

Définitions :

Il y a 2 grandes familles de codes : les codes en blocs et les codes en treillis. Dans le premier cas le codage et le décodage d’un bloc ne dépendent uniquement des informations de ce bloc (linéaire, cyclique ou non). Dans le second cas, le codage et le décodage dépendent des informations d’autres blocs (les précédents transmis) (convulsifs, récursifs ou non). Si on code un message de bits en un message de bits (). Le code est dit systématique si les premiers bits du bloc codé sont égaux aux bits du message initial.
On ne s’intéressera qu’aux codes en bloc et systématiques. Par ailleurs, il paraît évident que plus l’écriture des « mots » est différente, plus le risque de confusion diminue. Pour minimiser le nombre d’octets ajoutés, on utilise un paramètre important des codes correcteurs : la « distance » - dite de Hamming - entre deux mots. Elle représente le nombre de bits sur lesquelles deux mots diffèrent. On obtient que le code est d’autant meilleur du point de vue de la capacité de correction que sa distance minimale est grande. Le rapport mesure le taux de correction du code.
Le nombre de symboles différents utilisés dans le codage étant fini, les spécialistes recourent aux mathématiques des « corps finis ».

Un code est caractérisé par ; est le nombres de bits du mot, le cardinal de (le code : l’ensemble de tous les messages possibles), est la distance minimale de Hamming. Soit le message, s’il y a eu moins de erreurs de transmissions ou de lecture, le message reçu vérifie . On peut alors retrouver à partir de si et seulement s’il existe un seul mot appartenant au code tel que la distance soit inférieure ou égale à . Autrement dit si toutes les boules fermées de centre les mots du codes et de rayon sont disjointes, alors le code est -correcteurs ; puisqu’il n’existe qu’un seul meilleur approximant du mot reçu appartenant au code. La limite est le cas des codes parfaits dans lesquels ces boules forment une partition.

 

Propriétés :

Ici désigne la somme dans N des bits de .
Pour qu’un code ait une capacité de détection – respectivement de correction - des erreurs d’ordre , il faut que sa distance de Hamming soit supérieure à – respectivement .
Par ailleurs, on peut détecter une erreur si , où représente la distance minimale du code.
Preuve :
On a alors , où désigne le "mot" reçu, sinon ce qui contredit la définition de .
De même, on peut corriger une erreur si .
Preuve :
Si on a avec et . De même .
D’où donc .

Hypothèse de travail :

On supposera dans toute la suite que les erreurs sur les canaux de transmissions sont relativement peu nombreuses ; par exemple on considère comme nulle la probabilité de 2 erreurs sur le même octet de donnée.
En effet :
On fait l’hypothèse d’un canal de transmission dans lequel on a la probabilité pour un bit donné d’être transformé.
Une erreur de poids , où les erreurs ont des places fixées, a une probabilité d’apparition égale à : . Puisque , cette probabilité décroît avec . Il y a mots de poids . L’événement « l’erreurs a un poids » a donc une probabilité égale à : .
On a donc .
D'où notre hypothèse compte tenu de la faible valeur de cette probabilité lorsque augmente...