Académique Documents
Professionnel Documents
Culture Documents
Informatique Et Télécoms
1
Plan du cours
La théorie de l’information a été créée par C. E. Shannon dans les années 40. Il
s’agit d’une théorie mathématique qui décrit les aspects les plus fondamentaux des
systèmes de communication. Elle consiste en l’élaboration et l’étude de modèles pour
la source et le canal qui utilisent différents outils comme les probabilités et les
automates finis.
➢ Un code est une règle pour convertir un morceau d'information sous une autre forme ou
représentation
Théorie de l’information
➢ Le canal peut être une ligne téléphonique, une liaison radio, un support magnétique ou
optique (Chapitre 3),
Théorie de l’information
➢ Canal
Sur de plus longues distances
❑ Si les quatre lettres sont équiprobables, la première méthode de codage est meilleure. Elle
nécessite en effet deux symboles par lettre en moyenne
❑ la longueur moyenne d’un symbole codé par la première méthode est toujours 2 tandis
que celle d’un symbole codé par la deuxième méthode est 1 /2 + 2 × 1/ 4 + 3 × 1/ 4 + 3
× 1 /8 = 1,75.
❑ Le deuxième codage réussit donc à coder quatre symboles avec moins de deux bits. Il a
réalisé une compression.
❑ Pour coder correctement une source, il est donc important de connaître son
comportement statistique.
Théorie de l’information
Nous allons établir un lien entre l’information fournie par une source et la distribution de
probabilité de la sortie de cette source
Théorie de l’information
❑ Si une lettre a a une probabilité p(a) d’être tirée, son information propre est définie par :
❑ Si une source émet n lettres équiprobables (ou encore avec une loi de probabilité
uniforme), son entropie est donc log2n.
Théorie de l’information
𝐻(𝐴)
▪ L’efficacité d’une source est donnée par : E=
𝑛ത
➢ Principe
Exemple:
Théorie de l’information
❑ Exemple de codage de source : La méthode de Fano
➢ Principe
Exemple
Théorie de l’information
❑ Le codage arithmétique (au même titre que le Codage de Huffman) est un code à
longueur variable, c'est-à-dire qu'un symbole de taille fixe (en bits) sera codé par un
nombre variable de bits, de préférence inférieur ou égal à sa taille originale. On ne modifie
donc pas la densité de symboles mais leur codage afin de réduire l'espace qu'ils occupent.
❑ Ce qui différencie le codage arithmétique des autres codages sources est qu'il code le
message par morceaux (théoriquement il peut coder un message entier de taille
quelconque mais dans la pratique on ne peut coder que des morceaux d'une quinzaine de
symboles en moyenne) et représente chacun de ces morceaux par un nombre(flottant) là
où Huffman code chaque symbole par un code précis.
❑ Le problème qui en résulte pour le codage Huffman est qu'un caractère ayant une
probabilité très forte d'apparition sera codé sur au moins un bit. Par exemple, si on
cherche à coder un caractère représenté à 90 %, la taille optimale du code du caractère
pourrait être moins de 1 bit alors que Huffman codera ce symbole sur au moins 1 bit.
C'est cette lacune que le codage arithmétique comble grâce à un algorithme proche
du codage par intervalle.
Théorie de l’information
La compression demande un tableau statistique qui comprend :
•La totalité des symboles que l'on rencontre dans le message à compresser.
•On enregistre la différence entre la borne supérieure (BS) et la borne inférieure (BI). On notera cette
valeur BB.
•La BS prend la valeur suivante : BI + BB * (BS_du_symbole_s)
•La BI prend la valeur suivante : BI + BB * (BI_du_symbole_s)
Théorie de l’information
Après l'ajout du premier symbole, l'intervalle aura les mêmes limites que l'intervalle du
symbole ajouté, puis chaque ajout fera converger ses limites. Lorsqu'un nombre suffisant de
symboles auront été stockés, l’algorithme renverra un nombre flottant se trouvant dans cet
intervalle. Ce nombre représente la totalité du fichier d'entrée.
Il faut aussi penser à ajouter un symbole qui servira uniquement à indiquer la fin du fichier,
sans quoi l’algorithme de décompression risque de tourner indéfiniment
Théorie de l’information
Décompression:
❑ Pour décompresser un fichier (représenté par un nombre n) il faut utiliser la même table qui a
été utilisée pour la compression puis effectuer les étapes suivantes jusqu'à la fin du fichier :
• n prend la valeur .
❑ Une fois le marqueur de fin atteint, l'algorithme s'arrête et le fichier est considéré comme
décompressé.
Exemple
On appliquera ici l’algorithme de compression arithmétique sur le texte « WIKI ». On
obtient dès lors le tableau suivant :
Théorie de l’information
Compression:
Par convention on initialise l'algorithme avec une borne inférieure valant 0 et une borne
supérieure valant 1. Il ne reste plus qu'à appliquer la suite d'opérations vue précédemment à
chaque ajout d'un caractère.
Donc, tout nombre compris dans intervalle ( [0,1640625;0,1796875[ ) sera une version compressée de
la chaîne de caractère « WIKI ». Le nombre 0,17 étant compris dans cet intervalle, il peut convenir
pour représenter « WIKI » compressé. À l'inverse, 0,16 ou 0,1796875 n'étant pas dans l'intervalle, ils
ne conviendront pas et entraineront des erreurs lors du décodage.
Théorie de l’information
Décompression
Supposons que l'on reçoive le message compressé 0,17, voici comment il serait décodé :
(On utilise évidemment le même tableau que précédemment pour connaitre les intervalles de
chaque lettre et leurs probabilités d'apparition).
◼ Le débit le plus élevé auquel on peut transmettre sur un canal, quel que
soit le message produit par la source, est appelé la capacité C du canal.
Théorie de l’information
❑ Premier Théorème de codage d’une variable aléatoire
◼ Le théorème de Shannon montre qu’on peut toujours trouver un
codage de source permettant de transmettre à la capacité du canal si le
débit Ds des symboles émis par la source et l’entropie de la source
vérifient
H(S)Ds C
◼ Exemple : On considère une source émettant les lettres A, B, C, D et E
avec les probabilités pA = 0,8 et pB = pC = pD = pE = 0,05. Les lettres
sont émises au débit Ds = 106 lettres/s. Le canal a une capacité C = 2
Mbit/s.
◼ Entropie de la source : H(S) = 1,12 sh
◼ H(S)Ds = 1,12.106 < 2.106
◼ Donc il existe un code permettant de transmettre ces lettres sur le canal.
où la base du logarithme coïncide avec celle utilisée pour la mesure de H(X) (entropie de X).
• Finalement, on déduit que pour tout codage d'une variable aléatoire X, il existe un code
uniquement déchiffrable qui vérifie :
Théorie de l’information
4-Introduction au codage de canal
❑ Enjeu du codage de canal
• Le codage de canal rajoute de l’information pour permettre au récepteur de
détecter ou corriger les erreurs éventuellement apparues.
• Comment le récepteur lit-il les données reçues ?
– Il échantillonne le signal physique reçu à intervalle de temps fixe, au
milieu du bit. Suivant le niveau de tension lu, il déduit la valeur du bit : 0
ou 1.
Horloge
Signal électrique 5V
reçu 0V
Message 0 1 1 0 1 0 0 1 1 1
reconstitué
Théorie de l’information
A l’échantillonnage, le récepteur
interprète le niveau de tension
comme un 0.
➢ Détection/correction d’erreur
28
Théorie de l’information
Conclusion