Académique Documents
Professionnel Documents
Culture Documents
INFORMATION ET CODAGE
CHAPITRE 1 : INFORMATION ET CODAGE (3 semaines)
I.THEORIE DE L’INFORMATION
Introduction [1]
- Elle affirme une communication sans erreur malgré des bruits perturbateurs affectant la
transmission.
sa dégradation.
Message
Le but d’un système de communication est de transmettre des informations entre 2 points avec le
Des messages différents portent la même information, le codage cherche le message avec les
meilleures propriétés.
➢ Le codage de canal : permet de reproduire la plus fidèlement possible cette séquence binaire
malgré le passage à travers un canal bruité (Détection- Correction d’erreur) d’où la « Fiabilité ».
communications.
Remarque : En général, on considère « Bruit Blanc » gaussien additif.
Exemple 1 :
1- Source avec mémoire : délivre des symboles dont chacun dépend du précédent.
→ Une source discrète X est une variable aléatoire (v.a) définie par :
Soit I(x) la quantité d’information apportée par le message x. I(x) est une fonction f de
1
probabilité , avec f croissante et f(1)=0, d’où I(x)= f (P(x)).
𝑃
- I(x)>0
- Si (et seulement si) les événements x et y sont indépendants I (x y) = I(x) + I(y) d’où :
1
Exemple 1 : Soit x une source binaire d’alphabet A=0,1 tel que : p(0)= et b=2.
4
1
❖ Pour le symbole 0 I(0)= -log2( 4 ) I(0)=2 bits.
1 𝟑
P(1)= 1-4 P(1)=𝟒 (∑𝒏𝟏 𝐏(𝐱𝐢) = 𝟏 (Condition de distribution)).
𝟑
❖ Pour le symbole 1 I(1)= -log2 (𝟒) I(1)=0.415 bits.
Exemple 2 :
1
Soit une source dont l’alphabet de sortie S= {a ,…,a }, a 16 éléments, avec P(ak)=
0 15 16
1
I(ak)= log2( )= log2(16)= 4 bits.
1/16
Source discrète d'information : suite de variables aléatoires discrètes X1, X2, … Xn.
Source discrète sans mémoire : la probabilité d'apparition d'un symbole ne dépend pas
précédents.
Source à débit contrôlable : source générant des messages comme suite à une commande
externe (Télégraphe,…).
Source à débit non contrôlable : source générant des messages avec un débit fixé,
Source discrète à contraintes fixes : certains symboles ne peuvent être utilisés qu'en des
Source discrète à contraintes probabilistes : source à mémoire qui peut générer des
symboles avec une probabilité qui dépend des symboles précédents (texte …)
𝑋1𝑛 𝑋1𝑛
l'instant n-1. Avec : 𝑝 ( ) = 𝑝( ).
𝑋1𝑛−1, 𝑋1𝑛−2 ,… , 𝑋1𝑛−1
L’entropie H(x) mesure la quantité moyenne d’information contenue dans un message. Elle mesure
1- Calcul de H(x) :
On a : p(0)=p, p(1)=1-p
H(x)= - ∑2𝑖=1 P(xi) log2 P(xi)= - P(0) log2P(0) - P(1) log2P(1)= - (P log2 P + (1-P) log2 (1-P)).
D’où : H(x)= - P log2 P - (1-P) log2 (1-P) …...(1) Entropie d’une source binaire.
2- Maximum de H(x) :
𝒅𝑯(𝒙)
=? (Avec la base b=2)
𝐝𝐩
d(𝑙𝑜𝑔𝑏 (p)) ln 𝑝 1 1
= (logb(p))’= ( )’= * ………………..(a)
𝑑𝑝 ln 𝑏 ln 𝑏 𝑝
𝒅𝑯(𝒙) ln (1−𝑝) 1 1
= (logb(1-p))’ =( )’= -
𝐝𝐩 𝑙𝑛 𝑏 1−𝑝 𝑙𝑛 𝑏
𝒅𝑯(𝒙) 1 1 1 1
On a : ln1=0, d’où : = -(𝑙𝑜𝑔2 p + p. − 𝑙𝑜𝑔2 (1 − 𝑝) − (1 − 𝑝) )
𝐝𝐩 𝑙𝑛2 𝑝 1−𝑝 𝑙𝑛2
ln (1−𝑝) 1 1
Et (logb(1-p))’=( )’= - …………….. (b)
𝑙𝑛 𝑏 1−𝑝 𝑙𝑛 𝑏
𝒅𝑯(𝒙) 𝑝
= -(log2(p)-log2(1-p))= -log2 ( ).
𝐝𝐩 1−𝑝
𝒅𝑯(𝒙) 𝑝 𝑝 𝑝 𝟏
=0 log2( )=0 ln ( )=0 =1 P=
𝐝𝐩 1−𝑝 1−𝑝 1−𝑝 𝟐
H(P)
Hmax(P)=H(P)=1
H2(P) P(0)=P
P(1)=1-P
(P)
probabilité P=P(x=0).
𝟏 𝟏 𝟏
- Bornée : Si X est un système simple à n symboles, alors : H(X) ≤ H(𝐧 , 𝐧 , … , 𝐧 )=𝐥𝐨𝐠 𝟐 (𝐧).
Exemple [5] : Démontrez que : 0 ≤ H(X) ≤ log2 Q pour une source d’alphabet {𝑥1 , 𝑥2 , … , 𝑥𝑄 }.
Preuve :
Limite inferieure :
1 1 1 1
0 ≤ P(𝑥𝑖 ) ≤ 1 𝑝(𝑥 ) ≥ 0 logb 𝑝(𝑥 ) ≥ 0 P(𝑥𝑖 )𝑙𝑜𝑔2 𝑝(𝑥 ) ≥ 0 (avec log2 𝑝 = - log2 P )
𝑖 𝑖 𝑖
𝑄 1 𝑄
D’où : ∑𝑖=1 P(𝑥𝑖 )𝑙𝑜𝑔2 𝑝(𝑥 ) ≥ 0 - ∑𝑖=1 P(𝑥𝑖 )𝑙𝑜𝑔2 P(𝑥𝑖 ) ≥ 0 H(x) ≥ 0 .
𝑖
Limite supérieure :
𝑞
a: ∑𝑸
𝒊=𝟏 𝐏(𝒙𝒊 )𝒍𝒐𝒈𝟐 𝑝 ≤ 0
𝑖
Intégralité de Gibbs.
𝑖
Preuve :
Faisons la démonstration pour le logarithme népérien, la généralisation peut se faire facilement pour logb,
on utilise : ln x ≤ x-1.
𝑞𝑖 𝑞
Nous avons : ln ≤ 𝑝𝑖 -1
𝑝𝑖 𝑖
𝑞𝑖 𝑞
𝑝𝑖 ln ≤ 𝑝𝑖 (𝑝𝑖 − 1 ) ≤ 𝑞𝑖 − 𝑝𝑖
𝑝𝑖 𝑖
𝑸 𝑞𝑖
D’où : ∑𝒊=𝟏 𝑝𝑖 ln ≤ ∑𝑸
𝒊=𝟏 𝑞𝑖 − 𝑝𝑖
𝑝𝑖
≤ ∑𝑸 𝑄
𝒊=𝟏 𝑞𝑖 − ∑𝑖=1 𝑝𝑖
≤1–1
Y=x-1
Ln x
1
uniforme). i=1,…, Q ; 𝑝𝑖 =
𝑄
𝑄 1 1 1 1
et H(x)= ∑𝑖=1 Pi 𝑙𝑜𝑔2 = ∑𝑄𝑖=1 𝑙𝑜𝑔2 𝑄 = 𝑙𝑜𝑔2 𝑄 ∑𝑄𝑖=1 1 𝐻(𝑋) = 𝑄 𝑙𝑜𝑔2 𝑄. 𝑄
𝑝𝑖 𝑄 𝑄
H(X) =𝒍𝒐𝒈𝟐 𝑸.
Le débit d’information d’une source (ou vitesse d’information) est définit par le produit de son
entropie (valeur moyenne de l’information/symbole) divisé par le nombre moyen de symbole par
seconde, ce qui équivaut à : D=H(X)/ (avec est la durée moyenne d’un symbole).
Le débit d'information d'une source est aussi donné par la relation suivante : D = *H(x)
La redondance correspond à « l’espace » utilisé mais non occupé pour transmettre certaines
l’utilisateur ne désire pas conserver, alors que les sommes de contrôle permettent d’ajouter une
redondance souhaitée pour les besoins du code correcteur lorsque l’utilisateur communique sur un
Si l’on convient que =1, alors Ht(X) et H(X) deviennent numériquement égales. Pour
indiquer l’écart entre l’entropie d’une source et sa valeur maximale possible (lorsque les
probabilités des symboles sont égales entre elles), on définit la redondance comme la différence
entre la valeur maximale possible de l’entropie d’une source et sa valeur réelle, qui sera donnée
= 1- H(X)/Hmax(X)
Supposons une probabilité P =1/N que l’image vue soit l’une particulaire des N possibles, la mesure
L’info nécessaire pour d’écrire un événement est d’autant plus élevée que cet événement est rare.
Exemple : Soit un ensemble de 256 boules, dont 255 blanches et 1 noire. Tirez une boule au hasard,
il y a deux cas possibles : soit vous tirez une boule noire, soit vous en tirez une blanche. Le système
a donc 2 états (événements possibles), leurs probabilités sont respectivement 1/256 et 255/256.
L’événement « tirage d’une boule noire » définit l’état ultérieur du système car il ne restera que
des boules blanches. Le « tirage d’une boule blanche », est plus probable, donc il apportera moins
d’information.
• Propriétés de I(X) :
- I(X) 0, I(X) =0 si l’événement est certain, I1+2 (X) = I1(X) + I2(X).
L’information nécessaire pour décrire un système de N états est obtenue en sommant les
1 1 1 1 1 1
Ha= - ( log2 + log2 ) = + = 1 (bits/symbole)
2 2 2 2 2 2
255 255 1 1
Hb= - . log2 ( )- log2 ( ) = 0.00565+0.03125 = 0.0369 (bits/symbole).
256 256 256 256
Pour des états équiprobables Pe=1/N, on retrouve bien la première expression donnée par :
𝟏 𝟏
H= - k ∑𝑵
𝒊=𝟏 𝒍𝒐𝒈𝟐 ( ) = 𝒌. 𝒍𝒐𝒈𝟐 𝑵.
𝑵 𝑵
Soit un message codé sur 4 lettres (les symboles A, B, C, D) dont les probabilités respectives sont :
1/2, 1/4, 1/8, 1/8. La source du message est un système à 4 états possibles (4 symboles) son entropie
1 1 3 3 7
H vaut : 𝐻 = − ∑𝑛𝑖=1 𝑝𝑒 𝑙𝑜𝑔2 𝑝𝑒 = 2 + 2 + 8 + 8 = 4 = 1.75
Pour transmettre des messages de cette source efficacement, il faut réduire le minimum le nombre
de bits par symbole. Dans le tableau suivant, on va voir deux exemples de codage, l’un a nombre
fixe de bits par symboles (deux), l’autre à nombre variables de bits par symbole (de 1 à 3).
Symboles A B C D Entropie H
-log2 Pe 1 2 3 3 H=7/4
Codage fixe 00 01 10 11
pour chaque symbole un nombre de bits égale à - log2 Pe. Ceci permet d’égaliser le nombre moyen de
bits par symbole à l’entropie de la source. Shannon a démontrer que : le nombre moyen de bits par symbole
Soit deux sources de même nombre d’état, mais de probabilités différentes, on va démontrer que
l’entropie d’une source est maximale quand ses états sont équiprobables.
Soit Hm l’entropie d’une source, calculée en supposant que ses N états sont équiprobables, donc
Soit H l’entropie de cette source, calculée en connaissant les probabilités individuelles de ses
Comme les Qi sont tous égaux : Hm-H =−𝑙𝑜𝑔2 𝑄 ∑𝑛𝑖=1 𝑄𝑖 + ∑𝑛𝑖=1 𝑃𝑖 𝑙𝑜𝑔2 𝑃𝑖
𝑃
On peut factoriser Hm-H : Hm-H =+ ∑𝑛𝑖=1 𝑃𝑖 𝑙𝑜𝑔2 (𝑄𝑖𝑖 )
Soit une source à N états de probabilités Pi, on appelle distance de Kullback-Lieber la valeur
𝑷
donnée par : K = ∑𝒏𝒊=𝟏 𝑷𝒊 𝒍𝒐𝒈𝟐 (𝑸𝒊𝒊 ).
K : Quantité d’information apportée par une source par la connaissance exacte de sa répartition de
probabilité erronée Qi. C’est une distance mathématique, car elle est toujours positive (ou nulle),
et relie deux points de coordonnées formées respectivement par les Qi et les Pi dans un espace à N
dimensions.
Démontrer que la distance de Kullback – Lieber est une valeur positive Qi et Pi.
Indice : Démonter d’abord que : ∑𝑛𝑖=1 𝑄𝑖 𝑙𝑜𝑔2 𝑄𝑖 ≤ ∑𝑛𝑖=1 𝑃𝑖 𝑙𝑜𝑔2 𝑃𝑖 , Qi et Pi, en définissant
𝑈𝑖
= ∑𝑛𝑖=1 𝑝𝑖 𝑙𝑜𝑔2 [𝑃𝑖 (1 + )]
𝑝𝑖
𝑈𝑖 𝑈𝑖
= ∑𝑛𝑖=1 𝑝𝑖 [ 𝑙𝑜𝑔2 𝑝𝑖 + 𝑙𝑜𝑔2 (1 + )]. On pose : =𝑋
𝑝𝑖 𝑝𝑖
𝑈𝑖
= ∑𝑛𝑖=1 𝑝𝑖 𝑙𝑜𝑔2 𝑝𝑖 + ∑𝑛𝑖=1 𝑝𝑖 [ 𝑙𝑜𝑔2 (1 + )]
𝑝𝑖
Or : 𝑙𝑜𝑔2 (1 + 𝑋) = ln(1 + 𝑋) /𝑙𝑛2 et ln (1+X) ≤ X pour tout X 𝑙𝑜𝑔2 (1 + 𝑋) ≤ 𝑋/𝑙𝑛2 pour tout X.
𝑈𝑖 𝑈𝑖
𝑝𝑖 𝑙𝑜𝑔2 (1 + ) ≤ 𝑃𝑖 𝑃𝑖 𝑙𝑛2
𝑝𝑖
𝑈𝑖 1
∑𝑛𝑖=1 𝑝𝑖 [ 𝑙𝑜𝑔2 (1 + )] ≤ (𝑙𝑛2 ) ∑𝑛𝑖=1 𝑈𝑖
𝑝𝑖
𝑈𝑖
∑𝑛𝑖=1 𝑝𝑖 [ 𝑙𝑜𝑔2 (1 + )] ≤0.
𝑝𝑖
Et en revenant à l’expression du départ cala implique que : ∑𝑛𝑖=1 𝑝𝑖 𝑙𝑜𝑔2 𝑄𝑖 ≤ ∑𝑛𝑖=1 𝑝𝑖 𝑙𝑜𝑔2 𝑝𝑖
𝒑
∑𝑛𝑖=1 𝑝𝑖 ( 𝑙𝑜𝑔2 𝑄𝑖 − 𝑙𝑜𝑔2 𝑝𝑖 ) ≤0. 𝐊 = ∑𝒏𝒊=𝟏 𝒑𝒊 𝒍𝒐𝒈𝟐 ( 𝑸𝒊 ) ≥ 𝟎
𝒊