Académique Documents
Professionnel Documents
Culture Documents
TI Slides 7
TI Slides 7
Cours 7
Julien Lavauzelle
Université Paris 8
Master 1 ACC et CSSD – Théorie de l’Information
06/11/2020
Remarque :
Ce document est un support pour un cours donné en ligne.
Il n’est pas complet et peut contenir des typos.
Pour des notes de cours plus précises et complètes, se référer aux autres
documents disponible en ligne, comme le poly.
1. Retour sur l’interrogation
2. Poursuite de l’UE
4. TD codage canal
Plan
2. Poursuite de l’UE
4. TD codage canal
https://www.math.univ-paris13.fr/∼lavauzelle/teaching/2020-21/theorie-information.html
Note informative. Évalué sur 25 points, ramené sur 20 points sans proportionnalité.
Chaque question sur 2 points, exceptée la question 4.1 sur 3 points.
Souvent lu : H (X2 ) = log2 (48), car 48 valeurs possibles (toutes sauf celle de X1 )
=⇒ Non , car ces valeurs dépendent d’une variable aléatoire.
ou
I (X1 ; X2 ) = H (X2 ) − H (X2 | X1 ) .
Moins bien réussi : La variable X1 X2 est uniforme sur l’ensemble
I (X1 ; X2 ) = 2 log2 (49) − log2 (49 × 48) = log2 (49) − log2 (48)
= 2 log2 (7) − log2 (3) − 4 .
Pour les codes binaires suivants, déterminer en justifiant s’ils sont uniquement
décodables.
Question 1. Le code dont les mots sont :
Solution : Le code n’est pas uniquement décodable car ses longueurs ne vérifient pas
l’inégalité de Kraft :
1 1 1 1 1 33
+ + + + = > 1.
2 8 4 8 32 32
Souvent lu : le code n’est pas préfixe donc il n’est pas uniquement décodable.
Non, (préfixe =⇒ uniquement décodable) mais la réciproque n’est pas vraie.
Exemple :
{0, 01} .
Solution : Le code est uniquement décodable car ses mots vérifient la condition du pré-
fixe. Bien réussie.
Question 3. Le code B défini sur l’ensemble N des entiers naturels, tel que le mot associé à
l’entier n = ∑ki=0 ni 2i est :
B(n) = (n0 , n1 , . . . , nk ),
où k = blog2 (n)c si n ≥ 1 et k = 0 sinon.
Solution : Le code n’est pas uniquement décodable car le codage associé n’est pas injectif.
Par exemple, 101 est le mot associé aux messages (2, 1) et (1, 0, 1).
B+ : N+ → {0, 1}+
(n1 , . . . , nm ) 7→ B(n1 ) . . . B(nm )
est injective.
6/32 J. Lavauzelle – TI-7 – M1 – Théorie de l’Information
Exercice 4
Question 1. On considère une source suivant une loi dont la distribution est :
0.6
0.25
0.09
0.04 0.02
1
pi ≤ p
2 i−1
pour tout i ∈ {2, . . . , m}.
Question 2. Soit i ≥ 2. Comparer les valeurs de pi−1 , pi et ∑m
j=i+1 pj .
1 1 1
pj ≤ p ≤ 2 pj−2 ≤ · · · ≤ j−i pi .
2 j−1 2 2
Par conséquent,
m m m−i
1 1
∑ pj ≤ ∑ 2j−i
pi = pi ∑ j < pi .
2
j=i+1 j=i+1 j=1
p1
p2
...
...
pm−2
pm−1 pm
La longueur maximale de ses mots est donc m − 1, et leur longueur minimale est 1.
2. Poursuite de l’UE
4. TD codage canal
2. Poursuite de l’UE
4. TD codage canal
2. Poursuite de l’UE
4. TD codage canal
C’est restrictif !
Exemples :
– En français, certaines suites de lettres sont plus fréquentes que d’autres, même si elles
contiennent les mêmes lettres.
ES SE LE EL DE ED QU UQ
3,05% 1,32% 2,22% 1,42% 2,17% 1,01 % 1,11 % 0,02%
– D’ordinaire, les fichiers informatiques sont structurés, pour une lecture plus efficace,
ou pour simplifier l’interprétation du langage.
Le début d’un document html :
<!DOCTYPE html>
<html>
<head>
<meta charset="utf-8">
Conséquences :
1. on peut condenser les textes/fichiers si l’on souhaite les
stocker/envoyer,
2. pour cela il faut concevoir un autre modèle, où les réalisations de la
source sont inter-dépendantes.
Un processus stochastique discret est une suite de variables aléatoires (Xn )n∈N définies
sur un même espace probabilisé (Ω, p).
X0 → X1 → · · · → Xn−1 → Xn → Xn+1 → . . .
Interprétation :
Markovien :
« P(futur | présent, passé) = P(futur | présent) »
Stationnaire :
« les distributions jointes ne dépendent pas d’une translation dans le temps »
In = min{In−1 , Xn }
1
Xn = ((n − 1)Xn−1 + Xn )
n
A = {An } n’est ni markovien, ni stationnaire.
H ( X0 . . . Xn ) = H ( X0 ) + · · · + H ( Xn )
1
H (X ) := lim H (X0 X1 . . . Xn ) ,
n→ ∞ n+1
où H (X0 X1 . . . Xn ) est l’entropie de la loi conjointe des variables X0 , . . . , Xn .
Remarque : Pour une source sans mémoire, H (X ) est la limite de la moyenne des
entropies.
On a également
H (X ) = lim H (Xn | X0 , . . . , Xn−1 ) .
n→ ∞
0 1 2 0 1 2
0 1/8 1/8 0 0 1/2 1/2 0
P ( Y 1 Y 2 = y1 y2 ) = P(Y2 = y2 | Y1 = y1 ) =
1 1/8 1/4 1/8
1 1/4 1/2 1/4
2 0 1/8 1/8 2 0 1/2 1/2
Donc :
H (Y2 | Y1 = 0) = 1
H (Y2 | Y1 = 1) = 3/2
H (Y2 | Y1 = 2) = 1
Puis :
H (Y2 | Y1 ) = 1/4 + (1/2 × 3/2) + 1/4 = 5/4
Soit C = (Cn )n∈N une famille de codes telles que pour tout n ≥ 1, le code Cn encode
des séquences de n symboles. Alors, la famille C est dite universelle si
1
lim EX `(Cn (X0 , . . . , Xn )) = H (X )
n→ ∞ n
2. Poursuite de l’UE
4. TD codage canal
aababbabbaabbababbabaabbabaaabbabaaa
On peut la découper en :
a|ab|abb|abba|abbab|abbaba|abbabaa|abbabaaa
Puis on la transforme en :
0a|1b|2b|3a|4b|5a|6a|7a
où le nombre i fait référence au i-ème mot de la liste.
x = |b|ba|a|bb|ab|aa|aaa|bab|bbb|aaab|babb|
Question :
Ce codage est-il « bon » ?
Deux analyses :
– en pire cas : existe-t-il des chaînes de caractères dont la taille augmente
grossièrement ?
– en cas moyen : pour un processus stochasique donné, quelle est la longueur
moyenne du codage LZW ?
Objectif : trouver une chaîne de caractères x pour laquelle le codage LZW est
asymptotiquement le plus long.
=⇒ Faut-il que x soit divisée en mots petits ? en mots ressemblants et longs ?
Rappel : l’exemple typique donne un codage assez court
a|ab|abb|abba|abbab|abbaba|abbabaa|abbabaaa 7→ 0a|1b|2b|3a|4b|5a|6a|7a
car le n-ième mot, de longueur n, est codé avec ' log2 n bits.
Pour avoir un pire cas, il faut faire le contraire. Pour k ≥ 1, la chaîne
donne le mot
c(k) = [0]2 a | [0]2 b | [1]2 a | [1]2 b | [2]2 a | [2]2 b | [3]2 a | · · · · · · | [(k − 2)2k − 2]2 b
k k −1 k k
uk − 2uk−1 = ∑ i2i − 2 × ∑ i2i = ∑ i2i − ∑ (i − 1)2i = 2k+1 − 2
i=1 i=1 i=1 i=2
Puis, la quantité
uk − 2uk−1 + 2 · uk−1 − 2uk−2 + · · · + 2k−2 · u2 − 2u1
k −2 k −2
∑ 2j (uk−j − 2uk−j−1 ) = ∑ 2j (2k+1−j − 2) = (k − 1)2k+1 − 2k + 2 .
j=0 j=0
Donc
`(x(k) ) = uk = (k − 1)2k+1 + 2 .
k
w ( x(k ) ) = ∑ 2i = 2k+1 − 2 .
i=1
Enfin, chaque indice de préfixe peut être codé sur dlog w(x(k) )e = k + 1 bits, donc la
longueur du mot c(k) associé à x(k) est
k+1
`(c(k) ) = w(x(k) ) × (k + 1) = (`(x(k) ) + 2) − 2 .
k−1
Le ratio qui nous intéresse est le rapport entre la longueur du mot encodé et celle du mot
initial. Si l’on note n = `(x(k) ), on a alors :
`(c(k) )
2 2 2 1
= 1+ 1+ − = 1+o .
`(x(k) ) k−1 `(x(k) ) `(x(k) ) n→ ∞ log2 n
Proposition. Soit C(xn ) le codage LZW d’un message xn de longueur n, issu d’un pro-
cessus stochastique X stationnaire et ergodique. Alors on a
1
lim `(C(xn )) = H (X ) .
n→+∞ n
2. Poursuite de l’UE
4. TD codage canal
Le but de cet exercice est de calculer la capacité du canal à effacement d’entrée binaire
X = {0, 1} et de paramètre λ. On rappelle que ce canal est donné par la matrice de
transition
1−λ 0
λ λ .
0 1−λ
On note X l’entrée du canal et Y sa sortie.
H (Y ) = (1 − λ )h( α ) + h( λ ) .
1
H (Y | X ) = ∑ px ∑ py|x log2 p
x y y|x
| {z }
H (Y |X =x)
Question 2. L’entrée du canal est une variable aléatoire X binaire, dont on note la pro-
babilité pX (0) = α. Démontrer que
H (Y ) = (1 − λ )h( α ) + h( λ ) .
Puis :
1 1 1
H (Y ) = α(1 − λ) log2 + λ log2 + (1 − α)(1 − λ) log2
α (1 − λ ) λ (1 − α)(1 − λ)
1 1
= λ log2 + (α + (1 − α))(1 − λ) log2
λ (1 − λ )
1 1
+ α(1 − λ) log2 + (1 − α)(1 − λ) log2
α 1−α
= h( λ ) + (1 − λ )h( α ) .
C = 1−λ.