Académique Documents
Professionnel Documents
Culture Documents
Solution du TD N◦ 2
Exercice 1 :
∑
N ∑
M
H(X, Y ) = − P (xi , yj ) log2 P (xi , yj ) (1)
i=1 j=1
H(X, Y ) ≥ 0 (2)
∑
N ∑
M ∑
N
H(X, Y ) − H(X) − H(Y ) = − P (xi , yj ) log2 P (xi , yj ) + P (xi ) log2 P (xi )
i=1 j=1 i=1
∑
M
+ P (yj ) log2 P (yj )
j=1
∑
N ∑
M ∑
N ∑
M
= − P (xi , yj ) log2 P (xi , yj ) + P (xi , yj ) log2 P (xi )
i=1 j=1 i=1 j=1
∑
M ∑
N
+ P (xi , yj ) log2 P (yj )
j=1 i=1
Car on a :
∑
N ∑
M ∑
N ∑
M
P (xi , yj ) log2 P (xi ) = P (yj /xi )P (xi ) log2 P (xi )
i=1 j=1 i=1 j=1
∑
N ∑
M
= P (xi ) log2 P (xi ) P (yj /xi )
i=1 j=1
∑
N
= P (xi ) log2 P (xi )
i=1
1
Alors :
∑
N ∑
M
P (xi )P (yj )
H(X, Y ) − H(X) − H(Y ) = P (xi , yj ) log2
i=1 j=1
P (xi , yj )
{ }
1 ∑∑
N M
P (xi )P (yj )
≤ P (xi , yj ) −1
log 2 i=1 j=1 P (xi , yj )
1 ∑∑ 1 ∑∑
N M N M
≤ P (xi )P (yj ) − P (xi , yj )
log 2 i=1 j=1 log 2 i=1 j=1
≤ 0
D’où :
H(X, Y ) ≤ H(X) + H(Y ) (3)
Enfin de (2) et (3), on déduit la relation demandée.
2. L’égalité de la borne supérieure est vérifiée dans le cas où les deux sources sont indépendantes,
c’est à dire : P (xi , yj ) = P (xi )P (yj ). Donc :
Exercice 2 :
∑
3
H(X) = − P (X = xi ) log2 P (X = xi ) (5)
i=1
et pour calculer cette entropie il faut déterminer les valeurs des probabilités de X. Comme
∑
3
P (X = xi ) = P (X = xi , Y = yj )
j=1
= P (X = xi , Y = y1 ) + P (X = xi , Y = y2 ) + P (X = xi , Y = y3 ) (6)
Donc :
1 1
P (X = x1 ) = 0 + +0=
4 4
1 1 1
P (X = x2 ) = +0+ =
4 4 2
1 1 1
P (X = x3 ) = + +0=
8 8 4
Enfin,
H(X) = 1.5 Sh/symbole (7)
∑
3
H(Y ) = − P (Y = yj ) log2 P (Y = yj ) (8)
j=1
et,
1 1 3
P (Y = y1 ) = 0 + + =
4 8 8
1 1 3
P (Y = y2 ) = + 0 + =
4 8 8
2
1 1
P (Y = y3 ) = 0 + +0=
4 4
Donc :
H(Y ) = 1.5613 Sh/symbole (9)
∑
3
H(X/Y ) = P (Y = yj )H(X/Y = yj ) (10)
j=1
∑
3
H(X/Y = yj ) = − P (X = xi /Y = yj ) log2 P (X = xi /Y = yj ) (11)
i=1
Comme
P (X = xi , Y = yj )
P (X = xi /Y = yj ) = (12)
P (Y = yj )
Donc, pour Y = y1 :
P (X = x1 /Y = y1 ) = 0
1
4 2
P (X = x2 /Y = y1 ) = 3 =
8
3
1
8 1
P (X = x3 /Y = y1 ) = 3 =
8
3
Pour Y = y2 :
2
P (X = x1 /Y = y2 ) =
3
P (X = x2 /Y = y2 ) = 0
1
P (X = x3 /Y = y2 ) =
3
Pour Y = y3 :
P (X = x1 /Y = y3 ) = 0
P (X = x2 /Y = y3 ) = 1
P (X = x3 /Y = y3 ) = 0
D’où :
Enfin :
H(X/Y ) = 0.6887 Sh/symbole (14)
Pour le calcul de l’entropie conditionnelle de Y sachant X, H(Y /X), on suit les mêmes dé-
marches :
∑
3
H(Y /X) = P (X = xi )H(Y /X = xi ) (15)
i=1
3
où l’entropie de Y conditionnelle à X = xi est définie par :
∑
3
H(Y /X = xi ) = − P (Y = yj /X = xi ) log2 P (Y = yj /X = xi ) (16)
j=1
Pour X = x1 :
P (Y = y1 /X = x1 ) = 0
P (Y = y2 /X = x1 ) = 1
P (Y = y3 /X = x1 ) = 0
Pour X = x2 :
1
P (Y = y1 /X = x2 ) =
2
P (Y = y2 /X = x2 ) = 0
1
P (Y = y3 /X = x2 ) =
2
Pour X = x3 :
1
P (Y = y1 /X = x3 ) =
2
1
P (Y = y2 /X = x3 ) =
2
P (Y = y3 /X = x3 ) = 0
D’où :
Enfin :
H(Y /X) = 0.75 Sh/symbole (18)
L’entropie conjointe des deux variables X et Y est déterminée en utilisant soit la définition, soit
la propriété H(X, Y ) = H(X) + H(Y /X) = H(Y ) + H(X/Y ), par suite :
∑
3 ∑
3
P (X = xi , Y = yj )
I(X, Y ) = P (X = xi , Y = yj ) log2 (20)
i=1 j=1
P (X = xi )P (Y = yj )
ou bien exploiter directement la propriété I(X, Y ) = H(X) − H(X/Y ) = H(Y ) − H(Y /X),
donc :
I(X, Y ) = 0.8113 Sh/symbole (21)
4
Exercice 3 :
2. Pour calculer H(Y ), il faut d’abord déterminer les probabilités des sorties yj du canal binaire
symétrique. L’application du théorème de Bayes permet de résoudre se problème. Alors,
Les symboles de la sortie du canal sont équiprobables, l’entropie de la sortie est obtenue par
exploitation du théorème de la maximisation d’entropie :
Donc,
I(X, Y ) = 0.531 Sh/symbole
H(Y ) = 1 Sh/symbole
et,
p log2 p + (1 − p) log2 (1 − p) = −1
I(X, Y ) = 0
Dans le cas où p = 0.5, aucune information n’est transmise et une décision acceptable serait de
supprimer le réseau et de réaliser un tirage au sort au niveau du récepteur.
Dans un cas pareil, le canal de communication est dit inutile.
5
Exercice 4 :
On considère une source discrète sans mémoire qui possède un alphabet constitué de 4 symboles.
∑
4
H(S) = − P (si ) log2 P (si ) (27)
i=1
Exercice 5 :
6
1.2. On suppose que P (x1 ) = P (x2 ) = 0.5 et p = 0.2. En exploitant le théorème de Bayes,
nous pouvons écrire :
et
P (y3 ) = P (y1 ) = 0.4
∑
3
H(Y ) = − P (yj ) log2 P (yj ) (31)
j=1
P (y1 ) = (1 − p)α
P (y2 ) = pα + p(1 − α) = p
P (y3 ) = (1 − p)(1 − α)
Donc :
∑
2
H(Y /X) = P (X = xi )H(Y /X = xi )
i=1
= αH(Y /x1 ) + (1 − α)H(Y /x2 )
= −α(1 − p) log2 (1 − p) − αp log2 p
−(1 − α)p log2 p − (1 − α)(1 − p) log2 (1 − p)
= −p log2 p − (1 − p) log2 (1 − p) (33)
2.3. En utilisant la propriété I(X, Y ) = H(Y ) − H(Y /X) et les deux équations (32) et (33),
on retrouve l’expression de l’information mutuelle moyenne :