Académique Documents
Professionnel Documents
Culture Documents
Introduction
Premières tentatives de définition dans les années 1920 :
Nyquist (Communication).
Fisher (Statistique).
9 Déterminer les limites imposées par les lois de la nature lorsque l’on
doit transmettre ou stocker le contenu d’une source (l’information).
9 Proposer des dispositifs permettant d’atteindre ou d’approcher ces
limites.
Elimination des
redondances de la Objectif : Protection contre les
source erreurs dues à la transmission
sur le canal
Source Codage de source Codage du canal
C
A
N
A
L
Mots source
restitués Décodage de source Décodage du canal
h ( E ∩ F ) = h ( E ) + h ( F / E ) ∀ (E, F ) ∈ T 2
P ( E, F )
= h(F ) + h(E / F ) Preuve : P ( F / E ) =
P(E)
Si E et F sont indépendants : h ( E ∩ F ) = h ( E ) + h ( F )
L’information apportée par F sur E est la diminution de l’incertitude sur E lorsque F est réalisé.
I F →E = h ( E ) − h ( E / F )
= h ( F ) − h ( F / E ) = I E→F
h ( E , F ) = h ( E ) + h ( F ) − I ( E; F )
h(E) I(E;F)
h(F)
Diagramme de Venn :
Soit X, une VA à valeur dans {x1, x2, … , xn} tel que pi=P(X=xi).
L’entropie de X, est la moyenne des incertitudes de X sur les événements xi:
n n
H ( X ) = −∑ pi log ( pi ) = ∑ pi h ( xi )
i =1 i =1
Remarque : Exprimée en Shannons (sh), H(X) représente le nombre moyen de bits pour la
codification binaire des différentes réalisations de X.
Exemple :
On extrait au hasard une carte d’un jeu de 32 cartes. Chaque carte a une valeur qui lui est
propre, caractérisée par la VA X (les valeurs prises par X ne sont pas fournies car elles
n’interviennent pas dans le calcul de H(X)…). Chaque carte a la même probabilité d’être
choisie.
pi=1/32 ⇒ H(x) = - 32* pi log pi = -32 * 1/32 * log 1/32 = log 32 = log2 32 = 5sh
Lemme :
n
qi
Soit (p1, p2, … , pn) et (q1, q2, … , qn) deux lois de probabilité, alors : ∑ pi log ≤0
i =1 pi
Propriété 1 :
L’ entropie d’une VA X à n valeurs possibles est maximum lorsque x~U[…] et vaut log(n).
L’incertitude sur X est plus grande si toutes les valeurs possibles ont la même probabilité d’arriver.
Propriété 3 :
L’ entropie est une fonction ∩ convexe de (p1, p2, … , pn).
Soit X et Y , deux VA discrètes à valeur dans {x1, x2, … , xn}et {y1, y2, … , yn}. Si on désigne la loi du
couple (X,Y) par : pij = P(X=xi , Y=yj), on peut alors définir de nouvelles grandeurs caractérisant d’un
couple de variables :
Entropies conditionnelles :
( )
n
H ( X / Y = y j ) = −∑ P ( X = xi / Y = y j ) log P ( X = xi / Y = y j )
i =1
Propriétés :
9 L’information mutuelle moyenne I(X,Y) est toujours positive (contrairement à l’information
mutuelle entre deux événements IE→F qui est négative lorsque la réalisation de l’un des
événements rend l’autre moins probable).
9 H ( X ) + H (Y ) = H ( X , Y ) + I ( X , Y )
9 H ( X , Y ) = H ( X ) + H (Y / X ) = H (Y ) + H ( X / Y )
H(X)
H(Y)
H(X/Y) I(X;Y)
H(Y/X)
Diagramme de Venn :
Laurent BOUILLAUT Théorie de l’Information – Chapitre 1 – Mesure de l’ Information 8
5. Information mutuelle conditionnelle.
Information mutuelle entre X et Y, conditionnellement à l’événement Z =z :
I ( X ;Y / Z = z ) = H ( X / Z = z ) − H ( X / Y , Z = z )
I ( X ; Y / Z ) = I ( X ; Y / Z = z ) .P ( Z = z )
= H ( X / Z ) − H ( X /Y,Z )
= H (Y / Z ) − H (Y / X , Z )
Propriété : I ( X ;(Y , Z ) ) = I ( X ; Y ) + I ( X ; Z / Y )
Exercice 1
On considère un jeu de 32 cartes et une main de 4 cartes. Soient les événements suivants :
E1={La main ne contient aucune carte inférieure au valet}
E2={La main ne contient pas de figure}
E3={La main contient quatre cartes identiques (de même nom)}
E4={La main contient les quatre as}
1. Calculer l’incertitude (ou self-information) associée à chacun de ces événements ainsi que les
informations mutuelles : I(E1;E2) et I(E1;E3).
Exercice 2
1. Calculer l’information apportée par la connaissance du premier bit reçu (‘’0’’) sur l’événement
{x1 a été émis}.
2. Calculer l’information apportée par la connaissance du second bit reçu (‘’0’’) sur l’événement {x1
a été émis} conditionnellement à la connaissance du premier bit reçu (‘’0‘’). Que constate-t-on?
3. Que peut-on déduire quant à l’information apportée par la connaissance du troisième (resp.
quatrième) bit reçu (‘’0’’) sur l’événement {x1 a été émis} conditionnellement à la connaissance
des deux premiers (resp. des trois premiers) bits reçus (‘’0’’)?
Exercice 3
On note X=1 (resp. X=0) l’événement désignant l’immobilisation d’une bille de jeu de roulette sur
une case rouge (resp. noire). La roulette étant parfaitement équilibrée, on a :
1
P { X = 1} = P { X = 0} =
2
Un croupier malhonnête a mis au point une stratégie pour escroquer le casino. Après des années
de patience, il a appris à prédire partiellement la couleur sur laquelle la bille va s’immobiliser en
observant la trajectoire de celle-ci jusqu’au moment où les derniers paris peuvent être
enregistrés. Il communique alors ses prédictions à un complice de la manière suivante :
- S’il tousse, on note lors cet événement Y=1, cela signifie qu’il prédit la couleur rouge,
- s’il cligne des yeux, on note cet événement Y=0, il prédit la couleur noire.
3
On suppose que : P { X = 1/ Y = 1} = P { X = 0 / Y = 0} =
4
1. Quelle est l’information moyenne apportée par le croupier à son complice?
2. Soit C0 le capital initial du complice et Cn après le nième jet de la bille. Lorsqu’un joueur gagne,
il double sa mise. Le complice décide de miser ma proportion (1-q) de son capital sur la
couleur prédite par le croupier et la proportion restante sur l’autre couleur. On note Zi la VA
égale à 1 si la couleur prédite au ième jet de la bille apparaît et 0 sinon.
Calculer Cn en fonction de C0, q et Z1, Z2, …, Zn.
3. Déterminer la valeur de q qui rend le gain moyen à l’issue du nième jet maximum.
Exercice 3 (suite)
1 Cn
4. On définit le taux de croissance du capital à l’issue du nième jet par :τ n = log 2
n C0
Calculer la valeur de q pour laquelle l’espérance du taux moyen est maximum.