Académique Documents
Professionnel Documents
Culture Documents
THEORIE DE L’INFORMATION
___
G.BINET MdC 61
T_info_canal p.1
UFR de Sciences Université de Caen
I. MODELE MATHEMATIQUE
I.1 Généralités :
Canal discret :
Canal sans mémoire :
Représentation graphique :
II.1 Définition :
G.BINET MdC 61
T_info_canal p.2
UFR de Sciences Université de Caen
I. MODELE MATHEMATIQUE
I.1 Généralités :
Un canal de transmission reçoit un message d'entrée et restitue un message de sortie. D'un point de vue abstrait nous le
considèrerons comme une entité qui fait le lien entre deux alphabets : X → Y.
Canal discret :
Le deux alphabets d'entrée et de sortie sont des alphabets discrets qui comportent un nombre fini de symboles.
Canal sans mémoire :
Le symbole courant de sortie ne dépend que du symbole courant d'entrée et ne dépend pas des précédents ni des
suivants.
Représentation graphique :
Le canal effectue donc le couplage entre deux alphabets. S'il est sans mémoire, lorsqu'il reçoit le symbole xj de
l'alphabet d'entrée, il a une probabilité de transmettre le symbole yk de l'alphabet de sortie. La donnée essentielle pour
comprendre le fonctionnement du canal est ainsi l'ensemble des probabilités conditionnelles { p( yk / xj) }. Cette donnée
peut se représenter graphiquement grâce à un ensemble d'arcs élémentaires reliant deux sommets:
xj yk
p( yk / xj )
Le schéma complet du fonctionnement du canal est donné par le graphe
y1
x1
x2
y2
xj
yk
xJ
yK
Chaque lien est pondéré par la probabilité conditionnelle p( yk / xj ). Si cette probabilité est nulle, nous ne plaçons pas
de lien.
G.BINET MdC 61
T_info_canal p.3
UFR de Sciences Université de Caen
Matrice de canal :
Plutôt qu'un graphe le canal est représentable par la matrice P des probabilités conditionnelles ou matrice de canal.
p( y1/x1 ) . . . . . . . . p( yK /x1 )
. .
P= . p( yk /x j ) . J
. .
p( y /x ) .
44
1 14 .
J 444442444444K . . . . p ( y
44
/x J 3
)
K
Première propriété:
Nous savons que : ∑ p( yk / x j ) = 1 ⇒ la somme des éléments d'une ligne est égale à 1.
k
Deuxième propriété:
Rappelons les expressions de la loi de Bayes et des probabilités marginales :
p( x j , y k ) = p( y k / x j ) p( x j )
J J
p( yk ) = ∑ p( x j , y k ) = ∑ p( y k / x j ) p( x j )
j =1 j =1
La dernière expression peut se représenter avec la matrice de canal :
[……….p( yk )……..] = [………..p( xj)………].P
ou encore:
. .
. .
. .
. = PT .
p( y k ) p( x j )
. .
. .
. .
II.1 Définition :
Un canal lie deux sources d'entrée X et de sortie Y. Pour comparer la similitude de ces deux sources, nous avons à notre
disposition la quantité d'information mutuelle qui est définie par :
p( x j , yk )
I( X , Y ) = I( Y , X ) = ∑ p( x j , yk ) log2( )
j, k
p( x ) p( y )
j k
G.BINET MdC 61
T_info_canal p.4
UFR de Sciences Université de Caen
Cette quantité peut être redéfinie en utilisant les probabilités conditionnelles qui définissent le canal:
p( yk / x j )
I( X , Y ) = ∑ p( yk / x j ) p( x j ) log2( p( x j )
)
j ,k
Les probabilités marginales { p( xj ) } dépendent de la source d'entrée et donc du système de codage de canal utilisé.
Nous pouvons rechercher un système de codage qui rende maximal cette quantité, c'est ce qui définit la capacité du
canal :
C = max / {p( x j )} [ I ( X , Y ) ]
{ }
1-p
P = p( yk / x j ) =
p
1-p
p
Calcul des p( yk ) :
La deuxième propriété de la matrice de canal : [ p( yk ) ] = PT [ p( xj )]
G.BINET MdC 61
T_info_canal p.5
UFR de Sciences Université de Caen
Calcul de H( Y ) :
= (1 - p ) log ( 1 ) + p log( 1 )
1- p p
Ce résultat est indépendant de α.
Calcul de I( X , Y ) : I( X , Y ) = H( Y ) – H( Y/X )
Capacité du canal :
Il faut déterminer la valeur de α qui rend maximale I( X , Y ). Comme H( Y/X ) ne dépend pas ici de α, il suffit de
rendre maximale H( Y ).
En posant : f(α) = α - 2pα + p ⇒ H( Y ) = - f(α).log(f(α)) – (1–f(α) ).log(1–f(α))
G.BINET MdC 61
T_info_canal p.6
UFR de Sciences Université de Caen
C'est un modèle dérivé du canal binaire sans mémoire dans lequel une erreur de transmission génère une forme d'onde
différentes de celles associées aux deux symboles binaires ainsi, l'alphabet de sortie comprend trois caractères, le
troisième étant l'effacement "E" qui correspond à une erreur de transmission..
Ses alphabets d'entrée et de sortie sont :
X → { x1="0" , x2="1" } , { p(x1) = α , p(x2) = 1-α }
Y → { y1="0" , y2="E" , y3="1" } , { p(y1) = ? , p(y2) = ? , p(y3) = ? }
Il est caractérisé par une matrice de canal :
{
P = p( yk / x j ) = }
1-p p 0
1-p
0 p
p E
p
1 1
1-p
G.BINET MdC 61
T_info_canal p.7
UFR de Sciences Université de Caen
Exemples simples :
• Ajouter un bit de parité et, en cas d'erreur à la réception, interroger de nouveau l'émetteur.
• Transmettre l'information en trois exemplaires et, en cas de désaccord, faire confiance à la majorité.
Ces méthodes proviennent d'une analyse empirique de la situation et, d'après le modèle de Shannon, elles ont pour effet
de diminuer la quantité d'information perdue et donc d'augmenter la capacité du canal. Grâce à cette analyse, il est
possible de mettre au point des méthodes de codage plus efficaces pour atteindre cet objectif.
Un codage de canal performant est d'autant plus nécessaire que le canal est bruité et perd de l'information. Le choix d'un
codage est donc lié à la nature du canal. Une transmission sur fibre optique est assurément plus "propre" qu'une
transmission hertzienne par réflexion troposphèrique.
1. Si H ≤ C il existe un système de codage tel que l'information de la source peut être transmise sur le canal avec
une probabilité d'erreur aussi petite que l'on veut.
2. Si H > C il est possible d'encoder la source de manière à obtenir une perte d'information proche de H-C. Il n'y a
pas de méthode de codage qui dans ce cas fournisse une perte d'information inférieure à H-C.
Le point de vue développé précédemment s'intéresse aux signaux de l'encodeur et du décodeur et donc inclus dans le
canal le modulateur et le démodulateur dont le fonctionnement est supposé idéal et nous ne nous préoccupons pas de la
forme d'onde choisie.
Un autre modèle élémentaire du canal est celui qui au contraire va permettre de s'intéresser aux performances du
modulateur et du démodulateur, il doit donc ne comporter que le canal seul. L'exemple le plus simple et très utilisé est
celui du canal avec bruit gaussien additif ou AWGN (Additive White Gaussian Noise). C'est ce modèle que nous
utiliserons pour illustrer les notions utilisées dans cette nouvelle approche.
G.BINET MdC 61
T_info_canal p.8
UFR de Sciences Université de Caen
A l'entrée et à la sortie de ce canal sont présents non plus des codes mais des signaux continus ou discrets correspondant
au type de modulation utilisée. Quelque soit leur nature, à chaque instant leur mesure algébrique est une valeur réelle
donc continue : ces signaux sont donc à un instant t une variable aléatoire continue ⇒ les sources d'entrée et de sortie
sont des sources continues. Dans ce cas, que deviennent les grandeurs de mesure de l'information que nous avons
définies pour le codage de source discrètes sans mémoire ?
En discret : H( X ) = ∑ pk log( 1 )
k
pk
Pour passer du discret au continu, il suffit de faire la correspondance pk → p(xk) dx en recherchant la limite
lorsque dx → 0 :
+∞
H( X ) = lim
dx →0 k = -∞
∑ p( x k) dx log( 1
p( x k) dx
)
+∞ +∞
= ∫ p( x ) log( p(1x ) ) dx - lim ∑ p( x k) dx log( dx )
dx →0 k = -∞
-∞
+∞
h( X ) = ∫ 1 ) dx
p(x) log ( p(x)
-∞
G.BINET MdC 61
T_info_canal p.9
UFR de Sciences Université de Caen
Fonction de Lagrange :
+∞ +∞
ϕ( p(x) , λ1 , λ2 ) = h( X ) + λ1 ∫ p(x) dx - 1 + λ2 ∫ ( x - µ )2 p(x) dx - σ2 où λ1 et λ2 sont les deux
-∞ -∞
multiplicateurs associés aux contraintes.
Optimisation:
dϕ dh( X )
= + λ1 + λ2 ( x - µ )2 = 0
dp(x) dp(x)
+∞
dh( X )
= d ∫ 1 ) log (e) dx = Ln ( 1 ) log (e) − p(x) 1 log (e)
p(x) Ln ( p(x) 2 p(x) 2 p(x) 2
dp(x) dp(x) 1 4 44 2444 3
-∞
log 2( 1 )
p(x)
= - Ln (p(x)) log2(e) − log2(e)
La solution en p(x) est donc :
λ + λ 2 ( x - µ )2 λ + λ 2 ( x - µ )2
Ln( p(x) ) = - 1 + 1 ⇒ p(x) = exp( - 1 + 1 )
log2(e) log2(e)
première contrainte :
+∞ +∞
λ1 λ ( x - µ )2
∫ p(x) dx = 1 = exp( - 1 + log2(e)
) ∫ exp( 2
log2(e)
) dx
−∞ −
1 ∞4444244443
Converge pour λ 2 < 0
Sachant que :
λ 2 ( x - µ )2
+∞ - π u2 =
log2(e)
∫ exp( - π u 2 ) du = 1 et en posant
- λ2 - λ2
−∞ ⇒ u= ( x - µ ) et du = dx
π log2(e) π log2(e)
nous obtenons une première relation entre λ1 et λ2 :
λ1 - λ2
exp( - 1 + )= avec λ2 < 0.
log 2(e) π log 2(e)
Deuxième contrainte :
+∞ +∞
λ1 λ ( x - µ )2
∫ ( x - µ )2 p(x) dx = σ2 = exp( - 1 +
log2(e)
) ∫ ( x - µ )2 exp( 2
log2(e)
) dx
−∞ −∞
G.BINET MdC 61
T_info_canal p.10
UFR de Sciences Université de Caen
Sachant que :
+∞ +∞
∫ exp( - π u 2 ) du = 1 ⇒ ∫ exp( - y2 ) dy = π
−∞ −∞
λ 2 ( x - µ )2 λ2 log2(e) 2
− = y2 ⇒ − dx = dy et ( x - µ )2 = - y
log2(e) log2(e) λ2
il vient :
+∞ +∞ 3/2 3/2
λ 2 ( x - µ )2
dy = π
log2(e) log2(e)
∫ ( x - µ )2 exp(
log2(e)
) dx = ∫ y2 exp( - y2 )
− λ2
2 − λ 2
−∞ −∞
d'où la seconde relation entre λ1 et λ2 :
3/2
λ1
) π
2 log2(e)
σ = exp( - 1 +
log2(e) 2 − λ 2
En plaçant la première relation dans la seconde :
log2(e) log2(e)
σ2 = 1 ⇒ λ2 = -
2 − λ 2 2σ2
Enfin, en plaçant la valeur de λ2 dans la première relation :
λ1 1
exp( - 1 + )=
log2(e) 2π σ2
La valeur optimale de p(x) est donc :
1 exp - ( x - µ )
2
p(x) =
2π σ σ2
L'entropie différentielle d'une source continue sans mémoire est maximale lorsque la source a une densité de
probabilité gaussienne.
G.BINET MdC 61
T_info_canal p.11
UFR de Sciences Université de Caen
= 12 log2( 2π σ2 ) + 12 log2( e )
l'entropie différentielle maximale d'une source continue est :
h( X ) = = 12 log2( 2πe σ2 )
h( X , Y ) = h( X ) + h( Y ) – I( X , Y )
I( X , Y ) = h( X ) – h( X/Y ) = h( Y ) – h( Y/X )
h( X , Y ) = ∫∫ p( x , y ) log2( 1 ) dx dy
p( x ) p( y )
R2
+∞ +∞
1
h( X /Y ) = ∫ p( y ) ∫ p( x /y ) log2(
p( x /y )
) dx dy
-∞ -∞444442444443
1
h(X /y )
+∞ +∞
h( Y /X ) = ∫ p( x ) ∫ p( y /x ) log2( 1
p( y /x )
) dy dx
-∞ ∞444442444443
-1
h( Y /x )
G.BINET MdC 61
T_info_canal p.12
UFR de Sciences Université de Caen
Si T est le temps d'utilisation du canal, le nombre d'échantillons (utilisateurs en binaire) pendant ce temps d'utilisation
sera M = T / Ts.
⇒ M = 2B T
Puissance du bruit :
Le bruit est additif, blanc et gaussien de variance σ2. Filtré par le canal il lui correspond une puissance moyenne:
+B
Pm = ∫ 12 N0 df = N0 B ⇒ σ 2 = N0 B
-B
C = max / p(x k ) [ I( Xk , Yk ) ]
La quantité d'information mutuelle pouvant toujours se calculer par :
I( Xk , Yk ) = h( Yk ) – h( Yk /Xk )
G.BINET MdC 61
T_info_canal p.13
UFR de Sciences Université de Caen
+∞
h( Yk /Xk ) = ∫ p( x k ) h( Yk /x k ) dx k
-∞
Entropie conditionnelle moyenne :
+∞
= ∫ p( x k ) h( N ) dx k = h( N )
-∞
Cette entropie conditionnelle moyenne est indépendante de xk ⇒ pour calculer la capacité du canal, il suffit de
s'intéresser à h( Yk ).
Capacité du canal :
Par définition du canal : Y=X+N
Pour que h( Y ) soit maximale il faut que Y soit une variable aléatoire gaussienne. N étant par hypothèse gaussien ⇒
X doit être aussi gaussien.
Le bruit étant indépendant du signal : σ 2y = σ 2x + σ 2n ⇒ σ2y = σ2x + σ2 h( Y ) est donc :
σ2
C = 12 log2[ 2πe ( 1 + x2 ) ] bits / utilisateur de canal.
σ
Ce théorème nous donne le maximum de la vitesse de transmission sans erreur (avec un codage approprié) d'un signal
de puissance P sur un canal de bande passante B perturbé par un bruit blanc gaussien de puissance N.
Ce théorème peut être ensuite développé pour envisager la forme des signaux a utiliser pour atteindre cet objectif: c'est
le problème du choix des modulations que nous ne développerons pas à ce niveau.
D'autres types de modèles de canaux peuvent être utilisés comme par exemple un canal non pas limité en puissance
moyenne mais en en maximum de puissance (article de Shannon).
G.BINET MdC 61
T_info_canal p.14