Vous êtes sur la page 1sur 14

UFR de Sciences Université de Caen

THEORIE DE L’INFORMATION

___

MODELE D'UN CANAL DE


TRANSMISSION
CAPACITE
___

G.BINET MdC 61
T_info_canal p.1
UFR de Sciences Université de Caen

CANAL DE TRANSMISSON DISCRET


MODELISATION ET CAPACITE

I. MODELE MATHEMATIQUE

I.1 Généralités :
Canal discret :
Canal sans mémoire :
Représentation graphique :

II. CAPACITE D'UN CANAL

II.1 Définition :

II.2 Canal binaire symétrique :

II.3 Canal binaire à effacement :

II.4 Problème du codage de canal :


Interprétation de la capacité du canal :
Rôle du codage de canal :
Un autre théorème de Shannon :

III. CANAL AVEC BRUIT GAUSSIEN

III.1 Un nouveau modèle mathématique :


Entropie d'une source continue discrète sans mémoire, entropie différentielle :
Maximum de l'entropie différentielle d'une source :
Quantité d'information mutuelle :

III.2 Modélisation du canal bruité :


Canal à bande passante limitée :
Puissance du bruit :

III.3 Capacité du canal :


Entropie différentielle conditionnelle moyenne :
Capacité du canal :
Toujours un théorème de Shannon:

G.BINET MdC 61
T_info_canal p.2
UFR de Sciences Université de Caen

CANAL DE TRANSMISSON DISCRET


MODELISATION ET CAPACITE

I. MODELE MATHEMATIQUE

I.1 Généralités :

Un canal de transmission reçoit un message d'entrée et restitue un message de sortie. D'un point de vue abstrait nous le
considèrerons comme une entité qui fait le lien entre deux alphabets : X → Y.

Canal discret :
Le deux alphabets d'entrée et de sortie sont des alphabets discrets qui comportent un nombre fini de symboles.
Canal sans mémoire :
Le symbole courant de sortie ne dépend que du symbole courant d'entrée et ne dépend pas des précédents ni des
suivants.
Représentation graphique :
Le canal effectue donc le couplage entre deux alphabets. S'il est sans mémoire, lorsqu'il reçoit le symbole xj de
l'alphabet d'entrée, il a une probabilité de transmettre le symbole yk de l'alphabet de sortie. La donnée essentielle pour
comprendre le fonctionnement du canal est ainsi l'ensemble des probabilités conditionnelles { p( yk / xj) }. Cette donnée
peut se représenter graphiquement grâce à un ensemble d'arcs élémentaires reliant deux sommets:

xj yk
p( yk / xj )
Le schéma complet du fonctionnement du canal est donné par le graphe

y1
x1

x2
y2

xj
yk

xJ
yK
Chaque lien est pondéré par la probabilité conditionnelle p( yk / xj ). Si cette probabilité est nulle, nous ne plaçons pas
de lien.

G.BINET MdC 61
T_info_canal p.3
UFR de Sciences Université de Caen

Matrice de canal :
Plutôt qu'un graphe le canal est représentable par la matrice P des probabilités conditionnelles ou matrice de canal.


 p( y1/x1 ) . . . . . . . . p( yK /x1 )  
 . .  
P= . p( yk /x j ) .  J
 . . 
 p( y /x ) . 
 44
1 14 .
J 444442444444K . . . . p ( y
44
/x J 3 
)

K 

Première propriété:

Nous savons que : ∑ p( yk / x j ) = 1 ⇒ la somme des éléments d'une ligne est égale à 1.
k

Deuxième propriété:
Rappelons les expressions de la loi de Bayes et des probabilités marginales :

p( x j , y k ) = p( y k / x j ) p( x j )
J J
p( yk ) = ∑ p( x j , y k ) = ∑ p( y k / x j ) p( x j )
j =1 j =1
La dernière expression peut se représenter avec la matrice de canal :
[……….p( yk )……..] = [………..p( xj)………].P
ou encore:

 .   . 
 .   . 
. . 
 .  = PT  .
 p( y k )   p( x j ) 
 .   . 
 .   . 
 .   . 

II. CAPACITE D'UN CANAL

II.1 Définition :

Un canal lie deux sources d'entrée X et de sortie Y. Pour comparer la similitude de ces deux sources, nous avons à notre
disposition la quantité d'information mutuelle qui est définie par :

p( x j , yk )
I( X , Y ) = I( Y , X ) = ∑ p( x j , yk ) log2( )
j, k
p( x ) p( y )
j k

G.BINET MdC 61
T_info_canal p.4
UFR de Sciences Université de Caen

Cette quantité peut être redéfinie en utilisant les probabilités conditionnelles qui définissent le canal:
p( yk / x j )
I( X , Y ) = ∑ p( yk / x j ) p( x j ) log2( p( x j )
)
j ,k
Les probabilités marginales { p( xj ) } dépendent de la source d'entrée et donc du système de codage de canal utilisé.
Nous pouvons rechercher un système de codage qui rende maximal cette quantité, c'est ce qui définit la capacité du
canal :

C = max / {p( x j )} [ I ( X , Y ) ]

La capacité s'exprime en bits/utilisateur de canal.


Si la cadence d'utilisation du canal est d'un symbole toute les Tc secondes, le débit maximum du canal sera C/Tc bits/s.

II.2 Canal binaire symétrique :

Ce modèle de canal binaire sans mémoire est le plus simple.


Ses alphabets d'entrée et de sortie sont binaires :
X → { x1 , x2 } , { p(x1) = α , p(x2) = 1-α }
Y → { y1 , y2 } , { p(y1) = ? , p(y2) = ? }
Il est caractérisé par une matrice de canal :

{ }
 1-p
P = p( yk / x j ) = 
p 
1-p 
 p

Source d'entrée X Source de sortie Y


Alphabet : { 0 , 1 } Alphabet : { 0 , 1 }
1-p
0 0
p
p
1 1
1-p

où p est la probabilité d'erreur de transmission.


Pour calculer la capacité de ce canal il nous faut calculer la quantité d'information mutuelle entre les deux sources puis
déterminer la valeur de α qui la rend maximale.

Calcul des p( yk ) :
La deuxième propriété de la matrice de canal : [ p( yk ) ] = PT [ p( xj )]

 p( y1 )   1-p p   α   ( 1-p ) α + p ( 1-α )   α - 2pα + p 


 p( y )  =  p 1-p   1−α  =  p α + ( 1-p ) ( 1-α )  =  2p α + 1 - p - α 
 2        

G.BINET MdC 61
T_info_canal p.5
UFR de Sciences Université de Caen

Calcul de H( Y ) :

H( Y ) = ( α - 2pα + p ) log( 1 ) + ( 1 - α + 2pα - p ) log( 1 )


α - 2pα + p 1 - α + 2pα - p
Calcul de H( Y/X ) :

H( Y/X ) = α  (1 - p ) log ( 1 ) + p log( 1 )  + ( 1 - α )  (1 - p ) log ( 1 ) + p log( 1 ) 


1 44444 1- p
42444444
p 
3 1 44444 1- p
42444444
p 
3
H( Y/x1 ) H( Y/x 2 )

=  (1 - p ) log ( 1 ) + p log( 1 ) 
 1- p p 
Ce résultat est indépendant de α.

Calcul de I( X , Y ) : I( X , Y ) = H( Y ) – H( Y/X )

Capacité du canal :
Il faut déterminer la valeur de α qui rend maximale I( X , Y ). Comme H( Y/X ) ne dépend pas ici de α, il suffit de
rendre maximale H( Y ).
En posant : f(α) = α - 2pα + p ⇒ H( Y ) = - f(α).log(f(α)) – (1–f(α) ).log(1–f(α))

d H( Y ) f '(α) ' -f '(α)


= - f '(α) log( f(α) ) - f(α) + f (α) log( 1-f(α) ) - ( 1-f(α) )
dα f(α) 1-f(α)
1-f(α) 1-f(α)
= f '(α) log( ) = ( 1 - 2p ) log( )
f(α) f(α)
Pour que I( X , Y ) soit maximale il faut que :
1 - f(α) = f(α) ⇒ f(α) = ½ = α - 2pα + p ⇒ α = ( ½ - p ) / (1 – 2p ) = ½ .
La capacité du canal est atteinte lorsque les deux symboles de la source d'entrée sont équiprobables.
{ p(x1) = 1/2 , p(x2) = 1/2 } ⇒ { p(y1) = 1/2 , p(y2) = 1/2 }
H( Y ) = 1/2 log( 2 ) + 1/2 log( 2 ) = 1 bit.

⇒ C = 1 - p log( 1 ) - ( 1-p ) log( 1 )


p 1-p
Nous vérifions rapidement que :
p=0 ⇒ C = 1.
C
p=1 ⇒ C = 1.
1
La capacité est minimale pour p =1/2 ⇒ C = 0.
Ce qui donne le graphe suivant :
Nous retrouvons les conclusions de l'illustration de la notion de quantité
d'information mutuelle : lorsque la probabilité d'erreur est de 50%, la
capacité du canal est nulle, lorsqu'elle est égale à 0% ou 100% la
capacité du canal est maximale (une erreur de 100% correspond à une p
0 1/2 1
simple inversion des bits "0" et "1" par le canal).

G.BINET MdC 61
T_info_canal p.6
UFR de Sciences Université de Caen

II.3 Canal binaire à effacement :

C'est un modèle dérivé du canal binaire sans mémoire dans lequel une erreur de transmission génère une forme d'onde
différentes de celles associées aux deux symboles binaires ainsi, l'alphabet de sortie comprend trois caractères, le
troisième étant l'effacement "E" qui correspond à une erreur de transmission..
Ses alphabets d'entrée et de sortie sont :
X → { x1="0" , x2="1" } , { p(x1) = α , p(x2) = 1-α }
Y → { y1="0" , y2="E" , y3="1" } , { p(y1) = ? , p(y2) = ? , p(y3) = ? }
Il est caractérisé par une matrice de canal :

{
P = p( yk / x j ) = }
 1-p p 0
1-p
 0 p

Source d'entrée X Source de sortie Y


Alphabet : { 0 , 1 } Alphabet : { 0 , E ,1 }
1-p
0 0

p E
p
1 1
1-p

où p est la probabilité d'erreur de transmission.

II.4 Problème du codage de canal :

Interprétation de la capacité du canal :


Shannon a imaginé les choses de la manière suivante :
H( X ) est la quantité d'information moyenne contenue dans un symbole de la source.
Nous avons établi que I( X , Y ) = H( X ) – H( X /Y ).
Dans les exemples précédents, H( X /Y ) est liée à l'existence d'une probabilité d'erreur de transmission. En
généralisant cette notion, H( X /Y ) est due à l'existence de bruit sur le canal et révèle le fait que celui-ci ne transmet pas
parfois l'information. H( X /Y ) est en quelque sorte une mesure de la quantité d'information perdue.
I( X , Y ) devient ainsi la quantité d'information correcte transmise par le canal.
La capacité du canal doit s'entendre au sens de la capacité de transmission sans erreur.

Rôle du codage de canal :


Pour que la transmission soit performante, il faut fournir au récepteur la quantité d'information manquante qui est H( X
/Y ). Pour cela il est imaginé d'introduire une redondance dans l'information qui permettra de détecter et de corriger les
erreurs dues à la transmission.

G.BINET MdC 61
T_info_canal p.7
UFR de Sciences Université de Caen

Exemples simples :
• Ajouter un bit de parité et, en cas d'erreur à la réception, interroger de nouveau l'émetteur.
• Transmettre l'information en trois exemplaires et, en cas de désaccord, faire confiance à la majorité.
Ces méthodes proviennent d'une analyse empirique de la situation et, d'après le modèle de Shannon, elles ont pour effet
de diminuer la quantité d'information perdue et donc d'augmenter la capacité du canal. Grâce à cette analyse, il est
possible de mettre au point des méthodes de codage plus efficaces pour atteindre cet objectif.
Un codage de canal performant est d'autant plus nécessaire que le canal est bruité et perd de l'information. Le choix d'un
codage est donc lié à la nature du canal. Une transmission sur fibre optique est assurément plus "propre" qu'une
transmission hertzienne par réflexion troposphèrique.

Un autre théorème de Shannon :


La démonstration en est donnée dans l'article de Shannon (A mathematical theory of communication. Octobre 1948),
nous en exposerons ici le principe et les résultats.

Soit un canal discret de capacité C et une source discrète d'entropie H.

1. Si H ≤ C il existe un système de codage tel que l'information de la source peut être transmise sur le canal avec
une probabilité d'erreur aussi petite que l'on veut.
2. Si H > C il est possible d'encoder la source de manière à obtenir une perte d'information proche de H-C. Il n'y a
pas de méthode de codage qui dans ce cas fournisse une perte d'information inférieure à H-C.

Cela vient de la relation précédente :


H( X /Y ) = H( X ) – C
1. Si H( X ) ≤ C, nous pouvons ajouter de l'information à H( X ) par un système de codage judicieux de manière à
ce que H-C devienne le plus petit possible.
2. Si H( X ) > C il y a de toute manière perte d'information et tout codage mal effectué peut aller dans le sens de
l'augmentation de cette perte d'information.

III. CANAL AVEC BRUIT GAUSSIEN

Le point de vue développé précédemment s'intéresse aux signaux de l'encodeur et du décodeur et donc inclus dans le
canal le modulateur et le démodulateur dont le fonctionnement est supposé idéal et nous ne nous préoccupons pas de la
forme d'onde choisie.
Un autre modèle élémentaire du canal est celui qui au contraire va permettre de s'intéresser aux performances du
modulateur et du démodulateur, il doit donc ne comporter que le canal seul. L'exemple le plus simple et très utilisé est
celui du canal avec bruit gaussien additif ou AWGN (Additive White Gaussian Noise). C'est ce modèle que nous
utiliserons pour illustrer les notions utilisées dans cette nouvelle approche.

G.BINET MdC 61
T_info_canal p.8
UFR de Sciences Université de Caen

III.1 Un nouveau modèle mathématique :

A l'entrée et à la sortie de ce canal sont présents non plus des codes mais des signaux continus ou discrets correspondant
au type de modulation utilisée. Quelque soit leur nature, à chaque instant leur mesure algébrique est une valeur réelle
donc continue : ces signaux sont donc à un instant t une variable aléatoire continue ⇒ les sources d'entrée et de sortie
sont des sources continues. Dans ce cas, que deviennent les grandeurs de mesure de l'information que nous avons
définies pour le codage de source discrètes sans mémoire ?

Entropie d'une source continue discrète sans mémoire, entropie différentielle :


Nous allons chercher à généraliser la notion d'entropie :

En discret : H( X ) = ∑ pk log( 1 )
k
pk
Pour passer du discret au continu, il suffit de faire la correspondance pk → p(xk) dx en recherchant la limite
lorsque dx → 0 :
+∞
H( X ) = lim
dx →0 k = -∞
∑ p( x k) dx log( 1
p( x k) dx
)

+∞ +∞
= ∫ p( x ) log( p(1x ) ) dx - lim ∑ p( x k) dx log( dx )
dx →0 k = -∞
-∞

Un problème provient du second terme car lim [dx log( dx ) ] = - ∞


dx → 0
et donc H( X ) → +∞ ⇒ l'entropie d'une variable aléatoire continue est infinie.
Ce résultat est intuitif car une variable aléatoire continue peut prendre une infinité de valeurs sur R et cela implique que
la probabilité sur une valeur tend vers 0 et donc l'entropie vers l' ∞.
Pour contourner ce problème, nous pouvons envisager d'utiliser l'entropie non en absolu mais pour comparer deux
sources. Nous travaillerons ainsi en relatif en effectuant des différences d'entropies et dans ce cas seul le premier terme
est intéressant et est défini comme étant l'entropie différentielle h( X ) d'une source continue :

+∞
h( X ) = ∫ 1 ) dx
p(x) log ( p(x)
-∞

Maximum de l'entropie différentielle d'une source :


La question posée est : quelle est la loi de probabilité p( x ) pour laquelle l'entropie différentielle est maximale ?
p( x ) est une densité de probabilité et elle a deux caractéristiques ou deux contraintes :
+∞
1. la règle classique : ∫ p(x) dx = 1 .
−∞
+∞
2. la variable aléatoire a une moyenne µ et une variance σ2 soit : ∫ ( x - µ ) p(x) dx = σ2 .
−∞
C'est un problème d'optimisation sous contrainte pour lequel la méthode des multiplicateurs de Lagrange est toute
indiquée:

G.BINET MdC 61
T_info_canal p.9
UFR de Sciences Université de Caen

Fonction de Lagrange :

 +∞   +∞ 
ϕ( p(x) , λ1 , λ2 ) = h( X ) + λ1  ∫ p(x) dx - 1  + λ2  ∫ ( x - µ )2 p(x) dx - σ2  où λ1 et λ2 sont les deux
 -∞   -∞ 
multiplicateurs associés aux contraintes.

Optimisation:
dϕ dh( X )
= + λ1 + λ2 ( x - µ )2 = 0
dp(x) dp(x)
+∞
dh( X )
= d ∫ 1 ) log (e) dx = Ln ( 1 ) log (e) − p(x) 1 log (e)
p(x) Ln ( p(x) 2 p(x) 2 p(x) 2
dp(x) dp(x) 1 4 44 2444 3
-∞
log 2( 1 )
p(x)
= - Ln (p(x)) log2(e) − log2(e)
La solution en p(x) est donc :

λ + λ 2 ( x - µ )2 λ + λ 2 ( x - µ )2
Ln( p(x) ) = - 1 + 1 ⇒ p(x) = exp( - 1 + 1 )
log2(e) log2(e)

première contrainte :
+∞ +∞
λ1 λ ( x - µ )2
∫ p(x) dx = 1 = exp( - 1 + log2(e)
) ∫ exp( 2
log2(e)
) dx
−∞ −
1 ∞4444244443
Converge pour λ 2 < 0

Sachant que :

λ 2 ( x - µ )2
+∞ - π u2 =
log2(e)
∫ exp( - π u 2 ) du = 1 et en posant
- λ2 - λ2
−∞ ⇒ u= ( x - µ ) et du = dx
π log2(e) π log2(e)
nous obtenons une première relation entre λ1 et λ2 :

λ1 - λ2
exp( - 1 + )= avec λ2 < 0.
log 2(e) π log 2(e)

Deuxième contrainte :
+∞ +∞
λ1 λ ( x - µ )2
∫ ( x - µ )2 p(x) dx = σ2 = exp( - 1 +
log2(e)
) ∫ ( x - µ )2 exp( 2
log2(e)
) dx
−∞ −∞

G.BINET MdC 61
T_info_canal p.10
UFR de Sciences Université de Caen

Sachant que :
+∞ +∞
∫ exp( - π u 2 ) du = 1 ⇒ ∫ exp( - y2 ) dy = π
−∞ −∞

[ exp( - y ) ]dy = - [ exp( - y ) ]


+∞ +∞ +∞
∫ y exp( - y2 ) dy = ∫
2 2
-1 d
2 dy
1
2 −∞ =0
−∞ −∞
+∞ +∞ +∞ +∞
 exp( - y2 )  1 exp( - y2 ) dy = π

2 2

2
y exp( - y ) dy = y y exp( - y ) dy = 

y
- 2  + ∫
 −∞ − ∞ 2 2
−∞ −∞ 1 4442444 3
=0
Appliquons le changement de variable :

λ 2 ( x - µ )2 λ2 log2(e) 2
− = y2 ⇒ − dx = dy et ( x - µ )2 = - y
log2(e) log2(e) λ2
il vient :
+∞ +∞ 3/2 3/2
λ 2 ( x - µ )2
dy = π 
 log2(e)   log2(e) 
∫ ( x - µ )2 exp(
log2(e)
) dx = ∫ y2 exp( - y2 ) 
 − λ2 
 2  − λ 2 
−∞ −∞
d'où la seconde relation entre λ1 et λ2 :
3/2
λ1
) π
2  log2(e) 
σ = exp( - 1 +
log2(e) 2  − λ 2 
En plaçant la première relation dans la seconde :

 log2(e)  log2(e)
σ2 = 1  ⇒ λ2 = -
2  − λ 2  2σ2
Enfin, en plaçant la valeur de λ2 dans la première relation :

λ1 1
exp( - 1 + )=
log2(e) 2π σ2
La valeur optimale de p(x) est donc :

1 exp  - ( x - µ ) 
2
p(x) = 
2π σ  σ2 

L'entropie différentielle d'une source continue sans mémoire est maximale lorsque la source a une densité de
probabilité gaussienne.

G.BINET MdC 61
T_info_canal p.11
UFR de Sciences Université de Caen

Il nous reste à calculer l'entropie différentielle h( X ) :


+∞
1 exp  - ( x - µ )   log ( 2π σ ) + log (e) ( x - µ )  dx
2 2
h( X ) = ∫ 2π σ 2σ2  
2 2
2σ2 
-∞ 
+∞ +∞
1 exp  - ( x - µ )  dx + log2(e)  ( x - µ )2 
2
( x - µ )2
= log2( 2π σ ) ∫ 2π σ  2σ 2  π σ ∫ 2σ 2 exp -
σ 2  dx
-∞ 14444 4  24444 43
2 -∞44444424444443
1
 2
=1 π/ 2

= 12 log2( 2π σ2 ) + 12 log2( e )
l'entropie différentielle maximale d'une source continue est :

h( X ) = = 12 log2( 2πe σ2 )

e étant la base des logarithmes népériens soit : e = 2,71828182……

Quantité d'information mutuelle :


Là encore nous ne prenons qu'une quantité d'information différentielle par généralisation du cas discret soit :
p( x , y )
I( X , Y ) = ∫∫ p( x , y ) log2( ) dx dy
p( x )p( y )
R2
ou, en utilisant les densités de probabilité conditionnelles :
p( y/x )
I( X , Y ) = ∫∫ p( y/x ) p(x) log2( ) dx dy
p( y )
R2
Tous les calculs menés dans le cas discret restent valables et donc les relations pour l'entropie différentielle jointe en
utilisant des entropies différentielles moyennes conditionnelles :

h( X , Y ) = h( X ) + h( Y ) – I( X , Y )
I( X , Y ) = h( X ) – h( X/Y ) = h( Y ) – h( Y/X )

Dans ce cas les définitions deviennent :

h( X , Y ) = ∫∫ p( x , y ) log2( 1 ) dx dy
p( x ) p( y )
R2
+∞ +∞
1
h( X /Y ) = ∫ p( y ) ∫ p( x /y ) log2(
p( x /y )
) dx dy
-∞ -∞444442444443
1
h(X /y )
+∞ +∞
h( Y /X ) = ∫ p( x ) ∫ p( y /x ) log2( 1
p( y /x )
) dy dx
-∞ ∞444442444443
-1
h( Y /x )

G.BINET MdC 61
T_info_canal p.12
UFR de Sciences Université de Caen

III.2 Modélisation du canal bruité :

Modèle on ne peut plus simple :

x(t) entrée y(t) sortie


++ A chaque instant t = k Ts :
yk = xk + nk
Ou, en terme de variables aléatoires : Yk = Xk + Nk
Soit en stationnaire :
n(t) bruit
y(t) = x(t) + n(t)

Canal à bande passante limitée :


Pour simplifier la représentation du canal, nous lui attribuons un comportement
DSP passe-bas idéal indiqué sur le schéma ci-contre.
Du canal La cadence d'échantillonnage doit correspondre au théorème de Shannon:
N0/2
1/2Ts ≥ B.
Pour obtenir un fonctionnement le plus rapide possible, on se place à la fréquence
d'échantillonnage critique :
f
-B 2B Ts = 1.
B

Si T est le temps d'utilisation du canal, le nombre d'échantillons (utilisateurs en binaire) pendant ce temps d'utilisation
sera M = T / Ts.
⇒ M = 2B T

Puissance du bruit :
Le bruit est additif, blanc et gaussien de variance σ2. Filtré par le canal il lui correspond une puissance moyenne:
+B
Pm = ∫ 12 N0 df = N0 B ⇒ σ 2 = N0 B
-B

III.3 Capacité du canal :

Celle-ci est toujours définie par analogie avec le cas discret :

C = max / p(x k ) [ I( Xk , Yk ) ]
La quantité d'information mutuelle pouvant toujours se calculer par :
I( Xk , Yk ) = h( Yk ) – h( Yk /Xk )

G.BINET MdC 61
T_info_canal p.13
UFR de Sciences Université de Caen

Entropie différentielle conditionnelle moyenne :


+∞
1
h( Yk /x k ) = ∫ p( yk /x k ) log dy
p( yk /x k ) k
-∞
Entropie conditionnelle :
+∞
= ∫ p( n k ) log 1 dn = h( N )
p( n k ) k
-∞

+∞
h( Yk /Xk ) = ∫ p( x k ) h( Yk /x k ) dx k
-∞
Entropie conditionnelle moyenne :
+∞
= ∫ p( x k ) h( N ) dx k = h( N )
-∞
Cette entropie conditionnelle moyenne est indépendante de xk ⇒ pour calculer la capacité du canal, il suffit de
s'intéresser à h( Yk ).

Capacité du canal :
Par définition du canal : Y=X+N
Pour que h( Y ) soit maximale il faut que Y soit une variable aléatoire gaussienne. N étant par hypothèse gaussien ⇒
X doit être aussi gaussien.
Le bruit étant indépendant du signal : σ 2y = σ 2x + σ 2n ⇒ σ2y = σ2x + σ2 h( Y ) est donc :

h( Y ) = 12 log2( 2πe σ2y ) = 12 log2[ 2πe ( σ2x + σ2 ) ]


La capacité du canal est : h( Y ) – h( Y /X ) = h( Y ) – h( N ) ou N est gaussien

C = h( Y ) - h( N ) = 12 log2[ 2πe ( σ2x + σ2 ) ] - 12 log2[ 2πe σ2 ]

σ2
C = 12 log2[ 2πe ( 1 + x2 ) ] bits / utilisateur de canal.
σ

Toujours un théorème de Shannon:


Si nous parlons de bits/s et non de bits par utilisateurs de canal C(bits/s) = C(bits/utilisateur de canal).M(=2B). σx2 est
proportionnelle à P la puissance du signal et σ2 est proportionnel à N la puissance du bruit. La formulation précédente
devient ainsi un nouveau théorème de Shannon (n°17) :

C = B . log2[ 2πe ( P + N ) ] en bits/seconde.


N

Ce théorème nous donne le maximum de la vitesse de transmission sans erreur (avec un codage approprié) d'un signal
de puissance P sur un canal de bande passante B perturbé par un bruit blanc gaussien de puissance N.
Ce théorème peut être ensuite développé pour envisager la forme des signaux a utiliser pour atteindre cet objectif: c'est
le problème du choix des modulations que nous ne développerons pas à ce niveau.
D'autres types de modèles de canaux peuvent être utilisés comme par exemple un canal non pas limité en puissance
moyenne mais en en maximum de puissance (article de Shannon).

G.BINET MdC 61
T_info_canal p.14

Vous aimerez peut-être aussi