Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
Radar - Télécom
Chapitre1:
Théorie de l'Information
et Codage de la Source
Said Abdessaied
Ingénieur en Chef
Chef de la Division Radar - OACA
CNS/ATM Expert
2016/2017
THEORIE DE L'INFORMATION ET CODAGE DE LA SOURCE
1.1. Introduction
La théorie de l'information essai de répondre à deux questions essentielles sur l'analyse et la
synthèse des systèmes de télécommunication :
Dans ces deux questions, il existe des mots à définir. D'abord, nous distinguons deux types de
source : analogique et discrète. Un microphone est une source d'informations analogique
produisant un signal analogique en amplitude et en temps. Une source d'information discrète
produit des symboles (ou des lettres comme un clavier). La sortie est une chaîne (ou une
séquence) de symboles. La sortie d'une source d'information analogique peut être transformé
en symboles discrets moyennant un échantillonnage et une quantification.
Dans le cours de la théorie de l'information, nous traitons les sources discrètes à cause de leur
importance en télécommunication numérique.
Une source discrète de l'information dispose d'un ensemble (souvent appelé alphabet) des
symboles (ou des lettres). Elle choisit un symbole dans cet ensemble (suivant une règle
connue par la source) et l'envoie en sortie. Nous avons finalement une séquence des symboles
à des instants discrets.
Un dé par exemple, choisit le symbole à sortir dans l'ensemble de {1, …, 6}. Une séquence
possible peut être {1,5,4,1,2,4,1,1}. La question essentielle est la suivante : quel est le
montant de l'information émise par cette source ? Et ensuite, quelle unité de mesure choisit-on
pour l'information ?
La théorie de l'information est basée principalement sur les travaux de Claud Shannon en
1948. Il établit la limite théorique de performance pour les systèmes de télécommunication. Il
démontre qu'on peut atteindre cette limite "mythique" utilisant des codes correcteurs d'erreur
performants. Il a fallu des dizaines d'années pour approcher à ces limites fixées il y a presque
un demi-siècle. Ce n'est qu'en 1993 que nous avons pu nous approcher de cette limite grâce à
l'invention de turbo code.
1
1.2. Mesure de l'information
On peut considérer par exemple la météo comme une source d'informations. Imaginez qu'elle
essaye de prévoir le temps de demain à Brest. L'ensemble des symboles contient les mots
comme "pluvieux", "ensoleillé", nuageux", "avec éclairci", …. Imaginez de plus que c'est
l'automne et demain c'est un dimanche! Alors lesquelles de ces informations ci-dessous porte
plus d'information :
1. Chaud et ensoleillé
2. Pluvieux
3. Il neigera
Il est clair que ces trois possibilités ne portent pas le même montant d'informations. La
deuxième n'a que très peu d'information car "c'est normal" qu'il pleut en automne à Brest. La
première et la troisième phrases par contre, contiennent plus d'informations car leur
probabilité de réaliser est peu. C'est à dire qu'il y a une relation directe entre la probabilité de
l'occurrence et le montant de l'information. En théorie de l'information, notre interprétation
sur chaque message est indépendant de la quantité de l'information générée par la source!
Par exemple si on vous dit les numéros gagnant de Loto de la semaine prochaine, la quantité
de l'information est indépendante du montant à gagner.
Nous essayons maintenant d'inventer une relation mathématique pour quantifier l'information.
Supposons qu'une source d'informations émet un des q messages possibles m1, m2, …, mq.
avec les probabilités de réalisation p1, p2, …, pq. (p1+p2+…+pq=1). Par intuition, on sait que
l'information portée par kième message ( I(mk) ) doit être inversement proportionnelle à pk.
L'autre critère par intuition est que quand pk tend vers 1, la quantité de l'information tend vers
zéro. On sait aussi que I(mk) est toujours positif. C'est à dire :
Avant de trouver une fonction satisfaisant toutes ces contraintes, nous allons imposer une
autre. Si nous avons deux messages indépendants, l'information contenue dans les deux est la
somme de l'information de chacun. Cette nouvelle contrainte est parfaitement justifiée par
l'intuition. Une fonction logarithmique satisfait toutes les requis ci-dessus. Ainsi nous
définissons le montant de l'information contenue dans un message qui se produit avec une
possibilité pk comme suit :
I(mk)=log(1/pk)
2
' $
h(A)
L'information h(A) apportée par la réalisation de A est
d'autant plus grande qu'elle est improbable.
PSfrag replacements
P (A)
0
0 1/b 0.5 1
& %
L'unité de mesure dépend de la base de la fonction logarithme. Si on prend la base 2, l'unité
sera "bit" (pour Binary digIT).
Exemple :
Une source met en sortie un des 5 symboles possibles dans chaque intervalle de
symbole. La probabilité de réalisation de chaque symbole est donnée ci-dessous :
Solution :
I(m1)=log(1/(1/2))=1 bit
I(m2)=log(1/(1/4))=2 bits
I(m3)=log(1/(1/8))=3 bits
I(m4)=log(1/(1/16))=4 bits
I(m5)=log(1/(1/16))=4 bits
1.2.2. Entropie
Les messages produits par des sources d'informations sont des séquences de symboles. Du
point de vue des systèmes de télécommunication, un message est composé des symboles
individuels. Nous avons vu que l'information portée par un symbole peut varier suivant sa
probabilité de l'occurrence. Nous sommes donc amenés à définir l'information moyenne
portée par chaque symbole dans un message. L'autre point est que la dépendance des
symboles dans un message peut changer la valeur totale de l'information. Par exemple, on sait
que dans un télex, le "Q" et souvent suivi par un "U". Alors, les symboles individuels ne sont
pas indépendants. Dans ce cas, l'information totale n'est plus égale à la somme des
informations de chaque symbole.
Imaginons que nous avons une source qui émet un des M symboles possibles s1, s2, …, sM, et
de manière indépendante. Les probabilités correspondant sont p1, p2, …, pM. Dans un message
long contenant N symboles nous avons en moyenne Np1 fois le symbole s1, Np2 fois le
symbole s2 et ainsi de suite. Le montant de l'information concernant le symbole si est donc
Npilog2(1/pi). Le contenu total de l'information dans le message est égal à :
M M
I totale = ∑ Np i log 2 (1 / pi ) = −∑ Np i log 2 p i bits
i =1 i =1
L'information moyenne par symbole s'obtient en divisant l'information totale du message par
le nombre de symboles :
M
I totale
H= = ∑ pi log 2 (1 / p i ) bits / symbole
N i =1
L'information moyenne par symbole s'appelle l'entropie de la source. Ceci veut dire que
"normalement nous recevons H bits d'information par symbole dans un message long".
3
Exercice :
Calculer l'entropie d'une source qui émet 3 symboles A, B et C avec des probabilités
1/2, 1/4 et 1/4.
On définit le débit d'informations, la somme des informations émises par seconde. Avec cette
définition pour une source à entropie H et le débit de rs symboles par seconde, le débit de
l'information émise par cette source est :
R=rsH bits/sec
1. Juste avant de générer un nouveau symbole, la source est dans un des n états possibles. A
chaque émission d'un symbole, la source change son état disons de i à j. La probabilité de
transmission est égale à pij. Cette probabilité dépend uniquement de l'état initial i et de
l'état final j. De plus cette probabilité reste constante dans le temps.
2. En changeant l'état, la source émet un symbole. Ce symbole dépend uniquement de l'état
initial et la transition i j.
3. Soit s1, s2, …, sM l'alphabet et X1, X2, …, Xk, … la séquence des variables aléatoires
représentant les symboles émis aux instants 1, 2, …, k, … . La probabilité que le symbole
Xk soit égal à sq dépend des symboles précédemment émis. C'est à dire que sq est émis
avec la probabilité conditionnelle ci-dessous:
4. L'influence de la séquence X1 à Xk-1 peut être résumée dans l'état dans lequel la source se
trouve juste avant l'envoi du symbole Xk, à savoir Sk. Alors, la probabilité ci-dessus peut
être écrite :
4
' $
entropie H2 (Sh/symb) 1
PSfrag replacements
0.5
0
0 0.5 1
probabilité p
& %
Ceci veut dire que toute l'histoire de la source se résume dans l'état dans lequel elle se
trouve.
5. Pour le premier symbole la source est dans un des n états possibles avec les probabilités
P1(1), P2(1), …, Pn(1). Nous avons donc
∑ P (1) = 1
i =1
i
6. Si la probabilité que le système (la source) soit dans l'état j au début du kième intervalle est
Pj(k), on a :
n
Pj (k + 1) = ∑ Pi (k ) pij
i =1
Nous pouvons présenter cette expression sous forme matricielle. Supposons P(k) un
vecteur colonne avec les éléments Pi(k) et Φ une matrice n×n avec (i,j)ième élément égal à
Pij . On a :
P(k + 1) = ΦT P(k )
Les sources d'informations dont la sortie peut être modélisée avec un processus stationnaire
Markoff, s'appellent les source stationnaire de Markoff.
Les sources Markoff sont généralement présentées par un graphe qui montre les états, les
transitions et les probabilités correspondant.
Exercice :
Pour le schéma ci-dessous
- calculer la matrice des transitions
- calculer la probabilité que la source émet le message "AB"
5
A partir du diagramme ci-dessus, on peut dessiner le diagramme arborescent équivalant qui
explose si on veut considérer des messages un peu longs.
n
H = ∑ Pi H i bits / symbole
i =1
où Pi est la probabilité que le système soit dans l'état i. De l'autre côté, Hi est calculé comme
suit :
6
n 1
H i = ∑ pij log 2 bits / symbole
p
j =1 ij
R=rsH bits/seconde
Exercice :
Considérons la source d'information dont le graphe est donné ci-dessous.
- Calculer l'entropie de la source H
- Dessiner le diagramme arborescent jusqu'à trois symboles
- Calculer la valeur moyenne de l'information contenue dans chaque symbole dans
un message de un, deux et trois symboles.
Dans l'exercice ci-dessus, on constate que le contenue de l'information portée par un symbole
diminue pour les messages plus longs et en limite, il tend vers H. Cette constatation est en
général vrai pour les sources qui émettent des symboles dépendants. Le théorème ci-dessous
formalise cette problématique.
Théorème:
Prenons des messages mi de taille N issues d'une source Markoff. Sachant que
l'information contenue dans cette séquence est égale à − log 2 p (mi ) , l'information
moyenne par symbole est donc :
1
GN = −
N
∑ p(m ) log
i
i 2 p ( mi )
La somme est effectuée sur tous les messages de taille N symboles. Il est montré que
GN est une fonction monotone décroissante de N. De plus :
Une des conséquences importante est que "le nombre moyen de bits par symbole nécessaires
pour présenter un message diminue quand la taille de message augmente" (réfléchir sur la
signification de cette phrase).
7
1.3. Codage de source
On entend par le codage de source le processus par lequel la sortie d'une source de
l'information est transformée en séquence binaire. En entrée du codeur de source, nous avons
une séquence en général binaire qui comporte une quantité de l’information. En sortie nous
avons une autre séquence binaire qui représente plus au moins les mêmes informations, mais
présenté autrement. Le but, dans la plupart des cas, est de diminuer le débit (ou la taille de la
séquence). C’est la raison pour laquelle le codage de source est aussi appelé la compression
de donnée.
Par fois, le but est de crypter les informations pour les sécuriser. Dans ce cas, il se peut que le
débit binaire augmente. Ce cours aborde uniquement le premier aspect et non pas le cryptage.
Dans le cadre de la compression de donnée, la tâche à remplir par le codeur est de présenter
les mêmes informations (ou presque) avec des messages les plus courts possibles. Nous fixons
deux conditions suivantes pour un codeur de source :
- le message généré en sortie du codeur est en binaire
- les informations codées peuvent être décodées de manière plus au moins exacte par
un algorithme de décodage (reconstruction parfaite)
La question essentielle est alors, jusqu'où peut-on compresser le message fourni par une
source d'information. Cette question est abordée en partie par la théorie de l’information2. La
figure ci-dessous donne une aperçue des techniques de codage compresseur. Le codage de
source peut se diviser en deux catégories différents :
- Compression sans perte de l'information (ex. codage de Shannon, Huffman, LZW
donnant lieu aux codages PKZIP, GIF et TIFF, etc.) où aucune information de la
source n'est perdue dans le processus de codage. Le codage est réversible.
- Compression avec perte de l'information (ex. codage JPEG, MPEG, Wavelet,
transform coding, sub-band coding…) où une partie de l'information jugée peu
importante est perdue.
2
On dit « en partie » car le cas où on se permet de supprimer les informations peu importants dépend du
jugement sur l’importance des informations ; et ceci par des moyens indépendant de la théorie de l’information.
8
Dans ce cours, nous présentons les bases nécessaires à la compréhension de fonctionnement
des codeurs compresseurs en se concentrant uniquement sur les codeurs sans perte. Pour les
codeurs de source avec perte, il faut étudier la nature de l’information à transmettre. Par
exemple pour un signal audio, les fréquences autour d’un kilo hertz sont codées avec plus de
précision que les signaux à très basse fréquence ou à très haute fréquence où l’oreille est
moins sensible.
9
1.3.1. Algorithme de Shannon
D'abord, nous allons formuler la problématique :
L'entrée du codeur est un des q messages possibles chacun contient N symboles. Les
probabilités correspondants sont p1, p2, …, pq. Le but est de remplacer (coder) le
message mi par un code binaire unique ci (i=1,2,…,q) et que le nombre moyen de bits
par symbole soit le plus proche possible à GN. C'est à dire :
q q
1 1
Hˆ N =
N
∑ ni p i
i =1
→
N
∑p
i =1
i log 2 (1 / pi )
où ni est le nombre de bits pour le code ci et NHˆ N représente la taille moyenne des
mots du code.
La solution présentée par Shannon est la suivante :
1. Les messages plus probables sont codés par des codes courts et les messages peu
probables par des codes longs. (pourquoi ?)
2. Tous les mots de codes sont distincts.
3. Le nombre moyen des bits par symbole en sortie est limité par : (pourquoi)
G N ≤ Hˆ N < G N + 1 / N
Par conséquence, quand N → ∞ , G → H et Hˆ → H . La performance du codeur
N N
est quantifiée par l'efficacité du code définie par
e = H / Hˆ N
Exercice :
Considérons le diagramme d'état ci-dessous. Suivre l'algorithme de Shannon pour
trouver le mot de code concernant les messages de taille 1, 2 et 3. A chaque fois,
calculer l'efficacité du code.
10
Solution :
D'abord N=1. Les messages sont "A", "B" et "C". nous avons :
P(A)=P(A|S=1)*p(S=1)=3/4*1/2=3/8
P(B)=P(B|S=2)*P(S=2)=3/4*1/2=3/8
P(C)=P(C|S=1)*P(S=1)+ P(C|S=2)*P(S=2)=1/4*1/2+1/4*1/2=2/8
Développement
Message pi ni Fi ci
binaire
A 3/8 2 0 0.00000 00
B 3/8 2 3/8 0.01100 01
C 2/8 2 6/8 0.11000 11
Ĥ 1 =2 bits/symbole e=40.56%
Pour N=2, les message sont "AA", "AC", "BB", "BC", "CA", "CB", "CC".
Développement
Message pi ni Fi ci
binaire
AA 9/32 2 0 0.0000000 00
BB 9/32 2 9/32 0.0100100 01
AC 3/32 4 18/32 0.1001000 1001
CB 3/32 4 21/32 0.1010100 1010
BC 3/32 4 24/32 0.1100000 1100
CA 3/32 4 27/32 0.1101100 1101
CC 2/32 4 30/32 0.1111000 1111
Ĥ 2 =1/2[2*(2*9/32)+4*(4*3/32)+4*2/32]=23/16=1.44 , e=56.34%
Développement
Message pi ni Fi ci
binaire
AAA 27/128 3 0 0.0000000 000
BBB 27/128 3 27/128 0.0011011 001
CAA 9/128 4 54/128 0.0110110 0110
CBB 9/128 4 63/128 0.0111111 0111
BCA 9/128 4 72/128 0.1001000 1001
BBC 9/128 4 81/128 0.1010001 1010
AAC 9/128 4 90/128 0.1011010 1011
ACB 9/128 4 99/128 0.1100011 1100
CBC 3/128 6 108/128 0.1101100 110110
CAC 3/128 6 111/128 0.1101111 110111
CCB 3/128 6 114/128 0.1110010 111001
CCA 3/128 6 117/128 0.1110101 111010
BCC 3/128 6 120/128 0.1111000 111100
ACC 3/128 6 123/128 0.1111011 111101
CCC 2/128 6 126/128 0.1111110 111111
11
Ĥ 3 =1/3*[2*3*27/128+6*4*9/128+6*6*3/128+6*2/128]=166/128=1.3
e=62.40%
Exemple :
Supposons une source qui émet un des quatre symboles ci-dessous avec les probabilités
correspondantes :
a1 : 0.9; a2 : 0.06; a3 : 0.02; a4 : 0.02;
Avec la méthode Huffman, on obtient le code correspondant chaque symbole comme suit :
a1 0; a2 10; a3 110; a4 111;
−l
En effet, le codage de Huffman est optimal avec une efficacité de 100% si p (a j ) = 2 j . Si ce
n'est pas le cas, le nombre de bits optimal par symbole n'est plus entier, ce qui va causer une
perte d'efficacité. Le codage arithmétique dans ce cas, donne une performance meilleure. Le
principe du codeur est le suivant.
Contrairement à l'algorithmes de Huffman qui associe à des symboles des motifs binaires dont
la taille dépend de leur distribution, le codeur arithmétique traite un bloc de symbole en lui
associant un unique nombre décimal rationnel.
Chaque symbole est entré avec sa probabilité d’occurrence comprise entre 0 et 1, (en
commencent par celui qui a la probabilité la plus élevée ), et le codage se traduit par
l’affectation d’un nombre unique, à virgule flottante, compris entre 0 et 1, à un ensemble de
symboles.
12
Décrivons le principe du codage et de décodage sur un exemple :
Considérons le codage du message ATLAS. Les probabilités des caractères sont les suivante :
Caractère Probabilité
A 1/10
L 2/10
S 1/10
T 1/10
Dans l’intervalle général de probabilité [0,1], chaque symbole se voit affecter un intervalle de
probabilité (la manière d’affecter cet intervalle n’ayant pas d’importance)
On peut maintenant soustraire la limite inférieure correspondant à A, soit 0,10 ,ce qui donne :
0,05228 et diviser ce résultat par la longueur de l’intervalle correspondant à A, soit 0,10 ,ce
qui donne : 0,5228. Ce nombre étant compris entre 0.5 et 0.6, la deuxième lettre est T. En
continuant, on trouve dans l’ordre tous les symboles du message.
13
inférieure supérieure
0,15228 0.1 0.2 A
0.5228 0.5 0.6 T
0.228 0.2 0.4 L
0.14 0.1 0.2 A
0.4 0.4 0.5 S
Cette technique se montre un peu plus lente que celle de Huffman mais elle présente des taux
de compression.
14
1.4. Canaux de communication.
Il est possible de diviser un canal de transmission en un émetteur, un canal physique ou un
média de transmission, et un récepteur. L’émetteur est composé d’un encodeur et d’un
modulateur tandis que le récepteur est constitué d’un démodulateur et d’un décodeur. Le
terme "canal de communication" porte différentes significations et interprétations qui
dépendent de ses points terminaux et de sa fonctionnalité. Entre les points c et g du système
montrés sur la Figure ci-dessous, nous avons un canal discret, souvent appelé canal de
codage, qui accepte une séquence de symbole à son entrée et produit une séquence de
symbole à sa sortie. Ce canal est complètement caractérisé par une série de probabilités de
transition pij, où pij est la probabilité que l’on ait le jième symbole de l’alphabet en sortie du
canal lorsque l’on a le ième symbole en entrée. Ces probabilités dépendront des paramètres du
modulateur, du média de transmission, du bruit et du démodulateur.
Canal de communication de
données(discret)
Canal de Codage
(discret)
Canal de Modulation
(analogique)
Canal de Bruit
Communication
b Codeur c d Electrique e + f g Décodeur h
de Modulateur ou Démodulateur de
canal Média de canal
+
transmission
15
que les fades (atténuation aléatoire qui change au sein du canal de transmission). Toutes ces
perturbations introduisent des erreurs dans la transmission de donnée et limitent le taux
maximum auquel les données peuvent être transmises au travers du canal.
Dans les sections suivantes, nous développerons des modèles mathématiques simples pour les
canaux de communication discrets ainsi que le concept de capacité d’un canal de
communication discret. La capacité d’un canal est un des paramètres les plus importants d’un
système de communication de donnée puisqu’il représente le taux maximum auquel des
données peuvent être transmises entre deux points d’un système, avec arbitrairement, une
faible probabilité d’erreur. Ensuite, nous traiterons des canaux discrets, puis du théorème de
Shannon-Hartley qui définit la capacité de certains types de canaux continus.
L’entrée du canal est une variable binaire X aléatoire et discrète et les deux nœuds situés à
gauche du graphe représentent les valeurs 0 et 1 de la variable aléatoire X. La sortie du canal
est aussi une variable aléatoire et binaire notée Y et les valeurs que cette variable peut prendre
sont les nœuds situés à droite du graphe. 4 chemins relient les nœuds d’entrée aux nœuds de
sortie. Le chemin supérieur du graphe représente une entrée 0 et une sortie correcte 0. Le
chemin diagonal de 0 à 1 représente un bit d’entrée à 0 apparaissant incorrectement comme un
1 en sortie du canal suite au bruit. Les erreurs se produisent de manière aléatoire et il est
possible de modéliser statistiquement l’occurrence des erreurs en assignant des probabilités
aux chemins montrés à la figure. Afin de simplifier les analyses, nous supposerons que
l’occurrence d’une erreur n’affecte pas le comportement d’un système pendant d’autres
intervalles de bit ( i.e., nous supposerons que le canal est sans mémoire).
16
pij = P(Y = j X = i )
p00
0 0 p 00 + p 01 = 1
p11 + p10 = 1
p10
Valeur X Valeur Y
P( X = 0) = p 0t
transmise reçue P( X = 1) = p1t
p01
P(Y = 0) = p 0r
1 1 P(Y = 1) = p1t
p11
Si p = p = p , le canal est dit binaire symétrique ( binary symmetric channel BSC ). p est
00 11
le seul paramètre nécessaire pour caractériser un canal BSC.
Nous pouvons élargir notre modèle au cas général où l’entrée X peut recevoir M valeurs
distinctes (M>2). Le modèle du cas général est illustré par la figure ci-dessous. L’étude de ce
canal est similaire à celle effectuée précédemment sur le canal binaire discret. Par exemple,
M
p rj = ∑ pit pij
i =1
et
M M
P(error ) = Pe = ∑ pit ∑ pij
i =1 j =1,i≠ j
17
P( X = i ) = pit
P(Y = j ) = p rj
P(Y = j X = i ) = pij
Dans un canal discret sans mémoire tel que celui présenté sur la figure ci-dessus, il y a 2
processus statistiques à prendre en compte : ce que l’on envoie sur le canal et le bruit. Il y a
donc un nombre d’entropies ou d’informations que l’on peut calculer. Premièrement, nous
pouvons déterminer l’entropie de la source X comme suit :
i =1
t ème
où p est la probabilité que le i
i symbole de l’alphabet soit transmis. De façon similaire, on
peut définir l’entropie de la sortie Y par :
i =1
où p est la probabilité pour que le symbole présent à la sortie du canal soit le ième symbole de
t
i
l’alphabet. H (Y ) représente le nombre moyen de bits nécessaires par symbole pour coder la
sortie du canal. Nous pouvons aussi définir une entropie conditionnelle H (X Y ) , appelée
équivocation, par :
H (X Y ) = − ∑ ∑ P ( X = i , Y = j ) log (P (X = i Y = j ))
M M
i =1 j =1 2
H (X , Y ) = − ∑ ∑ P (X = i , Y = j ) log P (X = i , Y = j )
M M
i =1 j =1 2
18
H ( X , Y ) = H (X Y ) + H (Y )
= H (Y X ) + H ( X )
où
H (Y X ) = − ∑ ∑ P ( X = i , Y = j ) log (P (Y = j X = i))
M M
i =1 j =1 2
Pour un canal binaire symétrique, P(X = i Y = i ) (i = 0,1) donne l’incertitude quant au bit
transmis, par référence au bit reçu. Cette incertitude est minimale quand P(X = i Y = i ) = 1
pour i = 0 , 1 , ce qui rend le canal sans erreur. L’incertitude est maximale quand
P(X = i Y = i ) = 1/ 2 pour i = 0 , 1 . Si on définit l’incertitude par − log [P(X = i Y = i )] alors
2
on a un bit d’incertitude quand la sortie est indépendante de l’entrée. Quand on a un bit
d’incertitude associé à chaque bit reçu, la valeur reçue du bit ne contient aucune information !
La capacité d’un canal (discret et sans mémoire) bruité est défini comme le débit maximal
possible de la transmission d’information sur le canal. Le débit maximal de transmission se
produit lorsque la source est "assortie" au canal. La capacité C d’un canal est définie par :
C = max {Dt}
P(X)
où le maximum concerne toutes les sources d’information possible, le maximum est pris
parmi toutes les distributions de probabilité possible pour la variable X discrète et aléatoire.
19
0 0
p
1 1
P( X= 0 ) = P
P( X= 1 ) = Q
X q = 1-p Y
P( X= 2 ) = Q
P( X= 3 ) = P
2 2
p
3 3
d’où
Dt = - 2P log2 P – 2Q log2 Q - 2Qα
dDt/dP = 0
ou
0= - log2 e - log2 P + log2 e + log2 (½ - P) + α
= - log2 P + log2 Q + α
En résolvant l’équation, on obtient
P = Q2α=Qβ
ou
β=2α
20
P=(β/(2(1+ β))
Q=(1/(2(1+ β)).
La capacité du canal est alors,
Une vérification avec des valeurs extrêmes de p=1 et p=0 révèle la chose suivante : Avec P=1,
nous avons un canal sans erreur et le débit maximal de transmission d’information se produit
lorsque les symboles en entrée se produisent avec la même probabilité. La capacité du canal
pour ce canal idéal est de 2 bits/symbole ou 2 bits/sec avec un débit de symbole de 1
symbole/sec. Dans le cas bruité avec p= ½, la capacité du canal est C=log2 3. Dans ce cas, le
premier et le quatrième symbole sont utilisés plus souvent que les deux autres du fait de leur
immunité au bruit. Aussi, le deuxième et le troisième symbole ne peuvent pas être distingués
du tout et agissent ensemble comme un symbole. Alors, la capacité log2 3 parait être une
réponse raisonnable. Pour d’autres valeurs de p, la capacité du canal se situera entre log2 3 et
log2 4 bits/sec.
La justification pour définir une capacité pour un canal bruité quand nous savons que nous ne
pouvons jamais envoyer une information sans erreur sur un tel canal est basé sur le fait que
nous pouvons définitivement réduire la probabilité d’erreur en répétant les messages plusieurs
fois et en étudiant les différentes versions reçues du message. En augmentant la redondance
de l’encodage, la probabilité d’erreur peut être quasiment nulle. Ce résultat est spécifié
comme un théorème.
Théorème
Soit C la capacité d’un canal discret sans mémoire et soit H l’entropie d’une source
d’information discrète émettant rs symboles par seconde. Si rs.H <= C, il existe alors un
schéma de codage telle que la sortie de la source puisse être transmise avec une probabilité
d’erreur arbitrairement petite. Il n’est pas possible de transmettre une information à un débit
excédant C sans une fréquence positive d’erreurs.
Le canal de communication entre les points "d" et "f" de la page 15 est de nature analogique
ou continue. Dans cette partie du canal, les signaux d’entrée sont des fonctions continues du
temps, et la fonction du canal est de restituer à ses sorties la forme de l’onde présentée à ses
entrées. Un canal réel n’accomplit cette fonction qu’approximativement. Premièrement, le
21
canal modifie la forme d’onde de manière déterministe et cet effet peut être parfaitement
modélisé en assimilant le canal à un système linéaire. Le canal modifie aussi le signal d’entrée
de manière aléatoire par des bruits additifs et multiplicatifs. Dans ce cours, nous parlerons
uniquement du bruit additif car il intervient plus souvent que le bruit multiplicatif. Le bruit
additif peut être « impulsif » ou gaussien. Le bruit gaussien inclut le bruit des équipements et
des radiations captées par l’antenne réceptrice. D’après le théorème de la limite centrale, le
bruit résultant de la somme des effets des différentes sources suit une distribution
gaussienne. A cause de son omniprésence, le bruit gaussien est plus souvent utilisé pour
caractériser la portion analogique des canaux de communication. Les techniques de
modulation et de démodulation sont choisies de façon à diminuer les effets du bruit gaussien.
Un deuxième type de bruit, le bruit « impulsif », est aussi rencontré dans les canaux. Il est
caractérisé par des alternances de longs intervalles de silence et des pics de bruit de forte
amplitude. Ce type de bruit est dû aux commutations, aux décharges électriques, et aux heurts
accidentels lors de la maintenance des appareils. Caractériser ce bruit est beaucoup plus
difficile que de caractériser le bruit gaussien. Ainsi, pour ce bruit, les techniques de
modulation analogique ne sont pas aussi adaptées que des méthodes de codage numérique
pour résoudre les effets de ce bruit. C’est pour cela que les effets du bruit « impulsif » sont
souvent inclus dans le modèle de la partie discrète du canal, et seul le bruit gaussien est inclus
dans le modèle de la partie analogique du canal.
+
canal ∑
Xc(t) Vers le démodulateur
( du modulateur )
+ Z(t) = Xc(t) + n(t)
22
1.6.1. Le théorème de Shannon-Hartley et ces implications
Théorème
La capacité d’un canal de bande passante B et de bruit additif blanc gaussien à bande limité
est
23