Académique Documents
Professionnel Documents
Culture Documents
ET CODAGE
Hicham Jakjoud
h.jakjoud@uiz.ac.ma
Chapitre 0:
Introduction pédagogique
Chapitre 0 : Introduction pédagogique
Plan du cours
Plan du cours
Plan du cours
1. Introduction
Bruit
1. Introduction
Bruit
Le codeur
1. Introduction
Bruit
Le canal
1. Introduction
Bruit
Le décodeur
1. Introduction
1. Introduction
1. Introduction
• Les réponses des deux questions sont des quantités physiques telles que:
• l’entropie
• et l’information mutuelle,
𝐻 𝑋 =− 𝑝 𝑥 𝑙𝑜𝑔2 𝑝 𝑥
𝑥
Exercices:
Calculer l’entropie d’une variable aléatoire qui suit une loi uniforme sur
32 résultats.
𝐻 𝑋, 𝑌 = − 𝑝 𝑥, 𝑦 𝑙𝑜𝑔𝑝(𝑥, 𝑦)
𝑥,𝑦
Généralités sur la théorie de l’information
•I est toujours positive, symétrique et peut être nulle si les deux variables
sont indépendantes
Généralités sur la théorie de l’information
• Représentation intuitive
Généralités sur la théorie de l’information
𝐶 = 𝑚𝑎𝑥𝑝(𝑥) 𝐼(𝑋; 𝑌)
• Exercices :
Soit un canal binaire sans bruit dont la sortie est identique à l’entrée
Calculer la capacité du canal.
0 0
1 1
Généralités sur la théorie de l’information
𝐶 = 1 + 𝑝𝑙𝑜𝑔(𝑝) + 1 − 𝑝 𝑙𝑜𝑔(1 − 𝑝)
• Le théorème du codage du canal montrera que cette limite peut être atteinte
en utilisant de longs blocs de code.
• Elle mesure la ‘distance’ entre les probabilités p et q. Elle est donnée par
𝑝 𝑥
𝐷 𝑝||𝑞 = 𝑝 𝑥 𝑙𝑜𝑔
𝑞 𝑥
𝑥
Généralités sur la théorie de l’information
• Propriétés:
1) 𝐻 𝑋, 𝑌 ≥ 0
2) 𝐻 𝑋|𝑌 ≥ 0
3) 𝐻 𝑔 𝑋 |𝑋 = 0 𝐻(𝑔 𝑋 ) ≤ 𝐻(𝑋)
4) 𝐻 𝑋, 𝑌 = 𝐻(𝑌, 𝑋)
5) 𝐻 𝑋, 𝑌 = 𝐻 𝑋 + 𝐻 𝑌 − 𝐼(𝑋|𝑌)
6) 𝐻 𝑋, 𝑌 = 𝐻 𝑋 + 𝐻 𝑌 X et Y sont indépendantes
3. Codage de source
3. Codage de source
• Chaque source émet des messages suivant une loi qui peut dépendre des
symboles qui l’ont précédé.
𝑃 𝑆1 , … 𝑆𝑛 = 𝑃 𝑆1 𝑃 𝑆2 |𝑆1 … 𝑃 𝑆𝑛 |𝑆𝑛−1
Généralités sur la théorie de l’information
3. Codage de source
Exemple:
3. Codage de source
Exemple:
C(rouge)=00; C(bleu)=10
c’est une source X={rouge, bleu} et D={0,1}
3. Codage de source
Exercice:
Soit X une variable aléatoire avec la distribution et le code suivants :
Distribution Code
P(X=1) = 1/2 C(1)=0
P(X=2) = 1/4 C(2)=10
P(X=3) = 1/8 C(3)=110
P(X=4) = 1/8 C(4)=111
1. Calculer l’entropie H(X), La longueur moyenne L(C)
2. Codifier le message : 134231
3. Calculer H(X) et L(C) pour une variable aléatoire opérant sur X={1, 2,
3} et dont les probabilités pour chacun des symboles est de 1/3 et pour
lequel D={0, 10, 11}
Généralités sur la théorie de l’information
3. Codage de source
• Dans le cas réel où l’on envoie une série, on peut assurer le décodage en
ajoutant un symbole spécial entre chaque deux mots.
3. Codage de source
𝐶 𝑥1 𝑥2 𝑥3 … 𝑥𝑛 = 𝐶 𝑥1 𝐶 𝑥2 𝐶 𝑥3 … 𝐶 𝑥𝑛
3. Codage de source
3.2. Classe de codes
Les classes de codes
x singulier Non-singulier Décodable unique instantané
1 0 0 10 0
2 0 010 00 10
3 0 10 11 110
4 0 01 110 111
Décodable
uniquement
Instantanés
Non-singuliers
Généralités sur la théorie de l’information
3. Codage de source
• Il est clair que l’on ne peut assigner des courts mots de code à tous les
symboles et qu’ils restent sans aucun préfixe.
𝐷 −𝑙𝑖 ≤ 1
𝑖
• Un code est dit complet si et seulement s’il garantit l’inégalité dans
l’expression de Kraft ci-dessus.
Généralités sur la théorie de l’information
3. Codage de source
a. La méthode directe
Exercice:
Présenter un code pour la variable X définie par :p(1)=0.35, p(2)=0.22,
p(3)=0.18, p(4)=0.15, p(5)=0.10
3. Codage de source
3. Codage de source
Exercice:
Présenter un code pour la variable X définie par :p(1)=0.35, p(2)=0.22,
p(3)=0.18, p(4)=0.15, p(5)=0.10
3. Codage de source
c. Code de Huffman
• Cette technique est réitérée sur les états restants jusqu’à ce qu’il n’en reste
que deux.
Exercice:
Présenter un code pour la variable X définie par :p(1)=0.35, p(2)=0.22,
p(3)=0.18, p(4)=0.15, p(5)=0.10
Considérons la source aléatoire X définie sur l'ensemble {A1, A2, A3, A4, A5, A6, A7}. Les
Les probabilité d'apparition des éléments de l'ensemble de départ sont:
X p(X)
A1 0.19
A2 0.03
A3 0.38
A4 0.14
A5 0.05
A6 0.2
A7 0.01
On désire transmettre les messages de cette source sur un canal 'Ch1' exempté de bruit.
1) Calculer la longueur moyenne optimale du codage à utiliser.
2) Adoptant les trois méthodes de codage de source,
2.1. Donner le code de chacun des Ai.
2.2. Déterminer la longueur moyenne du code et comparer avec la valeur de (1)
3) Quelle est la classe de ces codes?