Académique Documents
Professionnel Documents
Culture Documents
Introduction au Codage
AU: 2021/2022
Introduction
La théorie de l’information est une discipline qui s’appuie non seulement sur
les (télé-)communications, mais aussi sur l’informatique, la statistique, la
physique statistique, la théorie de l’inférence.
Il est indéniable que le développement des communications a nourri la théorie
de l’information et inversement. Une contribution fondamentale et extrêmement
importante est l’article de C.E. Shannon, « A mathematical theory of
communications », paru dans le journal de ATT Bell, en 1948. (Cet article a été
ensuite réédité sous la forme d’un livre).
La presque totalité de ce cours est contenue dans l’article original de Shannon.
On présentera d’abord l’entropie (dite de Shannon) comme mesure
d’information. À l’aide des notions d’information, on introduira ensuite trois
théorèmes de Shannon.
AU 2021-2022 2
Introduction
- Le premier théorème de Shannon indique qu’une source, peut être codée
de façon déchiffrable, avec des mots dont la longueur moyenne est bornée par
l’entropie de la source.
- Le second théorème de Shannon, ou théorème du codage de canal, ou
théorème du canal bruité, est tout aussi fondamental, et peut être plus. Ce
théorème indique que si l’entropie de la source est inférieure ou égale à la
capacité du canal, alors il est possible de trouver un code tel que la probabilité
d’erreur lors de la transmission soit aussi faible que l’on veut.
- Le troisième théorème de Shannon, appelé théorème de la capacité
d’information, permet de relier la capacité d’information à la bande du canal, la
puissance transmise et la puissance du bruit additif. Il fournit en outre la
capacité limite (lorsque la bande tend vers l’infini), et la limite de Shannon.
AU 2021-2022 3
Introduction
L’expéditeur et le destinataire d’un télégramme ont des attitudes différentes de
celles de l’employé de la Poste : pour les deux premiers, le message a une
signification. Pour l’employé de la Poste, cette signification est indifférente ; il
compte les caractères qu’il transmet en vue de faire payer un service : la
transmission d’une « quantité d’information » proportionnelle à la longueur du
texte.
AU 2021-2022 4
AU 2021-2022 5
Organisation du module
Introduction à la
Système de communication
théorie de
Mesure de l’information
l’information
Définition
Codage Source Premier théorème de Shannon
Codes à longueur variable VLC
Compression d’images
AU 2021-2022 6
Organisation du module
Introduction à la contrôles
théorie de
l’information
Codage Source
Codage Canal
assiduité présence TP
AU 2021-2022 7
Introduction à la théorie de
l’information
AU 2021-2022 9
Messages et signaux
AU 2021-2022 10
Approche empirique
AU 2021-2022 11
Notations
AU 2021-2022 12
Définitions
X0={0,1}
X2={00, 01, 10, 11} extension d’ordre 2 de la source
X3 = {000, 001,010,011, …., 111} extension d’ordre 3 de la source
AU 2021-2022 13
Introduction
AU 2021-2022 14
Introduction
AU 2021-2022 15
Introduction
AU 2021-2022 16
Introduction
AU 2021-2022 17
Sources d’informations
AU 2021-2022 18
Sources d’information discrètes
AU 2021-2022 19
Sources d’information discrètes
Remarque:
AU 2021-2022 20
Sources d’information discrètes
=> Source stationnaire: source pour laquelle les probabilités d'apparition des
différents symboles ne dépendent pas de l'origine des temps
=> Source à débit contrôlable: source pouvant générer des messages comme
suite à une commande externe (Télégraphe, ..)
=> Source à débit non contrôlable: source générant des messages avec un
débit fixé, propriété de la source (CD audio)
=> Source discrète à contraintes fixes: source pour laquelle certains symboles
ne peuvent être utilisés qu'en des conditions déterminées (Morse, …)
AU 2021-2022 21
Sources d’information discrètes
AU 2021-2022 22
Source d’information continues
AU 2021-2022 23
Modélisation des sources d’information
AU 2021-2022 24
Notions de probabilités (Rappel)
AU 2021-2022 25
Notions de probabilités (Rappel)
AU 2021-2022 26
Notions de probabilités (Rappel)
AU 2021-2022 27
Notions de probabilités (Rappel)
AU 2021-2022 28
Notions de probabilités (Rappel)
AU 2021-2022 29
Quantité d’information propre
AU 2021-2022 30
Quantité d’information propre
AU 2021-2022 31
Entropie & information
AU 2021-2022 32
Entropie des sources discrètes sans mémoire
AU 2021-2022 33
Entropie des sources discrètes sans mémoire
AU 2021-2022 34
Entropie des sources discrètes sans mémoire
AU 2021-2022 35
Entropie des sources composées
AU 2021-2022 36
Entropie conditionnelle
moyenne de sources discrètes sans mémoire
AU 2021-2022 37
Entropie & information
AU 2021-2022 38
Entropie & information
AU 2021-2022 39
Entropie & information
AU 2021-2022 40
Entropie & information
AU 2021-2022 41
Efficacité et redondance d’une source
AU 2021-2022 42
Résumé
Définitions générales
AU 2021-2022 44
Entropie et information
AU 2021-2022 45
Entropie et information
AU 2021-2022 46
Entropie et information
AU 2021-2022 47
Entropie et information
AU 2021-2022 48
Entropie et information
AU 2021-2022 49
Conclusion
Pourquoi le codage source?
AU 2021-2022 50
Conclusion
Pourquoi le codage source?
AU 2021-2022 51