Académique Documents
Professionnel Documents
Culture Documents
l’information
Par Dr BINELE Alphonse
Objectif
• Etude de la mesure de l’information selon les théories de Claude
Shannon et ses applications dans la compression de données et la
détection et correction d’erreurs.
Projet
1ere Partie
Produire une interface Matlab permettant:
D’implémenter le codage d’une source par l’algorithme de Huffman (code de
Huffman) connaissant les probabilités des éléments de son alphabet
De calculer son efficacité
De vérifier l’optimalité du code
Faire de même pour l’algorithme de Huffmann dynamique
Bibliographie
• codage, cryptologie et applications - Bruno Martin - Presses
polytechniques et universitaires romandes - collection technique et
scientifiques des télécommunications - 2004 - www.ppur.org
• théorie des Codes - Dumas, Roch, Tannier, Varrette - DUNOD -
Sciences Sup - 2007 - www.dunod.com
• théorie de l'Information et du Codage - Olivier Rioul - Hermes Science
- Lavoisier - 2007
• the mathematics of coding theory - Paul Garett - Pearson Prentice Hall
- 2004
Plan du cours
• Partie B Mesure de l'information
• Chap I Introduction à la théorie de
• *Incertitudes et Information
l'information
• *Information mutuelle/Information propre
• * Définition
• *Entropie/Information mutuelle moyenne
• * Historique
• * Modèle proposé • Chap III Codage des sources discrètes
• Chap II Mesure de l'information • *Definition des sources sans mémoires
• *Inegalité de Kraft Mac-Millan
• Partie A: Rappels sur la théorie des
probabilités • *Premier théorème de Shannon
Canal
• La source est l'organe qui génère les message voix, image, son,
données... (Le faite d'envoyer un bit "0" ou "1" dans un canal de
transmission bruité est une expérience aléatoire puisque le résultat
n'est pas connu d'avance)
• Le codeur source convertit efficacement le message source en
séquences binaires de façon que le code soit concis (représente le
maximum d'information avec un minimum de bits). Avoir un code
uniquement décodable
• Codeur canal: dans le codage canal, on ajoute des bits de redondance
à l'information utile (sortie du codage source), ces bits peuvent
détecter et/ou corriger les erreurs introduites lors du passage de
l'information à travers le canal bruité.
• Le canal est un système de transmission de l’information (CD, Câble
coaxial, fibre optique, Faisceaux hertziens…)
Chap II Mesure de
l’information
Partie A: Notions fondamentales sur la théorie des probabilités discrètes
Partie A: Notions fondamentales sur la
théorie des probabilités discrètes
• 1. Espace probabilisé discret
• a) Expérience aléatoire
• Une expérience est dite aléatoire si elle n'est pas prévue d'avance. Ex:
lancer un dé, envoyer un bit ("0" ou "1") sur un canal de transmission
bruité.
• b)Espace des épreuves
• Quand on réalise une expérience aléatoire, l'ensemble des résultats
possibles (ou épreuves ou issues ou éventualités) constitue les
espaces des épreuves .
Partie A: Notions fondamentales sur la
théorie des probabilités discrètes
•• Exemple
Le jet d'un dé peut être représenté par les nombres 1,2,3,4,5,6 correspondants à chacune des phases.
Pour représenter le jet du dé précisé de 2 cas: {les 2 dés sont identiques} ou {les 2 dés sont différents}
Pour le 1er cas
est composé de 21 éléments
Les éléments de sont:
(1 1), (2 2), (3 3), (4 4), (5 5), (6 6)
(1 2), (2 3), (3 4), (4 5), (5 6)
(1 3), (2 4), (3 5), (4 6)
(1 4), (2 5), (3 6)
(1 5), (2 6)
(1 6)
Partie A: Notions fondamentales sur la
théorie des probabilités discrètes
•Pour
le 2e cas
++=0,5
Partie A: Notions fondamentales sur la
théorie des probabilités discrètes
•d) Espace probabilisé
• Il est défini par le triplet avec:
• : espace des épreuves (l’ensemble des résultats possibles)
• : l’ensemble des assertions logiques possibles relatives au résultat de
l’expérience
• loi de probabilité qui associe à chaque assertion logique un nombre
e) Opération sur les évènements / opération sur les ensembles
Il s’agit de relier les opérations logiques concernant les évènements et les
opérations logiques concernant les parties d’ (la réunion, l’intersection,
passage par valeur).
Partie A: Notions fondamentales sur la
théorie des probabilités discrètes
Terminologie probabiliste Terminologie ensembliste Notation et symbole
Evènement
Evènement certain
certain Espace
Espace tout
tout entier
entier (l’évènement qui est toujours
réalisé)
Evènement Partie de
Evènement
Evènement contrôlé Partie complémentaire ( se réalise lorsque A ne l’est pas)
Evènement contrôlé Partie complémentaire
Évènement impossible Partie vide
Conjonction « et » de A et B intersection A l’évènement se réalise par
Évènement impossible Partie vide connexion si
Évènements incompatibles
Conjonction « et » de A et B Partie disjointe
intersection A=
Disjonction « ou » réunion
Ou exclusif (pour
Évènements des évènements
incompatibles Somme
Partie disjointe
incompatibles)
Disjonction « ou » réunion
implication Inclusion
Ou exclusif (pour des évènements Somme Si
incompatibles) Implique A
implication Inclusion
Partie A: Notions fondamentales sur la
théorie des probabilités discrètes
• Système complet d’évènement
f)
L’ensemble
Si
On dit que les forment une partition de
Un système complet d’évènements correspond à une variable aléatoire discrète
g) Algèbre des évènements
On a des identités suivantes:
,
,
, ,
Partie A: Notions fondamentales sur la
théorie des probabilités discrètes
•f) Probabilité des évènements
• Axiome 1:
• Axiome 2:
• Axiome 3: si
Avec ces axiomes, on peur déduire quelques propriétés
,
,
=
Partie A: Notions fondamentales sur la
théorie des probabilités discrètes
•• 2.
Notion de probabilités conditionnelles
Cette notion s’introduit à chaque fois que pendant le déroulement d’expériences aléatoires une
information partielle est fournie
Exemple
On lance 2 dés truqués et distincts; il y a résultats possibles
On cherche la probabilité de l’évènement « avoir une somme supérieure ou égale 10 ».
Possibilités: (4,6), (6,4), (5,5), (5,6), (6,5), (6,6)
Implique
1er formule de Bays
Partie A: Notions fondamentales sur la
théorie des probabilités discrètes
• Evènements indépendants
3.
• Deux évènements A et B sont statiquement indépendants si:
et
Donc la probabilité conjointe (A
4. Théorème de probabilité totale
Soit A formé par un système complet d’évènements. Soit B un évènement quelconque
de , on définit la probabilité totale de B par:
Partie A: Notions fondamentales sur la
théorie des probabilités discrètes
•• On
peut déduire que
• Réponse
• et
Propriétés
•a
• Lorsque X et Y sont indépendants,
B/ Variance – Ecart-type
Lorsque la variance existe, elle est définit par:
avec et : écart-type
Partie A: Notions fondamentales sur la
théorie des probabilités discrètes
•• Exemple
précédent
•
+2. +4. =
Autre exemple
La v.a X a pour valeur « 0 » et « 1 » avec les probabilités respectives
Calculer
()=()
)
Chap II Mesure de
l’information
Partie B
I. Contenu informatif d’un message
• Pour un codage efficace d’un message en une suite de 0 et de 1, il est
nécessaire de déterminer son contenu informatif
Exemple
• La source transmet toujours le même message, consistant en la lettre A: le
contenu informatif de ce message est nul, car le récepteur n’apprend rien en le recevant.
• La source émet soit oui, soit non : le récepteur reçoit une information binaire.
• La source émet le temps qu’il fera demain : le contenu informatif est très riche, et
l'information transmise est m‐aire s’il y a m possibilités de temps.
• Un message est «riche» en information si sa connaissance mène à un système peu «
prévisible ».
• Cas d’un message qui peut prendre beaucoup de valeurs différentes
En télécommunication, on veut toujours économiser le nombre de bits
transmis pour:
• Gagner du temps (ex. : téléchargement rapide d’une page web sur Internet)
• Faire passer le plus de messages possibles sur un même support (ex.
plusieurs utilisateurs sur la même fibre optique).
• Influence directe sur le coût des transmissions…!
• Ainsi, on souhaiterait coder l’information pertinente du message et elle
seule!
• Mais comment mesurer le contenu informatif d’un message ? La Théorie
de l’Information fournit une mesure de la quantité d’information.
Partie B
•II) Incertitude et l’information
1- Définitions
• Source discrète : système émettant régulièrement des symboles issus d’un
alphabet fini.
• Alphabet : ensemble fini des symboles de la source.
implique
Si alors évènement déterministe
La réalisation d’un évènement certain n’apporte aucune information
Plus un évènement est improbable ( est faible) plus son information propre
est grande.
•Remarque
Il existe d’autres définitions de l’information utilisant différentes base b
pour le log:
Quand b=2, l’unité est « Binary Unit » (bit) ou « Shannon »
Quand b=10, l’unité est le « Hartley » ou le « dit »
Quand b=e, l’unité est « Natural Unit » ou « Nat »
Exemple
Soit une source qui émet un alphabet de sortie
La source est équiprobable donc
Partie B
• Information mutuelle
2)
Définition
On veut mesurer la quantité d’information qu’apporte la réalisation d’un
évènement (recevoir ayant transmit ). On a:
Propriété
Par définition de la probabilité conditionnelle,
implique
Donc la définition est symétrique
Si et sont indépendants alors
Partie B
• Si
alors donc on retrouve l’information propre.
Si implique si l’un des 2 évènements se réalise alors la probabilité d’occurrence de
l’autre est croissante.
implique si l’un des 2 évènements se réalise alors la probabilité d’occurrence de l’autre
est décroissante.
• implique la réalisation de l’un des 2 évènements n’influe en aucun cas la réalisation de
l’autre. Dans ce cas, on dit que les 2 évènements sont indépendants.
Exemple
• On considère le canal binaire symétrique de probabilité de transition avec des entrées
et équiprobables.
•
Interprétation:
• Si alors
Lorsqu’on observe la lettre , la probabilité pour que ait émise est
croissante et au contraire si la lettre est observée, la probabilité pour que
la lettre soit émise est décroissante.
Partie B
•• Si
alors
Lorsqu’on observe la lettre à la sortie du canal, la probabilité pour que ait été émise est
décroissante.
• Si alors sont nulles donc les alphabets d’entrée sortie sont statiquement indépendants, ce qui
n’est pas évidement souhaitable.
3) Information propre conditionnelle
• L’information propre conditionnelle de l’évènement x/y est définie par:
•
Partie B
•
• L’information mutuelle entre égale à quantité d’information fournie
par soustraite à la quantité d’informations que fournit lorsqueest
réalisé.
Partie B
•IV Information mutuelle moyenne – Entropie
1) Définition: Entropie d’une variable aléatoire
• C’est la quantité d’information moyenne véhiculée par une source sans
mémoire associée à chaque symbole de la source.
=0). )
+=1+
Partie B
• Combien
de symboles binaires faut-il pour coder les 4 symboles de la
source? 2bits
• Cette relation donne une borne inférieure, un nombre minimum de
symboles binaires à utiliser pour coder une source discrète à l’aide d’un
code de taille fixe. Cette borne sera égale au plus petit entier supérieur à
3) Débit de l’information
Soit le débit temporel auquel la source X émet les symboles (symboles/s).
Le débit d’information de la source est donné par:
il est exprimé en bits/s
bits/s bits/symbole
Symboles/s
Partie B
4) Représentation d’un canal (de communication) discret sans mémoire
A) Canal discret sans mémoire
Un canal de communication est la voix ou le médium sur lequel transite
le symbole vers le récepteur.
Le canal de communication discret sans mémoire est un model
statistique avec une entrée X et une source Y.
Partie B
• Un
canal est discret quand les alphabets de x et y sont tous les deux finis;
il est sans mémoire quand la sortie courante dépend seulement de
l’entrée courante et non des entrées précédentes.
• Chaque lien E/S est indiqué par une probabilité conditionnelle
(probabilité de transition d’un canal)
B) Matrice d’un canal de communication
Le canal précédent est spécifié par la matrice de probabilités de
transmission
𝑥1 (0)
1−
𝜀
est la matrice du canal de communication. 𝑦 1 (0)
Application 𝜀
𝜀
𝑥2 (1) 𝑦 2 (1)
Partie B
•
Remarques
Étant donné que chaque entrée du canal de communication se trouve dans les sorties:
Chaque ligne de la matrice doit avoir une somme égale 1
Les matrices des probabilités d’entrées et des probabilités de sorties sont données par:
Donc
Si est donnée par une matrice diagonale
Alors nous pouvons écrire:
avec la matrice de probabilités conjointes
Partie B
• L’élément
de la matrice est de la forme
est la probabilité de transmettre et de recevoir
Exemple 𝑥1 (0)
p
𝑦 1 (0)
𝑝
p
𝑥2 (1) 𝑦 2 (1)
p
Donc
=
Partie B
•
Application
• Considérons le canal binaire donné par la figure suivante
a) Donner
b) Calculer 𝑥1 (0)
0,9
𝑦 1 (0)
c) Calculer et
0,1
Le canal n’est pas symétrique car 𝑃(𝑥¿¿1)=0,3¿
𝑃(𝑥¿¿1)=0,7¿
0,2
Et
𝑥2 (1) 𝑦 2 (1)
Réponse 0,8
d)
e)
f) ==
Donc et
Partie B
•C) Capacité d’un canal
La capacité d’un canal est le taux de transmission d’un signal de code à
utiliser pour transmettre de l’information dans des bonnes conditions.
Exemple
Canal binaire symétrique précédent
La capacité du canal par symbole est :
bit/symbole
La capacité du canal s’exprime en bits par seconde est exprimée par:
le nombre de symboles transmis par seconde
Partie B
•D) Entropies conjointes et conditionnelles d’un canal de
communication/Information mutuelle moyenne du canal
m entrées
X Y
est la probabilité d’entrée CANAL
Canal
Les codes
Lettrespossibles
0 à cette
1 séquence
2 3 sont:4 5 6 7 8 9
Mots de 0000 0001 0010 0011 0100 0101 0110 0111 1000 1001
code
3) Différents types de codages source
•
Remarque: avec 4 bits on peut coder 16 symboles donc il reste 6 codes non utilisés; ce qui constitue
un gaspillage dans le codage.
donc le code de longueur fixe n’est pas optimal puisque 6 mots binaires de longueur 4 sont non
utilisés.
b) Code de longueur variable
Soit la longueur du mot de code associé à ; coder n’est pas une simple conversion. On comprime
aussi, on veut que la longueur moyenne du code soit la plus faible possible
doit être le plus faible possible
Si élevé (symbole fréquent) alors doit être faible.
Il faut donc coder les symboles fréquents avec des codes courts.
D’autre part, le décodeur doit pouvoir décoder d’une manière unique sans aucune ambiguïté le code
reçu.
• Remarque
Il peut avoir une ambiguïté dans le décodage.
Ambiguïté
1) Montrer que tous ces codes, excepté le code B satisfont l’inégalité de Karft.
2) Montrer que les codes A et D sont codables de façon unique contrairement
aux codes B et C.
4) Extension de source
• Définition
• On appelle extension de source d’ordre , la source qui s’obtient en regroupant
les symboles de cette source par paquets de symboles consécutifs, chaque
paquet présente une variable aléatoire dans
𝑋
[𝑘 ]
𝑋
[𝑘 ]
𝑋
[𝑘 ]
𝑋
[𝑘 ]
0,45 1,156
0,35 1,520
0,20 2,330
Déterminer H(S) et
4) Extension de source
• Solution
4) Extension de source
• L‘intérêt de l’extension de source
Symbole Code
a 11
b 010
c 00
d 10
e 0111
f 0110
• Devoir
Soit une source dont les éléments de l’alphabet ont les probabilités contenues dans le
tableau ci-dessous.
Symbole Probabilité
0,35
0,10
0,19
Code à répétition:
Les seuls blocks de trois bits autorisés sont 000 et 111
0 donne 000
1 donne 111
Bruit
Canal discret sans 000 110 000 001 111 000 111 111
Décodage canal 01001011
mémoire 0 ? 0 ? 1 0 1 1
Inconvénients
L’ajout de redondance consomme de la bande passante pour la même quantité d’information; il y a
plus de bits à transmettre par unité de temps.
III. Définition liée aux performances de codes
•a) Rendement
• Soit la longueur du mot de code et la longueur du mot
d’information.
k bits n bits
Mots de code Mots d’information
• Le rendement est encore appelé taux de codage.
b) Poids de Hamming
• Le poids de Hamming est le nombre nominal que le code contient.
Exp: P(010010)=2.
•c) Distance Hamming
• La distance de Hamming entre 2 mots de code de même longueur au
sens de Hamming c’est le nombre de positions où les symboles sont
différents dans les mots.
Exp: et
• Quand on parle de la somme de 2 mots de code c’est l’opérateur ou
exclusif (XOR). On a:
a b Exp:
0 0 0 •
0 1 1
1 0 1
1 1 0
• Distance minimale d’un code
d)
• C’est la plus petite distance que l’on peut trouver entre tous les mots de
codes différents pris deux à deux.
• Exp:
Parité impaire
*/
Si le décodeur reçoit
Le décodeur ne détecte pas l’erreur.
IV. Code en blocks linéaires
•
Introduction
• On peut considérer les codes linéaires comme une généralité de la notion de bit de
parité. Le bit de parité classique est calculé sur l’ensemble des bits d’information.
• Les bits de parité s’appellent aussi bits de contrôle (bits de contrôle de parité) en
anglais « parity check bits).
• Des codes linéaires sont des codes où les bits de mots de code dépendent
linéairement (selon l’opérateur ou exclusif et l’opérateur AND) des bits d’information .
avec est le mot d’information
avec est le mot de code
• On notera l’association de mots de code de bits aux mots d’information de bits.
mots d’information de bits
Exemple
• Soit le code linéaire de matrice génératrice: