Académique Documents
Professionnel Documents
Culture Documents
signal
source de bruit
émetteur
recepteur
Système de communication
Information : séquence de signaux, correspondants à des règles
de combinaisons précises, transmises entre une source et un
récepteur par l’intermédiaire d’un canal
modulatio
n
Canal continu
démodulation
Phase de décodage
Résultats fondamentaux:
Réaliser une transmission d’information exempte d’erreur,
malgré l’existence du bruit de fond
La théorie de l’information
Donner une définition quantitative à la notion d’information
Aspects :
Incertitude (comportement imprévisible)
mesurable notion quantitative de l’information
16
Eléments de la théorie de l’information
Probabilité d’occurrence des caractères
Quantité d’information:
Soit X une v.a. La quantité
d’information associée à
la réalisation x = xi est :
La quantité
d’information se mesure
en bits (logarithme à base
2).
ln x
log 2 x
17
ln 2
Source : Biographical Essays de Thomas de Quincey
L’entropie dans la théorie de l’information
En physique, l’entropie est une grandeur mesurant l’« incertitude » .
En théorie de information, l’entropie est nulle lorsqu’il y a une certitude et est
maximale quand le signal est aléatoire.
Tout signal transporte de l’information.
Cette grandeur, que l’on perçoit de façon intuitive, n’est pas facile à définir
quantitativement, il est cependant naturel de lui attribuer certaines propriétés :
c’est une grandeur toujours positive,
elle est additive, toute contribution du signal apporte une quantité d’information
qui s’ajoute à celle que l’on possède déjà,
elle est liée à la probabilité associée à l’évènement : la quantité d’information
doit être d’autant plus grande que la probabilité est faible.
L’idée principale de la théorie de l’information est de dire que s’il n’y a pas
d’incertitude vis à vis du message émis par la source, il n’y a pas d’information à
la réception du message.
18
L’entropie
Pour une source X émettant un message comportant N symboles, tel
que un symbole xi a une probabilité pi d'apparaître (la fréquence
d’apparition du symbole xi dans le signal), l'entropie H de la source X est
définie comme:
H X pi hi ( x ) pi log 2 ( pi )
i i
20
Efficacité de codage
Définissons l'efficacité d'un codage par:
H X
E
L
i 1
pi li
21
Théorème de Shannon
En pratique, on ne peut négliger la contrainte li entier, et il est
donc souvent impossible d’atteindre l’optimum. Cependant, on
peut prouver qu’il est possible de s’en approcher:
𝑛̄ = 𝑝𝑙
Propriétés souhaitées des codes
non singulier (régulier): xi x j C xi C x j
– permet de décoder un symbole unique, mais pas une suite de symboles
– pour décoder une suite, il faut introduire un symbole de ponctuation.
instantanément décodable :
– Chaque symbole C peut être décodé sans référence aux symboles
suivants
– Condition préfixe: aucun mot code n’est le préfixe d’un autre mot code
Condition de préfixe
Soit une source X générant des symboles xk d’un alphabet Q-aire (k{1,…,Q} )
C(xk), de longueur nk, peut s’écrire C(xk ) = (ck,1, ck,2 …, ck,nk), où ck,i représente
une lettre aj de l’alphabet q-aire du code (j {1,…,q} ).
Toute séquence de lettre construite par la partie initiale de C(xk) est appelée
préfixe
1
q nk
k 1
Inversement, étant donnés des entiers n1, n2, …, nK qui satisfont cette
inégalité, on peut construire un code préfixe dont les mots code ont ces
longueurs
Inégalité de Kraft : Preuve
Soit nmax la longueur du mot le plus long du code
On considère l’arbre q-aire de profondeur nmax , les feuilles au niveau nmax
sont soit
– des mots code (1)
– des descendants de mots code (2)
– aucun des deux (3)
Un mot code de longueur nk a q nmax ndescendants.
k
1
nx log 1
px
Inégalité de Kraft : Preuve
Cet ensemble (1)+(2) de feuilles étant ou descendant de mots-codes est évidemment
inclus dans l’ensemble (1)+(2)+(3) de toutes les feuilles de niveau nmax. On a donc
q nmax nk
k 1
q nmax
q
k 1
nk
1
Inégalité de Kraft
L’inégalité de Kraft constitue un résultat fondamental en
théorie des codes. Elle fournie en effet une condition nécessaire
et suffisante d’existence de codes déchiffrables et instantanés,
exprimée en fonction de la longueur des mots du codes
1
q nk
k 1