Académique Documents
Professionnel Documents
Culture Documents
théorie de l ’information
Olivier Pothier
Philips Research France
olivier.pothier@philips.com
www.opothier.com
Introduction
Définitions de mesures quantitatives de l ’information
entropie
information mutuelle
Propriétés de l’entropie et de l ’information mutuelle
Capacité d’un canal et théorème fondamental du codage
de canal
Capacités des canaux classiques
Un constat :
la transmission d’un message certain est inutile
source d’information : siège d’événements aléatoires qui
constituent le message
quantité d’information d’un message :
h( x, y ) f 1 f 1 f 1 p( x ) f 1 p( y ) h( x ) h( y )
p( x, y ) p( x ) p( y )
p x y
information mutuelle : i ( x; y ) log
p( x )
n m
Entropie conjointe : H ( X , Y ) E h( X , Y ) p( xi , y j ) log p( xi , y j )
i 1 j 1
Entropie conditionnelle :
n m
H (Y X ) E h(Y X ) p( xi , y j ) log p( yi x j )
i 1 j 1
information mutuelle
moyenne: n m p xi y j n m
I ( X ; Y ) Ei ( X ; Y ) p( xi , y j ) log
p xi , y j
p( xi , y j ) log
i 1 j 1
p xi i 1 j 1
p xi p y j
Bases de la théorie de l’information 8
Entropie d’une variable binaire
H p1 ,, pn log n
Borne sup :
(égalité ssi source uniforme)
Convexité de l ’entropie
information mutuelle
moyenne et entropie:
I X ; Y H X H X Y H Y H Y X