Académique Documents
Professionnel Documents
Culture Documents
Travaux Dirigés
Master I- Systèmes de Télécommunications
(2019-2020)
I. Exercice 1.
Rappelez la définition de l'entropie d'une source discrète. Quel est son signe ?
Que représente l'entropie en terme d'information ?
II. Exercice 2:
III. Exercice 3:
V. Exercice 5:
Vérifiez que pour une source discrète de n symboles l’entropie est maximale si les
probabilités sont identiques.
1. Montrez que pour une source continue prenant ses valeurs dans l’intervalle [a, b]
l’entropie est maximale si la loi de probabilité est uniforme.
2. Y a-t-il une loi qui minimise la valeur de l’entropie ?