Vous êtes sur la page 1sur 57

REPUBLIQUE DU CAMEROUN

Paix - Travail Patrie


--------------------UNIVERSITE DE YAOUNDE I
----------------------

REPUBLIC OF CAMEROUN
Peace - Work Fatherland
-------------------UNIVERSITY OF YAOUNDE I
--------------------

ECOLE NATIONALE SUPERIEURE


POLYTECHNIQUE

NATIONAL ADVANCED SCHOOL


OF ENGENEERING

----------------------

--------------------

MASTER PRO 2 EN TELECOMMUNICATIONS

TELEVISION NUMERIQUE
Squence 2 : CODAGEDESOURCEETDECANAL

Equipe des concepteurs :


- Janvier FOTSING
- Pierre TSAFACK
Le contenu est plac sous licence /creative commons/ de niveau 5 (Paternit, Pas d'utilisation commerciale, Partage des conditions initiales
l'identique)..

Master
Professionnalisant en
Tlcommunications

Cours:

Tlvision Numrique

(ENSP)

Mr. Janvier FOTSING

Cours: TVN 224


Codage de source et de canal
Master Professionnalisant en
Tlcommunication

Plan du cours
Rappel,entropies et schma gnral de
communication
Introduction au codage source/canal
Types de codages
Codage canal
Codage source
Dtection et correction des erreurs

Rappel
Entropie et information

Rappel

Entropie et information

Rappel
Schma de communication

Types de codage
Rappels
Code binaire= correspondance entre un ensemble
dinformations lmentaires (lalphabet) et un
ensemble de configurations binaires (les mots
de code, de longueur fixe pour la plupart des
codes employs).
Le CCITT ( Comit Consultatif International de
Tlgraphie et Tlphonie, actuel UIT-T) a
normalis plusieurs codes. Parmi lesquels de
code CCITT n2 et le code CCITT n5.

Codage Canal
Canal de transmission idalis
Un canal est discret si les deux alphabets X et Y
sont discrets. On considrera que le canal peut
transmettre tous les K symboles de lalphabet X
de la source. On supposera que lalphabet du
canal, not Z, est compos de D symboles, avec
D<K.
Soit n la longueur moyenne des squences

n . p x
k 1

Codage Canal
Canal de transmission idalis (suite)
Dans le codeur idal, nous dsirons trouver un codeur qui
assure une valeur minimale pour n .
Lentropie de la source H(X), qui sera aussi lentropie du
codeur par messages; lentropie du codeur par symboles
H X
sera alors n . Lentropie maximale du codeur est log2D,
dont lefficacit du codeur est
H X
n
E
log 2 D
E<1 dans tous les cas utiles, donc

H X
nt
log 2 D

Codage canal
Canal de transmission rel
Contrairement au canal idalis, un canal
est affect par le bruit. Le cana est
caractris par une matrice de transition P
(appel aussi matrice stochastique)

Codage canal

Canal de transmission rel (suite)


Le canal est constant (par rapport un canal mmoire) si
sa matrice de transition est constante dans le temps (ne
change pas de message). Nous considrons ici
uniquement des canaux constants.
Les cas extrmes:
1. Le canal nest pas perturb par le bruit. Dans ce cas,
M=N et P IN modulo une renumrotation des y ou des
x (matrice identit dordre N)
2. Il ny a aucune corrlation entre les messages dentre
et les messages de sortie, cest--dire

p yi / x k

p yi

Dans ce cas, tous les lignes de la matrice sont identiques

Codage de source
Un code source C pour une variable alatoire X
est une fonction de X, lensemble des valeurs
possibles de X, vers k, lensemble des chanes
de symboles dun alphabet D-aire.
C(x) est le mot code correspondant au symbole x
de la source
nx est la longueur du mot code C(x)
La longueur moyenne attendue du code n du code
C pour la variable X caractrise par une
distribution de probabilits p(x) est:

p x n

x X

Codage de source

Codage de source
Exemple3
Soit une source X qui produit deux symboles A et B avec les
probabilits respectives de 4/5 et 1/5 une cadence de 80
symboles par minutes.
Lentropie de cette source est

soit 0.72x80/60=0,99 bit/sec


Soit un canal binaire sans perte qui transmet 2 symboles 0 et
1 une cadence de 1 symbole par seconde. La capacit
du canal est videmment de 1bit/sec

Codage
de
source
Exemple (suite)

Exemple (suite)

Codage de source

Exemple (suite)

Codage de source

Exemple (suite)

Codage de source

Codes prfixes-ingalit de Kraft


Dcodabilit dun code
9 Non singulier : x i z x j C x i z C x j
- Permet de dcoder un symbole unique, mais pas une suite
de symboles
- Pour dcoder une suite, il faut introduire un symbole de
ponctuation
- Exemple: code Morse
9 Uniquement dcodable:
- C* est le code tendu tel que C*(x1x2xn)=C(x1)C(x2)C(Xn)
- C est uniquement dcodable si C* est non singulier
9 Instantanment dcodable:
- Chaque symbole C peut tre dcod sans rfrence aux
symboles suivants
- Condition fixe: aucun mot code nest le prfixe dun autre mot
code

Codes prfixes-ingalit de Kraft


Condition de prfixe

Codes prfixes-ingalit de Kraft

Construction dun code prfixe

Codes prfixes-ingalit de Kraft


Proprits des codes prfixes
Pour tout code prfixe K mots sur un alphabet de D
symboles dont les mots codes ont pour longueur
n1,n2,,nk, ces entiers satisfont
K

 nk

d1

k 1

Inversement, tant donns des entiers n1,n2,,nk qui


satisfont cette ingalit, on peut construire un code
prfixe dont les mots code ont ces longueurs.

Codes prfixes-ingalit de Kraft


Ingalit de Kraft: preuve

Codes prfixes-ingalit de Kraft


Ingalit de Kraft: preuve

Cet ensemble (1)+(2) de feuilles tant descendant


de mots-codes est videmment inclus dans
lensemble (1)+(2)+(3) de toutes les feuilles de
niveau nmax. On a donc
K

nmax
nmax  nk
D
d
D

k 1

Et en divisant parD nmax , on obtient bien lingalit


de Kraft
K

D
k 1

 nk

d1

Codage et optimisation

Codage
et
optimisation
Codes optimaux

Thorme de Shannon
En pratique, on peut ngliger la contrainte nx
entier, et il est donc souvent impossible
datteindre loptimum. Cependant, on peut
prouver quil est possible de sen approcher:
Si H(X) est lentropie de la source, alors

H X
H X
dnd
1
log D
log D

Si les symboles de la source sont groupes L par L


avant le codage, alors

H X
H X 1
dn d

log D
log D L

Thorme de Shannon

Thorme Shannon: Preuve

Thorme de Shannon

Thorme Shannon: Preuve (suite)

Codes de Fano et Huffman

Codes de Fano et Huffman

Code Fano

Codes de Fano et Huffman


Code Hoffman:
Code plus efficace que le code Fano, dcrit ici pour le cas
binaire mais gnralisable dautres alphabets.
Algorithme:
Ordonner les symboles de la source dans lordre des
probabilits
Isoler les deux symboles les moins probables et les
distinguer avec 0 et 1
Regrouper ces deux symboles en un seul nouveau en
additionnant leurs probabilits
Recommencer jusqu ce que toutes les symboles soient
regroups

Codes de Fano et Huffman


Exemple comme prcdemment:

Codes
de
Fano
et
Huffman
Code Huffman

Codes de Fano et Huffman

Erreur sur lestimation de p(x):

Dtection et correction des erreurs


Quelle que soit la qualit dune ligne de transmission, la
probabilit dapparition derreurs est non nulle.
Pour certains types de transmissions des erreurs groupes
peuvent apparatre par exemple cause des:
1. Parasites lectromagntiques pour les transmissions
sur paires torsades non blindes
2. Conditions atmosphriques pour les transmissions par
satellite
La dtection et la correction des erreurs est fonde sur
lutilisation dune information redondante transmise
avec linformation utile. Lajout de cette information
redondante est obtenu par recodage

Dtection et correction des erreurs


Remarque: On ne peut pas tre sr quun message
reu est correct. Quel que soit le code employ, il
ne peut pas dtecter toutes les erreurs possibles.
Par consquence, les codes choisis dans une
situation particulire sont ceux qui dtectent le
mieux et ventuellement corrigent les erreurs les
plus frquentes dans la situation en question.
Types de codes:
1. Codes en blocs. Si les informations utiles
transmettre sont dcoupes en blocs et chaque
bloc on associe un mot de code qui ne dpend que
du bloc en question, le code est appel code en
blocs

Dtection et correction des erreurs


2. Codes continus. Si linformation expdier nest
pas divisible en blocs et la redondance est
introduite de faon continue dans linformation
utile, le code est appel code continu.
3. Codes cycliques
NB: Le dveloppement de ces codes peut tre
consult dans le support numrique PDF
dpos
dans
la
rubrique
ressource
complmentaire de la prsentation de la
squence 2 de lUV TVN 224 ou lapprenant
pourra procder au tlchargement.

Dtection et correction des erreurs


Quelques dfinitions
Pour un code dtecteur d'erreurs, l'efficacit de
dtection e ( ne pas confondre avec lefficacit dfinie
au chapitre prcdent) est le rapport moyen entre le
nombre de messages errons reconnus comme tels et le
nombre total de messages errons. La proportion 1 e
de messages sont donc errons et reconnus comme
corrects.
Le taux d'erreurs brut  est la proportion moyenne de
messages errons reus (dtects ou non comme tels).
Le taux d'erreurs brut dpend du taux d'erreurs par bit ;
si la longueur moyenne des messages est de n bits et
les erreurs sont indpendantes, avec une probabilit p
par bit, alors  =1- (1- p)n.

Dtection et correction des erreurs


Quelques dfinitions (suite)
Le taux d'erreurs rsiduel q est la proportion des
messages qui restent errons (aprs dtection et
correction des erreurs, par codes ou par retransmission).
Pour qu'un message erron soit reconnu comme correct,
il est ncessaire : 1 qu'il soit erron (probabilit  ) et 2
qu'il n'ait pas t dtect comme tel par le code
(probabilit 1 e) ou qu'erron une premire fois et
dtect comme tel (probabilit  e ) il soit erron une
seconde fois (erreur diffrente) et non dtect comme tel
(probabilit 2.e .(1- e) ), etc. Par consquence q= .(1e)+ 2.e.(1-e)+

Dtection et correction des erreurs


Correction par retransmission
Dans le cas o les erreurs peuvent tre
dtectes mais ne peuvent pas tre
corriges par la technique de codage, la
retransmission devient imprative.
Les types de retransmissions sont:
1. Retransmission avec arrt et attente
2. Retransmission continue
3. Retransmission slective

Compression des informations

Compression des images


Une image est reprsente par une collection (matrice 2D) de pixels,
chaque pixel tant dcrit par un entier unique (plages de gris ou
adresse dans une table de slection de couleurs) ou par
plusieurs entiers (composantes RVB, ou luminance et
chrominances)
Mthode JPEG
La norme JPEG (Joint Photographics Expert Group) a t adopt en
1992 et utilise deux tapes dans la compression:
1 Une transformation cosinus discrte applique sur des blocs de
88 pixels sur chaque composante de l'image (luminance Y,
chrominance U, chrominance V) et donne 64 coefficients de
frquence par composante.
2 Les coefficients TCD sont diviss par des valeurs prsentes dans
une table de quantification et les valeurs sont arrondies des
entiers. C'est dans cette tape que certaines informations sont
limines.
3 Les coefficients obtenus l'tape antrieure sont comprims par
un algorithme de Huffman dynamique (adaptatif) partir de
tables de codes connues (afin d'viter le stockage d'un en-tte
pour chaque bloc).

Compression des informations


Compression des sons
Les sons sont reprsents par une suite d'chantillons obtenus
une certaine cadence (par exemple, pour les CD audio la
frquence d'chantillonnage est de 44 KHz et les chantillons
sont cods sur 16 bits).
Mthode PASC
Cette mthode (Precision Adaptive Sub-band Coding), employe
pour les DCC, utilise les observations que nous avons faites.
La compression se droule selon les tapes suivantes :
1 Le signal subit une division spectrale sur 32 bandes de 750 Hz
de largeur et sur chacune on calcule le niveau moyen.
2 En utilisant les connaissances sur les courbes dynamiques
d'audibilit, on dtermine dans quelles bandes le signal peut
tre limin.
3 Dans chaque bande retenue, le signal est cod en utilisant un
nombre variable de bits rpartis entre les sous-bandes selon la
diffrence entre le niveau de la sous-bande et le niveau moyen
dans la bande.

Rfrence bibliographique
1. TRANSMISSION DE L'INFORMATION
SUPPORT DE COURS
E3i, 2001-2002 Universit de Tours : Michel
Crucianu
2. Signaux et systmes 20 avril 2004
Codage de source: Signal Processing
Institute Swiss Federal Institute of
Technology, Lausanne
3. Ressources Internet