Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
QS optimale
QS prédictive
Marco Cagnazzo
7 Décembre 2012
Plan
1 Introduction
Définitions
Quantification uniforme
Plan
1 Introduction
Définitions
Quantification uniforme
Définitions
xb7
xb6
xb5
t0 t1 t2 t3 t4
t5 t6 t7 t8
xb4
xb3
xb2
xb1
Exemple 1
x(n)
0.5
−0.5
−1
0 5 10 15 20 25 30
Exemple 1
x(n)
0.5
−0.5
−1
0 5 10 15 20 25 30
Exemple 1
x(n)
y(n)=Q[x(n)]
1
0.5
−0.5
−1
0 5 10 15 20 25 30
Exemple 1
y(n)=Q[x(n)]
e(n)=x(n)−y(n)
1
0.5
−0.5
−1
0 5 10 15 20 25 30
Exemple 2
x(n)
y(n)=Q[x(n)]
1
0.5
−0.5
−1
0 5 10 15 20 25 30
Exemple 2
y(n)=Q[x(n)]
e(n)=x(n)−y(n)
1
0.5
−0.5
−1
0 5 10 15 20 25 30
t0 t i−1 ti tL
xbi
Θi
Quantificateur régulier
t 0 < xb1 < t 1 < xb2 < t 2 < . . . < xbL < t L
Θi C
Débit d’un QS
Distorsion
E (n)
Un modèle commun pour
la quantification est le X (n) b (n)
X
modèle additif
Quantification uniforme
h i Z A
2
σQ b )2
=E (X − X = pX (u)[u − Q(u)]2 du
−A
h i Z A
2
σQ b )2
=E (X − X = pX (u)[u − Q(u)]2 du
−A
L Z
X L Z x i +∆/2
1 1 X b
... = [u − xbi )]2 du = [u − xbi )]2 du
Θi 2A 2A xbi −∆/2
i=1 i=1
L Z ∆/2
X
1 1 ∆3 ∆2
= t 2 dt = L =
2A −∆/2 2A 12 12
i=1
∆2 4A2 A2
D= = = =σX2 2−2R
12 12L2 3 · 22R
On peut mesurer la qualité par le rapport signal sur bruit :
E X2 σ2
SNR = 10 log10 = 10 log10 2 X−2R
D σX 2
= 10 log10 22R ≈ 6R
On peut écrire :
E X2 σX2 2R γ2
SNR = 10 log10 = 10 log10 2 ≈ 6R − 10 log10
D A2 /3 3
2
Xmax A2
où on a définit γ 2 = σX2
= σx2
rapport entre puissance de crête
et puissance moyenne (facteur de charge)
On trouve encore :
A2 −2R γ 2 2 −2R
D= 2 = σ 2 = KX σX2 2−2R
3 3 X
Le facteur de charge est donc un paramètre unique qui
caractérise les performance de la QU en HR.
Plan
1 Introduction
Définitions
Quantification uniforme
Quantification optimale
Comme
Z ti Z ∆(i)/2
∆(i)3
bi 2
(u − x ) du = u 2 du =
t i−1 −∆(i)/2 12
On a
L
2 1 X
σQ = P(i)∆(i)2
12
i=1
Le problème devient donc : rechercher les amplitudes des
2 = 1 E{∆2 }
intervalles qui minimisent σQ 12
M. Cagnazzo Quantification Scalaire et Prédictive 33/64
Introduction
Quantification optimale en HR
QS optimale
Algorithme de Lloyd-Max
QS prédictive
2 = 1 PL 2
Minimisation de σQ 12 i=1 P(i)∆(i)
Posons α3 (i) = pX (xbi )∆3 (i) = P(i)∆(i)2 .
L
X L
X Z
1 1
α(i) = [pX (xbi )] 3 ∆(i) ≈ [pX (u)] 3 du = cste
i=1 i=1 R
Mais comme
L Z
1X 1 1
α= α(i) = [pX (u)] 3 du
L L R
i=1
Alors
Z 3
2 1 1
σQ = [pX (u)] du 3
12L2 R
C’est la formule de Bennett
M. Cagnazzo Quantification Scalaire et Prédictive 35/64
Introduction
Quantification optimale en HR
QS optimale
Algorithme de Lloyd-Max
QS prédictive
X
Soit U = σX
1
Si U ∼ pU (u), alors X ∼ σX pU ( σuX )
Calculer la distorsion de quantification optimale de X en fonction
de pU et σX
X
Soit U = σX
1
Si U ∼ pU (u), alors X ∼ σX pU ( σuX )
Calculer la distorsion de quantification optimale de X en fonction
de pU et σX
Z Z Z
1 1 1/3 x 2/3 1/3
[pX (x )] dx
3 = 1/3
pU dx = σX pU (t)dt
R σX R σX R
x dx
Avec t = σX et dt = σX .
Donc :
Z 3
1 1/3
2
σQ = 2−2R σX2 pU (t)dt
12 R
2 = c σ 2 2−2R avec
Donc σQ X X
Z 3
1 1/3
cX = pU (t)dt
12 R
1 2
Pour une v.a. uniforme, pX = 2A Rect−A,A (x), σX2 = A3
√ 1
Alors pour U = 3X /A on a pU (t) = 2√ 3
Rect−√3,√3 (t) et :
1 2
Pour une v.a. uniforme, pX = 2A Rect−A,A (x), σX2 = A3
√ 1
Alors pour U = 3X /A on a pU (t) = 2√ 3
Rect−√3,√3 (t) et :
Z 3 "Z √ 1/3 #3
3
1/3 1
pU (t)dt = √ √ dt
R − 3 2 3
"Z √ #3
1 3
1 √ 3
= √ · √ dt = √ 2 3 = 12
2 3 − 3 2 3
cX = 1
D = σX2 2−2R
SNR = 6R
2
√1 e 2
−t
pU (t) =
2π
2
√1 e 2
−t
pU (t) =
2π
Z 3 "Z #3
1/3 1 2
− t6
pU (t)dt = e dt
R R (2π)1/6
"Z √ #3
1 2π3 − t 2 √ 3 √
=√ √ e 2·3 dt = (2π)−1/2 2π3 = 6π 3
2π R 2π3
√
3
cX = π
2
D = cX σX2 2−2R
SNR = 6R − 4.35dB
Formulation du problème
xbi + xbi+1
ti =
2
Condition du centroïd
On impose
∂D
=0
∂ xbi
Condition du centroïd
On trouve :
Z t i+1
∂D ∂
= pX (x)(x − xbi )2 dx
∂ xbi ∂ xbi t i
Z t i+1 Z t i+1
=2 xpX (x)dx − 2xbi pX (x)dx = 0
ti ti
R t i+1
i xpX (x)dx
xbi = Rt t i+1 = E[X |X ∈ Θi ]
ti pX (x)dx
Quantification optimale
Algorithme de Lloyd-Max
Algorithme de Lloyd-Max
1 initialiser les régions (p.e. uniforme)
2 trouver les meilleures régions pour le dictionnaire donné
xbi + xbi+1
ti = , i ∈ {1, . . . , L − 1}
2
3 trouver le meilleur dictionnaire pour les régions données
R
Θ xpX (x)dx
xbi = E [X |X ∈ Θi ] = R i
Θi pX (x)dx
D (k ) − D (k +1)
≤ǫ
D (k )
Initialisation de LM
Algorithme de Lloyd-Max
Plan
1 Introduction
Définitions
Quantification uniforme
Codage prédictive
Principes
Schéma de codage
Schéma en boucle ouverte
v(n) v(n)
Gain de prédiction
σX2 σ2 σ2
SNRp = 10 log10 = 10 log10 X2 + 10 log10 Y = GP + GQ
D σY D
Exemple
Exemple
Prédicteurs
On s’intéressera aux prédicteurs linéaires : simples et
optimaux dans le cas Gaussien
P
X
v(n) = − ai x(n − i) Filtre de prédiction à P paramètres
i=1
P
X
y(n) = x(n) − v(n) = ai (xn − 1) Erreur de prédiction
i=0
Avec a0 = 1.
On peut donc voir y comme filtrage de x avec le filtre de
fonction de transfert :
A(z) = 1 + a1 z −1 + . . . + aP z −P
Filtre optimale : minimisation de σY2
M. Cagnazzo Quantification Scalaire et Prédictive 57/64
Introduction
QS optimale Gain de prédiction
QS prédictive
Modèle AR du signal
Y (z)
Si Y (z) = A(z)X (z), X (z) = A(z)
On montre que, si la prédiction est optimale, Y (z) est du
bruit blanc de puissance σY2
σY2
Dans ce cas, la DSP de X est SX (f ) = |A(f )|2
Le modèle sous-jacente pour X est celui d’un signal
auto-regressif :
Y (z)
X (z) = ⇔
1 + a1 z −1 + . . . + aP z −P
x(n) + a1 x(n − 1) + . . . + aP x(n − P) = y(n)
Choix du prédicteur
Problème :
Trouver le vecteur (filtre linéaire) a qui minimise :
" #2
n o XP
2 2
σY = E Y (n) = E X (n) + ai X (n − i)
i=1
Choix du prédicteur
n o P
X P X
X P
σY2 = E X 2 (n) + 2 ai E{X (n)X (n − i)} + ai aj E{X (n − i)X (n − j)}
i=1 i=1 j=1
= σX2 t t
+ 2r a + a RX a
avec :
rX (0) rX (1) ... rX (P − 1)
rX (1) rX (2) ... rX (P − 2)
r = [rX (1) . . . rX (P)] RX =
... ... ... ...
rX (P − 1) rX (P − 2) ... rX (0)
rX (k ) = E{X (n)X (n − k )}
Choix du prédicteur
Minimisation de la variance de Y :
∂σY2
= 2r + 2RX a = 0
∂a
On a donc :
aopt = −R−1
X r σY2 = σX2 + r t aopt
1 X
b
rX (k) = N − 1 − k X (n)(X (n + k)
N
n=0
Gain de prédiction
Gain de prédiction
σX2 σX2
On peut montrer que : σY2
= [det R P ]1/P
Valeur asymptotique du gain de prédiction
σX2
GP = limP→+∞ [det R P ]1/P
Cette valeur est liée au dégrée de corrélation du signal
On peut montrer que :
R 1/2 PN−1
−1/2 SX (f )df
1 k
N k =0 SX N
GP = R ≈ N1
1/2
exp −1/2 ln SX (f )df ΠkN−1
=0 SX
k
N
Schéma de codage
Schéma prédictif (DPCM) complet (boucle fermée)
Encodeur : Décodeur :
X (n) V (n) b (n)
V b (n)
V b (n)
X
Q
b (n)
V
Y (n) b (n) Y (n) b (n)
X X
P P
Y (n)