Académique Documents
Professionnel Documents
Culture Documents
1
2
3
4
5
4
5
6
7
8
9
10
11
12
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Notions de signaux alatoires . . . . . . . . . . . . . . . . . . . . . . . . . .
Moments statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1
Moment statistique d'ordre 1 (moyenne statistique) . . . . . . . . . .
3.2
Moment statistique d'ordre 2 (fonction d'auto-corrlation statistique)
3.3
Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4
Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Moments temporels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1
Moment temporel d'ordre 1 (moyenne) . . . . . . . . . . . . . . . . .
4.2
Moment temporel d'ordre 2 (fonction d'auto-corrlation temporelle)
Stationnarit et ergodicit . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Densit spectrale de puissance . . . . . . . . . . . . . . . . . . . . . . . . . .
Fonctions et matrices de corrlation . . . . . . . . . . . . . . . . . . . . . . .
Les signaux gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Filtrage des signaux alatoires . . . . . . . . . . . . . . . . . . . . . . . . . .
Notion de bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Notion de ltre formeur . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Les signaux MA, AR et ARMA. . . . . . . . . . . . . . . . . . . . . . . . . .
12.1 Les signaux MA (Moving Average, Moyenne Mobile). . . . . . . . . .
12.2 Les signaux AR (AutoRgressifs) . . . . . . . . . . . . . . . . . . . . .
12.3 Les signaux ARMA (Auto Regressif, Moving Average) . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Chapitre 3
1
2
3
Chapitre 2
1
2
3
9
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Signaux alatoires
Notions d'estimation
Introduction . . . . . . . . . . . . . . . . . . . . . . .
Performance d'un estimateur . . . . . . . . . . . . .
2.1
Biais d'un estimateur . . . . . . . . . . . . . .
2.2
Variance de l'estimateur . . . . . . . . . . . .
Estimation linaire en moyenne quadratique (ELMQ)
3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
11
11
12
12
12
13
13
14
15
15
15
15
16
16
16
17
17
17
17
18
19
19
20
20
21
21
22
22
22
23
25
25
26
26
26
26
4
5
6
7
3.1
Calcul par drivation . . . . . . . . . . . . . . . . . . . . . . .
3.2
Performances de l'estimateur . . . . . . . . . . . . . . . . . .
3.3
Principe d'orthogonalit . . . . . . . . . . . . . . . . . . . . .
3.4
Dtermination de l'estimateur par le principe d'orthogonalit
Estimation en moyenne quadratique (ELM) . . . . . . . . . . . . . .
Estimation Baysienne et non-Baysienne . . . . . . . . . . . . . . .
Comparaison d'estimateurs sur un exemple simple . . . . . . . . . .
6.1
Estimation du pauvre . . . . . . . . . . . . . . . . . . . . . .
6.2
Connaissance de b au second ordre . . . . . . . . . . . . . . .
lments d'estimation non-baysienne . . . . . . . . . . . . . . . . .
Chapitre 4
Estimation spectrale
Chapitre 5
Chapitre 6
Identication paramtrique
1
2
3
4
5
1
2
3
4
5
1
2
Introduction . . . . . . . . . . . . . . . . . .
Estimation de la moyenne E [x] . . . . . . .
Estimateur de variance 2 . . . . . . . . . .
Estimateur de la fonction d'autocorrlation
Estimateur de densit spectrale . . . . . . .
5.1
Mthode du priodogramme . . . . .
5.2
Mthode du corrlogramme . . . . .
5.3
Mthode du modle . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Introduction . . . . . . . . . . . . . . . . . . . . .
Exemple . . . . . . . . . . . . . . . . . . . . . . .
Rcurrence temporelle sur les quations normales
Mthode des moindres carrs rcursifs . . . . . .
Filtrage de Kalman . . . . . . . . . . . . . . . . .
5.1
quations des ltres . . . . . . . . . . . .
5.2
Dtermination du gain du ltre . . . . . .
5.3
Rsum . . . . . . . . . . . . . . . . . . .
Introduction . . . . . . . . . . . .
Les modles polynomiaux . . . .
2.1
Modle ARX . . . . . . .
2.2
Modle ARMAX . . . . .
2.3
Modle erreur de sortie
2.4
Modle de Box-Jenkins . .
Modle d'tats . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
II Travaux dirigs
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
27
28
28
28
29
30
32
32
32
34
37
37
37
38
39
40
40
44
44
45
45
45
46
47
48
48
49
50
51
51
52
52
52
52
52
53
55
57
59
TD 3 : Estimateurs
61
TD 4 : Estimation et signaux AR
63
TD 5 : Filtrage de Kalman
65
1
2
3
Troncature et fentrage . . .
Rsolution d'une fentre . . .
Densits spectrales de signaux
3.1
Signaux MA . . . . . .
3.2
Signaux AR . . . . . .
67
. . . .
. . . .
AR et
. . . .
. . . .
. . .
. . .
MA
. . .
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
TP 2 : Estimation spectrale
1
2
69
69
69
69
70
70
71
71
71
72
72
72
72
TP 3 : Filtrage de Kalman
73
TP 4 : Estimation et prdiction
75
79
1
2
3
1
2
3
Description du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
Inuence des conditions initiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
Inuence du choix des variances des bruits . . . . . . . . . . . . . . . . . . . . . . . . 74
Algbre linaire
1
2
3
4
5
Traitement du signal
1
2
3
4
5
6
7
8
Fentrage . . . . . . . . . . . . . . .
Gnration de signaux . . . . . . . .
Transformes . . . . . . . . . . . . .
Traitement statistique . . . . . . . .
Filtrage, analyse et synthse . . . . .
Modlisation paramtrique . . . . . .
Fonctions diverses . . . . . . . . . .
Estimation de paramtres de modles
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
81
81
81
81
82
82
83
83
83
83
84
84
84
84
85
1
2
Estimation linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Estimation en moyenne quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1
2
3
4
5
6
7
fentre rctangulaire .
Fentre de Hamming .
Fentre de Hanning . .
Fentre triangulaire . .
Fentre de Chebychev
Fentre de Blackman .
Fentre de Kaiser . . .
1
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
18
18
21
21
42
42
42
43
43
43
44
Premire partie
lments de cours
10
Un des objectifs de la transformation d'un signal est l'obtention d'une reprsentation quivalente.
Les plus importantes dans le cadre de cette tude sont :
La transforme de Fourier temps continu.
forme de Fourier par :
R
X (f ) = +11 x(t)e 2jft dt
R
x(t) = +11 X (f )e+2jtf df
X (f ) =
Pn=+1
n=
1 x(nT )e
R
x(nT ) = T1 1=12=T2T X (f )e+2jnT f df
2jfnT
(1)
1=T
:
(2)
La transforme bilatrale de Laplace, intgrale convergente sur une bande dnie par deux
droites parallles l'axe imaginaire d'abscisses a1 et a2 :
R
X (p) = +11 x(t)e
1 R X (p)ept dp
x(t) = 2j
B
pt dt
(3)
Chapitre 1
12
La transforme bilatrale en z dnie pour un signal discret x(nT ), convergente sur un anneau
C centr en zro et dni par deux rayons r1 et r2 :
X (z ) =
Pn=+1
n=
1 x(n)z
1 R X (z )z n 1 dz
x(nT ) = 2j
C
(4)
z = e2jfT = e2jn.
3 Filtrage linaire
3.1 Dnition
On appelle ltre linaire un systme la fois linaire et invariant dans le temps. Ceci implique
qu'une combinaison linaire d'entres entrane la mme combinaison linaire des sorties, et de plus
tout dcalage temporel de l'entre entrane le mme dcalage en sortie.
Dans le domaine temporel, l'entre et la sortie sont lies par une opration de convolution introduisant la rponse impulsionnelle h(t) dans le cas continu ou h(n) dans le cas discret. Un ltre
linaire est donc un convolueur.
Soit x(t) (resp. x(n)) l'entre du ltre et y (t) (resp. y (n)) sa sortie, nous avons alors :
dans le cas continu :
+1
h(u)x(t u)du
(5)
k=+
X1
k=
h(k)x(n k)
(6)
Un ltre linaire est un systme linaire qui admet les signaux exponentiels comme fonctions
propres. Pour un signal exponentiel l'entre du ltre, on obtient le mme signal exponentiel en
sortie multipli par un nombre complexe (gain du ltre, fonction de transfert). En eet la rponse
un signal sinusodal est un signal sinusodal de mme frquence dont l'amplitude est multiplie
par le gain du ltre cette frquence et dphas de l'argument de la fonction de transfert.
Les relations prcdentes s'crivent aussi par passage la transforme de Laplace, ou de Fourier,
ou en z
Y (z ) = H (z )X (z )
(7)
3.2 Proprits
Causalit : pour cela, la rponse impulsionnelle nulle pour t < 0. En eet c'est la rponse du
ltre pour un signal situ l'origine des temps (l'impulsion de Dirac) :
Stabilit : on ne considre que la stabilit (entre borne / sortie borne). Pour le cas discret
une condition ncessaire mais non susante est que h(n) soit borne.
4. chantillonnage
13
n
X
i=0
ai y(i) (t) =
n
X
i=0
ai y(k i) =
H (z ) =
bj x(j ) (t)
j =0
Pm
bj pj
Pjn=0
i
i=0 ai p
H (p) =
Dans le cas discret :
m
X
m
X
bj x(k
j =0
Pm
j
j =0 bj z
Pn
i
i=0 ai z
(8)
(9)
j)
(10)
(11)
Ce ltre est appel ltre rcursif (ltre R.I.I, Rponse impulsionnelle nie, signaux A.R.M.A,
Auto Regressif Moving Average ). Il correspond au cas le plus gnral
ltre rponse impulsionnelle nie (R.I.F) (signaux Moving Average )
H (z ) =
m
X
j =0
bj z
(12)
ltre tous ples (b0 est le seul non nul, ai non nuls) (signaux Auto Regressif )
H (z ) =
b0
i=0 ai z
Pn
(13)
3.3.2 Proprits
La causalit : Un ltre dynamique est causal si sa rponse impulsionnelle est causale. Une
condition ncessaire dans le cas discret est que le degr du dnominateur soit suprieur ou
gal celui du numrateur.
La stabilit : Les ples sont localiss dans le demi-plan gauche de l'axe imaginaire. Dans le
cas discret la stabilit est ralise si les ples sont l'intrieur du cercle unit.
4 chantillonnage
Cette opration consiste prlever un chantillon du signal temps continu chaque instant
tn = nT . Le passage du temps continu au temps discret entrane en gnral une perte d'information.
Dans certains cas particuliers, ce passage peut se faire sans perte. La priode d'chantillonnage
maximale est T = 1=2B , o B est la largeur du spectre de x(t) (c'est le thorme de Shannon).
L'opration d'chantillonnage est directement lie au peigne de Dirac dni par :
T (t) =
n=+
X1
n=
(t nT )
(14)
Chapitre 1
14
T1 (f ) =
X1
1 n=+
(f
T n= 1
n
)
T
(15)
P
1
Xe (f ) = X (t) T1 (f ) = T1 nn=+
= 1 X (f
n
T)
(16)
5 Signaux analytiques
La transforme de Fourier d'un signal rel temps continu ou discret prsente une symtrie
hermitienne :
X (f ) = X ( f )
(17)
C'est une condition ncessaire et susante. Les frquences ngatives n'apportent donc aucune information complmentaire sur le signal. Le signal obtenu par limination de ces frquences ngatives
est appel signal analytique.
Dans toute la suite, on admettra que le signal alatoire est dcrit par sa loi temporelle.
Dans le cas d'un signal alatoire temps continu, on prlve un nombre arbitraire d'instants,
eux mme arbitraires. On peut alors considrer une variable alatoire vectorielle constitue de ces
instants prlevs. Si la loi de probabilit de cette variable alatoire est connue quels que soient les
instants choisis, on dira que la loi temporelle est compltement connue.
Dans le cas d'un signal alatoire temps discret, le problme est plus simple tant donn que le
nombre d'chantillons dans le signal est dnombrable et donc la loi temporelle peut tre compltement connue. Par contre dans le cas du signal temps continu, certains vnements microscopiques
peuvent nous chapper.
Quoi qu'il en soit, cette loi temporelle est trs dicile obtenir. Gnralement, on se restreint
la connaissance de certaines moyennes.
3 Moments statistiques
Pour allger les critures, on notera dans certains cas simplement
15
Chapitre 2
16
Signaux alatoires
m(t) = E [x(t)] =
dans le cas discret :
m(n) =
x(t; !)p(!) d!
l
X
i=1
pi xi
(1)
(2)
Si cette moyenne ne dpend pas du temps, on dit que le signal alatoire est stationnaire l'ordre
1. Si la moyenne est nulle, le signal alatoire est dit centr.
Remarque 1
8; 2 R; E [x + y] = E [x] + E [y]
Si deux variables
x et y
(3)
(4)
(5)
(6)
On remarquera que le signal alatoire peut prendre des valeurs complexes. Lorsque les quantits
prcdentes ne dpendent que de la dirence (t1 t2 ) ou (n k ); on dit que le signal alatoire est
stationnaire l'ordre 2. On a alors l'habitude de noter :
Rxx( ) = E [x(t)x (t )]
ou
Rxx(i) = E xn xn
(7)
(8)
3.3 Covariance
Dans le cas continu :
Dans le cas discret :
(9)
(10)
4. Moments temporels
17
3.4 Variance
On dnit la variance d'un signal alatoire dans le cas continu comme dans le cas discret par :
2 (x) = E x2 E (x)2
h
i
= E (x E (x))2
Pour un signal alatoire centr (E (x)
(11)
(12)
(13)
E jx(t)j2 < +1
Cette proprit entrane l'existence de
(14)
m(t) et de (t1 ; t2 ).
4 Moments temporels
Dans ce qui suit, nous supposerons les signaux de puissance nie. Des dnitions quivalentes
peuvent tre donnes pour des signaux d'nergie nie.
cas discret :
1
< x(t) >= lim
T !+1 T
Z T=2
T=2
x(t; !) dt
nX
=N
1
< x(n) >= lim
x(n; !)
N !+1 2N + 1
n= N
(15)
(16)
Dans le cas gnral, le sommation tant faite sur le temps, le rsultat obtenu est normalement
une variable alatoire dpendant de !: Dans le cas contraire on dira que le signal est ergodique
l'ordre 1.
1
< x(t)x(t ) >= lim
T !+1 T
Z T=2
T=2
x(t; !)x (t ; !) dt
(17)
cas discret :
nX
=N
1
x(n; !)x (n k; !)
N !+1 2N + 1
n= N
(18)
Chapitre 2
18
Signaux alatoires
5 Stationnarit et ergodicit
Un signal alatoire est dit strictement stationnaire l'ordre n si ses moments statistiques sont
invariants par changement de l'origine des temps. Gnralement, on se restreint l'ordre 2 (sens
large). La fonction d'autocorrlation ne dpend donc que du retard entre les deux signaux. La
stationnarit est conserve par opration stationnaire (ex : ltrage).
Un signal alatoire est dit ergodique si les moyennes temporelles existent et sont indpendantes
de l'chantillon.
Le thorme de Birko arme que si un signal alatoire est stationnaire et ergodique, alors les
moments temporels et statistiques sont gaux.
t2 )
ralisations
3
0
Fig.
10
15
temps
20
25
30
ralisations
12
10
8
6
4
2
0
2
0
Fig.
Exemple 1
10
15
temps
20
25
30
(19)
(20)
19
si est quirpartie sur l'intervalle [0; 2 ]; le signal alatoire est stationnaire et ergodique.
si est quirpartie sur l'intervalle
non stationnaire.
Sxx(f ) = T F [Rxx( )]
discret :
Sxx( ) =
n=+
X1
n=
(21)
x(n)e 2jn
(22)
La puissance du signal alatoire stationnaire et ergodique peut tre obtenue par la relation :
Z
1 T=2
x(t; !)x (t; !) dt
lim
T !+1 T
T=2
= Rxx (0)
h
i
= E jx(t)j2
Z +1
=
Sxx(f ) df
1
P =
(23)
(24)
(25)
(26)
(27)
m(t) = E [x(t)]
= E [x1 (t)] E [x2 (t)] ::: E [xn 1 (t)] E [xn (t)] T
La matrice
(29)
( ) = E x(t)xH (t )
2
E x1 (t)xH
1 (t )
6 E x2 (t)xH (t )
1
= 6
4 :
E xn (t)xH
1 (t )
l'exposant
(28)
E x1 (t)xH2 (t )
:::
:
:::
:::
:::
:::
:::
3
)
) 7
7
5
E x1 (t)xHn (t
E x2 (t)xHn (t
:
E xn (t)xHn (t )
(30)
(31)
Chapitre 2
20
Le dernier point se vrie de la manire suivante :
Signaux alatoires
uH (0)u = uH E xxH u
= E uH xxH u
H
= E uH x uH x
= E
uH x
2
0
( ) = E x(t)xH (t )
E (x(t)):E (x(t))H
(32)
Dans le cas gnral,
( ) tend vers 0 quand t tend vers l'inni. Ceci veut dire qu' partir d'une
certaine valeur de t, le signal x(t) devient indpendant de x(t ).
1
p(x) =
2
1=2
(det ) 1 exp
1
(x m)T
2
1 (x
m)
(33)
Si le signal gaussien est centr (m = 0) alors tous les moments d'ordres impairs sont nuls. En
particulier, il est noter que le caractre gaussien se conserve par ltrage linaire.
(34)
(35)
(36)
x(t) =
d'o
E [x(t)] =
+1
0
Z
+1
0
h(v)u(t v)dv
(37)
(38)
E [x(t)] = E [u(t)]
+1
= E [u(t)] :H (0)
h(v)dv
(39)
(40)
21
(41)
N
Rbb ( ) = 0 ( )
2
(42)
Le bruit blanc n'a pas d'existence physique car il serait de puissance innie. Une approximation du
bruit blanc est le bruit bande limite appel aussi bruit blanc color est dni par : (gure 3)
Sbb (f ) = N20
Sbb (f ) = 0
jf j < B
(43)
sinon
No
2
f
+B
-B
Fig.
Il faut remarquer que la notion de blancheur est indpendante de la loi de probabilit du bruit.
Un bruit blanc peut tre gaussien, uniforme...
H(f)
Fig.
x(t)
4: Filtre formeur
d'o
(44)
2
2
jH (f )j = N Sxx(f )
0
(45)
On remarque que cette quation ne donne que le module. Pour dterminer compltement H (f ), il
faut ajouter une contrainte de phase.
Nous allons voir dans ce qui suit les modles de signaux les plus utiliss en traitement statistique
du signal (estimation, prdiction...).
Chapitre 2
22
Signaux alatoires
Les signaux moyenne mobile sont obtenus par passage d'un bruit blanc dans un ltre purement
transverse. Ce ltre est aussi appel ltre rponse impulsionnelle nie (R.I.F). L'quation de
rcurrence reliant la sortie xn au signal d'entre un est de la forme :
xn = b0 un + b1 un 1 + :::: + bm un
(46)
H (z ) =
m
X
i=0
bi z
(47)
Bien que l'expression du ltre paraisse simple, l'obtention des coecients bi est en fait un problme
complexe. Supposons titre d'exemple que l'on veuille modliser un signal xn comme tant un signal
MA. Si on suppose que le bruit d'entre est centr et stationnaire (E (un ) = 0) ; on peut alors crire :
xn
= b0 un
k + b1 un k 1 + :::: + bm un k m
(48)
On obtient :
m ) : (b0 un k + :::: + bm un k m )]
(49)
si i 6= j
(50)
(51)
et nalement
m bm )
jkj < m
(52)
On peut remarquer d'aprs l'quation (49) que la fonction d'autocorrlation devient nulle partir
d'un dcalage m:
Si les quantits E [xn :xn k ] et u2 sont supposes connues, on remarque que la dtermination des
bk ncessite la rsolution d'un systme d'quations non-linaires. De plus ce systme n'admet pas
forcment une solution unique.
xn = a1 xn 1 + a2 un
k 1 + :::: + ar xn r + un
(53)
xn = aT Xn + un
(54)
Xn = [xn 1 ; xn 2 ; :::; xn r ]T :
H (z ) =
1
j =0 aj z
Pj =r
(55)
23
La sortie xn du ltre est du second ordre si le ltre est dynamique c'est--dire stable et causal. La
fonction de transfert du ltre doit avoir ses ples l'intrieur du cercle unit. Soit c le vecteur de
corrlation entre xn et Xn . Nous avons :
c = E [xn Xn ]
= E aT Xn + un Xn
= E aT Xn + E [un Xn ]
(56)
c= a
(58)
Cette quation vectorielle est appele quation normale ou quation de Yule-Walker. Si la matrice
est inversible alors le vecteur de rgression peut tre calcul partir des r premires valeurs de
la fonction de corrlation.
On dmontre aprs quelques lignes de calcul que
(59)
Les signaux ARMA sont obtenus par passage d'un bruit blanc dans un ltre rcursif appel aussi
ltre rponse impulsionnelle innie (R.I.I). Ces signaux sont une combinaison des signaux A.R et
M.A. La fonction de transfert du ltre prsente un numrateur et un dnominateur
H (z ) =
Pi=m
i
i=0 bi z
j
j =0 aj z
Pj =r
(60)
24
Chapitre 2
Signaux alatoires
y = [y1 ; y2 ; :::; yn ]T
(1)
Exemple 2
(2)
o b(t) est un bruit, ! est la pulsation du signal (suppose connue) et a est une constante inconnue
qu'on cherche estimer partir des observations de s(t) des instants ti .
Comme le montre l'exemple prcdent, les observations seront donc toujours considres comme
alatoires. On notera x
^(y) l'estime au mieux d'un paramtre x partir des observations y: L'estime tant une fonction de la mesure, elle sera donc galement considre comme alatoire. Cette
considration est indpendante de x qui lui peut tre alatoire ou dterministe.
Si x
^ est valeurs continues, on parle d'estimation. Si x^ est valeurs discrtes on parle alors de
dtection. C'est le cas du signal radar o on dsire une dtection de type prsence ou absence.
L'erreur d'estimation appele innovation peut tre dnie par :
x~ = x x^
(3)
soit un signal s(t) dont on connat n observations y=[s1 ; s2 ; :::; sn ]T . On dsire estimer
la valeur moyenne du signal s(t). L'estimateur qui nous vient directement l'ide est construit
partir de la moyenne des observations dj ralises du signal. L'estimateur prend donc la forme
suivante :
n
1X
m
^ (y) =
y
n i=1 i
Exemple 3
Remarque 2
On montrera par la suite que cet estimateur intuitif est en ralit un estimateur sans
biais et variance minimale. On remarque de plus que cet estimateur est obtenu par ltrage
rponse impulsionnelle nie (R.I.F) de y. On peut en eet crire :
1
1 1
m
^ (y) = [ ; ; :::; ]y = h(y) = hT y
n n
n
25
Chapitre 3
26
Notions d'estimation
B (x) = E [^x] x
(4)
Cette quantit caractrise l'cart entre la moyenne des estimes (possibles) et le paramtre estimer.
On recherchera donc gnralement un estimateur non-biais.
V (x) = E x~2
h
i
= E (x x^)2
= E x2 2E [xx^] + E x^2
(5)
Remarque 3
x^ =
n
X
k=1
hk yk
= hT y
avec
h = [h1 ; h2 ; :::; hn ]T
(gure 1):
y
^x
Fig.
1: Estimation linaire
x^ de x
27
Remarque 4
x^ = hT y
r:
Dans le cas de l'estimation en moyenne quadratique, le ltre h doit alors tre dtermin de telle
sorte que la variance de l'erreur d'estimation E [~
x2 ] soit minimale. Cette variance est aussi appele
erreur quadratique moyenne. On remarquera que la dtermination de l'estimateur quivaut la
dtermination du vecteur h:
T
E [~x2 ] = E x hT y
x hT y
i
= E xT yT h x hT y
= E xxT E xT hT y E yT hx + E yT hhT y
La drive par rapport
h vaut :
dE [~x2 ]
= E xyT E xyT + 2hT E yyT
dh
(6)
hT = E xyT E yyT
En dnissant les matrices d'intercorrlation entre
covariance) de y :
x et y
(7)
= E xyT
= E yyT
(8)
x^ = hT y
= xy y 1 y
(10)
xy
y
(9)
On obtient :
(11)
hT =
Remarque 5
L'quation
cas, elle se gnralise :
xy y
x^ = E [x] +
x;y : y
1 : (y
E [y])
(12)
Chapitre 3
28
Notions d'estimation
B (x) = E E [x] +
x;y : y
1 : (y
E [y])
(14)
La variance de l'estimateur est donne par l'quation (5) qui se gnralise dans le cas vectoriel
:
V (~x) = E xxT 2E xx^T + E x^x^T
(15)
qui se rcrit sous la forme :
En remplaant
V (~x) =
xx
=
=
xx
2E x hT y
T i
+ E hT y hT y
T i
(16)
xyT h + hT E yyT h
2E
2 xy h + hT y h
xx
(17)
(18)
xx
xx
xy
xy
yx
yx
x;y : y
1
yx
(19)
(20)
E [~x2 ] = E x hT y
T
x hT y
i
(21)
h donne :
dE [~x2 ]
= 2E x hT y yT
dh
= 2E x~yT
(22)
(23)
T
Le minimum est donc obtenu lorsque E x
~y = 0: On dit aussi que l'innovation est indpendante des
observations ou que l'innovation
est orthogonale aux observations. C'est le principe d'orthogonalit.
T
De plus l'quation E x
~y = 0 entrane que chacune des composantes de x~ est orthogonale aux
observations.
8a 2 Rn ; E x hT y aT y
T i
=0
(24)
en considrant l'ensemble des observations ltres. Sachant que cette galit doit tre vraie quelle
que soit la valeur de a; on en dduit que :
hT = E xyT :E yyT 1
(25)
29
^x
h(y)
Fig.
x^ = h(y)
(26)
Mais dans ce cas le ltre h n'est plus forcment linaire. Nous allons dmontrer dans la suite que
l'estimation en moyenne quadratique sans contrainte de linarit, se rsoud aussi, simplement par
le principe d'orthogonalit. Pour cela, dnissons le produit scalaire suivant :
u vp(!)d!
(27)
Remarque 6
La formule prcdente est valable dans le cas vectoriel, il sut pour cela de remplacer
le conjugu (*) par le vecteur transpos conjugu (H )
H:
H(y) = fg=g(y) 2 Hg
(28)
(29)
Ceci revient crire que l'erreur (innovation) est orthogonale l'espace des observations ltres.
(x x^) ? H(y)
(30)
Remarque 7
L'erreur est aussi appele innovation car elle reprsente l'information indpendante
des observations, c'est--dire orthogonale au sens du produit scalaire dni prcdemment.
Remarque 8
Nous nous placerons dans la suite dans le cas rel, le symbole ( ) sera donc omis.
(31)
(32)
(33)
(34)
Chapitre 3
30
Notions d'estimation
En dveloppant l'esprance,
(35)
(36)
On a alors :
Z Z
(x h(y))p(x=y)dx g(y)p(y)dy
Remarque 9
Si
(x h(y)):p(x=y)dx = 0
(39)
p(x=y)dx =
x:p(x=y)dx
x^ = h(y) = E [x=y]
x et y
(37)
(x h(y)):p(x=y)dx = 0
h(y)
D'o nalement
(40)
x^ = E [x=y] = E (x)
= 0
(41)
(42)
On dit alors que l'estimation est nulle, ce qui est normal puisqu'on ne peut pas estimer une grandeur
partir d'observations indpendantes.
x:
E !
y ! x^
On dsire ici que l'estimation soit optimale au sens d'un certain critre. On dnit pour cela une
fonction cot ou fonction perte :
L(x; x^)
(43)
Exemple 4
(44)
L'estime tant considre dans ce cas comme alatoire, la minimisation de L n'a aucun sens. On
dnit une fonction risque R qui correspond la moyenne spatiale (statistique) de la fonction cot
par :
R = E [L(x; x^)]
(45)
31
R:
R = Ey [L(x; x^)]
Explicitons l'expression de
R:
R=
(46)
L(x; x^(y))p(y=x)dy
(47)
On remarque alors que pour minimiser R, il faut connatre la fonction L et la densit de probabilit
conditionnelle p(y=x): Il faut donc connatre la loi de x: Ce fait permet de distinguer deux points
de vue de l'estimation :
l'estimation non-baysienne : la loi de x est inconnue.
l'estimation baysienne : on suppose la loi de x connue.
avec
Z Z
Z Z
(49)
L(x; x^(y))p(y=x)p(x)dydx
Z Z
G(y)p(y)dy
G(y) =
Exemple 5
(48)
(50)
L(x; x^(y))p(x=y)dx
(51)
G(y) =
=
(x x^)2 p(x=y)dx
x2 p(x=y)dx +
x^2 p(x=y)dx 2
(52)
Z
x^xp(x=y)dx
x^opt = E (x=y)
(55)
d2 G(y )
=2>0
(56)
dx
^2
Remarque 10 On remarquera que l'expression 55 est tout fait gnrale. Elle correspond aussi
l'estimation en moyenne quadratique tablie prcdemment.
Chapitre 3
32
Notions d'estimation
Q(a) = (xT
= (xT
(E [b(n)] = 0) :
(as)T )M (x as)
sT aT )M (x as)
(58)
(59)
de
quivaut la
Q(a) = kx ask2
La drivation de
Supposons que
(60)
est symtrique, (M
dQ
da
(61)
(62)
= MT )
= 2sT M T x + 2(sT Ms)a
(63)
(64)
On remarquera que l'estimateur obtenu est linaire, mais il n'y a aucune indication quant au choix
de la matrice M .
Remarque 12
Dans le cas
M = I;
a^ =
=
(sT s) 1 sT x
1 T
x s x
(65)
(66)
= E bbT
est connue.
33
a^ = hT x
(67)
E [^a] a = 0
= hT E [x] a
= hT E [as + b] a
(68)
Comme seul
(70)
car
(69)
(71)
(72)
(73)
V (~a) =
=
=
=
E (a
E (a
E (a
E (a
a^)2
hT x)2
hT (as + b))2
hT as + hT b)2
(74)
(75)
(76)
(77)
(78)
(79)
(80)
(81)
Pour trouver le minimum, il sut d'appliquer l'ingalit de Schwartz pour les produits scalaires :
(82)
On sait que l'galit a lieu lorsque les vecteurs sont colinaires. Prenons comme produit scalaire :
< u; v >= uT b v
et appliquons l'ingalit de Schwarz avec
hT
b b
u = h et v =
1s :
1 s hT h sT 1
1
b
b b b s
1 hT h sT 1 s
b
V (~a) sT
(83)
(84)
(85)
1 s 1
(86)
Chapitre 3
34
Notions d'estimation
9 2 R=u = v
(87)
h = b 1s
hT = sT b 1
Sachant que hT s = 1;
d'o
= sT
1 s 1
h = b 1 s = sT
et
a^ = sT
(89)
1 s
1 = sT
b
(88)
(90)
1 s 1
1 s 1
1s
(91)
1
b s x
(92)
M=
x^ estime
x^ = arg max
(p(y; x))
x
de
x qui maximise
la loi de
(94)
Maximiser p(y; x) est quivalent maximiser n'importe quelle fonction monotone (croissante) de
p(y; x): On utilise le plus souvent le logarithme et on parle alors de Log de vraisemblance :
x^ = arg max
log (p(y; x))
x
(95)
Soit un signal
(96)
= 2 R
(97)
p(y; ) =
N exp
yT R 1 y
22
(98)
35
yT R 1 y
22
(99)
(100)
^ 2 =
yT R 1 y
N
(101)
On peut calculer le biais de cet estimateur et remarquer que celui-ci est non biais :
1 T 1 1
E y R y = E trace(R 1 yyT )
E ^ 2 =
N
N
T
1
1
=
trace R E yy
N
1
=
trace R 1 2 R
N
= 2
(102)
(103)
(104)
(105)
36
Chapitre 3
Notions d'estimation
Dans les chapitres prcdents, nous avons vu apparatre direntes quantits E [x] ; E xxT ;
Sxx(f ); :::
Ces quantits sont impossibles calculer sur un ordinateur car elles ncessiteraient un nombre de
points inni et donc un temps de calcul inni. A titre d'exemple nous avons les galits suivantes :
E [x] =
ou
n=+
X1
n=
E [x] =
p(xk )xk
(1)
x:p(!)d!
(2)
Sur calculateur, on ne dispose que d'une squence discrte et nie de N points x0 ; x1 ; :::; xN 1 :
En ralit, on calcule des estimes de ces grandeurs en supposant gnralement le signal stationnaire et ergodique. On remplace alors le calcul des moyennes statistiques par des moyennes
temporelles.
chantillons
(3)
On remarque donc qu'on remplace la moyenne statistique par la moyenne temporelle sur la squence
nie.
Montrons que cet estimateur est non biais :
"
1 NX1
x
E [m
^] = E
N k=0 k
1 NX1
=
E [xk ]
N k=0
(4)
(5)
1 NX1
E [m
^] =
m
N k=0
= m
37
(6)
(7)
Chapitre 4
38
Estimation spectrale
L'estimateur
est donc non biais. Que vaut maintenant la variance de l'erreur d'estimation
E (m m
^ )2 ? L'estimateur tant non biais, on peut aussi crire :
V (m
^ ) = E (m
^ m)2
2
= E4
1 NX1
(x
N k=0 k
m)
V (m
^) =
(8)
!2 3
5
(9)
Supposons de plus que les xk sont indpendants et stationnaires au second ordre (E x2k est indpendant de k ): Remarquons de plus que le signal (xk m) tant centr, on a par consquent pour
i 6= j :
E [(xi
m)(xj
m)]
(10)
(11)
d'o
1 NX1
E (xk
N 2 k=0
2
=
N
V (m
^) =
m)2
(12)
(13)
lim V (m
^) = 0
(14)
N !+1
Dnition 1
Un estimateur est dit consistant s'il vrie les deux proprits suivantes
! +1:
La variance tend asymptotiquement vers 0 quand N ! +1:
3 Estimateur de variance 2
Par dnition, la variance d'un signal alatoire
2 = E (x E (x))2
= E x2 E [x]2
Supposons que l'on connaisse la moyenne
(15)
(16)
^12 =
1 NX1
(x
N k=0 k
m)2
(17)
2
E ^1
39
"
1 NX1
(x
= E
N k=0 k
1 NX1
=
E (xk
N k=0
m)2
m)2
(19)
1 NX1 2
N k=0
= 2
=
(20)
Le premier estimateur est donc non biais. Le signal alatoire a t suppos stationnaire :
2
E ^2
1 NX1 @
= E4
x
N k=0 k
=
20
N
X1
1
E 4@xk
N k=0
20
N
X1
1
E 4@(xk
N k=0
(21)
12 3
1 NX1 A
x
N j =0 j
NX1
12 3
1
xA
N j =0 j
5
12 3
NX1
1
(x m)A 5
N j =0 j
Cette criture permet de reconnatre le signal alatoire (xk m) qui est cette fois ci centr. De plus
=
m)
20
N
X1
1 4@
1
4E (xk m)2 +
E
(xj
E ^22 =
N k=0
N2
j =0
1 NX1 2 2 22
=
+
N k=0
N
N
N 1 2
=
N
12 3
m)A
2
E (xk
N
m)2
(22)
lim E ^22 = 2
N !+1
(23)
x; suppos
(24)
(25)
Chapitre 4
40
Estimation spectrale
Le premier ne tient pas compte du nombre d'chantillons disponibles qui varie avec le pas
R^ xx(k) =
nX
=N
1
x x
2N + 1 n= N n n+k
k:
(26)
Dans ce cas, on suppose que l'on dispose de la suite des chantillons du signal de longueur
(2N + 1) :
[x N ; x N +1 ; :::; x0 ; x1 ; :::; xN 1 ; xN ]
Cet estimateur est videmment biais.
Un deuxime estimateur prend en compte le nombre des chantillons restant l'indice k . De
plus, sachant que la fonction d'autocorrlation est paire, il sut de la calculer pour des valeurs
de k positives. En supposant disponible la squence du signal de N points [x0 ; x1 ; :::; xN 1 ] :
On crira alors :
k 1
1 NX
xx
(27)
R^ xx(k) =
N k n=0 n n+k
On montre que cet estimateur est non biais. Il sut pour cela d'crire
h
E R^ xx (k)
1
1
NX
k 1
n=0
NX
k 1
N k n=0
= Rxx (k)
E [xn xn+k ]
(28)
Rxx (k)
(29)
Sxx(f ) = T F [Rxx( )]
(30)
Sxx( ) = T F [Rxx(k)]
(31)
[x0 ; x1 ; :::; xN 1 ]
La squence tant nie, l'opration mathmatique qui consiste isoler cette squence du signal
initial support inni s'appelle la troncature. Ceci revient multiplier le signal par une fentre
rectangulaire. La transforme de Fourier calcule sur la squence nie sera donc convolue avec le
spectre de la fentre rectangulaire c'est--dire un sinus cardinal. Or les proprits spectrales du sinus
cardinal ne sont pas bien adaptes l'analyse spectrale du signal. On eectue alors des pondrations
par des fentres de types dirents telles que les fentres de Hamming, de Hanning, de Kaiser ou
de Bartlett. On dit que ces fentres ont un eet adoucissant sur le signal.
41
yk = xk fk
(32)
1
S^xx(f ) = jY (f )j2
N
avec
Y (f ) =
d'o
N
X1
k=0
yk e 2jfk
1
Y (f )Y (f )
S^xx(f ) =
N
N
X1
1 NX1
=
yk e 2jfk
yl e+2jfl
N k=0
l=0
1 NX1 NX1
y y e 2jf (k l)
=
N k=0 l=0 k l
Posons maintenant
(33)
(34)
(35)
(36)
i = k l; alors :
1 NX1 NX1
S^xx(f ) =
y y e 2jfi
N i=0 k=0 k k i
=
NX1
i=0
(37)
= T F [Ryy (i)]
(38)
N = M:L
(39)
Pour augmenter le nombre des sous squences, il arrive qu'on les fasse se chevaucher (overlapping)
sur une longueur D < L: On aura la relation :
(M
1)(L D) + L = N
(40)
On remarque que le biais diminue quand L augmente mais la variance quant elle diminue si M
augmente. Pour N donn, un compromis est alors ncessaire (quation 39). On choisit gnralement :
M=
2N
L
(41)
Dans ce cas particulier, cette mthode s'appelle mthode de Welch. Les gures ci-dessous donnent
quelques exemples de fentres de pondration dont les qualits peuvent tre values partir de la
largeur du lobe principal et la hauteur des lobes secondaires du spectre en amplitude.
Chapitre 4
42
1.5
valeur
0.5
0
0
50
100
150
50
100
150
spectre damplitude
0.5
0.4
0.3
0.2
0.1
0
0
Fig.
1: fentre rctangulaire
1.5
valeur
0.5
0
0
50
100
150
50
100
150
spectre damplitude
0.3
0.2
0.1
0
0
Fig.
2: Fentre de Hamming
1.5
valeur
0.5
0
0
50
100
150
50
100
150
spectre damplitude
0.3
0.2
0.1
0
0
Fig.
3: Fentre de Hanning
Estimation spectrale
43
1.5
valeur
0.5
0
0
50
100
150
50
100
150
spectre damplitude
0.25
0.2
0.15
0.1
0.05
0
0
Fig.
4: Fentre triangulaire
1.5
valeur
0.5
0
0
50
100
150
50
100
150
spectre damplitude
1
0.8
0.6
0.4
0.2
0
0
Fig.
5: Fentre de Chebychev
1.5
valeur
0.5
0
0
50
100
150
50
100
150
spectre damplitude
0.2
0.15
0.1
0.05
0
0
Fig.
6: Fentre de Blackman
Chapitre 4
44
Estimation spectrale
1.5
valeur
0.5
0
0
50
100
150
50
100
150
spectre damplitude
0.4
0.3
0.2
0.1
0
0
Fig.
7: Fentre de Kaiser
S^xx(f ) = T F R^ xx(k)
(42)
Cette mthode est appele mthode de Blackman-Tuckey. On dmontre que cet estimateur est
consistant.
xk = a1 xk 1 + :::: + ar xk r + uk
(43)
H (z ) =
=
On dit que le ltre
par la relation
X (z )
U (z )
(44)
1 + a1 z 1 + ::: + ar z r
(45)
(46)
Suu (f ) = U0
(47)
S^xx(f )
= Pr
1+
2
1
2jfk U0
k=1 ak e
Cette mthode fournit gnralement de meilleurs rsultats que les mthodes prcdentes.
(48)
y (k ) =
h(l)u(k l)
(1)
Cette quation n'est pas rcursive, le calcul de y l'instant (k 1);(k 2)::: ne sert pas au calcul
de y (k + 1).
Le calcul chaque instant de la convolution est coteux en temps de calcul. On tente ici de
trouver d'autres formes plus conomiques en calcul.
Un systme est dit rcursif d'ordre r et de mmoire p si on peut crire le relation prcdente sous
la forme :
p)]
(2)
C'est le type d'quation dj rencontre lors de l'tude du modle ARMA. Par contre dans ce cas
l, les coecients peuvent tre variables avec le temps.
2 Exemple
La formule de la moyenne d'un signal est la suivante :
y(k) =
1 X
x(i)
k 1ik
y(k + 1) =
1
1
k y (k ) +
x(k + 1)
k+1
k+1
(3)
y(k + 1) = y(k) +
1
[x(k + 1) y(k)]
k+1
(4)
On voit donc apparatre un terme d'erreur appel aussi terme de correction. L'intrt de ces
mthodes est vident. Dans ce cas l, il sut d'une mise en mmoire (la sortie y (k )) et d'une
multiplication par un coecient pour avoir la sortie l'instant (k + 1):
45
Chapitre 5
46
:a = c
(5)
Supposons que l'on veuille rsoudre cette quation pour la prdiction l'ordre r d'un signal dont
la fonction d'autocorrlation est inconnue. Une solution est de remplacer et c par leur estimation.
L'estimation la plus courante est la moyenne temporelle entre l'instant de dbut de l'exprience et
l'instant prsent n. On a donc :
n
cn
1 X
X XT
n 1in i i
1 X
=
xX
n 1in i i
(6)
(7)
(8)
an =
Thorme 1
n cn
(9)
Nous avons :
A + b:bT 1 = A 1
A 1 b:bT A 1
avec
= (1 + bT A 1 b) 1
Appliquons le thorme prcdent
A=
n 1
et b = Xn . En posant K =
1 ; on obtient :
Kn = Kn 1
n Kn 1 Xn XnT Kn 1
n = 1 + XnT Kn 1 Xn 1
(10)
Kn Xn = n Kn 1 Xn
(11)
En remplaant on a aussi,
d'o :
Kn = Kn 1
Kn Xn XnT Kn 1
(12)
nalement :
an = Kn cn
an = an 1 + Kn Xn (xn aTn 1 Xn )
(13)
47
xe = xn aTn 1 Xn
(14)
1c
a=
et
(15)
an an 1 ! 0
(16)
On a donc une mthode rcursive qui converge asymptotiquement vers la valeur exacte. Mais
cette convergence est l'inni, ce qui suppose donc une observation innie. Gnralement, on lui
prfre une observation de dure nie, quitte avoir une uctuation rsiduelle due au nombre ni
d'chantillons.
cn
1
P
1
=
P
=
n P 1in
X
n P 1in
Xi XiT
(17)
xi Xi
(18)
En fait, il est beaucoup plus commode d'introduire un facteur d'oubli sur les quations de rcurrence ( < 1) :
T
n = : n 1 + Xn Xn
cn = :cn 1 + xn Xn
(19)
Il sut alors de reporter ces quations dans les quations prcdentes et on aboutit l'algorithme
an = an 1 + kn Xn (xn aTn 1 Xn )
Algorithme simple, utilis en ltrage adaptatif.
Tn =
En dveloppant, on obtient :
1in
xi
aTn Xi 2
(20)
Chapitre 5
48
(21)
(22)
1in
X
vn =
1in
X
s2n =
1in
xi Xi
(23)
x2i
(24)
Mn an = vn
(25)
5 Filtrage de Kalman
Le ltrage de Kalman permet de rsoudre les problmes de prdiction un pas et d'estimation
de manire rcursive dans le temps.
Le processus doit tre dcrit par un modle linaire sous forme de reprsentation d'tat constitu
d'une quation d'tat et d'une quation d'observation ou de mesure :
X k+1 = Ak :X k + U k + Gk
Y k = Ck :X k + W k
Le bruit d'tat Gk et le bruit de mesure W k sont supposs blancs, centrs et de variances :
k=E
k = E
(26)
Gk :GTk
W k :W Tk
(27)
et
X k+1=k
(valeur
X k+1=k = Ak :X k=k + U k
De l'quation prcdente, on dduit une prdiction de la mesure l'instant
(28)
(k + 1) par
(29)
5. Filtrage de Kalman
49
(30)
Hk
X k+1=k = Ak :X k=k 1 + U k + Ak Hk Y k
et estimateur :
Ck :X k=k 1
(31)
(32)
Yk
Hk
Vk
Bk
Uk
X k+1/k
Ck
retard
Ak
Fig.
(33)
(34)
crivons alors que l'estimateur doit tre sans biais et variance minimale
biais nul (ltre prdicteur et ltre estimateur)
E k+1=k = 0
E k+1=k+1 = 0
(35)
(36)
k+1=k+1 = E k+1=k+1:kT+1=k+1
En laissant le soin au lecteur attentionn de dvelopper les calculs et en utilisant les quations
des ltres et les deux quations prcdentes, on aboutit aux quations de rcurrence
Hk+1 Ck+1
]T
(37)
+ Hk+1
k+1 HkT+1
(38)
Chapitre 5
50
On remarquera que la premire quation ne dpend pas directement de Hk : C'est donc la deuxime
quation qui servira calculer la valeur de Hk+1 qui la rend minimale. Aprs quelques lignes de
calculs, on obtient
Hk+1 = k+1=k :CkT+1
k+1 + Ck+1 :k+1=k CkT+1 1
(39)
La valeur du minimum vaut alors
k+1=k+1 = [I
Hk+1Ck+1 ] k+1=k
(40)
k+1=k = Ak [I
Hk Ck ] k=k 1ATk +
(41)
5.3 Rsum
Finalement les quations des ltres de Kalman prdicteur et estimateur peuvent tre obtenues
par la rcurrence temporelle suivante
initialisation
X 0=0 = E [X 0 ]
0=0 = 0
rcurrence au pas
(42)
(43)
(44)
(45)
(46)
(47)
(48)
Systme
Fig.
w
u
y
g(n)
Fig.
o le vecteur u reprsente le vecteur des entres (signaux utiles), le vecteur w est le vecteur des
entres exognes et y le vecteur des sorties ou des mesures. On supposera dans la suite que les
entres exognes sont ramenes en sortie (gure 2). On peut alors crire :
y(n) =
+1
X
k=1
g(k)u(n k) + w(n)
(1)
G(z ) =
On note souvent aussi l'oprateur
la forme :
+1
X
k=1
g(k)z
(2)
(3)
Chapitre 6
52
Identication paramtrique
Comme nous l'avons vu dans le chapitre 2, il est toujours possible de gnrer l'entre
d'un bruit blanc e et d'un ltre H (q ): L'quation (3) devient alors :
partir
(4)
G(q) = q
k0 B (q)
A(q)
et
H (q) = A1(q)
(5)
avec
(6)
(7)
p et pass m: Le modle
(8)
G(q) = q
avec
Le modle s'crit :
k0 B (q)
A(q)
et
H (q) = CA((qq))
C (q) = 1 + c1 q 1 + ::: + cl q
(9)
(10)
(11)
B (q)
u(n k0 ) + e(n)
F (q)
F (q) = 1 + f1 q 1 + ::: + fj q
(12)
(13)
B (q )
C (q )
u(n k0 ) +
e(n)
F (q )
D(q)
(14)
3. Modle d'tats
53
3 Modle d'tats
Plusieurs modles sous forme d'quations d'tat sont aussi possibles. Nous en itons deux :
dans ce cas,
Remarque 13
(15)
dans ce cas,
(16)
54
Chapitre 6
Identication paramtrique
Deuxime partie
Travaux dirigs
55
56
Exercice 1
et
!o
sont constantes et
est une
1. Calculer
2.
3.
Exercice 2
Soit x(t)un signal alatoire, stationnaire d'ordre 2, rel. En partant de l'expression
h
jRxx( )j Rxx(0)
Exercice 3
Soit le signal
x(t) =
k=+
X1
k=
ak g(t kT
)
E (ak ) = ma
g(t)
57
58
M >0
que la proprit
M > 0?
Exercice2 : Proprits des matrices de covariance
Soit x une variable alatoire vectorielle suppose centre. On dnit sa matrice de corrlation (ou
= E xxH
1. Montrer que la matrice
2. Montrer que
ij
= E xi xj
est hermitienne.
3. Montrer que les valeurs propres de sont non ngatives et les vecteurs propres correspondant
des valeurs propres distinctes sont orthogonaux.
4. Montrer que toute matrice hermitienne dnie non ngative est une matrice de covariance
5. Soit y un vecteur alatoire obtenu de
covariance de y .
par transformation
59
y = Ax.
Calculer la matrice de
x blanc unitaire.
60
TD 3 : Estimateurs
Exercice 1
Soit une phase alatoire quirpartie sur [0; ]. Considrons les variables alatoires x et y
dnies par x = cos et y = sin .
1. Calculer les moyennes E [x] et E [y ].
2. Calculer
les variances
de x et y dnies respectivement par x = E (x E (x))2 et y =
E (y E (y))2 .
3. Calculer nalement la covariance de x et y donne par E [x:y ].
4. Donner la meilleure estimation linaire en moyenne quadratique de y partir de x. On rappelle
la formule identique celle du cours mais dans le cas o x et y ne sont pas centrs
y^ = E [y] +
yx x
1 (x
E [x])
Conclure.
y^ = E (y=x)
Exercice 2
E [t1 ] = + b1 et
1. Peut-on trouver un estimateur t combinaison linaire de t1 et t2 qui soit sans biais ? On posera
t = t1 + t2
2. On suppose b1 = b2 = 0 et E (t1 :t2 ) = 0. Calculer et pour que
biais de variance minimale. Quelle est alors cette variance ?
3. Dans le cas o t1 et t2 sont les moyennes empiriques de deux chantillons tirs au hasard
d'une mme population au cours d'preuves indpendantes, quoi correspond l'estimateur t
variance minimale.
Exercice 3
x uniforme,
TD 3 : Estimateurs
62
a et b.
Calculer le biais et l'erreur quadratique moyenne de l'estimateur de a. On rappelle que
N
X
1
N (N + 1)(N + 2)
6
n=1
TD 4 : Estimation et signaux AR
Exercice 1
nT
vb(y) =
1. Cet estimateur est-il biais ?
2. Calculer sa variance E (vb(y )
v)2
N
yn
1X
N n=1 nT
Exercice 2
Soit xn un signal alatoire rel, centr et autorgressif d'ordre 3, donn donc par
xn = a1 xn 1 + a2 xn 2 + a3 xn 3 + un
o uk est un bruit blanc centr de variance u2 : On notera
i = E [xn xn i ]
Le but de l'exercice est de calculer les coecients a1 ; a2 et a3 :
T
et u2 vrient les quations suivantes :
1. Montrer que le vecteur a = a1 a2 a3
R:a = c
u2 =
0 aT c
o
0
1
2
1
R = 4
1
0
1 5 et c = 4
2 5
2
1
0
3
1 =
3 = 0 et j
2 j <
0 : Dterminer le vecteur a
2. On suppose que
et la variance du bruit
2
gnrateur u :
3. En dduire toutes les valeurs de la fonction d'autocorrlation de x:
4. Montrer que j
2 j
0 :
5. On suppose maintenant que
0 =
2 = 1 et que l'on a toujours
1 =
3 = 0: Donner la
structure du signal xn et trouver un exemple de trajectoire de ce signal.
63
64
TD 4 : Estimation et signaux AR
TD 5 : Filtrage de Kalman
On dsire estimer la position d'un vhicule se dplaant vitesse constante. Cette vitesse est
perturbe par des vitesses alatoires. On suppose qu'entre deux instants d'observation, la vitesse
est constante. On peut donc crire
v(t) = vo +
n
pour tn < t < tn+1
L'quation d'tat du systme donnant la variation de la position s'crit donc :
xn+1 = xn + T:vo + T:
n
L'quation de mesure s'crit :
yn = xn + wn
avec :
E [
n :
nT ] =
E [wn :wnT ] = W
On donne :
T = 0:1s; W = 100; = 1; xo = 0; 0 = 0
65
66
TD 5 : Filtrage de Kalman
Troisime partie
Travaux pratiques
67
68
TP 1 Analyse spectrale
1 Troncature et fentrage
En utilisant les fonctions 'stem' et 'subplot'; tracer les fentres de Hamming, Hanning, Boxcar et
Kaiser dans le domaine temporel. Ces fentres peuvent tre gnres sous Matlab, par les fonctions
du mme nom.
Tracer de mme le spectre de ces fentres ; On utilisera pour cela la fonction 'fftshift':
Identier les compromis entre la dcroissance dans le domaine temporel et la largeur du lobe
principal, l'amplitude du lobe secondaire et la dcroissance des autres lobes.
Pour une fentre donne montrer qu'une fentre plus large implique des performances meilleures
dans le domaine frquentiel.
A1 = A2 = 1, f1 = 25Hz
(1)
et f2
= 50Hz:
logarithmique.
6. Calculer et tracer maintenant le priodogramme du signal multipli par une fentre de type
Hamming ou Hanning. Conclure.
TP 1 Analyse spectrale
70
3.1 Signaux MA
Un signal Moyenne Mobile (Moving average) est obtenu par passage d'un bruit blanc dans un
ltre rponse inpulsionnelle nie (FIR).
On considre le ltre de fonction de transfert
H (z ) = 1 + 2z 1 + 5z 2
(2)
x(n): Commentaires.
x(n):
3.2 Signaux AR
Les signaux AR sont obtenus par passage d'un bruit blanc dans un ltre purement rcursif.
On considre le ltre de fonction de transfert
H (z ) =
0:3
1 0:8z 1
b(n):
TP 2 : Estimation spectrale
1 Estimation de la fonction d'autocorrlation
Les deux estimateurs classiques de fonction d'autocorrlation sont donnes par
estimateur biais
N jkj
1 X
^
x(n)x(n + k)
Rxx (k) =
N n=1
R^ xx (k) =
(1)
NX
jkj
(2)
(3)
Application
1. Programmer les trois algorithmes prcdents. Les indices des vecteurs sous Matlab ne pouvant
^ xx(0) l'indice N: La fonction
tre dnis qu' partir de 1, on s'arrangera pour placer R
^
^
d'autocorrlation tant paire, on aura alors Rxx (N + k ) = Rxx (N k ) pour k = 1; :::; N 1:
2. Montrer que l'estimation non biaise revient pondrer le signal par une fentre triangulaire.
3. Que vaut littralement la fonction d'autocorrlation du signal
0; :::; 100:
TP 2 : Estimation spectrale
72
2.1 Priodogramme
Cette mthode estime la densit spectrale de puissance comme tant le carr du module de la
transforme de Fourier du signal. On obtient donc :
Sxx(f ) = jX (f )j2
(4)
Cette mthode est en fait quivalente prendre la transforme de Fourier de la fonction d'autocorrlation.
2.1.1 Application
On considre le signal x(t) dont on dsire calculer la densit spectrale de puissance par la mthode
du priodogramme.
Fe = 1023.
256
psd:
TP 3 : Filtrage de Kalman
1 Description du problme
On dsire estimer la position xn et la vitesse vn d'un mobile se dplaant acclration constante
Cette acclration est soumise des acclrations alatoires
n (variation du rgime moteur,
variation du coecient d'adhrence,...). L'ensemble de ces acclrations alatoires sont supposes
indpendantes et de moyenne nulle. On peut donc crire entre deux instants d'chantillonnage de
la mesure (tn t < tn+1 ) :
(t) =
0 +
n
(1)
0 .
E [
n ] = 0
E [
n
n+k ] = :k
(2)
(3)
On suppose que seule la position est accessible la mesure et que cette mesure est bruite. La
mesure est note yn et le bruit wn :
1. crire l'quation de rcurrence donnant vn+1 en fonction de vn ;
0 ;
n et
2. crire de mme l'quation de rcurrence donnant
prcdentes.
xn+1
en fonction
T = tn+1 tn :
de xn et des variables
avec
X k = xk vk
T
X k+1 = A:X k + U k + Gk
Y k = CX k + W k
(4)
4. Programmer les quations des ltres prdicteur et estimateurs. On remarquera que les quations sont plus simples car le systme est stationnaire.
5. Gnrer un ensemble d'observations bruites en utilisant les paramtres suivants
h
T = 0:1s 0 = 1ms 2
= 1
= 100 X 0 = 0
10
T i
(5)
TP 3 : Filtrage de Kalman
74
tat initial
X0 = 0
10
y1 y0 T
T
y1 y0 T
T
y1 y0 T
T
X 0 = y0
X 0 = y0
X 0 = y0
0
0
0
0
0
0
0
4
=T 2
0
100
0 4
=T 2
Variance
initiale
0
0
0
0
T
bruit d'tat
1
1
1
100
0.01
100
0.01
TP 4 : Estimation et prdiction
1 Estimation de fonction de transfert
Soit respectivement x(n) et y (n) l'entre et la sortie d'un ltre linaire de rponse impulsionnelle h(n) et de fonction de transfert H (f ): La fonction d'intercorrlation est lie la fonction
d'autocorrlation du signal d'entre par
(1)
Sxy (f ) = H (f ):Sxx(f )
(2)
H (f ) =
Sbxy (f )
Sbxx (f )
H (f )
du
(3)
Application
x(n): Conclure.
TP 4 : Estimation et prdiction
76
(xcorr):
T oeplitz:
jH (f )j2 :
3 Prdiction
Le problme de la prdiction linaire peut tre nonc comme suit :
tant donn N + 1 chantillons (x0 ; x1 ; :::; xN ) d'un signal x; l'objectif est de raliser un ltre
prdicteur linaire d'ordre r (r < N ) du signal x:
La prdiction linaire d'un chantillon partir des r derniers chantillons s'crira alors
2
6
6
6
6
4
x0
x1
xN
x1
x2
r
xN
:::: xr 1 xr 1
:::: xr 1 xr
::::
:
:
::::
:
:
::::
x
x
r+1
N 2
N 1
32
76
76
76
76
54
a1
a2
:
:
ar
7 6
7 6
7=6
7 6
5 4
xr
xr+1
:
:
xN
3
7
7
7
7
5
A:a = x
avec A : ((N r + 1) r ); a: (r 1); x: ((N r + 1) 1):
On remarque que la matrice A est non carre et donc non inversible car gnralement le nombre
d'observations est trs suprieur r (N > 2:r 1): Il y a donc plus d'quations que d'inconnues.
On peut quoi qu'il en soit utiliser la pseudo inverse d'une matrice rectangulaire rang plein. On
obtient alors
a = (AT :A) 1 :AT :x
1. Programmer la mthode.
2. Appliquer la mthode pour la prdiction du signal contenu dans sig1.mat et du signal de
parole. On utilisera une partie du signal pour le calcul des coecients du ltre et une autre
partie pour la validation du prdicteur.
3. Examiner l'inuence du choix de direntes valeurs de
et r .
3. Prdiction
77
78
TP 4 : Estimation et prdiction
Quatrime partie
Quelques fonctions de Matlab
79
80
Algbre linaire
1 Cration de matrices et vecteurs
Matrice nulle n m
A = zeros(n; m)
Matrice identit n n
A = eye(n)
Matrice de 1 n m
A = ones(n; m)
Matrice diagonale
Matrice val alatoires n m
Matrice val alatoires n m
Matrice de Toeplitz
A = diag([a1 ; a2 ; :::; an ])
A = rand(n; m)
A = randn(n; m)
A = toeplitz (c)
distribution uniforme
distribution normale
c premire ligne
A(i; j )
A(i; :)
A(:; j )
A([i1 ; i2 ; ::]; [j1 ; j2 ; ::])
diag(A)
triu(A)
tril(A)
A0
inv(A) 1=A A^ 1
A
A:
det(A)
rank(A)
[v; d] = eig(A)
3 Factorisation de matrices
Factorisation QR
Factorisation LU
Factorisation de Cholesky
81
[Q; R] = qr(X )
[L; U; P ] = lu(X )
R = chol(X )
Algbre linaire
82
A+B
AB
A: B
x = inv(A) b ou x = Anb
5 Les polynmes
Un polynme est reprsent par le vecteur ligne ou colonne de ses coecients du degr le plus
lev au plus faible.
p(x) = x2 + 3x 1
p = [1; 3; 1]
p = poly(v)
A
p = poly(A)
p0 = polyval(p; a)
r = roots(p)
p = conv(p1; p2)
L'addition de deux polynmes pose des problmes, car a revient additionner deux vecteurs de
dimensions imcompatibles si les polynmes ne sont pas de mme degr. Il sut d'crire une fonction
qu'on va appeler polyadd
function
p = polyadd(p1; p2)
if
(size(p1; 2) > 1)
p1 = p10 ;
end;
elseif
(size(p2; 2) > 1)
p1 = p10 ;
end;
end;
if
(size(p1; 1) >= size(p2; 1))
p = p1 + [p2; zeros(size(p1; 1) size(p2; 1))];
else
p = p2 + [p1; zeros(size(p2; 1) size(p1; 1))];
end;
Nous donnons dans la suite quelques fonctions de la Toolbox signal processing.
Traitement du signal
1 Fentrage
Rectangulaire
Triangulaire
Blackman
Bartlett
Chebwin
Hamming
Hanning
Kaiser
x = boxcar(N )
x = triang(2 n + 1)
x = boxcar(N )
x = bartlett(2 n + 1)
x = chebwin(N; R)
x = ham min g(N )
x = hanning(N )
x = kaiser(N; beta); 0 beta 10
2 Gnration de signaux
Dirichlet (sinc priodique)
dents de scie
sinc
carr
y = diric(x; N )
x = sawtooth(T; largeur) ou x = sawtooth(T )
y = sin c(x)
x = square(T; rcycle) ou x = square(T )
3 Transformes
TFR
T.F inverse
Transforme en Cosinus
T. en Cosinus inverse
Symtrie spectrale
Transforme en z
y = fft(x; N ) ou y = fft(x)
x = fft(y; N ) ou x = ifft(y)
y = dct(x)
x = idct(y)
y = fftshift(x)
G = czt(x; m; w; a)
83
Traitement du signal
84
4 Traitement statistique
Est. de la fonction de cohrence
Coecients de corrlation
Matrice de covariance
Inter-densit spectrale
Densit spectrale de puissance
Est. de fonction de transfert
inter- et auto-corrlation
covariance (sans les moyennes)
valeur moyenne
variance
C = conv(A; B )
y = filter(B; A; x)
F = freqspace(N )
[H; W ] = freqs(B; A)
[H; F ] = freqz (B; A; N; F s)
[H; T ] = impz (B; A; N; F s)
6 Modlisation paramtrique
Modlisation partir d'une rponse frquentielle en
Modlisation partir d'une rponse frquentielle en
Algorithme de Levinson
Prdiction linaire
Modlisation ARMA
7 Fonctions diverses
Convolution 2 dimensions
Centrage d'un signal alatoire
soustraction d'une composante en rampe
T. de Fourier 2D
T. de Fourier Inverse 2D
Trac discret
intercorrlation 2D
C = conv2(A; B )
y = dtrend(x)
y = detrend(x)
A = fft2(X; N )
A = ifft2(X; N )
stem(x)
xcorr2(A; B )
85
Index
Alatoire, 15
Autocorrlation, 16
de Hannng, 41
de Kaiser, 41
rectangulaire, 41
triangulaire, 41
Filtrage, 12
continu, 12
de Kalman, 48
discret, 12
dynamique, 12
Filtre
AR, 13
formeur, 21
RIF, 13
RII, 13
Fonction cot, 30
Fonction risque, 30
Fourier, 11
continue, 11
discrte, 11
Biais
d'un estimateur, 26
Birko
Thorme de, 18
Bruit blanc, 21
Causalit, 12, 13
convolution, 45
Corrlogramme, 44
Covariance, 16
Dterministe, 15
Dirac, 13
DSP, 19
Echantillonnage, 13
ELM, 29
ELMQ, 26
Equation
de Yule-Walker, 23
Equation Normale, 23, 46
Equirpartie, 19
Ergodicit, 18
Esprance, 16
Estimation, 25
Baysienne, 30
Corrlogramme, 44
de la DSP, 40
de la fonction d'autocorrlation, 39
de la moiyenne, 37
de la variance, 38
Mthode du modle, 44
non Baysienne, 30
non-baysienne, 34
nulle, 30
Spectrale, 37
Gaussiens
Signaux, 20
Innovation, 25
Kalman, 48
Laplace, 11
Matrice
dnie non ngative, 20
de corrlation, 19
hermitienne, 19
Moindres carrs
linaires, 27
non-linaires, 29
Rcursifs, 47
Moments
d'ordre 1, 16
d'ordre 2, 16
statistiques, 16
temporels, 17
Fentre
de Blackman, 41
de Chebychev, 41
de Hamming, 41
Priodogramme, 40
86
INDEX
moyenn, 41
Principe d'orthogonalit, 28
Puissance, 17
Rcursif, 45
Signaux
alatoires, 15
AR, 22
ARMA, 23
dterministes, 15
Gaussiens, 20
MA, 22
Stabilit, 12, 13
Stationnarit, 18
Transforme
de Fourier, 11
de Laplace, 11
en z, 11
Variance, 17
d'un estimateur, 26
87