Vous êtes sur la page 1sur 87

Institut Universitaire Professionnalis dvry

Gnie lectrique et Informatique Industrielle 3me Anne


Gnie des Systmes Industriels 3me Anne

TS31 : Traitement Statistique du Signal


Sad Mammar

Institut Universitaire Professionnalis dvry

Table des matires


I lments de cours
Chapitre 1

1
2
3

4
5

4
5
6
7
8
9
10
11
12

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Notions de signaux alatoires . . . . . . . . . . . . . . . . . . . . . . . . . .
Moments statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1
Moment statistique d'ordre 1 (moyenne statistique) . . . . . . . . . .
3.2
Moment statistique d'ordre 2 (fonction d'auto-corrlation statistique)
3.3
Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4
Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Moments temporels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1
Moment temporel d'ordre 1 (moyenne) . . . . . . . . . . . . . . . . .
4.2
Moment temporel d'ordre 2 (fonction d'auto-corrlation temporelle)
Stationnarit et ergodicit . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Densit spectrale de puissance . . . . . . . . . . . . . . . . . . . . . . . . . .
Fonctions et matrices de corrlation . . . . . . . . . . . . . . . . . . . . . . .
Les signaux gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Filtrage des signaux alatoires . . . . . . . . . . . . . . . . . . . . . . . . . .
Notion de bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Notion de ltre formeur . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Les signaux MA, AR et ARMA. . . . . . . . . . . . . . . . . . . . . . . . . .
12.1 Les signaux MA (Moving Average, Moyenne Mobile). . . . . . . . . .
12.2 Les signaux AR (AutoRgressifs) . . . . . . . . . . . . . . . . . . . . .
12.3 Les signaux ARMA (Auto Regressif, Moving Average) . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

Chapitre 3

1
2
3

Rappels sur les signaux et systmes

Classication des signaux . .


Reprsentation des signaux .
Filtrage linaire . . . . . . . .
3.1
Dnition . . . . . . .
3.2
Proprits . . . . . . .
3.3
Les ltres dynamiques
chantillonnage . . . . . . . .
Signaux analytiques . . . . .

Chapitre 2

1
2
3

9
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

Signaux alatoires

Notions d'estimation

Introduction . . . . . . . . . . . . . . . . . . . . . . .
Performance d'un estimateur . . . . . . . . . . . . .
2.1
Biais d'un estimateur . . . . . . . . . . . . . .
2.2
Variance de l'estimateur . . . . . . . . . . . .
Estimation linaire en moyenne quadratique (ELMQ)
3

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

11
11
11
12
12
12
13
13
14

15
15
15
15
16
16
16
17
17
17
17
18
19
19
20
20
21
21
22
22
22
23

25
25
26
26
26
26

TABLE DES MATIRES

4
5
6
7

3.1
Calcul par drivation . . . . . . . . . . . . . . . . . . . . . . .
3.2
Performances de l'estimateur . . . . . . . . . . . . . . . . . .
3.3
Principe d'orthogonalit . . . . . . . . . . . . . . . . . . . . .
3.4
Dtermination de l'estimateur par le principe d'orthogonalit
Estimation en moyenne quadratique (ELM) . . . . . . . . . . . . . .
Estimation Baysienne et non-Baysienne . . . . . . . . . . . . . . .
Comparaison d'estimateurs sur un exemple simple . . . . . . . . . .
6.1
Estimation du pauvre . . . . . . . . . . . . . . . . . . . . . .
6.2
Connaissance de b au second ordre . . . . . . . . . . . . . . .
lments d'estimation non-baysienne . . . . . . . . . . . . . . . . .

Chapitre 4

Estimation spectrale

Chapitre 5

Mthodes rcursives dans le temps

Chapitre 6

Identication paramtrique

1
2
3
4
5

1
2
3
4
5

1
2

Introduction . . . . . . . . . . . . . . . . . .
Estimation de la moyenne E [x] . . . . . . .
Estimateur de variance  2 . . . . . . . . . .
Estimateur de la fonction d'autocorrlation
Estimateur de densit spectrale . . . . . . .
5.1
Mthode du priodogramme . . . . .
5.2
Mthode du corrlogramme . . . . .
5.3
Mthode du modle . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

Introduction . . . . . . . . . . . . . . . . . . . . .
Exemple . . . . . . . . . . . . . . . . . . . . . . .
Rcurrence temporelle sur les quations normales
Mthode des moindres carrs rcursifs . . . . . .
Filtrage de Kalman . . . . . . . . . . . . . . . . .
5.1
quations des ltres . . . . . . . . . . . .
5.2
Dtermination du gain du ltre . . . . . .
5.3
Rsum . . . . . . . . . . . . . . . . . . .

Introduction . . . . . . . . . . . .
Les modles polynomiaux . . . .
2.1
Modle ARX . . . . . . .
2.2
Modle ARMAX . . . . .
2.3
Modle erreur de sortie
2.4
Modle de Box-Jenkins . .
Modle d'tats . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

II Travaux dirigs

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

27
28
28
28
29
30
32
32
32
34

37
37
37
38
39
40
40
44
44

45
45
45
46
47
48
48
49
50

51
51
52
52
52
52
52
53

55

TD 1 : Proprits des signaux alatoires

57

TD 2 : Signaux alatoires vectoriels

59

TD 3 : Estimateurs

61

TD 4 : Estimation et signaux AR

63

TD 5 : Filtrage de Kalman

65

TABLE DES MATIRES

III Travaux pratiques


TP 1 Analyse spectrale

1
2
3

Troncature et fentrage . . .
Rsolution d'une fentre . . .
Densits spectrales de signaux
3.1
Signaux MA . . . . . .
3.2
Signaux AR . . . . . .

67
. . . .
. . . .
AR et
. . . .
. . . .

. . .
. . .
MA
. . .
. . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

Estimation de la fonction d'autocorrlation . . . . . . . . . . . .


Estimation de densit spectrale . . . . . . . . . . . . . . . . . . .
2.1
Priodogramme . . . . . . . . . . . . . . . . . . . . . . . .
2.2
Priodogramme moyenn (Mthode de Welch) . . . . . . .
2.3
Priodogramme moyenn avec recouvrement (overlapping)
2.4
Fonction 'PSD' de Matlab . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

TP 2 : Estimation spectrale

1
2

69
69
69
69
70
70

71
71
71
72
72
72
72

TP 3 : Filtrage de Kalman

73

TP 4 : Estimation et prdiction

75

IV Quelques fonctions de Matlab

79

1
2
3
1
2
3

Description du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
Inuence des conditions initiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
Inuence du choix des variances des bruits . . . . . . . . . . . . . . . . . . . . . . . . 74

Estimation de fonction de transfert . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75


qualisation d'un signal de son . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
Prdiction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

Algbre linaire

1
2
3
4
5

Cration de matrices et vecteurs . . . . . . . . . . . .


Manipulation et oprations sur les vecteurs et matrices
Factorisation de matrices . . . . . . . . . . . . . . . . .
Oprations entre matrices et vecteurs . . . . . . . . . .
Les polynmes . . . . . . . . . . . . . . . . . . . . . .

Traitement du signal

1
2
3
4
5
6
7
8

Fentrage . . . . . . . . . . . . . . .
Gnration de signaux . . . . . . . .
Transformes . . . . . . . . . . . . .
Traitement statistique . . . . . . . .
Filtrage, analyse et synthse . . . . .
Modlisation paramtrique . . . . . .
Fonctions diverses . . . . . . . . . .
Estimation de paramtres de modles

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.

81
81
81
81
82
82

83
83
83
83
84
84
84
84
85

TABLE DES MATIRES

Table des gures


1
2
3
4

Exemple de processus stationnaire et ergodique


Exemple de processus non stationnaire . . . . .
Bruit blanc bande limite . . . . . . . . . . .
Filtre formeur . . . . . . . . . . . . . . . . . . .

1
2

Estimation linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
Estimation en moyenne quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

1
2
3
4
5
6
7

fentre rctangulaire .
Fentre de Hamming .
Fentre de Hanning . .
Fentre triangulaire . .
Fentre de Chebychev
Fentre de Blackman .
Fentre de Kaiser . . .

Structure du ltre de Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

1
2

modle gnral d'identication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51


Signaux exognes en sortie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.

18
18
21
21

42
42
42
43
43
43
44

TABLE DES FIGURES

Premire partie
lments de cours

10

Chapitre 1 Rappels sur les signaux et


systmes
1 Classication des signaux
Un signal est une fonction d'une ou plusieurs variables servant de support la transmission d'une
commande ou d'une information. La classication peut se faire selon :
 les variables de dpendance :
 le temps, on parle alors de signaux temporels (ce sont les plus courants)
 l'espace et le temps, on parle de signaux spatio-temporels (ex : les ondes lectromagntiques )
 les valeurs que peut prendre le signal : scalaires, vectorielles, relles, complexes
Dans cette tude on se restreint aux signaux temporels. La gnralisation aux autres types de
signaux ne pose pas de dicult majeure. Parmi les signaux temporels, on distingue :
 les signaux temps continu ou discrets (chantillonns)
 les signaux valeurs continues ou valeurs discrtes (quantication, numrisation)
 les signaux dterministes ou alatoires (prise en compte de bruits par exemple)

Reprsentation des signaux

Un des objectifs de la transformation d'un signal est l'obtention d'une reprsentation quivalente.
Les plus importantes dans le cadre de cette tude sont :
 La transforme de Fourier temps continu.
forme de Fourier par :

x(t) tant le signal temporel, on dnit la trans-

R
X (f ) = +11 x(t)e 2jft dt

R
x(t) = +11 X (f )e+2jtf df

 La transforme de Fourier temps discret. Cette fonction est priodique de priode

X (f ) =

Pn=+1

n=

1 x(nT )e

R
x(nT ) = T1 1=12=T2T X (f )e+2jnT f df

2jfnT

(1)

1=T

:
(2)

 La transforme bilatrale de Laplace, intgrale convergente sur une bande dnie par deux
droites parallles l'axe imaginaire d'abscisses a1 et a2 :
R
X (p) = +11 x(t)e

1 R X (p)ept dp
x(t) = 2j
B

pt dt

On a galit avec la transforme de Fourier sur l'axe imaginaire


11

(3)

X (f ) = X (p) pour p = j!.

Chapitre 1

12

Rappels sur les signaux et systmes

 La transforme bilatrale en z dnie pour un signal discret x(nT ), convergente sur un anneau
C centr en zro et dni par deux rayons r1 et r2 :

X (z ) =

Pn=+1

n=

1 x(n)z

1 R X (z )z n 1 dz
x(nT ) = 2j
C

On a galit avec la transforme de Fourier temps discret pour

(4)

z = e2jfT = e2jn.

3 Filtrage linaire
3.1 Dnition
On appelle ltre linaire un systme la fois linaire et invariant dans le temps. Ceci implique
qu'une combinaison linaire d'entres entrane la mme combinaison linaire des sorties, et de plus
tout dcalage temporel de l'entre entrane le mme dcalage en sortie.
Dans le domaine temporel, l'entre et la sortie sont lies par une opration de convolution introduisant la rponse impulsionnelle h(t) dans le cas continu ou h(n) dans le cas discret. Un ltre
linaire est donc un convolueur.
Soit x(t) (resp. x(n)) l'entre du ltre et y (t) (resp. y (n)) sa sortie, nous avons alors :
 dans le cas continu :

y(t) = h(t)  x(t) =

+1

h(u)x(t u)du

(5)

 dans le cas discret cette relation s'crit :

y(n) = h(n)  x(n) =

k=+
X1

k=

h(k)x(n k)

(6)

Un ltre linaire est un systme linaire qui admet les signaux exponentiels comme fonctions
propres. Pour un signal exponentiel l'entre du ltre, on obtient le mme signal exponentiel en
sortie multipli par un nombre complexe (gain du ltre, fonction de transfert). En eet la rponse
un signal sinusodal est un signal sinusodal de mme frquence dont l'amplitude est multiplie
par le gain du ltre cette frquence et dphas de l'argument de la fonction de transfert.
Les relations prcdentes s'crivent aussi par passage la transforme de Laplace, ou de Fourier,
ou en z

Y (p) = H (p)X (p)

Y (z ) = H (z )X (z )

(7)

3.2 Proprits
 Causalit : pour cela, la rponse impulsionnelle nulle pour t < 0. En eet c'est la rponse du
ltre pour un signal situ l'origine des temps (l'impulsion de Dirac) :

h(t) = h(t)  (t)


Parfois il est utile de considrer l'anticausalit (

h(t) = 0 pour t > 0).

 Stabilit : on ne considre que la stabilit (entre borne / sortie borne). Pour le cas discret
une condition ncessaire mais non susante est que h(n) soit borne.

4. chantillonnage

13

3.3 Les ltres dynamiques


3.3.1 Dnitions
Les ltres dynamiques constituent une sous classe des ltres linaires. Ils sont caractriss par
une fonction de transfert en p ou z ayant la forme d'une fraction rationnelle. Ceci est quivalent au
fait que la relation entre-sortie peut tre reprsente par une quation direntielle coecients
constants dans le cas continu, ou une quation aux dirences coecients constants dans le cas
discret. Ceci est le cas de nombreux processus physiques.
 Dans le cas continu :

n
X
i=0

ai y(i) (t) =

n
X
i=0

ai y(k i) =
H (z ) =

bj x(j ) (t)

j =0
Pm
bj pj
Pjn=0
i
i=0 ai p

H (p) =
 Dans le cas discret :

m
X

m
X

bj x(k
j =0
Pm
j
j =0 bj z
Pn
i
i=0 ai z

(8)
(9)

j)

(10)
(11)

Ce ltre est appel ltre rcursif (ltre R.I.I, Rponse impulsionnelle nie, signaux A.R.M.A,
Auto Regressif Moving Average ). Il correspond au cas le plus gnral
 ltre rponse impulsionnelle nie (R.I.F) (signaux Moving Average )

H (z ) =

m
X
j =0

bj z

(12)

 ltre tous ples (b0 est le seul non nul, ai non nuls) (signaux Auto Regressif )

H (z ) =

b0
i=0 ai z

Pn

(13)

3.3.2 Proprits
 La causalit : Un ltre dynamique est causal si sa rponse impulsionnelle est causale. Une
condition ncessaire dans le cas discret est que le degr du dnominateur soit suprieur ou
gal celui du numrateur.
 La stabilit : Les ples sont localiss dans le demi-plan gauche de l'axe imaginaire. Dans le
cas discret la stabilit est ralise si les ples sont l'intrieur du cercle unit.

4 chantillonnage
Cette opration consiste prlever un chantillon du signal temps continu chaque instant

tn = nT . Le passage du temps continu au temps discret entrane en gnral une perte d'information.
Dans certains cas particuliers, ce passage peut se faire sans perte. La priode d'chantillonnage
maximale est T = 1=2B , o B est la largeur du spectre de x(t) (c'est le thorme de Shannon).
L'opration d'chantillonnage est directement lie au peigne de Dirac dni par :

T (t) =

n=+
X1
n=

(t nT )

(14)

Chapitre 1

14

Rappels sur les signaux et systmes

dans le domaine temporel, et par :

T1 (f ) =

X1
1 n=+
(f
T n= 1

n
)
T

(15)

dans le domaine frquentiel.


chantillonner un signal revient multiplier ce signal par le peigne de Dirac.

xe(t) = x(t):T (t)

P
1
Xe (f ) = X (t)  T1 (f ) = T1 nn=+
= 1 X (f

n
T)

(16)

Le spectre d'un signal chantillonn est donc priodique.

5 Signaux analytiques
La transforme de Fourier d'un signal rel temps continu ou discret prsente une symtrie
hermitienne :
X (f ) = X  ( f )
(17)
C'est une condition ncessaire et susante. Les frquences ngatives n'apportent donc aucune information complmentaire sur le signal. Le signal obtenu par limination de ces frquences ngatives
est appel signal analytique.

Chapitre 2 Signaux alatoires


1 Introduction
Un signal dterministe ne transporte aucune information tant donn que son volution est donne
par une formule mathmatique compltement connue. La plupart des signaux utiliss en pratique
comportent une certaine incertitude dans leurs volutions. Cette incertitude peut dans certains cas
tre dcrite par une loi de probabilit ( ex : gaussienne paramtres connus ou inconnus).
A titre d'exemple le signal transmis entre deux ordinateurs peut tre considr comme un signal
alatoire pouvant prendre par exemple 2 valeurs, 0 ou 1. On pourra supposer que les symboles 0
et 1 sont de plus quiprobables. En eet le phnomne alatoire du signal vient du fait que l'on ne
connat pas l'avance la succession des 0 et des 1. De plus si telle succession tait connue alors la
transmission n'aurait plus aucun intrt puisqu'elle n'apporte pas d'information supplmentaire.
Nous ne nous intressons dans cette prsentation qu' certaines proprits et dnitions qui nous
seront utiles par la suite.

2 Notions de signaux alatoires


Un signal alatoire x(t; ! ) est une fonction de deux paramtres dont l'un est gnralement le
temps (continu ou discret) et l'autre une preuve dans un espace de probabilit (
).
 Pour ! = !o x, le signal
un signal dterministe.
 Pour

x(t; !0 ) est un chantillon du signal alatoire, Il reprsente en fait

t = to x, x(to ; !) est une variable alatoire.

Dans toute la suite, on admettra que le signal alatoire est dcrit par sa loi temporelle.
Dans le cas d'un signal alatoire temps continu, on prlve un nombre arbitraire d'instants,
eux mme arbitraires. On peut alors considrer une variable alatoire vectorielle constitue de ces
instants prlevs. Si la loi de probabilit de cette variable alatoire est connue quels que soient les
instants choisis, on dira que la loi temporelle est compltement connue.
Dans le cas d'un signal alatoire temps discret, le problme est plus simple tant donn que le
nombre d'chantillons dans le signal est dnombrable et donc la loi temporelle peut tre compltement connue. Par contre dans le cas du signal temps continu, certains vnements microscopiques
peuvent nous chapper.
Quoi qu'il en soit, cette loi temporelle est trs dicile obtenir. Gnralement, on se restreint
la connaissance de certaines moyennes.

3 Moments statistiques
Pour allger les critures, on notera dans certains cas simplement
15

x(t), le signal alatoire x (t; !) :

Chapitre 2

16

Signaux alatoires

3.1 Moment statistique d'ordre 1 (moyenne statistique)


Ce moment correspond la moyenne sur l'ensemble des vnements possibles. Le rsultat dans
le cas gnral est donc une fonction du temps.
 dans le cas continu :

m(t) = E [x(t)] =
 dans le cas discret :

m(n) =

x(t; !)p(!) d!

l
X
i=1

pi xi

(1)

(2)

Si cette moyenne ne dpend pas du temps, on dit que le signal alatoire est stationnaire l'ordre
1. Si la moyenne est nulle, le signal alatoire est dit centr.

Remarque 1

Rappelons ici les deux proprits principales de l'esprance mathmatique

 L'esprance est linaire :

8 ; 2 R; E [ x + y] = E [x] + E [y]
 Si deux variables

x et y

(3)

sont indpendantes, alors :

E [xy] = E [x] E [y]

(4)

3.2 Moment statistique d'ordre 2 (fonction d'auto-corrlation statistique)


Ce moment correspond encore une fois la moyenne statistique du produit de deux chantillons
du signal pris des instants dirents t1 et t2 :
 dans le cas continu :
 dans le cas discret :

Rxx(t1 ; t2 ) = E [x(t1 )x (t2 )]

(5)

Rxx(n; k) = E [xn xk ]

(6)

On remarquera que le signal alatoire peut prendre des valeurs complexes. Lorsque les quantits
prcdentes ne dpendent que de la dirence (t1 t2 ) ou (n k ); on dit que le signal alatoire est
stationnaire l'ordre 2. On a alors l'habitude de noter :

Rxx( ) = E [x(t)x (t  )]
ou

Rxx(i) = E xn xn

(7)

(8)

3.3 Covariance
 Dans le cas continu :
 Dans le cas discret :

(t1 ; t2 ) = E [x(t1 )x (t2 )] m(t1 )m (t2 )

(9)

(n; k) = E [xn xk ] m(n)m (k)

(10)

4. Moments temporels

17

3.4 Variance
On dnit la variance d'un signal alatoire dans le cas continu comme dans le cas discret par :


2 (x) = E x2 E (x)2
h
i
= E (x E (x))2
Pour un signal alatoire centr (E (x)

(11)
(12)

= 0); la variance est alors gale la puissance.


 
2 (x) = E x2 = P

(13)

Un signal alatoire est du second ordre si :


h

E jx(t)j2 < +1
Cette proprit entrane l'existence de

(14)

m(t) et de (t1 ; t2 ).

4 Moments temporels
Dans ce qui suit, nous supposerons les signaux de puissance nie. Des dnitions quivalentes
peuvent tre donnes pour des signaux d'nergie nie.

4.1 Moment temporel d'ordre 1 (moyenne)


 cas continu :

 cas discret :

1
< x(t) >= lim
T !+1 T

Z T=2

T=2

x(t; !) dt

nX
=N
1
< x(n) >= lim
x(n; !)
N !+1 2N + 1
n= N

(15)

(16)

Dans le cas gnral, le sommation tant faite sur le temps, le rsultat obtenu est normalement
une variable alatoire dpendant de !: Dans le cas contraire on dira que le signal est ergodique
l'ordre 1.

4.2 Moment temporel d'ordre 2 (fonction d'auto-corrlation temporelle)


 cas continu :

1
< x(t)x(t  ) >= lim
T !+1 T

Z T=2

T=2

x(t; !)x (t ; !) dt

(17)

 cas discret :
nX
=N
1
x(n; !)x (n k; !)
N !+1 2N + 1
n= N

< x(n)x(n k) >= lim

(18)

Chapitre 2

18

Signaux alatoires

5 Stationnarit et ergodicit
Un signal alatoire est dit strictement stationnaire l'ordre n si ses moments statistiques sont
invariants par changement de l'origine des temps. Gnralement, on se restreint l'ordre 2 (sens
large). La fonction d'autocorrlation ne dpend donc que du retard entre les deux signaux. La
stationnarit est conserve par opration stationnaire (ex : ltrage).
Un signal alatoire est dit ergodique si les moyennes temporelles existent et sont indpendantes
de l'chantillon.
Le thorme de Birko arme que si un signal alatoire est stationnaire et ergodique, alors les
moments temporels et statistiques sont gaux.

E [x(t)] = < x(t) >= cste


Rxx(t1 ; t2 ) = < x(t1 )x(t2 ) >= Rxx (t1

t2 )

La gure 1 montre un exemple de processus stationnaire et ergodique.


3

ralisations

3
0

Fig.

10

15
temps

20

25

30

1: Exemple de processus stationnaire et ergodique

La gure 2 montre un exemple de processus non stationnaire.


18
16
14

ralisations

12
10
8
6
4
2
0
2
0

Fig.

Exemple 1



10

15
temps

20

25

30

2: Exemple de processus non stationnaire

x(t) = a cos(!0 t + ) est :


dterministe si a; !0 et  sont des constants.
alatoire si par exemple a; !0 sont constants et  est alatoire.
Le signal

(19)
(20)

6. Densit spectrale de puissance

19

 si  est quirpartie sur l'intervalle [0; 2 ]; le signal alatoire est stationnaire et ergodique.
 si  est quirpartie sur l'intervalle
non stationnaire.

[0; ]; le signal alatoire est toujours ergodique mais

6 Densit spectrale de puissance


Le thorme de Wiener-Kintchine permet d'assurer que la densit spectrale de puissance d'un
signal alatoire de fonction auto corrlation Rxx ( ) est donne par :
 continu :

Sxx(f ) = T F [Rxx( )]

 discret :

Sxx( ) =

n=+
X1
n=

(21)

x(n)e 2jn

(22)

La puissance du signal alatoire stationnaire et ergodique peut tre obtenue par la relation :
Z

1 T=2
x(t; !)x (t; !) dt
lim
T !+1 T
T=2
= Rxx (0)
h
i
= E jx(t)j2
Z +1
=
Sxx(f ) df
1

P =

(23)
(24)
(25)
(26)

7 Fonctions et matrices de corrlation


Soit

x(t) un signal alatoire complexe et vectoriel de dimension n et stationnaire l'ordre 2.




x(t) = x1 (t) x2 (t) ::: xn 1 (t) xn(t) T

La moyenne de ce signal est un vecteur

(27)

m(t) de mme dimension, donn par :

m(t) = E [x(t)]


= E [x1 (t)] E [x2 (t)] ::: E [xn 1 (t)] E [xn (t)] T
La matrice





(29)

de corrlation est dnie par :




( ) = E x(t)xH (t  )

2
E x1 (t)xH
1 (t  )
6 E x2 (t)xH (t  )
1
= 6
4 :

E xn (t)xH
1 (t  )
l'exposant

(28)

E x1 (t)xH2 (t  )
:::
:
:::

:::
:::
:::
:::

 3
 )
) 7
7
5


E x1 (t)xHn (t
E x2 (t)xHn (t
:
E xn (t)xHn (t  )

signie transpose conjugue. Cette matrice possde les proprits suivantes

( ) est une matrice paire.


( ) est une matrice hermitienne dans le cas complexe et symtrique dans le cas rel.
(0) est une matrice dnie non ngative, c'est--dire :
8u 2 C n1; uH (0)u  0

(30)
(31)

Chapitre 2

20
Le dernier point se vrie de la manire suivante :

Signaux alatoires

uH (0)u = uH E xxH u

= E uH xxH u


H 
= E uH x uH x
= E



uH x 2

0

De mme, on dnit la matrice de variance-covariance par :




( ) = E x(t)xH (t  )

E (x(t)):E (x(t))H

(32)

Dans le cas gnral, ( ) tend vers 0 quand t tend vers l'inni. Ceci veut dire qu' partir d'une
certaine valeur de t, le signal x(t) devient indpendant de x(t  ).

8 Les signaux gaussiens


Les signaux gaussiens tiennent une place trs importante en traitement statistique du signal.
En eet, ils permettent de simplier grandement les calculs. Un signal gaussien est dni par sa
moyenne m et sa matrice de covariance . On le reprsente par le symbole N (m; ). Sa densit de
probabilit, aussi appele fonction de rpartition, est donne par :


1
p(x) =
2

1=2

(det ) 1 exp

1
(x m)T
2

1 (x

m)

(33)

Si le signal gaussien est centr (m = 0) alors tous les moments d'ordres impairs sont nuls. En
particulier, il est noter que le caractre gaussien se conserve par ltrage linaire.

9 Filtrage des signaux alatoires


Soit h(t) la rponse impulsionnnelle d'un ltre linaire et stationnaire d'entre u(t) et de sortie
x(t), on dmontre les proprits suivantes dans le cas o le signal d'entre est suppos stationnaire :

E [x(t)] = H (0):E [u(t)]

(34)

Rxx ( ) = Ruu ( )  h( )  h (  )

(35)

Sxx (f ) = Suu (f ): jH (f )j2

(36)

Les proprits ci-dessus, ne sont pas diciles tablir. A titre d'exemple :

x(t) =

d'o

E [x(t)] =

+1

0
Z

+1
0

h(v)u(t v)dv

(37)

h(v)E [u(t v)] dv

(38)

Le signal d'entre tant stationnaire, on en dduit :

E [x(t)] = E [u(t)]

+1

= E [u(t)] :H (0)

h(v)dv

(39)
(40)

10. Notion de bruit blanc

21

10 Notion de bruit blanc


On appelle bruit blanc
ment :

b(t) un signal alatoire de densit spectrale constante. On note gnraleN


Sbb (f ) = 0
2

(41)

N
Rbb ( ) = 0 ( )
2

(42)

Sa fonction d'autocorrlation est donc donne par :

Le bruit blanc n'a pas d'existence physique car il serait de puissance innie. Une approximation du
bruit blanc est le bruit bande limite appel aussi bruit blanc color est dni par : (gure 3)


Sbb (f ) = N20
Sbb (f ) = 0

jf j < B

(43)

sinon

No
2

f
+B

-B

Fig.

3: Bruit blanc bande limite

Il faut remarquer que la notion de blancheur est indpendante de la loi de probabilit du bruit.
Un bruit blanc peut tre gaussien, uniforme...

11 Notion de ltre formeur


Supposons donn un signal alatoire x(t): On appelle ltre formeur de x(t); le ltre de fonction
de transfert H (f ); tel que x(t) est gnr par passage d'un bruit blanc b(t) dans H (f ) (gure 4):
Filtre formeur
b(t)

H(f)

Fig.

x(t)

4: Filtre formeur

La dtermination du ltre formeur s'eectue en remarquant que :

d'o

Sxx(f ) = jH (f )j2 Sbb (f )

(44)

2
2
jH (f )j = N Sxx(f )
0

(45)

On remarque que cette quation ne donne que le module. Pour dterminer compltement H (f ), il
faut ajouter une contrainte de phase.
Nous allons voir dans ce qui suit les modles de signaux les plus utiliss en traitement statistique
du signal (estimation, prdiction...).

Chapitre 2

22

Signaux alatoires

12 Les signaux MA, AR et ARMA.


12.1 Les signaux MA (Moving

Average, Moyenne Mobile).

Les signaux moyenne mobile sont obtenus par passage d'un bruit blanc dans un ltre purement
transverse. Ce ltre est aussi appel ltre rponse impulsionnelle nie (R.I.F). L'quation de
rcurrence reliant la sortie xn au signal d'entre un est de la forme :

xn = b0 un + b1 un 1 + :::: + bm un

(46)

La fonction de transfert de ce ltre a dj t vue prcdemment, elle s'crit :

H (z ) =

m
X
i=0

bi z

(47)

Bien que l'expression du ltre paraisse simple, l'obtention des coecients bi est en fait un problme
complexe. Supposons titre d'exemple que l'on veuille modliser un signal xn comme tant un signal
MA. Si on suppose que le bruit d'entre est centr et stationnaire (E (un ) = 0) ; on peut alors crire :

xn

= b0 un

k + b1 un k 1 + :::: + bm un k m

(48)

On obtient :

E [xn :xn k ] = E [(b0 un + :::: + bm un

m ) : (b0 un k + :::: + bm un k m )]

(49)

Si on suppose de plus que les ralisations du bruit d'entre sont indpendantes, on a :

si i 6= j

E [ui :uj ] = E (ui )E (uj ) = 0


 
E u2i = u2

(50)
(51)

et nalement

E [xn :xn k ] = u2 (b0 bk + b1 bk+1 + ::: + bk

m bm )

jkj < m

(52)

On peut remarquer d'aprs l'quation (49) que la fonction d'autocorrlation devient nulle partir
d'un dcalage m:
Si les quantits E [xn :xn k ] et u2 sont supposes connues, on remarque que la dtermination des
bk ncessite la rsolution d'un systme d'quations non-linaires. De plus ce systme n'admet pas
forcment une solution unique.

12.2 Les signaux AR (AutoRgressifs)


Les signaux autorgressifs sont obtenus par passage d'un bruit blanc dans un ltre purement
rcursif. Ce ltre est donc de rponse impulsionnelle innie. L'quation de rcurrence reliant la
sortie xn au signal d'entre un est de la forme :

xn = a1 xn 1 + a2 un

k 1 + :::: + ar xn r + un

(53)

Cette quation de rcurrence s'crit aussi sous forme plus condense :


avec a = [a1 ; a2 ; :::; ar ]T et
donne par :

xn = aT Xn + un

(54)

Xn = [xn 1 ; xn 2 ; :::; xn r ]T :

La fonction de transfert de ce ltre est

H (z ) =

1
j =0 aj z

Pj =r

(55)

12. Les signaux MA, AR et ARMA.

23

La sortie xn du ltre est du second ordre si le ltre est dynamique c'est--dire stable et causal. La
fonction de transfert du ltre doit avoir ses ples l'intrieur du cercle unit. Soit c le vecteur de
corrlation entre xn et Xn . Nous avons :

c = E [xn Xn ]



= E aT Xn + un Xn


= E aT Xn + E [un Xn ]

(56)

En remarquant que aT Xn est scalaire et que un et Xn sont indpendants, la quantit prcdente


peut s'crire


c = E XnT Xn a + E (un )E (Xn )
(57)
En notant
nalement

la matrice de covariance du vecteur

Xn et sachant que un est centr, le vecteur c s'crit

c= a

(58)

Cette quation vectorielle est appele quation normale ou quation de Yule-Walker. Si la matrice
est inversible alors le vecteur de rgression peut tre calcul partir des r premires valeurs de
la fonction de corrlation.
On dmontre aprs quelques lignes de calcul que

x2 = E (x2 ) = aT a + u2

12.3 Les signaux ARMA (Auto

(59)

Regressif, Moving Average)

Les signaux ARMA sont obtenus par passage d'un bruit blanc dans un ltre rcursif appel aussi
ltre rponse impulsionnelle innie (R.I.I). Ces signaux sont une combinaison des signaux A.R et
M.A. La fonction de transfert du ltre prsente un numrateur et un dnominateur

H (z ) =

Pi=m

i
i=0 bi z
j
j =0 aj z

Pj =r

(60)

24

Chapitre 2

Signaux alatoires

Chapitre 3 Notions d'estimation


1 Introduction
Le but est d'appliquer la statistique au signal. Le domaine de la statistique fait partie de la
thorie de la dcision : prendre la dcision vis--vis d'un paramtre au sens le plus large possible en
optimisant un critre partir d'observations. Les paramtres estimer seront nots x. On supposera
de plus disponible un vecteur d'observations y de la forme

y = [y1 ; y2 ; :::; yn ]T

(1)

Le paramtre estimer peut tre alatoire ou dterministe.

Exemple 2

Soit un signal alatoire sinusodal de la forme :

s(t) = asin(!t) + b(t)

(2)

o b(t) est un bruit, ! est la pulsation du signal (suppose connue) et a est une constante inconnue
qu'on cherche estimer partir des observations de s(t) des instants ti .
Comme le montre l'exemple prcdent, les observations seront donc toujours considres comme
alatoires. On notera x
^(y) l'estime au mieux d'un paramtre x partir des observations y: L'estime tant une fonction de la mesure, elle sera donc galement considre comme alatoire. Cette
considration est indpendante de x qui lui peut tre alatoire ou dterministe.
Si x
^ est valeurs continues, on parle d'estimation. Si x^ est valeurs discrtes on parle alors de
dtection. C'est le cas du signal radar o on dsire une dtection de type prsence ou absence.
L'erreur d'estimation appele innovation peut tre dnie par :

x~ = x x^

(3)

soit un signal s(t) dont on connat n observations y=[s1 ; s2 ; :::; sn ]T . On dsire estimer
la valeur moyenne du signal s(t). L'estimateur qui nous vient directement l'ide est construit
partir de la moyenne des observations dj ralises du signal. L'estimateur prend donc la forme
suivante :
n
1X
m
^ (y) =
y
n i=1 i

Exemple 3

Remarque 2

On montrera par la suite que cet estimateur intuitif est en ralit un estimateur sans
biais et variance minimale. On remarque de plus que cet estimateur est obtenu par ltrage
rponse impulsionnelle nie (R.I.F) de y. On peut en eet crire :

1
1 1
m
^ (y) = [ ; ; :::; ]y = h(y) = hT y
n n
n
25

Chapitre 3

26

Notions d'estimation

2 Performance d'un estimateur


2.1 Biais d'un estimateur
On appelle biais d'un estimateur la quantit

B (x) dnie par :

B (x) = E [^x] x

(4)

Cette quantit caractrise l'cart entre la moyenne des estimes (possibles) et le paramtre estimer.
On recherchera donc gnralement un estimateur non-biais.

2.2 Variance de l'estimateur


La variance de l'estimateur est la quantit qui est gnralement minimise. Elle vaut :


V (x) = E x~2
h
i
= E (x x^)2
 
 
= E x2 2E [xx^] + E x^2

(5)

Comme nous allons le montrer, x


^ sera obtenu par le principe d'orthogonalit, la formule de Pythagore
est applicable, on obtient alors :
 
 
V (~x) = E x2 E x^2

Remarque 3

La formule prcdente appelle quelques remarques :

 Nous avons l'encadrement suivant :


 
0  V (~x)  E x2

 La borne infrieure correspond l'estimation exacte (singulire)


 La borne suprieure correspond l'estimation nulle.

3 Estimation linaire en moyenne quadratique (ELMQ)


Soit y = [y1 ; y2 ; :::; yn ]T le vecteur des observations. On recherche maintenant une estime
qui soit une fonction linaire des observations, c'est--dire :

x^ =

n
X
k=1

hk yk

= hT y
avec

h = [h1 ; h2 ; :::; hn ]T

(gure 1):
y

^x

Fig.

1: Estimation linaire

x^ de x

3. Estimation linaire en moyenne quadratique (ELMQ)

27

Remarque 4

Cette formulation du problme d'estimation va aussi rpondre au problme de la


prdiction. A titre d'exemple, si l'observation est y = [xk 1 ; xk 2 ; :::; xk r ]T ; alors l'estimateur :

x^ = hT y
r:

correspond la prdiction 1 un pas et pass ni

Dans le cas de l'estimation en moyenne quadratique, le ltre h doit alors tre dtermin de telle
sorte que la variance de l'erreur d'estimation E [~
x2 ] soit minimale. Cette variance est aussi appele
erreur quadratique moyenne. On remarquera que la dtermination de l'estimateur quivaut la
dtermination du vecteur h:

3.1 Calcul par drivation


L'erreur quadratique moyenne est donne par :
h

T

E [~x2 ] = E x hT y

x hT y

i



= E xT yT h x hT y








= E xxT E xT hT y E yT hx + E yT hhT y
La drive par rapport

h vaut :






dE [~x2 ]
= E xyT E xyT + 2hT E yyT
dh

(6)

L'annulation de cette drive donne




hT = E xyT E yyT
En dnissant les matrices d'intercorrlation entre
covariance) de y :

x et y




(7)

et la matrice de corrlation (de variance

= E xyT


= E yyT

(8)

x^ = hT y
= xy y 1 y

(10)

xy
y

(9)

On obtient :

(11)

On peut donc dire que l'estime linaire en moyenne quadratique de


observations y est obtenu par le ltrage linaire suivant :

hT =
Remarque 5

L'quation
cas, elle se gnralise :

xy y

partir du vecteur des

10 suppose que les deux grandeurs x et y sont centres. Si ce n'est pas le

x^ = E [x] +

x;y : y

1 : (y

E [y])

(12)

Chapitre 3

28

Notions d'estimation

3.2 Performances de l'estimateur


Calculons dans ce cas particulier le biais de l'estimateur. Par dnition, le biais est donn par
l'quation :4
B (x) = E [^x] x
(13)


B (x) = E E [x] +

x;y : y

1 : (y

E [y])

(14)

La variance de l'estimateur est donne par l'quation (5) qui se gnralise dans le cas vectoriel
:






V (~x) = E xxT 2E xx^T + E x^x^T
(15)
qui se rcrit sous la forme :

En remplaant

V (~x) =

xx

=
=

xx

2E x hT y

T i

+ E hT y hT y

T i

(16)




xyT h + hT E yyT h

2E
2 xy h + hT y h

xx

(17)
(18)

h par son expression dans l'quation (18), on obtient :


V (~x) =
=

xx
xx

xy

xy

yx
yx

x;y : y

1

yx

(19)
(20)

3.3 Principe d'orthogonalit


Reprenons l'quation :

E [~x2 ] = E x hT y

La drivation directe par rapport

T

x hT y

i

(21)

h donne :


 
dE [~x2 ]
= 2E x hT y yT
dh


= 2E x~yT

(22)
(23)

 T
Le minimum est donc obtenu lorsque E x
~y = 0: On dit aussi que l'innovation est indpendante des
observations ou que l'innovation
est orthogonale aux observations. C'est le principe d'orthogonalit.
 T
De plus l'quation E x
~y = 0 entrane que chacune des composantes de x~ est orthogonale aux
observations.

3.4 Dtermination de l'estimateur par le principe d'orthogonalit


Le principe d'orthogonalit peut directement s'crire :
h

8a 2 Rn ; E x hT y aT y

T i

=0

(24)

en considrant l'ensemble des observations ltres. Sachant que cette galit doit tre vraie quelle
que soit la valeur de a; on en dduit que :




hT = E xyT :E yyT 1

(25)

4. Estimation en moyenne quadratique (ELM)

29

^x

h(y)

Fig.

2: Estimation en moyenne quadratique

4 Estimation en moyenne quadratique (ELM)


Le problme d'estimation de x partir des observations y peut tre vu comme un problme de
ltrage dans lequel on recherche le ltre h tel que (gure 2) :

x^ = h(y)

(26)

Mais dans ce cas le ltre h n'est plus forcment linaire. Nous allons dmontrer dans la suite que
l'estimation en moyenne quadratique sans contrainte de linarit, se rsoud aussi, simplement par
le principe d'orthogonalit. Pour cela, dnissons le produit scalaire suivant :

< u; v >= E (u v) =

u vp(!)d!

(27)

Remarque 6

La formule prcdente est valable dans le cas vectoriel, il sut pour cela de remplacer
le conjugu (*) par le vecteur transpos conjugu (H )

H:
H(y) = fg=g(y) 2 Hg

Dnissons aussi l'ensemble des observations ltres

Partant du fait que

(28)

x^ appartient l'espace des observations ltres, on peut donc dire que :


x^ = proj?(x=H(y))

(29)

Ceci revient crire que l'erreur (innovation) est orthogonale l'espace des observations ltres.

(x x^) ? H(y)

(30)

Remarque 7

L'erreur est aussi appele innovation car elle reprsente l'information indpendante
des observations, c'est--dire orthogonale au sens du produit scalaire dni prcdemment.

Remarque 8

Nous nous placerons dans la suite dans le cas rel, le symbole ( ) sera donc omis.

L'orthogonalit (quation 30) se traduit par l'quation suivante :

qui s'crit aussi :


Or comme

8g(y) 2 H(y); < (x x^) ; g(y) >= 0

(31)

8g(y) 2 H(y); E [(x x^) g(y)] = 0

(32)

x^ appartient l'espace des observations, il existe alors un ltre h tel que :


x^ = h(y)

(33)

En remplaant dans l'quation (32), on obtient :

8g(y) 2 H(y); E [(x h(y)) g(y)] = 0

(34)

Chapitre 3

30

Notions d'estimation

En dveloppant l'esprance,

E [(x h(y)) g(y)] = (x h(y))g(y)p(y; x)dydx


Sachant que la loi adjointe

(35)

p(y; x) s'crit aussi :


p(y; x) = p(x=y)p(y)

(36)

On a alors :

E [(x h(y)) g(y)] =

Z Z

(x h(y))p(x=y)dx g(y)p(y)dy

Sachant que l'galit 34 doit tre vraie quel que soit


Z
Z

Remarque 9

Si

g(y); on en dduit la condition suivante


(38)

(x h(y)):p(x=y)dx = 0

(39)

p(x=y)dx =

x:p(x=y)dx

x^ = h(y) = E [x=y]
x et y

(37)

(x h(y)):p(x=y)dx = 0

h(y)
D'o nalement

(40)

sont indpendants et centrs, l'quation 40 donne :

x^ = E [x=y] = E (x)
= 0

(41)
(42)

On dit alors que l'estimation est nulle, ce qui est normal puisqu'on ne peut pas estimer une grandeur
partir d'observations indpendantes.

5 Estimation Baysienne et non-Baysienne


Soit  l'espace des paramtres scalaires ou vectoriels et E l'espace des observations. On appelle
estimateur une application de E dans  qui au vecteur d'observations y associe une estime x
^ du
paramtre

x:

E ! 
y ! x^
On dsire ici que l'estimation soit optimale au sens d'un certain critre. On dnit pour cela une
fonction cot ou fonction perte :
L(x; x^)
(43)

Exemple 4

On considre souvent un critre quadratique :

L(x; x^) = (x x^)2

(44)

L'estime tant considre dans ce cas comme alatoire, la minimisation de L n'a aucun sens. On
dnit une fonction risque R qui correspond la moyenne spatiale (statistique) de la fonction cot
par :
R = E [L(x; x^)]
(45)

5. Estimation Baysienne et non-Baysienne

31

On dira alors que l'estimation est optimale si l'estime minimise


prcdente porte sur les observations y . On la notera :

R:

Il faut noter que l'esprance

R = Ey [L(x; x^)]
Explicitons l'expression de

R:

R=

(46)

L(x; x^(y))p(y=x)dy

(47)

On remarque alors que pour minimiser R, il faut connatre la fonction L et la densit de probabilit
conditionnelle p(y=x): Il faut donc connatre la loi de x: Ce fait permet de distinguer deux points
de vue de l'estimation :
 l'estimation non-baysienne : la loi de x est inconnue.
 l'estimation baysienne : on suppose la loi de x connue.

Dans ce cas, on minimise le risque moyen :

R(^x) = Ex [R(x; x^)]


Il est facile de voir que

R ne dpend plus que de la mesure :


R(^x) =
=
=
=

avec

Z Z

(L(x; x^(y))p(y=x)dy) p(x)dx

Z Z

(49)

L(x; x^(y))p(y=x)p(x)dydx

Z Z

(L(x; x^(y))p(x=y)dx) p(y)dy

G(y)p(y)dy

G(y) =

Gnralement au lieu de minimiser

Exemple 5

(48)

(50)

L(x; x^(y))p(x=y)dx

(51)

R; on minimise alors directement G(y) avec G(y) > 0:

Reprenons le cas du cot quadratique

G(y) =
=

(x x^)2 p(x=y)dx

x2 p(x=y)dx +

= E (x2 =y) + x^2

x^2 p(x=y)dx 2

(52)
Z

x^xp(x=y)dx

p(x=y)dx 2^xE (x=y)

= E (x2 =y) + x^2 2^xE (x=y)


(53)
Calculons maintenant la valeur x
^opt de x^ qui rend cette quantit minimale. Pour cela, il faut d'abord
calculer la drive de G par rapport x
^:
dG(y )
= 2^x 2E (x=y) = 0
(54)
dx
^

Le minimum est donc obtenu pour :

x^opt = E (x=y)

Cette valeur correspond bien un minimum car :

(55)

d2 G(y )
=2>0
(56)
dx
^2
Remarque 10 On remarquera que l'expression 55 est tout fait gnrale. Elle correspond aussi
l'estimation en moyenne quadratique tablie prcdemment.

Chapitre 3

32

Notions d'estimation

6 Comparaison d'estimateurs sur un exemple simple


Supposons donn un signal discret x de forme connue s, de pulsation constante connue, d'amplitude constante a inconnue. Ce signal est sujet des perturbations : un bruit additif b: L'expression
de x se met donc sous la forme :
x(n) = as(n) + b(n)
(57)
Le but de l'estimation dans ce cas est de dterminer une estime a
^ de a: Notons que dans ce cas
a n'est pas alatoire, il est simplement inconnu. Nous allons dterminer plusieurs estimateurs selon
les connaissances disponibles du bruit b:

6.1 Estimation du pauvre


La seule information sur b est que le bruit est centr
fonction cot minimiser une fonction quadratique Q :

Q(a) = (xT
= (xT

(E [b(n)] = 0) :

On prend alors comme

(as)T )M (x as)
sT aT )M (x as)

(58)
(59)

M est une matrice de pondration dont le choix peut tre quelconque.


Remarque 11 On remarquera que dans le cas ou M = I , la minimisation
minimisation de la variance (puissance) du bruit (b = x as):

de

quivaut la

Q(a) = kx ask2
La drivation de

Supposons que

(60)

Q par rapport a donne :



dQ
d
=
xT Mx xT Mas sT aT Mx + sT aT Mas
da
da
= sT M T x sT Mx + (sT M T s)a + (sT Ms)a

est symtrique, (M
dQ
da

(61)
(62)

= MT )
= 2sT M T x + 2(sT Ms)a

(63)

Le minimum est donc obtenu pour :



a^ = (sT Ms) 1 sT M T x

(64)

On remarquera que l'estimateur obtenu est linaire, mais il n'y a aucune indication quant au choix
de la matrice M .

Remarque 12

Dans le cas

M = I;
a^ =
=

(sT s) 1 sT x
1 T
x s x

(65)
(66)

6.2 Connaissance de b au second ordre


On suppose que b est centr et que la matrice de variance covariance
On impose alors l'estimateur les conditions suivantes
1. estimateur sans biais
2. estimateur linaire

= E bbT

est connue.

6. Comparaison d'estimateurs sur un exemple simple

33

3. estimateur variance minimale


La contrainte de linarit impose un estimateur de la forme

a^ = hT x

(67)

E [^a] a = 0
= hT E [x] a
= hT E [as + b] a

(68)

L'estimateur devant tre sans biais :

Comme seul

(70)

b est alatoire dans l'expression prcdente, on peut crire :


E [^a] a = hT as a + E [b]

= a hT s 1

car

(69)

(71)
(72)

b est centr. On en dduit donc la contrainte


hT s = 1

(73)

crivons maintenant la variance de l'erreur d'estimation

V (~a) =
=
=
=

E (a

E (a

E (a

E (a

a^)2

hT x)2

hT (as + b))2

hT as + hT b)2

(74)
(75)
(76)
(77)

La contrainte de linarit (quation 73) entrane




V (~a) = E (hT b)2




= hT E bbT h
= hT b h

(78)
(79)
(80)

Le problme de la dtermination de l'estimateur est donc un problme d'optimisation avec contrainte :

h = Arg minh hT b h avec hT s = 1

(81)

Pour trouver le minimum, il sut d'appliquer l'ingalit de Schwartz pour les produits scalaires :

< u; v >2  < u; u > : < v; v >

(82)

On sait que l'galit a lieu lorsque les vecteurs sont colinaires. Prenons comme produit scalaire :

< u; v >= uT b v
et appliquons l'ingalit de Schwarz avec

hT

b b

u = h et v =

1s :

1 s  hT h sT 1
1 
b
b b b s


1  hT h sT 1 s
b

On en dduit donc que

V (~a)  sT

(83)

(84)

(85)

1 s 1

(86)

Chapitre 3

34

On montre alors que le minimum est atteint pour une valeur de


les vecteurs u et v soient colinaires, c'est--dire :

Notions d'estimation

h particulire. Pour cela il faut que

9 2 R=u = v

(87)

h =  b 1s
hT = sT b 1
Sachant que hT s = 1;
d'o

 = sT

1 s 1

h =  b 1 s = sT
et

a^ = sT

(89)

1 s

1 =  sT
b

(88)

(90)

1 s 1

1 s 1

1s

(91)

1
b s x

On constate que les quations (64) et (92) sont identiques pour


le cas prcdent est que le choix de M n'est plus libre.

(92)

M=

1 : La seule dirence avec

7 lments d'estimation non-baysienne


Dans ce cas, l'estimateur est aussi appel estimateur du maximum de vraisemblance. Rappelons
que dans l'estimation baysienne, la connaissance de la loi p(x) du paramtre estimer est ncessaire
puisqu'on utilise la relation :
p(y; x) = p(y=x)p(x)
(93)
Pour l'estimation non baysienne, on recherche simplement
probabilit adjointe p(y; x) :

x^ estime

x^ = arg max
(p(y; x))
x

de

x qui maximise

la loi de
(94)

Maximiser p(y; x) est quivalent maximiser n'importe quelle fonction monotone (croissante) de
p(y; x): On utilise le plus souvent le logarithme et on parle alors de Log de vraisemblance :

x^ = arg max
log (p(y; x))
x

(95)

La condition du maximum s'crit alors :

@ log (p(y; x))


=0
@x
jx=^x
Exemple 6
variance :

Soit un signal

(96)

alatoire vectoriel distribution Gaussienne (normale), centr et de

= 2 R

(97)

On dsire estimer la puissance  2 du signal.


La distribution tant Gaussienne, on peut crire :

p(y; ) = 

N exp

yT R 1 y
22

(98)

7. lments d'estimation non-baysienne

35

Le Log de vraisemblance vaut :

log (p(y; )) = log N log 

yT R 1 y
22

@ log (p(y; ))


N yT R 1 y
=
+
=0
@

3

(99)
(100)

On en dduit l'estimation de la puissance au sens du maximum de vraisemblance :

^ 2 =

yT R 1 y
N

(101)

On peut calculer le biais de cet estimateur et remarquer que celui-ci est non biais :

 
1  T 1  1 
E y R y = E trace(R 1 yyT )
E ^ 2 =
N
N
 T 
1
1
=
trace R E yy
N

1
=
trace R 1 2 R
N
= 2

(102)
(103)
(104)
(105)

36

Chapitre 3

Notions d'estimation

Chapitre 4 Estimation spectrale


1 Introduction



Dans les chapitres prcdents, nous avons vu apparatre direntes quantits E [x] ; E xxT ;
Sxx(f ); :::
Ces quantits sont impossibles calculer sur un ordinateur car elles ncessiteraient un nombre de
points inni et donc un temps de calcul inni. A titre d'exemple nous avons les galits suivantes :

E [x] =
ou

n=+
X1

n=

E [x] =

p(xk )xk

(1)

x:p(!)d!

(2)

Sur calculateur, on ne dispose que d'une squence discrte et nie de N points x0 ; x1 ; :::; xN 1 :
En ralit, on calcule des estimes de ces grandeurs en supposant gnralement le signal stationnaire et ergodique. On remplace alors le calcul des moyennes statistiques par des moyennes
temporelles.

2 Estimation de la moyenne E [x]


Soit

chantillons

[x0 ; x1 ; :::; xN 1 ] d'un signal alatoire. On dnit l'estime m


^ de E [x] par
1 NX1
m
^=
x
N k=0 k

(3)

On remarque donc qu'on remplace la moyenne statistique par la moyenne temporelle sur la squence
nie.
Montrons que cet estimateur est non biais :
"

1 NX1
x
E [m
^] = E
N k=0 k
1 NX1
=
E [xk ]
N k=0

Le signal tant stationnaire,

(4)
(5)

8k; E [xk ] = m: D'o :

1 NX1
E [m
^] =
m
N k=0
= m
37

(6)
(7)

Chapitre 4

38

Estimation spectrale

L'estimateur

est donc non biais. Que vaut maintenant la variance de l'erreur d'estimation
E (m m
^ )2 ? L'estimateur tant non biais, on peut aussi crire :


V (m
^ ) = E (m
^ m)2
2

= E4

1 NX1
(x
N k=0 k

m)

V (m
^) =
(8)

!2 3
5

(9)


Supposons de plus que les xk sont indpendants et stationnaires au second ordre (E x2k est indpendant de k ): Remarquons de plus que le signal (xk m) tant centr, on a par consquent pour
i 6= j :

E [(xi

m)(xj

m)] = E [(xi m)] E [(xj


= 0

m)]

(10)
(11)

d'o

1 NX1 
E (xk
N 2 k=0
2
=
N

V (m
^) =

m)2

(12)
(13)

On remarque que cette variance est asymptotiquement nulle :

lim V (m
^) = 0

(14)

N !+1

Dnition 1

Un estimateur est dit consistant s'il vrie les deux proprits suivantes

! +1:
La variance tend asymptotiquement vers 0 quand N ! +1:

 Le biais tend asymptotiquement vers 0 quand




L'estimateur de la moyenne statistique est donc consistant.

3 Estimateur de variance 2
Par dnition, la variance d'un signal alatoire

x est donne par :

2 = E (x E (x))2
 
= E x2 E [x]2
Supposons que l'on connaisse la moyenne

(15)
(16)

m = E [x] ; alors l'estimateur de variance prend la forme :

^12 =

1 NX1
(x
N k=0 k

m)2

(17)

Dans le cas o la moyenne m est inconnue, on la remplace par son estime m


^ . L'quation prcdente
sera remplace par :
N
NX1 !2
X1
1
1
^22 =
x
x
(18)
N k=0 k N k=0 k

4. Estimateur de la fonction d'autocorrlation


Calculons le biais des deux estimateurs :


2

E ^1

39

"

1 NX1
(x
= E
N k=0 k
1 NX1 
=
E (xk
N k=0

m)2
m)2

(19)


1 NX1 2

N k=0
= 2
=

(20)

Le premier estimateur est donc non biais. Le signal alatoire a t suppos stationnaire :


8k; E (xk m)2 = 2


Pour le deuxime estimateur, nous pouvons crire :


2

E ^2

1 NX1 @
= E4
x
N k=0 k
=

20

N
X1

1
E 4@xk
N k=0
20

N
X1

1
E 4@(xk
N k=0

(21)

12 3

1 NX1 A
x
N j =0 j
NX1

12 3

1
xA
N j =0 j

5
12 3

NX1

1
(x m)A 5
N j =0 j
Cette criture permet de reconnatre le signal alatoire (xk m) qui est cette fois ci centr. De plus
=

m)

le signal tant ergodique et les chantillons indpendants, on obtient nalement :


N
X1

20

N
X1

 
1 4@
1
4E (xk m)2 +
E
(xj
E ^22 =
N k=0
N2
j =0


1 NX1 2 2 22
=
 +
N k=0
N
N
N 1 2
=

N

12 3

m)A

2
E (xk
N

m)2

(22)

Cet estimateur est donc bais, mais il est consistant car

 
lim E ^22 = 2
N !+1

(23)

4 Estimateur de la fonction d'autocorrlation


Rappelons que dans le cas discret, la fonction d'autocorrlation d'un signal alatoire
ergodique, est dnie par

Rxx (k) = E [xnxn+k ]


nX
=N
1
= lim
xn xn+k
N !+1 2N + 1
n= N
Plusieurs estimateurs sont alors possibles

x; suppos
(24)
(25)

Chapitre 4

40

Estimation spectrale

 Le premier ne tient pas compte du nombre d'chantillons disponibles qui varie avec le pas

R^ xx(k) =

nX
=N
1
x x
2N + 1 n= N n n+k

k:

(26)

Dans ce cas, on suppose que l'on dispose de la suite des chantillons du signal de longueur
(2N + 1) :
[x N ; x N +1 ; :::; x0 ; x1 ; :::; xN 1 ; xN ]
Cet estimateur est videmment biais.
 Un deuxime estimateur prend en compte le nombre des chantillons restant l'indice k . De
plus, sachant que la fonction d'autocorrlation est paire, il sut de la calculer pour des valeurs
de k positives. En supposant disponible la squence du signal de N points [x0 ; x1 ; :::; xN 1 ] :
On crira alors :
k 1
1 NX
xx
(27)
R^ xx(k) =
N k n=0 n n+k
On montre que cet estimateur est non biais. Il sut pour cela d'crire
h

E R^ xx (k)

1
1

NX
k 1

n=0
NX
k 1

N k n=0
= Rxx (k)

E [xn xn+k ]

(28)

Rxx (k)

On dmontre que la variance de cet estimateur tend vers 0 quand


estimateur est donc consistant.

(29)

tend vers l'inni. Cet

5 Estimateur de densit spectrale


Par dnition, dans le cas continu :

Dans le cas discret :

Sxx(f ) = T F [Rxx( )]

(30)

Sxx( ) = T F [Rxx(k)]

(31)

5.1 Mthode du priodogramme


Supposons que l'on dispose d'une squence de

points du signal alatoire

[x0 ; x1 ; :::; xN 1 ]
La squence tant nie, l'opration mathmatique qui consiste isoler cette squence du signal
initial support inni s'appelle la troncature. Ceci revient multiplier le signal par une fentre
rectangulaire. La transforme de Fourier calcule sur la squence nie sera donc convolue avec le
spectre de la fentre rectangulaire c'est--dire un sinus cardinal. Or les proprits spectrales du sinus
cardinal ne sont pas bien adaptes l'analyse spectrale du signal. On eectue alors des pondrations
par des fentres de types dirents telles que les fentres de Hamming, de Hanning, de Kaiser ou
de Bartlett. On dit que ces fentres ont un eet adoucissant sur le signal.

5. Estimateur de densit spectrale

41

Soit yk la squence obtenue partir de la squence xk pondre par la fentre fk :

yk = xk  fk

(32)

On calcule une estime de la densit spectrale par :

1
S^xx(f ) = jY (f )j2
N

avec

Y (f ) =
d'o

N
X1
k=0

yk e 2jfk

1
Y (f )Y  (f )
S^xx(f ) =
N
N
X1
1 NX1
=
yk e 2jfk
yl e+2jfl
N k=0
l=0
1 NX1 NX1
y y e 2jf (k l)
=
N k=0 l=0 k l

Posons maintenant

(33)

(34)

(35)

(36)

i = k l; alors :
1 NX1 NX1
S^xx(f ) =
y y e 2jfi
N i=0 k=0 k k i
=

NX1
i=0

(37)

Ryy (i)e 2jfi

= T F [Ryy (i)]

(38)

La mthode du priodogramme revient en quelque sorte prendre la transforme de Fourier de la


fonction d'autocorrlation. Le problme de cet estimateur est que la variance ne tend pas vers 0
quand N tend vers l'inni.
Une solution est le priodogramme moyenn. On subdivise la squence en M sous-squences de
longueur L. On calcule alors les priodogrammes sur chacune des sous-squences et on calcule nalement le priodogramme en moyennant les priodogrammes prcdents. La longueur et le nombre
des sous squences sont lis par la relation :

N = M:L

(39)

Pour augmenter le nombre des sous squences, il arrive qu'on les fasse se chevaucher (overlapping)
sur une longueur D < L: On aura la relation :

(M

1)(L D) + L = N

(40)

On remarque que le biais diminue quand L augmente mais la variance quant elle diminue si M
augmente. Pour N donn, un compromis est alors ncessaire (quation 39). On choisit gnralement :

M=

2N
L

(41)

Dans ce cas particulier, cette mthode s'appelle mthode de Welch. Les gures ci-dessous donnent
quelques exemples de fentres de pondration dont les qualits peuvent tre values partir de la
largeur du lobe principal et la hauteur des lobes secondaires du spectre en amplitude.

Chapitre 4

42

1.5

valeur

0.5

0
0

50

100

150

50

100

150

spectre damplitude

0.5
0.4
0.3
0.2
0.1
0
0

Fig.

1: fentre rctangulaire

1.5

valeur

0.5

0
0

50

100

150

50

100

150

spectre damplitude

0.3

0.2

0.1

0
0

Fig.

2: Fentre de Hamming

1.5

valeur

0.5

0
0

50

100

150

50

100

150

spectre damplitude

0.3

0.2

0.1

0
0

Fig.

3: Fentre de Hanning

Estimation spectrale

5. Estimateur de densit spectrale

43

1.5

valeur

0.5

0
0

50

100

150

50

100

150

spectre damplitude

0.25
0.2
0.15
0.1
0.05
0
0

Fig.

4: Fentre triangulaire

1.5

valeur

0.5

0
0

50

100

150

50

100

150

spectre damplitude

1
0.8
0.6
0.4
0.2
0
0

Fig.

5: Fentre de Chebychev

1.5

valeur

0.5

0
0

50

100

150

50

100

150

spectre damplitude

0.2
0.15
0.1
0.05
0
0

Fig.

6: Fentre de Blackman

Chapitre 4

44

Estimation spectrale

1.5

valeur

0.5

0
0

50

100

150

50

100

150

spectre damplitude

0.4
0.3
0.2
0.1
0
0

Fig.

7: Fentre de Kaiser

5.2 Mthode du corrlogramme

^ xx (k) de la fonction d'autocorrlation puis


Cette mthode consiste calculer d'abord l'estime R
^ xx(k):
prendre pour estime de la densit spectrale la transforme de Fourier de R
h

S^xx(f ) = T F R^ xx(k)

(42)

Cette mthode est appele mthode de Blackman-Tuckey. On dmontre que cet estimateur est
consistant.

5.3 Mthode du modle


Dans cette mthode, on recherche un modle AR, MA ou ARMA pour la squence xk : Dans le
cas d'un modle auto-rgressif, on crit

xk = a1 xk 1 + :::: + ar xk r + uk

(43)

ou uk est un bruit blanc. La fonction de transfert du ltre est donne par

H (z ) =
=
On dit que le ltre
par la relation

X (z )
U (z )

(44)

1 + a1 z 1 + ::: + ar z r

(45)

H (z ) est le ltre formeur de x: On calcule alors l'estime de la densit spectrale


S^xx(f ) = jH (f )j2 Suu(f )

(46)

Suu (f ) = U0

(47)

en remplaant z par e2jf :


Le signal d'entre u tant blanc, sa densit spectrale est constante

Nous avons nalement

S^xx(f )



= Pr
1+

2
1

2jfk U0
k=1 ak e

Cette mthode fournit gnralement de meilleurs rsultats que les mthodes prcdentes.

(48)

Chapitre 5 Mthodes rcursives dans


le temps
1 Introduction
La relation entre-sortie d'un ltre linaire et stationnaire est donne par :

y (k ) =

h(l)u(k l)

(1)

Cette quation n'est pas rcursive, le calcul de y l'instant (k 1);(k 2)::: ne sert pas au calcul
de y (k + 1).
Le calcul chaque instant de la convolution est coteux en temps de calcul. On tente ici de
trouver d'autres formes plus conomiques en calcul.
Un systme est dit rcursif d'ordre r et de mmoire p si on peut crire le relation prcdente sous
la forme :

y(k)= f [y(k 1); y(k 2); :::y(k

r); u(k); u(k

1); :::; u(k

p)]

(2)

C'est le type d'quation dj rencontre lors de l'tude du modle ARMA. Par contre dans ce cas
l, les coecients peuvent tre variables avec le temps.

2 Exemple
La formule de la moyenne d'un signal est la suivante :

y(k) =

1 X
x(i)
k 1ik

Aprs manipulation on trouve :

y(k + 1) =

1
1
k y (k ) +
x(k + 1)
k+1
k+1

(3)

qui peut tre mise sous une autre forme :

y(k + 1) = y(k) +

1
[x(k + 1) y(k)]
k+1

(4)

On voit donc apparatre un terme d'erreur appel aussi terme de correction. L'intrt de ces
mthodes est vident. Dans ce cas l, il sut d'une mise en mmoire (la sortie y (k )) et d'une
multiplication par un coecient pour avoir la sortie l'instant (k + 1):
45

Chapitre 5

46

Mthodes rcursives dans le temps

3 Rcurrence temporelle sur les quations normales


Rappelons la forme des quations normales :

:a = c

(5)

Supposons que l'on veuille rsoudre cette quation pour la prdiction l'ordre r d'un signal dont
la fonction d'autocorrlation est inconnue. Une solution est de remplacer et c par leur estimation.
L'estimation la plus courante est la moyenne temporelle entre l'instant de dbut de l'exprience et
l'instant prsent n. On a donc :
n

cn

1 X
X XT
n 1in i i
1 X
=
xX
n 1in i i

(6)
(7)

La prsence de X1 ncessite la connaissance de x0 ; x 1 ; x 2 ; :::x r+1


Le facteur n peut tre limin car il s'limine dans l'quation normale prcdente. On tablit de
plus que :
T
n = n 1 + Xn Xn
cn = cn 1 + xnXn

(8)

Le vecteur de rgression an est donn par :

an =
Thorme 1

n cn

(9)

Nous avons :

A + b:bT 1 = A 1 A 1 b:bT A 1

avec

= (1 + bT A 1 b) 1
Appliquons le thorme prcdent

A=

n 1

et b = Xn . En posant K =

1 ; on obtient :

Kn = Kn 1 n Kn 1 Xn XnT Kn 1
n = 1 + XnT Kn 1 Xn 1

(10)

Kn Xn = n Kn 1 Xn

(11)

En remplaant on a aussi,

d'o :

Kn = Kn 1

Kn Xn XnT Kn 1

(12)

nalement :

an = Kn cn
an = an 1 + Kn Xn (xn aTn 1 Xn )

(13)

4. Mthode des moindres carrs rcursifs

47

Ces algorithmes sont rcursifs. De la connaissance de an 1 ; Kn 1 et Xn 1 ; on dduit de la nouvelle


observation xn ; la valeur de Kn puis celle de an : La rcurrence est donc double:
La rcurrence ne peut pas commencer n = 1 car la matrice 1 est de rang 1 et n0 est donc pas
inversible. Elle ne peut commencer qu0 au rang r qui est le rang minimal pour que soit de rang r .
Le terme suivant reprsente le rsidu estim :

xe = xn aTn 1 Xn

(14)

dirence entre le signal reu l'instant n et sa meilleure estime.


La matrice de gain Kn doit tendre vers 0 quand n ! 1. Si le signal est strictement stationnaire
alors a convergera vers la solution de l'quation :

1c

a=
et

(15)

an an 1 ! 0

(16)

On a donc une mthode rcursive qui converge asymptotiquement vers la valeur exacte. Mais
cette convergence est l'inni, ce qui suppose donc une observation innie. Gnralement, on lui
prfre une observation de dure nie, quitte avoir une uctuation rsiduelle due au nombre ni
d'chantillons.

cn

1
P
1
=
P
=

n P 1in
X

n P 1in

Xi XiT

(17)

xi Xi

(18)

En fait, il est beaucoup plus commode d'introduire un facteur d'oubli sur les quations de rcurrence ( < 1) :
T
n = : n 1 + Xn Xn
cn = :cn 1 + xn Xn

(19)

Il sut alors de reporter ces quations dans les quations prcdentes et on aboutit l'algorithme

an = an 1 + kn Xn (xn aTn 1 Xn )
Algorithme simple, utilis en ltrage adaptatif.

4 Mthode des moindres carrs rcursifs


Problme : Calculer an tel que la quantit Tn soit minimale.

Tn =
En dveloppant, on obtient :

1in

xi


aTn Xi 2

(20)

Chapitre 5

48

Mthodes rcursives dans le temps

Tn = aTn Mn an 2aTn vn s2n


X
Mn =
Xi XiT

(21)
(22)

1in
X

vn =

1in
X

s2n =

1in

xi Xi

(23)

x2i

(24)

Le minimum est atteint pour :

Mn an = vn

(25)

5 Filtrage de Kalman
Le ltrage de Kalman permet de rsoudre les problmes de prdiction un pas et d'estimation
de manire rcursive dans le temps.
Le processus doit tre dcrit par un modle linaire sous forme de reprsentation d'tat constitu
d'une quation d'tat et d'une quation d'observation ou de mesure :


X k+1 = Ak :X k + U k + Gk
Y k = Ck :X k + W k
Le bruit d'tat Gk et le bruit de mesure W k sont supposs blancs, centrs et de variances :


k=E

k = E

(26)

Gk :GTk 
W k :W Tk

(27)

On rsoud simultanment un problme de prdiction et un problme d'estimation. La rcursivit


se dcompose en trois tapes
 prdiction de X k+1 partir de Y 0 ; Y 1 ; :::; Y k : La valeur prdite sera note
prdite de X k+1 connaissant les observations prcdentes jusqu' k ).
 nouvelle mesure Y k+1 :
 estimation de

X k+1 grce X k+1=k

et

X k+1=k

(valeur

Y k+1: L'estime sera note X k+1=k+1 :

5.1 quations des ltres


Supposons qu' l'instant k on dispose des mesures Y 0 ; Y 1 ; :::; Y k et de l'estime X k=k : Le bruit
d'tat G(k ) tant centr et indpendant des X 0 ; X 1 ; :::; X k , sa meilleure prdiction sera nulle. La
meilleure prdiction l'instant (k + 1) sera donc obtenue en appliquant l'quation de rcurrence
sans le bruit

X k+1=k = Ak :X k=k + U k
De l'quation prcdente, on dduit une prdiction de la mesure l'instant

(28)

(k + 1) par

Y k+1=k = Ck+1X k+1=k


Une estimation de

X k+1=k+1 est alors obtenue en utilisant un terme correctif

(29)

5. Filtrage de Kalman

49

X k+1=k+1 = X k+1=k + Hk+1: Y k+1 Ck+1 :X k+1=k

(30)

Hk

est appel gain du ltre.


Des quations prcdentes, on dduit les quations des ltres
 prdicteur (gure 1) :


X k+1=k = Ak :X k=k 1 + U k + Ak Hk Y k
 et estimateur :

Ck :X k=k 1

(31)

X k+1=k+1 = Ak :X k=k + U k + Hk+1 Y k+1 Ck+1 : Ak :X k=k + U k



(32)

Yk

Hk
Vk

Bk

Uk

X k+1/k

Ck

retard

Ak

Fig.

1: Structure du ltre de Kalman

5.2 Dtermination du gain du ltre


Dnissons les erreurs de prdiction et d'estimation

k+1=k = X k+1 X k+1=k


k+1=k+1 = X k+1 X k+1=k+1

(33)
(34)

crivons alors que l'estimateur doit tre sans biais et variance minimale
 biais nul (ltre prdicteur et ltre estimateur)


E k+1=k = 0


E k+1=k+1 = 0

(35)
(36)

 variance minimale (ltre prdicteur et ltre estimateur)


h

k+1=k = E k+1=k :kT+1=k

k+1=k+1 = E k+1=k+1:kT+1=k+1

En laissant le soin au lecteur attentionn de dvelopper les calculs et en utilisant les quations
des ltres et les deux quations prcdentes, on aboutit aux quations de rcurrence

k+1=k = Ak k=k ATk + k


k+1=k+1 = [I Hk+1Ck+1 ] k+1=k [I

Hk+1 Ck+1

]T

(37)

+ Hk+1
k+1 HkT+1

(38)

Chapitre 5

50

Mthodes rcursives dans le temps

On remarquera que la premire quation ne dpend pas directement de Hk : C'est donc la deuxime
quation qui servira calculer la valeur de Hk+1 qui la rend minimale. Aprs quelques lignes de
calculs, on obtient

Hk+1 = k+1=k :CkT+1
k+1 + Ck+1 :k+1=k CkT+1 1
(39)
La valeur du minimum vaut alors

k+1=k+1 = [I

Hk+1Ck+1 ] k+1=k

(40)

On obtient nalement la variance de l'erreur de prdiction

k+1=k = Ak [I

Hk Ck ] k=k 1ATk +

(41)

5.3 Rsum
Finalement les quations des ltres de Kalman prdicteur et estimateur peuvent tre obtenues
par la rcurrence temporelle suivante
 initialisation

X 0=0 = E [X 0 ]
0=0 = 0
 rcurrence au pas

(42)
(43)

(k + 1) ; on dtermine dans l'ordre


k+1=k = Ak k=k ATk + k

Hk+1 = k+1=k :CkT+1
k+1 + Ck+1 :k+1=k CkT+1 1
X k+1=k = Ak :X k=k + U k


X k+1=k+1 = X k+1=k + Hk+1 : Y k+1 Ck+1 :X k+1=k


k+1=k+1 = [I Hk+1Ck+1 ] k+1=k

(44)
(45)
(46)
(47)
(48)

Chapitre 6 Identication paramtrique


1 Introduction
Considrons le schma gnral d'identication donn par la gure 1
w

Systme

Fig.

1: modle gnral d'identication

w
u

y
g(n)

Fig.

2: Signaux exognes en sortie

o le vecteur u reprsente le vecteur des entres (signaux utiles), le vecteur w est le vecteur des
entres exognes et y le vecteur des sorties ou des mesures. On supposera dans la suite que les
entres exognes sont ramenes en sortie (gure 2). On peut alors crire :

y(n) =

+1
X
k=1

g(k)u(n k) + w(n)

(1)

La rponse frquentielle du ltre est donne par :

G(z ) =
On note souvent aussi l'oprateur
la forme :

+1
X
k=1

g(k)z

(2)

z par q: On adopte alors une criture plus compacte de (1) sous


y(n) = G(q)u(n) + w(n)
51

(3)

Chapitre 6

52

Identication paramtrique

Comme nous l'avons vu dans le chapitre 2, il est toujours possible de gnrer l'entre
d'un bruit blanc e et d'un ltre H (q ): L'quation (3) devient alors :

y(n) = G(q)u(n) + H (q)e(n)

partir
(4)

2 Les modles polynomiaux


Les modle polynomiaux gnralement adopts sont au nombre de 4.

2.1 Modle ARX


Dans ce cas, nous avons :

G(q) = q

k0 B (q)
A(q)

et

H (q) = A1(q)

(5)

avec

A(q) = 1 + a1 q 1 + ::: + apq p


B (q) = b1 + b2 q 1 + ::: + bm q m+1
Le modle prsente donc un retard pur d'ordre k0 ; il est rcursif d'ordre
s'crit :

A(q)y(n) = B (q)u(n k0 ) + e(n)

(6)
(7)

p et pass m: Le modle
(8)

2.2 Modle ARMAX


Dans ce cas, nous avons :

G(q) = q
avec
Le modle s'crit :

k0 B (q)
A(q)

et

H (q) = CA((qq))

C (q) = 1 + c1 q 1 + ::: + cl q

A(q)y(n) = B (q)u(n k0 ) + C (q)e(n)

(9)

(10)
(11)

2.3 Modle erreur de sortie


y(n) =
avec

B (q)
u(n k0 ) + e(n)
F (q)

F (q) = 1 + f1 q 1 + ::: + fj q

(12)
(13)

2.4 Modle de Box-Jenkins


y(n) =

B (q )
C (q )
u(n k0 ) +
e(n)
F (q )
D(q)

(14)

3. Modle d'tats

53

3 Modle d'tats
Plusieurs modles sous forme d'quations d'tat sont aussi possibles. Nous en itons deux :


dans ce cas,


Remarque 13

(15)

e est un bruit blanc




dans ce cas,

x(n + 1) = Ax(n) + Bu(n) + Ke(n)


y(n) = Cx(n) + Du(n) + e(n)
x(n + 1) = Ax(n) + Bu(n) + w(n)
y(n) = Cx(n) + Du(n) + e(n)

w et e sont deux processus stochastiques quelconques.

Les mthodes d'identication seront dveloppes dans un prochain document.

(16)

54

Chapitre 6

Identication paramtrique

Deuxime partie
Travaux dirigs

55

56

TD 1 : Proprits des signaux alatoires

Exercice 1

On considre le signal alatoire


variable alatoire qui-rpartie sur

x(t) = a cos(!0 t + ),


[0; 2].

et

!o

sont constantes et

est une

E [x(t)] et < x(t) >.


Calculer E [x(t)x(t  )] et< x(t)x(t  ) >. Conclusion.
Quelle est la densit spectrale de puissance Sxx (f ) de x(t) ? La reprsenter graphiquement.

1. Calculer
2.
3.

4. Quelle est la puissance du signal ?

Exercice 2
Soit x(t)un signal alatoire, stationnaire d'ordre 2, rel. En partant de l'expression
h

E (x(t)  x(t  ))2

Montrer que la fonction d'autocorrlation vrie la relation :

jRxx( )j  Rxx(0)
Exercice 3

Soit le signal

x(t) =

k=+
X1
k=

ak g(t kT

)

o {ak g est une suite de variables alatoires telle que

E (ak ) = ma

Raa (k) = E [an an+k ]

g(t)

est un signal dterministe, de dure au plus gale T , d'nergie nie et de transforme de


fourier G(f ).  est une variable quirpartie sur [0; T ] et indpendante des ak .
tudier la stationnarit au sens large de x(t).

57

58

TD 1 : Proprits des signaux alatoires

TD 2 : Signaux alatoires vectoriels

Exercice 1 : Matrices dnies positives


Soit M une matrice non symtrique. Est-ce

M >0

que la proprit

propres sont positives ?


Est-ce que la positivit des valeurs propres entrane que

entrane que les valeurs

M > 0?
Exercice2 : Proprits des matrices de covariance
Soit x une variable alatoire vectorielle suppose centre. On dnit sa matrice de corrlation (ou

matrice de variance covariance) par

= E xxH
1. Montrer que la matrice
2. Montrer que

ij

= E xi xj

est hermitienne.

est dnie non ngative.

3. Montrer que les valeurs propres de sont non ngatives et les vecteurs propres correspondant
des valeurs propres distinctes sont orthogonaux.
4. Montrer que toute matrice hermitienne dnie non ngative est une matrice de covariance
5. Soit y un vecteur alatoire obtenu de
covariance de y .

par transformation

6. Appliquer le rsultat prcdent dans le cas d'un vecteur

59

y = Ax.

Calculer la matrice de

x blanc unitaire.

60

TD 2 : Signaux alatoires vectoriels

TD 3 : Estimateurs

Exercice 1
Soit  une phase alatoire quirpartie sur [0;  ]. Considrons les variables alatoires x et y
dnies par x = cos  et y = sin .
1. Calculer les moyennes E [x] et E [y ].


2. Calculer
les variances
de x et y dnies respectivement par x = E (x E (x))2 et y =


E (y E (y))2 .
3. Calculer nalement la covariance de x et y donne par E [x:y ].
4. Donner la meilleure estimation linaire en moyenne quadratique de y partir de x. On rappelle
la formule identique celle du cours mais dans le cas o x et y ne sont pas centrs
y^ = E [y] +

yx x

1 (x

E [x])

Conclure.

5. Donner l'estime en moyenne quadratique de y . On rappelle :

y^ = E (y=x)
Exercice 2

Soit t1 et t2 deux estimateurs dirents du mme paramtre  . On suppose que


E [t2 ] =  + b2 o b1 et b2 sont des valeurs numriques connues.

E [t1 ] =  + b1 et

1. Peut-on trouver un estimateur t combinaison linaire de t1 et t2 qui soit sans biais ? On posera

t = t1 + t2
2. On suppose b1 = b2 = 0 et E (t1 :t2 ) = 0. Calculer et pour que
biais de variance minimale. Quelle est alors cette variance ?

t soit un estimateur sans

3. Dans le cas o t1 et t2 sont les moyennes empiriques de deux chantillons tirs au hasard
d'une mme population au cours d'preuves indpendantes, quoi correspond l'estimateur t
variance minimale.

Exercice 3

On dsire estimer les bornes a et b du domaine de vracit d'une variable alatoire


pour cela on eectue la mesure de N chantillons indpendants x = [x1 ; :::; xN ].
61

x uniforme,

TD 3 : Estimateurs

62

a et b.
Calculer le biais et l'erreur quadratique moyenne de l'estimateur de a. On rappelle que

1. Dterminer les estimateurs du maximum de vraisemblance de


2.

N
X

1
N (N + 1)(N + 2)
6
n=1

TD 4 : Estimation et signaux AR

Exercice 1

On considre un mobile se dplaant vitesse constante v . Sa position yn , releve aux instants


pour n 2 f1; ::::; N g ; est entache d'un bruit bn additif, blanc, centr et de variance  2 :
On dnit l'estimateur empirique vb(y ) qui correspond la moyenne des vitesses instantanes :

nT

vb(y) =
1. Cet estimateur est-il biais ?

2. Calculer sa variance E (vb(y )

v)2

N
yn
1X
N n=1 nT

Exercice 2
Soit xn un signal alatoire rel, centr et autorgressif d'ordre 3, donn donc par
xn = a1 xn 1 + a2 xn 2 + a3 xn 3 + un
o uk est un bruit blanc centr de variance u2 : On notera i = E [xn xn i ]
Le but de l'exercice est de calculer les coecients a1 ; a2 et a3 :

T
et u2 vrient les quations suivantes :
1. Montrer que le vecteur a = a1 a2 a3
R:a = c
u2 = 0 aT c
o

0 1 2
1
R = 4 1 0 1 5 et c = 4 2 5
2 1 0
3
1 = 3 = 0 et j 2 j < 0 : Dterminer le vecteur a

2. On suppose que
et la variance du bruit
2
gnrateur u :
3. En dduire toutes les valeurs de la fonction d'autocorrlation de x:
4. Montrer que j 2 j  0 :
5. On suppose maintenant que 0 = 2 = 1 et que l'on a toujours 1 = 3 = 0: Donner la
structure du signal xn et trouver un exemple de trajectoire de ce signal.

63

64

TD 4 : Estimation et signaux AR

TD 5 : Filtrage de Kalman

On dsire estimer la position d'un vhicule se dplaant vitesse constante. Cette vitesse est
perturbe par des vitesses alatoires. On suppose qu'entre deux instants d'observation, la vitesse
est constante. On peut donc crire
v(t) = vo + n
pour tn < t < tn+1
L'quation d'tat du systme donnant la variation de la position s'crit donc :

xn+1 = xn + T:vo + T: n
L'quation de mesure s'crit :

yn = xn + wn

avec :

E [ n : nT ] =
E [wn :wnT ] = W
On donne :

T = 0:1s; W = 100; = 1; xo = 0; 0 = 0

Donner les quations du ltre de Kalman prdicteur.

65

66

TD 5 : Filtrage de Kalman

Troisime partie
Travaux pratiques

67

68

TP 1 Analyse spectrale
1 Troncature et fentrage
En utilisant les fonctions 'stem' et 'subplot'; tracer les fentres de Hamming, Hanning, Boxcar et
Kaiser dans le domaine temporel. Ces fentres peuvent tre gnres sous Matlab, par les fonctions
du mme nom.
Tracer de mme le spectre de ces fentres ; On utilisera pour cela la fonction 'fftshift':
Identier les compromis entre la dcroissance dans le domaine temporel et la largeur du lobe
principal, l'amplitude du lobe secondaire et la dcroissance des autres lobes.
Pour une fentre donne montrer qu'une fentre plus large implique des performances meilleures
dans le domaine frquentiel.

2 Rsolution d'une fentre


Construire le signal

x(n) = A1 cos(2f1 t) + A2 cos(2f2 t)


On prendra comme valeur dans un premier temps

A1 = A2 = 1, f1 = 25Hz

(1)
et f2

= 50Hz:

1. Calculer et tracer le priodogramme de x. On utilisera la fonction 'psd':


2. Quelle est la rsolution frquentielle ? En d'autres termes jusqu' quelle limite arrive t-on
encore discerner f1 de f2 ?
3. On choisit maintenant A1 = 10 et A2 = 1. Que devient la rsolution frquentielle ? Celle-ci
s'amliore t-elle si on pondre le signal par des fentres autres que la fentre rectangulaire ?

sig1:mat: Les tracer avec la fonction 'stem':


Calculer et tracer le priodogramme non moyenn. On utilisera la fonction 'psd' avec un trac

4. Charger le chier de donnes bruites


5.

logarithmique.

6. Calculer et tracer maintenant le priodogramme du signal multipli par une fentre de type
Hamming ou Hanning. Conclure.

3 Densits spectrales de signaux AR et MA


Gnrer un bruit blanc b(n) distribution gaussienne ayant 4096 chantillons. On utilisera la
fonction 'randn'. Vrier que le bruit est bien blanc en calculant sa fonction d'autocorrlation ainsi
que sa densit spectrale.
69

TP 1 Analyse spectrale

70

3.1 Signaux MA
Un signal Moyenne Mobile (Moving average) est obtenu par passage d'un bruit blanc dans un
ltre rponse inpulsionnelle nie (FIR).
On considre le ltre de fonction de transfert

H (z ) = 1 + 2z 1 + 5z 2

(2)

1. Tracer le spectre de la fonction de transfert.


2. Calculer le signal de sortie
'filter ':

x(n), le bruit b(n) tant le signal d'entre en utilisant la fonction

3. Calculer et tracer la fonction d'autocorrlation de


4. Calculer la DSP de

x(n): Commentaires.

x(n):

3.2 Signaux AR
Les signaux AR sont obtenus par passage d'un bruit blanc dans un ltre purement rcursif.
On considre le ltre de fonction de transfert

H (z ) =

0:3
1 0:8z 1

1. Tracer la rponse frquentielle du ltre.


2. Essayer de prdire la forme de la densit spectrale du signal de sortie.
3. Calculer la rponse du ltre au signal

b(n):

4. Tracer sa fonction d'autocorrlation ainsi que sa densit spectrale de puissance. Pourquoi


appelle t-on ce genre de signal bruit blanc color.

TP 2 : Estimation spectrale
1 Estimation de la fonction d'autocorrlation
Les deux estimateurs classiques de fonction d'autocorrlation sont donnes par
 estimateur biais

N jkj
1 X
^
x(n)x(n + k)
Rxx (k) =
N n=1

 estimateur non biais

R^ xx (k) =

(1)

NX
jkj

jkj n=1 x(n)x(n + k)

(2)

Pour la fonction d'intercorrlation, il sura de remplacer x(n + k ) par y (n + k ):


Un autre algorithme de calcul de fonction d'autocorrlation est le suivant
- Calcul de la transforme de Fourier X (k ) de x(n): Utiliser la fonction 'fft':
- Calcul de la densit spectrale Sxx (k ) = jX (k )j2
- Calcul de la fonction d'autocorrlation par transforme de Fourier inverse

R^ xx (k) = ifft jX (k)j2

(3)

Application
1. Programmer les trois algorithmes prcdents. Les indices des vecteurs sous Matlab ne pouvant
^ xx(0) l'indice N: La fonction
tre dnis qu' partir de 1, on s'arrangera pour placer R
^
^
d'autocorrlation tant paire, on aura alors Rxx (N + k ) = Rxx (N k ) pour k = 1; :::; N 1:
2. Montrer que l'estimation non biaise revient pondrer le signal par une fentre triangulaire.
3. Que vaut littralement la fonction d'autocorrlation du signal

0; :::; 100:

s(n) = 3 cos(2 101 n) avec n =

s(n) obtenue par vos programmes.


Faire de mme pour un bruit blanc gaussien gnr par la fonction 'randn':
Comparer vos rsultats ceux obtenus en utilisant la fonction de Matlab 'xcorr ' avec les deux
options 0 biaised' et 'unbiaised':

4. Calculer et reprsenter la fonction d'autocorrlation de


5.
6.

2 Estimation de densit spectrale


Il existe direntes mthodes d'estimation de la densit spectrale de puissance. Comme cela a
t vu en cours, le problme des estimateurs de densit spectrale rside dans la variance qui est
gnralement grande et qui ne diminue pas en augmentant le nombre d'chantillons du signal. Nous
allons examiner les mthodes les plus couramment utilises.
71

TP 2 : Estimation spectrale

72

2.1 Priodogramme
Cette mthode estime la densit spectrale de puissance comme tant le carr du module de la
transforme de Fourier du signal. On obtient donc :

Sxx(f ) = jX (f )j2

(4)

Cette mthode est en fait quivalente prendre la transforme de Fourier de la fonction d'autocorrlation.

2.1.1 Application
On considre le signal x(t) dont on dsire calculer la densit spectrale de puissance par la mthode
du priodogramme.

x(t) = A1 cos(2f1 t) + A2 cos(2f2 t)


(5)
avec A1 = A2 = 1, f1 = 15Hz et f2 = 55Hz:
1. Prlever 128 chantillons du signal dans l'intervalle [0s; 1s]: Ceci revient prendre un frquence
d'chantillonnage Fe = 127:
2. Programmer la mthode et tracer la DSP (en dB) de x(t): Ne pas oublier la normalisation
(diviser par le nombre de points).

3. Comparer les rsultats ceux qu'on obtiendrait en prenant simplement la transforme de


Fourier de la fonction d'autocorrlation. Cette mthode est appele mthode de Blackman
Tuckey.
4. Ajouter au signal un bruit gnrer par la fonction randn et examiner les dirences entre les
deux mthodes quand le nombre de points d'chantillonnage varie. On prendra A1 = 2; A2 = 1;
puis A1 = 5; A2 = 1

2.2 Priodogramme moyenn (Mthode de Welch)


Une manire de rduire la variance de l'estimateur est de subdivis l'intervalle de dnition du
signal x(n) en un certain nombre de sous-intervalles. On calcule alors la moyenne des densits
spectrale sur chacun des sous-intervalles.
1. Reprendre le signal prcdent avec
points.

Fe = 1023.

On prendra alors 4 sous intervalles de

256

2. Calculer et tracer le priodogramme moyenn. Comparer les rsultats aux priodogramme


classiques.

2.3 Priodogramme moyenn avec recouvrement (overlapping)


Reprendre les questions prcdentes en considrant cette fois-ci des sous intervalles de mmes
longueurs que prcdemment mais avec des recouvrements d'une demi-longueur.

2.4 Fonction 'PSD' de Matlab


Rpondre aux questions prcdentes en utilisant la fonction de Matlab

psd:

TP 3 : Filtrage de Kalman
1 Description du problme
On dsire estimer la position xn et la vitesse vn d'un mobile se dplaant acclration constante
Cette acclration est soumise des acclrations alatoires n (variation du rgime moteur,
variation du coecient d'adhrence,...). L'ensemble de ces acclrations alatoires sont supposes
indpendantes et de moyenne nulle. On peut donc crire entre deux instants d'chantillonnage de
la mesure (tn  t < tn+1 ) :
(t) = 0 + n
(1)

0 .

E [ n ] = 0
E [ n n+k ] = :k

(2)
(3)

On suppose que seule la position est accessible la mesure et que cette mesure est bruite. La
mesure est note yn et le bruit wn :
1. crire l'quation de rcurrence donnant vn+1 en fonction de vn ; 0 ; n et
2. crire de mme l'quation de rcurrence donnant
prcdentes.

xn+1

en fonction

T = tn+1 tn :
de xn et des variables

3. Montrer que la reprsentation d'tat du systme peut se mettre sous la forme




avec

X k = xk vk

T

X k+1 = A:X k + U k + Gk
Y k = CX k + W k

(4)

: Donner les matrices A; C ainsi que les vecteurs U k ; Gk ; W k (cf. TD).

4. Programmer les quations des ltres prdicteur et estimateurs. On remarquera que les quations sont plus simples car le systme est stationnaire.
5. Gnrer un ensemble d'observations bruites en utilisant les paramtres suivants
h

T = 0:1s 0 = 1ms 2

= 1
= 100 X 0 = 0

10

T i

(5)

On gnrera la squence d'acclrations alatoires en utilisant la fonction randn: On supposera


par la suite que les variances de bruit d'tat et de mesures nous sont inconnues.

2 Inuence des conditions initiales


Pour = 1 et
cas suivants :

= 100; examiner l'inuence du choix des conditions initiales. On considrera les


73

TP 3 : Filtrage de Kalman

74
tat initial


X0 = 0

10

y1 y0 T
T

y1 y0 T
T

y1 y0 T
T

X 0 = y0
X 0 = y0
X 0 = y0

0
0
0

0
0 


0
0
4

=T 2 


0
100
0 4
=T 2

Variance
initiale



0
0
0
0

T

3 Inuence du choix des variances des bruits


Pour des valeurs de X 0 et 0 bien choisis, examiner l'eet du choix arbitraire des variances de
bruit de mesure et d'tat. On considrera en particulier les valeurs suivantes et on suivra l'volution
de la variance d'erreur d'estimation sur la position.
bruit de mesure
100
10000
1
100
100
10000
1

bruit d'tat
1
1
1
100
0.01
100
0.01

TP 4 : Estimation et prdiction
1 Estimation de fonction de transfert
Soit respectivement x(n) et y (n) l'entre et la sortie d'un ltre linaire de rponse impulsionnelle h(n) et de fonction de transfert H (f ): La fonction d'intercorrlation est lie la fonction
d'autocorrlation du signal d'entre par

Rxy (n) = h(n)  Rxx (n)

(1)

En prenant la transforme de Fourier de l'expression prcdente, on obtient

Sxy (f ) = H (f ):Sxx(f )

(2)

Le problme de l'estimation de la fonction de transfert s'nonce comme suit


Les signaux x(n) et y (n) tant connus, peut on trouver la fonction de transfert
ltre d'entre x(n) et de sortie y (n) ? La rponse est

H (f ) =

Sbxy (f )
Sbxx (f )

H (f )

du

(3)

o Sbxy (f ) et Sbxx (f ) sont des estimes des densits spectrales prcdentes.


L'estimation prcdente n'est possible que si le signal d'entre est spectralement riche (spectre
relativement large).

Application

On considre le ltre dni par l'quation aux dirences

y(n) = 0:2:y(n 1) + 0:25y(n 2) 0:05:y(n 3) + x(n)


(freqz ):
Calculer et tracer la rponse du ltre au signal sinusodal x(n) = sin(0:01n)
Calculer et tracer l'estime de la fonction de transfert H (f ):

1. Calculer et tracer la fonction de transfert du ltre du ltre


2.
3.

4. L'estimation est-elle raisonnable


5. Reprendre les 3 questions prcdentes aprs avoir ajouter du bruit au signal

x(n): Conclure.

2 qualisation d'un signal de son


On dsire restaurer une bande sonore originale. Ce signal est contenu dans le chier sig2.mat.
Le signal sonore peut tre considr comme constitu d'un pseudo bruit blanc. Amliorer la qualit
sonore de la bande peut se rsumer en trois tapes :
1.

 trouver un modle autoregressif approximant les proprits du second ordre du signal.


75

TP 4 : Estimation et prdiction

76

 dterminer la rponse du ltre d'erreur de prdiction (ltre inverse)


 ltrer le signal par le ltre prcdent (le signal gnrateur d'un signal autoregressif est
un bruit blanc).
2. Calculer et tracer le priodogramme et le priodogramme moyenn du signal (chier sig 2:mat).
3. Calculer et tracer la fonction d'autocorrlation biaise du signal

(xcorr):

4. Rsoudre le problme de prdiction un pas et d'ordre 4 du signal en utilisant la fonction

T oeplitz:

5. Tracer le spectre du ltre d'erreur de prdiction

jH (f )j2 :

6. Equalisez le signal en signal en le passant dans le ltre prcdent


gramme du signal de sortie (signal blanchi).

(filter): Tracer le priodo-

3 Prdiction
Le problme de la prdiction linaire peut tre nonc comme suit :
tant donn N + 1 chantillons (x0 ; x1 ; :::; xN ) d'un signal x; l'objectif est de raliser un ltre
prdicteur linaire d'ordre r (r < N ) du signal x:
La prdiction linaire d'un chantillon partir des r derniers chantillons s'crira alors
2
6
6
6
6
4

x0
x1
xN

x1
x2
r

xN

:::: xr 1 xr 1
:::: xr 1 xr
::::
:
:
::::
:
:
::::
x
x
r+1
N 2
N 1

32
76
76
76
76
54

a1
a2
:
:
ar

7 6
7 6
7=6
7 6
5 4

xr
xr+1
:
:
xN

3
7
7
7
7
5

Cette quation est de la forme

A:a = x
avec A : ((N r + 1)  r ); a: (r  1); x: ((N r + 1)  1):
On remarque que la matrice A est non carre et donc non inversible car gnralement le nombre
d'observations est trs suprieur r (N > 2:r 1): Il y a donc plus d'quations que d'inconnues.

On peut quoi qu'il en soit utiliser la pseudo inverse d'une matrice rectangulaire rang plein. On
obtient alors
a = (AT :A) 1 :AT :x
1. Programmer la mthode.
2. Appliquer la mthode pour la prdiction du signal contenu dans sig1.mat et du signal de
parole. On utilisera une partie du signal pour le calcul des coecients du ltre et une autre
partie pour la validation du prdicteur.
3. Examiner l'inuence du choix de direntes valeurs de

et r .

3. Prdiction

77

78

TP 4 : Estimation et prdiction

Quatrime partie
Quelques fonctions de Matlab

79

80

Algbre linaire
1 Cration de matrices et vecteurs
Matrice nulle n  m
A = zeros(n; m)
Matrice identit n  n
A = eye(n)
Matrice de 1 n  m
A = ones(n; m)
Matrice diagonale
Matrice val alatoires n  m
Matrice val alatoires n  m
Matrice de Toeplitz

A = diag([a1 ; a2 ; :::; an ])
A = rand(n; m)
A = randn(n; m)
A = toeplitz (c)

distribution uniforme
distribution normale
c premire ligne

2 Manipulation et oprations sur les vecteurs et matrices


Extraction de l'lment i; j
Extraction d'un ligne i
Extraction d'une colonne j
Extraction de bloc
Extraction de la diagonale
Extraction bloc triangulaire suprieur
Extraction bloc triangulaire infrieur
Transposition
Inversion
Puissance de matrice
Puissance lt. par lt.
Dterminant
Rang
Vecteurs, valeurs propres
norme 1,2,inf,fro
Puissance ( rel) de matrice

A(i; j )
A(i; :)
A(:; j )
A([i1 ; i2 ; ::]; [j1 ; j2 ; ::])
diag(A)
triu(A)
tril(A)
A0
inv(A) 1=A A^ 1
A
A:
det(A)
rank(A)
[v; d] = eig(A)

3 Factorisation de matrices
Factorisation QR
Factorisation LU
Factorisation de Cholesky
81

[Q; R] = qr(X )
[L; U; P ] = lu(X )
R = chol(X )

Algbre linaire

82

4 Oprations entre matrices et vecteurs


Addition de matrices
Multiplication de matrices
Multiplication lt. par lt
Rsolution du systme Ax = b

A+B
AB
A:  B
x = inv(A)  b ou x = Anb

5 Les polynmes
Un polynme est reprsent par le vecteur ligne ou colonne de ses coecients du degr le plus
lev au plus faible.

p(x) = x2 + 3x 1

sous Matlab sera dclar par

p = [1; 3; 1]

Dclaration par les racines


Polynme caractristique d'une matrice
Valeur d'un polynme en a
Racines d'un polynme p
Produit de deux polynmes

p = poly(v)
A
p = poly(A)
p0 = polyval(p; a)
r = roots(p)
p = conv(p1; p2)

v, vecteur des racines


v, vecteur des racines

L'addition de deux polynmes pose des problmes, car a revient additionner deux vecteurs de
dimensions imcompatibles si les polynmes ne sont pas de mme degr. Il sut d'crire une fonction
qu'on va appeler polyadd

function
p = polyadd(p1; p2)
if
(size(p1; 2) > 1)
p1 = p10 ;
end;
elseif
(size(p2; 2) > 1)
p1 = p10 ;
end;
end;
if
(size(p1; 1) >= size(p2; 1))
p = p1 + [p2; zeros(size(p1; 1) size(p2; 1))];
else
p = p2 + [p1; zeros(size(p2; 1) size(p1; 1))];
end;
Nous donnons dans la suite quelques fonctions de la Toolbox signal processing.

Traitement du signal
1 Fentrage
Rectangulaire
Triangulaire
Blackman
Bartlett
Chebwin
Hamming
Hanning
Kaiser

x = boxcar(N )
x = triang(2  n + 1)
x = boxcar(N )
x = bartlett(2  n + 1)
x = chebwin(N; R)
x = ham min g(N )
x = hanning(N )
x = kaiser(N; beta); 0 beta  10

2 Gnration de signaux
Dirichlet (sinc priodique)
dents de scie
sinc
carr

y = diric(x; N )
x = sawtooth(T; largeur) ou x = sawtooth(T )
y = sin c(x)
x = square(T; rcycle) ou x = square(T )

3 Transformes
TFR
T.F inverse
Transforme en Cosinus
T. en Cosinus inverse
Symtrie spectrale
Transforme en z

y = fft(x; N ) ou y = fft(x)
x = fft(y; N ) ou x = ifft(y)
y = dct(x)
x = idct(y)
y = fftshift(x)
G = czt(x; m; w; a)
83

Traitement du signal

84

4 Traitement statistique
Est. de la fonction de cohrence
Coecients de corrlation
Matrice de covariance
Inter-densit spectrale
Densit spectrale de puissance
Est. de fonction de transfert
inter- et auto-corrlation
covariance (sans les moyennes)
valeur moyenne
variance

Cxy = cohere(x; y; NF F T; F s; W INDOW )


y = corrcoeff (x) ou z = corrcoeff (x; y)
y = cov(x)
[P xy; P xyc; F ] = csd(x; y; nfft; F s; W IN; NOV; P )
[P xx; F ] = psd(x; nfft; F s; W IN; NOV; P )
[T xy; F ] = csd(x; y; nfft; F s; W IN; NOV; P )
xcorr(x; y) ou xcorr(x) ou xcorr(x; y;0 (un)biased)
xcov(x; y) ou xcov(x) ou xcov(x; y;0 (un)biased)
y = mean(x)
y = std(x)

5 Filtrage, analyse et synthse


Produit de convolution
Simulation d'un ltre
Gnration de points en frquence
Rponse frquentielle en p
Rponse frquentielle en z
Rponse impulsionelle

C = conv(A; B )
y = filter(B; A; x)
F = freqspace(N )
[H; W ] = freqs(B; A)
[H; F ] = freqz (B; A; N; F s)
[H; T ] = impz (B; A; N; F s)

6 Modlisation paramtrique
Modlisation partir d'une rponse frquentielle en
Modlisation partir d'une rponse frquentielle en
Algorithme de Levinson
Prdiction linaire
Modlisation ARMA

p [B; A] = invfreqs(H; W; nb; na)


z [B; A] = invfreqz (H; W; nb; na)
A = levinson(R,N)
A = lpc(X; N )
[B; A] = stmcb(X; NB; NA)

7 Fonctions diverses
Convolution 2 dimensions
Centrage d'un signal alatoire
soustraction d'une composante en rampe
T. de Fourier 2D
T. de Fourier Inverse 2D
Trac discret
intercorrlation 2D

C = conv2(A; B )
y = dtrend(x)
y = detrend(x)
A = fft2(X; N )
A = ifft2(X; N )
stem(x)
xcorr2(A; B )

Les fonctions qui suivent appartiennent la toolbox System Identication

8. Estimation de paramtres de modles

85

8 Estimation de paramtres de modles


Modle AR (direntes approches)
Modle ARMAX
Modle ARX
Modle Box-Jenkins
Variable instrumentale
Variable instrumentale

T H = ar(y; nbpoints; approach; win)


T H = armax(Z; NN; maxiter; tol; lim; maxsize; T )
T H = arx(Z; NN; maxsize; T )
T H = bj (Z; NN; maxiter; tol; lim; maxsize; T )
T H = iv(Z; NN; NF; MF; maxsize; T )
ivar; iv; ivx; iv4

Index
Alatoire, 15
Autocorrlation, 16

de Hannng, 41
de Kaiser, 41
rectangulaire, 41
triangulaire, 41
Filtrage, 12
continu, 12
de Kalman, 48
discret, 12
dynamique, 12
Filtre
AR, 13
formeur, 21
RIF, 13
RII, 13
Fonction cot, 30
Fonction risque, 30
Fourier, 11
continue, 11
discrte, 11

Biais
d'un estimateur, 26
Birko
Thorme de, 18
Bruit blanc, 21
Causalit, 12, 13
convolution, 45
Corrlogramme, 44
Covariance, 16
Dterministe, 15
Dirac, 13
DSP, 19
Echantillonnage, 13
ELM, 29
ELMQ, 26
Equation
de Yule-Walker, 23
Equation Normale, 23, 46
Equirpartie, 19
Ergodicit, 18
Esprance, 16
Estimation, 25
Baysienne, 30
Corrlogramme, 44
de la DSP, 40
de la fonction d'autocorrlation, 39
de la moiyenne, 37
de la variance, 38
Mthode du modle, 44
non Baysienne, 30
non-baysienne, 34
nulle, 30
Spectrale, 37

Gaussiens
Signaux, 20
Innovation, 25
Kalman, 48
Laplace, 11
Matrice
dnie non ngative, 20
de corrlation, 19
hermitienne, 19
Moindres carrs
linaires, 27
non-linaires, 29
Rcursifs, 47
Moments
d'ordre 1, 16
d'ordre 2, 16
statistiques, 16
temporels, 17

Fentre
de Blackman, 41
de Chebychev, 41
de Hamming, 41

Priodogramme, 40
86

INDEX
moyenn, 41
Principe d'orthogonalit, 28
Puissance, 17
Rcursif, 45
Signaux
alatoires, 15
AR, 22
ARMA, 23
dterministes, 15
Gaussiens, 20
MA, 22
Stabilit, 12, 13
Stationnarit, 18
Transforme
de Fourier, 11
de Laplace, 11
en z, 11
Variance, 17
d'un estimateur, 26

87