Vous êtes sur la page 1sur 53

SIGNAUX ALÉATOIRES

Hichem Naamen

6 septembre 2022
Table des matières

1 Rappels 1
1.1 Signaux temporels discrets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Systèmes temporels discrets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Linéarité et invariance temporelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Causalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.3 Stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.4 Inversibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Description dans le domaine temporel des filtres LSI . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Transformé de Fourier discrète temporelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5 Transformé en z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6 Classes spéciales de filtres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.7 Organigramme des filtres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.8 DFT et FFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.9 Combinaison des systèmes LTI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.9.1 Couplage série : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.9.2 Couplage parallèle : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.9.3 Feedback : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2 Processus aléatoires à temps discret 14


2.1 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.1 définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Moments statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.1 Définitions de quelques estimateurs statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.1.1 valeur moyenne : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.1.2 puissance moyenne : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.1.3 variance : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.1.4 écart–type : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2.2 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3 Descripteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.1 Descripteurs du premier ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.2 Descripteurs du second ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.3 Auto/Inter–Corrélation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4 Appendice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4.1 Résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4.2 Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4.3 Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4.4 Corrélation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5 Moments temporels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.5.1 Moment temporel d’ordre 1 (moyenne) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.5.2 Moment temporel d’ordre 2 (fonction d’auto–corrélation temporelle) . . . . . . . . . . . . . . 23
2.6 Interprétation de la Covariance et des fonctions de Corrélation . . . . . . . . . . . . . . . . . . . . . 23
2.6.1 Interprétation de la Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.6.2 Interprétation des fonctions de Corrélation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.7 Notions de probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

i
TABLE DES MATIÈRES ii

2.7.1 Fonction de répartition et densité de probabilités . . . . . . . . . . . . . . . . . . . . . . . . . 25


2.7.2 Modèles statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.8 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.9 Signaux Stationnaires Ergodiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.9.1 Signaux Stationnaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.9.2 Signaux Ergodiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.10 Exemple d’un signal aléatoire : le bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.10.1 Définition : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.10.2 Comportement temporel : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.10.3 Comportement fréquentiel : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.11 Densité spectrale de puissance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

3 Modèles paramétriques des signaux et des systèmes 35


3.1 Les modèles autoregressifs AR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Les modèles à moyenne ajustée MA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3 Les modèles autoregressif à moyenne ajustée ARMA . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

4 La matrice de Corrélation 41
4.1 Propriété 1 : La matrice R est positive semi-définie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.2 Propriété 2 : La matrice R est hermitienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.3 Propriété 3 : La matrice R est Toeplitz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.4 Propriété 4 : Les valeurs propres de Rm sont λm i , pour i=0,1,2...,N. . . . . . . . . . . . . . . . . . . . 42
4.5 Propriété 5 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.6 Propriété 6 : Les vecteurs propres non nuls q0 q1 ... qN correspondant aux valeurs propres sont
linéairement indépendants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.7 Propriété 7 : Puisque la matrice de corrélation R est hermitienne, ses valeurs propres sont réelles.
Ses valeurs propres sont supérieures ou égales à zéro vu que la matrice R est semi-défini positive . . 43
4.8 Propriété 8 : Si R est une matrice hermitienne ayant différentes valeurs propres, les vecteurs propres
sont orthogonaux les uns aux autres. En conséquence, il existe une matrice Q unitaire avec QH Q  I 44
4.9 Propriété 9 : La somme des valeurs propres de R est égale à la trace de R, et le produit des valeurs
propres de R est égal au déterminant de R6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.10 Propriété 10 : Le quotient de Rayleigh est défini par : R  wwHRw
H
d’une matrice hermitienne et est
borné par les valeurs propres minimale et maximale : λmin ¤ R ¤ λmax . Où les valeur minimale et
w

maximale sont atteintes quand le vecteur w est choisi pour être le vecteur propre correspondant aux
valeurs propres minimale et maximale, respectivement . . . . . . . . . . . . . . . . . . . . . . . . . . 45

5 Filtrage de Wiener 47
5.1 Régression linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.1.1 Mesure, modèle et écart . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.1.2 Minimisation de l’écart quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.1.3 Équations de la régression linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.2 Filtrage de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.2.1 Définition du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.2.2 Résolution au sens des moindres carrés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.2.3 Description matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.2.4 Applications du filtrage de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.3 Suppression d’une perturbation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.3.1 Filtrage de Wiener classique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.3.2 Remarque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

6 Filtrage adaptatif 56
6.1 Pourquoi du filtrage adaptatif ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.1.1 Quelques exemples : soustraction de bruit, égalisation et identification. . . . . . . . . . . . . . 56
6.1.1.1 Soustraction de bruit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.1.1.2 Egalisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.1.1.3 Identification. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
6.2 Filtrage adaptatif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
6.2.1 Algorithme récursif des moindres carrés (RLMS) . . . . . . . . . . . . . . . . . . . . . . . . . 58
6.2.2 Gain d’adaptation normalisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
TABLE DES MATIÈRES iii

7 Filtrage de Kalman 61
7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
7.1.1 Équation du processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
7.1.2 Équation de mesure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
7.2 Estimations optimales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
7.3 Notations adoptées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
7.4 Filtre de Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
Liste des tableaux

2.1 Définitions et propriétés des matrices de corrélation et de covariance. . . . . . . . . . . . . . . . . . . . . . . . . 21

iv
Table des figures

1.1 Représentation graphique d’un signal xpnq temporel et discret.. . . . . . . . . . . . . . . . . . . . . . . . . . . 2


1.2 Représentation d’un système discret temporel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Notation canonique pour les réseaux numériques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 .
structures canoniques d’un filtre du quatrième ordre IIR et d’un filtre F IR du Nième ordre. . . . . . . . . . . . 10
1.5 Structure canonique d’un filtre du deuxième ordre F IR. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6 Systèmes en série. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.7 Systèmes en parallèle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.8 Systèmes en parallèle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.9 Représentation d’un système. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2.1 Cartographie des événements élémentaires vers les points d’une ligne réelle. . . . . . . . . . . . . . . . . . . . . . 16
2.2 Distributions des probabilités : (a)fonction de distribution de la variable aléatoire définie pour le jet de la pièce de
monnaie. (b)fonction densité. (c)fonction de distribution d une variable aléatoire définie pour l’expérience de la roue
de roulette. (d)fonction densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3 Représentation d’un ensemble de réalisations. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.4 Moyenne d’ensemble et moyenne temporelle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.5 Signaux deterministes. . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.6 Signaux ergodiques. . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.7 Signaux deterministes. . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.8 Signaux aléatoires. . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.9 Exemple de processus stationnaire et ergodique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.10 Exemple de processus non stationnaire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.11 Bruit blanc Gaussien et bruit blanc uniforme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.12 Représentation spectrale d un bruit blanc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

3.1 Structure canonique d’un processus autoregressif. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36


3.2 Fonction de transfert entrée–sortie d’un modèle autoregressif. . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3 Poursuite d’un bruit coloré avec un modèle AR. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.4 Approximation d’un signal avec une constante. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.5 Prédiction d’erreur à partir de l’estimation d un bruit coloré en utilisant le modèle pARq. . . . . . . . . . . . . . . 37
3.6 Structure canonique du modèle de la moyenne ajustée. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.7 Fonction de transfert du modèle MA reliant x[n] et w[n]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.8 Structure canonique du modèle ARMA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.9 Fonction de transfert du modèle ARMA reliant x[n] et w[n]. . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

5.1 .
Illustration des distributions uniforme, gaussienne et exponentielle. . . . . . . . . . . . . . . . . . . . . . . . . 48
5.2 Régression linéaire. . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . 48
5.3 Filtrage de Wiener. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.4 Suppression de la perturbation yp pnq. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . 53
5.5 Suppression d’une perturbation par filtrage de Wiener. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

6.1 Soustraction de bruit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57


6.2 l’égalisation est une ƒidentification inverse‚.
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
6.3 l’Identification directe. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

v
TABLE DES FIGURES vi

6.4 Modèle pour le filtrage linéaire optimal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58


6.5 Modèle pour l’égalisation linéaire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
6.6 Dérivée de l’erreur quadratique en l’instant n par rapport au coefficient wk pnq. . . . . . . . . . . . . . . . . . . . 59

7.1 Structure canonique représentant un système linéaire, discret dans le temps et dynamique. . . . . . . . . . . . . . 62
7.2 à posteriori, à priori, lissage et prédiction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
7.3 Lissage, filtrage et prédiction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
7.4 Estimations d’états et erreurs de covariance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
7.5 Résume du filtre de Kalman. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
7.6 Le filtre de Kalman en tant que propagation de densité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
Chapitre 1
Rappels

1.1 Signaux temporels discrets


Un signal discret temporel est une séquence indexée de nombres réels ou complexes. Donc, un signal discret
temporel est une fonction d’une variable n à variables entières, dénotée par xpnq. Bien que la variable indépendante
n ne représente pas nécessairement le ptempsq, n peut, par exemple, correspondre à une coordonnée spatiale ou
une distance, xpnq est généralement, référencé comme une fonction de temps. Du fait que le signal discret temporel
est non défini pour les valeurs non entières de n. La représentation graphique de xpnq sera sous la forme sucette
plollipopq, comme le montre la figure1.1.
Les signaux discrets temporels peuvent survenir comme un résultat de l’échantillonnage d’un signal continu
temporel, tel que la parole, avec un convertisseur analogique–digital pA{Dq. Par exemple, si un signal continu
temporel xa ptq est échantillonné à la fréquence fs  1{Ts echantillons par seconde, donc le signal échantillonné xpnq
sera relié à xa ptq ainsi :

xpnq  xa pnTs q

Cependant, tous les signaux temporels ne sont pas obtenus de cette manière. En particulier, quelques signaux
peuvent être considérés naturellement des séquences discrètes dans le temps puisqu’il n’y a pas de convertisseur phy-
sique pA{Dq capable de les convertir. À titre d’exemple de signaux qui font partie de cette catégorie, les populations
statistiques, les prix quotidiens du stock des marchés, les inventaires des entrepôts etc..
Bien que la majorité de l’information liée aux signaux à intérêt pratique sont des fonctions très compliqués du
temps, pourtant, il y a trois importants signaux discrets temporels fréquemment utilisés dans la représentation et
la description des signaux plus compliqués. Il y a le pic de Dirac, dénoté par δ pnq et défini par :
"
1: n0
δ pnq 
0 : autrement
qui joue le même rôle dans le traitement du signal discret temporel que l’impulsion unitaire joue dans le traite-
ment du signal continu temporel. Le pic unitaire peut être utilisé pour décomposer un signal arbitraire xpnq en une
somme pondérée, étendue et périodique d’échantillons unitaires ainsi :

k¸ 8
xpnq  xpk qδ pn  k q
k 8
Cette décomposition est la version discrète de la propriété de déplacement pour les signaux continus temporels.
L’échelon, dénoté par upnq est ainsi défini :
"
1: n¥0
upnq 
0 : autrement
et est relié au pic de Dirac par :

¸
n
upnq  δ pk q
k 8

1
CHAPITRE 1. RAPPELS 2

Figure 1.1 – Représentation graphique d’un signal xpnq temporel et discret.

"
1 : n ¤ n0
xpnq  upn0  nq
0 : n ¡ n0

1.2 Systèmes temporels discrets


Un système discret temporel est un opérateur mathématique ou une projection qui transforme un signal (entrée)
en un autre signal (sortie) dans le sens de règles ou fonctions fixées. La notation T r–s sera utilisée pour représenter
un système, tel que celui représenté dans la figure1.2.
Par exemple, la relation entre l’entrée et la sortie peut être exprimée en termes concis de règles mathématiques
ou fonctions tel que :

y pnq  x2 pnq
où

y pnq  0.5y pn  1q xp nq

Figure 1.2 – Représentation d’un système discret temporel.

Cependant, il est possible de décrire un système en termes d’un algorithme qui procure une séquence d’instruc-
tions ou opérations à appliquer aux valeurs du signal d’entrée. Par exemple :

y1 pnq  0.5y1 pn  1q 0.25xpnq


y2 pnq  0.25y2 pn  1q 0.5xpnq
y3 pnq  0.4y3 pn  1q 0.5xpnq
y pnq  y1 pnq y2 pnq y3 pnq

1.2.1 Linéarité et invariance temporelle


Les deux propriétés du système qui sont d’une grande importance pour la simplification et le design des systèmes
discrets temporels sont la linéarité et l’invariance temporelle. Un système est dit linéaire si pour toutes entrées x1 pnq
et x2 pnq et pour toutes constantes à valeurs complexes a et b, on a :

T rax1 pnq bx2 pnqs  aT rx1 pnqs bT rx2 pnqs


CHAPITRE 1. RAPPELS 3

L’importance de cette propriété est mise en relief par l’observation du fait que si l’entrée est décomposée en une
superposition de pics de Dirac pondérés :

k¸ 8
xpnq  xpk qδ pn  k q
k 8
donc la sortie est :
k¸ 8 k¸ 8
y pnq  xpk qT rδ pn  k qs  xpk qhk pnq
k 8 k 8

où hk pnq  T rδ pn  k qs est la réponse du système des pics de Dirac retardées δ pn  k q. L’équation1.1 est référencée
comme la somme d’une superposition et illustre qu’un système linéaire est complètement spécifié une fois que les
signaux hk pnq sont connues.
La seconde importante propriété est l’invariance temporelle. Un système est dit invariant tem-
porellement si un décalage de l’entrée par n0 entraine un décalage de la sortie par n0 . Donc, si y pnq
est la réponse du système invariant temporellement de l’entrée xpnq, il en découle que pour tout
décalage de l’entrée, xpn  n0 q, la réponse du système sera y pn  n0 q. L’invariance temporelle veut dire
que les propriétés du systéme ne changent pas avec le temps.
Un système qui est à la fois linéaire et invariant temporellement est appelé (LSI : linear schift invariant)
système. Pour un système LSI, si hpnq  T rδ pnqs est la réponse du Dirac δ pnq, donc la réponse de δ pn  k q est
hpn  k q. Par conséquent, pour un système LSI la somme apportée par l’équation1.1 devient :

k¸ 8
y pnq  xpk qhpn  k q (1.1)
k 8

qui est la somme convolution. Afin de simplifier la notation, la somme convolution est exprimée de la manière
suivante :

y pnq  xpnq  hpnq

Puisque la somme convolution nous permet d’évaluer la réponse d’un système LSI d’une arbitraire entrée xpnq,
les systèmes LSI sont uniquement caractérisés par leur réponse, hpnq, d’un pic de Dirac. Ce signal est référencé
comme la réponse du système au pic de Dirac.

1.2.2 Causalité
Un système est dit causal si, pour tout n0 , la réponse du système au temps n0 ne dépend que des
valeurs de l’entrée pour n n0 . Pour un système causal il n’est pas possible aux changements de la
sortie de précéder les changements de l’entrée. Le systéme décrit par l’équation y pnq  xpnq xpn  1q par
exemple est causal, par contre le système décrit par l’équation y pnq  xpnq xpn 1q n’est pas causal puisque la
sortie en n  n0 dépend de la valeur de l’entrée en n0 1.
Si un système est linéaire et invariant, sera causal si et seulement si hpnq  0 pour n 0,

1.2.3 Stabilité
Dans plusieurs applications, il est important pour un système d’avoir une réponse, y pnq, qui est bornée en
amplitude chaque fois que l’entrée est bornée. Un système avec cette propriété est dit être stable dans le sens d’une
entrée bornée sortie bornée BIBO. Plus prcisément, un système est BIBO stable si, pour toute entrée bornée,
|xpnq| ¤ A 8, la sortie est bornée, |y pnq| ¤ B 8. Dans la cas d’un système LSI, la stabilité est garantie une
fois que la réponse d’un pic de Dirac est absolument sommable


|hpnq| 8 (1.2)
n 8

par exemple, un système LSI avec hpnq  an upnq est stable quand |a| 1
CHAPITRE 1. RAPPELS 4

1.2.4 Inversibilité
Un système est dit inversible si l’entrée du système peut être déterminée d’une façon unique par l’observation
de la sortie. Afin qu’un système soit inversible, il est nécessaire que des entrées distinctes produisent des sorties
distinctes. D’une autre manière, deux entrées quelconques x1 pnq et x2 pnq avec x1 pnq  x2 pnq, il doit être vrai que
y1 pnq  y2 pnq. Par exemple, le système défini par :

y pnq  xpnqg pnq

est inversible si et seulement si g pnq  0 pour tout n.

1.3 Description dans le domaine temporel des filtres LSI


Définition 1 : La réponse impulsionnelle (IR) hptq d’un filtre est la réponse de ce filtre à l’impulsion de Dirac.

Définition 2 : un filtre est dit à réponse impulsionnelle finie (FIR) si celle–ci est définie sur un support borné
en temps.

Définition 3 : un filtre est dit à réponse impulsionnelle infinie (IIR) si celle–ci est définie sur un support non
borné en temps.

Autrement dit, pour un filtre pF IRq, la réponse impulsionnelle est non nulle uniquement à l’intérieur d’un in-
tervalle fermé T  rt1 , t2 s, alors que pour un filtre pIIRq, l’intervalle T est infini, c’est à dire que l’on peut avoir
t1 Ñ 8, t2 Ñ 8, ou t1 Ñ 8 et t2 Ñ 8

Une classe importante de systèmes LSI sont ceux pour lesquels l’entrée xpnq et la sortie est y pnq sont reliées par
une équation linéaire aux différences à coefficients constants (LCCDE) (Linear Constant Coefficient Difference
Equation) de la forme :

¸
p ¸
q
y pnq apk qy pn  k q  bpk qxpn  k q (1.3)

k 1 
k 0

Dans cette équation aux différences, p et q sont des entiers qui déterminent l’ordre du système et ap1q, ..., appq
et bp1q, ..., bpq q sont les coefficients du filtre qui définissent le système. L’équation aux différences est souvent écrite
sous la forme :

¸
q ¸
p
y p nq  bpk qxpn  k q  apk qy pn  k q (1.4)

k 0 
k 1

Ce qui montre clairement que la sortie y pnq est égale a une combinaison linéaire des valeurs antécédentes (passées)
de la sortie, y pn  k q pour k  0, 1, ..., p, le long des valeurs passées et présentes, xpn  k q pour k  0, 1, ..., q. Pour
le cas spécial p  0, l’equation aux différences devient :

¸
q
y pnq  bpk qxpn  k q (1.5)

k 0

et la sortie est simplement une somme pondérée des valeurs courantes et passées. En conséquence, la réponse
du Dirac est finie en longueur :

¸
q
hpnq  bpk qδ pn  k q

k 0

et le système est référencé système à réponse impulsionnelle finie en longueur (Finite Length Impulse Res-
ponse) (FIR). Toutefois, si p  0 donc la réponse impulsionnelle est, en général, infinie en longueur et le système
est référencée comme un système à réponse impulsionnelle de longueur infinie (Infinite Length Impulse Response
System) (IIR). Par exemple si :
CHAPITRE 1. RAPPELS 5

y pnq  ay pn  1q xp nq

par conséquent la réponse au Dirac est hpnq  an upnq

Les filtres dynamiques constituent une sous classe des filtres linéaires. Ils sont caractérisés par une fonction de
transfert en p ou z ayant la forme d’une fraction rationnelle. Ceci est équivalent au fait que la relation entrée–sortie
peut être représentée par une équation différentielle à coefficients constants dans le cas continu, ou une équation
aux différences à coefficients constants dans le cas discret. Ceci est le cas de nombreux processus physiques.
–Dans le cas continu :

¸
n ¸
m
ai y piq ptq  bj xpj q ptq

i 0 
j 0
°
m
bj p j

H ppq 
j 0
°
n (1.6)
ai pi

i 0
–Dans le cas discret :

¸
n ¸
m
ai y pk  iq  bj xpk  j q

i 0 
j 0
°
bj z j
m


H pz q 
j 0
°
(1.7)
ai z i
n


i 0
Ce filtre est appelé filtre récursif (filtre R.I.I, Réponse impulsionnelle finie, signaux A.R.M.A, Auto Regressif
Moving Average). Il correspond au cas le plus général
–filtre à réponse impulsionnelle finie (R.I.F) (signaux Moving Average)

¸
m
H pz q  bj z j

j 0

(1.8)
–filtre tous pôles (b0 est le seul non nul, ai non nuls) (signaux Auto Regressif ) :AR

H pz q  °
b0
ai z i
n


i 0
(1.9)

1.4 Transformé de Fourier discrète temporelle


L’analyse fréquentielle des signaux discrets temporels et des systèmes procurent une importante analyse, un outil
de design et souvent procurent des aperçus des solutions des problèmes qui, autrement, ne peuvent pas être possibles.
L’importance centrale de l’analyse fréquentielle des signaux discrets temporels est la transformée de Fourier discrète
temporelle (Discrete Time Fourier Transform) (DTFT). La DT F T d’un signal xpnq est la fonction à valeurs
complexes de la variable continue fréquentielle ω est définie par :


X pejω q  xpnqejnω (1.10)
k 8

La transformée de Fourier à temps continu. xptq étant le signal temporel, on définit la transformée de Fourier
par :
CHAPITRE 1. RAPPELS 6

»8 »8
X pf q  xptqe2πjf t dt, xptq  X ptqe 2πjtf
df
8 8
Afin que la DT F T d’un signal soit définie, cependant, la somme de l’équation 1.7 doit converger. Une condition
suffisante pour que la somme converge uniformément vers une fonction continue de ω est que xpnq soit absolument
sommable :


|xpnq| 8 (1.11)
n 8
Bien que la majorité des signaux auront une DT F T , les signaux tel que l’échelon et l’exponentielle complexe ne
sont pas absolument sommables et par conséquent n’ont pas une DT F T . Cependant, si on permet à la DT F T de
contenir des fonctions généralisées, donc la DT F T de l’exponentielle complexe est une impulsion :

xpnq  ejnω0 ùñ X pejω q  2πu0 pω  ω0 q; |ω| π

Où u0 pω  ω0 q est utilisée pour dénoter une impulsion de fréquence ω  ω0 . De façon similaire, la DT F T de
l’échelon est :

upnq ùñ U pejω q  πu0 pω q; |ω| π


1
1  ejω
La DT F T possède quelques propriétés intéressantes de symétrie. Par exemple, puisque ejnω est périodique en
fonction de ω avec une periode de 2π, il s’ensuit que X pejω q est aussi périodique de période 2π. En plus, si xpnq est
à valeurs réelles, donc X pejω q sera conjuguée symétrique :

X pejω q  X  pejω q

La DT F T est, en général, une fonction de ω à valeurs complexes. Par conséquent, elle est représentée normale-
ment sous la forme polaire en termes de son amplitude et de sa phase :

X pejω q  |X pejω q|ejφx pωq

Pour les signaux réels, la conjuguée symétrique de X pejω q implique que l’amplitude est une fonction paire,
|X pejω q|  |X pejω q| et que la phase est une fonction impaire φx pω q  φx pω q.
La transformée de Fourier discrète temporelle ayant une spéciale importance est la DT F T de la réponse impul-
sionnelle d’un système LSI :


H pejω q  hpnqejnω (1.12)
n 8
La DT F T est appelée la réponse fréquentielle du filtre, et définie comment une exponentielle complexe est
changée en amplitude et en phase par le système. À noter que la condition de l’existence de la DT F T apportée par
l’équation 1.8 est la même que celle pour la stabilité BIBO d’un système LSI. Par conséquent, il en découle que
la DT F T de hpnq existe pour les systèmes stables BIBO.
La DT F T est une transformation inversible dans la même sens que, étant donnée la DT F T X pejω q d’un signal
xpnq, le signal peut être reconstruit en utilisant la DT F T inverse (IDT F T ) ainsi :
»π
xpnq  X pejω qejnω dω
1
(1.13)
2π π
En plus, pour se procurer une méthode qui calcule xpnq à partir de X pejω q, la IDT F T peut être aussi vue
comme la décomposition de xpnq en une combinaison linéaire d’exponentielles complexes.
Il y a un nombre de propriétés utiles et importantes de la DT F T . Peut être la plus importante parmi ces
dernières est le théoreme de convolution, qui spécifie que la DT F T de la convolution de deux signaux

y pnq  xpnq  hpnq


CHAPITRE 1. RAPPELS 7

est égal au produit des transformées

Y pejω q  X pejω qH pejω q

Une autre propriété importante est le theorème de Parseval, qui spécifie que la somme des carrés du signal xpnq,
est égale à l’intégrale des carrés de ses DT F T :

8̧ »π
|xpnq|2  2π1 |X pejω q|2 dω (1.14)
n 8 π

1.5 Transformé en z
La transformé en z est une généralisation de la DT F T qui permet à plusieurs signaux n’ayant pas de DT F T
d’être décrits par les techniques de transformation. La transformé en z d’un signal discret temporel xpnq est définie
ainsi :


X pz q  xpnqz n (1.15)
n8

Où z  rejω est une variable complexe. À noter que lorsque r  1, ou z  ejω , la transformé en z devient la
DT F T :


X pejω q  X pz q|zejω  xpnqejnω
n 8
L’opérateur z n représente un délai de n échantillons.

Comme pour la DT F T , la transformé en z est seulement définie quand la somme de l’équation 1.12 converge.
Puisque, généralement, la somme ne converge pas pour toutes les valeurs de z, associées à chaque transformé en
z une région de convergence qui définie ces valeurs de z pour lesquelles la somme converge. Pour une séquence de
longueur finie, la somme de l’équation 1.12 contient seulement un nombre fini de termes. Donc, la transformé en z
d’une séquence de longueur finie est un polynôme en z et la région de convergence va inclure toutes les valeurs de
z à l’exception de z  0 ou z  8.
En plus, une condition de symétrie qui sera intéressante au cours des discussions sur le spectre de puissance est
la suivante : Si xpnq est une séquence symétrique conjuguée :

xpnq  x pnq

donc sa transformé en z satisfait la relation :

X pz q  X  p1{z  q (1.16)

Une transformé en z ayant une spéciale importance dans le design et l’analyse des systèmes LSI est la fonction
système, qui est la transformé en z de la réponse à l’échelon :


H pz q  hpnqz n
n 8
Pour un filtre F IR décrit par une LCCDE sous la forme donnée par l’équation 1.6, la fonction du système est
un polynôme en z 1

¸
q ¹
q
H pz q  bpk qz k  bp0q p1  zk z1 q (1.17)

k 0 
k 1
CHAPITRE 1. RAPPELS 8

et les racines de ce polynôme, zk , sont appelées les zéros du filtre. A cause de la forme de H pz q des filtres F IR, ils
sont souvent référencés all–zerof ilters. Pour un filtre IIR décrit par l’équation générale aux différences apportée
par l’équation 1.5, la fonction système est un rapport de deux polynômes en z 1 :

° ±
bpk qz k p1  zk z1 q
q q

H pz q  
k 0
 bp0q  k 1
(1.18)
°p ±p
1 apk qz k p1  pk z1 q

k 1 k 1 
Les racines du polynôme numérateur, zk , sont les zéros de H pz q et les racines du polynôme dénominateur, pk ,
sont appelées les pôles. Si l’ordre du polynôme numérateur est zéro, q  0, donc :

°
q
bp0q
 bp0q
H pz q  k 0
 (1.19)
°
p ±
p
1 apk qz k p1  pk z1 q
k 1 
k 1

et H pz q est appelée un all–polef ilter.


Si les coefficients apk q et bpk q de la fonction système sont à valeurs réelles (ce qui équivaut que hpnq est à valeurs
réelles) donc :

H pz q  H  pz  q

et les pôles et les zéros de H pz q seront des paires conjuguées. C’est à dire, si H pz q a un pôle (zéro) en z  a,
donc H pz q aura aussi un pôle (zéro) en z  a .

1.6 Classes spéciales de filtres


On appelle filtre linéaire un système à la fois linéaire et invariant dans le temps. Ceci implique qu’une combinaison
linéaire d’entrées entraı̂ne la même combinaison linéaire des sorties, et de plus tout décalage temporel de l’entrée
entraı̂ne le même décalage en sortie.
Dans le domaine temporel, l’entrée et la sortie sont liées par une opération de convolution introduisant la réponse
impulsionnelle hptq dans le cas continu ou hpnq dans le cas discret. Un filtre linéaire est donc un convolueur.
Soit xptq (resp. xpnq) l’entrée du filtre et y ptq (resp. y pnq) sa sortie, nous avons alors :
–Dans le cas continu :
»8
y ptq  hptq  xptq  hpuqxpt  uqdu
8
–dans le cas discret cette relation s’écrit :

k¸ 8
y pnq  hpnq  xpnq  hpk qxpn  k q
k 8
Un filtre linéaire est un système linéaire qui admet les signaux exponentiels comme fonctions propres. Pour un
signal exponentiel à l’entrée du filtre, on obtient le même signal exponentiel en sortie multiplié par un nombre
complexe (gain du filtre, fonction de transfert). En effet la réponse à un signal sinusoı̈dal est un signal sinusoı̈dal
de même fréquence dont l’amplitude est multipliée par le gain du filtre à cette fréquence et déphasé de l’argument
de la fonction de transfert. Les relations précédentes s’écrivent aussi par passage à la transformée de Laplace, ou de
Fourier, ou en z

Y ppq  H ppqX ppq, Y pz q  H pz qX pz q,

Il y a plusieurs classes spéciales de filtres qu’on rencontrera dans les chapitres suivants. En premier lieu, sont
les filtres qui ont une phase linéaire. Ces filtres sont importants dans les applications tel que le traitement de
la parole et l’image et ont une réponse fréquentielle sous la forme :

H pejω q  Apejω qej pβ αωq (1.20)


CHAPITRE 1. RAPPELS 9

où Apejω q est une fonction à valeurs réelles de ω et α et β sont des constantes. Pour qu’un filtre
causal ait une phase linéaire et soit réalisable en utilisant une équation linéaire aux différences à
coefficients constants, le filtre doit être F IR. En plus, la condition sur la phase linéaire impose la
contrainte que la réponse impulsionnelle hpnq soit conjugée symétrique (hermitienne).

h pnq  hpN  1  nq
ou conjuguée antisymétrique (anti–hermitienne)

h pnq  hpN  1  nq
Ces contraintes, à leur tour, imposent la contrainte que les zéros de la fonction système ont lieu sous la forme
de paires conjuguées et réciproques :

H  pz  q  z N 1 H p1{z q

D’une autre façon, si H pz q a un zéro en z  z0 , donc H pz q doit aussi avoir un zéro en z  1{z0 .
Un autre filtre ayant une forme spéciale est le allpassf ilter. Les filtres allpass sont utiles pour les applications
tel que l’égalisation de phase et ont une réponse fréquentielle avec une amplitude constante :

|H pejω q|  A

Pour un filtre allpass ayant une fonction système rationnelle, H pz q doit avoir la forme de :

H pz q  z n0 A
¹
N
z 1  αk
 1  αk z
1
k 1

Par conséquent, si H pz q a un zéro (pôle) en z  αk , donc H pz q doit aussi avoir un pôle (zéro) en z  1{αk .
Finalement, un filtre stable et causal qui a une fonction système rationnelle ayant tous ses pôles
et zéros a l’intérieur du cercle unité est dit être un filtre à phase minimale. Donc, pour un filtre à
phase minimale, |zk | 1 et |pk | 1 dans l’équation 1.15. À noter qu’un filtre à phase minimale aura
un inverse stable et causal, 1{H pz q, qui sera aussi à phase minimale. Cette propriété sera utile pour le
développement du théorème de la factorisation spectrale et la dérivation du filtre causal de Wiener.

1.7 Organigramme des filtres


Une LCCDE définie un relation entre l’entrée, xpnq, et la sortie du filtre, y pnq. Pendant l’implémentation
logicielle ou matérielle du filtre, il y a plusieurs façons pour lesquelles les calculs nécessaires pour calculer la valeur
de la sortie y pnq au temps n doivent être déclarées. Par exemple, l’équation aux différences :

y pnq  0.2y pn  1q xpnq 0.5xpn  1q

et la paire d’équations couplées aux différences :

wpnq  0.2wpn  1q xpnq


y pnq  wpnq 0.5wpn  1q

sont en fait deux implementations du filtre de premier ordre IIR ayant la fonction système :

1 0.5z 1
H pz q 
1  0.2z 1
CHAPITRE 1. RAPPELS 10

Figure 1.3 – Notation canonique pour les réseaux numériques.

Figure 1.4 – structures canoniques d’un filtre du quatrième ordre IIR et d’un filtre F IR du Nième ordre.

En décrivant ces différentes implémentations du filtre, il convient d’utiliser des cartographies ou des réseaux
numériques qui montrent comment un certain système donné est réalisé en termes d’interconnexions des éléments
de base de calcul du filtre (additionneurs, multiplicateurs et retardateurs). La notation utilisée sera montrée dans
la figure 1.3.
Exemple :
Considérons le système discret temporel avec la fonction de transfert suivante :

2.4z 1 1.6z 2
H pz q 
1  1.8z 1 0.9z 2

Étant donné H pz q, l’équation aux différences de ce type est :

y pk q  2.4xpk  1q 1.6xpk  2q 1.8y pk  1q  0.9y pk  2q

1.8 DFT et FFT


La transformé de Fourier discrète DF T procure une représentation de Fourier d’un signal discret temporel qui est
utile en tant qu’outil de design et d’analyse. Toutefois, puisque la DT F T est une fonction continue de la variable ω,
elle est sensible aux calculs numériques. Pour une sequence de longueur finie, il y a une autre représentation appelée
CHAPITRE 1. RAPPELS 11

Figure 1.5 – Structure canonique d’un filtre du deuxième ordre F IR.

DF T qui est une fonction de la variable entière k, et est par conséquent facilement évaluée avec un ordinateur.
Pour une séquence xpnq de longueur finie N et qui est égale à zéro à l’extérieur de l’intervalle r0, N  1s la DF T
ayant N  points est :


N¸1
X pk q  xpnqej2πkn{N (1.21)

n 0

À noter que la DT F T de xpnq est égale à la transformé de Fourier discrète temporelle échantillonnée aux N
fréquences également espacées entre 0 et 2π :

X pk q  X pejω q|ω2πk{N (1.22)

L’inverse de la transformé de Fourier discrète pIDF T q :

N 1
1 ¸
xpnq  X pk qej2πkn{N (1.23)
N k 0

qui procure la relation exigée pour déterminer xpnq à partir des coefficients X pk q de la DF T .
À rappeler que le produit des deux DT F T des deux signaux correspondants, dans le domaine temporel, est la
convolution plineaireq des deux signaux. Pour la DF T , cependant, si H pk q et X pk q sont les DF T aux N  points
de hpnq et xpnq, respectivement, et si Y pk q  X pk qH pk q, donc :

¸
N
y pnq  xppk qqN hppn  k qqN

k 0

qui est la convolution circulaires aux N-points de xpnq et hpnq où :

xppnqqN  xpn mod N q

En général, la convolution circulaire de deux séquences n’est pas la même que la convolution linéaire. Toutefois,
il y a un cas spécial et particulier dans lequel les deux sont les mêmes. Spécialement, si xpnq est une séquence de
longueur finie N1 et hpnq une séquence finie de longueur N2 , donc, la convolution lineaire de xpnq et hpnq a une
longueur L  N1 N2  1. Dans ce cas, la convolution circulaire aux N-points de xpnq et hpnq sera égale a la
convolution linéaire procurée pour N ¥ L.

1.9 Combinaison des systèmes LTI


1.9.1 Couplage série :

Y1 psq Y psq
H1 psq  H2 psq 
X psq Y1 psq
, ,

Y psq
H psq 
X psq
 YY ppssqq . YX1ppssqq  H2 psqH1 psq  H1 psqH2 psq,
1

H psq  H1 psqH2 psq,


CHAPITRE 1. RAPPELS 12

Figure 1.6 – Systèmes en série.

1.9.2 Couplage parallèle :

Figure 1.7 – Systèmes en parallèle.

Y psq  H1 psqX psq H2 psqX psq  rH1 psq H2 psqs X psq  H psqX psq,

H psq  H1 psq H2 psq,

1.9.3 Feedback :

Figure 1.8 – Systèmes en parallèle.

Y psq  F psq rX psq GpsqY psqs X psq,

La fonction de transfert du système est :

Y psq
H psq 
X psq
 1  FFppssqqGpsq ,
À noter que nous disposons de quatre façons différentes pour représenter un système. Dans le domaine temporel,
il y a l’équation aux différences et la réponse impulsionnelle, dans le domaine fréquentiel, il y a la fonction de
transfert, et dans le domaine graphique on a le flowgraph du signal. Avec un peu de précaution, il est possible de
passer d’un domaine vers un autre.
CHAPITRE 1. RAPPELS 13

Figure 1.9 – Représentation d’un système.

s e conomie
le sd
et genieurs 2-
e
-in in
ab naux aleatoir t

la
a
s them tiqu
pr i

e
sti
is g e et des e

a
mem
ntrolab
de l es

o
tu
m

s- es

c b
un s stem

leses o
t super
le-l m
est pas

n nes

de oire
n sont

d
it u
s

el
h
et ab es les m
s

e i ho d e
e

h
ieu
u
d

i
iq

r d nstabl t
c
u

e
h

e a
t

th
e

l inform m
i

naa s
od

m en- c o ur
es h
so es
nt les bonn
Chapitre 2
Processus aléatoires à temps discret

Domaines d’application : Télécommunications. Techniques de mesures. Étude des vibrations mécaniques.


Surveillance des processus industriels. Radar. Acoustique. Reconnaissance des formes. Traitements d’images. Ana-
lyses biomédicales. Géophysique. Astronomie. etc..
Un signal déterministe ne transporte aucune information étant donné que son évolution est donnée par une
formule mathématique complètement connue. La plupart des signaux utilisés en pratique comportent une certaine
incertitude dans leurs évolutions. Cette incertitude peut dans certains cas être décrite par une loi de probabilité (
ex : gaussienne à paramètres connus ou inconnus). A titre d’exemple le signal transmis entre deux ordinateurs peut
être considéré comme un signal aléatoire pouvant prendre par exemple 2 valeurs, 0 ou 1. On pourra supposer que
les symboles 0 et 1 sont de plus équiprobables. En effet le phénomène aléatoire du signal vient du fait que l’on ne
connaı̂t pas à l’avance la succession des 0 et des 1. De plus si une telle succession était connue alors la transmission
n’aurait plus aucun intérêt puisqu’elle n’apporte pas d’information supplémentaire. Nous ne nous intéressons dans
cette présentation qu’à certaines propriétés et définitions qui nous seront utiles par la suite.

2.1 Variables aléatoires


2.1.1 définitions
Considérons le jet d’une pièce de monnaie pP  P ile, F  F aceq, si le nombre de jets NT est très grand, on
obtient :

nP
NT
 0.5; nF
NT
 0.5
La probabilité d’obtenir l’une ou l’autre des faces est la même :

P rtP u  0.5; P rtF u  0.5 (2.1)

L’ensemble de toutes les éventualités possibles est appelé l’espace des échantillons ou évènement certain, dénoté
par Ω auquel est assignée la probabilité un :

P rtΩu  1

Pour la pièce de monnaie on a :

Ω  tP, F u et P rtP, F u  1

Les sous ensembles de l’ensemble des échantillons sont appelées évènements. Et les événements constituées
d’un seul élément sont appelées événement élémentaire. Pour la pièce de monnaie, il n’y a que deux événements
élémentaires :

ω1  tP u ; ω2  tF u

14
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 15

étant donnée l’expérience du jet d’une pièce de monnaie, supposons qu’une variable à valeurs réelles est définie
de façon que la valeur 1 est attribuée a x si l’on obtient P ile et la valeur 1 si l’on obtient F ace. Grâce a cette
définition, une cartographie vient d’être établit entre l’ensemble des événements élémentaires ωi P Ω et l’ensemble
des nombres réels R.i.e, f : Ω Ñ R. Cette cartographie est donnée par :

ω1  tP u ñ x  1
ω2  tF u ñ x  1

En se basant sur les définitions attribuées pour les événements élémentaires dans l’équation 2.1, il s’ensuit
l’équipartition de la probabilité pour x d’avoir 1 ou 1 :

P rtx  1u  0.5
P rtx  1u  0.5 (2.2)

Puisque les seules possibilités pour la pièce de monnaie sont Pile ou Face, donc les seules valeurs qui peuvent
être attribuées a x sont 1 et 1. Donc, pour tout nombre α différent de 1 et 1, la probabilité pour que x  α est
égale a zéro :

P rtx  αu  0 si α  1

et la probabilité pour que x prenne l’une des deux valeurs, x  1 ou x  1 est égale a un :

P rtΩu  P rtx  1u  1

Avec l’attribution d’une probabilité pour chaque événement élémentaire dans l’espace des échantillons Ω, et
avec la cartographie de chaque événement élémentaire ωi P Ω une valeur x, une variable aléatoire est définie et
spécifiée en termes de probabilité. Plus généralement, une variable aléatoire x à laquelle sont attribuées l’une des
deux valeurs x  1 et x  1 avec :

P rtx  1u  p et P rtx  1u  1  p

est référencée comme une variable aléatoire de Bernoulli.


Une variable aléatoire légèrement plus compliquée peut être définie en remplaçant la pièce de monnaie par un
dé. Dans ce cas, la variable aléatoire x prendra l’une des valeurs comprises entre un et six.
De la même manière, une variable aléatoire complexe peut être définie en attribuant des nombres complexes aux
événements élémentaires dans l’espace des échantillons. Par exemple, avec une expérimentation qui consiste à jeter
deux dés de couleurs respectives noir et blanc, une variable aléatoire complexe est ainsi définie :

z m jn

Où m est le nombre rapporté par le dé noir et n celui du dé blanc.
Chacune des variables aléatoires précédemment considérées est un exemple de variable aléatoire discrète puisque
l’ensemble des échantillons Ω est constitué d’événements discrets ωi .
Contrairement, une variable aléatoire du type continue doit assurer la continuité des valeurs. Par exemple,
considérons une roue de roulette à résolution infinie pour laquelle tout nombre de l’intervalle r0, 1s peut être le
résultat d’un tour de la roue, pour cette expérience l’espace des échantillons est :

Ω  tω : 0 ¤ ω ¤ 1u
Si la roue est conçue de façon que tout les nombres de l’intervalle r0, 1s soient équiprobables, donc l’attribution
d’une probabilité dans Ω est construite de la manière suivante. Pour tout intervalle I  pα1 , α2 s inclut dans r0, 1s,
on défini la probabilité de l’événement ωi P I ainsi :

P rtω P I u  P rtα1 ω ¤ α2 u  α2  α1
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 16

En plus, supposons que pour les deux intervalles disjoints I1 et I2 , la probabilité du résultat soit dans I1 ou I2
est égale a la somme :

P rtω P I1 ou ω P I2 u  P rtω P I1 u P rtω P I2 u


La postulation de l’axiome de la probabilité de la somme d’événements disjoints, venait de definir une probabilité
attribuée à l’espace des échantillons qui peut être utilisée pour déterminer la probabilité de tout événement défini
sur Ω. Finalement, si le résultat de la rotation de la roue est attribué à la variable x, donc on vient de spécifier une
variable aléatoire du type continu.
En regardant de près les variables aléatoires qui avaient été considérés auparavant, on se rend
compte que pour chaque variable aléatoire il y a une expérimentation : le jet de la pièce de monnaie,
le jet du dé, ou la rotation de la roue de la roulette. À noter que la caractérisation de la variable aléatoire x est
statistique en termes de l’attribution d’une probabilité, ou loi de probabilité, définie sur les événements de l’espace
des échantillons Ω. Cette loi de probabilité est une règle qui attribue un nombre, appelé probabilité, à chaque
événement A dans l’espace des échantillons. Afin d’être une loi de probabilité valide, les trois axiomes suivants
doivent être verifiés :
1. P rpAq ¥ 0 pour chaque événement A P Ω.
2. P rpΩq  1 pour un événement certain Ω.
3. Pour tous deux événements mutuellement exclusifs A1 et A2 ,
P rpA1 Y A2 q P rpA1 X A2 q  P rpA1 q P rpA2 q

P rpA1 Y A2 Y A3 q P rpA1 X A2 X A3 q  P rpA1 q P rpA2 q P rpA3 q


P rpA1 X A2 q P rpA1 X A3 q P rpA2 X A3 q

Une fois que l’attribution d’une probabilité est définie sur les événements dans l’espace des échantillons, il est
possible de développer une description probabiliste d’une variable aléatoire x. Cette description est souvent exprimée
en termes d’une probabilité qui à x est attribué une valeur sachant que :

P rtx  1u ou P rtx ¤ 0u ou P rt0 x ¤ 1u

Figure 2.1 – Cartographie des événements élémentaires vers les points d’une ligne réelle.

- Pour chaque t, xt p q est une variable aléatoire égale à l’état du processus considéré à l’instant t.
- Pour ω fixé, x pω q est une réalisation du processus qui est fonction du temps.
- Pour t et ω fixés, xt pω q est un nombre.
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 17

Pour les applications en traitement de signal, c’est une description probabiliste de la variable
aléatoire, plutôt que la caractérisation d’une description statistique des événements dans l’espace des
échantillons. Donc, il est plus commode d’avoir une loi de probabilité qui est attribuée directement à
la variable aléatoire en–soi, plutôt qu’aux événements dans l’espace des échantillons. Pour une variable
aléatoire à valeurs réelles x, Une caractérisation statistique est la fonction de distribution de probabilité, Fx pαq
donnée par :

Fx pαq  P rtx ¤αu (2.3)

La variable aléatoire définie pour l’expérimentation de la pièce de monnaie, la fonction de la distribution de


probabilité est :
$
& 0 : α 1
Fx pαq  0.5 : 1 ¤ α 1 (2.4)
1¤α
%
1 :

qui est tracée sur la figure 2.2. À noter qu’il y a deux changements en Fx pαq, l’un en x  1 et l’autre en x  1.
Ces discontinuités de Fx pαq sont dues aux probabilités discrètes en ces points.
Une autre utile caractérisation statistique d’une variable aléatoire est la fonction densité de probabilité, fx pαq,
qui est la drivée de la fonction de distribution :

fx pαq  Fx pαq
d
(2.5)

Pour la variable aléatoire ayant la fonction de distribution donnée par l’équation 2.4, la fonction densité de
probabilité, tracée dans la figure 2.2b, est :

fx pαq  u0 pα 1q u0 pα  1q
1 1
(2.6)
2 2
Où u0 pαq est la fonction impulsion unité. Les fonctions densités contenant des impulsions sont caractéristiques
des variables aléatoires du type discret.
Pour la variable aléatoire continue définie durant l’expérience de la rotation de la roue de la roulette, la fonction
distribution de probabilité est :
$
& 0 : α 0
Fx pαq  α : 0¤α 1 (2.7)
1¤α
%
1 :

Figure 2.2 – Distributions des probabilités : (a)fonction de distribution de la variable aléatoire définie pour le jet de la pièce
de monnaie. (b)fonction densité. (c)fonction de distribution d une variable aléatoire définie pour l’expérience de la roue de roulette.
(d)fonction densité

Et la fonction densité de probabilité est :


"
0¤α¤1
fx pαq 
1 :
0 : autrement
Ces fonctions de distribution et densités sont montrées dans fig.2.2c et 2.2d, respectivement. À noter, en contraste
avec la variable aléatoire discrète, la fonction distribution de probabilité d’une variable aléatoire du type continue
est une fonction continue de α et la fonction densité est continue par morceaux.
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 18

Pour les variables aléatoires complexes, la fonction distribution ainsi définie dans l’équation 2.3 n’est pas appro-
priée puisque l’inégalité z α est dépourvu de sens quand z est un nombre complexe. Puisque la variable aléatoire
complexe z  x jy est, en essence, une paire de variables aléatoires, x et y, Les affectations de probabilité à z
sont élaborées en termes de fonctions de distribution conjointe et densité conjointe de x et y.

2.2 Moments statistiques


2.2.1 Définitions de quelques estimateurs statistiques
Considérons une variable aléatoire réelle unidimensionnelle z, on la caractérise généralement à l’aide des gran-
deurs suivantes :

2.2.1.1 valeur moyenne :


N¸1
µz  Nlim 1
Ñ8 N
z pnq, (2.8)

n 0
On notera que la valeur moyenne µz représente la composante continue du signal autour de
laquelle prennent place les fluctuations.
Ce moment correspond à la moyenne sur l’ensemble des événements possibles. Le résultat dans le cas général
est donc une fonction du temps.
–Dans le cas continu :
»
mptq  E rxptqs  xpt, ω qppω qdω,

–Dans le cas discret :

¸
l
mpnq  pi xi

i 1
Si cette moyenne ne dépend pas du temps, on dit que le signal aléatoire est stationnaire à l’ordre
1. Si la moyenne est nulle, le signal aléatoire est dit centré.
Remarque : Rappelons ici les deux propriétés principales de l’espérance mathématique
–L’espérance est linéaire :

@α, β P R, E rαx βy s  αE rxs βE ry s

–Si deux variables x et y sont indépendantes, alors :

E rxy s  E rxs.E ry s

2.2.1.2 puissance moyenne :

N¸1 
Pz  µz  Nlim
2
1
Ñ8 N
z 2 pnq, (2.9)

n 0

2.2.1.3 variance :
qui mesure la puissance des fluctuations autour de la valeur moyenne
N¸1
σz2  Nlim 1
Ñ8 N
pzpnq  µz q2
 n 0
 N¸1
 Nlim 1
Ñ8 N n0
pz2 pnq  2µz zpnq µ2z q
 µz  2µz µz
2 µ2z  µz  2µz 2
2 µ2z
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 19

qui vaut finalement

σz2  µz  µ2z
2 (2.10)

2.2.1.4 écart–type :
(ou déviation standard) défini comme la racine carrée de la variance :
a
σz  µz2  µ2z (2.11)
Sa valeur est égale à la valeur efficace des variations du signal autour de la valeur moyenne. Il est intéressant de
noter que la puissance moyenne µz2 de la variable z peut également s’écrire sous la forme

µz2  µ2z σz2 (2.12)


On voit ainsi que la puissance de la variable µz2 est égale à la puissance de sa valeur moyenne µ2z plus la puissance
de ses fluctuations σz2

2.2.2 Remarques
1. Il est intéressant de relever que si l’on considère une notation vectorielle du type :
 
z p0q
Z  rz p0q, ..., z pN  1qs,   .. 
ZT . 
z pN  1q
la puissance s’écrit simplement sous la forme d’un produit scalaire :


N¸1
Pz  N1 z 2 p nq 
1 T
zz (2.13)

n 0
N

2. De même, l’indépendance (ou la non correspondance) de deux signaux ou vecteurs peut se mesurer avec le
produit scalaire :

r  xyT  |x||y|cospθq (2.14)

Dans le cas où les signaux sont orthogonaux (c’est à dire indépendants), xT y sera nul alors que si les signaux
sont fortement dpendants (ou ressemblants), la valeur du produit xy T sera proche de 1.

2.3 Descripteurs
2.3.1 Descripteurs du premier ordre
L’éspérance ou moyenne est :

µX ptq  E tX ptqu, (2.15)


pour un signal déterministe, µX ptq est la trajectoire moyenne

2.3.2 Descripteurs du second ordre


*Un signal aléatoire X est dit du second ordre si @t, E t|X ptq|2 u 8.
*Il est uniformément du second ordre s’il existe B ¡ 0 tel que @t, E t|X ptq| u 2
B.

*Un signal aléatoire analogique du second ordre est dit continue en moyenne d’ordre 2 lorsque :
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 20

lim E t|X pt δ q  X ptq|2 u  0, (2.16)


δ Ñ0
*La Puissance instantanée :

PX ptq  E t|X ptq|2 u, (2.17)


*La Covariance :

–Dans le cas continu :

γ pt1 , t2 q  E rxpt1 qx pt2 qs  mpt1 qm pt2 q,


–Dans le cas discret :

γ pn, k q  E rxn xk s  mpnqm pk q,


*La Variance :

On définit la variance d’un signal aléatoire dans le cas continu comme dans le cas discret par :

σ 2 pxq  E rx2 s  E pxq2 (2.18)


 E rpx  E pxqq s 2

Pour un signal aléatoire centré (E pxq  0) ; la variance est alors égale à la puissance.

σ 2 p xq  E rx2 s  P

V arX ptq  E t|X ptq  µX ptq|2 u, (2.19)

2.3.3 Auto/Inter–Corrélation
*Soient X, Y deux signaux aléatoires réels. L’intercorrélation est donnée par :

RXY pt, sq  E tX ptqY psqu, (2.20)


*Soit X un signal aléatoire réel. Son auto–corrélation est donnée par :

RX pt, sq  E tX ptqX psqu, (2.21)


Ce moment correspond encore une fois à la moyenne statistique du produit de deux échantillons du signal pris
à des instants différents t1 et t2 :
–Dans le cas continu :

Rxx pt1 , t2 q  E rxpt1 qx pt2 qs,


–Dans le cas discret :

Rxx pn, k q  E rxn xk s,

On remarquera que le signal aléatoire peut prendre des valeurs complexes. Lorsque les quantités précédentes ne
dépendent que de la différence (t1  t2 ) ou (n  k) ; on dit que le signal aléatoire est stationnaire à l’ordre 2. On a
alors l’habitude de noter :

Rxx pτ q  E rxptqx pt  τ qs,


ou

Rxx piq  E rxn xni s,


Exemple :
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 21

Étant donné quatre vecteurs échantillons réels :


       
xp1q 
1
xp2q 
2 xp3q 
2
xp4q 
0
0
,
1
,
2 , 2 .
Une estimation du vecteur moyenne peut être ainsi calculée :
"       *  
m̂ 
1 ¸ pkq
K
 1 1 2 2 0
 { .
1 4
K k1
x
4 0 1 2 2 1{4

L’estimation de la matrice de corrélation est :

¸
K
R̂x  K1 xpkq pxpkq qT

k 1
"        *
 14 1   2 2  2 
2
 0  
2
0
1 0
1
1
2 2 2 0
 
 { 3{2
9 4
3{2 9{4 .
En déduire la matrice de covariance Cx
Remarque :
–Signal à temps discret :

γm,n  E rpxm  E pxm qqpxn  E pxn qqs


appelée covariance ou fonction d’autocorrélation ou encore fonction de corrélation de xn . La définition de
γm,n est donnée parfois sans les termes E pxm q et E pxn q même si la suite xn n’est pas centrée.
–Signal à temps continu :

γt1 ,t2  E rpxpt1 q  mpt1 qqpxpt2 q  mpt2 qqs


est appelée indifféremment covariance ou fonction de corrélation ou fonction d’autocorrélation de xptq. La
définition de γt1 ,t2 est donnée parfois sans les termes mpt1 q et mpt2 q même si la fonction xptq n’est pas
centrée.

2.4 Appendice
2.4.1 Résumé

(Auto)corrélation et covariance Rx  E txxT u ; Cx  E tpx  mqpx  mqT u

Symétrie Rx  RxT ; Rx  RxT

Positive, semie–définie aT Rx a ¥ 0 ; aT Cx a ¥ 0 ; @a

Interrelation Rx  Cx mx mxT

Intercorrélation et inter–covariance Rxy  E txyT u ; Cxy  E tpx  mx qpy  my qT u

Relation de Ryx et Cyx Ryx  RyxT ; Ryx  RyxT

Interrelation Rxy  Cxy mx myT

Orthogonalité et non corrélation x et y orthogonaux : Rxy r0s


x et y non corrélés : Cxy r0s

Somme de x et y si x et y orthogonaux : Rx+y  Rx Ry


si x et y non corrélés : Cx+y  Cx Cy

Table 2.1 – Définitions et propriétés des matrices de corrélation et de covariance.


CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 22

2.4.2 Variance


N¸1
V arpz q  σz2  Nlim pzpnq  µz q2
1
Ñ8 N  n 0
1

 Nlim 1
Ñ8 N n0
pz2 pnq  2µz zpnq µ2z q
 µz  2µz µz
2 µ2z  µz  2µz 2
2 µ2z

σz2  µz  µ2z
2 (2.22)

2.4.3 Covariance

Cx pk, lq  E rtxpk q  mx pk qutxplq  mx plqu s


 E rxpkqxplq s  E rxpkqmx plq s  E rmx pkqxplq s mx pkqmx plq
 rx pk, lq  mx pkqmx plq  mx pkqmx plq mx pkqmx plq
 rx pk, lq  mx pkqmx plq
Cx pk, lq  rx pk, lq  mx pk qmx plq

2.4.4 Corrélation

Rx y  E rtpx yutx yuT s


 E rxxT xyT yxT yy T s
 Rx Rxy Ryx Ry
Rx y  Rx Rxy Ryx Ry

De la même manière, la matrice de covariance pour la somme de deux vecteurs aléatoires :

Cx y  Cx Cxy Cyx Cy

Si x et y sont orthogonaux donc Rxy  Ryx  r0s, on en déduit :


Rx y  Rx Ry si x et y sont orthogonaux

De même si x et y sont non corrélées donc Cxy  Cyx  r0s, on en déduit :


Cx y  Cx Cy si x et y sont non corrélées

Cette dernière équation est la généralisation du résultat des variables aléatoires qui spécifient que :

varrx y s  varrxs varry s si x et y sont non corrélées

* La fonction de corrélation ñ Ressemblance en fonction du temps


* La DSP ñ Ressemblance en fonction de la fréquence
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 23

2.5 Moments temporels


Dans ce qui suit, nous supposerons les signaux de puissance finie. Des définitions équivalentes peuvent être
données pour des signaux d’énergie finie.

2.5.1 Moment temporel d’ordre 1 (moyenne)


–Dans le cas continu :
» T {2
xptq ¡ lim xpt, ω qdt
1
(2.23)
T Ñ8 T T {2
–Dans le cas discret :
n¸N 
xpnq ¡ lim xpn, ω q
1
(2.24)
N Ñ8 2N 1 nN

Dans le cas général, le sommation étant faite sur le temps, le résultat obtenu est normalement une variable
aléatoire dépendant de ω. Dans le cas contraire on dira que le signal est ergodique à l’ordre 1.

2.5.2 Moment temporel d’ordre 2 (fonction d’auto–corrélation temporelle)


–Dans le cas continu :
» T {2
xptqxpt  τ q ¡ lim xpt, ω qx pt  τ, ω qdt
1
(2.25)
T Ñ8 T T {2
–Dans le cas discret :
n¸N
xpnqxpn  k q ¡ lim xpn, ω qx pn  k, ω q
1
(2.26)
N Ñ8 2N 1 nN

2.6 Interprétation de la Covariance et des fonctions de Corrélation


2.6.1 Interprétation de la Covariance
Comme dans le cas d’une v.a à une dimension, la variance de la v.a X est définie par :

varpX q  E prX  E pX qs q  E rpX q s  rE pX qs


2 2 2

et on a une expression analogue pour la variable Y . Mais les grandeurs E pX q, E pY q, varpX q et varpY q ne
permettent pas de mesurer un lien éventuel pouvant exister entre X et Y . On introduit alors la nouvelle quantité,
appelée covariance de X et Y , définie par :

Cov pX, Y q  E prX  E pX qsrY  E pY qsq


On peut vérifier, directement à partir de sa définition, que l’opérateur Cov pX, Y q possède les propriétés suivantes :

Cov pX, X q  varpX q


Cov pX, Y q  Cov pY, X q
Cov pαX, βY q  αβCov pX, Y q
Cov pX, Y q  E pXY q  E pX qE pY q

L’espérance E trX aY s2 u est un polynôme de degré 2 par rapport à la variable a. Comme ce polynôme ne prend
que des valeurs non négatives lorsque a varie sur R, on peut en déduire l’inégalité suivante (Inégalité de Schwartz) :

|Cov pX, Y q|2 ¤ |CovpX, X q||CovpY, Y q|


CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 24

Cette inégalité montre que le nombre :

Cov pX, Y q
r a a  Covσ pX, Yq
varpX q varpY q σ
X Y

appelé coefficient de corrélation linéaire de pX, Y q, vérifie :

1¤r ¤1
Deux v.a X et Y sont dites non corrélées si elles vérifient la propriété suivante :

Cov pX, Y q  0

On dit aussi que les v.a sont orthogonales. Il est facile de voir que X et Y sont non corrélées si,
et seulement si, r  0. On admet que plus la valeur absolue de r est proche de 1, plus les v.a sont
corrélées. Donc plus r est proche de 0, plus les v.a sont décorrélées et elles sont orthogonales pour
r  0. Deux v.a indépendantes sont forcément non corrélées et ceci pour toute loi de probabilité.
La réciproque est fausse pour une loi de probabilité quelconque mais peut être vrai pour certaines
lois particulières comme la loi de Gauss. Cependant la non corrélation conduit au résultat suivant
important dans la pratique : si deux v.a X et Y sont non corrélées, on a pour tout couple pα, β q de
nombres réels :

varpαX βY q  α2 varpX q β 2 varpY q


Le coefficient de corrélation entre X et Y représente le cosinus de l’angle formé par les vecteurs X  E pX q et
Y  E pY q. Un coefficient de corrélation nul exclut l’existence de relation linéaire entre X et Y mais n’exclut pas
l’existence d’autres types de relations.
Dans la pratique, la notion d’indépendance est difficile à vérifier et on préfère se limiter à savoir si deux v.a sont
plus ou moins corrélées. L’étude d’un couple aléatoire se fait donc souvent, de manière incomplète, à partir de la
seule connaissance de la matrice définie par :
 
varpX q Cov pY, X q
Γ  
Cov pX, Y q varpY q

Cette matrice symétrique, dénommée matrice de covariance ou matrice de corrélation du couple aléatoire est
complètement déterminée par les moments du second ordre du couple pX, Y q.

2.6.2 Interprétation des fonctions de Corrélation


Les fonctions de corrélation normées permettent de quantifier les liens statistiques existant entre la fonction
aléatoire xpt, ω q à l’instant t et la fonction aléatoire y pt  τ, ω q à l’instant t  τ . Considérons tout d’abord deux
variables aléatoires réelles xpω q et y pω q et leur coefficient de corrélation :

rxy  E rpxpωq  mσxσqpypωq  my qs


x y

–lorsque les deux v.a sont indépendantes : rxy  0


–lorsque xpω q  αy pω q, α P R, rxy  sgnpαq
ce sont bien sûr les deux cas extrêmes. D’une façon générale, la nullité de rxy n’entraı̂ne pas
l’indépendance des variables aléatoires xpω q et y pω q sauf si celles–ci sont conjointement gaussiennes.
Toutefois, on pourra admettre en première approximation que si rxy  0, les liens statistiques entre
xpω q et y pω q sont faibles, du moins si la relation supposée est linéaire.
Considérons maintenant les fonctions aléatoires xpt, ω q et y pt, ω q, leur fonction de corrélation mutuelle normée
est :

rxy  Rxσ yσpτ q


c c

x y
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 25

rxy pτ q est l’équivalent du coefficient de corrélation rxy des deux variables aléatoires xpω q et y pω q mais cette fois
pour les deux variables aléatoires xpt, ω q et y pt  τ, ω q.
–Si rxy  0, cela signifie que les liens statistiques entre xpt, ω q et y pt  τ, ω q sont faibles. Si au
contraire |rxy pτ q|  1, on pourra considérer que les liens statistiques entre xpt, ω q et y pt  τ, ω q sont
forts.
Ceci est bien sûr vrai si y pt, ω q  xpt, ω q. Si |rx pτ q|  1, on peut considérer que xpt, ω q et xpt  τ, ω q
sont fortement (linéairement) dépendants. Si au contraire rx pτ q  0 on peut considérer qu’ils sont
peu dépendants l’un de l’autre.
–Si |rx pτ q| décroı̂t lentement lorsque τ augmente, ceci signifie que les variables aléatoires xpt, ω q
et xpt  τ, ω q sont fortement dépendantes, même pour des valeurs de τ importantes. On fait ainsi
apparaı̂tre la notion de (mémoire) du signal, liée à la largeur de la fonction de corrélation.
–Si |rx pτ q| décroı̂t rapidement vers 0 lorsque τ augmente, on pourra considérer qu’il possède une
(mémoire courte), le cas extrême étant celui du bruit blanc dont on verra qu’il possède pour fonction
de corrélation une impulsion de Dirac.

2.7 Notions de probabilités


2.7.1 Fonction de répartition et densité de probabilités
Dans le cas d’une variable aléatoire continue x, on définit la probabilité d’avoir la valeur mesurée x1 inférieure
à une valeur x donnée

P pxq  probpx1 xq (2.27)

Cette fonction porte le nom de fonction de répartition la variable x.


La probabilité d’avoir la valeur mesurée x1 comprise entre deux valeurs x et x ∆x vaut donc

P px x1 x ∆xq  P px1 x ∆xq  P px1 xq (2.28)

Cette relation permet de définir la densité de probabilité

P px1 x ∆xq
ppxq  lim
∆x Ñ0 ∆x
 dPdxpxq (2.29)

et d’en tirer la fonction de répartition


»x
P pxq  ppxqdx (2.30)
8
avec comme propriété évidente

P p8 x1 8q  P p8q  1 (2.31)

C’est la densité de probabilité qui est généralement utilisée comme modèle pour décrire la répartion des valeurs
d’une variable aléatoire. À partir de celle–ci, on peut calculer la valeur moyenne, la variance et la puissance d’une
variable x à l’aide de
» 8
µx  xppxqdx (2.32)
8
» 8
σx2  px  µx q2 ppxqdx (2.33)
8
» 8
µx2  x2 ppxqdx (2.34)
8
2.7.2 Modèles statistiques
Les modèles les plus fréquemment utilisés sont
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 26

1. la répartition uniforme entre deux valeurs extrêmes xmin et xmax

ppxq  constante   ∆x
1 1
xmax  xmin
(2.35)

2. la répartition gaussienne entre 8 et 8



?1  px 2σµ2x q
2
ppxq  exp (2.36)
2πσx x

Dans le cas fréquent de signaux à valeur moyenne nulle pµx  0q, on tire les propriétés intéressantes suivantes
 pxmax 12xmin q  ∆x
2 2
distribution unif orme : σx2
12
distribution gaussienne : P p|x| σx q  68%
P p|x| 3σx q  99.7%

On peut imaginer, suivant les applications, d’autres distributions comme par exemple la distribution exponentielle
décrite par

? |x  µx |
ppxq  ?1 exp  2
σx
(2.37)
2σx

2.8 Définitions
–définition : Un signal aléatoire est un signal qui ne se reproduit pas à l’identique lors qu’on ré-itère une
expérience dans les mêmes conditions.
Communément, la plupart du processus stochastique, mais pas toujours, représente le bruit ou la partie inconnue
et non désirée d’une mesure effectuée sur un système physique. Les processus stochastiques ou aléatoires sont ceux
qui peuvent être seulement décrits d’une façon probabiliste ou en termes de leurs prévision ou comportement en
moyenne.
La plupart des moyennes statistiques communes sont la moyenne, la variance et l’autocorrelation. Ces moyennes
sont strictement l’ensemble des moyennes à travers tous les processus possibles de sortie à travers tous les temps et
les situations typiques de ce processus.
Un seul historique temporel infini d’un processus aléatoire est appelé fonction échantillon (ou un enregistrement
d’un échantillon le long d’un intervalle de temps fini)(Bendat et Piersol 1971). La collection de toutes les fonctions
échantillon, appelée l’ensemble, est définie comme un processus aléatoire, vu qu’il couvre toute l’information possible
du processus.
Les processus aléatoires peuvent être classés en stationnaires et non stationnaires. Les processus stationnaires à
leur tour sont classés en ergodiques et non ergodiques comme le montre la figure 1.3.
* Soit (Ω, F , P) un espace probabilisé et L (Ω) l’espace des variables aléatoires sur (Ω, F , P). Un signal
aléatoire est une application :
pour les signaux analogiques X : R ÝÑ L pΩq
t ÞÝÑ X ptq
Pour les signaux numériques X : ZZ ÝÑ L pΩq
t ÞÝÑ X rts
* Par la suite on écrira X ptq indifféremment pour les signaux aléatoires analogiques ou numériques.
* Un signal aléatoire est un processus stochastique, c’est à dire l’évolution d’une variable aléatoire en fonction
du temps.
* Pour une réalisation d’un évènement ω P Ω, l’application t ÞÝÑ X rω, ts s’appelle trajectoire du signal aléatoire
X.

2.9 Signaux Stationnaires Ergodiques


Un signal aléatoire est dit strictement stationnaire à l’ordre n si ses moments statistiques sont invariants par chan-
gement de l’origine des temps. Généralement, on se restreint à l’ordre 2 (sens large). La fonction d’auto–corrélation
ne dépend donc que du retard entre les deux signaux. La stationnarité est conservée par opération stationnaire
(ex : filtrage). Un signal aléatoire est dit ergodique si les moyennes temporelles existent et sont indépendantes
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 27

de l’échantillon. Le théorème de Birkoff affirme que si un signal aléatoire est stationnaire et ergodique, alors les
moments temporels et statistiques sont gaux.

E rxptqs  xptq ¡ cste,

Rxx pt1 , t2 q  xpt1 qxpt2 q ¡ Rxx pt1  t2 q,

Exemple : le signal xptq  a.sinpω0 t φq est :

–déterministe si a, ω0 , et φ sont constants.


–aléatoire si a, ω0 sont constants et φ est aléatoire.
–si φ est équirépartie sur l’intervalle r0; 2π s, le signal aléatoire est stationnaire et ergodique.
–si φ est équirépartie sur l’intervalle r0; π s, le signal aléatoire est toujours ergodique mais non stationnaire.

Figure 2.3 – Représentation d’un ensemble de réalisations.

2.9.1 Signaux Stationnaires


Soit un ensemble d’enregistrements xptq décrivant le phénomène étudié. Les propriétés moyennes du signal
peuvent être évaluées à n’importe quel instant t1 du signal en faisant une moyenne sur l’ensemble des réalisations.
On peut ainsi évaluer la valeur moyenne, la valeur quadratique moyenne (ou carré moyen ) ou tout autre grandeur
moyenne. Si ces valeurs moyennes sont invariantes en fonction de l’instant t1 où elles sont calculées, alors on dit
que le signal est stationnaire.

2.9.2 Signaux Ergodiques


Pour la plupart des signaux stationnaires, les valeurs moyennes évaluées sur un ensemble à l’instant t1 sont égales
aux valeurs moyennes correspondantes évaluées relativement au temps à partir d’une seule réalisation xptq, où xptq
est choisie arbitrairement dans l’ensemble des réalisations et où la moyenne temporelle est évaluée sur une durée
T. Cette propriété est appelée ergodicité. Les signaux dotés de cette propriété sont dits ergodiques. Sauf mention
explicite, les signaux considérés pendant ce cours seront considérés stationnaires et ergodiques. Signal ergodique ô
Signal stationnaire + (moyenne d’ensemble = moyenne temporelle)

Selon l’approche probabiliste, les paramètres statistiques des données réelles sont obtenus à travers l’ensemble
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 28

Figure 2.4 – Moyenne d’ensemble et moyenne temporelle.

Figure 2.5 – Signaux deterministes.

Figure 2.6 – Signaux ergodiques.

des moyennes. l’estimation de tout paramètre du processus stochastique peut être obtenue en moyennant un grand
nombre de réalisations du processus considéré, à chaque instant temporel.
Toutefois, pour plusieurs applications, seulement quelques ou même un seul échantillon du processus est dispo-
nible. Pour ces situations, on a besoin d’apprendre dans quels cas les paramètres statistiques du processus peuvent
être estimés en utilisant la moyenne temporelle d’un unique échantillon (ou d’un element de l’ensemble) du proces-
sus. Ceci est évidemment non possible si le paramètre désiré varie. L’équivalence entre la moyenne de l’ensemble et
la moyenne temporelle est appelée ergodicité.
La moyenne temporelle d’un processus stationnaire considéré représenté par xpk q est calculé par :
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 29

Figure 2.7 – Signaux deterministes.

Figure 2.8 – Signaux aléatoires.

¸
N
m̂xN  2N1 1 N
xpk q
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 30

Si
2
σm̂x N
 Nlim
Ñ8
E t|m̂x  mx |2 u  0
N

(2.38)
Le processus est dit moyennement ergodique dans le sens des moindres carrés. Par conséquent, le processus
moyennement ergodique possède une moyenne temporelle qui approxime la moyenne de l’ensemble quand N Ñ 8.
Bien sur, m̂xN est une estimation non biaisée de mx puisque :

¸
N
E rm̂xN s  E rxpk qs  mx
1
2N 1 N
Par conséquent, le processus sera considéré ergodique si la variance de m̂xN tend vers 0 pσm̂
2
Ñ 0q quand
pN Ñ 8q.
xN

2
La variance σm̂x
peut être exprimée après quelques manipulations
N


¸
2N
2
σm̂xN
 2N 1
1 l2N
σx2 pk l, k q 1 
|l|
2N 1
(2.39)
Où pk l, kq est l’autocovariance du processus stochastique xpkq.
σx2
La variance de m̂xN tend vers zéro si et seulement si :

1 ¸ 2
N
lim σx pk l, k q Ñ 0
N Ñ8 N
l0

La condition précédente est nécessaire et suffisante pour garantir que le processus soit moyennement ergodique.

Le concept d’ergodicité peut être étendu aux statistiques d’ordre supérieur. En particulier, pour les statistiques
du second ordre on peut définir le processus

xl pk q  xpk lqx pk q

Où la moyenne de ce processus correspond a l’autocorrelation de xpk q,i.e., rx plq. L’ergodicité moyenne de xl pk q
implique l’ergodicité des moindres carrés de l’autocorrelation de xpk q.
La moyenne temporelle de xl pk q est donnée par :

¸
N
m̂xl ,N  2N1 1 kN
xl pk q

Ceci est une estimation non biaisée de rx plq. Si la variance de m̂xl ,N tend vers zéro quand N tend vers l’infini,
le processus xpk q est dit moindre carré ergodique de l’autocorrelation, i.e.,

lim E t|m̂xl ,N  rx plq|2 u  0


N Ñ8
La condition précédente est satisfaite si et seulement si :

1 ¸
N
lim E txpk lqx pk qxpk l iqx pk iqu  rx2 plq  0
N Ñ8 N
i 0
Ici on suppose que xpnq possède des moments stationnaires du quatrième ordre. Le concept d’ergodicité peut
être étendu aux processus non stationnaires, cependant, ceci est au–delà des possibilités de ce cours.

La notion de stationnarité et le concept d’ergodicité sont importants pour comprendre le contexte


des systèmes de l’ingénierie. La stationnarité réfère à la statistique de l’invariance temporelle, donc,
toutes les fonctions densités de probabilité associées au processus sont invariantes par rapport a une
translation temporelle.
Un processus ergodique est caractérisé par des propriétés statistiques qui peuvent être estimées à
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 31

partir des moyennes temporelles d’un seul échantillon de la fonction ou d’une réalisation. Ceci veut
dire que l’information statistique même du processus peut être déterminée en moyennant les sorties
mesurées aux différents instants (ce qui est tout a fait possible) au lieu de moyenner les différentes
sorties obtenues au même instant (strictement impossible a réaliser ou à faire). Heureusement, en
pratique, plusieurs processus dans le cadre de l’ingénierie sont en fait ergodiques et par conséquent
soumis à l’analyse mathématique.

Figure 2.9 – Exemple de processus stationnaire et Figure 2.10 – Exemple de processus non station-
ergodique. naire.

2.10 Exemple d’un signal aléatoire : le bruit blanc


2.10.1 Définition :
Un bruit blanc est un processus stationnaire au second ordre constitué d’une suite de variables aléatoires centrées
et decorrelées.
Remarque : On indique parfois l’indépendance, mais dans la plupart des situations, l’indépendance à l’ordre 2,
c’est à dire la décorrelation, suffit.
Soit bpt, ω q un tel processus.

E rbpt, ω qs  0
V arrbpt, ω qs  σb2

La decorrélation entraine pour la fonction d’autocorrélation :

E rbpt, ω qs  0
V arrbpt, ω qs  σb2
"
γb pτ q  E rbpt, ω qbpt τ, ω qs
σb2 si τ 0
0 si τ 0
Ce qui peut s’écrire de façon résumée en utilisant l’impulsion de Dirac :

γb pτ q  σb2 δ pτ q

2.10.2 Comportement temporel :


L’allure des trajectoires obtenues avec ce type de processus est bien évidemment très peu régulière, puisqu’il
est équiprobable de placer l’amplitude du signal n’importe où à chaque instant selon une probabilité réglée par la
fonction de répartition.
La distribution des amplitudes fait partie des caractéristiques principales du bruit blanc. Les figures ci–dessous
montrent une trajectoire de bruit blanc gaussien et une trajectoire de bruit blanc uniforme avec les histogrammes
des amplitudes obtenues.
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 32

Figure 2.11 – Bruit blanc Gaussien et bruit blanc uniforme.

2.10.3 Comportement fréquentiel :


Par définition, le spectre d’un signal aléatoire est la transformée de Fourier de sa fonction d’autocorréllation.
En appliquant cela, nous obtenons :
»8
Γpν q  γb pτ qeiντ dτ
8»
8
 σb2 δ pτ qeiντ dτ
8
 σb2
Ce qui signifie que toutes les fréquences sont représentées dans ce signal avec la même puissance. il n’y a pas de
fréquences privilégiées. Le modèle du bruit blanc est bien sûr théorique. Cependant il approche assez bien certains
phénomènes physiques, comme les bruits thermiques en électronique par exemple.

Figure 2.12 – Représentation spectrale d un bruit blanc.

2.11 Densité spectrale de puissance


Le théorème de Wiener–Kintchine permet d’assurer que la densité spectrale de puissance d’un signal aléatoire
de fonction autocorrélation Rxx pτ q est donnée par :
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 33

–continu :

Sxx pf q  T F rRxx pτ qs
–discret :

n¸  8
Sxx pν q  xpnqe2jπnν
n 8
La puissance du signal aléatoire stationnaire et ergodique peut être obtenue par la relation :
» T {2
P  lim xpt, ω qx pt, ω qdt
1
(2.40)
T Ñ8 T T {2
 Rxx p0q
 E r|xptq|2 s
» 8
 Sxx pf qdf
8
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 34

-hichem na
i t s am
ru de l inform
r
f

en
u
ie est controla
s

- co
de

tiq e-on jette d


r

e
e

ui donn

u
bl nt des f
q

urs signaux
sup
onnent

e e t de s m
sy les arbr l

s
e m ta b

en
amlea -
e

e
co t o s
ur em na

a -i
s
t

ur
u

n
ux
e

on je
ir e
t

s
ru igna c
sti

h
d

i
es its-h s
s t
n

at

he pierres
i
i
u
-

t
s2

lea matiques-un t
q

a
e
r
s

toi u
d
e

s p res-ingenie br
e

i r a erre
s sur l e s
Chapitre 3
Modèles paramétriques des signaux et des
systèmes

Il y a une large variété de manières pour représenter ou modéliser un signal en utilisant les outils calculatoires
du signal et des processus aléatoires. Dans ce chapitre on va considérer les modèles paramétriques dans le sens
qu’ils contiennent un certain nombre de libres paramètres qui peuvent être ajustés pour optimiser un certain critère
donné, tel que les moindres carrés ou l’erreur quadratique moyenne. Les plus simples modèles sont ceux appelés
autoregressive model (AR) et moving average (MA) qui utilisent comme paramètres libres, les coefficients
des polynômes du dénominateur et numérateur d’une fonction de transfert rationnelle qui est gouvernée par des
processus déterministes ou aléatoires.

3.1 Les modèles autoregressifs AR


Un signal discret temporel xrns est un processus autoregressif pARq d’ordre p s’il peut s’écrire sous la forme
suivante :
xrns a1 xrn  1s ... ap xrn  ps  wrns

Où a1 , a2 , ..., ap sont les paramètres du modèle pARq et le signal wrns est un bruit blanc à moyenne nulle et de
variance σ 2 , c’est à dire qu’on a : Cw rms  σ 2 δ rms. En réarrangeant l’ordre des termes dans la définition, on peut
écrire le processus autoregressif récursivement :

xrns  a1 xrn  1s  a2 xrn  2s  ...  ap xrn  ps w rns (3.1)

Ce qui montre que le processus autoregressif du pieme ordre peut s’écrire comme un combinaison linéaire des p
récentes valeurs du signal additionnée d’un terme qui est statistiquement indépendant des valeurs antérieures du
processus. On l’appelle la séquence innovatrice, et représente la nouvelle information, ou la composante imprédictible
du signal aléatoire.
Une autre façon de considérer les signaux autoregressifs est de reconnaitre que la définition du processus
représente aussi une convolution de la séquence d’entrée xrns avec les paramètres autoregressifs, de façon que
le signal de sortie soit la séquence innovatrice :

¸
p
ak xrn  k s  wrns (3.2)

k 0

Où on pose a0  1, la signification de ceci peut être comprise quand on réarrange légèrement les termes, ce qui
donne :

¸
p
xrns  ak xrn  k s  w rns (3.3)
k1
loooooooooomoooooooooon
r s
x̂ n

35
CHAPITRE 3. MODÈLES PARAMÉTRIQUES DES SIGNAUX ET DES SYSTÈMES 36

Figure 3.1 – Structure canonique d’un processus autoregressif.

dans laquelle on peut voir la sommation comme une estimation du signal xrns, déterminé par ses récents p
paramètres, on a :

xrns  x̂rns  wrns (3.4)

En écrivant le processus sous cette forme, on voit bien que la séquence xrns est plutôt unique dans le sens qu’elle
est le mieux estimée par ses récentes valeurs antérieures et ceci après avoir soustrais cette composante prédictible,
tout ceci est une séquence de bruit blanc qui est indépendant des valeurs antérieures. Le terme autoregressif provient
de la possibilité d’écrire la séquence xrns en utilisant un modèle regressif développé le long de ses valeurs antérieures,
c’est à dire en utilisant une combinaison linéaire finie de ses valeurs antérieures.
En utilisant la régression linéaire, ou le modèle autoregressif de la séquence xrns, on voit bien qu il y a une
relation entrée–sortie entre les séquences xrns et wrns, donc, on peut envisager la création de la séquence xrns par
le traitement de la séquence wrns avec un filtre linéaire invariant. Pour le moment, ignorons le fait que les séquences
xrns et wrns peuvent être aléatoires, et ne considérons que la relation entrée–sortie entre eux, on peut appliquer la
transformé en z aux deux membres de l’égalité, (en assumant pour le moment que les signaux sont déterministes
ou donnés), on obtient :

¸
p
xp z q ak z k X rz s  W rz s (3.5)


k 1
¸
p
xpz q 1 ak z k  W rz s (3.6)

k 1

 
xpz q   rs
1 W z
 (3.7)
°
p
1 ak z k

k 1

Cette relation entrée–sortie implique que l’on peut considérer la séquence xrns comme étant générée par filtrage
de la séquence wrns avec un filtre tout pôle, puisque la fonction de transfert est H pz q  X pz q{W pz q, la relation
entre X pz q et W pz q peut être écrite comme une fonction de transfert rationnelle où le polynôme numérateur est
°
ak z k (voir fig3.2).
p
donné par B pz q  1, et le polynôme dénominateur est donné par Apz q  1

k 1

Figure 3.2 – Fonction de transfert entrée–sortie d’un modèle autoregressif.


CHAPITRE 3. MODÈLES PARAMÉTRIQUES DES SIGNAUX ET DES SYSTÈMES 37

Cette interprétation de l’entrée–sortie d’un processus pARq fournit deux façons intéressantes pour envisager la
relation entrée–sortie entre les signaux xrns et wrns. Spécifiquement, on peut utiliser la relation X pz q  H pz qW pz q
pour voir que le signal xrns comme étant généré par le filtrage d–un bruit blanc wrns avec un filtre tout pôle. Ce
qui nous permet, d’une manière simple, de générer des processus aléatoires (ou des signaux déterministes) avec
un modèle spectral qui peut être contrôlé paramétriquement à travers les coefficients de Arz s. Un point de vue
alternatif survient a partir de l’écriture du signal sous la forme de la prédiction de l’erreur prévoyant qu’on a
xrns  x̂rns  wrns. En l’érivant sous cette forme, on peut considérer que le signal xrns étant filtré en utilisant
le filtre de prédiction d’erreur avec la fonction de transfert Apz q, de façon que la sortie soit le bruit blanc wrns.
Dans ce sens, la composante prédictible de xrns peut être complètement supprimée par le filtre F IR prédicteur
d’erreur de fonction de transfert Apz q, ne laissant que la séquence d’innovation, ou la composante imprédictible,
xrns  x̂rns  wrns.
L’une des applications du modèle pARq est l’utilisation du modèle paramétrique pour la prédiction de la séquence
xrns. Par exemple, quelqu’un peut tenter de prédire la prochaine valeur d’un bruit coloré avec un modèle pARq.

Figure 3.3 – Poursuite d’un bruit coloré avec un modèle AR.

Fig3.3 montre l’entrée wrns et la sortie xrns d’un filtre F IR prédicteur désigné de poursuivre (tracking) l’entrée
en utilisant seulement les valeurs antérieures (passées) de l’entrée. Le signal utilisé dans la fig3.4 est réutilisé dans
fig3.3

Figure 3.4 – Approximation d’un signal avec une constante.

Puisque le bruit coloré peut être généré par filtrage d’un bruit blanc. Donc, on s’attend à ce que l’erreur entre
les signaux prédits et mesurés sera la séquence d’un bruit blanc. Fig3.5 montre la séquence de la prédiction d’erreur,
qui en effet apparait uncorrelée d’un échantillon vers l’autre,i.e., bruit blanc.

Figure 3.5 – Prédiction d’erreur à partir de l’estimation d un bruit coloré en utilisant le modèle pARq.
CHAPITRE 3. MODÈLES PARAMÉTRIQUES DES SIGNAUX ET DES SYSTÈMES 38

3.2 Les modèles à moyenne ajustée MA


Le signal discret temporel xrns est appelé processus moving average (MA) d’ordre q s’il peut s’écrire sous la
forme :

xrns  b0 wrns b1 wrn  1s ... bq w r n  q s , (3.8)

Où b0 , b1 , ..., bq sont les paramètres du modèle MA et le signal xrns est un le processus d’un bruit blanc, i.e., on
a Cw rms  σ 2 δ rms. Étant donné que la séquence xrns peut être considérée comme une combinaison linéaire des plus
récentes valeurs de la séquence, donc on l’appelle moving average ou moyenne ajustée. À partir de cette structure,
chaque fois que la séquence xrns est considérée comme la sortie d’un filtre F IR dont l’entrée est une séquence d’un
bruit blanc, donc, on peut se référer à une séquence de moyenne ajustée. Plus généralement, même lorsque l’entrée
n’est pas une séquence d’un bruit blanc, le processus du filtrage avec un filtre F IR peut être considéré comme étant
le calcul de la moyenne ajustée de l’entrée. Les modèles financiers utilisent souvent la moyenne ajustée durant 50
jours ou 100 jours comme indicateurs des tendances des prix et indices des divers stocks. Dans le même contexte, q
 0, 1, ..., q, de façon aussi que xrns  q 1 1 ° wrn  ks,i.e.,
q
et bk sont souvent calculées de façon que bk  1{q 1, k
k0
la moyenne arithmétique des plus récentes q 1 valeurs de wrns.
En observant les relations entre les séquences xrns et wrns avec le modèle flowgraph du signal, dans fig3.6, on
constate que xrns peut être considérée comme la version filtrée par un F IR de la séquence wrns.

Figure 3.6 – Structure canonique du modèle de la moyenne ajustée.

De même, on peut aussi observer ceci dans fig3.7, grâce a la fonction de transfert de la relation entrée–sortie
entre les deux séquences.

Figure 3.7 – Fonction de transfert du modèle MA reliant x[n] et w[n].

3.3 Les modèles autoregressif à moyenne ajustée ARMA


Un signal discret temporel xrns est un processus autoregressif a moyenne ajustée (ARMA) d’ordre q, p s’il peut
s’écrire sous la forme suivante :

xrns a1 xrn  1s ... ap xrn  ps  b0 wrns b1 wrn  1s ... bq w r n  q s , (3.9)


CHAPITRE 3. MODÈLES PARAMÉTRIQUES DES SIGNAUX ET DES SYSTÈMES 39

Où a1 , ..., ap , b0 , ..., bq sont les paramètres du modèle ARMA et le signal wrns est un processus de bruit blanc,i.e.,
on a Cw rms  σ 2 δ rms. On peut encore une autre fois relier xrns et wrns à travers la relation de la fonction de
transfert, telle que :


°
bk z k
q

 k 0 
xpz q  
 °
p rs
W z (3.10)
1 ak z k

k 1

La relation d’entrée’sortie implique que l’on peut considérer la séquence xrns comme étant générée en filtrant
la séquence wrns avec une fonction rationnelle, i.e., un filtre de ”pôle zéro” avec les polynômes numérateur et
°
bk z k , et le dénominateur est
q
dénominateur d’ordre fini, où le polynôme numérateur est donné par B rz s 
k 0
°
p

donné par B rz s  1 k
ak z . Il est couramment supposé que la fonction rationnelle est ”strictement propre”, ce

k 1
qui signifie que l’ordre du numérateur est strictement inférieur à celui du dénominateur, i.e., q p. Fig3.8 et fig3.9
illustrent le flowgraph et la fonction de transfert du modèle ARMA reliant les séquences xrns et wrns.

Figure 3.8 – Structure canonique du modèle ARMA.

Figure 3.9 – Fonction de transfert du modèle ARMA reliant x[n] et w[n].


CHAPITRE 3. MODÈLES PARAMÉTRIQUES DES SIGNAUX ET DES SYSTÈMES 40

5105820974
37 94
99 32823066470

45
1
93

6 270193852 9
5

92
6

38
08

307
8841971

41 9 756659

4
7067 2148

10 4612 2
0

46095505822
42 48111745028

2
165 971 55
3 3 0 1 90 4
96442881

81 6406
664
4
37 85 3

5 96 4
8 86 7 8

2384
98

36

3.14
9164056
4

8
46
2

756 23
1

48
0

29
48 03 2
5

1
95 4 9 3
8
1

31
8
79

20 72535940812 5
1

6
9
32

2
89 3
6
9 25
35 86280348 338
5

8 64 9 793
238462
Chapitre 4
La matrice de Corrélation

Normalement, les filtres adaptatifs utilisent les signaux d’entrée disponibles à l’instant k dans leurs équations
de mise à jour. Ces entrées sont les éléments du vecteur signal d’entrée dénoté

xpk q  rx0 pk q x1 pk q ... xN pk qsT

La matrice de corrélation est définie par R  E rxpk qxH pk qs, où xH pk q est la transposition hermitienne de xpk q,
c’est à dire la transposition suivie de la conjugaison complexe et vice–versa. Quelques proprités de la matrice de
corrélation sont dues à la nature statistique du problème du filtrage adaptatif, mais les autres propriétés dérivent
de la théorie de l’algèbre.
Pour un certain vecteur d’entrée, la matrice de corrélation est définie par :


E r|x0 pk q|2 s E rx0 pk qx1 pk qs  E rx0 pk qxN pk qs
 E rx1 pk qx pk qs E r|x1 pk q|2 s  E rx1 pk qxN pk qs
R    E rxpk qx pk qs
 0  H
.. .. .. .. (4.1)
 . . . .
E rxN pk qx0 pk qs E rxN pk qx1 pk qs  E r|xN pk q|2 s

Les propriétés principales de la matrice R sont les suivantes :

4.1 Propriété 1 : La matrice R est positive semi-définie


Preuve :
Considérons un vecteur de pondération arbitraire complexe w, on peut former un signal donné par :

y pk q  wH xpk q
le carré de l’amplitude de y pk q est :

y pk qy  pk q  |y pk q|2  wH xpkqxH pkqw ¥ 0


la valeur de la moyenne quadratique pM S q de y pk q est donnée par :

M S ry pk qs  E r|y pk q|2 s  wH E rxpk qxH pk qsw  wH Rw ¥ 0

Donc, la matrice R est positive semi–définie.


D’habitude, la matrice R est positive semi–définie, à moins que les signaux qui composent le vecteur d’entrée
ne soient linéairement dépendants. En pratique, les signaux linéairement dépendants sont rarement rencontrés

4.2 Propriété 2 : La matrice R est hermitienne


Preuve :

41
CHAPITRE 4. LA MATRICE DE CORRÉLATION 42

RH  E trxpkqxH pkqsH u  E rxpkqxH pkqs  R

4.3 Propriété 3 : La matrice R est Toeplitz


Une matrice est Toeplitz si les éléments de la diagonale principale et ceux des diagonales secondaires sont égaux.
Quand le vecteur du signal d’entrée composé des versions retardées du même signal (ceci lorsque : xi pk q 
x0 pk  iq, pour i  1, 2, ..., N ) pris d’un processus W SS (wide–sense stationary), la matrice R est Toeplitz.
Preuve :
pour le vecteur du signal d’entrée composé des versions retardées, avec xpk q W SS, la matrice R possède la forme
suivante :

rx p0q rx p1q  rx pN q
 rx 1 p q rx p0q  rx pN  1q

R 

 .. .. .. ..

 (4.2)
. . . .
rx pN q rx pN 1q  rx p0q

En examinant la partie droite de cette équation, on peut facilement en déduire que la matrice R est Toeplitz. À
noter que rx piq  rx piq, ce qui s’ensuit aussi du fait que la matrice R est hermitienne.

4.4 Propriété 4 : Les valeurs propres de Rm sont λm


i , pour i=0,1,2...,N.
Preuve :
En multipliant l’équation R.q  λ.q par Rm1 , on obtient :
Rm1 Rqi  Rm1 λi .qi  λi Rm2 Rqi
 λi Rm2 λi .qi  λ2i Rm3 Rqi
 ...  λmi qi (4.3)

4.5 Propriété 5 :
Supposons que R possède N 1 vecteurs propres qi linéairement indépendants ; donc si l’on construit une
matrice Q avec les vecteurs propres qi comme colonnes, il en découle que :

λ0 0  0
0 λ1  0 
Q1 RQ  .  ..   Λ
 
.. .. (4.4)
 .. . . .
0 0  λN
Preuve :

RQ  Rrq0 q1 ... qN s  rλ0 q0 λ1 q1 ... λN qN s



λ0 0  0
0 λ1  0 
 
Q .
 ..
.. .. ..   QΛ

. . .
0 0    λN
en conclusion, puisque Q est inversible car les vecteurs qi sont linéairement indépendants, on peut montrer que :

Q1 RQ  Λ
CHAPITRE 4. LA MATRICE DE CORRÉLATION 43

4.6 Propriété 6 : Les vecteurs propres non nuls q0 q1 ... qN correspon-


dant aux valeurs propres sont linéairement indépendants
Preuve :
On se construit une combinaison linéaire des vecteurs propres telle que :

a0 q0 a1 q1 ... aN qN 0 (4.5)

en multipliant cette équation par R on obtient :

a0 Rq0 a1 Rq1 ... aN RqN  a0 λ0 q0 a1 λ1 q1 ... aN λN qN 0 (4.6)

Maintenant, en multipliant l’équation p2.5q par λN et en soustrayant le résultat de l’équation p2.6q, on obtient :

a0 pλ0  λN qq0 a1 pλ1  λN qq1 ... aN 1 pλN 1  λN qqN 1 0 (4.7)

en répétant les étapes précédentes, c’est à dire en multipliant l’équation précédente d’une part par par R et d’autre
part par λN 1 , puis en soustrayant les résultats, on obtient :

a0 pλ0  λN qpλ0  λN 1 qq0 a1 pλ1  λN qpλ1  λN 1 qq1 ... aN 2 pλN 2  λN 1 qqN 2 0 (4.8)

en répétant plusieurs fois les étapes précédentes, on aboutit à :

a0 pλ0  λN qpλ0  λN 1 q...pλ0  λ1 qq0 0 (4.9)

puisqu’on a supposé que λ0  λ1 , λ0  λ2 , ..., λ0  λN , et q0 était supposé non nul, donc a0  0. La même lignée
d’idées peut être utilisée pour montrer que a0  a1  a2  ...  aN  0 est l’unique solution de l’équation p2.5q.
En définitive, les vecteurs propres correspondants aux valeurs propres sont linéairement indépendants.

4.7 Propriété 7 : Puisque la matrice de corrélation R est hermitienne,


ses valeurs propres sont réelles. Ses valeurs propres sont supérieures
ou égales à zéro vu que la matrice R est semi-défini positive
Preuve :
Considérons un vecteur complexe arbitraire w,

pwH RwqH  wH RH pwH qH  wH Rw (4.10)

Donc, wH Rw est un nombre réel. Maintenant, supposons que λi est une valeur propre de R correspondant au
vecteur propre qi , c’est à dire Rqi  λi qi . En multipliant cette équation par qH
i , on obtient :

qH
i Rqi  λi qHi qi  λi kqi k2 (4.11)

Où l opération kak2  |a0 |2 |a1 |2 ... |aN |2 est le carré de la norme euclidienne du vecteur a, qui est toujours
positive, puisque le terme a gauche de l équation est réel, kqi k2  0, et R est semi–défini positive, on peut en
conclure que λi est réelle et non négative.
À noter que Q n’est pas unique, car chaque vecteur qi peut être multiplié par une constante non nulle, et le vecteur
résultant est aussi un vecteur propre. Pour des pratiques, on ne considère que les vecteurs propres normalisés,

qH
i qi 1 i  0, 1, ..., N (4.12)
CHAPITRE 4. LA MATRICE DE CORRÉLATION 44

4.8 Propriété 8 : Si R est une matrice hermitienne ayant différentes


valeurs propres, les vecteurs propres sont orthogonaux les uns
aux autres. En conséquence, il existe une matrice Q unitaire avec
QH Q  I
Preuve :
Étant donné deux valeurs propres λi et λj , il s’ensuit que :

Rqi  λi qi et Rqj  λj qj (4.13)

En utilisant le fait que R est hermitienne et que λi et λj sont réelles, donc :

i R  λi qi
qH H
(4.14)

En multipliant cette équation par qj , on obtient, :

qH
i Rqj  λi qHi qj (4.15)

Maintenant, en multipliant l’équation Rqj  λj qj par qHi , on obtient :


qH
i Rqj  λi qHi qj (4.16)
donc,

λi qH
i qj  λj qHi qj (4.17)

Puisque λi  λj , on en conclut facilement que :


qH
i qj 0 pour ij (4.18)

Si l’on construit la matrice Q avec les vecteurs propres normalisés, la matrice Q est une matrice unitaire.
À noter comme résultat important le fait que toute matrice hermitienne R peut être diagonalisée par une
adéquate matrice unitaire Q, meme si les valeurs propres de R ne sont pas distincts. Par conséquent, pour les
matrices hermitiennes ayant des valeurs propres qui se répètent il est toujours possible de trouver un ensemble
complet de vecteurs propres orthonormés. Une utile forme pour décomposer une matrice hermitienne qui résulte de
la propriété précédente est :

¸
N
R  QΛQH  λi qi qH
i (4.19)

i 0

Ceci est connu sous le nom de décomposition spectrale. De cette décomposition, on peut facilement déduire que :

¸
N ¸
N
wH Rw  i w 
λi wH qi qH λi |wH qi |2 (4.20)

i 0 
i 0

En plus, puisque qi  λi R1 qi , les vecteurs propres de la matrice et de son inverse coı̈ncident, par contre les
valeurs propres sont réciproques les uns aux autres. Comme conséquence :

¸
N
R1  1
qi qH
i (4.21)
i0 i
λ
CHAPITRE 4. LA MATRICE DE CORRÉLATION 45

Une autre conséquence de la propriété unitaire de Q pour les matrices hermitiennes est que toute matrice
hermitienne peut être ecrite sous la forme :
 ? H

?λ0 q0H 
a a a λ1 q1 
R  r λ0 q0 λN qN s    LL
 H
λ1 q1 ... .. (4.22)

? .
λN qH
N

4.9 Propriété 9 : La somme des valeurs propres de R est égale à la


trace de R, et le produit des valeurs propres de R est égal au
déterminant de R6 .
Preuve :

trrQ1 RQs  trrΛs (4.23)


°
Où, trrAs  aii . Puisque trrAA1 s  trrA1 As, on a :
N


i 0

¸
N
trrQ1 RQs  trrRQQ1 s  trrRIs  trrRs  λi (4.24)

i 0
On a aussi

¹
N
detrQ1 RQs  detrRsdetrQsdetrQ1 s  detrRs  detrΛs  λi (4.25)

i 0

Propriété 10 : Le quotient de Rayleigh est défini par : R  wwHRw


H
4.10 w
d’une matrice hermitienne et est borné par les valeurs propres
minimale et maximale : λmin ¤ R ¤ λmax . Où les valeur minimale
et maximale sont atteintes quand le vecteur w est choisi pour être
le vecteur propre correspondant aux valeurs propres minimale et
maximale, respectivement
Preuve :
Supposons que w  Qw1 , où Q est la matrice qui diagonalise R, donc :

w1H QH RQw1
R
w1H QH Qw1
(4.26)

w1H Λw1
 w 1H w 1
(4.27)
°
N 1 2
λi wi
 i°
0
N
(4.28)
1 2
wi

i 0

Il est alors possible de montrer que la valeur minimale de la précédente équation a lieu quand wi  0 pour i  j
avec λj étant la plus petite valeur propre. De façon identique, la valeur maximale de R a lieu quand wi  0 pour
i  l, quand λl est la plus grande valeur propre.
Il y a plusieurs façons qui définissent la norme d une matrice. La norme de la matrice R, dénoté par kRk, est définie
par :
CHAPITRE 4. LA MATRICE DE CORRÉLATION 46

2
kRk
2
 max
w 0
kRwk
2 (4.29)
kwk
wH RH Rw
 max
w0 wH w
(4.30)

À noter que la norme de R est une mesure de la croissance du vecteur w en amplitude, quand il est multiplié par
R. Quand la matrice est hermitienne, la norme de R est facilement obtenue en utilisant les résultats des équations
... Le resultat est que :

kRk  λmax (4.31)

Où λmax est la valeur propre maximale de R.


Le problème commun rencontré en filtrage adaptatif est la solution du système des équations linéaires telle que :

Rw  p (4.32)

Dans le cas où il y a une erreur au niveau du vecteur p, due à l’estimation ou la quantification, comment est
donc affectée la solution du système des équations linéaires ?

Pour une matrice R hermitienne définie positive, il peut être démontré que l’erreur relative de la solution du
système des équations linéaires est bornée par :

k∆wk
kwk
¤ λλmax k∆pk (4.33)
min kpk
Où λmax et λmin sont les valeurs propres minimale et maximale de R, respectivement. Le rapport λmax {λmin
est appelé le nombre de conditionnement de la matrice. donc :

C  λλmax  kRkkR1 k (4.34)


min

La valeur de C influence le comportement de la convergence de plusieurs algorithmes du filtrage adaptatif. Une


grande valeur de C indiques que la matrice R est mal conditionnée, et ques erreurs introduites par la manipulation
de R peuvent être largement amplifiées.
Quand C  1, la matrice est parfaitement conditionnée. Dans la cas où R représente la matrice de corrélation du
signal d’entrée d’un filtre adaptatif, avec un vecteur d’entrée composé d éléments non corrélés d’une ligne à retard,
donc C  1.

Vous aimerez peut-être aussi