Académique Documents
Professionnel Documents
Culture Documents
Hichem Naamen
6 septembre 2022
Table des matières
1 Rappels 1
1.1 Signaux temporels discrets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Systèmes temporels discrets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Linéarité et invariance temporelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Causalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.3 Stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.4 Inversibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Description dans le domaine temporel des filtres LSI . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Transformé de Fourier discrète temporelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5 Transformé en z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6 Classes spéciales de filtres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.7 Organigramme des filtres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.8 DFT et FFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.9 Combinaison des systèmes LTI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.9.1 Couplage série : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.9.2 Couplage parallèle : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.9.3 Feedback : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
i
TABLE DES MATIÈRES ii
4 La matrice de Corrélation 41
4.1 Propriété 1 : La matrice R est positive semi-définie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.2 Propriété 2 : La matrice R est hermitienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.3 Propriété 3 : La matrice R est Toeplitz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.4 Propriété 4 : Les valeurs propres de Rm sont λm i , pour i=0,1,2...,N. . . . . . . . . . . . . . . . . . . . 42
4.5 Propriété 5 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.6 Propriété 6 : Les vecteurs propres non nuls q0 q1 ... qN correspondant aux valeurs propres sont
linéairement indépendants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.7 Propriété 7 : Puisque la matrice de corrélation R est hermitienne, ses valeurs propres sont réelles.
Ses valeurs propres sont supérieures ou égales à zéro vu que la matrice R est semi-défini positive . . 43
4.8 Propriété 8 : Si R est une matrice hermitienne ayant différentes valeurs propres, les vecteurs propres
sont orthogonaux les uns aux autres. En conséquence, il existe une matrice Q unitaire avec QH Q I 44
4.9 Propriété 9 : La somme des valeurs propres de R est égale à la trace de R, et le produit des valeurs
propres de R est égal au déterminant de R6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.10 Propriété 10 : Le quotient de Rayleigh est défini par : R wwHRw
H
d’une matrice hermitienne et est
borné par les valeurs propres minimale et maximale : λmin ¤ R ¤ λmax . Où les valeur minimale et
w
maximale sont atteintes quand le vecteur w est choisi pour être le vecteur propre correspondant aux
valeurs propres minimale et maximale, respectivement . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5 Filtrage de Wiener 47
5.1 Régression linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.1.1 Mesure, modèle et écart . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.1.2 Minimisation de l’écart quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.1.3 Équations de la régression linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.2 Filtrage de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.2.1 Définition du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.2.2 Résolution au sens des moindres carrés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.2.3 Description matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.2.4 Applications du filtrage de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.3 Suppression d’une perturbation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.3.1 Filtrage de Wiener classique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.3.2 Remarque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
6 Filtrage adaptatif 56
6.1 Pourquoi du filtrage adaptatif ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.1.1 Quelques exemples : soustraction de bruit, égalisation et identification. . . . . . . . . . . . . . 56
6.1.1.1 Soustraction de bruit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.1.1.2 Egalisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.1.1.3 Identification. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
6.2 Filtrage adaptatif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
6.2.1 Algorithme récursif des moindres carrés (RLMS) . . . . . . . . . . . . . . . . . . . . . . . . . 58
6.2.2 Gain d’adaptation normalisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
TABLE DES MATIÈRES iii
7 Filtrage de Kalman 61
7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
7.1.1 Équation du processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
7.1.2 Équation de mesure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
7.2 Estimations optimales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
7.3 Notations adoptées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
7.4 Filtre de Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
Liste des tableaux
iv
Table des figures
2.1 Cartographie des événements élémentaires vers les points d’une ligne réelle. . . . . . . . . . . . . . . . . . . . . . 16
2.2 Distributions des probabilités : (a)fonction de distribution de la variable aléatoire définie pour le jet de la pièce de
monnaie. (b)fonction densité. (c)fonction de distribution d une variable aléatoire définie pour l’expérience de la roue
de roulette. (d)fonction densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3 Représentation d’un ensemble de réalisations. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.4 Moyenne d’ensemble et moyenne temporelle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.5 Signaux deterministes. . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.6 Signaux ergodiques. . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.7 Signaux deterministes. . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.8 Signaux aléatoires. . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.9 Exemple de processus stationnaire et ergodique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.10 Exemple de processus non stationnaire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.11 Bruit blanc Gaussien et bruit blanc uniforme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.12 Représentation spectrale d un bruit blanc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.1 .
Illustration des distributions uniforme, gaussienne et exponentielle. . . . . . . . . . . . . . . . . . . . . . . . . 48
5.2 Régression linéaire. . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . 48
5.3 Filtrage de Wiener. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.4 Suppression de la perturbation yp pnq. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . 53
5.5 Suppression d’une perturbation par filtrage de Wiener. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
v
TABLE DES FIGURES vi
7.1 Structure canonique représentant un système linéaire, discret dans le temps et dynamique. . . . . . . . . . . . . . 62
7.2 à posteriori, à priori, lissage et prédiction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
7.3 Lissage, filtrage et prédiction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
7.4 Estimations d’états et erreurs de covariance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
7.5 Résume du filtre de Kalman. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
7.6 Le filtre de Kalman en tant que propagation de densité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
Chapitre 1
Rappels
xpnq xa pnTs q
Cependant, tous les signaux temporels ne sont pas obtenus de cette manière. En particulier, quelques signaux
peuvent être considérés naturellement des séquences discrètes dans le temps puisqu’il n’y a pas de convertisseur phy-
sique pA{Dq capable de les convertir. À titre d’exemple de signaux qui font partie de cette catégorie, les populations
statistiques, les prix quotidiens du stock des marchés, les inventaires des entrepôts etc..
Bien que la majorité de l’information liée aux signaux à intérêt pratique sont des fonctions très compliqués du
temps, pourtant, il y a trois importants signaux discrets temporels fréquemment utilisés dans la représentation et
la description des signaux plus compliqués. Il y a le pic de Dirac, dénoté par δ pnq et défini par :
"
1: n0
δ pnq
0 : autrement
qui joue le même rôle dans le traitement du signal discret temporel que l’impulsion unitaire joue dans le traite-
ment du signal continu temporel. Le pic unitaire peut être utilisé pour décomposer un signal arbitraire xpnq en une
somme pondérée, étendue et périodique d’échantillons unitaires ainsi :
k¸ 8
xpnq xpk qδ pn k q
k 8
Cette décomposition est la version discrète de la propriété de déplacement pour les signaux continus temporels.
L’échelon, dénoté par upnq est ainsi défini :
"
1: n¥0
upnq
0 : autrement
et est relié au pic de Dirac par :
¸
n
upnq δ pk q
k 8
1
CHAPITRE 1. RAPPELS 2
"
1 : n ¤ n0
xpnq upn0 nq
0 : n ¡ n0
y pnq x2 pnq
où
y pnq 0.5y pn 1q xp nq
Cependant, il est possible de décrire un système en termes d’un algorithme qui procure une séquence d’instruc-
tions ou opérations à appliquer aux valeurs du signal d’entrée. Par exemple :
L’importance de cette propriété est mise en relief par l’observation du fait que si l’entrée est décomposée en une
superposition de pics de Dirac pondérés :
k¸ 8
xpnq xpk qδ pn k q
k 8
donc la sortie est :
k¸ 8 k¸ 8
y pnq xpk qT rδ pn k qs xpk qhk pnq
k 8 k 8
où hk pnq T rδ pn k qs est la réponse du système des pics de Dirac retardées δ pn k q. L’équation1.1 est référencée
comme la somme d’une superposition et illustre qu’un système linéaire est complètement spécifié une fois que les
signaux hk pnq sont connues.
La seconde importante propriété est l’invariance temporelle. Un système est dit invariant tem-
porellement si un décalage de l’entrée par n0 entraine un décalage de la sortie par n0 . Donc, si y pnq
est la réponse du système invariant temporellement de l’entrée xpnq, il en découle que pour tout
décalage de l’entrée, xpn n0 q, la réponse du système sera y pn n0 q. L’invariance temporelle veut dire
que les propriétés du systéme ne changent pas avec le temps.
Un système qui est à la fois linéaire et invariant temporellement est appelé (LSI : linear schift invariant)
système. Pour un système LSI, si hpnq T rδ pnqs est la réponse du Dirac δ pnq, donc la réponse de δ pn k q est
hpn k q. Par conséquent, pour un système LSI la somme apportée par l’équation1.1 devient :
k¸ 8
y pnq xpk qhpn k q (1.1)
k 8
qui est la somme convolution. Afin de simplifier la notation, la somme convolution est exprimée de la manière
suivante :
Puisque la somme convolution nous permet d’évaluer la réponse d’un système LSI d’une arbitraire entrée xpnq,
les systèmes LSI sont uniquement caractérisés par leur réponse, hpnq, d’un pic de Dirac. Ce signal est référencé
comme la réponse du système au pic de Dirac.
1.2.2 Causalité
Un système est dit causal si, pour tout n0 , la réponse du système au temps n0 ne dépend que des
valeurs de l’entrée pour n n0 . Pour un système causal il n’est pas possible aux changements de la
sortie de précéder les changements de l’entrée. Le systéme décrit par l’équation y pnq xpnq xpn 1q par
exemple est causal, par contre le système décrit par l’équation y pnq xpnq xpn 1q n’est pas causal puisque la
sortie en n n0 dépend de la valeur de l’entrée en n0 1.
Si un système est linéaire et invariant, sera causal si et seulement si hpnq 0 pour n 0,
1.2.3 Stabilité
Dans plusieurs applications, il est important pour un système d’avoir une réponse, y pnq, qui est bornée en
amplitude chaque fois que l’entrée est bornée. Un système avec cette propriété est dit être stable dans le sens d’une
entrée bornée sortie bornée BIBO. Plus prcisément, un système est BIBO stable si, pour toute entrée bornée,
|xpnq| ¤ A 8, la sortie est bornée, |y pnq| ¤ B 8. Dans la cas d’un système LSI, la stabilité est garantie une
fois que la réponse d’un pic de Dirac est absolument sommable
8̧
|hpnq| 8 (1.2)
n 8
par exemple, un système LSI avec hpnq an upnq est stable quand |a| 1
CHAPITRE 1. RAPPELS 4
1.2.4 Inversibilité
Un système est dit inversible si l’entrée du système peut être déterminée d’une façon unique par l’observation
de la sortie. Afin qu’un système soit inversible, il est nécessaire que des entrées distinctes produisent des sorties
distinctes. D’une autre manière, deux entrées quelconques x1 pnq et x2 pnq avec x1 pnq x2 pnq, il doit être vrai que
y1 pnq y2 pnq. Par exemple, le système défini par :
Définition 2 : un filtre est dit à réponse impulsionnelle finie (FIR) si celle–ci est définie sur un support borné
en temps.
Définition 3 : un filtre est dit à réponse impulsionnelle infinie (IIR) si celle–ci est définie sur un support non
borné en temps.
Autrement dit, pour un filtre pF IRq, la réponse impulsionnelle est non nulle uniquement à l’intérieur d’un in-
tervalle fermé T rt1 , t2 s, alors que pour un filtre pIIRq, l’intervalle T est infini, c’est à dire que l’on peut avoir
t1 Ñ 8, t2 Ñ 8, ou t1 Ñ 8 et t2 Ñ 8
Une classe importante de systèmes LSI sont ceux pour lesquels l’entrée xpnq et la sortie est y pnq sont reliées par
une équation linéaire aux différences à coefficients constants (LCCDE) (Linear Constant Coefficient Difference
Equation) de la forme :
¸
p ¸
q
y pnq apk qy pn k q bpk qxpn k q (1.3)
k 1
k 0
Dans cette équation aux différences, p et q sont des entiers qui déterminent l’ordre du système et ap1q, ..., appq
et bp1q, ..., bpq q sont les coefficients du filtre qui définissent le système. L’équation aux différences est souvent écrite
sous la forme :
¸
q ¸
p
y p nq bpk qxpn k q apk qy pn k q (1.4)
k 0
k 1
Ce qui montre clairement que la sortie y pnq est égale a une combinaison linéaire des valeurs antécédentes (passées)
de la sortie, y pn k q pour k 0, 1, ..., p, le long des valeurs passées et présentes, xpn k q pour k 0, 1, ..., q. Pour
le cas spécial p 0, l’equation aux différences devient :
¸
q
y pnq bpk qxpn k q (1.5)
k 0
et la sortie est simplement une somme pondérée des valeurs courantes et passées. En conséquence, la réponse
du Dirac est finie en longueur :
¸
q
hpnq bpk qδ pn k q
k 0
et le système est référencé système à réponse impulsionnelle finie en longueur (Finite Length Impulse Res-
ponse) (FIR). Toutefois, si p 0 donc la réponse impulsionnelle est, en général, infinie en longueur et le système
est référencée comme un système à réponse impulsionnelle de longueur infinie (Infinite Length Impulse Response
System) (IIR). Par exemple si :
CHAPITRE 1. RAPPELS 5
y pnq ay pn 1q xp nq
Les filtres dynamiques constituent une sous classe des filtres linéaires. Ils sont caractérisés par une fonction de
transfert en p ou z ayant la forme d’une fraction rationnelle. Ceci est équivalent au fait que la relation entrée–sortie
peut être représentée par une équation différentielle à coefficients constants dans le cas continu, ou une équation
aux différences à coefficients constants dans le cas discret. Ceci est le cas de nombreux processus physiques.
–Dans le cas continu :
¸
n ¸
m
ai y piq ptq bj xpj q ptq
i 0
j 0
°
m
bj p j
H ppq
j 0
°
n (1.6)
ai pi
i 0
–Dans le cas discret :
¸
n ¸
m
ai y pk iq bj xpk j q
i 0
j 0
°
bj z j
m
H pz q
j 0
°
(1.7)
ai z i
n
i 0
Ce filtre est appelé filtre récursif (filtre R.I.I, Réponse impulsionnelle finie, signaux A.R.M.A, Auto Regressif
Moving Average). Il correspond au cas le plus général
–filtre à réponse impulsionnelle finie (R.I.F) (signaux Moving Average)
¸
m
H pz q bj z j
j 0
(1.8)
–filtre tous pôles (b0 est le seul non nul, ai non nuls) (signaux Auto Regressif ) :AR
H pz q °
b0
ai z i
n
i 0
(1.9)
8̧
X pejω q xpnqejnω (1.10)
k 8
La transformée de Fourier à temps continu. xptq étant le signal temporel, on définit la transformée de Fourier
par :
CHAPITRE 1. RAPPELS 6
»8 »8
X pf q xptqe2πjf t dt, xptq X ptqe 2πjtf
df
8 8
Afin que la DT F T d’un signal soit définie, cependant, la somme de l’équation 1.7 doit converger. Une condition
suffisante pour que la somme converge uniformément vers une fonction continue de ω est que xpnq soit absolument
sommable :
8̧
|xpnq| 8 (1.11)
n 8
Bien que la majorité des signaux auront une DT F T , les signaux tel que l’échelon et l’exponentielle complexe ne
sont pas absolument sommables et par conséquent n’ont pas une DT F T . Cependant, si on permet à la DT F T de
contenir des fonctions généralisées, donc la DT F T de l’exponentielle complexe est une impulsion :
Où u0 pω ω0 q est utilisée pour dénoter une impulsion de fréquence ω ω0 . De façon similaire, la DT F T de
l’échelon est :
X pejω q X pejω q
La DT F T est, en général, une fonction de ω à valeurs complexes. Par conséquent, elle est représentée normale-
ment sous la forme polaire en termes de son amplitude et de sa phase :
Pour les signaux réels, la conjuguée symétrique de X pejω q implique que l’amplitude est une fonction paire,
|X pejω q| |X pejω q| et que la phase est une fonction impaire φx pω q φx pω q.
La transformée de Fourier discrète temporelle ayant une spéciale importance est la DT F T de la réponse impul-
sionnelle d’un système LSI :
8̧
H pejω q hpnqejnω (1.12)
n 8
La DT F T est appelée la réponse fréquentielle du filtre, et définie comment une exponentielle complexe est
changée en amplitude et en phase par le système. À noter que la condition de l’existence de la DT F T apportée par
l’équation 1.8 est la même que celle pour la stabilité BIBO d’un système LSI. Par conséquent, il en découle que
la DT F T de hpnq existe pour les systèmes stables BIBO.
La DT F T est une transformation inversible dans la même sens que, étant donnée la DT F T X pejω q d’un signal
xpnq, le signal peut être reconstruit en utilisant la DT F T inverse (IDT F T ) ainsi :
»π
xpnq X pejω qejnω dω
1
(1.13)
2π π
En plus, pour se procurer une méthode qui calcule xpnq à partir de X pejω q, la IDT F T peut être aussi vue
comme la décomposition de xpnq en une combinaison linéaire d’exponentielles complexes.
Il y a un nombre de propriétés utiles et importantes de la DT F T . Peut être la plus importante parmi ces
dernières est le théoreme de convolution, qui spécifie que la DT F T de la convolution de deux signaux
Une autre propriété importante est le theorème de Parseval, qui spécifie que la somme des carrés du signal xpnq,
est égale à l’intégrale des carrés de ses DT F T :
8̧ »π
|xpnq|2 2π1 |X pejω q|2 dω (1.14)
n 8 π
1.5 Transformé en z
La transformé en z est une généralisation de la DT F T qui permet à plusieurs signaux n’ayant pas de DT F T
d’être décrits par les techniques de transformation. La transformé en z d’un signal discret temporel xpnq est définie
ainsi :
8̧
X pz q xpnqz n (1.15)
n8
Où z rejω est une variable complexe. À noter que lorsque r 1, ou z ejω , la transformé en z devient la
DT F T :
8̧
X pejω q X pz q|zejω xpnqejnω
n 8
L’opérateur z n représente un délai de n échantillons.
Comme pour la DT F T , la transformé en z est seulement définie quand la somme de l’équation 1.12 converge.
Puisque, généralement, la somme ne converge pas pour toutes les valeurs de z, associées à chaque transformé en
z une région de convergence qui définie ces valeurs de z pour lesquelles la somme converge. Pour une séquence de
longueur finie, la somme de l’équation 1.12 contient seulement un nombre fini de termes. Donc, la transformé en z
d’une séquence de longueur finie est un polynôme en z et la région de convergence va inclure toutes les valeurs de
z à l’exception de z 0 ou z 8.
En plus, une condition de symétrie qui sera intéressante au cours des discussions sur le spectre de puissance est
la suivante : Si xpnq est une séquence symétrique conjuguée :
xpnq x pnq
X pz q X p1{z q (1.16)
Une transformé en z ayant une spéciale importance dans le design et l’analyse des systèmes LSI est la fonction
système, qui est la transformé en z de la réponse à l’échelon :
8̧
H pz q hpnqz n
n 8
Pour un filtre F IR décrit par une LCCDE sous la forme donnée par l’équation 1.6, la fonction du système est
un polynôme en z 1
¸
q ¹
q
H pz q bpk qz k bp0q p1 zk z1 q (1.17)
k 0
k 1
CHAPITRE 1. RAPPELS 8
et les racines de ce polynôme, zk , sont appelées les zéros du filtre. A cause de la forme de H pz q des filtres F IR, ils
sont souvent référencés all–zerof ilters. Pour un filtre IIR décrit par l’équation générale aux différences apportée
par l’équation 1.5, la fonction système est un rapport de deux polynômes en z 1 :
° ±
bpk qz k p1 zk z1 q
q q
H pz q
k 0
bp0q k 1
(1.18)
°p ±p
1 apk qz k p1 pk z1 q
k 1 k 1
Les racines du polynôme numérateur, zk , sont les zéros de H pz q et les racines du polynôme dénominateur, pk ,
sont appelées les pôles. Si l’ordre du polynôme numérateur est zéro, q 0, donc :
°
q
bp0q
bp0q
H pz q k 0
(1.19)
°
p ±
p
1 apk qz k p1 pk z1 q
k 1
k 1
H pz q H pz q
et les pôles et les zéros de H pz q seront des paires conjuguées. C’est à dire, si H pz q a un pôle (zéro) en z a,
donc H pz q aura aussi un pôle (zéro) en z a .
k¸ 8
y pnq hpnq xpnq hpk qxpn k q
k 8
Un filtre linéaire est un système linéaire qui admet les signaux exponentiels comme fonctions propres. Pour un
signal exponentiel à l’entrée du filtre, on obtient le même signal exponentiel en sortie multiplié par un nombre
complexe (gain du filtre, fonction de transfert). En effet la réponse à un signal sinusoı̈dal est un signal sinusoı̈dal
de même fréquence dont l’amplitude est multipliée par le gain du filtre à cette fréquence et déphasé de l’argument
de la fonction de transfert. Les relations précédentes s’écrivent aussi par passage à la transformée de Laplace, ou de
Fourier, ou en z
Il y a plusieurs classes spéciales de filtres qu’on rencontrera dans les chapitres suivants. En premier lieu, sont
les filtres qui ont une phase linéaire. Ces filtres sont importants dans les applications tel que le traitement de
la parole et l’image et ont une réponse fréquentielle sous la forme :
où Apejω q est une fonction à valeurs réelles de ω et α et β sont des constantes. Pour qu’un filtre
causal ait une phase linéaire et soit réalisable en utilisant une équation linéaire aux différences à
coefficients constants, le filtre doit être F IR. En plus, la condition sur la phase linéaire impose la
contrainte que la réponse impulsionnelle hpnq soit conjugée symétrique (hermitienne).
h pnq hpN 1 nq
ou conjuguée antisymétrique (anti–hermitienne)
h pnq hpN 1 nq
Ces contraintes, à leur tour, imposent la contrainte que les zéros de la fonction système ont lieu sous la forme
de paires conjuguées et réciproques :
H pz q z N 1 H p1{z q
D’une autre façon, si H pz q a un zéro en z z0 , donc H pz q doit aussi avoir un zéro en z 1{z0 .
Un autre filtre ayant une forme spéciale est le allpassf ilter. Les filtres allpass sont utiles pour les applications
tel que l’égalisation de phase et ont une réponse fréquentielle avec une amplitude constante :
|H pejω q| A
Pour un filtre allpass ayant une fonction système rationnelle, H pz q doit avoir la forme de :
H pz q z n0 A
¹
N
z 1 αk
1 αk z
1
k 1
Par conséquent, si H pz q a un zéro (pôle) en z αk , donc H pz q doit aussi avoir un pôle (zéro) en z 1{αk .
Finalement, un filtre stable et causal qui a une fonction système rationnelle ayant tous ses pôles
et zéros a l’intérieur du cercle unité est dit être un filtre à phase minimale. Donc, pour un filtre à
phase minimale, |zk | 1 et |pk | 1 dans l’équation 1.15. À noter qu’un filtre à phase minimale aura
un inverse stable et causal, 1{H pz q, qui sera aussi à phase minimale. Cette propriété sera utile pour le
développement du théorème de la factorisation spectrale et la dérivation du filtre causal de Wiener.
sont en fait deux implementations du filtre de premier ordre IIR ayant la fonction système :
1 0.5z 1
H pz q
1 0.2z 1
CHAPITRE 1. RAPPELS 10
Figure 1.4 – structures canoniques d’un filtre du quatrième ordre IIR et d’un filtre F IR du Nième ordre.
En décrivant ces différentes implémentations du filtre, il convient d’utiliser des cartographies ou des réseaux
numériques qui montrent comment un certain système donné est réalisé en termes d’interconnexions des éléments
de base de calcul du filtre (additionneurs, multiplicateurs et retardateurs). La notation utilisée sera montrée dans
la figure 1.3.
Exemple :
Considérons le système discret temporel avec la fonction de transfert suivante :
2.4z 1 1.6z 2
H pz q
1 1.8z 1 0.9z 2
DF T qui est une fonction de la variable entière k, et est par conséquent facilement évaluée avec un ordinateur.
Pour une séquence xpnq de longueur finie N et qui est égale à zéro à l’extérieur de l’intervalle r0, N 1s la DF T
ayant N points est :
N¸1
X pk q xpnqej2πkn{N (1.21)
n 0
À noter que la DT F T de xpnq est égale à la transformé de Fourier discrète temporelle échantillonnée aux N
fréquences également espacées entre 0 et 2π :
N 1
1 ¸
xpnq X pk qej2πkn{N (1.23)
N k 0
qui procure la relation exigée pour déterminer xpnq à partir des coefficients X pk q de la DF T .
À rappeler que le produit des deux DT F T des deux signaux correspondants, dans le domaine temporel, est la
convolution plineaireq des deux signaux. Pour la DF T , cependant, si H pk q et X pk q sont les DF T aux N points
de hpnq et xpnq, respectivement, et si Y pk q X pk qH pk q, donc :
¸
N
y pnq xppk qqN hppn k qqN
k 0
En général, la convolution circulaire de deux séquences n’est pas la même que la convolution linéaire. Toutefois,
il y a un cas spécial et particulier dans lequel les deux sont les mêmes. Spécialement, si xpnq est une séquence de
longueur finie N1 et hpnq une séquence finie de longueur N2 , donc, la convolution lineaire de xpnq et hpnq a une
longueur L N1 N2 1. Dans ce cas, la convolution circulaire aux N-points de xpnq et hpnq sera égale a la
convolution linéaire procurée pour N ¥ L.
Y1 psq Y psq
H1 psq H2 psq
X psq Y1 psq
, ,
Y psq
H psq
X psq
YY ppssqq . YX1ppssqq H2 psqH1 psq H1 psqH2 psq,
1
Y psq H1 psqX psq H2 psqX psq rH1 psq H2 psqs X psq H psqX psq,
1.9.3 Feedback :
Y psq
H psq
X psq
1 FFppssqqGpsq ,
À noter que nous disposons de quatre façons différentes pour représenter un système. Dans le domaine temporel,
il y a l’équation aux différences et la réponse impulsionnelle, dans le domaine fréquentiel, il y a la fonction de
transfert, et dans le domaine graphique on a le flowgraph du signal. Avec un peu de précaution, il est possible de
passer d’un domaine vers un autre.
CHAPITRE 1. RAPPELS 13
s e conomie
le sd
et genieurs 2-
e
-in in
ab naux aleatoir t
la
a
s them tiqu
pr i
e
sti
is g e et des e
a
mem
ntrolab
de l es
o
tu
m
s- es
c b
un s stem
leses o
t super
le-l m
est pas
n nes
de oire
n sont
d
it u
s
el
h
et ab es les m
s
e i ho d e
e
h
ieu
u
d
i
iq
r d nstabl t
c
u
e
h
e a
t
th
e
l inform m
i
naa s
od
m en- c o ur
es h
so es
nt les bonn
Chapitre 2
Processus aléatoires à temps discret
nP
NT
0.5; nF
NT
0.5
La probabilité d’obtenir l’une ou l’autre des faces est la même :
L’ensemble de toutes les éventualités possibles est appelé l’espace des échantillons ou évènement certain, dénoté
par Ω auquel est assignée la probabilité un :
P rtΩu 1
Ω tP, F u et P rtP, F u 1
Les sous ensembles de l’ensemble des échantillons sont appelées évènements. Et les événements constituées
d’un seul élément sont appelées événement élémentaire. Pour la pièce de monnaie, il n’y a que deux événements
élémentaires :
ω1 tP u ; ω2 tF u
14
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 15
étant donnée l’expérience du jet d’une pièce de monnaie, supposons qu’une variable à valeurs réelles est définie
de façon que la valeur 1 est attribuée a x si l’on obtient P ile et la valeur 1 si l’on obtient F ace. Grâce a cette
définition, une cartographie vient d’être établit entre l’ensemble des événements élémentaires ωi P Ω et l’ensemble
des nombres réels R.i.e, f : Ω Ñ R. Cette cartographie est donnée par :
ω1 tP u ñ x 1
ω2 tF u ñ x 1
En se basant sur les définitions attribuées pour les événements élémentaires dans l’équation 2.1, il s’ensuit
l’équipartition de la probabilité pour x d’avoir 1 ou 1 :
P rtx 1u 0.5
P rtx 1u 0.5 (2.2)
Puisque les seules possibilités pour la pièce de monnaie sont Pile ou Face, donc les seules valeurs qui peuvent
être attribuées a x sont 1 et 1. Donc, pour tout nombre α différent de 1 et 1, la probabilité pour que x α est
égale a zéro :
P rtx αu 0 si α 1
et la probabilité pour que x prenne l’une des deux valeurs, x 1 ou x 1 est égale a un :
Avec l’attribution d’une probabilité pour chaque événement élémentaire dans l’espace des échantillons Ω, et
avec la cartographie de chaque événement élémentaire ωi P Ω une valeur x, une variable aléatoire est définie et
spécifiée en termes de probabilité. Plus généralement, une variable aléatoire x à laquelle sont attribuées l’une des
deux valeurs x 1 et x 1 avec :
z m jn
Où m est le nombre rapporté par le dé noir et n celui du dé blanc.
Chacune des variables aléatoires précédemment considérées est un exemple de variable aléatoire discrète puisque
l’ensemble des échantillons Ω est constitué d’événements discrets ωi .
Contrairement, une variable aléatoire du type continue doit assurer la continuité des valeurs. Par exemple,
considérons une roue de roulette à résolution infinie pour laquelle tout nombre de l’intervalle r0, 1s peut être le
résultat d’un tour de la roue, pour cette expérience l’espace des échantillons est :
Ω tω : 0 ¤ ω ¤ 1u
Si la roue est conçue de façon que tout les nombres de l’intervalle r0, 1s soient équiprobables, donc l’attribution
d’une probabilité dans Ω est construite de la manière suivante. Pour tout intervalle I pα1 , α2 s inclut dans r0, 1s,
on défini la probabilité de l’événement ωi P I ainsi :
P rtω P I u P rtα1 ω ¤ α2 u α2 α1
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 16
En plus, supposons que pour les deux intervalles disjoints I1 et I2 , la probabilité du résultat soit dans I1 ou I2
est égale a la somme :
Une fois que l’attribution d’une probabilité est définie sur les événements dans l’espace des échantillons, il est
possible de développer une description probabiliste d’une variable aléatoire x. Cette description est souvent exprimée
en termes d’une probabilité qui à x est attribué une valeur sachant que :
Figure 2.1 – Cartographie des événements élémentaires vers les points d’une ligne réelle.
- Pour chaque t, xt p q est une variable aléatoire égale à l’état du processus considéré à l’instant t.
- Pour ω fixé, x pω q est une réalisation du processus qui est fonction du temps.
- Pour t et ω fixés, xt pω q est un nombre.
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 17
Pour les applications en traitement de signal, c’est une description probabiliste de la variable
aléatoire, plutôt que la caractérisation d’une description statistique des événements dans l’espace des
échantillons. Donc, il est plus commode d’avoir une loi de probabilité qui est attribuée directement à
la variable aléatoire en–soi, plutôt qu’aux événements dans l’espace des échantillons. Pour une variable
aléatoire à valeurs réelles x, Une caractérisation statistique est la fonction de distribution de probabilité, Fx pαq
donnée par :
qui est tracée sur la figure 2.2. À noter qu’il y a deux changements en Fx pαq, l’un en x 1 et l’autre en x 1.
Ces discontinuités de Fx pαq sont dues aux probabilités discrètes en ces points.
Une autre utile caractérisation statistique d’une variable aléatoire est la fonction densité de probabilité, fx pαq,
qui est la drivée de la fonction de distribution :
fx pαq Fx pαq
d
(2.5)
dα
Pour la variable aléatoire ayant la fonction de distribution donnée par l’équation 2.4, la fonction densité de
probabilité, tracée dans la figure 2.2b, est :
fx pαq u0 pα 1q u0 pα 1q
1 1
(2.6)
2 2
Où u0 pαq est la fonction impulsion unité. Les fonctions densités contenant des impulsions sont caractéristiques
des variables aléatoires du type discret.
Pour la variable aléatoire continue définie durant l’expérience de la rotation de la roue de la roulette, la fonction
distribution de probabilité est :
$
& 0 : α 0
Fx pαq α : 0¤α 1 (2.7)
1¤α
%
1 :
Figure 2.2 – Distributions des probabilités : (a)fonction de distribution de la variable aléatoire définie pour le jet de la pièce
de monnaie. (b)fonction densité. (c)fonction de distribution d une variable aléatoire définie pour l’expérience de la roue de roulette.
(d)fonction densité
Pour les variables aléatoires complexes, la fonction distribution ainsi définie dans l’équation 2.3 n’est pas appro-
priée puisque l’inégalité z α est dépourvu de sens quand z est un nombre complexe. Puisque la variable aléatoire
complexe z x jy est, en essence, une paire de variables aléatoires, x et y, Les affectations de probabilité à z
sont élaborées en termes de fonctions de distribution conjointe et densité conjointe de x et y.
N¸1
µz Nlim 1
Ñ8 N
z pnq, (2.8)
n 0
On notera que la valeur moyenne µz représente la composante continue du signal autour de
laquelle prennent place les fluctuations.
Ce moment correspond à la moyenne sur l’ensemble des événements possibles. Le résultat dans le cas général
est donc une fonction du temps.
–Dans le cas continu :
»
mptq E rxptqs xpt, ω qppω qdω,
Ω
–Dans le cas discret :
¸
l
mpnq pi xi
i 1
Si cette moyenne ne dépend pas du temps, on dit que le signal aléatoire est stationnaire à l’ordre
1. Si la moyenne est nulle, le signal aléatoire est dit centré.
Remarque : Rappelons ici les deux propriétés principales de l’espérance mathématique
–L’espérance est linéaire :
E rxy s E rxs.E ry s
N¸1
Pz µz Nlim
2
1
Ñ8 N
z 2 pnq, (2.9)
n 0
2.2.1.3 variance :
qui mesure la puissance des fluctuations autour de la valeur moyenne
N¸1
σz2 Nlim 1
Ñ8 N
pzpnq µz q2
n 0
N¸1
Nlim 1
Ñ8 N n0
pz2 pnq 2µz zpnq µ2z q
µz 2µz µz
2 µ2z µz 2µz 2
2 µ2z
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 19
σz2 µz µ2z
2 (2.10)
2.2.1.4 écart–type :
(ou déviation standard) défini comme la racine carrée de la variance :
a
σz µz2 µ2z (2.11)
Sa valeur est égale à la valeur efficace des variations du signal autour de la valeur moyenne. Il est intéressant de
noter que la puissance moyenne µz2 de la variable z peut également s’écrire sous la forme
2.2.2 Remarques
1. Il est intéressant de relever que si l’on considère une notation vectorielle du type :
z p0q
Z rz p0q, ..., z pN 1qs, ..
ZT .
z pN 1q
la puissance s’écrit simplement sous la forme d’un produit scalaire :
N¸1
Pz N1 z 2 p nq
1 T
zz (2.13)
n 0
N
2. De même, l’indépendance (ou la non correspondance) de deux signaux ou vecteurs peut se mesurer avec le
produit scalaire :
Dans le cas où les signaux sont orthogonaux (c’est à dire indépendants), xT y sera nul alors que si les signaux
sont fortement dpendants (ou ressemblants), la valeur du produit xy T sera proche de 1.
2.3 Descripteurs
2.3.1 Descripteurs du premier ordre
L’éspérance ou moyenne est :
*Un signal aléatoire analogique du second ordre est dit continue en moyenne d’ordre 2 lorsque :
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 20
On définit la variance d’un signal aléatoire dans le cas continu comme dans le cas discret par :
Pour un signal aléatoire centré (E pxq 0) ; la variance est alors égale à la puissance.
σ 2 p xq E rx2 s P
2.3.3 Auto/Inter–Corrélation
*Soient X, Y deux signaux aléatoires réels. L’intercorrélation est donnée par :
On remarquera que le signal aléatoire peut prendre des valeurs complexes. Lorsque les quantités précédentes ne
dépendent que de la différence (t1 t2 ) ou (n k) ; on dit que le signal aléatoire est stationnaire à l’ordre 2. On a
alors l’habitude de noter :
¸
K
R̂x K1 xpkq pxpkq qT
k 1
" *
14 1 2 2 2
2
0
2
0
1 0
1
1
2 2 2 0
{ 3{2
9 4
3{2 9{4 .
En déduire la matrice de covariance Cx
Remarque :
–Signal à temps discret :
2.4 Appendice
2.4.1 Résumé
Interrelation Rx Cx mx mxT
2.4.2 Variance
N¸1
V arpz q σz2 Nlim pzpnq µz q2
1
Ñ8 N n 0
1
N¸
Nlim 1
Ñ8 N n0
pz2 pnq 2µz zpnq µ2z q
µz 2µz µz
2 µ2z µz 2µz 2
2 µ2z
σz2 µz µ2z
2 (2.22)
2.4.3 Covariance
2.4.4 Corrélation
Cx y Cx Cxy Cyx Cy
Cette dernière équation est la généralisation du résultat des variables aléatoires qui spécifient que :
Dans le cas général, le sommation étant faite sur le temps, le résultat obtenu est normalement une variable
aléatoire dépendant de ω. Dans le cas contraire on dira que le signal est ergodique à l’ordre 1.
et on a une expression analogue pour la variable Y . Mais les grandeurs E pX q, E pY q, varpX q et varpY q ne
permettent pas de mesurer un lien éventuel pouvant exister entre X et Y . On introduit alors la nouvelle quantité,
appelée covariance de X et Y , définie par :
L’espérance E trX aY s2 u est un polynôme de degré 2 par rapport à la variable a. Comme ce polynôme ne prend
que des valeurs non négatives lorsque a varie sur R, on peut en déduire l’inégalité suivante (Inégalité de Schwartz) :
Cov pX, Y q
r a a Covσ pX, Yq
varpX q varpY q σ
X Y
1¤r ¤1
Deux v.a X et Y sont dites non corrélées si elles vérifient la propriété suivante :
Cov pX, Y q 0
On dit aussi que les v.a sont orthogonales. Il est facile de voir que X et Y sont non corrélées si,
et seulement si, r 0. On admet que plus la valeur absolue de r est proche de 1, plus les v.a sont
corrélées. Donc plus r est proche de 0, plus les v.a sont décorrélées et elles sont orthogonales pour
r 0. Deux v.a indépendantes sont forcément non corrélées et ceci pour toute loi de probabilité.
La réciproque est fausse pour une loi de probabilité quelconque mais peut être vrai pour certaines
lois particulières comme la loi de Gauss. Cependant la non corrélation conduit au résultat suivant
important dans la pratique : si deux v.a X et Y sont non corrélées, on a pour tout couple pα, β q de
nombres réels :
Cette matrice symétrique, dénommée matrice de covariance ou matrice de corrélation du couple aléatoire est
complètement déterminée par les moments du second ordre du couple pX, Y q.
x y
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 25
rxy pτ q est l’équivalent du coefficient de corrélation rxy des deux variables aléatoires xpω q et y pω q mais cette fois
pour les deux variables aléatoires xpt, ω q et y pt τ, ω q.
–Si rxy 0, cela signifie que les liens statistiques entre xpt, ω q et y pt τ, ω q sont faibles. Si au
contraire |rxy pτ q| 1, on pourra considérer que les liens statistiques entre xpt, ω q et y pt τ, ω q sont
forts.
Ceci est bien sûr vrai si y pt, ω q xpt, ω q. Si |rx pτ q| 1, on peut considérer que xpt, ω q et xpt τ, ω q
sont fortement (linéairement) dépendants. Si au contraire rx pτ q 0 on peut considérer qu’ils sont
peu dépendants l’un de l’autre.
–Si |rx pτ q| décroı̂t lentement lorsque τ augmente, ceci signifie que les variables aléatoires xpt, ω q
et xpt τ, ω q sont fortement dépendantes, même pour des valeurs de τ importantes. On fait ainsi
apparaı̂tre la notion de (mémoire) du signal, liée à la largeur de la fonction de corrélation.
–Si |rx pτ q| décroı̂t rapidement vers 0 lorsque τ augmente, on pourra considérer qu’il possède une
(mémoire courte), le cas extrême étant celui du bruit blanc dont on verra qu’il possède pour fonction
de corrélation une impulsion de Dirac.
P px1 x ∆xq
ppxq lim
∆x Ñ0 ∆x
dPdxpxq (2.29)
C’est la densité de probabilité qui est généralement utilisée comme modèle pour décrire la répartion des valeurs
d’une variable aléatoire. À partir de celle–ci, on peut calculer la valeur moyenne, la variance et la puissance d’une
variable x à l’aide de
» 8
µx xppxqdx (2.32)
8
» 8
σx2 px µx q2 ppxqdx (2.33)
8
» 8
µx2 x2 ppxqdx (2.34)
8
2.7.2 Modèles statistiques
Les modèles les plus fréquemment utilisés sont
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 26
ppxq constante ∆x
1 1
xmax xmin
(2.35)
Dans le cas fréquent de signaux à valeur moyenne nulle pµx 0q, on tire les propriétés intéressantes suivantes
pxmax 12xmin q ∆x
2 2
distribution unif orme : σx2
12
distribution gaussienne : P p|x| σx q 68%
P p|x| 3σx q 99.7%
On peut imaginer, suivant les applications, d’autres distributions comme par exemple la distribution exponentielle
décrite par
? |x µx |
ppxq ?1 exp 2
σx
(2.37)
2σx
2.8 Définitions
–définition : Un signal aléatoire est un signal qui ne se reproduit pas à l’identique lors qu’on ré-itère une
expérience dans les mêmes conditions.
Communément, la plupart du processus stochastique, mais pas toujours, représente le bruit ou la partie inconnue
et non désirée d’une mesure effectuée sur un système physique. Les processus stochastiques ou aléatoires sont ceux
qui peuvent être seulement décrits d’une façon probabiliste ou en termes de leurs prévision ou comportement en
moyenne.
La plupart des moyennes statistiques communes sont la moyenne, la variance et l’autocorrelation. Ces moyennes
sont strictement l’ensemble des moyennes à travers tous les processus possibles de sortie à travers tous les temps et
les situations typiques de ce processus.
Un seul historique temporel infini d’un processus aléatoire est appelé fonction échantillon (ou un enregistrement
d’un échantillon le long d’un intervalle de temps fini)(Bendat et Piersol 1971). La collection de toutes les fonctions
échantillon, appelée l’ensemble, est définie comme un processus aléatoire, vu qu’il couvre toute l’information possible
du processus.
Les processus aléatoires peuvent être classés en stationnaires et non stationnaires. Les processus stationnaires à
leur tour sont classés en ergodiques et non ergodiques comme le montre la figure 1.3.
* Soit (Ω, F , P) un espace probabilisé et L (Ω) l’espace des variables aléatoires sur (Ω, F , P). Un signal
aléatoire est une application :
pour les signaux analogiques X : R ÝÑ L pΩq
t ÞÝÑ X ptq
Pour les signaux numériques X : ZZ ÝÑ L pΩq
t ÞÝÑ X rts
* Par la suite on écrira X ptq indifféremment pour les signaux aléatoires analogiques ou numériques.
* Un signal aléatoire est un processus stochastique, c’est à dire l’évolution d’une variable aléatoire en fonction
du temps.
* Pour une réalisation d’un évènement ω P Ω, l’application t ÞÝÑ X rω, ts s’appelle trajectoire du signal aléatoire
X.
de l’échantillon. Le théorème de Birkoff affirme que si un signal aléatoire est stationnaire et ergodique, alors les
moments temporels et statistiques sont gaux.
Selon l’approche probabiliste, les paramètres statistiques des données réelles sont obtenus à travers l’ensemble
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 28
des moyennes. l’estimation de tout paramètre du processus stochastique peut être obtenue en moyennant un grand
nombre de réalisations du processus considéré, à chaque instant temporel.
Toutefois, pour plusieurs applications, seulement quelques ou même un seul échantillon du processus est dispo-
nible. Pour ces situations, on a besoin d’apprendre dans quels cas les paramètres statistiques du processus peuvent
être estimés en utilisant la moyenne temporelle d’un unique échantillon (ou d’un element de l’ensemble) du proces-
sus. Ceci est évidemment non possible si le paramètre désiré varie. L’équivalence entre la moyenne de l’ensemble et
la moyenne temporelle est appelée ergodicité.
La moyenne temporelle d’un processus stationnaire considéré représenté par xpk q est calculé par :
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 29
¸
N
m̂xN 2N1 1 N
xpk q
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 30
Si
2
σm̂x N
Nlim
Ñ8
E t|m̂x mx |2 u 0
N
(2.38)
Le processus est dit moyennement ergodique dans le sens des moindres carrés. Par conséquent, le processus
moyennement ergodique possède une moyenne temporelle qui approxime la moyenne de l’ensemble quand N Ñ 8.
Bien sur, m̂xN est une estimation non biaisée de mx puisque :
¸
N
E rm̂xN s E rxpk qs mx
1
2N 1 N
Par conséquent, le processus sera considéré ergodique si la variance de m̂xN tend vers 0 pσm̂
2
Ñ 0q quand
pN Ñ 8q.
xN
2
La variance σm̂x
peut être exprimée après quelques manipulations
N
¸
2N
2
σm̂xN
2N 1
1 l2N
σx2 pk l, k q 1
|l|
2N 1
(2.39)
Où pk l, kq est l’autocovariance du processus stochastique xpkq.
σx2
La variance de m̂xN tend vers zéro si et seulement si :
1 ¸ 2
N
lim σx pk l, k q Ñ 0
N Ñ8 N
l0
La condition précédente est nécessaire et suffisante pour garantir que le processus soit moyennement ergodique.
Le concept d’ergodicité peut être étendu aux statistiques d’ordre supérieur. En particulier, pour les statistiques
du second ordre on peut définir le processus
xl pk q xpk lqx pk q
Où la moyenne de ce processus correspond a l’autocorrelation de xpk q,i.e., rx plq. L’ergodicité moyenne de xl pk q
implique l’ergodicité des moindres carrés de l’autocorrelation de xpk q.
La moyenne temporelle de xl pk q est donnée par :
¸
N
m̂xl ,N 2N1 1 kN
xl pk q
Ceci est une estimation non biaisée de rx plq. Si la variance de m̂xl ,N tend vers zéro quand N tend vers l’infini,
le processus xpk q est dit moindre carré ergodique de l’autocorrelation, i.e.,
1 ¸
N
lim E txpk lqx pk qxpk l iqx pk iqu rx2 plq 0
N Ñ8 N
i 0
Ici on suppose que xpnq possède des moments stationnaires du quatrième ordre. Le concept d’ergodicité peut
être étendu aux processus non stationnaires, cependant, ceci est au–delà des possibilités de ce cours.
partir des moyennes temporelles d’un seul échantillon de la fonction ou d’une réalisation. Ceci veut
dire que l’information statistique même du processus peut être déterminée en moyennant les sorties
mesurées aux différents instants (ce qui est tout a fait possible) au lieu de moyenner les différentes
sorties obtenues au même instant (strictement impossible a réaliser ou à faire). Heureusement, en
pratique, plusieurs processus dans le cadre de l’ingénierie sont en fait ergodiques et par conséquent
soumis à l’analyse mathématique.
Figure 2.9 – Exemple de processus stationnaire et Figure 2.10 – Exemple de processus non station-
ergodique. naire.
E rbpt, ω qs 0
V arrbpt, ω qs σb2
E rbpt, ω qs 0
V arrbpt, ω qs σb2
"
γb pτ q E rbpt, ω qbpt τ, ω qs
σb2 si τ 0
0 si τ 0
Ce qui peut s’écrire de façon résumée en utilisant l’impulsion de Dirac :
γb pτ q σb2 δ pτ q
–continu :
Sxx pf q T F rRxx pτ qs
–discret :
n¸ 8
Sxx pν q xpnqe2jπnν
n 8
La puissance du signal aléatoire stationnaire et ergodique peut être obtenue par la relation :
» T {2
P lim xpt, ω qx pt, ω qdt
1
(2.40)
T Ñ8 T T {2
Rxx p0q
E r|xptq|2 s
» 8
Sxx pf qdf
8
CHAPITRE 2. PROCESSUS ALÉATOIRES À TEMPS DISCRET 34
-hichem na
i t s am
ru de l inform
r
f
en
u
ie est controla
s
- co
de
e
e
ui donn
u
bl nt des f
q
urs signaux
sup
onnent
e e t de s m
sy les arbr l
s
e m ta b
en
amlea -
e
e
co t o s
ur em na
a -i
s
t
ur
u
n
ux
e
on je
ir e
t
s
ru igna c
sti
h
d
i
es its-h s
s t
n
at
he pierres
i
i
u
-
t
s2
lea matiques-un t
q
a
e
r
s
toi u
d
e
s p res-ingenie br
e
i r a erre
s sur l e s
Chapitre 3
Modèles paramétriques des signaux et des
systèmes
Il y a une large variété de manières pour représenter ou modéliser un signal en utilisant les outils calculatoires
du signal et des processus aléatoires. Dans ce chapitre on va considérer les modèles paramétriques dans le sens
qu’ils contiennent un certain nombre de libres paramètres qui peuvent être ajustés pour optimiser un certain critère
donné, tel que les moindres carrés ou l’erreur quadratique moyenne. Les plus simples modèles sont ceux appelés
autoregressive model (AR) et moving average (MA) qui utilisent comme paramètres libres, les coefficients
des polynômes du dénominateur et numérateur d’une fonction de transfert rationnelle qui est gouvernée par des
processus déterministes ou aléatoires.
Où a1 , a2 , ..., ap sont les paramètres du modèle pARq et le signal wrns est un bruit blanc à moyenne nulle et de
variance σ 2 , c’est à dire qu’on a : Cw rms σ 2 δ rms. En réarrangeant l’ordre des termes dans la définition, on peut
écrire le processus autoregressif récursivement :
Ce qui montre que le processus autoregressif du pieme ordre peut s’écrire comme un combinaison linéaire des p
récentes valeurs du signal additionnée d’un terme qui est statistiquement indépendant des valeurs antérieures du
processus. On l’appelle la séquence innovatrice, et représente la nouvelle information, ou la composante imprédictible
du signal aléatoire.
Une autre façon de considérer les signaux autoregressifs est de reconnaitre que la définition du processus
représente aussi une convolution de la séquence d’entrée xrns avec les paramètres autoregressifs, de façon que
le signal de sortie soit la séquence innovatrice :
¸
p
ak xrn k s wrns (3.2)
k 0
Où on pose a0 1, la signification de ceci peut être comprise quand on réarrange légèrement les termes, ce qui
donne :
¸
p
xrns ak xrn k s w rns (3.3)
k1
loooooooooomoooooooooon
r s
x̂ n
35
CHAPITRE 3. MODÈLES PARAMÉTRIQUES DES SIGNAUX ET DES SYSTÈMES 36
dans laquelle on peut voir la sommation comme une estimation du signal xrns, déterminé par ses récents p
paramètres, on a :
En écrivant le processus sous cette forme, on voit bien que la séquence xrns est plutôt unique dans le sens qu’elle
est le mieux estimée par ses récentes valeurs antérieures et ceci après avoir soustrais cette composante prédictible,
tout ceci est une séquence de bruit blanc qui est indépendant des valeurs antérieures. Le terme autoregressif provient
de la possibilité d’écrire la séquence xrns en utilisant un modèle regressif développé le long de ses valeurs antérieures,
c’est à dire en utilisant une combinaison linéaire finie de ses valeurs antérieures.
En utilisant la régression linéaire, ou le modèle autoregressif de la séquence xrns, on voit bien qu il y a une
relation entrée–sortie entre les séquences xrns et wrns, donc, on peut envisager la création de la séquence xrns par
le traitement de la séquence wrns avec un filtre linéaire invariant. Pour le moment, ignorons le fait que les séquences
xrns et wrns peuvent être aléatoires, et ne considérons que la relation entrée–sortie entre eux, on peut appliquer la
transformé en z aux deux membres de l’égalité, (en assumant pour le moment que les signaux sont déterministes
ou donnés), on obtient :
¸
p
xp z q ak z k X rz s W rz s (3.5)
k 1
¸
p
xpz q 1 ak z k W rz s (3.6)
k 1
xpz q rs
1 W z
(3.7)
°
p
1 ak z k
k 1
Cette relation entrée–sortie implique que l’on peut considérer la séquence xrns comme étant générée par filtrage
de la séquence wrns avec un filtre tout pôle, puisque la fonction de transfert est H pz q X pz q{W pz q, la relation
entre X pz q et W pz q peut être écrite comme une fonction de transfert rationnelle où le polynôme numérateur est
°
ak z k (voir fig3.2).
p
donné par B pz q 1, et le polynôme dénominateur est donné par Apz q 1
k 1
Cette interprétation de l’entrée–sortie d’un processus pARq fournit deux façons intéressantes pour envisager la
relation entrée–sortie entre les signaux xrns et wrns. Spécifiquement, on peut utiliser la relation X pz q H pz qW pz q
pour voir que le signal xrns comme étant généré par le filtrage d–un bruit blanc wrns avec un filtre tout pôle. Ce
qui nous permet, d’une manière simple, de générer des processus aléatoires (ou des signaux déterministes) avec
un modèle spectral qui peut être contrôlé paramétriquement à travers les coefficients de Arz s. Un point de vue
alternatif survient a partir de l’écriture du signal sous la forme de la prédiction de l’erreur prévoyant qu’on a
xrns x̂rns wrns. En l’érivant sous cette forme, on peut considérer que le signal xrns étant filtré en utilisant
le filtre de prédiction d’erreur avec la fonction de transfert Apz q, de façon que la sortie soit le bruit blanc wrns.
Dans ce sens, la composante prédictible de xrns peut être complètement supprimée par le filtre F IR prédicteur
d’erreur de fonction de transfert Apz q, ne laissant que la séquence d’innovation, ou la composante imprédictible,
xrns x̂rns wrns.
L’une des applications du modèle pARq est l’utilisation du modèle paramétrique pour la prédiction de la séquence
xrns. Par exemple, quelqu’un peut tenter de prédire la prochaine valeur d’un bruit coloré avec un modèle pARq.
Fig3.3 montre l’entrée wrns et la sortie xrns d’un filtre F IR prédicteur désigné de poursuivre (tracking) l’entrée
en utilisant seulement les valeurs antérieures (passées) de l’entrée. Le signal utilisé dans la fig3.4 est réutilisé dans
fig3.3
Puisque le bruit coloré peut être généré par filtrage d’un bruit blanc. Donc, on s’attend à ce que l’erreur entre
les signaux prédits et mesurés sera la séquence d’un bruit blanc. Fig3.5 montre la séquence de la prédiction d’erreur,
qui en effet apparait uncorrelée d’un échantillon vers l’autre,i.e., bruit blanc.
Figure 3.5 – Prédiction d’erreur à partir de l’estimation d un bruit coloré en utilisant le modèle pARq.
CHAPITRE 3. MODÈLES PARAMÉTRIQUES DES SIGNAUX ET DES SYSTÈMES 38
Où b0 , b1 , ..., bq sont les paramètres du modèle MA et le signal xrns est un le processus d’un bruit blanc, i.e., on
a Cw rms σ 2 δ rms. Étant donné que la séquence xrns peut être considérée comme une combinaison linéaire des plus
récentes valeurs de la séquence, donc on l’appelle moving average ou moyenne ajustée. À partir de cette structure,
chaque fois que la séquence xrns est considérée comme la sortie d’un filtre F IR dont l’entrée est une séquence d’un
bruit blanc, donc, on peut se référer à une séquence de moyenne ajustée. Plus généralement, même lorsque l’entrée
n’est pas une séquence d’un bruit blanc, le processus du filtrage avec un filtre F IR peut être considéré comme étant
le calcul de la moyenne ajustée de l’entrée. Les modèles financiers utilisent souvent la moyenne ajustée durant 50
jours ou 100 jours comme indicateurs des tendances des prix et indices des divers stocks. Dans le même contexte, q
0, 1, ..., q, de façon aussi que xrns q 1 1 ° wrn ks,i.e.,
q
et bk sont souvent calculées de façon que bk 1{q 1, k
k0
la moyenne arithmétique des plus récentes q 1 valeurs de wrns.
En observant les relations entre les séquences xrns et wrns avec le modèle flowgraph du signal, dans fig3.6, on
constate que xrns peut être considérée comme la version filtrée par un F IR de la séquence wrns.
De même, on peut aussi observer ceci dans fig3.7, grâce a la fonction de transfert de la relation entrée–sortie
entre les deux séquences.
Où a1 , ..., ap , b0 , ..., bq sont les paramètres du modèle ARMA et le signal wrns est un processus de bruit blanc,i.e.,
on a Cw rms σ 2 δ rms. On peut encore une autre fois relier xrns et wrns à travers la relation de la fonction de
transfert, telle que :
°
bk z k
q
k 0
xpz q
°
p rs
W z (3.10)
1 ak z k
k 1
La relation d’entrée’sortie implique que l’on peut considérer la séquence xrns comme étant générée en filtrant
la séquence wrns avec une fonction rationnelle, i.e., un filtre de ”pôle zéro” avec les polynômes numérateur et
°
bk z k , et le dénominateur est
q
dénominateur d’ordre fini, où le polynôme numérateur est donné par B rz s
k 0
°
p
donné par B rz s 1 k
ak z . Il est couramment supposé que la fonction rationnelle est ”strictement propre”, ce
k 1
qui signifie que l’ordre du numérateur est strictement inférieur à celui du dénominateur, i.e., q p. Fig3.8 et fig3.9
illustrent le flowgraph et la fonction de transfert du modèle ARMA reliant les séquences xrns et wrns.
5105820974
37 94
99 32823066470
45
1
93
6 270193852 9
5
92
6
38
08
307
8841971
41 9 756659
4
7067 2148
10 4612 2
0
46095505822
42 48111745028
2
165 971 55
3 3 0 1 90 4
96442881
81 6406
664
4
37 85 3
5 96 4
8 86 7 8
2384
98
36
3.14
9164056
4
8
46
2
756 23
1
48
0
29
48 03 2
5
1
95 4 9 3
8
1
31
8
79
20 72535940812 5
1
6
9
32
2
89 3
6
9 25
35 86280348 338
5
8 64 9 793
238462
Chapitre 4
La matrice de Corrélation
Normalement, les filtres adaptatifs utilisent les signaux d’entrée disponibles à l’instant k dans leurs équations
de mise à jour. Ces entrées sont les éléments du vecteur signal d’entrée dénoté
La matrice de corrélation est définie par R E rxpk qxH pk qs, où xH pk q est la transposition hermitienne de xpk q,
c’est à dire la transposition suivie de la conjugaison complexe et vice–versa. Quelques proprités de la matrice de
corrélation sont dues à la nature statistique du problème du filtrage adaptatif, mais les autres propriétés dérivent
de la théorie de l’algèbre.
Pour un certain vecteur d’entrée, la matrice de corrélation est définie par :
E r|x0 pk q|2 s E rx0 pk qx1 pk qs E rx0 pk qxN pk qs
E rx1 pk qx pk qs E r|x1 pk q|2 s E rx1 pk qxN pk qs
R E rxpk qx pk qs
0 H
.. .. .. .. (4.1)
. . . .
E rxN pk qx0 pk qs E rxN pk qx1 pk qs E r|xN pk q|2 s
y pk q wH xpk q
le carré de l’amplitude de y pk q est :
41
CHAPITRE 4. LA MATRICE DE CORRÉLATION 42
En examinant la partie droite de cette équation, on peut facilement en déduire que la matrice R est Toeplitz. À
noter que rx piq rx piq, ce qui s’ensuit aussi du fait que la matrice R est hermitienne.
4.5 Propriété 5 :
Supposons que R possède N 1 vecteurs propres qi linéairement indépendants ; donc si l’on construit une
matrice Q avec les vecteurs propres qi comme colonnes, il en découle que :
λ0 0 0
0 λ1 0
Q1 RQ . .. Λ
.. .. (4.4)
.. . . .
0 0 λN
Preuve :
Q1 RQ Λ
CHAPITRE 4. LA MATRICE DE CORRÉLATION 43
a0 q0 a1 q1 ... aN qN 0 (4.5)
Maintenant, en multipliant l’équation p2.5q par λN et en soustrayant le résultat de l’équation p2.6q, on obtient :
en répétant les étapes précédentes, c’est à dire en multipliant l’équation précédente d’une part par par R et d’autre
part par λN 1 , puis en soustrayant les résultats, on obtient :
a0 pλ0 λN qpλ0 λN 1 qq0 a1 pλ1 λN qpλ1 λN 1 qq1 ... aN 2 pλN 2 λN 1 qqN 2 0 (4.8)
puisqu’on a supposé que λ0 λ1 , λ0 λ2 , ..., λ0 λN , et q0 était supposé non nul, donc a0 0. La même lignée
d’idées peut être utilisée pour montrer que a0 a1 a2 ... aN 0 est l’unique solution de l’équation p2.5q.
En définitive, les vecteurs propres correspondants aux valeurs propres sont linéairement indépendants.
Donc, wH Rw est un nombre réel. Maintenant, supposons que λi est une valeur propre de R correspondant au
vecteur propre qi , c’est à dire Rqi λi qi . En multipliant cette équation par qH
i , on obtient :
qH
i Rqi λi qHi qi λi kqi k2 (4.11)
Où l opération kak2 |a0 |2 |a1 |2 ... |aN |2 est le carré de la norme euclidienne du vecteur a, qui est toujours
positive, puisque le terme a gauche de l équation est réel, kqi k2 0, et R est semi–défini positive, on peut en
conclure que λi est réelle et non négative.
À noter que Q n’est pas unique, car chaque vecteur qi peut être multiplié par une constante non nulle, et le vecteur
résultant est aussi un vecteur propre. Pour des pratiques, on ne considère que les vecteurs propres normalisés,
qH
i qi 1 i 0, 1, ..., N (4.12)
CHAPITRE 4. LA MATRICE DE CORRÉLATION 44
i R λi qi
qH H
(4.14)
qH
i Rqj λi qHi qj (4.15)
λi qH
i qj λj qHi qj (4.17)
Si l’on construit la matrice Q avec les vecteurs propres normalisés, la matrice Q est une matrice unitaire.
À noter comme résultat important le fait que toute matrice hermitienne R peut être diagonalisée par une
adéquate matrice unitaire Q, meme si les valeurs propres de R ne sont pas distincts. Par conséquent, pour les
matrices hermitiennes ayant des valeurs propres qui se répètent il est toujours possible de trouver un ensemble
complet de vecteurs propres orthonormés. Une utile forme pour décomposer une matrice hermitienne qui résulte de
la propriété précédente est :
¸
N
R QΛQH λi qi qH
i (4.19)
i 0
Ceci est connu sous le nom de décomposition spectrale. De cette décomposition, on peut facilement déduire que :
¸
N ¸
N
wH Rw i w
λi wH qi qH λi |wH qi |2 (4.20)
i 0
i 0
En plus, puisque qi λi R1 qi , les vecteurs propres de la matrice et de son inverse coı̈ncident, par contre les
valeurs propres sont réciproques les uns aux autres. Comme conséquence :
¸
N
R1 1
qi qH
i (4.21)
i0 i
λ
CHAPITRE 4. LA MATRICE DE CORRÉLATION 45
Une autre conséquence de la propriété unitaire de Q pour les matrices hermitiennes est que toute matrice
hermitienne peut être ecrite sous la forme :
? H
?λ0 q0H
a a a λ1 q1
R r λ0 q0 λN qN s LL
H
λ1 q1 ... .. (4.22)
? .
λN qH
N
i 0
¸
N
trrQ1 RQs trrRQQ1 s trrRIs trrRs λi (4.24)
i 0
On a aussi
¹
N
detrQ1 RQs detrRsdetrQsdetrQ1 s detrRs detrΛs λi (4.25)
i 0
w1H QH RQw1
R
w1H QH Qw1
(4.26)
w1H Λw1
w 1H w 1
(4.27)
°
N 1 2
λi wi
i°
0
N
(4.28)
1 2
wi
i 0
Il est alors possible de montrer que la valeur minimale de la précédente équation a lieu quand wi 0 pour i j
avec λj étant la plus petite valeur propre. De façon identique, la valeur maximale de R a lieu quand wi 0 pour
i l, quand λl est la plus grande valeur propre.
Il y a plusieurs façons qui définissent la norme d une matrice. La norme de la matrice R, dénoté par kRk, est définie
par :
CHAPITRE 4. LA MATRICE DE CORRÉLATION 46
2
kRk
2
max
w 0
kRwk
2 (4.29)
kwk
wH RH Rw
max
w0 wH w
(4.30)
À noter que la norme de R est une mesure de la croissance du vecteur w en amplitude, quand il est multiplié par
R. Quand la matrice est hermitienne, la norme de R est facilement obtenue en utilisant les résultats des équations
... Le resultat est que :
Rw p (4.32)
Dans le cas où il y a une erreur au niveau du vecteur p, due à l’estimation ou la quantification, comment est
donc affectée la solution du système des équations linéaires ?
Pour une matrice R hermitienne définie positive, il peut être démontré que l’erreur relative de la solution du
système des équations linéaires est bornée par :
k∆wk
kwk
¤ λλmax k∆pk (4.33)
min kpk
Où λmax et λmin sont les valeurs propres minimale et maximale de R, respectivement. Le rapport λmax {λmin
est appelé le nombre de conditionnement de la matrice. donc :