Académique Documents
Professionnel Documents
Culture Documents
2.1 INTRODUCTION
Dans le chapitre 1, nous avons développé les concepts de processus en temps continu. Dans ce
chapitre, nous considérons une autre classe de processus aléatoires ; à savoir, les processus
stochastiques en temps discret. Un processus aléatoire discret peut être une version uniformément
échantillonnée d'un processus en temps continu.
La valeur moyenne
Valeur moyenne est donnée par :
La variance
La variance est obtenu en considérant l’écart 𝑋(𝑛) − 𝜇𝑥 (𝑛) entre la variable aléatoire et sa valeur
moyenne.
𝜎𝑥2 (𝑛) = 𝐸 {[𝑋(𝑛) − 𝜇𝑥 (𝑛)]2 } = 𝐸 [𝑋 2 (𝑛)] − 𝜇𝑥2 (𝑛) (2.2)
𝐶𝑥𝑥 (𝑘) = 𝐸[(𝑥 ∗ (𝑛) − 𝜇𝑥∗ )(𝑥(𝑛 + 𝑘) − 𝜇𝑥 )] = 𝑅𝑥𝑥 (𝑘) − |𝜇𝑥 |2 (2.6)
À la lumière des propriétés de corrélation données au chapitre 1, nous donnons les propriétés utiles
suivantes :
𝑅𝑥𝑥 (0) ≥ |𝑅𝑥𝑥 (𝑘)| ∀ 𝑘 (2.9)
𝑅𝑥𝑥 (−𝑘) = 𝑅𝑥𝑥 (𝑘)
∗
(2.10)
𝑅𝑥𝑥 (0) = 𝐸[𝑋 ∗ (𝑛)𝑋(𝑛)] est réelle et positive (2.11)
2
𝑅𝑥𝑥 (0)𝑅𝑦𝑦 (0) ≥ |𝑅𝑥𝑦 (𝑘)| (2.12)
𝑅𝑥𝑦 (−𝑘) = 𝑅𝑦𝑥∗ ( )
𝑘 (2.13)
On note que 𝑅𝑥𝑥 (0) représente la valeur quadratique moyenne ou puissance de 𝑋(𝑛), tandis que
𝐶𝑥𝑥 (0) représente la variance 𝜎𝑥2 .
𝑆𝑥𝑥 (𝜔 + 2ℓ𝜋) = ∑∞𝑘=−∞ 𝑅𝑥𝑥 (𝑘)𝑒 −𝑗(𝜔+2ℓ𝜋)𝑘 = ∑∞𝑘=−∞ 𝑅𝑥𝑥 (𝑘)𝑒 −𝑗𝜔𝑘 𝑒 −𝑗2ℓ𝜋𝑘 = 𝑆𝑥𝑥 (𝜔) (2.15)
Puisque 𝑒 −𝑗2ℓ𝜋𝑘 = 1 , alors, la densité spectrale de puissance est une fonction périodique de période
2𝜋.
Par analogie avec la série de Fourier sous forme exponentielle d'un signal périodique, 𝑅𝑥𝑥 (𝑘) peut
être interprété comme le coefficient de Fourier de 𝑆𝑥𝑥 (𝑓) donnée par
1 𝜋
𝑅𝑥𝑥 (𝑘 ) = ∫ 𝑆 (𝜔)𝑒 −𝑗𝜔𝑘 𝑑𝜔
2𝜋 −𝜋 𝑥𝑥
(2.16)
Les équations (2.14) et (2.16) forment les relations de Wiener-Khinchin pour les processus à temps
discret. La valeur quadratique moyenne, qui représente la puissance moyenne du processus aléatoire
à temps discret, est:
1 𝜋 𝑓/2
𝑅𝑥𝑥 (0) = 𝐸 [|𝑋(𝑛)|2 ] = ∫ 𝑆 (𝜔)𝑑𝜔 = ∫−𝑓/2 𝑆𝑥𝑥 (𝑓)𝑑𝑓 (2.17)
2𝜋 −𝜋 𝑥𝑥
𝑆𝑥𝑦 (𝜔) = ∑∞
𝑘=−∞ 𝑅𝑥𝑦 (𝑘)𝑒
−𝑗𝜔𝑘
(2.22)
𝑆𝑦𝑥 (𝜔) = ∑∞
𝑘=−∞ 𝑅𝑦𝑥 (𝑘)𝑒
−𝑗𝜔𝑘
(2.23)
1
𝑆𝑦𝑥 (𝑧) = 𝐻 ∗ (𝑧 ∗) 𝑆𝑥𝑥 (𝑧) (2.25)
1
𝑆𝑦𝑦 (𝑧) = 𝐻(𝑧)𝐻∗ (𝑧 ∗) 𝑆𝑥𝑥 (𝑧) (2.26)
𝐻 (𝑧) = ∑∞
𝑘=−∞ ℎ (𝑛 )𝑧
−𝑛
(2.27)
La réponse fréquentielle 𝐻(𝜔) peut etre déduite de 𝐻(𝑧) évaluée sur le cercle unité du plan 𝑧 (𝑧 =
𝑒 𝑗𝜔 ).
1 1
Pour ℎ(𝑛) réel, 𝐻 ∗ (𝑍 ∗) = 𝐻 (𝑍) et la densité spectrale de la sortie du système est donnée par :
Exemple
Déterminons la densité spectrale puissance de la sortie du système de la figure 2.1 si le signal
d’entrée 𝑋(𝑛) est un bruit blan.
La fonction d’autocorrelation du bruit blanc est :
Considérons le système illustré à la figure 2.1, dont l'entrée est un bruit blanc. La séquence de sortie
peut être décrite par un modèle paramétrique. Il est donc nécessaire de disposer d’un modèle
paramétrique approprié et d’estimer ses paramètres. Les modèles le plus fréquemment utilisés :
𝑝 𝑞
𝑋(𝑛) = − ∑𝑘=1 𝑎𝑘 𝑋 (𝑛 − 𝑘) + ∑𝑘=0 𝑏𝑘 𝑒(𝑛 − 𝑘)
= 𝑋 (𝑛) + 𝑎1 𝑋(𝑛 − 1) + … + 𝑎𝑝 𝑋 (𝑛 − 𝑝) = 𝑒(𝑛) + 𝑏1 𝑒(𝑛 − 1) + … + 𝑏𝑞 𝑒(𝑛 − 𝑞) (2.29)
Avec e(n) est une séquence d’entrée et X(n) la séquence de sortie du système. e(n) est un bruit blanc
gaussien de moyenne zéro et une variance inconnue 𝜎𝑛2 représenté par une séquence de variables
aléatoires indépendantes.
𝑎𝑘 , 𝑘 = 1,2, … , 𝑝, et 𝑏𝑘 , 𝑘 = 1,2, … , 𝑞 sont des constants appelés paramétres, fixant ainsi l’'ordre
du processus ARMA donné par (p,q). Ce modèle linéaire est appelé modèle ARMA
(AutoRegressive Moving Average) ou autoregressive à moyenne ajustée (glissante ou mobile)
comme le montre la figure 2.2.
mais
𝐸 [𝑒(𝑛)𝑋(𝑛 − 𝑘)] = 0 pour 𝑘 ≥ 0 (2.31)
et
∑𝑞𝑗=1 𝑏𝑗 𝐸 [𝑒(𝑛 − 𝑗)𝑋(𝑛 − 𝑘)] = 0 pour 𝑘 ≥ 𝑞 + 1 (2.32)
𝑝
𝑅𝑥𝑥 (𝑘 ) = − ∑𝑖=1 𝑎𝑖 𝑅𝑥𝑥 (𝑘 − 𝑖 ) pour 𝑘 ≥ 𝑞 + 1 (2.33)
𝐵(𝑧)
𝐻(𝑧) = 𝐴(𝑧) = ∑∞
𝑘=0 ℎ𝑘 𝑧
−𝑘
(2.35)
1 𝐵(𝑧)𝐵 ∗(1⁄𝑧 ∗ )
𝑆𝑥𝑥 (𝑧) = 𝐻 (𝑧)𝐻 ∗ (𝑧 ∗) 𝑆𝑒𝑒 (𝑧) = 𝐴(𝑧)𝐴∗ (1⁄𝑧 ∗) 𝑆𝑒𝑒 (𝑧) (2.36)
𝐵(𝑓) 2
𝑆𝐴𝑅𝑀𝐴 (𝑓) = 𝑆𝑥𝑥 (𝑓) = 𝜎𝑛2 |𝐴(𝑓)| (2.37)
La détermination
1. Des paramètres 𝑎𝑘 , dits autoregressifs
2. Des paramètres 𝑏𝑘 , dits à moyenne ajustée
3. De la variance 𝜎𝑛2 du bruit blanc
équivaut à déterminer la DSP du processus X(n).
Remarque :
Le modèle ARMA(p,q) est appelé pôle-zéro (pole-zero)
Le modèle AR(p) est appelé tous pôle (all pole)
Lemodèle MA(q) est appelé tout zéro (all zero)
𝑝
𝑋(𝑛) = − ∑𝑘=1 𝑎𝑘 𝑋 (𝑛 − 𝑘) + 𝑒(𝑛) (2.39)
Elle est dite modèle autorégressif d’ordre 𝑝, et notée par AR(p). La réalisation d'un tel modèle, est
montrée sur la Figure 2.3. Le terme autorégressive découle du fait que 𝑋(𝑛), est donnée par :
C’est une combinaison linéaire des valeurs précédentes du processus (𝑥(𝑛 − 1), 𝑥(𝑛 − 2), … , 𝑥(𝑛 −
𝑝)), et 𝑒(𝑛) de l’entrée.
La transformée en 𝑍 est donnée par :
𝑝
𝑋(𝑍) = − ∑𝑘=1 𝑎𝑘 𝑍 −𝑘 𝑋(𝑍) + 𝐸(𝑍) (2.41)
𝑋(𝑍) 1
𝐻 (𝑍 ) = = 𝑝 (2.42)
𝐸(𝑍) 1+∑𝑘=1 𝑎𝑘 𝑍 −𝑘
donc
1
𝐻 (𝑓 ) = (2.43)
1+∑𝑘=1 𝑎𝑘 𝑒 −𝑗2𝑓𝑘
𝑝
𝐸 [𝑋(𝑛)] = 𝑚𝑥 = 𝐸 [− ∑ 𝑎𝑘 𝑋 (𝑛 − 𝑘) + 𝑒(𝑛)]
𝑘=1
𝑝 𝑝
= − ∑𝑘=1 𝑎𝑘 𝐸 [𝑋(𝑛 − 𝑝)] = −𝑚𝑥 ∑𝑘=1 𝑎𝑘 (2.44)
𝑝
𝑅𝑥𝑥 (𝑘) = 𝐸 [𝑋(𝑛)𝑋(𝑛 − 𝑘)] = − ∑𝑖=1 𝑎𝑖 𝐸 [𝑋(𝑛 − 𝑖 )𝑋(𝑛 − 𝑘)] + 𝐸 [𝑒(𝑛)𝑋(𝑛 − 𝑘)] (2.47)
Puisque 𝑋(𝑛 − 𝑘) sont à moyenne nulle et indépendants du bruit 𝑒(𝑛). Le deuxième terme
𝐸 [𝑒(𝑛)𝑋(𝑛 − 𝑘)] est nul pour k>0 et égal à 𝜎𝑛2 pour k=0. Donc l’équation (2.47) peut être écrite
sous la forme suivante :
𝑝
− ∑𝑖=1 𝑎𝑖 𝑅𝑥𝑥 (𝑘 − 𝑖 ) , 𝑘>0
𝑅𝑥𝑥 (𝑘 ) = { 𝑝 (2.48)
− ∑𝑖=1 𝑎𝑖 𝑅𝑥𝑥 (𝑘 − 𝑖 ) + 𝜎𝑛2 , 𝑘=0
𝜎𝑛2
𝑆𝐴𝑅 (𝑓) = |𝐻 (𝑓)|2 𝑆𝑒𝑒 (𝑓) = 𝑝 2 (2.49)
|1+∑𝑘=1 𝑎𝑘 𝑒 −𝑗2𝜋𝑓𝑘 |
𝑞
𝑋(𝑛) = ∑𝑘=0 𝑏𝑘 𝑒(𝑛 − 𝑘) (2.50)
𝑞
𝐸 [𝑋(𝑛)] = 𝑚𝑥 = 𝐸[𝑒(𝑛) + ∑𝑘=1 𝑏𝑘 𝑒(𝑛 − 𝑘)] = 0 (2.51)
Puisque le bruit blanc est à moyenne nulle et stationnaire. La variance du processus est donnée par :
𝑞 𝑞
𝑞 𝑞
𝑅𝑥𝑥 (𝑘) = 𝐸 [𝑋(𝑛)𝑋(𝑛 − 𝑘)] = 𝐸 [(𝑒 (𝑛) + ∑ 𝑏𝑖 𝑒(𝑛 − 𝑖)) (𝑒(𝑛 − 𝑘) + ∑ 𝑏𝑗 𝑒(𝑛 − 𝑘 − 𝑗))]
𝑖=1 𝑗=1
𝑞
𝑆𝑀𝐴 (𝑓) = 𝜎𝑛2 |𝐵(𝑓)|2 , 𝑜ù 𝐵(𝑓) = 1 + ∑𝑘=1 𝑏𝑘 𝑒 −𝑗2𝜋𝑓𝑘 (2.55)
2.6.2. Propriétés
La matrice de corrélation d’un processus stochastique discret stationnaire vérifie les propriétés
suivantes :
La matrice 𝑹𝑥𝑥 est une matrice Toeplitz.
Une matrice carrée est dite Toeplitz si tous les éléments d’une même diagonale ou sous-
diagonale sont égaux. Cette propriété est directement liée à la propriété de stationnarité au
sens large du processus. Cette propriété est importante, car elle permet de simplifier les
calculs algébriques.
𝑹𝑥𝑥 = 𝑹𝐻
𝑥𝑥 (2.59)
Une matrice carrée hermitienne est dite semi-définie positive si est seulement si :
𝒙𝑯 𝑨𝒙 ≥ 𝟎, 𝒙 ≠ 𝟎 (2.60)
𝐵(𝑧)𝐵 ∗(1⁄𝑧 ∗)
𝑆𝑥𝑥 (𝑧) = 𝜎𝑛2 𝐴(𝑧)𝐴∗(1⁄𝑧 ∗) (2.61)
donc,
𝐵 ∗ (1⁄𝑧 ∗) 1
𝑆𝑥𝑥 (𝑧)𝐴(𝑧) = 𝐴∗(1⁄𝑧 ∗) 𝐵(𝑧)𝜎𝑛2 =𝐻 ∗ (𝑧 ∗) 𝐵(𝑧)𝜎𝑛2 (2.62)
𝑝
𝑍 −1 [𝑆𝑥𝑥 (𝑧)𝐴(𝑧)] = 𝑅𝑥𝑥 (𝑘) ∗ 𝑎(𝑘) = ∑𝑙=0 𝑎(𝑙 )𝑅𝑥𝑥 (𝑘 − 𝑙 ) (2.63)
1 𝑞
𝑍 −1 [𝐻∗ (𝑧 ∗) 𝐵(𝑧)𝜎 2 ] = 𝜎𝑛2 ∑𝑙=0 𝑏(𝑙 )𝑞(𝑘 − 𝑙 ) (2.64)
Où
1
𝑞(𝑙 ) = 𝑍 −1 [𝐻∗ (𝑧 ∗)] = ℎ∗ (−𝑙) (2.65)
Donc on peut écrire :
Utilisant la causalité du H(z) c.à.d h(k)=0 pour k<0, le résultat pour un processus ARMA devient :
𝑝 𝑞−𝑘
− ∑𝑙=1 𝑎(𝑙 )𝑅𝑥𝑥 (𝑘 − 𝑙 ) + 𝜎𝑛2 ∑𝑙=0 ℎ∗ (𝑙 )𝑏(𝑙 + 𝑘) 𝑝𝑜𝑢𝑟 𝑘 = 0,1, … , 𝑞
𝑅𝑥𝑥 (𝑘) = { 𝑝 (2.67)
− ∑𝑙=1 𝑎(𝑙 )𝑅𝑥𝑥 (𝑘 − 𝑙 ) 𝑝𝑜𝑢𝑟 𝑘 ≥ 𝑞 + 1
La majorité des méthodes d’estimation des paramètres ARMA, AR, MA est basée sur les équations
de Yule-Walker
Dans le cas d’un processus AR
b(0)=1 et b(k)=0 k1, donc b(𝑙)=(𝑙)
𝑝
− ∑𝑙=1 𝑎(𝑙 )𝑅𝑥𝑥 (𝑘 − 𝑙 ) + 𝜎𝑛2 ℎ∗ (0) 𝑝𝑜𝑢𝑟 𝑘 = 0
𝑅𝑥𝑥 (𝑘) = { 𝑝 (2.69)
− ∑𝑙=1 𝑎(𝑙 )𝑅𝑥𝑥 (𝑘 − 𝑙 ) 𝑝𝑜𝑢𝑟 𝑘 ≥ 1
Dans ce cas les équations de Yule-Walker définissent une relation linéaire entre la FAC et les
paramètres AR.
Sous forme matricielle, ces équations peuvent être écrites sous la forme suivante
𝑅𝑥𝑥 (0) 𝑅𝑥𝑥 (−1) … 𝑅𝑥𝑥 (−(𝑝 − 1)) 𝑎(1) 𝑅𝑥𝑥 (1)
( ) 𝑅𝑥𝑥 (0) … 𝑅𝑥𝑥 (−(𝑝 − 2)) 𝑎(2) 𝑅 (2)
[ 𝑅𝑥𝑥 1 ][ ] = − [ 𝑥𝑥 ] (2.70)
⋮ ⋮ … ⋮ ⋮ ⋮
𝑅𝑥𝑥 (𝑝 − 1) 𝑅𝑥𝑥 (𝑝 − 2) … 𝑅𝑥𝑥 (0) 𝑎(𝑝) 𝑅𝑥𝑥 (𝑝)
Cette équation peut être augmentée en incorporant l’équation pour 𝜎𝑛2 (c.à.d pour k=0)
Donc
𝑝
𝜎𝑛2 = 𝑅𝑥𝑥 (0) + ∑𝑙=1 𝑎(𝑙 )𝑅𝑥𝑥 (−𝑙 ) (2.72)
Pour un processus MA
a(0)=1 et a(k)=0 pour k1, donc a(𝑙)=(𝑙)
avec 𝑎(𝑙) = ( 𝑙) et ℎ(𝑙)=𝑏(𝑙), on peut écrire :
𝑞−𝑘
𝜎2 ∑ 𝑏∗ (𝑙 )𝑏(𝑙 + 𝑘) 𝑝𝑜𝑢𝑟 𝑘 = 0, 1, … , 𝑞
𝑅𝑥𝑥 (𝑘) = { 𝑛 𝑙=0 (2.73)
0 𝑝𝑜𝑢𝑟 𝑘 ≥ 𝑞 + 1