Vous êtes sur la page 1sur 99

Processus Aléatoires

Luc Deneire

Iannis Aliferis

École Polytechnique de l’Université de Nice – Sophia Antipolis


Polytech’Nice Sophia
Département d’Électronique, 3e année, 2009–2010
deneire@unice.fr
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Ce document contient une grande partie des informations données au cours
et aux TDs. Cela signifie qu’il n’est en aucun cas complet (auto-suffisant) ;
une grande quantité d’information (commentaires, explications, diagrammes,
démonstrations etc.) est donnée pendant les séances, oralement ou à l’aide du
tableau, en plus de documents projetés en cours.

Les statistiques, c’est comme le bikini : ça donne des idées mais ça cache
l’essentiel !
Coluche

Processus Aléatoires 2
Table des matières

1 Introduction 7
1.1 De la variable aléatoire vers le processus aléatoire . . . . . . . . . 7
1.1.1 Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . 7

2 Processus Stochastiques 9
2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Grandeurs statistiques . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3 Stationnarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3.1 Stationnarité (au sens large) . . . . . . . . . . . . . . . . 11
2.3.2 bm=Propriétés de R_X(tau) . . . . . . . . . . . . . . . . 11
2.3.3 Cyclo-stationnarité . . . . . . . . . . . . . . . . . . . . . . 13
2.3.4 Mesurer l’espérance (un peu de Statistique) . . . . . . . . 13
2.4 Ergodicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.4.1 Interpétation de l’espérance et de la variance . . . . . . . 14
2.5 Densité spectrale de puissance . . . . . . . . . . . . . . . . . . . . 15
2.5.1 Densité spectrale de puissance (ssl) . . . . . . . . . . . . . 15
2.5.2 Densité spectrale de puissance (csl) . . . . . . . . . . . . . 15
2.5.3 Densité spectrale de puissance : propriétés . . . . . . . . . 16
2.5.4 Deux processus stochastiques . . . . . . . . . . . . . . . . 16
2.6 Filtrage d’un processus stochastique . . . . . . . . . . . . . . . . 17
2.7 Processus gaussien : définition . . . . . . . . . . . . . . . . . . . . 17
2.7.1 Processus gaussien : propriétés . . . . . . . . . . . . . . . 17
2.7.2 Signal binaire aléatoire . . . . . . . . . . . . . . . . . . . . 18
2.8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3 Bruit 23
3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.1 Bruit thermique : definition . . . . . . . . . . . . . . . . . 23
3.1.2 Bruit thermique : dsp disponible . . . . . . . . . . . . . . 24
3.1.3 Bruit blanc . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.1.4 Bruit coloré . . . . . . . . . . . . . . . . . . . . . . . . . . 24

3
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

4 Signaux passe-bande (rappels) 27


4.1 definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.1.1 Bruit coloré passe-bande . . . . . . . . . . . . . . . . . . . 27
4.2 Autocorrélation de p.s. complexes . . . . . . . . . . . . . . . . . 28
4.3 Bruit utile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.3.1 Analyseur dynamique . . . . . . . . . . . . . . . . . . . . 29

5 Processus aléatoires à temps discret. 35


5.1 Processus et modèles aléatoires discrets. . . . . . . . . . . . . . . 35
5.1.1 Moyenne, autocorrélation et stationarité. . . . . . . . . . 35
5.1.2 La matrice de corrélation. . . . . . . . . . . . . . . . . . . 36
5.1.3 Les innovations. . . . . . . . . . . . . . . . . . . . . . . . 37
5.1.4 Modèles stochastiques (AR, MA, ARMA). . . . . . . . . . 39
5.1.5 Les équations de Yule-Walker. . . . . . . . . . . . . . . . . 44
5.1.6 Prédiction linéaire avant. . . . . . . . . . . . . . . . . . . 45
5.2 Estimateur MMSE et principe d’orthogonalité. . . . . . . . . . . 46
5.3 Filtre de Wiener. . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.3.1 Filtre de Wiener non-causal . . . . . . . . . . . . . . . . . 48
5.3.2 Filtre de Wiener causal. . . . . . . . . . . . . . . . . . . . 52
5.3.3 Filtre de Wiener FIR . . . . . . . . . . . . . . . . . . . . . 55
5.4 Prédiction linéaire. . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.4.1 Prédiction linéaire avant. . . . . . . . . . . . . . . . . . . 56
5.4.2 Prédiction linéaire arrière. . . . . . . . . . . . . . . . . . . 59
5.4.3 Relation entre prédiction avant et arrière . . . . . . . . . 61
5.5 L’algorithme de Levinson-Durbin . . . . . . . . . . . . . . . . . . 61
5.5.1 Interprétations des paramètres Km et ∆m−1 . . . . . . . 63
5.6 Filtres en treillis. . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.7 La méthode des moindres carrés (LS : Least Squares) . . . . . . . 65
5.7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.7.2 Fenêtrage. . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.7.3 Principe d’orthogonalité pour les moindres carrés . . . . . 67
5.7.4 Equations normales . . . . . . . . . . . . . . . . . . . . . 68
5.7.5 Interprétation géométrique. . . . . . . . . . . . . . . . . . 69
5.7.6 Propriétés de l’estimation des moindres carrés. . . . . . . 72
5.8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

6 Une ménagerie de Processus 77


6.1 Processus de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . 77
6.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.1.2 v.a. binomiale, géométrique . . . . . . . . . . . . . . . . . 77
6.1.3 v.a. Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . 78
6.1.4 v.a. binomiale . . . . . . . . . . . . . . . . . . . . . . . . . 79
6.1.5 v.a. Géométrique . . . . . . . . . . . . . . . . . . . . . . . 80
6.1.6 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . 81
6.1.7 Temps d’attente . . . . . . . . . . . . . . . . . . . . . . . 82
6.1.8 Temps d’arrivée . . . . . . . . . . . . . . . . . . . . . . . . 82

Processus Aléatoires 4
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

6.1.9 Exemple de réalisation . . . . . . . . . . . . . . . . . . . . 83


6.1.10 Séparation de processus . . . . . . . . . . . . . . . . . . . 84
6.1.11 Combinaison de processus . . . . . . . . . . . . . . . . . . 84
6.1.12 bm=Binomiale -> Poisson . . . . . . . . . . . . . . . . . . 84
6.1.13 bm=Binomiale -> Poisson 2 . . . . . . . . . . . . . . . . . 85
6.2 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 85
6.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
6.2.2 bm=Nombre d’arrivées en tau . . . . . . . . . . . . . . . 86
6.2.3 Première arrivée . . . . . . . . . . . . . . . . . . . . . . . 86
6.2.4 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . 86
6.2.5 Temps d’attente . . . . . . . . . . . . . . . . . . . . . . . 87
6.2.6 Temps d’arrivée . . . . . . . . . . . . . . . . . . . . . . . . 87
6.2.7 Processus de Bernoulli / Poisson . . . . . . . . . . . . . . 87
6.2.8 « Incidence aléatoire » . . . . . . . . . . . . . . . . . . . . 88
6.2.9 Exemples de réalisation . . . . . . . . . . . . . . . . . . . 88
6.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

7 Chaînes de Markov 93
7.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
7.2 Matrice de transition . . . . . . . . . . . . . . . . . . . . . . . . . 93
7.3 Trajectoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
7.4 Classification des états . . . . . . . . . . . . . . . . . . . . . . . . 94
7.5 Périodicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.6 Comportement à long terme . . . . . . . . . . . . . . . . . . . . . 95
7.7 Chaînes ergodiques . . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.8 Processus de naissance et de mort . . . . . . . . . . . . . . . . . 96
7.9 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

Syllabus
Ce polycopié couvre le cours de “Processus Aléatoires”, donné en ELEC3,
comprenant la partie cours magistral ainsi que les exercices donnés en travaux
dirigés.
Outre qu’il convient (malheureusement !) de rappeler que la présence aux
cours et travaux dirigés est obligatoire, il est utile d’indiquer que les matières
enseignées dans ces cours demandent un travail régulier qui ne peut pas être
compensé par un travail, même sérieux, sur un temps court avant les DS (devoirs
surveillés).
De manière à aider les étudiants motivés que vous êtes à fournir ce travail ré-
gulier, les travaux dirigés devront être impérativement préparés chaque semaine,
et cette préparation sera sanctionnée par une note de contrôle continu.
D’autre part, deux devoirs surveillés seront organisés pour chaque cours.
Le contrôle des connaissances sera donc organisé de la manière suivante :

Processus Aléatoires 5
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

Processus Aléatoires
Contrôle continu D.S. 1 (10ème cours)
Pondération 40 % 60 %

– Le devoir surveillé consistera en une courte question “théorique” et trois


exercices, il sera à livre ouvert (c’est-à-dire une copie de ce polycopié, avec
annotations possibles, mais sans les solutions des TDs).
– Le contrôle continu consistera en la préparation d’exercices des travaux
dirigés. En début de séance, un exercice sera posé en “mini DS”, sans
documents. Il sera noté immédiatement.

Processus Aléatoires 6
Chapitre 1

Introduction
Un processus aléatoire (ou processus stochastique) peut être
vu comme un processus qui est le résultat d’un événement
aléatoire. Il peut également être vu comme étant une collec-
tion de variables aléatoires.

1.1 De la variable aléatoire vers le processus aléa-


toire
– Signal déterministe : x(t) = A cos(ωt)
– Signal stochastique (aléatoire) : n(t) = . . .?
– Bruit
– Bour$e (et produit$ dérivé$ . . . )
– Systèmes de communication
– Information ←→ Incertitude
– Physique classique : Nature déterministe
– Systèmes complexes : impossible de tout calculer (xi , ẋi )
– Description statistique (p.ex., théorie des gaz)
– Physique quantique : Nature indéterministe
– Impossible de mesurer (x, ẋ).
– Approche probabiliste du monde
– « Si l’on sait exactement ce que l’on va faire, à quoi bon le faire ? » (Pablo
Picasso)

1.1.1 Bibliographie
– Probabilités, Processus de Bernoulli, Poisson, Markov :
– D. Bertsekas, J. Tsitsiklis, “Introduction to Probability”,
Athena Scientific, Belmont, 2002
– Signaux aléatoires, bruit, filtrage :
– S. Haykin, “Communication Systems”, 3rd edition,
John Wiley & Sons, New York, 1994, Ch. 4

7
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

– S. Haykin “Adaptive Filtering”

– R. Gray “Statistical Signal Processing”

– J. Proakis, M. Salehi, “Communication Systems Engineering”,


Prentice Hall, 2001, Ch. 3.

Processus Aléatoires 8
Chapitre 2

Processus Stochastiques
e Polytechnique de l’UNS Département d’Électronique
tech’Nice-Sophia 3e année

2.1 Définition
ocessus Stochastiques 6
– Associer une fonction à chaque issue
d’une expérience aléatoire
éfinition
Associer une fonction à chaque issue
d’une expérience aléatoire x1 (t)
X(ω, t)
t

ω2 x2 (t)
ω1
Ω ωn
t
xi (t) = X(ωi , t)
xn (t)
une réalisation de X(ω, t)

X(ω, t) " X(t) : P.S. t


X(ω, tm ) " X(tm ) : V.A. tm

7
2.2 Grandeurs statistiques
– Observer X(t) aux instants t1 , t2 , . . . , tk
– Obtenir k V.A. : X(t1 ), X(t2 ), . . . , X(tk )
– Densité de probabilité conjointe : pX(t1 )X(t2 )...X(tk ) (x1 , x2 , . . . , xk )

9
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

– Espérance (statistique du premier ordre) :


Z +∞
mX (t1 ) , E {X(t1 )} = x pX(t1 ) (x) dx
−∞
– Autocorrélation (statistique du second ordre) :
RX (t1 , t2 ) , RX(t1 )X(t2 ) = E {X(t1 )X(t2 )}
Z Z +∞
= x1 x2 pX(t1 )X(t2 ) (x1 , x2 ) dx1 dx2
−∞
– Autocovariance (statistique du second ordre) :
CX (t1 , t2 ) , cov[X(t1 ), X(t2 )]
= E {{X(t1 ) − E {X(t1 )}}{X(t2 ) − E {X(t2 )}}}
= RX (t1 , t2 ) − mX (t1 )mX (t2 )
Z Z +∞
= [x1 − mX (t1 )][x2 − mX (t2 )] pX(t1 )X(t2 ) (x1 , x2 ) dx1 dx2
−∞

2.3 Stationnarité

– « Est-ce que les propriétés statistiques changent avec le temps ? »


– Observer X(t) aux instants t1 , t2 , . . . , tk
– Obtenir k V.A. : X(t1 ), X(t2 ), . . . , X(tk )
– Observer X(t) aux instants t1 + ∆T, t2 + ∆T, . . . , tk + ∆T
– Obtenir k V.A. : X(t1 + ∆T ), X(t2 + ∆T ), . . . , X(tk + ∆T )
– X(t) stationnaire au sens strict (sss) :
pX(t1 )X(t2 )...X(tk ) (x1 , x2 , . . . , xk ) = pX(t1 +∆T )X(t2 +∆T )...X(tk +∆T ) (x1 , x2 , . . . , xk )
∀k , ∀∆T , ∀(t1 , t2 , . . . , tk )
– X(t) stationnaire au sens large (ssl) :
k = 1 (sss : pX(t1 ) (x) = pX(t1 +∆T ) (x) , pX (x) , ∀∆T, t1 )
ssl : mX (t1 ) = mX
k = 2 (sss : pX(t1 )X(t2 ) (x1 , x2 ) = pX(t1 +∆T )X(t2 +∆T ) (x1 , x2 ) , ∀∆T, t1 , t2 )
ssl : RX (t1 , t2 ) = RX (τ ) , τ = t2 − t1

Processus Aléatoires 10
École Polytechnique de l’UNS Département d’Électronique
Polytech’Nice-Sophia 3e année

École Polytechnique
École dede
Polytechnique l’UNS
l’UNSA Département d’ÉlectroniqueDépartement d’Électronique
Stationnarité (au sens large)
Polytech’Nice-Sophia
Polytech’Nice-Sophia 3e année 3e année
x1 (t) τ τ
2.3.1 Stationnarité (au sens large)
Stationnarité (au sens large)
t
x1 (t) τ τ
x2 (t)
mX (t) = mX
t
t RX (t1 , t2 ) = RX (τ )
x2 (t)

xn (t) mX (t) = mX
t RX (t1 , t2 ) = RX (τ )

xn (t) t
t1 t2 t1 + ∆T
t2 + ∆T
t
t1 t2 t1 + ∆T 10
t2 + ∆T

10

2.3.2 Propriétés de RX (τ )
– X(t) : stationnaire (au sens large)

Propriétés de RX (τ1.) RX (τ ) = E {X(t + τ )X(t)}


! X(t) : stationnaire2.(au
RXsens = E {X(t − τ )X(t)} = RX (τ ) : fonction paire
(−τ )large)

1. 3. +
RX (τ ) = E[X(t RXτ(0) = E {X(t)X(t)} = E X (t) = σX(t) + mX (t)
)X(t)]
2 2 2

2. Propriétés de R X (τ )= R (τ ) : fonction paire


RX (−τ ) = E[X(t − τ )X(t)] ! X (0) X"
4. |RX (τ )| ≤ R 2 (t) = σ 2 2
3. RX (0)! = X(t)
E[X(t)X(t)] = E X X(t) + mX (t)
: stationnaire (au sens large)
4. |RX (τ )| ≤
1.RXR(0)(τ ) = E[X(t + τ )X(t)]
X
2. RX (−τ ) = E[X(t − τ )X(t)] =)RX" (τ ) : fonction paire
RX! (τ fluctuations lentes
3. RX (0) = E[X(t)X(t)] = E X 2 (t) = σX(t) 2 + mX (t)2
fluctuations rapides
4. |RX (τ )| ≤ RX (0)
τ
RX (τ ) fluctuations lentes
Temps de décorrélation
Temps :de décorrélation : fluctuations rapides
τ0 : RX (τ0 ) = αRX (0) , p.ex. : α = 0.01
τ0 : RX (τ0 ) = αRX (0) , p.ex. : α = 0.01 τ
11
Temps de décorrélation :
Processus Aléatoires 11
τ0 : RX (τ0 ) = αRX (0) , p.ex. : α = 0.01

11
École Polytechnique de l’UNSA Département d’Électronique
École Polytech’Nice-Sophia
Polytechnique de l’UNS 3e année
Département d’Électronique
Polytech’Nice-Sophia 3e année
École Polytechnique de l’UNS Département d’Électronique
Signal sinusoïdal ; fréquence aléatoire
Polytech’Nice-Sophia 3e année
Signal sinusoïdal ; fréquence aléatoire

1.0
Signal sinusoïdal ; fréquence aléatoire
0.5
1.0
0.0
0.5
!0.5
0.0
!1.0
!0.5

!10 !5 0 5 10
!1.0

! X(t) = a cos(2πF
!10 t) ; F v.a. uniforme
!5 sur [0, W ] (W
0 = 1) 5 10
! mX (t) = a sinc(2W t)
! RX (t–=
! X(t) 1 ;X(t)
τa = t2=
− at1t)
cos(2πF )= a2
cos(2πF t) ; F (2t
{sinc[2W
; F2 v.a. v.a.
uniforme +uniforme
1sur )] −
τ[0, ] (W sur
W sinc[2W 1)[0,
= (τ )]}W ] (W = 1)
! –
Signal non
m stationnaire
(t) =
! m (t) = a sinc(2W t)
X a sinc(2W t)
X
2
RX (t–1 ; R t1 ) = a2(2t{sinc[2W
2
! τX= (t ) =t2a2−{sinc[2W
; τt1=
t21− (2t1 + τ(τ)])]}− sinc[2W (τ )]}
1 + τ )] − sinc[2W 12
! – non
Signal Signal non stationnaire
stationnaire

12

Signal sinusoïdal ; amplitude aléatoire


Signal sinusoïdal ; amplitude aléatoire
1.0

Signal sinusoïdal ; amplitude aléatoire


0.5
1.0
0.0
0.5
!0.5
0.0
!1.0
!0.5

!10 !5 0 5 10
!1.0

! X(t) = A cos(2πf
!10 t) ; A v.a. uniforme
!5 sur [0, 1] (f0 = 1) 5 10
! mX (t) = 12 cos(2πf t)
! RX (t1 ; τ = t2 − t1 ) = 16 {cos[2πf (2t1 + τ )] + cos(2πf τ )}
!
! X(t)
mX (t=+ATcos(2πf t) ; et
) = mX (t) AR v.a. uniforme sur [0, 1] (f = 1)
X (t + T ; τ ) = RX (t; τ )
!
! m = 12 cos(2πf t) (au sens large)
X (t) cyclo-stationnaire
Signal
! RX (t–1 ; X(t)
τ = t2= −At1 )cos(2πf t) ; A
= 16 {cos[2πf (2tv.a.
1 + τuniforme
)] + cos(2πfsur
τ )}[0, 1] (f = 1)
! mX (t– +mTX) (t)= m= 1
X (t)
2 et
cos(2πf
R X (t t)
+ T ; τ ) = R X (t; τ ) 13
! – cyclo-stationnaire
Signal RX (t1 ; τ = t2 −(au t1 )sens 1
= large)
6 {cos[2πf (2t1 + τ )] + cos(2πf τ )}
– mX (t + T ) = mX (t) et RX (t + T ; τ ) = RX (t; τ )
13
– Signal cyclo-stationnaire (au sens large)

Processus Aléatoires 12
Processus Stochastiques 9

Processus Stochastiques 9
École École
Polytechnique de l’UNS de l’UNSA
Polytechnique Département
Département d’Électronique
d’Électronique
Polytech’Nice-Sophia
Polytech’Nice-Sophia 3e année
3e année

Signal
Signal sinusoïdal
sinusoïdal ; phase
; phase aléatoire
aléatoire
1.0
0.5
0.0
!0.5
!1.0

!1.0 !0.5 0.0 0.5 1.0

! X(t)–=X(t) = atcos(2πf
a cos(2πf + Θ) ; Θt v.a.
+ Θ) ; Θ v.a.
uniforme sur uniforme
[0, 2π] (a =sur
1, f[0, 1) (a = 1, f = 1)
= 2π]
! – m
mX (t) =X 0 (t) = 0
2
! RX (t–1 ;RτX=(tt21− ) =t2a2−cos(2πf
; τt1=
2
t1 ) = τa2) cos(2πf τ )
! Signal stationnaire (au sens large)
– Signal stationnaire (au sens large)
14
2.3.3 Cyclo-stationnarité
– « Est-ce que les propriétés statistiques changent périodiquement avec le
temps ? »
– Observer X(t) aux instants t1 , t2 , . . . , tk
– Obtenir k V.A. : X(t1 ), X(t2 ), . . . , X(tk )
Cyclo-stationnarité
– Observer X(t) aux instants t1 + T0 , t2 + T0 , . . . , tk + T0
! « Est-ce – que
Obtenir k V.A.statistiques
les propriétés : X(t1 +changent T0 ), X(tpériodiquement
2 + T0 ), . . . , X(t
aveckle+temps T0 ) ? »
– X(t)
! Observer X(t)cyclo-stationnaire
aux instants t1 , t2 , . . au . , tksens strict (css) ∃T0 :
pX(t1k)X(t
" Obtenir V.A. 2 )...X(t
(x1 , x),2 ,. .. .. ,. X(t
: X(tk1)), X(t
, xk )) = pX(t1 +T0 )X(t2 +T0 )...X(tk +T0 ) (x1 , x2 , . . . , xk )
2 k
∀k , ∀(t1 , t2 , . . . , tk )
! Observer X(t) aux instants t1 + T0 , t2 + T0 , . . . , tk + T0
– X(t) cyclo-stationnaire au sens large (csl) ∃T0 :
" Obtenir
k = 1k (css V.A. :: X(t pX(t 1+ T0 ),=
(x) X(t pX(t2 + T+T 0 ), .).(x)
. , X(t
, k∀t+1T)0 )
1) 1 0
csl : mX (t1 au
! X(t) cyclo-stationnaire +T 0) =
sens mX(css)
strict (t1 )∃T0 :
k 2=
pX(t1 )X(t 2 (css
)...X(t k)
(x1 ,: xp2X(t
, . . .1,)X(t
xk ) 2=) (x 1, x
pX(t 2 )0 )X(t
1 +T = p2X(t 1 +T0 )X(t
+T0 )...X(t (x10, )x(x
2 +T
k +T0 )
, 2x)k ), ∀t1 , t2 )
2 , .1.,.x
∀k , ∀(t1 ,csl
t2 , .:. .R, tXk )(t1 + T0 ; τ ) = RX (t1 ; τ )
! X(t) cyclo-stationnaire au sens large (csl) ∃T0 :
k = 1 (css : pX(t1 ) (x) = pX(t1 +T0 ) (x) , ∀t1 )
2.3.4 Mesurer l’espérance (un peu de Statistique)
csl : mX (t1 + T0 ) = mX (t1 )
k = 2 –(css : pX(tX(t)
Figer (x1 , x2 ) = pX(t
1 )X(t2 )à l’instant t0 1; +T
obtenir
0 )X(t2 +Tv.a.
0)
, x2 ) ,) ∀t1 , t2 )
(x1X(t
0
csl : RX (t1 + T0 ; τ ) = RX (t1 ; τ )
– Comment mesurer E {X(t0 )} ?
– Observer n réalisations à t0 : échantillon de taille n 15
– La population génère de v.a. Xi (t0 ) :
indépendantes, même distribution, µX(t0 ) , σX(t0 )
Xn
– Moyenne de l’échantillon : X̄(t0 ) = n1 Xi (t0 )
 i=1
– E X̄(t0 ) = µX(t0 )

Processus
Processus Aléatoires
Stochastiques 10 13
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

– σX̄(t
2
0)
= n1 σX(t
2
0)

– X̄(t0 ) : estimateur convergent de E {X(t0 )}


– Moyenne d’ensemble (n → ∞) = Espérance

2.4 Ergodicité
– « Est-ce que les moyennes statistiques sont égales aux moyennes tempo-
relles ? »
– Équiv. : « Est-ce qu’une seule réalisation x(t) caractérise complètement le
processus stochastique X(t) ? »
– Ergodicité au sens strict :
– Condition nécessaire : X(t) stationnaire au sens strict
Z +T /2
ess
< . . . > , limT →∞ T1 . . . dt = E {. . .}
−T /2
– Ergodicité au sens large :
– Condition nécessaire : X(t) stationnaire au sens large
Z +T /2
1. < x(t) > = limT →∞ T1 x(t) dt
−T /2
esl
= E {X(t)} = mX
Z +T /2
2. ΓX (τ ) = < x(t + τ )x(t) > = limT →∞ T1 x(t + τ )x(t) dt
−T /2
esl
= E {X(t + τ )X(t)} = RX (τ )
– X(t) : p.s. stationnaire au sens large
Z +T /2 Z
1 +T /2
– Définir : µx (T ) = T
1
x(t) dt , γx (T ; τ ) = x(t + τ )x(t) dt
−T /2 T −T /2
– variables aléatoires
(Z(dépendent de ) T et de la réalisation choisie)
+T /2 Z +∞ Z +T /2
– E {µx (T )} = T1 E x(t) dt = T1 x(t)pX(t) (x) dt dx
−T /2 −∞ −T /2
Z +T /2 Z
1 +T /2
= T1 E {X(t)} dt = mX dt = mX
−T /2 T −T /2
– E {γx (T ; τ )} = . . . = RX (τ )
– Ergodicité au sens large :
Z +T /2
1 esl
< x(t) > = limT →∞ T x(t) dt = lim µx (T ) = mX
−T /2 T →∞
Z +T /2
esl
ΓX (τ ) = limT →∞ T1 x(t + τ )x(t) dt = lim γx (T ; τ ) = RX (τ )
−T /2 T →∞
– Égalité au sens :
limT →∞ E {µx (T )} = mX et limT →∞ var[µx (T )] = 0

2.4.1 Interpétation de l’espérance et de la variance


– Signal x(t) ergodique au sens large

Processus Aléatoires 14
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

ssl esl
– E {X(t)} = mX = < x(t) > = composante continue (DC)
2
– E {X(t)} = Pdc
 esl
– E X(t)2 = RX (0) = Γx (0) = < x(t)2 > = P̄tot (DC+AC)
  2
– 2
σX(t) = var[X(t)] = E (X(t) − E {X(t)})2 = E X(t)2 − E {X(t)}
esl
= < x(t)2 > − < x(t) > 2 = < (x(t)− < x(t) >)2 > = P̄ac (AC)
p
– σX(t) = P̄ac : valeur efficace (rms)
 2
E X(t)2 = E {X(t)} + σX(t)
2
−→ P̄tot = Pdc + P̄ac

2.5 Densité spectrale de puissance


2.5.1 Densité spectrale de puissance (ssl)
– X(t) stationnaire au sens large
– Définir : Z +∞
SX (f ) = F [RX (τ )] = RX (τ ) e− j 2πf τ dτ
−∞
– Z +∞
RX (τ ) = F −1 [SX (f )] = SX (f )e+ j 2πf τ df
−∞

– Puissance de X(t) :
Z +∞

E X(t) 2
= RX (t, t) = RX (0) = SX (f ) df
−∞

– SX (f ) : densité spectrale de puissance (en Watt/Hz)

2.5.2 Densité spectrale de puissance (csl)


– X(t) cyclo-stationnaire au sens large
– mX (t + T0 ) = mX (t)
– RX (t + T0 ; τ ) = RX (t; τ ) : périodique en t , série de Fourier :

+∞
X
n
RX (t; τ ) = RX (τ ) e+ j 2π(n/T0 )t
n=−∞
| {z }
cn

– Z +T0 /2
1
cn = n
RX (τ ) = RX (t; τ ) e− j 2π(n/T0 )t dt
T0 −T0 /2
Z +T0 /2
– « Composante continue » c0 = RX 0
(τ ) = T10 RX (t; τ ) dt , R̄X (τ )
  −T0 /2
– S̄X (f ) = F R̄X (τ ) : d.s.p. moyenne sur une période

Processus Aléatoires 15
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

– Utiliser S̄X (f ) à la place de SX (f, t) = F [RX (t; τ )]


– Si T v.a.c. uniforme [0, T0 ] : X(t + T ) stationnaire au sens large !
– Attention : csl → ssl seulement si on ajoute une phase aléatoire
(absence de synchronisation ; voir An Introduction to Cyclostationary Noise)

2.5.3 Densité spectrale de puissance : propriétés


– SX (f ) ≥ 0 , ∀f
Z +∞
– SX (0) = RX (τ ) dτ
−∞
– SX (−f ) = SX (f ) , si X(t) réel
– On note X (f, T ) la T.F. d’une réalisation tronquée :
Z T /2
X (f, T ) = x(t) exp(− j 2πf t) dt
−T /2
Signal tronqué : |X (f, T )|2 densité spectrale d’énergie
T |X (f, T )| : périodogramme (dimensions de d.s.p.) −→ estimation spec-
1 2

trale
X (f, T ) : v.a. (dépend de la réalisation choisie)
Si X(t) ergodique au sens large,
1 
SX (f ) = lim E |X (f, T )|2
T →∞ T

 2 
 Z T /2 
1
= lim E x(t) exp(− j 2πf t) dt
T →∞ T  −T /2 

– En pratique : E {. . .} = moyennage

2.5.4 Deux processus stochastiques


– X(t), Y (t) stationnaires conjointement, au sens large :
1. X(t) et Y (t) stationnaires au sens large
2. RXY (t, t + τ ) = E {X(t)Y (t + τ )} = RXY (τ )
– Propriétés :
– RXY (τ ) = RY X (−τ )
– Densité spectrale croisée de puissance (« spectre croisé »)
Z +∞
SXY (f ) = F [RXY (τ )] = RXY (τ ) e− j 2πf τ dτ
−∞
– Z +∞
−1
RXY (τ ) = F [SXY (f )] = SXY (f )e+ j 2πf τ df
−∞

– SXY (f ) = SY X (−f ) = SY∗ X (f )

Processus Aléatoires 16
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

2.6 Filtrage d’un processus stochastique


– Filtre linéaire, invariable dans le temps
– Réponse impulsionnelle h(t), fonction de transfert H(f )
– Entrée x(t), sortie y(t) (réalisations)
Z +∞
– y(t) = h(λ)x(t − λ) dλ
−∞
– X(t) stationnaire au sens
Z large  Z +∞
+∞
– mY (t) = E {Y (t)} = E h(λ)X(t − λ) dλ = h(λ)E {X(t − λ)} dλ
−∞ −∞
Z +∞
= mX h(λ) dλ = H(0)mX = mY
−∞
– RY (t, t + τ ) = . . . = RY (τ )
– ⇒ Y (t) stationnaire au sens large

SY (f ) = |H(f )|2 SX (f )


SY X (f ) = H(f )SX (f )

2.7 Processus gaussien : définition


– Observer X(t) aux instants t1 , t2 , . . . , tk
– Obtenir k v.a. : X(t1 ), X(t2 ), . . . , X(tk )
– X(t) p.s. gaussien si les v.a. X(t1 ), X(t2 ), . . . , X(tk ) sont conjointement
gaussiennes, ∀k
– Densité de probabilité conjointe :
pX(t1 )X(t2 )...X(tk ) (x1 , x2 , . . . , xk )
1
 1 T −1

= (2π)k/2 det(C) 1/2 exp − 2 (x − mX ) C (x − mX )
– x = (x1 x2 . . . xk )T
– mX = (mX(t1 ) mX(t2 ) . . . mX(t T
 k ) ) = (mX (t1 ) mX (t2 ) . . . mX (t
k ))
T

– C|i,j = cov[X(ti ), X(tj )] = E (X(ti ) − mX(ti ) )(X(tj ) − mX(tj ) )


= E {X(ti )X(tj )} − mX(ti ) mX(tj )
= RX (ti , tj ) − mX (ti )mX (tj )

2.7.1 Processus gaussien : propriétés


– X(t) est caractérisé uniquement par mX (t) et RX (t, t + τ )
– Stationnarité au sens large −→ stationnarité au sens strict
– X(ti ), X(tj ) : Non-corrélation −→ indépendance
(Rappel : X, Y non corrélées si cov[X, Y ] = E {XY } − E {X} E {Y } = 0 ;
si E {X} = 0 ou E {Y } = 0, décorrélation : E {XY } = RXY = 0)
– Filtrage linéaire de X(t) −→ nouveau processus gaussien

Processus Aléatoires 17
École Polytechnique de l’UNSA Département d’Électronique
École Polytechnique de l’UNS
Polytech’Nice-Sophia Département d’Électronique
3ee année
Polytech’Nice-Sophia 3 année

2.7.2 Signal binaire aléatoire


Signal binaire aléatoire
x(t)

+A

t
−A

td Tb
!+∞
! X(t) = k=−∞ Ak p(t − kTb − Td )
! +∞à temps discret, p (a = +A) = p (a = −A) = 0.5
X
Ak : p.s. discret Ak k Ak k
!– X(t)
E[A k ] ==0 Ak p(t − kTb − Td )
! indépendantes−→ RA (m, n) = E[Am An ] = A2 δ(m − n)
v.a. Am , Ank=−∞
! p(t) = 1 , 0 ≤ t ≤ Tb
– Ak : p.s. discret à temps discret, pAk (ak = +A) = pAk (ak = −A) = 0.5
! Tb : constante
!– E
Td :{A k } uniforme
v.a.c., = 0 [0, Tb ]
– v.a. Am , An indépendantes −→ RA (m, n) = E {Am An } = A2 δ(m − n)
27
– p(t) = 1 , 0 ≤ t ≤ Tb
– Tb : constante
– Td : v.a.c., uniforme [0,Tb ]
( 
2 |τ |
A 1 − Tb , |τ | < Tb
– RX (τ ) =
0 , ailleurs
–– SX (f ) = A2 Tb sinc2 (Tb f )
|P (f )|2
SX (f ) = où P (f ) = F[p(t)]
Tb

2.8 Exercices
Exercice 2.1 Fréquence aléatoire

On définit le processus stochastique X(t) = a cos(2πF t) où F est une va-


riable aléatoire, uniformément répartie sur [0, W ], et a une constante réelle.
1. Tracer plusieurs réalisations x(t).
2. Calculer la moyenne statistique mX (t).
3. Calculer la fonction d’autocorrélation statistique RX (t1 , t2 ).
4. Examiner la stationnarité de X(t).

Exercice 2.2 Amplitude aléatoire


On définit le processus stochastique X(t) = A cos(2πf t) où A est une va-
riable aléatoire, uniformément répartie sur [0, 1], et f une constante réelle.
Processus Stochastiques 17
1-4. Mêmes questions que pour l’exercice 1.
5. Déterminer la densité de probabilité du premier ordre pX (x; t) ,
pX(t) (x).

Processus Aléatoires 18
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

Exercice 2.3 Phase aléatoire

On définit le processus stochastique X(t) = a cos(2πf t+Θ) où Θ est une va-


riable aléatoire, uniformément répartie sur [0, 2π[, et a, f sont des constantes
réelles.
Mêmes questions que pour l’exercic 2.

Exercice 2.4 Exponentielles aléatoires

On définit le processus stochastique X(t) = eAt , constitué d’une famille


d’exponentielles dépendant de la variable aléatoire A, de densité de proba-
bilité pA (a) uniforme sur [0, 1].
Mêmes questions que pour l’exercice 2.

Exercice 2.5 Deux gaussiennes

On définit le processus stochastique X(t) = A + Bt, formé à partir de deux


v.a. A et B gaussiennes, centrées et indépendantes.
Mêmes questions que pour l’exercice 2.

Exercice 2.6 Estimation

Soit A(t) un processus stochastique stationnaire au second ordre et cen-


tré. On se propose de prédire, à partir d’une observation jusqu’au temps
t0 , la valeur du processus stochastique à un instant ultérieur t0 + T . On
appelleh Â(t0 + T ) cet estimateur
i et on définit l’erreur de prédiction :
 = E [A(t0 + T ) − Â(t0 + T )]2 .

1. Pour Â(t0 + T ) = λA(t0 ), trouver la valeur λ0 qui minimise l’erreur


de prédiction.
2. Calculer alors cette erreur.
3. On appelle ρ le coefficient de corrélation entre les v.a. A(t0 ) et A(t0 +
T ). Exprimer  en fonction de la variance et de ρ.
4. Dans quel cas l’erreur est-elle la plus grande ?

Exercice 2.7 Temps discret

On considère un processus stochastique à temps discret X(k). Pour k fixé,


X(k) est une variable aléatoire de moyenne m et de variance σ 2 . Pour
k1 différent de k2 les v.a. X(k1 ) et X(k2 ) sont indépendantes (et donc
décorrélées).
Calculer la fonction d’autocorrélation de X(k) et sa DSP.

Exercice 2.8 Séquence binaire aléatoire

Processus Aléatoires 19
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

On considère le processus stochastique X(t) dont une réalisation est présen-


tée à la Figure 1. Il s’agit d’une séquence aléatoire de symboles binaires :
– Le “1” et le “0” sont représentés par une impulsion d’amplitude +A et
−A, respectivement, de durée T0 (une constante).
– Les impulsions ne sont pas synchronisées : le délai Td du début de la
première impulsion après l’instant t = 0 est une variable aléatoire, uni-
formément répartie entre 0 et T0 .
– Les symboles “0” et “1” sont équiprobables et indépendants.
Calculer :
1. La fonction de probabilité pX(t) (x).
2. La moyenne statistique E {X(t)}.
3. La fonction d’autocorrélation de X(t).
4. La densité spectrale de puissance SX (f ) de X(t).
5. La densité spectrale d’énergie d’une impulsion d’amplitude A et de
durée égale à T0 .

t
b

1 2
Fig. 1

Exercice 2.9 Délai aléatoire

Processus Aléatoires 20
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

On considère le processus stochastique X(t) dont une réalisation est présen-


tée à la Figure 2. Il s’agit d’un signal numérique périodique non synchro-
nisé : le délai td de la première période après l’instant t = 0 est une variable
aléatoire, uniformément répartie entre 0 et T0 .
Calculer :
1. La fonction de probabilité pX(t) (x).
2. La moyenne et l’autocorrélation statistiques.
3. La moyenne et l’autocorrélation temporelles.
4. La densité spectrale de puissance de X(t).
Conclusion sur la stationnarité et l’ergodicité du processus X(t).

t
1 2

Fig. 2

Processus Aléatoires 21
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

Processus Aléatoires 22
École Polytechnique de l’UNS Département d’Électronique
Polytech’Nice-Sophia 3e année

Signal binaire aléatoire


x(t)

+A

t
−A

td Tb
! " #
|τ |
A2 1− Tb , |τ | < Tb
! RX (τ ) =
Chapitre 3 0
! SX (f ) = A2 Tb sinc2 (Tb f )
, ailleurs

! |P (f )|2
SX (f ) = où P (f ) = F[p(t)]
Tb

Bruit 28

Bruit 29
3.1 Définition
Définition
– Signal indésirable
! Signal indésirable
!– Contrôle
Contrôle incomplet
incomplet
!– Externe
Externe ou interne
ou interne au système
au système
!– Additifouou
Additif multiplicatif
multiplicatif
Y (t)
Y (t)=
= s(t)+N
s(t)+N (t)(t)

30

3.1.1 Bruit thermique : definition


– Inhérent à tout composant électronique
– Dû au mouvement aléatoire des électrons libres dans les conducteurs
– Tension
Processus aux bornes d’une résistance
Stochastiques 18 R :
– Moyenne nulle
– Variance σV2 = 2(πKT )2 R/3h (V 2 )
– K : constante de Boltzmann, 1.37 · 10−23 J/K
– h : constante de Planck, 6.62 · 10−34 J · s
– T : température, K
– dsp SV (f ) = 2Rh|f |/ [exp(h|f |/KT ) − 1] (V2 /Hz) 
h|f |
– Approximation pour |f | << KT /h : SV (f ) ≈ 2RKT 1 − 2KT (V2 /Hz)

23
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

– Température standard : T = 290K, KT /h = 10 THz

3.1.2 Bruit thermique : dsp disponible


– Modèle équivalent (Thévenin) d’une résistance R :
– Rth = R, considérée sans bruit
– « Source de tension » : dsp SV (f ) ≈ 2RKT (V2 /Hz)
– Densité spectrale de puissance disponible (charge adaptée) :

SV (f ) KT
Sa (f ) = = (W/Hz)
4R 2

– dsp disponible : ne dépend pas de R !

École Polytechnique de l’UNS Département d’Électronique


3.1.3 Bruit blanc
Polytech’Nice-Sophia 3e année
– Processus stochastique avec dsp constante :
Bruit blanc η
SX (f ) =
! Processus stochastique avec dsp constante : 2
– η : dsp des fréquences positives SX (f ) = η
– Température équivalente : Te = η/K 2
! η : dsp des fréquences positives
– Fonction d’autocorrélation
! Température :
équivalente : Te = η/K
! Fonction d’autocorrélation : Z +∞
! η 2πf τ η
RX (τR)X=(τ ) = +∞ ηee jj2πf τ
dfdf
= =
η
δ(τ )2 δ(τ )
−∞−∞
22 2

SX (f ) RX (τ )

η η
2 2

f τ
! Bruit blanc gaussien centré : rien de plus aléatoire !
– Bruit blanc gaussien centré : rien de plus aléatoire !
33
1. le bruit blanc est irréalisable (puissance moyenne infinie !)
si on l’observe à l’oscillo, il est toujours différent (RX = 0) mais pour
chaque base de temps il a la même allure (contient toutes les frequences)
2. Blanc se réfère à la dsp
Gaussien à la densité de probabilité
3. Si un bruit blanc est gaussien à moyenne nulle, alors les v.a. qu’on obtient
à τ 6= 0 sont décorrélées, c.a.d. indépendantes. Le bruit blanc gaussien
centre est la « chose » la plus aléatoire qui existe. . .
Commentaires
1. le bruit blanc est irréalisable (puissance moyenne infinie !)
si on l’observe à l’oscillo, il est toujours différent (RX = 0) mais pour chaque base de temps il a la
3.1.4 Bruit coloré
même allure (contient toutes les frequences)
2. Blanc se réfère à la dsp
– Bruit blanc filtré (fonction de transfert H(f ))
Gaussien à la densité de probabilité
– S3.Y (f
Si un =
) |H(f
bruit
2
blanc)|estSgaussien |H(f )|
X (f ) à=moyenne
2
η/2
nulle, alors les v.a. qu’on obtient à τ != 0 sont décorrélées,
c.a.d. indépendantes. Le bruit blanc gaussien centre est la « chose » la plus aléatoire qui existe. . .

Processus Aléatoires note 1 of slide 33 24


École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

– RY (τ ) = η2 F −1 |H(f )|2
– Bande passante équivalente
Z +∞ bruit, BN : Z
 2 +∞
η
E Y = RY (0) = 2 2
|H(f )| df = η |H(f )|2 df
−∞ 0
, ηBN |H(f )|2max
– Exemple : bruit blanc à l’entrée d’un filtre passe-bas idéal
– H(f ) = 1 , −B ≤ f ≤ +B
– SY (f ) = η/2 , −B ≤ f ≤ +B
– RY (τ ) = η2 2Bsinc(2Bτ )
Z +∞

– E Y2 = SY (f ) df = ηB
−∞
– |H(f )|max = 1
E{Y 2 }
– BN = η|H(f )|2 =B
max

Processus Aléatoires 25
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

Processus Aléatoires 26
Chapitre 4

Signaux passe-bande
(rappels)

4.1 definition
– y(t)  Y (f ) : signal réel, déterministe (passe-bande)
– Y (f ) 6= 0 , |f | ∈ [fc − B, fc + B] (autour de ±fc )
– y+ (t)  Y+ (f ) : signal analytique (passe-bande, f > 0)

0 f <0
Y+ (f ) = Y (f ) f = 0 → Y+ (f ) 6= 0 , f ∈ [fc − B, fc + B]


2Y (f ) f > 0
– y(t) = Re{y+ (t)}
– ỹ(t)  Ỹ (f ) : enveloppe complexe (bande de base)
Ỹ (f ) = Y+ (f + fc ) 6= 0 , f ∈ [−B, +B]
– y(t) = Re{y+ (t)} = Re{ỹ(t) exp( j 2πfc t)}
– ỹ(t) = yI (t) + j yQ (t) → y(t) = yI (t) cos(2πfc t) − yQ (t) sin(2πfc t)
– ỹ(t) = a(t) exp( j φ(t)) → y(t) = a(t) cos(2πfc t + φ(t))
– yI (t), yQ (t), a(t), φ(t) : signaux réels, en bande de base [−B, +B]

4.1.1 Bruit coloré passe-bande


– Bruit blanc à l’entrée d’un filtre sélectif
– Obtenir une expression N (t) = . . . pour le p.s. à la sortie
– SN (f ) = η2 |H(f )|2 6= 0 , |f | ∈ [fc − B, fc + B] (autour de ±fc )
– Représentation canonique :
N (t) = Re{Ñ (t) exp( j 2πfc t)} = NI (t) cos(2πfc t) − NQ (t) sin(2πfc t)
– Propriétés :
– NI (t), NQ (t) conjointement stationnaires au sens large
– NI (t), NQ (t) de moyenne nulle et de même variance que N (t)

27
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

(
SN (f − fc ) + SN (f + fc ) −B ≤ f ≤ B
– SNI (f ) = SNQ (f ) =
0 ailleurs
– Si N (t) gaussien : NI (t), NQ (t) conjointement gaussiens
– Si N (t) gaussien centré et SN (f ) symétrique autour de ±fc :
NI (t), NQ (t) indépendants
– Bruit blanc gaussien centré à l’entrée d’un filtre sélectif
– Représentation canonique :
N (t) = NI (t) cos(2πfc t) − NQ (t) sin(2πfc t)
– Transformation en amplitude / phase (Statistiques Appliquees, TD 4.3)
NI (t), NQ (t) indépendants :
N (t) = q
R(t) cos[2πfc t + Φ(t)]
– R(t) = NI2 (t) + NQ
2 (t)

– Φ(t) = arctan[NQ (t)/NI (t)]


– NI (t) = R(t) cos(Φ(t)) , NQ (t) = R(t) sin(Φ(t))
– Φ(t) : uniformément répartie entre [0, 2π[
– R(t) : distribution de Rayleigh

(
r r2
σ 2 exp − 2σ 2 r≥0
pR (r) =
0 r<0

4.2 Autocorrélation de p.s. complexes


– X(t) : p.s. passe-bande, X̃(t) enveloppe
h complexe i
– X(t) = Re{X̃(t) exp( j 2πfc )} = 2 X̃(t) exp( j 2πfc t) + X̃ ∗ (t) exp(− j 2πfc )
1

– RX (t1 , t2 ) = E {X(t
n 1 )X(t2 )} o
= 4 E X̃(t1 )X̃(t2 ) exp( j 2πfc (t1 + t2 ))
1
n o
+ 41 E X̃ ∗ (t1 )X̃ ∗ (t2 ) exp(− j 2πfc (t1 + t2 ))
n o
+ 41 E X̃(t1 )X̃ ∗ (t2 ) exp( j 2πfc (t1 − t2 ))
n o
+ 41 E X̃ ∗ (t1 )X̃(t2 ) exp(− j 2πfc (t1 − t2 ))
n n o o
– RX (t1 , t2 ) = 21 Re E X̃(t1 )X̃(t2 ) exp( j 2πfc (t1 + t2 ))
n n o o
+ 21 Re E X̃(t1 )X̃ ∗ (t2 ) exp( j 2πfc (t1 − t2 ))
n o
– E X̃(t1 )X̃(t2 ) = 0 (sans démonstration)
n n o o
– RX (t1 , t2 ) = 21 Re E X̃(t1 )X̃ ∗ (t2 ) exp( j 2πfc (t1 − t2 ))
– n o
RX̃ (t1 , t2 ) , E X̃(t1 )X̃ ∗ (t2 )

1
RX (t1 , t2 ) = Re {RX̃ (t1 , t2 ) exp( j 2πfc (t1 − t2 ))}
2
– Si X(t) ssl, RX̃ (t1 , t2 ) = RX̃ (τ )

Processus Aléatoires 28
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

– RX̃ (−τ ) = R∗X̃ τ


– SX̃ (f ) = F [RX̃ (τ )] : dsp réelle, pas toujours symétrique

4.3 Bruit utile

4.3.1 Analyseur dynamique

– Injecter un signal aléatoire X(t) à l’entrée ; mesurer la sortie Y (t)


– Filtre linéaire, fonction de transfert :

SY X (f )
H(f ) =
SX (f )

– Estimer les dsp à partir de TF (FFT) de réalisations tronquées (tr. #2.5.3) :

E {Y(f, T )X ∗ (f, T )}
H(f ) =
E {|X (f, T )|2 }

– En pratique : E {. . .} = moyennage (AVG: STABLE (MEAN) / TIM AV OFF)


– Bruit blanc : contient toutes les fréquences
– Technique rapide ; uniquement pour les systèmes linéaires !
– Technique lente : balayage fréquentiel (tous les systèmes)
– Cohérence : γ 2 (f ) = SXY (f )SXY

(f )/SX (f )SY (f ) = 1
sinon problème : résolution fréquentielle, non-linéarités, bruit externe

Exercice 4.1 Filtrage / échantillonnage

Processus Aléatoires 29
École Polytechnique de l’UNS Département d’Électronique
Polytech’Nice-Sophia 3e année

Processus Stochastiques
École Polytechnique de l’UNSA TD 3 Département d’Électronique
Polytech’Nice-Sophia Bruit et filtrage 3e année

3.1 Filtrage
Deux bruits / échantillonnage
blancs gaussiens, centrés, décorrélés, stationnaires au sens large,
de densitéDeux bruits blancs
spectrale degaussiens,
puissancecentrés, décorrélés,
η1 /2 stationnaires
et η2 /2 au sens large,se super-
respectivement,
posentdeà densité spectrale
l’entrée d’undefiltre
puissance 1 /2 et η2 /2 respectivement, se superposent à
RC ηpasse-bas.
l’entrée d’un filtre RC passe-bas.
X1 (t)

X(t)
H(f ) Y (t)

X2 (t)

La sortie Y (t) est échantillonnée. Quelle est la condition qu’il faut imposer
La sortie
sur laY fréquence
(t) est échantillonnée.
d’échantillonnage siQuelle
on veut est
que la
les condition qu’il faut
échantillons successifs de imposer
(t) soient indépendants
sur la Yfréquence ?
d’échantillonnage si on veut que les échantillons successifs
de Y (t) soient indépendants
Remarque 1 On considère ? que l’autoccorélation statistique de Y (t) est nulle
si elle est inférieure à 1% de la valeur maximale.
Remarque 4.1 On considère que l’autoccorélation statistique 2a de Y (t) est
Remarque 2 On peut utiliser la relation (paire de Fourier) : e−a|t| ↔ a +(2πf
2 ) .
2
nulle si elle est inférieure à 1% de la valeur maximale.
3.2 « Démodulation »
Remarque 4.2 On peut utiliser la relation (paire de Fourier) : e−a|t| ↔
2a
a2 +(2πf )2
. Y (t) U (t)
X(t) H1 (f ) H2 (f ) V (t)

Échantillons indépendants si décorrélés (parce que Y (t) proces-


sus gaussien) ; échantillons décorrélés si autocorélation statistique
nulle (parce que Y (t)2 processus
exp (− j 2πfc t)centré).
Te ≥ − ln(0.01)RC ≈ 4.61RC, fe ≤ 0.22/RC.
Les fonctions de transfert des deux filtres sont données par (B << fc ) :
! !
Exercice 4.2 Signal bruité1 , |f ± fc| ≤ B
H1 (f ) = H2 (f ) =
1 , |f | ≤ B
0 , ailleurs 0 , ailleurs
On considère la superposition d’un signal harmonique s(t) = a cos(2πfc t)
Le processus stochastique X(t), à l’entrée du premier filtre, est stationnaire
et d’un bruit gaussien, centré, de variance σ 2 , à bande étroite autour de fc .
au sens large, réel, à temps continu.
Une représentation du signal bruité est donnée
a. Calculer la moyenne statistique de Y (t).
par l’expression :

x(t) = a cos(2πfc t) + n(t)


Processus Stochastiques 1

– Utiliser la représentation canonique pour donner les deux composantes


(en phase et en quadrature de phase) de X(t).
– Calculer la moyenne statistique et la variance de chaque composante.
– Calculer leur densité de probabilité conjointe.
– Exprimer X(t) en module et phase et calculer la densité de probabilité
marginale de R(t).
Remarques :
1. Les deux composantes d’un bruit gaussien, centré, à bande étroite
sont statistiquement indépendantes si la dsp SN (f ) est symétrique
autour de la fréquence fc .
2. Utiliser la définition de la fonction de Bessel modifiée de première
espèce d’ordre zéro :
Z 2π
1
I0 (x) = exp(x cos φ) dφ
2π 0

Exercice 4.3 Démodulation

Processus Aléatoires 30
X2 (t)

La sortie Y (t) est échantillonnée. Quelle est la condition qu’il faut imposer
sur la fréquence d’échantillonnage si on veut que les échantillons successifs de
Y (t) soient indépendants ?

Remarque 1 On considère que l’autoccorélation statistique de Y (t) est nulle


si elle est inférieure à 1% de la valeur maximale.
École Polytechnique
Remarque 2 de Onl’UNSA Département
peut utiliser la relation (paire de Fourier)d’Électronique
: e−a|t| ↔ a2 +(2πf )2 .
2a

Polytech’Nice-Sophia 3e année
3.2 « Démodulation »

Y (t) U (t)
X(t) H1 (f ) H2 (f ) V (t)

2 exp (− j 2πfc t)

Les fonctions
Les fonctions de transfert
de transfert des deuxdesfiltres
deuxsont
filtres sont par
données données
(B << par
fc (B
) : << fc ) :
( ! ( !
1 , |f
1 ± f|f
, c| ±
≤Bf c | ≤ B 1 , |f | 1≤, B |f | ≤ B
H1 (fH)1=
(f ) 0=, ailleurs H2 (f ) =H2 (f0 ), =ailleurs
0 , ailleurs 0 , ailleurs
Le processus stochastique X(t), à l’entrée du premier filtre, est stationnaire
Le processus stochastique X(t), à l’entrée du premier filtre, est stationnaire
au sens large, réel, à temps continu.
au sens large, réel, à temps continu.
1. Calculer la moyenne statistique de Y (t).
a. Calculer la moyenne statistique de Y (t).
2. Calculer la densité spectrale de puissance SY (f ) en fonction de SX (f ).
On met SY (f ) sous la forme :
Processus Stochastiques 1
SY (f ) = SY+ (f ) + SY− (f )

avec SY+ (f ) = 0 pour f ≤ 0 et SY− (f ) = 0 pour f ≥ 0.


c. Exprimer SY− (f ) en fonction de SY+ (f ).
d. Calculer la fonction d’autocorrélation statistique de U (t) en fonction
de celle de Y (t).
e. Donner l’expression de la dsp SV (f ) de V (t) en fonction de SU (f ),
puis de SY+ (f ).
On suppose maintenant que X(t) est un bruit blanc centré, de densité spec-
trale de puissance SX (f ) = η/2.
f. Calculer la fonction d’autocorrélation et la puissance de Y (t).
g. Calculer la fonction d’autocorrélation et la puissance de V (t).

Remarque 4.3 L’autocorrélation RX (t, t + τ ) d’un processus stochastique


complexe est donnée par RX (t, t + τ ) = E[X(t)∗ X(t + τ )].

1. E[Y (t)] = 0.
(
SX (f ) , |f ± fc | ≤ B
2. SY (f ) = .
0 , sinon
c. SY+ (−f ) = SY− (f ).
d. RU (τ ) = 4e− j 2πfc τ RY (τ ).
(
SU (f ) , −B ≤ f ≤ B
e. SV (f ) = = 4SY+ (f + fc ).
0 , sinon
η
f. RY (τ ) = 2
sinc(2Bτ ) cos(2πfc τ ) ; P = RY (0) = η2B.
g. RV (τ ) = 4 η2 2Bsinc(2Bτ ); P = RV (0) = η4B.

Processus Aléatoires 31
TD 3
Bruit et filtrage

3.1 Filtrage / échantillonnage


Deux bruits blancs gaussiens, centrés, décorrélés, stationnaires au sens large,
de densité spectrale de puissance η1 /2 et η2 /2 respectivement, se superposent à
École Polytechnique de l’UNSA
l’entrée d’un filtre RC passe-bas. Département d’Électronique
Polytech’Nice-Sophia 3e année
X1 (t)

Exercice 4.4 Démodulation X(t)


H(f ) Y (t)

X2 (t)

La sortie Y (t) est échantillonnée. Quelle est la condition qu’il faut imposer
sur la fréquence d’échantillonnage si on veut que les échantillons successifs de
Y (t) soient indépendants ?

Remarque 1 On considère que l’autoccorélation statistique de Y (t) est nulle


si elle est inférieure à 1% de la valeur maximale.

Remarque
On 2 On peutd’un
donne le schéma-bloc utiliser la relation
récepteur (paire
composé d’undefiltre
Fourier) :e
passe-bande ↔
et
−a|t|
a2 +(2πf )2 .
2a

d’un démodulateur cohérent :


3.2 « Démodulation »

Y (t) U (t)
X(t) H1 (f ) H2 (f ) V (t)

2 exp (− j 2πfc t)

Les fonctions
Les fonctions de transfert
de transfert des deuxdesfiltres
deuxsont
filtres sont par
données données
(B << par
fc )(B
: << fc ) :
( ! ( !
1 , |f
1 ,± f|f
c| ±
≤Bfc | ≤ BH2 (f ) = 1 , |f | 1≤,B |f | ≤ B
H1 (fH) =
1 (f ) 0=, ailleurs H2 (f0 ), =ailleurs
0 , ailleurs 0 , ailleurs
Le signal aléatoire à l’entrée du récepteur peut être modélisé par :
Le processus stochastique X(t), à l’entrée du premier filtre, est stationnaire
au sens large, réel, à temps
X(t)continu.
= S(t) + W (t)
a. Calculer
où S(t) la moyenne
est le signal modulé enstatistique deW
amplitude et Y (t)
(t).un bruit blanc, gaussien,
centré, de dsp égale à η/2.
ÀProcessus
l’émetteur, on obtient S(t) en multipliant
Stochastiques 1 le message M (t) (signal aléa-
toire, stationnaire au sens large, dont la dsp se situe en bande de base et
occupe une bande passante égale à B) avec le signal d’un oscillateur local,
Ac cos(2πfc t).
À la sortie du filtre passe-bande, on a Y (t) = S(t) + N (t). Utiliser la repré-
sentation canonique du bruit passe-bande sous la forme :

N (t) = NI (t) cos(2πfc t) − NQ (t) sin(2πfc t).

Calculer les rapports signal sur bruit (SNR) suivants :


puissance de S(t)
1. au niveau du canal : SNRc = puissance du bruit dans la b.p. du message
,
2. à l’entrée du démodulateur (SNRe ),
3. à ls sortie du récepteur (SNRs ).

Processus Aléatoires 32
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

S(t) = AM (t). cos(2πfc t + Θ) ; où Θ est une v.a. uniformé-


ment répartie sur [0, 2π], qui tient compte du fait qu’il n’y
a pas synchronisation entre M (t) et l’oscillateur local.

=
E {S(t)} indépendance Ac .E {M (t)} .E {cos(2πfc t + Θ)} = 0

RS (t, t + τ ) = E {Ac M (t) cos(2πfc t + Θ).Ac M (t + τ ) cos(2πfc (t + τ ) + Θ)}


= A2c E {M (t)M (t + τ )} 12 E {cos(2πf cτ ) + cos(2πfc (t + τ ) + 2Θ)}
A2
= 2c RM (τ ). cos(2πfc τ )

Donc

A2c
S(f ) = F{RS (τ )} = (SM (f − fc ) + SM (f + fc ))
2
A2c A2c
La puissance vaut donc PS = RS (0) = 2 RM (0) = PM 2 .
On obtient alors : 2 Ac
PS .PM
– SNRc = Pbruit = 2
ηB
– SNRe :

SY (f ) = |H1 (f )|2 SX (f )
(on a une dsp de niveau η/2 sur les intervalles fc ± B et
−fc ± B).
A2
c .P
d’où SNRe = 22.ηBM
– On s’intéressera à la partie réelle de U (t)

U (t) = 2.Y (t) cos(2πfc t + Θ)


= 2.(Ac M (t) cos(2πfc t + Θ) + N (t)). cos(2πfc t + Θ)
= 2.(Ac M (t) + NI (t)) cos2 (2πfc t + Θ)
−2.NQ (t) sin(2πfc t + Θ) cos(2πfc t + Θ)
= (Ac M (t) + NI (t))(1 + cos(4πfc t + 2.Θ)
−.NQ (t) sin(0) + sin(4πfc t + 2.Θ)

On en déduit : E {U (t)} = Ac .E {M (t)}, et


=
Ru (t, t+τ ) = E {U (t)U (t + τ )} indpendances...= A2c RM (τ )+RNI (τ ).

De même SU (f ) = A2c SM (f ) + SNI (f ) (contribution du


signal + contribution du bruit) ; avec SNI (f ) = SN (f −
fc ) + SN (f + fc ), donc de dsp 2. η2 sur la bande de −B à
B. La puissance du bruit vaut donc PNI = 2.ηB.
A2c .PM
Et donc SNRS = 2.η.B = SNRc .

Processus Aléatoires 33
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

Processus Aléatoires 34
Chapitre 5

Processus aléatoires à temps


discret.
Cette partie du cours traite, après des rappels servant prin-
cipalement à fixer les notations, de la matrice de corrélation
et des processus autorégressifs et à moyenne mobile .

5.1 Processus et modèles aléatoires discrets.


5.1.1 Moyenne, autocorrélation et stationarité.
Soit un processus stochastique discret représenté par la série temporelle
X(n), X(n − 1), . . . , X(n − M ), on définit la moyenne par :

µX (n) = E {X(n)} (5.1)


où E {.} est l’opérateur espérance mathématique. De même, l’autocorrélation
prend la forme :

r(n, n − k) = E {X(n)X ∗ (n − k)} , k = 0, ±1, ±2, . . . (5.2)


où l’astérisque représente la conjugaison complexe. La fonction d’autocova-
riance s’écrit :

c(n, n−k) = E {[X(n) − µX (n)][u(n − k) − µX (n − k)]∗ } , k = 0, ±1, ±2, . . .


(5.3)
Un processus est dit strictement stationnaire si tous ses moments sont indé-
pendants du temps. Un processus est dit faiblement stationnaire, ou stationnaire
au sens large, si
– µX (n) = µ ∀n
– r(n, n − k) = r(k) ∀n
On notera au passage que r(0) représente la valeur quadratique moyenne ou
puissance de X(n), tandis que c(0) = σX2
représente la variance .

35
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

5.1.2 La matrice de corrélation.


Définissons un vecteur d’observation (qui est un vecteur aléatoire !) X(n) tel
que :

XT (n) = [X(n), X(n − 1), . . . , X(n − M + 1)] (5.4)


On définit alors la matrice de corrélation par :

R = E X(n)XH (n) (5.5)
où XH (n) représente la transposée hermitienne de X(n), c’est-à-dire le vec-
teur transposé conjugué.
En détaillant la matrice de corrélation, on obtient immédiatement :
 
r(0) r(1) · · · r(M − 1)
 r(−1) r(0) · · · r(M − 2) 
 
R= . .. .. ..  (5.6)
 .. . . . 
r(−M + 1) r(−M + 2) ··· r(0)
1. La matrice de corrélation d’un processus stochastique discret stationnaire
est hermitienne.
Une matrice est dite hermitienne si elle est égale à sa transposée hermi-
tienne, i.e.

R = RH (5.7)
Cette propriété découle directement de la définition de la matrice de cor-
rélation. On peut d’ailleurs aisément vérifier que r(−k) = r∗ (k). Dans le
cas d’un processus à valeurs réelles, la matrice R est symétrique.
2. La matrice de corrélation d’un processus stationnaire discret est une ma-
trice Toeplitz carrée.
Une matrice carrée est dite Toeplitz si tous les éléments d’une même dia-
gonale ou sous-diagonale sont égaux. On voit directement que c’est le cas
ici. D’autre part, cette propriété est directement liée à la propriété de sta-
tionnarité (au sens large) du processus. Cette propriété est importante,
car elle permet dans bien des cas de simplifier les calculs algébriques.
3. La matrice de corrélation d’un processus stationnaire discret est toujours
définie non négative (et souvent définie positive).
Soit X un vecteur aléatoire complexe quelconque de dimension M x1. Dé-
finissons Y = uH X(n) (et donc y ∗ = uH (n)X). La puissance de Y est
définie par :

E |Y |2 = E {Y
 HY ∗}
= E u X(n)XH (n)u
(5.8)
= uH E X(n)XH (n) u
= uH Ru

Processus Aléatoires 36
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

Ce qui implique uH Ru ≥ 0, d’où, par définition, R est définie semi-


positive. En fait, la matrice R sera singulière principalement si le processus
est constitué de K sinusoïdes avec K ≤ M .

Application 5.1 Soit un processus constitué d’une sinusoïde complexe bruitée

X(n) = α exp(jωn) + V (n), n = 0, 1, . . . , N − 1 (5.9)


où V (n) est une réalisation du bruit blanc (E {V (n)V (n − k)} = σv2 δk )

à moyenne nulle. La sinusoïde et le bruit sont supposés indépendants, ce qui


permet d’écrire :

r(k) =E {X(n)X



(n − k)}
|α| + σv2
2
k=0 (5.10)
=
|α|2 exp(jωk), 6 0
k=
soit

 
1 + ρ1 exp(jω) ··· exp(jω(M − 1))
 exp(−jω) 1 + ρ1 ··· exp(jω(M − 2)) 
 
R = |α|2  .. .. .. .. 
 . . . . 
exp(jω(−M + 1)) exp(jω(−M + 2)) ··· 1 + ρ1
(5.11)
2
où ρ est le rapport signal-bruit défini par ρ = |α|
σv2 .
Dans le cas où ce rapport est infini (c’est-à-dire dans le cas sans bruit), R
peut s’écrire :
 
1
 e−jω 
  h i
 e −2jω 
R=  . 1ejω e2jω · · · e(M −1)jω (5.12)
 .. 
 . 
e−(M −1)jω
Il s’ensuit que la matrice R est de rang 1. Dans le cas de K sinusoïdes, nous
aurons donc une matrice de rang (au plus égal) à K.

5.1.3 Les innovations.


Soit un processus stationnaire X(n) de séquence d’autocorrélation r(n) et
de densité spectrale de puissance (dsp) Sxx (f ) définie sur |f | ≤ 21 . On suppose
que Sxx (f ) est réelle et continue pour tout |f | ≤ 12 . On peut définir

X
Sxx (z) = r(m)z −m (5.13)
m=−∞

Processus Aléatoires 37
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

La densité spectrale étant obtenue en évaluant Sxx (z) sur le cercle unité.
Supposons que Sxx (z) est analytique dans une région incluant le cercle unité.
On peut alors écrire la série de Laurent :

X
log Sxx (z) = ν(m)z −m (5.14)
m=−∞
ce qui, sur le cercle unité, devient :

X
log Sxx (f ) = ν(m)e−j2πf m (5.15)
m=−∞

Les coefficients ν(m) sont donc les coefficients de Fourier de la série de Fourier
représentant la fonction périodique log Sxx (f ). Donc :
Z 1
2
ν(m) = log Sxx (f )e−j2πf m df, m = 0; ±1, . . . (5.16)
− 12

Sxx (f ) étant une fonction réelle et paire, il s’ensuit que


" ∞ #
X
−m
Sxx (z) = exp ν(m)z
(5.17)
m=−∞
= σv2 H(z)H(z −1 )
où σv2 =e ν(0)
et
" ∞
#
X
H(z) = exp ν(m)z −m , |z| > r1 (5.18)
m=1
En évaluant Sxx (z) sur le cercle unité, nous obtenons l’expression :

Sxx (f ) = σv2 |H(f )|2 (5.19)


Les coefficients ν(m) sont appelés coefficients cepstraux et la séquence ν(m)
est appelée cepstre de la séquence d’autocorrélation r(m).
Le filtre H(z) est analytique dans la zone |z| > r1 < 1. On peut donc
développer H(z) sous la forme causale (série de Taylor) :

X
H(z) = hn z −n (5.20)
m=0

Si on excite l’entrée de ce filtre par un bruit blanc V (n) de puissance σv2 , la


sortie sera un processus stationnaire X(n) de densité spectrale de puissance
Sxx (f ) = σv2 |H(f )|2 = σv2 H(z)H(z −1 )|ej2πf .
De même, si X(n) est un signal stationnaire ayant cette dsp, le fait de passer
ce signal dans un filtre 1/H(z) nous fournit un bruit blanc à la sortie. On parle
de filtre blanchissant et la sortie V (n) est appelée processus d’innovation associé
à X(n)
Cette représentation est appelée représentation de Wold.

Processus Aléatoires 38
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année


X
u(n) = hk v(n − k)
v(n) k=0
Filtre Linéaire causal H(z)
Bruit blanc

u(n) v(n)
1
Filtre Linéaire causal H(z)
Bruit Blanc

Figure 5.1 – Représentation de Wold

5.1.4 Modèles stochastiques (AR, MA, ARMA).


On restreint Sxx (z) à être de la forme :

B(z)B(z −1 )
Sxx (z) = σv2 r1 < |z| < r2 (5.21)
A(z)A(z −1 )

où B(z) et A(z) ont leurs racines à l’intérieur du cercle unité. On peut alors
écrire :

q
X
bk z −k
B(z) k=0
H(z) = σv2 = p r1 < |z| (5.22)
A(z) X
−k
1+ ak z
k=1

De plus, par construction, H(z) est causal, stable et à phase minimale. Son
inverse 1/H(z) est également causal, stable et à phase minimale.
On peut exprimer la relation ci-dessus par l’équation aux différences sui-
vante :

p
X q
X
X(n) + ak X(n − k) = bk V (n − k) (5.23)
k=1 k=0

Processus autorégressif (AR)

Processus Aléatoires 39
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

Un processus autorégressif est caractérisé par B(z) = 1, et donc par l’équa-


tion aux différences :

p
X
X(n) + ak X(n − k) = V (n) (5.24)
k=1

On peut également représenter ce processus par la figure suivante.

v(n) u(n)
+
Bruit blanc Processus AR

z −1

+ a1

z −1

+ aq−1

z −1

aq

Figure 5.2 – Filtre générateur de processus AR

Exercice 5.1 D

ans l’exemple de processus AR donnés, justifiez (par les pôles et zéros)


l’allure des courbes.

Processus à moyenne mobile (MA : Moving Average)

Processus Aléatoires 40
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

−5
0 50 100 150 200 250
10

−10
0 50 100 150 200 250
20

10

−10
0 50 100 150 200 250

Figure 5.3 – Exemples de processus AR. Bruit blanc ; A=[1 0.1 -0.8] ; A =
[1 -0.975 0.95]

Un processus autorégressif est caractérisé par A(z) = 1, et donc par l’équa-


tion aux différences :

q
X
X(n) = bk v(n − k) (5.25)
k=0

v(n)
z −1 z −1 z −1

b1 b2 bp−1 bp

u(n)
+ + + +
processus
MA
Figure 5.4 – Filtre générateur de processus MA

Processus autorégressif à moyenne mobile (ARMA)


C’est le processus général décrit ci-dessus.

Processus Aléatoires 41
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

−5
0 50 100 150 200 250
5

−5

−10
0 50 100 150 200 250

0 50 100 150 200 250

Figure 5.5 – Exemples de processus MA. Bruit blanc, B= [1 1 1 1]/4 ; B=[


1 (100 éléments) 1]/100

−5
0 50 100 150 200 250
5

−5
0 50 100 150 200 250
0.5

−0.5
0 50 100 150 200 250

Figure 5.6 – Exemples de processus AR. Bruit blanc, A=[1 -0.975 0.95] B
comme ci-dessus

Processus Aléatoires 42
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

v(n)
+ b0 +
Bruit blanc processus
ARMA
z −1

+ a1 b1 +

z −1

+ aq−1 bp

z −1

aq

Figure 5.7 – Filtre générateur de processus ARMA

Processus Aléatoires 43
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

5.1.5 Les équations de Yule-Walker.


La représentation de Wold nous apprend qu’il y a relation biunivoque entre
la densité spectrale de puissance d’un processus stationnaire X(n) et sa repré-
sentation par un bruit blanc filtré (AR, MA, ARMA). D’autre part, nous savons
que la dsp est reliée de la même manière à la séquence d’autocorrélation. Cette
section fera le lien entre les paramètres des filtres et la matrice d’autocorrélation.
Pour ce faire, il suffit d’écrire l’autocorrélation, en tenant compte de l’équa-
tion aux différences d’un processus ARMA :

p
X
E {X(n)X ∗ (n − m)} = − ak E {X(n − k)X ∗ (n − m)}
k=1
Xq (5.26)

+bk E {V (n − k)X (n − m)}
k=0

Soit
p
X q
X
rxx (m) = − ak rxx (m − k) + bk rvx (m − k) (5.27)
k=1 k=0

Le terme de cross-corrélation rvx (m) peut s’écrire en fonction du filtre H(z)


par (en se rappelant que V (n) est blanc) :

rvx (m) = E {X
( ∞(n)V (n + m)} )
X

=E hk X (n − k)X(n + m) (5.28)
k=0
= σv2 h−m m≥0
Les relations entre la séquence d’autocorrélation et les coefficients des filtres
du processus ARMA peuvent donc s’écrire :

 p
 X

 − ak rxx (m − k), m>q



 k=1
rx (m) = X p q−m
X (5.29)

 − a r (m − k) + σ 2
hk bk+m , 0 ≤ m ≤ q

 k xx v

 k=1 k=0
 ∗
rxx (−m) m<0
Dans le cas d’un processus AR, ces équations se simplifient comme suit :
 p

 X
 −
 ak rxx (m − k), m>0


 k=1
p
rxx (m) = X (5.30)

 − ak rxx (m − k) + σv2 , m = 0




 ∗ k=1
rxx (−m) m<0

Processus Aléatoires 44
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

Ce sont les équations de Yule-Walker qui s’écrivent sous forme matri-


cielle :

    
r(0) r∗ (1) ··· r∗ (p) 1 σv2
 r(1) r(0) ··· r∗ (p − 1)  a1   0 
    
 .. .. .. ..  .. = .. 
 . . . .  .   . 
r(p) r(p − 1) · · · r(0) ap 0

(5.31)
pace6mm

5.1.6 Prédiction linéaire avant.


Le problème posé est, étant donné un processus X(n) stationnaire au sens
large, de prédire l’échantillon X(k) en connaissant les M échantillons précédents.

M
X
X̂(k) = − aM (m)X(k − m) (5.32)
m=1

Le critère que nous allons utiliser pour caractériser la qualité de la prédiction


est l’erreur quadratique moyenne (variance de l’erreur de prédiction) :

 2 
n o  M
X 

min E |X(k) − X̂(k)|2 = min E X(k) + aM (m)X(k − m)
aM (m) aM (m)  
m=1
(5.33)
Soit, en appelant l’erreur de prédiction d’ordre M à l’instant k : FM (k) et
en posant aM (0) = 1 :

M
X M
X
FM (k) = X(k) − X̂(k) = X(k) + aM (m)X(k − m) = aM (m)X(k − m)
m=1 m=0
(5.34)
L’erreur quadratique moyenne vaut alors :
p
X p X
X p
 ∗
2
E |FM (k)| = r(0) + 2< ap (k)r(k) + a∗p (l)ap (k)r(l − k) (5.35)
k=1 k=1 l=1

Le filtre de coefficients aM (m)(m = 0, 1, . . . , M ) est encore appelé filtre


d’erreur de prédiction.

Processus Aléatoires 45
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

5.2 Estimateur MMSE et principe d’orthogona-


lité.
Une autre approche de la théorie de l’estimation est l’approche de Bayes.
Soit un paramètre θ à estimer, on introduit une fonction de coût C(θ, θ̂), où
le paramètre estimé est θ̂(U). θ et θ̂(U) étant des variables aléatoires, nous
minimiserons l’espérance mathématique de ce coût, appelé risque de Bayes.
n o n o
R(θ̂(.)) = E C(θ, θ̂(U)) = Eθ,U {C(θ, θ̂(U)) . (5.36)

L’estimateur est donc la fonction θ̂(.) qui minimise le risque de Bayes :

θ̂(.) = arg min R(θ̂(.)) (5.37)


θ̂(.)

De plus, on peut montrer que :

min R(θ̂(.)) = min R(θ̂(U)|U) (5.38)


θ̂(.) θ̂(U)

En d’autres mots, pour minimiser le risque global R(θ̂(.)), c’est-à-dire mini-


miser une fonction par rapport à la fonction θ̂(.), il suffit de minimiser le risque
conditionnel R(θ̂(U)|U) par rapport à θ̂(U), qui est un nombre.

Le critère MMSE.
Un cas particulier largement utilisé est le critère de l’erreur quadratique
moyenne minimale (Minimum Mean Squared Error) où la fonction de coût est :
CM M SE (θ̃) = |θ̃|2 avec θ̃ = θ − θ̂(U).
Dans ce cas, on obtient :
Z ∞
min RM M SE (θ̂(U)|U) = min f (θ|U)|θ − θ̂(U)|2 dθ (5.39)
θ̂(U) θ̂(U) −∞

La minimisation nous donne :


Z ∞

RM M SE (θ̂(U)|U) = 2 f (θ|U)(θ − θ̂(U))dθ = 0 (5.40)
∂ θ̂ −∞

Ce qui peut encore s’écrire :


Z ∞ Z ∞
θ̂(U) f (θ|U)dθ = θf (θ|U)dθ (5.41)
−∞ −∞
| {z }
=1

D’où

θ̂M M SE (U) = E {θ|U} (5.42)

Processus Aléatoires 46
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

L’estimateur est donc la moyenne a posteriori de θ si U. Pour s’assurer qu’il


s’agit bient d’un minimum, on vérifie aisément que :
Z ∞
∂2
RM M SE (θ̂|U) = 2 f (θ|U)dθ = 2 > 0 (5.43)
∂ 2 θ̂ −∞

De plus, cette dernière équation nous indique que nous sommes en présence
d’un minimum global.
Cet estimateur peut aisément s’étendre au cas de paramètres vectoriels.

Le principe d’orthogonalité pour les estimateurs MMSE.


Ce principe est extrêmement important, car il permet d’obtenir l’estimateur
MMSE autrement qu’en calculant l’espérance a posteriori du paramètre, ce qui
n’est pas toujours aisé, puisque cela demande en général la connaissance de la
distribution de probabilité conditionnelle de celui-ci.
Celui-ci s’exprime par :
n o
θ̂(U) = E {(θ|U)} ⇔ E ((θ − θ̂(U))g(U) = 0, ∀g(.) (5.44)

où g(.) est une fonction scalaire.


Démonstration : ⇒ Supposons θ̂(U) = E {(θ|U)}, alors, pour n’importe quel
g(.) :

n o Z Z Z
E θ̂(U)g(U) = fθ,U (θ, U)g(U)dθdU vfv=θ|U (v|U)dv
Z Z Z
= fU (U)g(U)dU vfθ|U (v|U)dv fθ|U (θ|U)dθ
| {z }
Z Z =1

= vfθ,U (v, U)g(U) = E {θg(U)} .


(5.45)
L’autre implication se démontre d’une manière similaire.
Une interprétation géométrique sera faite dans le cadre du filtrage linéaire
optimal ci-dessous.

5.3 Filtre de Wiener.


Une classe importante de problèmes peut s’énoncer de la manière suivante :
soit un signal s(n), corrompu par du bruit additif v(n), on recherche un filtre
qui permette de transformer ce signal u(n) = s(n) + v(n) en un autre y(n),
similaire en un certain sens à un signal donné par ailleurs (d(n)).
Cela correspond au schéma bloc (5.8).
Dans le cas de l’égalisation, u(n) est la sortie du canal, v(n) est le bruit
additif, dont on fait généralement l’hypothèse qu’il est blanc et gaussien, et d(n)

Processus Aléatoires 47
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

d(n)

y(n) - e(n)
s(n) u(n) Filtre linéaire +
+ optimal
+

v(n)

Bruit
Figure 5.8 – Modèle pour le filtrage linéaire optimal.

représente les données que l’on devrait idéalement recevoir. Il parait évident que
le filtre de Wiener sera dans ce cas une approximation de l’inverse du canal.
Le schéma bloc (5.9) illustre cette manière de voir.

d(n)

Filtre linéaire y(n) - e(n)


s(n) u(n) +
Filtre H(z) + optimal +
(→ 1/H(z))

v(n)

Bruit
Figure 5.9 – Modèle pour l’egalisation linéaire.

Hypothèses
On suppose que les signaux u(n), d(n) et v(n) sont stationnaires et mutuellement
stationnaires au sens large, et de moyenne nulle.

5.3.1 Filtre de Wiener non-causal


On adoptera le critère MMSE, de plus, comme le filtre que l’on utilise est
un filtre linéaire, on parle plus précisément de LMMSE (Linear MMSE). En

Processus Aléatoires 48
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

effet, dans le cas du critère MMSE, la fonction qui transforme u(n) en y(n) est
généralement non linéaire (on parle de filtrage non linéaire).
ˆ = y(n)) :
L’équation de minimisation s’écrit donc (avec d(n)
 2 
n o  X∞ 
ˆ 2 = min E d(k) −
min E |d(k) − d(k)|

hk,n u(k − n) (5.46)
hk,n hk,n  n=−∞

Où hk,n sont les coefficients du filtre à l’instant k, rien ne nous indiquant


pour l’instant que ce filtre est invariant dans le temps.
Pour obtenir l’expression du filtre, nous allons exploiter le principe d’ortho-
gonalité des estimateurs MMSE :
n o
ˆ
E (d(k) − d(k))u ∗
(k − m) = 0, ∀m (5.47)
Soit :
( )
n o ∞
X
ˆ
E d(k)u ∗
(k − m) =E ∗
hk,n u(n)u (k − m)
(5.48)
n=−∞

= E {d(k)u (k − m)} , ∀m
Ce qui, accompagné des hypothèses de stationarité devient :

X
hk,n ruu (m + k − n) = rdu (m) ∀m (5.49)
n=−∞
En faisant la substitution et n − k → n, on obtient :

X
hk,n+k ruu (m − n) = rdu (m) ∀m (5.50)
n=−∞

Où la dépendance par rapport au temps (à l’indice k) disparait (i.e. la dé-


pendance par rapport à k n’apparait plus que dans les coefficients du filtre, donc
les équations sont valable pour toute valeur de k et les valeurs des coefficients
sont donc indépendantes de k), soit en posant hk,n+k = hn :


X
hn ruu (m − n) = rdu (m) ∀m
n=−∞

(5.51)
Ce sont les équations normales.
Dans le cas tout-à-fait général que nous traitons ici, nous sommes confrontés
à une infinité d’équations en une infinité d’inconnues hn . Cependant, le membre
gauche de l’équation (5.51) est un produit de convolution. En définissant :

X ∞
X
Sdu (z) = rdu (n)z −n , et H(z) = hn z −n . (5.52)
n=−∞ n=−∞

Processus Aléatoires 49
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

l’équation (5.51) devient H(z)Suu (z) = Sdu (z).


Soit :

Sdu (z)
H(z) = (5.53)
Suu (z)
En notant l’erreur quadratique minimale (le MMSE) ξ, et par le principe
d’orthogonalité :

n o ∞
X n o
ˆ
E (d(k) − d(k)) dˆ∗ (k) = ˆ
h∗n E (d(k) − d(k))u ∗
(k − n) = 0
n=−∞ | {z }
n o n =0 o
⇒ E d(k)dˆ∗ (k) = E |d(k)|
ˆ 2
(5.54)
Ce qui permet de déterminer :

n o
ξ ˆ 2
= E |d(k) − d(k)|
n o n o
ˆ
= E (d(k) − d(k))d ∗ ˆ
(k) − E (d(k) − d(k)) dˆ∗ (k)
| {z }
 n o  =0
n o 
= E |d(k)|2 − E d(k)dˆ∗ (k) = E |d(k)|2 − E |d(k)| ˆ 2 ≤ E |d(k)|2
(5.55)
ou encore, pour permettre le calcul :
 n o
ξ = E |d(k)|2 − E d(k)dˆ∗ (k)
X∞
= rdd (0) − h∗n E {u∗ (k − n)d(k)}
n=−∞
(5.56)
X∞
= rdd (0) − h∗n E {rdu (n)}
n=−∞

En se rappelant qu’on peut retrouver chaque élément de la séquence d’au-


tocorrélation par la formule :
I
1
rdd (k) = Sdd (z)z k−1 dz (5.57)
2πj C
où l’intégrale circulaire est calculée dans la région de convergence de Sdd (z).
Il s’ensuit que :
I
1
2
σd = rdd (0) = Sdd (z)z −1 dz (5.58)
2πj C
d’autre part, par le théorème de Parseval, on a :

X I
1
h∗n E {rdu (n)} = H(z)Sdu (z −1 )z −1 dz (5.59)
n=−∞
2πj C

Processus Aléatoires 50
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

En combinant ces deux équations, on obtient :


I
1
ξnc = [Sdd (z) − Hnc (z)Sdu (z −1 )]z −1 dz (5.60)
2πj C

Application 5.2 Filtre de Wiener non causal pour un processus AR(1)


Soit un signal u(n) = s(n) + v(n) où s(n) est un processus AR(1) décrit par
l’équation
s(n) = 0.6s(n − 1) + ν(n)
où le processus d’innovations ν(n) a une puissance σν2 = 0.64 et le bruit blanc
additif σv2 = 1. On désire obtenir le filtre de Wiener tel que, dans le sens LMMSE,
y(n) = s(n) (en d’autres termes, d(n) = s(n)).
Le filtre optimal est donné par l’équation (5.53).
On a donc
par indépendance de s(n) et v(n) σν2
Sdu (z) = Ssu (z) = Sss (z) =
H(z)H(z −1 )
soit
0.64
Sss (z) =
(1 − 0.6z)(1 − 0.6z −1 )
D’autre part
Suu (z) = Sss (z) + σv2 (= 1)
2(1 − 0.3z −1 − 0.3z)
=
(1 − 0.6z)(1 − 0.6z −1 )
D’où
0.3555
Hoptnc (z) =
(1 − 1/3z)(1 − 1/3z −1 )
On peut vérifier aisément que ce filtre est non causal.
Le MMSE peut être évalué par l’équation (5.60).
L’intégrand vaut :
0.3555
z −1 Sss (z)[1 − Hoptnc (z)] =
(z − 1/3)(1 − 1/3z)

Le seul pôle à l’intérieur du cercle unité est z = 31 . Le résidu est donc donné
par :

0.3555
= 0.40
1 − 1/3z z= 1
3

L’erreur quadratique minimale atteignable est donc :

ξ = M M SEnc = 0.40

Processus Aléatoires 51
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

5.3.2 Filtre de Wiener causal.


On se limitera cette fois à un filtre IIR causal :

X
y(n) = hk u(n − k) (5.61)
k=0

D’une manière similaire au filtre de Wiener non-causal, on trouve :



X
hn ruu (m − n) = rdu (m) ∀m ≥ 0 (5.62)
n=0

Et l’erreur quadratique minimale est donnée par :



X

ξ = σd2 − hnopt E {rdu (n)} (5.63)
n=0

Où les équations de Wiener-Hopf (5.62) sont réduites aux m ≥ 0, ce qui


nous empêche d’avoir recours à la transformée en z de la même manière que
ci-dessus.
Cependant, la représentation de Wold (les innovations) vient à notre secours.
En effet, nous pouvons considérer u(n) comme le résultat du filtrage d’un bruit
blanc (innovations) i(n) par un filtre G(z), partie à phase minimale obtenue par
la factorisation spectrale de Suu (z) :

Suu (z) = σi2 G(z)G(z −1 ) (5.64)

Où le rayon de convergence r1 de G(z) est inférieur à 1.


En adoptant la représentation de Wold inverse, on peut considérer que le
filtre de Wiener est la cascade du filtre blanchissant 1/G(z) appliqué à u(n) suivi
par un filtre Q(z) dont la sortie est y(n). (la cascade de deux filtres causaux ...)

X
y(n) = qk i(n − k) (5.65)
n=0

L’application du principe d’orthogonalité à e(n) = d(n) − y(n) nous donnera


les équations normales :

X
qn rii (m − n) = rdi (m) ∀m ≥ 0 (5.66)
n=0

L’avantage de partir d’un bruit blanc est que rii (n) = δn , ce qui conduit aux
solutions :

rdi (m) rdi (m)


ql = = , ∀m ≥ 0 (5.67)
rii (0) σi2

Processus Aléatoires 52
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

D’où la transformée en z de ql prend la forme :



X ∞
1 X
Q(z) = qk z −k = rdi (k)z −k (5.68)
n=0
σi2 n=0

Si l’on définit la partie causale de la densité cross-spectrale de puissance


[Sdi (z)]+ :

X
[Sdi (z)]+ = rdi (k)z −k (5.69)
k=0

Alors on remarque que :

1
Q(z) = [Sdi (z)]+ (5.70)
σi2
Pour déterminer [Sdi (z)]+ , il suffit d’exprimer la sortie du filtre blanchissant :

X
i(n) = wm u(n − m) (5.71)
m=0

où wm est la réponse impulsionnelle du filtre blanchissant :

X∞
1
= W (z) = wm z −m (5.72)
G(z) m=0

Ensuite, on exprime la cross-corrélation entre les innovations et la réponse


voulue :

rdi (m) = E {d(n)i∗ (n − m)}



X
= wk E {d(n)u∗ (n − k − m)}
k=0 (5.73)
X∞
= wk rdu (m + k)
k=0

La transformée de rdi (m) est alors donnée par :



"∞ #
X X
Sdi (z) = wk rdu (m + k) z −k
m=−∞ k=0

X X∞
= wk rdu (m + k)z −k
k=0 m=−∞ (5.74)
X∞ ∞
X
m −k
= wk z rdu (k)z
k=0 m=−∞
Sdu (z)
= W (z −1 )Sdu (z) =
G(z −1 )

Processus Aléatoires 53
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

D’où :
 
1 Sdu (z)
Q(z) = 2 (5.75)
σi G(z −1 ) +
Enfin, le filtre de Wiener IIR s’exprime par :
 
Q(z) 1 Sdu (z)
Hopt (z) = = 2 (5.76)
G(z) σi G(z) G(z −1 ) +
En résumé, pour obtenir le filtre IIR de Wiener, il faut procéder à la facto-
risation spectrale de Suu (z), pour obtenir G(z) et ensuite déterminer la partie
causale de Sdu (z)/G(z −1 ).

Application 5.3 Filtre de Wiener IIR causal pour un processus AR(1)

On écrit cette fois Suu (z) sous la forme :

1.8(1 − 1/3z −1 )(1 − 1/3z)


Suu (z) =
(1 − 0.6z)(1 − 0.6z −1 )

Ce qui permet de déterminer σi2 = 1.8 et

1 − 1/3z −1
G(z) =
1 − 0.6z −1
Se rappelant :
0.64
Sss (z) =
(1 − 0.6z)(1 − 0.6z −1 )
On obtient :
   
Sdu (z) 0.64
=
G(z −1 ) +
−1
 (1 − 1/3z)(1 − 0.6z ) +
0.8 0.266z
= +
1 − 0.6z −1 1 − 1/3z +
0.8
=
1 − 0.6z −1
Le filtre IIR optimal peut donc s’écrire :
  
1 − 0.6z −1 0.8
Hoptiir = 1/1.8
1 − 1/3z −1 1 − 0.6z −1
4/9
=
1 − 1/3z −1
et une réponse impulsionnelle
4 1 n
hoptiir (n) = ( ) , n≥0
9 3

Processus Aléatoires 54
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

De la même manière que dans le cas non causal, on trouve le MMSE par la
formule (5.60) où l’intégrand vaut cette fois :
0.3555
(z − 1/3z)(1 − 0.6z)
et on trouve
ξ = M M SEiir = 0.444
On remarque que cette valeur est proche de celle du filtre optimal non causal.

5.3.3 Filtre de Wiener FIR


La procédure pour obtenir un filtre de Wiener est de toute évidence assez
complexe et, de plus, demande la connaissance de la séquence infinie d’autocor-
rélation. Il parait donc naturel de se limiter à un filtre FIR, qui nous donnera
ci-dessous une procédure de calcul nettement plus simple.
On se limitera cette fois à un filtre FIR :
M
X −1
y(n) = hk u(n − k) (5.77)
n=0

D’une manière similaire au filtre de Wiener non-causal, on trouve :


M
X −1
hn ruu (m − n) = rdu (m) m = 0, 1, . . . , M − 1 (5.78)
n=0

L’avantage est que l’on peut exprimer les équations (5.78) sous la forme
matricielle :

Rh = rdu (5.79)
où R est la matrice d’autocorrélation du signal u(n) et rdu est le vecteur de
crosscorrélation rdu = [rdu (0), rdu (1), . . . , rdu (M − 1)]T .
La solution du problème est donc :

hopt = R−1 rdu (5.80)


La détermination de cette solution par la méthode directe demande encore un
effort de calcul de l’ordre de M 3 . Heureusement, l’algorithme de Levison-Durbin
que nous verrons plus loin ramènera la complexité à O(M 2 ) (voire M log M par
calculateur parallèle) en exploitant la structure Toeplitz de la matrice d’auto-
corrélation.
L’erreur quadratique minimale est donnée par :
M
X −1
∗ −1
ξ = σd2 − hnopt rdu du R
(n) = σd2 − rH rdu (5.81)
n=0

Processus Aléatoires 55
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

Application 5.4 Filtre de Wiener FIR pour un processus AR(1)

En reprenant les exemples précédents, on détermine la densité spectrale de puis-


sance du signal s(n) par :

Sss (f ) = σν2 |H(f )|2


0.64
=
|1 − 0.6e−j2πf |2
0.64
=
1.36 − 1.2 cos 2πf
La séquence d’autocorrélation vaut

rss (m) = (0.6)|m|

Le systéme d’équation est alors :

2h(0) + 0.6h(1) =1
0.6h(0) + 2h(1) = 0.6

soit :
h(0) = 0.451, h(1) = 0.165

Ce qui donne l’erreur quadratique minimale :

M M SEf ir = 1 − h(0)rss (0) − h(1)rss (1) = 0.45

Soit une valeur très proche de celle dérivée dans le cas du filtre IIR causal.

5.4 Prédiction linéaire.


5.4.1 Prédiction linéaire avant.
Le problème posé est, étant donné un processus y(n) stationnaire au sens
large, de prédire l’échantillon y(k) en connaissant les M échantillons précédents.

M
X
ŷ(k) = − aM (m)y(k − m) (5.82)
m=1

Le critère que nous allons utiliser pour caractériser la qualité de la prédiction


est le critère MSE :

 2 
  M
X 

min E |y(k) − ŷ(k)| 2
= min E y(k) + aM (m)y(k − m) (5.83)
aM (m) aM (m)  
m=1

Processus Aléatoires 56
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

Soit, en appelant l’erreur de prédiction d’ordre M à l’instant k : fM (k) et


en posant aM (0) = 1 :

M
X M
X
fM (k) = y(k)−ŷ(k) = y(k)+ aM (m)y(k−m) = aM (m)y(k−m) (5.84)
m=1 m=0

Le filtre de coefficients aM (m)(m = 0, 1, . . . , M ) est encore appelé filtre


d’erreur de prédiction.
En utilisant le principe d’orthogonalité, nous interprétons la solution à ce
problème de la manière suivante : le point ŷ(k) dans le sous-espace généré par
y(k − 1), . . . , y(k − M ) est la projection orthogonale de y(k) sur ce sous-espace.
La figure 5.10 illustre cette interprétation.

y(k)
fM (k)

ŷ(k)

[y(k − 1)...y(k − M )]

Figure 5.10 – Interprétation géométrique du principe d’orthogonalité pour


la prédiction linéaire

Une expression de l’orthogonalité peut s’écrire :

M
X
E {fM (k)y ∗ (k − i)} = aM (m)E {y(k − i)y ∗ (k − m)}
m=0
M (5.85)
X
= aM (m)ryy (i − m) = 0, i = 1, . . . , n
m=0

Grâce à la stationarité de y(n), les équations sont indépendantes du temps


et le filtre optimal est constant dans le temps.

Processus Aléatoires 57
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

Le MMSE (ξ = σf,M
2
) est donné par :

 2 
  M
X 

2
σf,M = E |fM |2 (k) = E y(k) + aMopt (m)y(k − m)
 
m=1
M
X (5.86)
= E {fM (k)y ∗ (k)} + a∗Mopt (m) E {fM (k)y ∗ (k − m)}
m=1
| {z }
=0
= E {fM (k)y ∗ (k)}

En introduisant les vecteurs :

YM +1 (k) = [y(k), y(k − 1), . . . , y(k − M )]T et aM = [1, aM (1), . . . , aM (M )]T


(5.87)
l’erreur de prédiction s’écrit : fM (k) = YM T
+1 (k)aM .
Les conditions d’orthogonalité s’écrivent alors :

   
E {y(k)fM

(k)} 2
σf,M
 E {y(k − 1)fM

(k)}   0 
∗    
E {YM +1 (k)fM (k)} =  .. = ..  (5.88)
 .   . 
E {y(k − M )fM

(k)} 0

avec, en développant l’erreur de prédiction .

 2

σf,M
 ∗  0 
∗  
E {YM +1 (k)fM H
(k)} = E YM +1 (k)YM +1 (k) aM =  ..  = RM +1 a∗M
 . 
0

(5.89)
Ces équations sont appelées équations normales. On remarque qu’on obtient
exactement les équations de Yule-Walker que nous avons dérivées dans le cas
d’un processus AR. Donc, dans le cas où y(n) est un processus AR d’ordre M ,
nous obtiendrons comme filtre prédicteur le filtre de synthèse du processus AR,
et la variance de l’erreur de prédiction σf,M2
sera égale à la puissance σv2 du
processus d’innovation ν(n).
En d’autres termes, le filtre prédicteur est un filtre blanchissant qui produit
la séquence d’innovations ν(n).

Processus Aléatoires 58
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

5.4.2 Prédiction linéaire arrière.


Quoique a priori un peu artificiel, le problème de la prédiction arrière sera
très utile dans la suite des calculs et de la détermination d’un algorithme rapide
de résolution des équations normales, débouchant sur la représentation des filtres
en treillis, intéressante à plus d’un titre.
Le problème est simplement de déterminer une estimation d’un échantillon
y(k − M ) en fonction des M échantillons subséquents :
M
X
ŷ(k − M ) = − bM (m)y(k − M + m) (5.90)
m=1
Le critère que nous allons utiliser pour caractériser la qualité de la prédiction
est encore le critère MSE :


min E |y(k − M ) − ŷ(k − M )|2
bM (m)  2 
 XM  (5.91)

= min E y(k − M ) + bM (m)y(k − M + m)
bM (m)  
m=1

Soit, en appelant l’erreur de prédiction arrière d’ordre M à l’instant k :


gM (k) et en posant bM (0) = 1 :

gM (k) = y(k − M ) − ŷ(k − M )


XM
= y(k − M ) + aM (m)y(k − M + m)
m=1 (5.92)
M
X
= bM (m)y(k − M + m)
m=0

Le filtre de coefficients bM (m)(m = 0, 1, . . . , M ) est encore appelé filtre d’er-


reur de prédiction arrière.
En utilisant le principe d’orthogonalité, nous interprétons la solution à ce
problème de la manière suivante : le point ŷ(k − M ) dans le sous-espace généré
par y(k), y(k − 1), . . . , y(k − M + 1) est la projection orthogonale de y(k − M )
sur ce sous-espace.
Une expression de l’orthogonalité peut s’écrire :

M
X
E {gM (k)y (k − M + i)}

= bM (m)E {y(k − M + i)y ∗ (k − M + m)}
m=0
XM
= bM (m)ryy (i − m) = 0, i = 1, . . . , n
m=0
(5.93)
Grâce à la stationarité de y(n), ces équations sont toujours indépendantes
du temps et le filtre optimal est constant dans le temps.

Processus Aléatoires 59
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

y(k − M )
gM (k)

ŷ(k − M )

[y(k)...y(k − M +)]

Figure 5.11 – Interprétation géométrique du principe d’orthogonalité pour


la prédiction linéaire arrière

Le MMSE (ξ = σg,M
2
) est donné par :

 2 
  M
X 

2
σg,M = E |gM |2 (k) = E y(k − M ) + bMopt (m)y(k − M + m)
 
m=1
M
X
= E {bM (k)y ∗ (k − M )} + b∗Mopt (m) E {bM (k)y ∗ (k − M + m)}
m=1
| {z }
=0
= E {bM (k)y ∗ (k − M )}
(5.94)
Les conditions d’orthogonalité s’écrivent alors :

   
E {y(k)gM

(k)} 0
 E {y(k − 1)gM

(k)}   .. 
∗    . 
E {YM +1 (k)gM (k)} =  .. =  (5.95)
 .   0 
E {y(k − M )gM

(k)} 2
σg,M

avec, en développant l’erreur de prédiction :

Processus Aléatoires 60
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

 
0
 ∗  .. 
∗  . 
E {YM +1 (k)gM H
(k)} = E YM +1 (k)YM +1 (k) bM =   = RM +1 b∗M
 0 
2
σg,M

(5.96)
Ce sont les équations normales pour la prédiction linéaire arrière.

5.4.3 Relation entre prédiction avant et arrière


Appelons J la matrice d’identité arrière :
 
0 . 1
J= ..  (5.97)
1 0
J inverse l’orde des lignes et des colonnes.
On voit alors clairement que :

JRM +1 J = RTM +1 = R∗M +1 (5.98)


Des équations normales pour la prédiction arrière, on déduit alors :

   2

0 σg,M
 ..   0 
 .   
RM +1 Jb∗M = JR∗M +1 JJb∗M = JR∗M +1 b∗M = J  = ..  (5.99)
 0   . 
2
σg,M 0

On voit donc clairement que les équations normales pour la prédiction li-
néaire avant et arrière sont identiques, à l’ordre des coefficients près :

bM = JaM , soit bM (i) = aM (M − i), i = 1, . . . , M, 2


σg,M 2
= σf,M (5.100)

5.5 L’algorithme de Levinson-Durbin


Si on résoud les équations de manière directe, cela implique l’inversion d’une
matrice, et donc une complexité d’ordre M 3 . Un algorithme rapide a été dé-
veloppé par Levinson (1948) et Durbin (1959) qui permet de diminuer la com-
plexité d’un ordre (M 2 ). De plus, il permet d’introduire élégament la représen-
tation des filtres en treillis.

Processus Aléatoires 61
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

L’algorithme est récursif dans l’ordre, ce qui signifie que l’on détermine les
prédicteurs d’ordre m, m = 1, . . . , M . L’étape initiale est laissée au soin du
lecteur.
Admettons que nous ayons la solution pour l’ordre m, la solution à l’ordre
m + 1 peut s’écrire :

2 2
σf,m σf,m+1
    

 

  
0 0
     
 a∗
  
   
 
(5.101)
 
M +K
.. ..
   
Rm+2  m+1 wm+1 =  +Km+1 xm+1 = 
 0  




 .



 
 

  .




 

∆m+1 0
 

Pour obtenir la solution sous la forme [σf,m+12


0 · · · 0], il faut adopter xm+1
de la forme [∗0 · · · ∗] et il est clair que l’on peut choisir xm+1 de la forme
T
2
[∆m+1 0 · · · σf,m ]T , ce qui fixe simplement :

∆m+1
Km+1 = − 2 (5.102)
σf,m
Ce choix particulier, et la relation que nous avons fait entre prédiction arrière
et prédiction avant permet alors d’écrire l’équation précédente sous la forme :

2 2
σf,m ∆m+1 σf,m+1
     

 

   
0 0 0
     

 
0
 
 am   
    
 

.. .. ..
   
Rm+2  +Km+1  ∗
 =  +Km+1   = 
 0 bm  





 .





 .
 
 

  .



 
2
σf,m
 
∆m+1 0
 

(5.103)
La récursion sur la solution devient :
 
a∗m
a∗m+1 = (I + Km+1 J) (5.104)
0
En particulier, am+1 (m + 1) = Km+1 . L’erreur de prédiction devient alors :

2 2 2 2
σf,m+1 = σf,m + Km+1 ∆m+1 = σf,m (1 − Km+1 ) (5.105)
Une puissance devant être positive, l’équation précédente implique que

|Km+1 | ≤ 1 (5.106)
D’autre part, on a que

2 2
σm+1 ≤ σm ≤ · · · ≤ σ12 ≤ σ02 (5.107)
ce qui confirme l’intuition selon laquelle l’augmentation de l’ordre de prédic-
tion diminue l’erreur de prédiction. Dans le cas d’un processus AR(m), après
l’ordre m, les variances seront égales (voir plus haut).

Processus Aléatoires 62
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

On peut résumer l’algorithme de Levinson comme suit :

Algorithme de Levinson

Initialisation 2
a0 = [1], σf,0 = ryy (0)pace5mm
récursion ∆m+1 = [ryy (m + 1) · · · ryy (1)]a∗m
∆m+1
Km+1 = − 2
 σ∗ f,m
  
∗ am 0
am+1 = + Km+1
0 Ja∗m
2 2 2
σf,m+1 = σf,m (1 − Km+1 )

Par récursion, l’algorithme de Levinson demande environ 2n multiplications,


soit, au total :

M
X 2M (M + 1)
2n = ' M2 (5.108)
n=1
2

5.5.1 Interprétations des paramètres Km et ∆m−1


Les paramètres Km sont appelés coefficients de réflection, en effet, l’équation
2
σf,m+1 2
= σf,m 2
(1 − Km+1 ) est similaire à celle de la théorie des lignes où Km est
le coefficient de réflection au droit d’une discontinuité (différence d’impédance
caractéristique) dans la ligne.
Le paramètre ∆m+1 (et donc Km+1 peut être interprété comme étant une
cross-corrélation entre l’erreur de prédiction avant et l’erreur de prédiction ar-
rière. On peut montrer :

E {fm (k)gm∗
(k − 1)}
Km+1 = − (5.109)
E {|fm (k − 1)|2 }
Cette dernière expression est appelée coefficient de corrélation partielle
(PARCOR).

5.6 Filtres en treillis.


A partir de l’algorithme de Levinson, en écrivant les récursions sur les coef-
ficients des filtres de prédiction, avec la relation am = Jbm :
   
am 0
am+1 = + Km+1
 0   bm 
(5.110)
bm 0
bm+1 = + Km+1
0 am

Processus Aléatoires 63
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

En écrivant ces équations sous la forme de transformées en z :

Am+1 (z) = Am (z) + Km+1 Bm (z)z −1


(5.111)
Bm+1 (z) = Km+1 Am (z) + Bm (z)z −1

Ces deux équations décrivent une section d’un filtre en treillis, que l’on peut
représenter sous la forme de la figure 5.12.

f0 (k) f1 (k) fM −1 (k) fM (k)


y(k) a0 (z) a1 (z) aM −1 (z) aM (z)
K1 K2 KM
K1 K2 KM
−1 −1
z z z −1

b0 (z) b1 (z) bM −1 (z) bM (z)


g0 (k) g1 (k) gM −1 (k) gM (k)

Figure 5.12 – Filtre en treillis pour la prédiction linéaire.

En réécrivant les équations (5.84) et (5.92) sous la forme fm (k) = Am (z)y(k)


et bm (k) = Bm (z)y(k), les sorties des sections de treillis sont fm (k) et bm (k) si on
excite l’entrée du premier filtre par le signal y(k), ce qui justifie les annotations
de la figure 5.12.
Un des premiers avantages, surtout dans des implémentations VLSI, est
la modularité de ces filtres : il suffit d’ajouter des sections pour obtenir une
meilleure prédiction, sans que les coefficients PARCOR précédents doivent être
modifiés. En effet, dans le cas d’une implémentation directe par un filtre trans-
versal comme en figure 5.13, l’augmentation de l’ordre total du filtre demande
une modification de tous les coefficients am (k), ce qui oblige à refaire l’entièreté
du calcul.

y(k)
z −1 z −1 z −1

aM,1 aM,2 aM,M

AM (z)

fM (k)

Figure 5.13 – Filtre transversal pour la prédiction linéaire.

Processus Aléatoires 64
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

D’autre part, d’un point de vue numérique, le fait que les coefficients PAR-
COR sont bornés (|Km | < 1|) nous assure des résultats intermédiaires égale-
ment bornés, ce qui est très intéressant dans les calculateurs à virgule fixe (pas
d” ’overflow”).

5.7 La méthode des moindres carrés (LS : Least


Squares)
5.7.1 Introduction
Dans le filtrage de Wiener, le critère d’optimalité est stochastique : on désire
minimiser la moyenne de l’erreur au carré. Pour cela, nous avons besoin de
la statistique de second ordre des processus (moyennes et covariances). Une
autre approche consiste à minimiser, non plus la moyenne stochastique, mais
temporelle de cette erreur, c’est la méthode des moindre carrés (L.S. : Least
Squares).
En se reportant à la figure 5.8, on obtient le critère :

k2
X
ξ(h) = |e(k)|2 (5.112)
k=k1

Dans ce cas-ci, les coefficients h du filtre optimal sont d’office constants sur
la période d’observation. Si on désire tenir compte d’une non stationnarité du
canal, il suffit d’opter pour le critère :

k2
X
ξ(h) = λk |e(k)|2 0<λ≤1 (5.113)
k=k1

En adoptant un filtre FIR de longueur M, on a :

M
X −1
e(i) = d(i) − hk u(i − k) (5.114)
k=0

D’autre part, pour tenir compte du caractère stochastique du problème, on


modélise le processus à identifier comme étant le signal filtré auquel on a ajouté
du bruit (en général blanc additif), comme indiqué à la figure 5.14. L’objectif
principal de cette modélisation sera de caractériser les perfomances de l’estimée.

5.7.2 Fenêtrage.
Les bornes k1 et k2 peuvent être choisies de différentes manières. On se
placera dans le cas où nous disposons des données [u(0), u(1), . . . , u(N − 1)]
La méthode de la covariance ne fait pas d’hypothèses sur les valeurs des
données en dehors de la fenêtre d’observation. On peut alors exprimer les

Processus Aléatoires 65
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

Filtre (n)
+ bruit de mesure
"vrai"
d(n)

y(n) - e(n)
s(n) u(n) Filtre linéaire +
+ Least-Squares
+

v(n)

Bruit
Figure 5.14 – Modèle pour le filtrage par les moindres carrés.

données sous une forme matricielle :


 
u(M − 1) u(M ) ··· u(N − 1)
 u(M − 2) u(M − 1) · · · u(N − 2) 
 
U= .. .. .. ..  (5.115)
 . . . . 
u(0) u(1) ··· u(N − M )
On peut alors exprimer l’équation (5.114) sous forme vectorielle,
e = d − UT h (5.116)
en notant
e = [e(M − 1)e(M ) · · · e(N − 1)] et d = [d(M − 1)d(M ) · · · d(N − 1)]

L’expression UT h représentant la convolution entre les données u(i) et le


filtre de coefficients hk , on appelle parfois UT la matrice de convolution.
La méthode de la corrélation fait l’hypothèse que les valeurs des données
en dehors de la fenêtre d’observation sont nulles. On peut alors exprimer
les données sous une forme matricielle :
 
u(1) · · · u(M − 1) · · · u(N − 1) 0 ··· 0
 0 · · · u(M − 2) · · · u(N − 2) u(N − 1) · · · 0 
 
U= . . .. . .. .. . .. 
 . . . . . . . . . . . . 
0 ··· u(0) · · · u(N − M ) u(N − M + 1) · · · u(N − 1)
(5.117)

Processus Aléatoires 66
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

L’équation (5.116) reste alors valable en notant


e = [e(0)e(1) · · · e(N + M − 1)] et d = [d(0)d(1) · · · d(N + M − 1)]

La méthode du préfenêtrage fait l’hypothèse que les valeurs des données


avant u(0) sont nulles. On peut alors exprimer les données sous une forme
matricielle :
 
u(1) u(2) · · · u(M − 1) u(M ) · · · u(N − 1)
 0 u(1) · · · u(M − 2) u(M − 1) · · · u(N − 2) 
 
U= . .. .. .. .. .. .. 
 .. . . . . . . 
0 0 ··· u(0) u(1) ··· u(N − M )
(5.118)
L’équation (5.116) reste alors valable en notant
e = [e(0)e(1) · · · e(N − 1)] et d = [d(0)d(1) · · · d(N − 1)]

La méthode du postfenêtrage fait l’hypothèse que les valeurs des données


après u(N − 1) sont nulles (sans faire d’hypothèses sur les données anté-
rieures à u(0). On peut alors exprimer les données sous une forme matri-
cielle :
 
u(M − 1) u(M ) · · · u(N − 1) 0 ··· 0
 u(M − 2) u(M − 1) · · · u(N − 2) u(N − 1) · · · 0 
 
U= .. .. . .. .
.. .
.. . .. 
 . . 0 
u(0) u(1) · · · u(N − M ) u(N − M + 1) · · · u(N − 1)
(5.119)
L’équation (5.116) reste alors valable en notant
e = [e(M −1)e(M ) · · · e(N +M −1)] et d = [d(M −1)d(M ) · · · d(N +M −1)]

5.7.3 Principe d’orthogonalité pour les moindres carrés


On se placera dorénavant dans la méthode de covariance.
On définit alors le nouveau critère à minimiser sous la forme vectorielle :

ξ(h) = eH e, où e = d − UT h (5.120)
On détermine alors :
 ∂ eH e

∂h0
 ∂ eH e 
∂  ∂h1 
(ξ(h)) = 
 .. 
 (5.121)
∂h  . 
∂ eH e
∂hM −1
En utilisant les relations de l’appendice, on trouve

(ξ(h)) = −(d − UT h)H UT = −eH UT (5.122)
∂h

Processus Aléatoires 67
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

Cette relation, pour avoir un minimum, doit être annulée. Ensuite, on vérifie
aisément que la dérivée seconde est positive.
On peut donc écrire

eH UT = 0 (5.123)
qui exprime l’orthogonalité entre les erreurs et les entrées du filtre optimal.
On a donc un principe d’orthogonalité similaire à celui du cas stochastique
(filtre de Wiener).
De la même manière, toute combinaison linéaire de l’équation précédente est
valable, et on obtient aisément que :

eH y = eH d̂ (5.124)
que l’on interprète en disant que l’erreur doit être orthogonale aux entrées
et à l’estimation.

5.7.4 Equations normales


Cette relation d’orthogonalité nous amène directement à une interprétation
géométrique. Dérivons d’abord la solution du problème des moindres carrés
(équation (5.122)).
En notant, pour la facilité UT = X, on obtient les équations normales
pour la méthode des moindres carrés :
−1
(d − Xĥ)H X = 0 ⇔ ĥ = (XH X) XH d (5.125)
−1
où (XH X) XH est appelée la matrice pseudo-inverse de X et où on a
supposé que XH X était invertible.
L’erreur minimale étant alors exprimée par :

ξmin = êH ê
H H
= (d − Xĥ)H (d − Xĥ) = dH d − dH Xĥ − ĥ XH d + ĥ XH Xĥ
−1
= dH d − dH X(XH X) XH d
(5.126)
Ce qui exprime l’erreur et la solution directement en fonction des données
et de la réponse désirée.
On définit alors, de manière analogue au cas stochastique, la matrice ce
corrélation :

 
φ(0, 0) φ(1, 0) ··· φ(M − 1, 0)
 φ(0, 1) φ(1, 1) ··· φ(M − 1, 1) 
 
Φ = XH X =  .. .. .. ..  (5.127)
 . . . . 
φ(0, M − 1) φ(1, M − 1) · · · φ(M − 1, M − 1)

Processus Aléatoires 68
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

où on peut détailler les éléments de la matrice de corrélation que l’on appel-


lera les fonctions d’autocorrélation moyennées dans le temps.

N
X −1
φ(t, k) = u(i − k)u∗ (i − t) (5.128)
i=M −1

On peut aisément vérifier que cette matrice d’autocorrélation possède essen-


tiellement les mêmes propriétés que la matrice d’autocorrélation stochastique,
à savoir qu’elle est Hermitienne, définie non négative et possède des va-
leurs propres réelles non négatives. D’autre part, par construction, elle est
le produit de deux matrices rectangulaires Toeplitz.
De la même manière, on définit le vecteur de cross-corrélation entre l’en-
trée u et la réponse désirée d :

Θ = [θ(0), θ(1), · · · , θ(M − 1)]T = XH d (5.129)

On peut alors réécrire l’équation (5.125) sous la forme :

Φĥ = Θ (5.130)

qui sont les équations normales pour la méthode des moindres carrés. On
y retrouve la relation entre la matrice d’autocorrélation et la matrice de cross-
corrélation d’une manière similaire à l’équation (5.79) pour le critère MMSE
dans le cas stochastique.
Le vecteur de sortie est alors exprimé par :

y = d̂ = Xĥ (5.131)

L’erreur minimale s’écrit alors :

ξmin = dH d − ΘH Φ−1 Θ (5.132)

5.7.5 Interprétation géométrique.


L’abstraction relative de ces équations, la notion d’orthogonalité et la repré-
sentation par des vecteurs laissent supposer que l’on peut donner une interpré-
tation géométrique du problème des moindres carrés et de la solution.
En effet, les colonnes de la matrice de données X, Φ et P définissent un espace
vectoriel de dimension N − M + 1. Le vecteur de données est de dimension N
et est donc défini dans un espace de dimensions N . D’autre part, la relation
d’orthogonalité entre l’erreur minimale et l’estimation des données (d̂)(on se
rappellera que ed̂ = 0) signifie que l’on peut diviser l’espace des données en
l’espace des données estimées et son complément orthogonal qui est l’espace de
l’erreur. On parle souvent dans la littérature de sous-espace signal et sous-espace
bruit, ce dernier étant en l’occurence le bruit du à l’erreur.

Processus Aléatoires 69
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

Enfin, pour le passage de l’espace total aux sous-espaces signal et bruit, on


−1
définit l’opérateur de projection P = X(XH X) XH . En effet, la relation

−1
d̂ = X(XH X) XH d = Pd

met en lumière que l’opérateur P nous fait passer de d à d̂. Cet opérateur peut
donc être interprété comme l’opérateur de projection de l’espace total sur le
sous-espace signal.
D’autre part, on définit l’opérateur de projection orthogonal

I−P

qui assure la projection des données sur le sous-espace bruit.


La figure 5.15 illustre cela dans le cas de M = 1 et N = 3, c’est-à-dire 4
données en entrée et un filtre de longueur 2.

P

d

I−P

emin

Figure 5.15 – Interprétation géométrique de la méthode des moindres carrés.

Exemple 5.7.1 Cas d’un filtre de longueur 2 et de 4 données

Processus Aléatoires 70
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

Considérons le cas N = 3, M = 1 avec u = [5, 3, 1, 10]T ; d = [7, 4, 1]T . On


obtient immédiatement  
3 5
X= 1 3 
10 1
L’opérateur de projection vaut :
 
0.7257 0.4446 0.0378
P = X(XH X)−1 XT =  0.4446 0.2795 −0.0613  (5.133)
0.0378 −0.0613 0.9948

Ce qui permet de trouver la solution :


 
6.8960
y = d̂ =  4.1686  (5.134)
1.0144
Et l’erreur d’estimation :
 
0.1040
y = d̂ =  0.1686  (5.135)
0.0144
Cet exemple est illustré par la figure 5.16. C

1.5

0.5

0 6

0 4
1
2 2
3
0
4

Figure 5.16 – Exemple d’estimation LS

Processus Aléatoires 71
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

5.7.6 Propriétés de l’estimation des moindres carrés.


1. L’estimée ĥ est non biaisée, si {(i)} est à moyenne nulle.
Notons la valeur vraie du filtre ho . Alors, de

−1
ĥ = (XH X) XH d et d = Xho +  (5.136)

On déduit :

−1 −1
ĥ = (XH X) XH Xho + (XH X) XH 
−1 (5.137)
= ho + (XH X) XH 

Les données représentées par X étant déterministes et (i) étant à moyenne


nulle, on déduit immédiatement :
n o
E ĥ = ho (5.138)

2. Si (i) est un bruit blanc à moyenne nulle et de variance σ 2 , l’estimée ĥ


a une matrice de covariance valant σ 2 Φ−1 .
Les relations suivantes nous mènent directement à ce résultat :
n o
cov{ĥ} = E (ĥ − h)(ĥ − h)H
n −1 −1
o
= E (XH X) XH H X(XH X)
−1  −1
= (XH X) XH E H X(XH X)
−1 −1 (5.139)
= (XH X) XH σ 2 IX(XH X)
−1 −1
= σ 2 (XH X) XH X(XH X)
−1
= σ 2 (XH X)
= σ 2 Φ−1

3. Si (i)} est un bruit blanc à moyenne nulle et de variance σ 2 , l’estimée ĥ


est la meilleure estimée linéaire non-biaisée (BLUE : Best Linear Unbiased
Estimate).
Considérons un estimateur linéaire non biaisé

h̃ = Bd =⇒ h̃ = BXho + B (5.140)
n o
De même, l’hypothèse de moyenne nulle du bruit implique E h̃ = BXho .
Pour que l’estimée h̃ soit non biaisée, il faut donc :

BX = I (5.141)

Processus Aléatoires 72
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

On peut donc écrire h̃ = ho + B et la covariance s’exprime :


n o
cov{h̃} = E (h̃ − h)(h̃ − h)H
n o
= E BH BH (5.142)
= σ 2 BBH

En définissant une matrice Ψ = B − (XH X)−1 XH , nous avons les rela-


tions :

ΨΨH = BBH − BX(XH X)−1 − (XH X)−1 XH BH + (XH X)−1


= BBH − (XH X)−1
(5.143)
or, ΨΨH ≥ 0, puisque c’est une forme quadratique, donc BBH ≥ (XH X)−1
et la proposition initiale est prouvée.
4. Si (i) est un bruit blanc gaussien à moyenne nulle et de variance σ 2 ,
l’estimée ĥ est l’estimée non-biaisée de variance minimale. (MVUE : Mi-
nimum Variance Unbiased Estimate).
La manière de démontrer cette affirmation est de comparer la covariance
de l’estimée à la matrice d’information de Fisher. Nous en laissons la dé-
monstration à titre d’exercice.

5.8 Exercices
Exercice 5.2
Un processus auto-régressif (AR) d’ordre un X(n) à valeurs réelle est défini
par l’équation aux différences :

X(n) + a1 X(n − 1) = V (n)


où a1 est une constante et V (n) est un processus blanc de variance σv2 .
1. Montrer que si V (n) a une moyenne non nulle, le processus AR X(n)
est non stationnaire.
2. Si V (n) est à moyenne nulle et que la constante |a1 | < 1, montrer que
2
σv
la varriance de X(n) vaut σx2 = 1−a2
.
1

3. Dans ces conditions, trouver la fonction d’autocorrélation du proces-


sus AR X(n). Tracer cette fonction d’autocorrélation pour 0 < a1 < 1
et pour −1 < a1 < 0.
1. Moyenne variant dans le temps : E {X(n)} = E {V (n)} +
a1 E {X(n − 1)}
2. σx2 + a1 σx2 = σv2
3. E {X(n)X(n − m)} = −a1 E {X(n − 1)X(n − m)} ⇒
rxx (m) = −a1 .rxx (m − 1)

Processus Aléatoires 73
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

Exercice 5.3

Soit un processus X(n) à moyenne mobile défini par

X(n) = V (n) + 0.75V (n − 1) + 0.25V (n − 2)

où V (n) est un processus blanc centré de variance 1. On peut approximer


ce processus par un processus AR U (n) d’ordre M . Trouvez cette approxi-
mation pour les ordres 2, 5 et 10 (pour les ordres 5 et 10, on pourra s’aider
de Scilab).
D’abord, on calcule r(0) = 2; r(1) = 0.9375 et r(2) = 0.25 En-
suite, on a l’équation de Yule Walker,

R[1; a1 ; a2 ]T = [σv2 ; 0; 0]T

où  
r(0) r(1) r(2)
R =  r(1) r(0) r(1) 
r(2) r(1) r(0)
Pour M = 2, on trouve a1 = −0.5256571 et
Commentez vos résultats. a2 = 0.1214018 ainsi que σv2 = 1.5375469 (facile à
faire en écrivant les équations et en faisant une réso-
lution par substitution). Pour M = 5, on trouve A =
[1.; −0.5248620; 0.1127047; 0.0262534; −0.0318556; 0.0116506]T
et σv2 = 1.536118 . Pour M = 10, on trouve
A = [1.−0.5248837; 0.1127541; 0.0262413; −0.0321242; 0.0125908;
− 0.0013810; −0.0013231; 0.0009182; −0.0002707; 0.0000121]T et
σv2 = 1.5361101
On en déduit que l’approximation M = 2 est plutôt bonne, et
qu’un processus MA peut être approximé presque parfaitement
par un processus AR d’ordre élevé (par exemple ici M = 10).

Exercice 5.4

Un processus aléatoire X(n) de moyenne nulle et de matrice de corrélation


R est filtré par un filtre à réponse impulsionnelle finie de réponse impul-
sionnelle w = [w0 , w1 , · · · , wN ]T .
Montrer que la puissance moyenne à la sortie du filtre vaut wH Rw. Que
vaut cette puissance si le processus stochastique à l’entrée du filtre est un
bruit blanc de variance σ 2 ?
La sortie du filtre Y (n) peut s’écrire Y (n) =
X(n − N )]T = wT X,
[w0 , w1 , · · · , wN ][X(n), X(n − 1), · · · ,
donc, E {Y ∗ (n)Y (n)} = wH E X T X∗ w = wH Rw.
Si on a un bruit blanc : R = σ 2 I ⇒ σy2 = wH w

Exercice 5.5 Processus AR(2)

Processus Aléatoires 74
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

Soit un processus AR(2) déterminé par A = [1, −0.975, 0.95] et σv2 = 1. On


demande, selon les notations du cours :
– les zéros de A(z) ;
– les pôles de H(z) ;
– la transformée en z de la fonction d’autocorrélation (utiliser le résultat
du point précédent) ;
– la densité spectrale de puissance du processus (faire un diagramme de
Bode, utiliser votre cours d’automatique et l’expression de H(z) ) ;
– Ecrire les équations de Yule-Walker, en déduire r(0), r(1) et r(2) ;
– à partir du point précédent et du cours, déterminez r(k), k > 2 ;
Solution
– A(z) = 1 + a1 z −1 + az−2
2 ⇒ z1,2 = 0.478 ± 0.844i
– H(z) = 1/A(z) donc les zéros de A(z) sont les pôles de H(z)
– Sxx (z) = σv2 H(z)H(1/z) =
z2
0.95−1.90125z+2.853125z 2 −1.90125z 3 +0.95z 4
– En Scilab, utiliser la fonction syslin pour modéliser Sxx (z)
(avec l’option “d” parce qu’on est en discret !). On trouve alors

Exercice 5.6 Processus AR(2)


Soit un processus autorégressif d’ordre 2 Xn décrit par l’équation aux dif-
férences suivantes :

Xn = Xn−1 − 0.5Xn−2 + Vn

où Vn est un bruit blanc de moyenne nulle et de variance 0.5


– Ecrivez les équations de Yule-Walker pour ce processus.
– Résolvez ces deux équations pour les valeurs de l’autocorrélation r(1) et
r(2).
– Trouvez la variance de Xn .
– Equations de Yule-Walker :
    
r(0) r(1) 1 r(1)
=
r(1) r(0) −0.5 r(2)

– r(1) = 2/3r(0); r(2) = r(0)/6


– de σx2 = r(0) et de σv2 = r(0) − r(1) + 0.5r(2) (première ligne
de l’équation de Yule-Walker), on déduit r(0) = σv2 /(1 − 2/3 +
1/6 × 0.5) = 1.2

Processus Aléatoires 75
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

Processus Aléatoires 76
Chapitre 6

Une ménagerie de Processus

6.1 Processus de Bernoulli


6.1.1 Définition
– Variable de Bernoulli
– Expérience aléatoire : succès / échec
– Variable aléatoire discrète X : deux valeurs possibles
– (
p , x = 1 (succès)
pX (x) =
1 − p , x = 0 (échec)
– E {X} = 1 ·p + 0 · (1 − p) = p
2
– var[X] = E X 2 − E {X} = 12 · p + 02 · (1 − p) − p2
2
= p − p = p(1 − p)
– Processus de Bernoulli
– Séquence {Xi } de v.a de Bernoulli indépendantes
– Processus discret à temps discret
– Xm = 1 : succès / arrivée pendant la période m

6.1.2 v.a. binomiale, géométrique


– S : v.a. binomiale p, n (v.a. discrète)
– Nombre de succès sur n essais
X n
– S= Xi : somme de n v.a. Bernoulli indépendantes
i=1
 
n m n!
pS (m) = p (1−p)n−m = pm (1−p)n−m (0 ≤ m ≤ n)
m m!(n − m)!

n
X
– E {S} = E {Xi } = np
i=1

77
pT (t) = (1 − p)t−1 p ,

" E[T ] = 1/p


" var[T ] = (1 − p)/p2
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

n
X
ind
– var[S] = var[Xi ] = np(1 − p)
i=1
– T : v.a. géométrique p (v.a. discrète)
– Nombre d’essais jusqu’au premier succès inclus (échecs + 1 succès)

pT (t) = (1 − p)t−1 p , t = 1, 2, . . .

– E {T } = 1/p
– var[T ] = (1 − p)/p2
v.a. Bernoulli
E[X] =
6.1.3 v.a. Bernoulli
Bernoulli
1.0
Espérance / écart!type

0.8
0.6

E[X]
!X
0.4
0.2
0.0

0.0 0.2 0.4 0.6 0.8 1.0

p : probabilité de succès à un essai

p
E {X} = p, σX = p(1 − p)

Processus Aléatoires 78
École Polytechnique de l’UNS
Polytech’Nice-Sophia
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

6.1.4 v.a. binomiale


v.a. binomiale
E[S] = np, σS =
Binomiale n = 10

p = 0.3
p = 0.5
Fonction de probabilité

0.20
0.10
0.00

0 2 4 6 8 10
m : nombre de succès

p
E {S} = np, σS = np(1 − p)

v.a. Géométrique
Processus Aléatoires 79

Géométrique
5

0
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

6.1.5 v.a. Géométrique

v.a. Géométrique

Géométrique
0.5

10
p = 0.5

Espérance / écart!type
Fonction de probabilité

0.4

8
0.3

p = 0.3

6
0.2

4
0.1

2
0.0

0
2 4 6 8 10 12 14

t : essais jusqu’au 1er succès (inclus)

pT (t) = (1 − p)t−1 p , t = 1, 2, . . . E[T ] = 1/

pT (t) = (1 − p)t−1 p , t = 1, 2, . . .

Processus Aléatoires 80

Processus Stochastiques 28
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Géométrique

10
E[T]
Espérance / écart!type

8
6
4

!T
2
0

14 0.2 0.4 0.6 0.8 1.0

clus) p : probabilité de succès à un essai

p
!
E {T } = 1/p, p)/p (1 − p)/p
E[T ] = 1/p, σ(1T−=
École Polytechnique de l’UNS
σT = Département d’Électronique
Polytech’Nice-Sophia 3e année

47
Indépendance
6.1.6 Indépendance

! Xi : v.a. indépendantes
! Si–U,X : v.a. indépendantes
V i indépendantes −→ f (U ), g(V ) indépendantes
! Le–processus de Bernoulli
Si U, V indépendantes se renouvelle
−→ fà (Uchaque instant
), g(V ) indépendantes
! Le futur est indépendant du passé
!
– Le processus de Bernoulli se renouvelle
Exemple : on observe Xi pendant n = 5 intervalles
à chaque instant
– Le futur est indépendant du passé
" Aucun succès jusqu’à n = 5
– Exemple : on observe Xi pendant n = 5 intervalles
" T : le nombre d’essais (temps) jusqu’au premier succès
" –T −Aucun succès
n : le temps qui jusqu’à n n,
reste, après = jusqu’au
5 premier succès
" –P (TT −: nle=nombre
t|T > n) d’essais (temps)
= (1 − p)t−1 p = P (Tjusqu’au
− n = t) premier succès
– T− : le temps
: sans qui reste, après n, jusqu’au premier succès
28 ! Processus de nBernoulli mémoire
– P (T − n = t|T > n) = (1 − p)t−1 p = P (T − n = t)
– Processus de Bernoulli : sans mémoire 48

Processus Aléatoires 81

Temps d’attente
! Le futur est indépendant du passé
! Exemple : on observe Xi pendant n = 5 intervalles
" Aucun succès jusqu’à n = 5
" T : le nombre d’essais (temps) jusqu’au premier succès
" T − n : le temps qui reste, après n, jusqu’au premier succès
" P (T − n = t|T > n) = (1 − p)t−1 p = P (T − n = t)
! Processus de Bernoulli : sans mémoire

48
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

6.1.7 Temps d’attente


Temps d’attente

! Ym : le temps de la m-ième arrivée


! Tm : le temps d’attente entre arrivées
" T =Y
–" YTm1 :=leY1 temps de lamm-ième
= 2, 3, . . arrivée
m m − Ym−1 , .
– Tm : le temps d’attente entre arrivées
! T1 : v.a. géométrique, de paramètre p
! T2 – T1géométrique,
: v.a. = Y1 de paramètre p, indépendante de T1
! – T = Ym de
{Tm } : séquence
m −v.a.
Ym−1 , m=
géométriques, de 2, 3, . paramètre
même .. p, indépendantes
– Tdéfinition
−→ 1 : v.a. alternative
géométrique, de paramètre
du processus de Bernoulli p
– T2 : v.a. géométrique, de paramètre p, indépendante de T1
49
– {Tm } : séquence de v.a. géométriques, de même paramètre p, indépendantes
−→ définition alternative du processus de Bernoulli

École Polytechnique de l’UNS Département d’Électronique


Polytech’Nice-Sophia 3e année
Processus Stochastiques 29
6.1.8 Temps d’arrivée
Temps d’arrivée

! Ym = T1 + T2 + . . . + Tm
! T1 , . . . , Tm v.a. géométriques, de même paramètre p, indépendantes
! E[Ym ] = E[T1 ] + E[T2 ] + . . . + E[Tm ] = m/p
! –var[Y
Ymm ]=ind
=Tvar[T
1 + 1T ++
]2 . . 2. ]+
var[T +T. .m. + var[Tm ] = m(1 − p)/p2
! –YmT≥1,m. . ,. ,PT(Ymm v.a. géométriques,
= t) = P (m − 1 succès en det −
même paramètre
1 essais)P t) indépendantes
(succès en p,
!
–Distribution
E {Ym } de = Pascal
E {T1de}+paramètre
E {T2 }m+: . . . + E {Tm } = m/p
ind ! "
– var[Ym ] = var[T ] +=var[T
pYm1(t)
t − 1] +m. . . + var[T
2 p (1 − p)t−m m , ] t= m, m −
= m(1 p)/p
+ 1, ...
2
m − 1
– Ym ≥ m , P (Ym = t) = P (m − 1 succès en t − 1 essais)P (succès en t)
– Distribution de Pascal de paramètre m : 50

 
t−1 m
pYm (t) = p (1 − p)t−m , t = m, m + 1, . . .
m−1

Exemple de
Processus réalisation
Aléatoires 82
R script :
Pr. de Bernoulli, p = 0.2
n = 50 # nombre d’essais
p = 0.2 # probabilité de succès
10

# vecteur de n Bernoulli
ivées entre 0 et t

X = rbinom( n, 1, p )
# accumuler les arrivées
6

N = 0 * (1:n) # initialisation
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année
Exemple de réalisation
6.1.9 Exemple de réalisation
R script :
Pr. de Bernoulli, p = 0.2
n = 50 # nom
p = 0.2 # pr
10

# vecteur de
Nombre d’arrivées entre 0 et t

X = rbinom(
# accumuler
6

N = 0 * (1:n
N[1] = X[1]
4

for (i in 2:
N[i] = N[
2

}
0

# ajouter le
0 10 20 30 40 50
plot( 0:n, c
t
lines( 0:n,
R script :
n = 50 # nombre d’essais
p = 0.2 # probabilité de succès
# vecteur de n Bernoulli
X = rbinom( n, 1, p )
# accumuler les arrivées
N = 0 * (1:n) # initialisation
N[1] = X[1]
for (i in 2:n) {
N[i] = N[i-1] + X[i]
}
# ajouter le point (0,0)
plot( 0:n, c(0,N), type="p" )
lines( 0:n, c(0,N), type="h" )
Processus Stochastiques
Processus Aléatoires 83
30
École Polytechnique de l’UNS Département d’Électronique
Polytech’Nice-Sophia 3e année

École Polytechnique de l’UNSA Département d’Électronique


Séparation de processus
Polytech’Nice-Sophia
École Polytechnique de l’UNS 3e année
Département d’Électronique
Polytech’Nice-Sophia 3e année

6.1.10 Séparation de processus


Séparation de processus

! Les décisions sur les arrivées du processus d’origine sont indépendantes


! À partir d’un processus de Bernoulli,
obtenir deux nouveaux processus de Bernoulli :
" (en haut) paramètre p · q
! "Les (en bas) paramètre
décisions p · (1 du
sur les arrivées − q)
processus d’origine sont indépendantes
– Les décisions sur les arrivées du processus d’origine
! À partir d’un processus de Bernoulli, sont indépendantes
52
– Àobtenir
partirdeux nouveaux processus de Bernoulli :
d’un processus de Bernoulli,
"
obtenir haut)
(en deuxparamètre
nouveaux
p · q processus de Bernoulli :
" (en bas) paramètre p · (1 − q)
– (en haut) paramètre p · q
– (en bas) paramètre p · (1 − q) 52

6.1.11 Combinaison de processus


Combinaison de processus

Combinaison de processus

! Deux processus de Bernoulli indépendants,


– Deux processus
de paramètres p et q de Bernoulli indépendants,
! Obtenir un nouveau processus de Bernoulli
de paramètres p et q
de paramètre 1 − (1 − p)(1 − q) = p + q − pq
– Obtenir un nouveau processus de Bernoulli
! Deux processus de Bernoulli indépendants,
dede paramètre
paramètres p et1q− (1 − p)(1 − q) = p + q − pq
53
! Obtenir un nouveau processus de Bernoulli
de paramètre 1 − (1 − p)(1 − q) = p + q − pq
6.1.12 Binomiale −→ Poisson
53
– S : v.a. binomiale p, n ; nombre de succès sur n essais indépendants
– Si p  1, n  1 et p · n = w :
n
 m n! wm

w n−m
pS (m) = m p (1 − p)n−m = m!(n−m)! nm 1 − n
wm
n−m
= n(n−1)...(n−m+1)
Processus Stochastiques
m!
31w
nm 1 − n 
n−m+1 wm n −m
= nn n−1
n ... n m! 1− w n 1− wn
m m
−→ 1 · 1 · . . . · 1 wm! e−w · 1 = e−w wm! = pZ (m)
n→∞
Processus Stochastiques 31
– Z : v.a. Poisson, de paramètre w (v.a. discrète)
– E {Z} = w = np
– var[Z] = w ≈ np(1 − p)
– Z : nombre de succès, quand on a w succès en moyenne

Processus Aléatoires 84
! S : v.a. binomiale p, n ; nombre de succès sur n essais indépendants
! Si p # 1, !n $ 1 et p · n = w :
n" m n! wm
! "
w n−m
pS (m) = m p (1 − p)n−m = m!(n−m)! nm 1 − n
wm
! "
w n−m
= n(n−1)...(n−m+1)
m! nm !1 − n " !
n n−1 n−m+1 w m w n
"−m
= n n ... n m! 1 − n 1− wn
w m −w −w wm
−→ 1 · 1 · . . . · 1 m! e · 1 = e m! = pZ (m)
n→∞
! Z : v.a. Poisson, de paramètre w (v.a. discrète)
! E[Z] = w = np
! var[Z] = w ≈ np(1 − p)
! Z : nombre de succès, quand on a w succès en moyenne
École
! Polytechnique de l’UNSA
En pratique, l’approximation Département
est valide si : n ≥ 100 et p ≤ 0.01 d’Électronique
Polytech’Nice-Sophia
! Si X, Y des v.a. Poisson indépendantes, de paramètres w, u : 3e année
X + Y v.a. Poisson de paramètre w + u

54
– En pratique, l’approximation est valide si : n ≥ 100 et p ≤ 0.01
– Si X, Y des v.a. Poisson indépendantes, de paramètres w, u :
X + Y v.a. Poisson de paramètre w + u

Binomiale
6.1.13 −→ Poisson 2−→ Poisson 2
Binomiale

B: n = 1000 , p = 0.01 / P: w = 10
0.12
Fonction de probabilité

0.08
0.04
0.00

0 5 10 15 20 25 30
m : nombre de succès

55

6.2 Processus de Poisson

6.2.1 Définition
– Processus discret à temps continu, d’intensité λ
Processus Stochastiques
– N (t) , nombre d’arrivées entre 0 et32 t
– Nτ , N (t + τ ) − N (t) : nombre d’arrivées entre t et t + τ
– P (k, τ ) , P ({il y a k arrivées dans l’intervalle [t, t + τ ]}) = pNτ (k)
– Propriétés

1. Homogénéité temporelle :
P (k, τ ) indépendant de t

2. Indépendance :
Les nombres d’arrivées dans des intervalles disjoints
sont des variables aléatoires indépendantes

3. Petits intervalles :


1 − λδ ,k = 0
Si δ → 0 , P (k, δ) ≈ λδ ,k = 1


0 ,k > 1

Processus Aléatoires 85
2. Indépendance :
Les nombres d’arrivées dans des intervalles disjoints
sont des variables aléatoires indépendantes
3. Petits intervalles : 

1 − λδ ,k = 0
Si δ → 0 , P (k, δ) ≈ λδ ,k = 1


0 ,k > 1

57

École Polytechnique de l’UNSA Département d’Électronique


Polytech’Nice-Sophia 3e année

Nombre Nombre
6.2.2 d’arrivées en d’arrivées
τ en τ
δ

0
τ

! –Discretiser
Discretiserτ en nτ =en = τ /δ périodes
τ /δnpériodes
! –PP δ) ≈
(0,(0, δ)1≈− λδ
1 −,λδP (1,, δ) ≈ P λδ
(1, δ) ≈ λδ
! Processus de Bernoulli de paramètre λδ
!
–NProcessus de Bernoulli de paramètre λδ
τ : nombre de succès sur n essais indépendants (binomiale)
! –E[N
Nττ ] :=nombre
n · λδ = λτ de succès sur n essais indépendants (binomiale)
! –δ E
→{N τ} = n →
0, binomiale · λδ = λτ
Poisson
% & k
! –pNδτ (k)
→= 0,Pbinomiale
(k, τ ) = nk (λδ) (1 − λδ)n−k −→ e−nλδ (nλδ)
→ kPoisson k!
 n→∞
k
– pNτ (k) )k
= P(λτk!(k,
= e−λτ n
2, . . . k
k (λδ) (1 − λδ)
,τk) ==0, 1, n−k
−→ e−nλδ (nλδ)
k!
! Nτ : loi de Poisson de paramètre n→∞
λτ , E[Nτ ] = λτ , var[N τ ] = λτ
)k
! e−λτ /(λτ
Intensité λ :=arrivées unité ,dektemps
k! = 0, 1, 2, . . .
– Nτ : loi de Poisson de paramètre λτ , E {Nτ } = λτ , var[Nτ ] = λτ
58
– Intensité λ : arrivées / unité de temps

6.2.3 Première arrivée


– T : le temps d’arrivée du premier événement (v.a. continue)
0
– FTStochastiques
Processus (t) = P (T ≤ t) = 1 − P (T > t)33= 1 − P (0, t) = 1 − e−λt (λt)
0!
= 1 − e−λt , t ≥ 0

dFT (t)
pT (t) = = λe−λt , t ≥ 0
dt
– T : v.a. exponentielle
– E {T } = 1/λ
– var[T ] = 1/λ2

P (T ≤ t) = 1 − e−λt


P (T > t) = e−λt

6.2.4 Indépendance
– Le processus de Poisson se renouvelle à chaque instant
– Le futur est indépendant du passé
– Exemple : on observe le processus jusqu’à l’instant t0
– T̄ : le temps du premier événement après t0
– P (T̄ − t0 > s) = P (0 arrivées dans [t0 , t0 + s]) = P (0, s)
0
= e−λs (λs)
0! = e
−λs
: T̄ − t0 v.a. exponentielle
– Processus de Poisson : sans mémoire

Processus Aléatoires 86
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

6.2.5 Temps d’attente


– Ym : le temps de la m-ième arrivée
– Tm : le temps d’attente entre arrivées
– T1 = Y1
– Tm = Ym − Ym−1 , m = 2, 3, . . .
– T1 : v.a. exponentielle, de paramètre λ : pT1 (t) = λe−λt
– T2 : v.a. exponentielle, de paramètre λ , indépendante de T1
– {Tm } : séquence de v.a. exponentielles, de même paramètre λ, indépendantes
−→ définition alternative du processus de Poisson

6.2.6 Temps d’arrivée


– Ym = T1 + T2 + . . . + Tm
– T1 , . . . , Tm v.a. exponentielles, de même paramètre λ, indépendantes :
pTi (t) = λe−λt
– E {Ym } = E {T1 } + E {T2 } + . . . + E {Tm } = m/λ
ind
– var[Ym ] = var[T1 ] + var[T2 ] + . . . + var[Tm ] = m/λ2
– Si δ → 0 ,
δ · pYm (y) = P (y < Ym ≤ y + δ)
= P (m − 1 arrivées avant y)P (1 arrivée entre y et y + δ)
= P (m − 1, y)λδ
– Distribution Erlang d’ordre m :

(λy)m−1 λm y m−1 e−λy


pYm (y) = e−λy λ= , y≥0
(m − 1)! (m − 1)!

6.2.7 Processus de Bernoulli / Poisson


Bernoulli Poisson
Processus discret, à temps discret continu
Rythme d’arrivées p par essai λ/temps
Nombre d’arrivées N à n essais dans un intervalle τ
binomiale n, p Poisson λτ
E {N } p np √λτ
σN np(1 − p) λτ
Temps d’attente T géométrique exponentielle
E {T } p 1/p 1/λ
σT (1 − p)/p 1/λ
Temps d’arrivée Ym Pascal Erlang
E {Ym } p m/p m/λ

σ Ym m(1 − p)/p m/λ

Processus Aléatoires 87
N
Temps d’attente T géométrique exponentielle
E[T ] ! 1/p 1/λ
σT (1 − p)/p 1/λ
Temps d’arrivée Ym Pascal Erlang
E[Ym ] ! m/p m/λ

σYm m(1 − p)/p m/λ

63

École Polytechnique de l’UNSA Département d’Électronique


Polytech’Nice-Sophia 3e année

6.2.8 « Incidence
« Incidence aléatoire » aléatoire »
L


U V
t̂ − U V − t̂

! Poisson d’intensité λ :
– temps
Poisson d’attented’intensité
exponentiels, : moyenne 1/λ
λ de
tempsund’attente
! Choisir instant t̂ entreexponentiels, de moyenne
deux arrivées consécutives, U, V 1/λ

École Polytechnique de l’UNS


!– Temps
Choisir entreun arrivées
instant: V −t̂Uentre
! V − t̂ : v.a exponentielle, paramètre λ
– Temps entre arrivées : V − U = L
= L deux arrivées consécutives, U, V

! t̂ − U : v.a exponentielle, paramètre λ


Polytech’Nice-Sophia
!– (V
V −−t̂),t̂ (:t̂ −v.a
U ) exponentielle,
: v.a. indépendantesparamètre λ
!– Lt̂ =
−(U t̂ − :Uv.a) + (Vexponentielle,
− t̂) paramètre λ
!– L(V : v.a.
− t̂), (t̂ − U ) :2 v.a.
Erlang d’ordre , E[L]indépendantes
= 2/λ ( !)
! E[temps d’attente mesuré] = 2E[temps d’attente du processus]
– L = (t̂ − U ) + (V − t̂)
! Le paradoxe de l’incidence aléatoire !
– L : v.a. Erlang d’ordre 2 , E {L} = 2/λ ( !)
– E {temps d’attente mesuré} = 2E {temps d’attente du processus} 64

Exemples de réalisation
– Le paradoxe de l’incidence aléatoire !

6.2.9 Exemples de réalisation R script :


Pr. de Poisson, ! = 1
Processus Stochastiques 36
n = 20 #
lambda =
20

# temps
Nombre d’arrivées entre 0 et t

T = rexp
15

# temps
Y = 0 *
10

Y[1] = T
for (i i
5

Y[i]
}
0

# ajoute
0 5 10 15 20 25 30
plot( c(
t

Processus Aléatoires 88
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

6.3 Exercices
Exercice 6.1 Pluie

Après un jour de pluie, le nombre de jours jusqu’au prochain jour plu-


vieux suit une distribution géométrique de paramètre p, indépendamment
du passé.
Calculer la probabilité qu’il pleuve le 13e et 17e jour d’un mois.
P = p2 .

Exercice 6.2 Données binaires

Un flux binaire est caractérisé par une probabilité d’erreur à un bit égale à
p = 0.02. Les erreurs sont indépendantes.
1. Donner une description détaillée (fonction de probabilité, espérance et
variance) du nombre de bits sans erreur (Nb ) entre deux bits erronnés.
2. On combine deux flux binaires indépendants, de même probabilité
d’erreur, pour obtenir des symboles de deux bits. Donner une des-
ciption détaillée du nombre de symboles sans erreur (Ns ) entre deux
symboles erronés.
1. Nb + 1 : v.a. géométrique de paramètre p ;
pNb (n) = (1 − p)n p, E[Nb ] = p1 − 1, var[Nb ] = (1 − p)/p2 .
2. Ns + 1 : v.a. géométrique de paramètre q = 1 − (1 − p)2 ;
pNs (n) = (1 − q)n q, E[Ns ] = 1q − 1, var[Ns ] = (1 − q)/q 2 .

Exercice 6.3 Parking

Dans une rue de circulation moyenne, les places sont occupées de façon
indépendante les unes des autres. Les probabilités d’occupation sont égales
à qd = 0.7 (côté droite) et qg = 0.6 (côté gauche).
1. Combien de places vous devez « attendre » en moyenne si vous voulez
vous garer ?
2. Combien de places vous devez « attendre » en moyenne s’il y a deux
voitures devant vous qui veulent se garer ? (Afin de simplifier le pro-
blème, on fera l’hypothèse que les voitures ne se garent pas simulta-
nément à des places opposées.)
Combiner les places libres.

1. E[T ] = 1/(1 − qg qd )
2. E[Y3 ] = 3/(1 − qg qd )

Exercice 6.4 En parallèle

Processus Aléatoires 89
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

Dans un système de N calculateurs en parallèle, la probabilité qu’une tâche


à traiter arrive pendant une unité de temps est égale à p.
On envisage deux algorithmes de répartition des tâches :
1. De façon aléatoire et équiprobable, chaque tâche arrivée est attribuée
à un calculateur.
2. De façon déterministe, chaque tâche est attribuée de façon cyclique à
un calculateur.
Donner la fonction de probabilité, l’espérance et la variance du temps d’at-
tente à un calculateur pour chaque algorithme.
1. Séparation de processus,
p t−1 p
pT (t) = (1 − N ) N
, E[T ] = N/p, var[T ] = N Np−p
2

 N = YN , N −t
2. Temps d’attente
pT (t) = Nt−1
−1
p (1 − p) , E[T ] = N/p, var[T ] = N 1−p
p2
.

Exercice 6.5 Jeu vidéo

Votre neveu passe tout son temps devant sa console en jouant au même jeu.
On note p la probabilité qu’il gagne une partie et on considère qu’elle est
indépendante des autres résultats. Vous entrez dans sa chambre à 18h25 et
vous constatez qu’il est en train de perdre une partie.
Calculer la fonction de probabilité du nombre de parties (L) perdues entre
la dernière partie gagnée et la première partie qu’il va gagner dans l’avenir.
Quelle est l’espérance de L ? Pourquoi vos observations sont contestées par
votre neveu ?
Incidence aléatoire dans un processus à temps disctet.
pL (n) = np2 (1 − p)n−1 , E[L] = p2 − 1 alors que E[T ] = p1 .

Exercice 6.6 Accidents

Entre 8h et 9h du matin, les accidents de circulation arrivent suivant un


processus de Poisson de paramètre λ1 = 5 accidents par heure. Entre 9h
et 11h, les accidents sont modélisés par un autre processus de Poisson,
indépendant du premier, de paramètre λ2 = 3 accidents par heure.
Calculer la fonction de probabilité de la variable aléatoire représentant le
nombre d’accidents de circulation entre 8h et 11h.
Somme de deux v.a. de Poisson indépendantes, de paramètres
w1 = λ1 1h = 5, w2 = λ2 2h = 6. Donc le nombre d’accidents
entre 8h et 11h est donné par une v.a. de Poisson de paramètre
w = w1 + w2 = 11.

Exercice 6.7 La Poste

Processus Aléatoires 90
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

On considère qu’à la Poste on trouve deux types de clients : ceux qui veulent
poster une lettre et ceux qui veulent retirer un colis. Les premiers arrivent
suivant un processus de Poisson de paramètre λ1 et les deuxièmes arrivent
suivant un autre processus de Poisson, indépendant du premier, de para-
mètre λ2 .
1. Montrer que le nombre d’arrivées totales est un processus de Poisson
de paramètre λ1 + λ2 .
2. Montrer que la probabilité que le client qui
vient d’arriver (petit intervalle) poste une lettre,
P ({il y a une arrivée lettre}|{il y a une arrivée}), est égale à
λ1
λ1 +λ2
.
1. Il faut montrer que le processus combiné est un proces-
sus de Poisson : indépendance, homogénéité et petits in-
tervalles. Les petits intervalles donnent comme intensité
λ1 + λ2 .
2. Calculer la probabilité conditionnelle avec les formules de
petits intervalles.

Exercice 6.8 Ampoules

Les temps de vie Ta et Tb de deux ampoules sont des v.a. indépendantes et


distribuées de façon exponentielle de paramètre λa et λb , respectivement.
1. Montrer que la v.a. T = min (Ta , Tb ) est exponentielle de paramètre
λa + λb . Interpréter le résultat.
2. Calculer l’espérance de la v.a. S = max(Ta , Tb ) − T en utilisant le
théorème d’espérance totale.
3. Calculer l’espérance de la v.a. X = max(Ta , Tb ).
1. FT (t) = P (T ≤ t) = 1 − P (T ≥ t)
= 1 − P (Ta > t ∩ Tb > t) = . . .
1 λa 1 λb
2. E {S} = λb λa +λb
+ λa λa +λb
.
3. E {X} = E {S} + E {T } = . . .

Exercice 6.9 Uniforme

On considère un processus de Poisson de paramètre λ et l’événement A =


{il y a une arrivée dans l’intervalle [a, b]}.
Montrer que la densité de probabilité du temps d’arrivée T conditionnée sur
A, pT |A (t), est uniforme dans [a, b].
A = {une arrivée entre [0, l]}.
FT |A (t) = P (T ≤ t|A) = . . . = tl
dFT |A (t)
pT |A (t) = dt
= 1l , 0 ≥ t ≥ l.

Exercice 6.10 Achats

Processus Aléatoires 91
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

Les clients sortent d’une librairie suivant un processus de Poisson, de pa-


ramètre λ clients par heure. La variable aléatoire discrète Dn représente la
somme dépensée par le n-ième client. Les v.a. Di suivent la même distribu-
tion, sont indépendantes entre elles ainsi qu’avec le processus de Poisson.
On définit la somme totale S(t) = D1 + D2 + DN (t) , où N (t) est le nombre
de clients sortis jusqu’à l’instant t. Si N (t) = 0, on pose S(t) = 0.
Montrer que :

E {S(t)} = E {N (t)} E {Di }


var(S(t)) = E {N (t)} var(Di ) + var(N )(E {Di })2 .

A.N. : λ = 81 clients par jour, t = une journée, E {Di } = 8 EUR, σDi =


6 EUR.
E {N (t)} = λt = 81, var[N (t)] = λt = 81
E {S(t)} = 648 EUR
σS(t) = 90 EUR

Processus Aléatoires 92
Chapitre 7

Chaînes de Markov

7.1 Définition
– Processus discret à temps discret ou continu
– Séquence de variables aléatoires Xn
– xn ∈ S = {1, 2, . . . , m}
– Propriété de Markov :

P (Xn+1 = j|Xn = i, Xn−1 = in−1 , . . . , X0 = i0 ) = P (Xn+1 = j|Xn = i)

– Processus avec mémoire


– Terminologie
– États : les membres de l’ensemble S
– Probabilité de transition : P (Xn+1 = j|Xn = i) , pij

7.2 Matrice de transition


 
p11 p12 . . . p1m
 p21 p22 . . . p2m 
P=
 ...

... ... ... 
pm1 pm2 . . . pmm

– Normalisation :
m
X
pik = 1 , ∀i ∈ S
k=1

– Exemple : suivre un cours

93
 
p11 p12 . . . p1m
 p21 p22 . . . p2m 
P=
 ... ...

... ... 
pm1 pm2 . . . pmm
! Normalisation :
m
'
pik = 1 , ∀i ∈ S
École Polytechnique de l’UNSA Département d’Électronique
k=1
Polytech’Nice-Sophia 3e année
! Exemple : suivre un cours

0.3
( )
0.7 0.3
0.7 1 2 0.9 P=
0.1 0.9
à jour 0.1 en retard

7.3 Trajectoires
– Probabilité d’une trajectoire

P (X0 = i0 , X1 = i1 , . . . , Xn = in ) = P (X0 = i0 )pi0 i1 . . . pin−1 in

– Probabilité d’une transition à n étapes


Trajectoires
(n)
! pij , P (Xn = j|X0 = i)
Probabilité d’une trajectoire

P (X0 = i0 , X1 = i1 , . . . , Xn = in ) = P (X0 = i0 )pi0 i1 . . . pin−1 in


– Équation de Chapman – Kolmogorov
! Probabilité(n)d’une
Xtransition
(r) (n−r)
à n étapes
pij = pik pkj , 1≤r ≤n−1 (probabilité totale)
k
(n)
pij " P (Xn = j|X0 = i)
(2)
X
– Application pour n = 2 : pij = pik pkj −→ P(2) = P2
k
# Équation
– Matrice de nde Chapman
transitions : – Kolmogorov
(n)
'(n)(r) (n−r)
n
École Polytechnique de l’UNS
Polytech’Nice-Sophia
pij = P pik= pPkj , 1 ≤Département
r ≤ n −d’Électronique
1 3e(probabilité
année
totale)
k
7.4 Classification des états
(2) *
Classification des états
# Application pour n = 2 : pij = k pik pkj −→ P(2) = P2
# Matrice de n transitions :
1 2 3 4
P(n) = Pn 5

! L’état j est accessible à partir de l’état i si :


– L’état j est accessible à partir de l’état
(n)
i si :
∃n : pij > 0
(n)
! ∃n de
A(i) : l’ensemble des états accessibles à partir : pl’état
ij > i 0
! État i transitoire :
∃j ∈ A(i) : i ∈
/ A(j)
! État i récurrent :
∀j ∈ A(i) : i ∈ A(j)
Processus Aléatoires 94
Les états A(i) forment une classe : ∀j ∈ A(i), A(j) = A(i)

Processus Stochastiques 39 70
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

– A(i) : l’ensemble des états accessibles à partir de l’état i


– État i transitoire :
∃j ∈ A(i) : i ∈
/ A(j)

– État i récurrent :
∀j ∈ A(i) : i ∈ A(j)

Les états A(i) forment une classe : ∀j ∈ A(i), A(j) = A(i)


– Une chaîne de Markov est composée de :
– Une ou plusieurs classes récurrentes
– Éventuellement, quelques états transitoires
– Un état récurrent est accessible à partir de tous les états de sa classe
– Un état transitoire n’est pas accessible à partir d’un état récurrent
– Au moins un état récurrent est accessible à partir d’un état transitoire
École Polytechnique de l’UNS Département d’Électronique
Polytech’Nice-Sophia 3e année
7.5 Périodicité
Périodicité

2 3
S1 1
S2

6 5
S3

!
Classe récurrente périodique :
il existe une partition!S1 , . . . , Sd (d > 1) de ses états telle que :
pace-0.3cm j ∈ Sk+1 , k < d
si i ∈ Sk et pij > 0,
– Classe récurrente j ∈périodique
S1 , k=d :
il existe une partition ( 1 , .ij. . , Sd (d > 1) de ses états telle que :
(n)
! Classe récurrente apériodique : S
∃n : p > 0 , ∀i, j

j ∈ Sk+1 , k < d 72
si i ∈ Sk et pij > 0,
j ∈ S1 , k=d
(n)
– Classe récurrente apériodique : ∃n : pij > 0 , ∀i, j

7.6 Comportement à long terme


Comportement à long terme
! Une seule classe récurrente, apériodique (+ des états transitoires)

– Une
1. seule classe
Pour chaque récurrente,
état j, apériodique
(n) (+ des états transitoires)
pij −→ πj , ∀i
n→∞
1. Pour chaque état j,
2. Les πj sont la solution unique du système :
(n)
" pij −→ π"
j , ∀i
πj = πk pkj , ∀j n→∞
et πk = 1
k k

3. États transitoires : πj = 0
États récurrents : πj > 0
# #
Processus Aléatoires
! limn→∞ P (Xn = j) = lim#
n→∞
(n)
k P (X0 = k)pkj = k P (X0 = k)πj 95
= πj k P (X0 = k) #= πj #
! Si ∀i, P (X0 = i) = πi : P (X1 = i) = k P (X0 = k)pki = k πk pki = πi
πi : distribution de probabilités stationnaire

73
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

2. Les πj sont la solution unique du système :


X X
πj = πk pkj , ∀j et πk = 1
k k

3. États transitoires : πj = 0
États récurrents : πj > 0
X (n)
X
– limn→∞ P (Xn = j) = limn→∞ P (X0 = k)pkj = P (X0 = k)πj
X k k
= πj P (X0 = k) = πj
k X X
– Si ∀i, P (X0 = i) = πi : P (X1 = i) = P (X0 = k)pki = πk pki = πi
k k
πi : distribution
École Polytechnique de l’UNS de probabilités stationnaire Département d’Électronique
Polytech’Nice-Sophia 3e année

7.7 Chaînes ergodiques


Chaînes ergodiques
! – Une
Une seule seule classe récurrente,
classe récurrente, apériodique (+ apériodique (+ des états transitoires)
des états transitoires)
! –ij (n)
u uij :(n)
nombre: nombre depar
de passages passages par l’état
l’état j pendant j pendant
les n premières les n premières
transitions, transi-
avections,
état de départ X0 = i
avec état de départ X0 = i uij (n)
fréquence relative de passages : −→ πj
n n→∞
uij (n)
! fréquence
qijk (n) : nombre de transitions relative
j −→ delespassages
k pendant n premières: transitions,−→ πj
avec état de départ X0 = i n n→∞
– qijk (n) : nombre de transitions j −→
fréquence relative de transitions :
pendant
qijkk(n)
=
les
uij (n)p jk n premières transitions,
−→ πj pjk
avec état de départ X0 = i n n n→∞
! !
! Justification de πk = j πj pjk : passages par k = j transitions j vers k
qijk (n) uij (n)pjk
fréquence relative de transitions : = −→ πj pjk74
n n n→∞
X X
– Justification de πk = πj pjk : passages par k = transitions j vers k
j j

7.8 Processus de naissance et de mort


Processus de naissance et de mort
– Processus de Markov, transitions uniquement entre les états voisins
! Processus
– bi = Pde(XMarkov, = i + 1|Xuniquement
transitions entredles=
états voisins
= i − 1|Xn = i)
n+1 n = i) , i P (X n+1
! bi = P (Xn+1 = i + 1|Xn = i) , di = P (Xn+1 = i − 1|Xn = i)

1 − b0 1 − b1 − d1 1 − bm−1 − dm−1 1 − dm

b0 b1 bm−2 bm−1
0 1 m−1 m

d1 d2 dm−1 dm
!
! πj = k πk pkj , ∀j se simplifie :
! πk pkj : fréquence relative de transitions qikj (n)/n , n → ∞
Processus
! Symétrie Aléatoires
: qik(k+1)(n) = qi(k+1)k (n) , n → ∞ , 0 ≤ k ≤ m − 1 96
πk+1 bk
! πk bk = πk+1 dk+1 −→ πk = dk+1 , 0≤k ≤m−1
"j−1 πk+1 "j−1 bk b0 b1 . . . bj−1
! k=0 πk = k=0 dk+1 −→ πj = π0 , 1≤j≤m
d1 d2 . . . dj
!
! Normalisation : j πj = 1

75
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

7.9 Exercices

Exercice 7.1 Suivre un cours

On considère que chaque semaine, en fonction du temps consacré à sa prépa-


ration, un étudiant peut soit être à jour par rapport au cours, soit en retard.
Cette situation est modélisée à l’aide d’une chaîne de Markov à deux états
dont la matrice de transition est donnée par
 
0.8 0.2
P= .
0.6 0.4

1. Classifier les états de cette chaîne.


2. Calculer la probabilité de se retrouver, à long terme, dans chaque
état.
1. Une classe récurrente, non périodique : états 1 et 2.
p21
2. π1 = p12 +p21
= 34 ,
p12
π2 = p12 +p21
= 14 .

Exercice 7.2 Parapluies

Un enseignant a deux parapluies qu’il utilise pendant ses déplacements entre


chez lui et son bureau. S’il pleut et si un parapluie est disponible à l’endroit
de départ, il s’en sert. Si il ne pleut pas, il oublie systématiquement de
prendre un parapluie. On suppose que la probabilité qu’il pleuve au moment
de son départ est toujours égale à p.
1. Modéliser ce problème en utilisant une chaîne de Markov à trois états,
représentant le nombre de parapluies disponibles à l’endroit de départ.
2. Calculer la probabilité que l’enseignant se retrouve, à long terme, sans
parapluie sous la pluie.
1. États 0, 1, 2. Une classe récurrente, non périodique.
1−p 1 p(1−p)
2. π0 = 1 − 2π2 = 3−p
, π1 = π2 = 3−p
, P = π0 p = 3−p
.

Exercice 7.3 Routeur

Processus Aléatoires 97
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

On considère que les paquets de données arrivant à un routeur sont stockés


et puis retransmis. La capacité du routeur est de m paquets. Le temps est
discretisé de façon telle que, à chaque instant, le routeur peut effectuer l’une
des opérations suivantes :
– Recevoir un paquet, avec probabilité b > 0, si le nombre de paquets
stocqués est inférieur à m.
– Transmettre un paquet déjà reçu, avec probabilité d > 0 s’il y a au moins
un paquet stocqué.
– Rester inactif, avec probabilité 1 − b s’il n’y a aucun packet stocké, 1 − d
s’il y a m packets stockés et 1 − b − d dans les autres cas.
1. Modéliser ce problème en utilisant une chaîne de Markov à m + 1
états, représentant le nombre de paquets stockés au routeur.
2. Calculer les probabilités stationnaires πi .
3. Examiner le cas m → ∞.
1. Processus de naissance et de mort, états S = {0, 1, . . . , m}.
j
2. πj = π0 db , 0 ≥ j ≥ m.
b i
( 1−(b/d)
, db 6= 1

1−(b/d)m+1 d
Normalisation → πi = 1
m+1
, db = 1
i
3. b/d < 1 : limm→∞ πi = 1 − db db
 

b/d ≥ 1 : limm→∞ πi = 0 (tous les états sont transitoires !).

Exercice 7.4 Matrice doublement stochastique


Une matrice de transition d’une chaîne de Markov irréductible et apério-
dique est dite doublement stochastique si la somme des éléments de chaque
colonne est égale à 1 :
n
X
pij = 1, ∀j = 1, · · · , m.
i=1

Exercice : l’élève supersitieux Un élève superstitieux fréquente une école


dans un bâtiment circulaire muni de m portes, où m est un entier impair.
L’élève n’utilise jamais deux fois la même porte successivement, mais utilise
la porte adjacente dans le sens des aiguilles d’une montre avec probabilité
p et l’autre porte avec probabilité 1 − p.
– Déterminez la chaine de Markov de l’exercice.
– Montrez que la matrice de transition de l’exercice est doublement sto-
chastique
– Montrez que les probabilités stationnaires sont πj = 1/m, j = 1, · · · , m
1−p
 
0 p 0 0 ... 0
 1−p 0 p 0 ... 0 0 
 
 0
 1 − p 0 p . . . 0 0  
 .. .. .. .. .. .. .. 
 . . . . . . . 
p 0 0 0 ... 1 − p 0
+ équations des probas stationnaires

Exercice 7.5 Processus de Markov

Processus Aléatoires 98
École Polytechnique de l’UNSA Département d’Électronique
Polytech’Nice-Sophia 3e année

Le professeur Tournesol donne des D.S. qui sont soit durs, soit moyen-
nement durs, soit faciles. Heureusement, il ne donne jamais deux D.S.
durs de suite. S’il donne un D.S. dur, le D.S. suivant est de façon
équiprobale, soit moyennement dur, soit facile. Par contre, s’il donne
un D.S. moyennement dur ou facile, le test suivant est du même ni-
veau de difficulté avec une probabilité de 50 %, et d’un des autres ni-
veaux de difficulté avec une probabilité de 25 %. Modélisez ce proces-
sus par une chaîne de Markov et trouvez les probabilités stationnaires.
π1 = 1/5, π2 = π3 = 2/5

Processus Aléatoires 99