Vous êtes sur la page 1sur 20

Ecole Nationale d’Ingénieurs de Carthage

Département Informatique
Niveau : Première Année Mastère de Recherche RMM

Processus Stochastiques

Préparé par : Iyed BEN SLIMEN

Année universitaire : 2017/2018

Plan du cours :
Chapitre 1 : Rappels sur la théorie des probabilités
Chapitre 2 : Notions de base des processus stochastiques
Chapitre 3 : Exemples de P.S : Gaussiens et de Poisson
Chapitre 4 : Chaines de Markov

Processus Stochastiques/ ENICAR Page 1


Chapitre 1 : Rappels sur la théorie des probabilités

1. Variables aléatoires
Dans l’étude des phénomènes physiques, il existe des situations qui peuvent être répétées un
grand nombre de fois dans des conditions identiques et qui donnent, à chaque expérience, un
résultat différent impossible à prévoir avec certitude. Ces phénomènes sont appelés aléatoires.
L’ensemble de tous les résultats possibles de cette expérience est appelé espace échantillon noté
S. Un sous-ensemble de S est un évènement.
Une variable aléatoire (v.a) est une fonction X qui associe un nombre réel X(s) à chaque s ϵ S.
On désigne SX l’ensemble des valeurs possibles de S.
Exemple: lancement d’un pièce de monnaie S = {P,F} X peut être une fonction de
valorisation directe de pile comme 1 et face comme 0 SX = {1,0}
Exemple: lancement d’un dé à 6 faces On peut avoir X telle que SX = {1,2,3,4,5,6}
Exemple: prendre au hasard un nombre dans [0,1]. On peut prendre dans ce cas la v.a X qui est
simplement le nombre obtenu (fonction identité); SX = [0,1]
On peut définir une autre v.a Y sur le même espace:

1 si le nombre obtenu
Y =
1
2
S = {0,1}
Y

0 sin on

Une variable aléatoire X est dite discrète si l’ensemble SX est dénombrable (fini ou infini).
On note SX = {xi} où xi désigne l’élément numéro « i » de l’ensemble SX.
On appelle loi de X la probabilité PX définie sur SX par la formule :
p ( xi ) = P [ X = xi ] ∀xi ∈ S X
X

Propriétés :
1) 0 ≤ p X ( xi ) ≤ 1
2) ∑ p X ( x i ) = 1
Exemples : xi ∈S X

Loi de Bernoulli B(p): SX = {0,1} : p X ( x) = p x (1 − p )1− x


Loi Binomiale B(n,p): SX = {0,1,...,n}
n
p X ( x) =   p x (1 − p ) n − x
 x
Loi équipartie (ou équiprobable): SX = {1,2,...,n}
1
p X ( x) =
n
Loi de Poisson Poi(λ): SX={0,1,...} = IN
λx
p X ( x ) = e −λ avec λ > 0
x!
La fonction de répartition d’une v.a X est définie par: FX ( x) = P [ X ≤ x] ∀x ∈ IR
1) 0 ≤ FX ( x) ≤ 1
Propriétés :
2) lim FX ( x) = 0 et lim FX ( x) = 1
x → −∞ x → +∞

3) FX est croissante
4) P[a X ≤ b] = FX (b) − FX (a )

Processus Stochastiques/ ENICAR Page 2


Question : Déterminer la fonction de répatition de la v.a X suivant la loi équipartie et tracer sa
courbe représentative.

Une variable aléatoire X est dite continue si l’ensemble SX est infini non dénombrable et sa
fonction de répartition est continue.
On parle dans le cas continu d’une fonction de densité de probabilité (en tout point où la dérivée
existe):
d
f X ( x) = FX ( x)
dx
Propriétés :
1) 0 ≤ f X ( x) ≤ 1
x
2) FX ( x) = ∫ f X ( z ) dz
−∞
+∞
3) ∫ f X ( z ) dz = 1
−∞
b
4) P[a X ≤ b] = FX (b) − FX (a ) = ∫ f X ( z ) dz
a
Exemples :
Loi uniforme U[a,b]: SX = [a,b]
1
f X ( x) =
b−a
Loi exponentielle Exp(λ): SX = IR+
f X ( x) = λ e − λx avec λ > 0
Loi gaussienne N(μ,σ2): SX = IR
1  ( x − µ )2 
f X ( x) = exp−  avec σ > 0
2πσ 2  2σ 2 

- Si μ=0 et σ = 1: loi gaussienne centrée réduite


- Si Y=aX+b Y suit N(aμ+b, (aσ)2).
- En particulier
X −µ
Z= suit N (0,1)
Exercice : σ

1
Soit la fonction suivante :
= > =
√2
1) Tracer la courbe d’une loi gaussienne centrée réduite. Que représente Q(x) sur cette
courbe ?

1
2) En utilisant la courbe précédente, montrer les relations suivantes :
=1− − , 0 = , −∞ = 1, +∞ = 0
2
3) Soit une variable gaussienne ~ , > = ! # $
"
, montrer que
4) En déduire la fonction de répartition de Z.

L’espérance mathématique d’une v.a X :


E ( X ) = ∑ xi p X ( xi ) : cas discret
x∈S X

E ( X ) = ∫ x. f X ( x)dx : cas continu


SX

Processus Stochastiques/ ENICAR Page 3


Si X est une v.a, alors toute transformation g(X), où g est une fonction à valeurs réelles définie
sur IR , est une v.a. Son espérance mathématique est donnée par:

E ( g ( X )) = ∑ g(x ) p
xi ∈S X
i X ( xi ) : cas discret

E ( g ( X )) = ∫ g ( x). f X ( x)dx : cas continu


SX
Par exemple :
E( X 2 ) = ∑ (x )
xi ∈S X
i
2
p X ( xi ) : cas discret

E ( X 2 ) = ∫ x 2 f X ( x)dx : cas continu


SX

Linéarité : L’espérance est linéaire alors E(aX+bY)=a E(X)+ b E(Y) avec a et b deux réels, X et
Y deux v.a ayant des espérances respectives E(X) et E(Y).
Le ke moment de X par rapport à l’origine est E[Xk], pour k=0,1,2...
La variance est la quantité: VAR [X] = E[(X-E[X])2]
On montre aussi que: VAR [X] = E(X2) – (E[X])2
L’écart type de X est la racine carré de la variance. Il a la même unité que X.
On a: V[aX+b] = a2.V[X] avec a et b deux réels

Exercice:
Soit la loi équipartie de paramètre n
1) Déterminer son espérance mathématique sachant que la somme d’une suite arithmétique

,' )- ' ( ') + ' - ' ( ')


est
% = &' ( ') * ×
2
2) En développant la somme suivante de deux manières différentes :∑234/- 0 − - − 1 0 1
montrer que ∑234 - =
54 54

3) En déduire la variance de cette loi

Exercice:
1) Déterminer l’espérance et la variance mathématique d’une loi de Benoulli de paramètre
p.
2) Expliquer la loi binomiale B(n,p) à l’aide de la loi de Bernoulli. En déduire son espérance
et sa variance mathématiques.
3) Déterminer l’espérance et la variance mathématique d’une loi uniforme U[a,b]

Exercice:
Soit une loi de Poisson de paramètre λ
+∞
zi
1) Sachant que e = ∑ , chercher son espérance mathématique.
z

i = 0 i!

i (λ ) i (λ ) +∞ (λ )
+∞ i −1 +∞ i i
2) Montrer que ∑ =∑ +∑
i =1 (i − 1)! i =0 i! i = 0 i!
3) En déduire la variance mathématique de cette loi.

Exercice :
Par intégration par parties, déterminer l’espérance et la variance mathématiques d’une loi
exponentielle de paramètre λ

Processus Stochastiques/ ENICAR Page 4


Exercice :
Soit X une v. a gaussienne, centrée et de variance σ2, Nous proposons de calculer les moments
d’ordre k de cette variable.
1) Démontrer l’égalité 6 = 87
7 9
pour tout α > 0
2) En dérivant cette égalité r fois par rapport à la variable α, calculer 6 : 7

3) En déduire le moment d’ordre k de la v.a X noté E(Xk)

Tableau récapitulatif
Quelques Lois Espérance Variance
Equi(n) (n+1)/2 (n+1)(n-1)/12
B(p) p p(1-p)
B(n,p) np np(1-p)
Poi(λ) λ λ
U[a,b] (a+b)/2 (b-a)2/12
Exp(λ) 1/λ 1/λ2
N(μ,σ2) μ σ2

2. Calcul de loi
Une fonction g d’une v.a X, g(X), peut etre considérée comme une nouvelle v.a Y = g(X).
Connaissant la forme analytique de la densité de probabilité fX(x), il est à déterminer la forme
analytique de la densité de probabilité fY(y).
1er cas : la relation entre X et Y est biunivoque dans SX
X peut s’écrire X = g-1(Y)
;< = = ;> ? 4
= @ @
=
Exercice :
Soient X et Y deux v.a telles que Y = a X + b où a et b deux constantes réelles. Soient fX(x) et
fY(y) les densités de probabilité respectivement de X et de Y.
1) Déterminer fY(y) en fonction fX(x)
2) Appliquer le résultat si X suit une loi gaussienne centrée de variance σ2. Que peut-on
déduire ?
2e cas : cas général
Supposons x1,x2....xn soient les racines réelles de y = g(x), alors :
1 1 1
;< = = ;> + ;> + ⋯+ ;>
|?B 4 | 4
|?B | |?B |
Exercice :
Soient X et Y deux v.a telles que Y = a X2 où a réel strictement positif. Soient fX(x) et fY(y) les
densités de probabilité respectivement de X et de Y.
1) Déterminer fY(y) en fonction fX(x)
2) Appliquer le résultat si X suit une loi gaussienne centrée de variance σ2. Que peut-on
déduire ?

3. Couple de variables aléatoires


Soit X et Y deux variables aléatoires sur un espace échantillon à valeurs respectivement dans E
et F. Elles peuvent être discrètes ou continues.

Processus Stochastiques/ ENICAR Page 5


>,< D 2 , =E F = Pr I = 2, J = =E
La loi de probabilité conjointe est définie :
(cas discret)
Elle vérifie la propriété :
K K >,< D 2 , =E F =1
P ∈Q LM ∈O

R>,< , = = Pr I < , J < =


La fonction de répartition conjointe est définie par:

1) R>,< , = ≥ 0
Elle vérifie les propriétés suivantes :

2) R>,< −∞, +∞ = 1
3) R>,< , −∞ = R>,< −∞, = = 0

U
Dans le cas continu, on peut définir la densité de probabilité conjointe comme :
;>,< , = = R ,=
U U= >,<

1) ;>,< , = ≥ 0
Elle vérifie les propriétés suivantes :

2) ∬Q×O ;>,< ,= ==1

On peut s’intéresser à la projection de la loi à deux variables sur l’un des axes. On définit ainsi
les probabilités marginales (cas discret) et les densités de probabilité marginales (cas continu)
par :
2 = K D 2 , =E F D=E F = K D 2 , =E F
LM ∈O P ∈Q

;> = ;>,< ,= = ;< = = ;>,< ,=


O Q
Les probabilités conditionnelles ou les densités de probabilités conditionnelles ont le but de

I = 2 /J = =E ( J = =E /I = 2
vérifier la liaison entre les deux v.a. Elles sont définies par :

;>/< , = ( ;</> , =

PX,Y x, y = PX/Y x, y PY y = PY/X y, x PX x


Formules de Bayes :

fX,Y x, y = fX/Y x, y fY y = fY/X y, x fX x

Les espérances conditionnelles :


]> {I/J = =} = K 2 >/< 2, = ]< {J/I = } = K 2 </> , =E
Q O

]> {I/J = =} = ;>/< ,= ]< {J/I = } = =;</> ,= =


Q O

1) ] I = ]< {]> {I/J = =}} ] J = ]> {]< {J/I = }}


On aura par la suite :

2) ]{? I, J } = ]< {]> {? I, J }} = ]> {]< {? I, J }}


Deux v.a sont indépendantes si la probabilité conjointe (densité) est le produit des probabilités
des deux v.a (densité). On aura aussi E{XY}= E(X) E(Y)

Processus Stochastiques/ ENICAR Page 6


Exercice :

N une v.a de Poisson d’intensité λ, indépendante des v.a Xn. Calculer ]{∏a34 I }
Soit Xn, n≥1, une suite formée de v.a indépendantes et identiquement distribuées, d’espérance μ, et

Exercice :
Soit X une v.a distribuée suivant une loi de Poisson d’intensité λ. L’intensité λ, elle aussi, une v.a
dont la distribution est exponentielle de moyenne μ. Déterminer la distribution de la v.a X.

Notion de covariance :
La covariance de deux v.a X et Y est donnée par les deux formules suivantes:
Cov( X , Y ) = E (( X − E ( X ))(Y − E (Y )))
Cov( X , Y ) = E ( XY ) − E ( X ) E (Y )
Si la covariance est nulle on dit qu’elles sont décorrélées.
NB : Si X et Y sont indépendantes alors la covariance est nulle (réciproque n’est pas vraie)

1) bcd e4 I4 + e I , J
On vérifie les propriétés suivantes :
e4 bcd I4 , J e bcd I , J
2) bcd eI, eJ e fcd I, J
3) ge' I fcd I, I
4) Théorème: La variance de la somme de n v.a

Coefficient de corrélation :
Il est commode d’utiliser la coefficient de corrélation au lieu de la covariance:
Cov( X , Y )
ρ( X ,Y ) =
Var[ X ].Var[Y ]

On a: ρ(aX+b,cY+d) = ρ(X,Y)
NB : Si X et Y sont indépendantes alors la coefficient de corrélation est nulle (réciproque
n’est pas vraie)

Processus Stochastiques/ ENICAR Page 7


Chapitre 2 : Notions de base des processus stochastiques

1. Concepts généraux

Exemple introductif : Soit un objet dans un repère h, ij, kj . À l’instant t = 0, il se trouve à


l’origine.
A chaque unité de temps (t = 1, 2 , ....) on lance une pièce de monnaie:
Si « Pile » (w = 1) l’objet avance d’une unité vers la droite
Si « Face » (w= 0) l’objet avance d’une unité vers la gauche
t: valeurs déterministes
x: valeurs aléatoires
X(t,w) désigne la position de l’objet au bout d’un certain temps t: marche aléatoire

Définition : Un processus stochastique (p.s) est une famille de v.a indexées par un paramètre
déterministe t ϵ un ensemble T (ce paramètre est généralement le temps).
Notation : {X(t,w), t ϵ T}
NB : - pour une valeur particulière de t, X(t,w) est une variable aléatoire
- Pour les ps étudiés ici on ne considère pas de représentations dans le corps des complexes

Si T est fini ou infini dénombrable le processus est dit à temps discret.


Notation commode: {Xn, n ϵ T }
Si T est infini non dénombrable (un ou plusieurs intervalles) le processus est dit à temps continu
Notation commode: s’il n’y a pas confusion on note {X(t), t ϵ T }

Soit SX(t) l’ensemble des valeurs de la v.a X(t) appelé espace des états du p.s {X(t), t ϵ T }
Si SX(t) est fini ou infini dénombrable le processus est dit à état discret
Si SX(t) est infini dénombrable le processus est dit à état continu
Exemple : la marche aléatoire de l’exemple introductif est à temps discret et à état discret
Exemple : Y un v.a qui suit une loi uniforme sur l’intervalle [-1,1]. Le p.s { X(t) = Y t, t > 0 } est à
temps continu.
Il est à état continu à moins que Y prenne la valeur 0.
SX(t)=[0,+∞) si Y > 0
SX(t)=(-∞,0] si Y < 0

La fonction de répartition d’ordre k du p.s {X(t), t ϵ T} est la fonction de répartition conjointe de


l’ensembles des v.a aux k instants (X(t1,w), X(t2,w), ...., X(tk,w)) (forme d’un vecteur aléatoire)
F ( x1 ,..., x k ; t1 ,..., t k ) = P( X (t1 , w) ≤ x1 ,..., X (t k , w) ≤ x k )
Si on l’effectue à un seul instant on parle d’une loi de répartition unidimensionnelle.
Si on l’effectue à deux instants on parle d’une loi de répartition bidimensionnelle.
Lorsqu’on connait les lois unidimensionnelle et bidimensionnelle, on dit qu’on connait les
propriétés du processus jusqu’au second ordre.
On définit les fonctions de masse de probabilité (ou probabilité tout cours) et de densité de
probabilité d’ordre k d’un p.s:
p ( x1 ,..., xn ; n1 ,..., nk ) = P( X n1 = x1 ,..., X nk = xk ]
et (où la dérivée existe)
∂k
f ( x1 ,..., xn ; t1 ,..., t k ) = F ( x1 ,..., xn ; t1 ,..., t k )
∂x1...∂xk
Processus Stochastiques/ ENICAR Page 8
Exemple : revenons à l’exemple introductif

T = {0,1,2,3...}
S = {P, F } = {1,0}
+ 1 : marche à droite
S X n = {0,1,−1,2,−2...} avec 
− 1 : marche à gauche
Soit P(" Pile" ) = p
1 si x = 0
à n = 0 ; p ( x; n = 0) ≡ P( X 0 = x) = 
0 autres
 p si x = 1

à n = 1; p ( x; n = 1) ≡ P( X 1 = x) = (1 − p ) si x = −1
0 autres

 p 2 si x = 2

2 p (1 − p ) si x = 0
à n = 2; p ( x; n = 2) ≡ P( X 2 = x) = 
(1 − p ) si x = −2
2

0 autres

2. Moments d’ordre 1 et 2
L’espérance mathématique d’un p.s X(t,w) est la fonction déterministe mX(t) :
p K 2 ( , 2 ( *- à é(e( -*f' (
n st
]DI (, l F =
o
)> (
n ( ;> ( *- à é(e( fc (- u
mst
Si cette espérance = 0 quelque soit le temps on dit que le processus est centré.
NB : il s’agit d’un moyenne statistique et non pas une moyenne temporelle.

fcd I, J = ] IJ − ] I ] J
Rappelons que si nous avons deux v.a X et Y la fonction de covariance est :

] IJ : ;c f(-c fc''éwe(-c
Et le coefficient de corrélation :
Cov( X , Y )
ρ( X ,Y ) =
Var[ X ].Var[Y ]
Puisque un p.s est un ensemble de v.a indexées par t on peut définir les fonctions d’autocorrélation,
d’autocovariance et le coefficient d’autocorrélation:
R X (t , s ) = E ( X (t ) X ( s )) ou R X (t , t + z ) = E ( X (t ) X (t + z ))
C X (t , s ) = R X (t , s ) − m X (t )m X ( s ) ou C X (t , t + z ) = R X (t , t + z ) − m X (t )m X (t + z )
C X (t , s ) C X (t , t + z )
ρ X (t , s) = ou ρ X (t , t + z ) =
C X (t , t )C X ( s, s ) C X (t , t )C X (t + z , t + z )

Variance d’un processus : de'/I ( 1 = b> (, (


A un instant donné t on aura :

Puissance moyenne : ] I (
NB : x> (, ( = 1

Processus Stochastiques/ ENICAR Page 9


Exercice :
Un processus de Bernoulli est une suite de variables aléatoires X1, X2.... indépendantes associés à
des essais de Bernoulli de paramètre p. Formellement, Xk = 1 si le ke essai est un succès (avec
probabilité p) et Xk = 0 sinon.
1) Montrer qu’il s’agit d’un processus stochastique à état discret et à temps discret
2) Calculer le cas particulier p(0, 1 ; k1=0, k2=0), probabilité d’ordre 2 du processus.
3) Calculer la moyenne en fonction de p quelque soit k.
4) Déterminer la fonction d’autocorrélation, la fonction d’autocovariance et le coefficient
d’autocorrélation de ce processus.

Intercorrélation de deux processus : afin de généraliser la notion de fonction d’autocorrélation,

Гz,{ |, } = ~/z | { } 1
on définit les fonctions d’intercorrélation entre deux processus stochastiques X(t) et Y(t) par :

Г{,z |, } = ~/{ | z } 1
D’une façon similaire à la fonction d’autocorrélation, les fonctions d’intercorrélation permettent de
mesurer le degré de ressemblance stochastique entre les processus X et Y considérés aux instants t et
s.
3. Accroissements
Si X(0) = 0 et les v.a X(t4)-X(t3) et X(t2)-X(t1) sont statistiquement indépendantes quelque soit t1 <
t2 < t3 <t4 on dit que ce p.s est un processus à accroissements indépendants
Si les v.a X(t2+z)- X(t1+z) et X(t2)- X(t1) possèdent la même fonction de répartition pour tout z, on
dit que ce p.s est un processus à accroissements stationnaires.
Exercice :
Soit Y une v.a qui suit la loi U(0,1). On définit le processus stochastique {X(t),t≥0} par X(t) = eYt
pour t ≥ 0
1) Déterminer sa fonction de densité de probabilité, sa moyenne (de deux manières
différentes), sa fonction d’autocorrélation, sa fonction d’autocovariance et son
coefficient d’autocorrélation
2) Ce processus est-il à accroissements indépendants ? est-il à accroissements stationnaires ?
justifier

4. Stationnarité
On dit qu’un ps {X(t), t ϵ T} est stationnaire au sens strict (SSS) d’ordre N, si ses caractéristiques
probabilistes sont invariantes pour tout changement de l’origine des temps, en d’autres termes plus
mathématiques si sa fonction de répartition d’ordre N est invariante pour tout changement d’origine
des temps :
F ( x1 ,..., x N ; t1 ,...t N ) = F ( x1 ,..., x N ; t1 + z ,...t N + z )
pour tous z , N et t1 ,...t N
dt doit être choisi tel que t+dt reste toujours dans T.
NB : En pratique, il est difficile de démontrer qu’un ps est SSS (sauf cas de gaussiens). Par conséquent
on se contente d’une version plus faible pour n=1 (SSS d’ordre 1) et n=2 (SSS d’ordre 2).

On dit qu’un ps {X(t), t ϵ T} est s stationnaire au sens Large (SSL) ou stationnarité de second ordre,
si: m X (t ) = m et R X (t1 , t 2 ) = R X (t 2 − t1 ) = R X ( z )
La fonction d’autocorrélation ne dépend que de la différence.
Remarques : C X ( z) = RX ( z) − m 2
C X ( z)
ρ X ( z) =
C X ( 0)
Processus Stochastiques/ ENICAR Page 10
La puissance moyenne ne dépend plus de t
Un ps SSS est un ps SSL
La densité spectrale d’un ps SSL est la transformée de fourrier de sa fonction
d’autocorrélation: +∞
S X ( f ) = ∫ e − jfz R X ( z )dz
−∞
+∞
1
RX ( z) = ∫
2π −∞
e jfz S X ( f )df

Puisque la fonction d’autocorrélation est paire alors la densité spectrale est réelle et paire:

S X ( f ) = 2 ∫ R X ( z ) cos( fz )dz
0

1
RX ( z) =
π ∫S
0
X ( f ) cos( fz )df

Exercice:
Soit Y une variable aléatoire qui suit une loi uniforme sur l’intervalle [-1,1]. On considère le processus
stochastique {X(t),t≥0} défini par : I ( J 0 ( ,cu' ( ≥ 0. Ce processus est-il SSL ? Justifier.
Exercice:
Soit un X(t) un ps SSL. Considérons les deux ps :
J ( I ( cos l( ‚ ( ( I ( cos l ƒ ( ‚
l, ƒ u fc *(e ( * ( ‚ u d. e - é, e ( I ( *u-de ( …/0,2 1
1) Montrer que Y(t) et Z(t) sont deux ps SSL
2) Montrer que H(t) = Y(t) + Z(t) n’est pas SSL
Exercice :

I ( = † cos l( + ‚ + ‡ (
Soit X(t) un ps défini par :

†, l u fc *(e ( * ( ‚ *( u d. e …/0,2 1
‡ ( u ,* %%ˆ - é, e ( ‚
Déterminer l’espérance et la fonction d’autocorrélation de X(t). Que peut-on déduire quant à la
stationnarité de X(t) ?
Exercice :

J ( = I ( − ‰ − I ( ed f ‰ u fc *(e (
Soit X(t) un p.s réel centré. On se propose d’étudier le processus :

1) Déterminer la fonction d’intercorrélation des processus X(t) et Y(t)


2) En déduire la fonction d’autocorrélation de Y(t)
3) Si X(t) est SSL, que peut-on dire du processus Y(t) ? Calculer la variance de Y.

On pose : J ( = I ( + 1 − I ( ,cu' ( ∈ Š‹ avec {X(t),t ϵ IR} un processus stochastique SSL.


Exercice:

Calculer la densité spectrale du processus {Y(t),t ϵ IR}en fonction de SX(w)

5. Ergodicité
Un processus stochastique X(t,w) peut être considéré comme une ensemble de fonctions
déterministes de paramètre t, indexées par l’évènement aléatoire w. La question qui se pose : si l’on
observe une seule réalisation de ce ps (fixons une valeur w0) est-il possible (et sous quelles conditions)
d’estimer les paramètres de ce processus ?
On appelle graphique ou trajectoire d’un PS la fonction X(t,w) en fonction de t, pour une valeur
de w fixée.

Processus Stochastiques/ ENICAR Page 11


Un seule réalisation d’un processus X(t,w0) aboutit à une trajectoire observée par {X(tn,w0),
n=1,2...N} dans le cas d’un processus à temps discret, ou par {X(t,w0) pour t dans [-T,T]} dans le cas
d’un processus à temps continu.
Pour w0 fixé, la moyenne temporelle d’ordre 1 du processus est définie par (lorsque les limites
a
existent):

K I ( , lΠe * w fe* -*f' (
1
••••••••
I lΠlim
34
a→5

5’
1
••••••••
I lΠ= lim I (, lΠ( e * w fe* fc (- u
’→5 2“

De la même manière, on peut définir d’autres moyennes temporelles correspondant à des moments
a
1
supérieurs. Par exemple :

••••••••••
I lΠ= lim K I ( , lΠe * w fe* -*f' (
a→5
34
5
•••••••••• 1
I lΠ= lim I (, lΠ( e * w fe* fc (- u
’→5 2“

On dit qu’un processus est ergodique d’ordre 1 si sa moyenne temporelle d’ordre 1 est
indépendante de l’évènement considéré w0.
Un processus est dit ergodique si toutes ses moyennes temporelles existent et ont la même valeur
quelque soit la trajectoire considérée, sauf pour un ensemble de trajectoires de probabilité nulle.
Les deux notions d’ergodicité et de stationnarité SSL sont en général indépendantes. Seulement de
point de vue pratique, il est si important de voir les relations entre les deux concepts.

~Dz |, ” F = •–—}|˜—|™ = š
Un processus X(t,w) est dit de moyenne ergodique ou ergodique par rapport à la moyenne ssi :

•••••••••••
z |, ”› = š

alors de moyenne ergodique si 6 |b> œ − | < ∞


5
Théorème : si X(t,w) un processus SSL de moyenne μ et de fonction d’autocorrélation CX(z). Il est

Exercice:
Soit le processus stochastique {X(t),t≥0} défini par par X(t) = Y pour t≥0 où Y est une variable
aléatoire quelconque.
1) Montrer que ce processus est SSS
2) Montrer que ce processus n’est pas ergodique par rapport à la moyenne.
Exercice:

‹> œ = 7|•| cos 2 ;œ ed f ;, œ ≥ 0


Soit {X(t),t≥0} un processus stochastique SSL de moyenne nulle et pour lequel :

Ce processus est-il ergodique par rapport à la moyenne ? Justifier.

6. Continuité

Comme c’est le cas des fonctions déterministes, il existe plusieurs formes de définition de la
continuité des processus stochastiques : Continuité en probabilité, continuité en moyenne
quadratique...

Processus Stochastiques/ ENICAR Page 12


En laissant la définition à part, un moyen d’affirmer la continuité en moyenne quadratique est le
théorème suivant : Le processus X(t) est continu en moyenne quadratique ssi sa fonction
d’autocorrélation RX(t1,t2) est une fonction continue à t1 = t2 = t.
Dans le cas d’un processus SSL, le théorème précédent revient à voir la continuité de la fonction
d’autrocorrélation RX(t1,t2) = RX(z) à z = 0.
Théorème : Si le processus X(t) est continu en moyenne quadratique, alors la fonction déterministe
mX(t) = E{X(t)} est une fonction continue.

7. Orthogonalité
Le principe d’orthogonalité joue un role important dans deux domaines d’application des processus
stochastiques : l’analyse harmonique et le filtrage adaptatif.

variables est défini par : 〈I, J〉 = ]{IJ}. X et Y sont dites orthogonales si ce produit est nul.
Soient X et Y deux v.a définies sur le même espace de probabilité. Le produit scalaire de ces deux

8. Périodicité

d’autocorrélation est périodique de période T : ‹> œ + “ = ‹> œ ∀œ


Soit X(t) un processus stochastique centré et SSL. Il est dit périodique de période T si sa fonction

Exemple : I ( = e. cos l( + ‚ ed f e, l u f( * 'é ww * ( ‚~…/0,2 1


On aura : ¡z ¢ = •–} ”¢
˜£
£
Donc le processus est périodique de période “ =
9
¤

Processus Stochastiques/ ENICAR Page 13


Chapitre 3 : Exemples de PS (gaussiens et de Poisson)

1. Processus Gaussiens
On dit que les v.a continues X et Y suivent une loi binormale:
( X , Y ) selon N ( µ X , µY ; σ X2 , σ Y2 ; ρ )
1  x − µX 2 y − µY 2 ( x − µ X )( y − µY ) 
f X ,Y ( x, y ) = exp ( ) +( ) + 2ρ 
2πσ X σ Y 1− ρ  σX σY σ XσY 
2

pour ( x, y ) ∈ IR 2
ρ : coefficient de corrélation de X et Y
Une loi gaussienne est complètement déterminée par sa moyenne et sa variance.
Un vecteur gaussien bidimensionnel suivant la loi binormale est complètement déterminé par les
paramètres désignés dans l’équation ci-dessus.
Un vecteur gaussien X = (X1,..., Xn) est complètement déterminé par:
m := ( µ X 1 ,..., µ X n )
 V [ X1] Cov[ X 1 , X 2 ] ... Cov[ X 1 , X n ] 
Cov[ X , X ] V[X 2] ... Cov[ X 2 , X n ]
K :=  2 1

 ... ... ... ... 


 
Cov[ X n , X 1 ] Cov[ X n , X 2 ] V[X n] 
matrice de cov ariance
On écrit: X~N(m,K)
RQ: la matrice K est symétrique
Si K est inversible alors:
1 1  1 
f X ( x) = exp− ( x − m) K −1 ( xT − mT )
(2π ) n/2
det K  2 
pour x := ( x1 ,..., xn ) ∈ IR n

Si Cov[Xi, Xk]=0 alors la v.a Xi et Xk sont indépendantes


Si Yi est une combinaison linéaire des v.a Xk d’un vecteur gaussien alors (Y1,..., Ym) est aussi
gaussien.
Un PS {X(t), tϵT} est dit gaussien si le vecteur (X(t1),..., X(tn)) suit une loi multinormale pour tout n
et pour tout t1... tn
Propriété importante : Si la moyenne d’un processus gaussien est constante par rapport à t et sa
fonction d’autocovariance CX(t,t+z) ne dépend que de z, en d’autres termes s’il est SSL alors il est
SSS.
Transformations linéaires : l’une des principales causes de l’utilisation des processus gaussiens
tient au fait que tout processus stochastique, déduit d’un processus gaussien par une transformation
linéaire (combinaison linéaire, dérivation, intégration...) est lui-même un processus gaussien.
Théorème : Soient X(t), un processus gaussien avec E(x(t)) et E(X(t)X(s)) deux fonctions
continues des variables t et s, et ‰ ( une fonction réelle déterministe continue, alors la variable
¥
aléatoire : J 6¦ I ( ‰ ( ( est une variable aléatoire gaussienne.

Processus Stochastiques/ ENICAR Page 14


Exercice :
Soit (X1,..., Xn) un vecteur aléatoire qui suit une loi multinormale pour laquelle m=(0,...,0) et la matrice
de covariance K est la matrice identité d’ordre n.
Montrer que le vecteur (Y,Z) tel que Y = X1 + X2 et Z = X3-X4 suit une loi binormale. Donner tous ses
paramètres.
Exercice:
Soit {X(t), t ϵ IR} un processus gaussien SSL, de moyenne nulle et pour lequel RX(z)=2e-4|z|. On définit
Y=X(t+z) et Z=X(t-z), où z≥0
Quelle loi suit la variable aléatoire X(t)?
Calculer la moyenne de YZ
Calculer la variance de Y+Z

e ¥> § ed f e, & u f( * et X(t) un processus


Exercice:
On considère le processus Y(t) défini par J (
gaussien centré SSL de fonction d’autocorrélation ‹> œ .
Montrer que )< ( = ]DJ ( F = e ¥
¨t ©

2. Processus de Poisson
Parmi les processus à temps continu les plus utilisés sont ceux de Poisson. Ils sont utilisés pour
décrire l’arrivée de taches dans l’unité centrale d’un ordinateur, l’arrivée de clients vers un guichet,
l’arrivée d’appels dans un central téléphonique...

c’est un processus stochastique de comptage pour ( ≥ 0. Il possède les propriétés suivantes :


Pour étudier ces processus, nous considérons N(t) le nombre d’évènements dans l’intervalle [0,t] ;

N t ∈ IN = {0,1,2 … }
Si s < t alors N(s) ≤ N(t)
Le nombre aléatoire d’évènements qui se produisent dans ]s,t[ est donné par N(t)-N(s)

Le processus N(t) est homogène dans le temps : Pr{ ( + œ − ( = } = , œ pour


On appelle processus de Poisson un processus de comptage vérifiant les conditions suivantes :

x=0,1,... et z>0 quelque soit t >0


Le processus N(t) est à accroissements indépendants et stationaires
La probabilité que deux évènements se produisent dans un intervalle de temps petit, est
négligeable par rapport à la probabilité qu’il y’ait un seul évènement.
Exercice :
Considérons des appels (ou paquets) qui sont générées d’une manière aléatoire à partir d’une infinité
de sources, arrivant à un système de communication. Prenons ensuite un intervalle de temps t et
divisons cet intervalle en n sous intervalles.
Si n est suffisamment grand, les conditions suivantes seront respectées :
- Une seule arrivée d'appel peut survenir dans un intervalle t/n.
- Les instants d'arrivée d'appels sont indépendants les uns des autres.
- La probabilité qu'un appel arrive dans un sous intervalle est proportionnelle à la durée du
sous intervalle de coefficient λ.
1) Déterminer la probabilité d’arrivée d’un appel p1 (1) et de n’avoir aucune arrivée
p 0 (1) dans un sous-intervalle
2) Déterminer la probabilité d’avoir i arrivées pendant les n intervalles pi(n). Que peut-on
conclure quant au processus nombre des appels arrivés pendant n sous-intervalles.
3) Montrer que si n est suffisamment grand et en utilisant Ln (1+x) ≈ x quand x tend vers
0 que le processus stochastique nombre des appels arrivés pendant un intervalle t suit
la loi de Poisson de paramètre λt.
4) En calculant l’espérance mathématique de la loi de Poisson précédente, en déduire le
sens physique de λ.

Processus Stochastiques/ ENICAR Page 15


Exercice:
On voulait étudier les lois de probabilité qui modélisent les durées des appels dans un système
de communication. On considère donc un intervalle de temps de durée t que l'on décompose
en n sous intervalles.
On a n est suffisamment grand de telle sorte que les hypothèses suivantes seront justifiées :
- La probabilité qu'un appel se termine durant un sous intervalle est proportionnelle à la durée
du sous intervalle. On notera µ le coefficient de proportionnalité.
- La probabilité qu'un appel se termine durant un sous intervalle est indépendante du sous
intervalle considéré.
On introduit alors une variable aléatoire θ représentant la durée d'un appel.
1) Déterminer la fonction de répartition de θ notée H (t ) = Pr ob(θ ≤ t )
2) Montrer que θ suit la loi exponentielle de paramètre µ
3) En calculant l’espérance mathématique de la loi de Poisson précédente, en déduire le
sens physique de µ.
Exercice:
Un pulsiomètre d’abonnés donne une impulsion au début d’appel et puis une impulsion
supplémentaire toutes les trois minutes durant la conversation. Supposons que le temps de
conversation est une variable exponentiellement distribuée avec une moyenne de trois
minutes.
1) Calculer la proportion d’appels qu’il devait avoir:
a) exactement 2 impulsions b) moins que 2 impulsions c) plus que 2 impulsions
d) au moins 2 impulsions e) au plus 2 impulsions

2) Avec le même principe de taxation, supposons que les intervalles d’impulsion sont
égaux à m et le temps moyen de conversation est égal à τ.
( j −1) m jm
− −
a) Soit K le nombre d’impulsions montrer que Pr ob( K = j ) = e −e τ τ

+∞
1
b) Sachant que ∑ z j = montrer que le nombre moyen d’impulsions par appel est :
j =0 1− z
m
τ
e
m

e τ −1

3) Prévoir l’utilité pratique des calculs munis précédemment.

Théorème : Si N(t) est un processus de Poisson, alors N(t) suit une loi de Poisson :
¯(
Pr^ ( _ , ( ®§
!
Exercice : (examen principale 2016/2017)
1) Soit X une variable aléatoire qui suit la loi de Poisson de paramètre réel λ > 0. En
effet, son ensemble de valeurs SX = IN et la probabilité de la valeur x dans IN est
±
®®
,> I
!
+∞
zi
a) Sachant que e z = ∑ , chercher l’espérance mathématique de X
i =0 i!
2 • P²³ 2 • P •P
b) Sachant que ∑5∞
234 ∑5∞
23Œ ∑5∞
23Œ déterminer la variance mathématique
2 4 ! 2! 2!
de X

Processus Stochastiques/ ENICAR Page 16


2) Soit le processus stochastique ^I , ( c(é I ( , ( > 0 ( ∈ Š } avec t : facteur
temps. Ce Processus est Poissonien de paramètre λ alors ,> I ( = =
, ( = ®§ !
®§ ±

a) Utilisant les questions 1-a et 1-b en déduire l’espérance )> ( et la variance ge'> ( de

b) Montrer que la fonction d’autocovariance de ce processus est b> (, ( + * = ¯( sachant


ce processus

qu’il est à accroissement indépendants. Astuce à utiliser : X(t+s)=X(t+s)-X(t)+X(t)


c) Que peut-on conclure quant à la stationnarité de ce processus ?

Processus Stochastiques/ ENICAR Page 17


Chapitre 4 : Chaines de Markov
1. Processus Markovien

^(2 , - = 1,2, … . ´} telque t1 <t2....<tM, la distribution conditionnelle de X(tM) connaissant X(t1) ....X(tM-1)
Un processus stochastique X(t) est dis processus de Markov si pour tout ensemble fini d’instants

dépend que de X(tM-1). En d’autres termes, « le futur » du processus ne dépend directement que du
présent
M M [
P[ X (t ) = x / X (t ), t ≤ t ) = P X (t ) = x / X (t )
M −1 M M M −1 ]
où t M −1 ≤ t M
Cette définition peut être généralisée en définissant le processus de Markov d’ordre « r » en
considérant que l’état d’un processus X(t) à un instant donné tM ne dépend que des « r » états
précédents :

P[ X (t M ) = xM / X (t ), t ≤ t M −1 ) = P[ X (t M ) = xM / X (t M −1 ), X (t M −2 )... X (t M −r )]
où les ti ≤ t M
NB : la première défintion sera d’un processus de Markov d’ordre 1 (qui est le plus utilisé).

On appelle processus de Markov aussi par chaine de Markov vu cet enchainement de relation
temporelle. Et Comme tout processus nous aurons les chaines de Markov à temps discret ou à temps
continu, à état discret et à état continu.

2. Chaines de Markov à temps discret


Une chaine de Markov à temps discret est désigné par {Xn = X(tn)}. Elle est généralement à
état discret aussi.

La probabilité monodimensionnelle ou probabilité d’avoir l’état E ∈ %> (ensemble des


Cette chaine est caractérisée par deux distributions de probabilités :

,E = Pr I ( = E
états) à l’instant tn qu’on la désigne par pj(n). En notation mathématique :

Les probabilités conditionnelles appelées aussi probabilités de transition c'est-à-dire


probabilités de passer d’un état xj à un état xk entre deux instants tn et tm. En notation

,E,µ ), = I = µ /I¶ = E
mathématique :

Parfois, on note par la lette j l’état xj et par SX l’ensemble des indices de l’espace des états.
Exemple : marche aléatoire commandée par la valeur d’une pièce de monnaie
Cet exemple a été développé dans le chapitre 2. C’est un exemple de chaine de Markov à

,Œ 0 = 1 ( ,E 0 = 0 ,cu' · ≠ 0
temps discret.

,Œ,4 0,1 = , , ,Œ, 4 0,1 = 1 − , , ,Œ,µ 0,1 = 0 ,cu' ¹ ≠ ±1


, 4 1 = 1−, ,4 1 = , ( ,E 1 = 0 ,cu' · ≠ ±1
,4, 1,2 = , , ,4,Œ 1,2 = 1 − , , , 4,Œ 1,2 = , , , 4, 1,2 = 1 − , ,
w * eu(' * fe* ,E,µ 1,2 = 0

On écrit, en général, les probabilités de transition d’une chaine de Markov sous forme d’une
matrice appelée matrice de transition ou matrice stachastique notée P(m,n) avec m<n.

,2,E ), ≥ 0
Notons que :

∑µ∈st ,E,µ ), = 1

Processus Stochastiques/ ENICAR Page 18


 p0, 0 (m, n) p0,1 (m, n) ... p0, k (m, n) ... 
 
 p (m, n) 
 1, 0 
P(m, n) =  
....
 
 p j ,0 (m, n) 
 
 

Question : Supposons la marche aléatoire s’arrête à l’instant t=2. Déterminer les matrices de
transition correspondantes.
Les probabilités de transition vérifient la relation fondamentale appelée l’équation de
Chapman-Klomogorov :
,E,µ ), = K ,E,2 ), u ,2,µ u, ,cu' ≤ ) < u <
2∈st
En écriture matricielle : ), = ), u . u, ,cu' ≤ ) < u <
Ainsi : ), = ), ) + 1 . ) + 1, ) + 2 … . . − 2, − 1 − 1,
Une chaine de Markov est dite homogène si la probabilité de transition ,E,µ ), ne dépend
que de (n-m) = z. D’où on la note : ,E,µ œ = ,E,µ ), ) + œ .
Dans ce cas on peut définir la matrice de transition en une étape : = u, u + 1 ∀u
†wc'*: ), = ¶

Soient l’instant n, et K le nombre des états, on définit les probabilités d’états par le vecteur:
π (n) = [ pk (n); k = 1...K ]
= [π 1 (n),..., π k (n),...π K (n)]
= π (n − 1) P(n − 1, n)
Si la chaine est homogène:
π (n) = π (0)[ P]n
Le graphe de transition d’une chaine de Markov à temps discret est défini comme un graphe
orienté dans lequel les nœuds représentent les états du processus et les arcs correspondent aux
transitions possibles indiquées par les probabilités de transition
Exemple: représenter le graphe de transition de la chaine homogène dont la matrice de transition
est :

0.5 0.5 0 
 0 0.3 0.7
 
 0 0 1 
Exercice (examen principale 2017/2018):
1) Soit une chaine de Markov homogène de matrice de transition en une étape:
1 2À
¾ À3 3 0 Æ
= ½1À4 1À 1À Å
4 2Å
½
7 1À
¼ À8 8 0 Ä
a) Schématiser son graphe de transition sachant que l’ensemble des états est noté { 2 ; - =
1. . }
b) Supposons qu’à l’instant discret n=2, on est à l’état e1, donner le vecteur probabilités
d’états à l’instant 2 noté 2

Processus Stochastiques/ ENICAR Page 19


c) Déterminer le vecteur probabilités d’états 4 . Expliquer le sens des éléments de ce
vecteur.
2) Une chaine de Markov homogène à 5 états est définie par le graphe suivant :

A B E

Pour chaque état de départ, il y’a une équiprobabilité sur les transitions vers les autres états
reliés (en une seule étape).
a) Reprendre le graphe précédent en l’affectant les probabilités adéquates.
b) Ecrire la matrice de transition en une étape.
c) Soit È É Ê Ë Q le vecteur probabilités d’états à l’instant discret
n. Chaque x correspond à la probabilité d’être à l’état correspond, à l’instant n. On
définit la distribution stationnaire de la chaine Q qui correspond à aucun impact de la
transition sur les probabilités d’états c'est-à-dire : 1 . Déterminer
Q.

Exercice :
Soit {Xn,n=0,1,...} une chaine de Markov dont l’espace des états est {0,1} et dont la matrice
de transition en une étape est donnée par:

1 1 
P = 2 2  0 ≤ p ≤1
 p 1 − p
 

1) Supposons que p=1 et que X0=0. Calculer E(X2)


2) Supposons que p=1/2 et que P[X0=0]= P[X0=1]=1/2. On définit le PS à temps
continue {Y(t), t≥0} par Y(t)=t XE(t) avec E(t): partie entière de t. Calculer CY(t,t+1).
Le PS {Y(t), t≥0} est-t-il SSL.
Exercice :
La matrice de transition en une étape d’une chaine de Markov, dont l’espace des états est
{0,1} est donnée par:
1 1 
P = 2 2
0 1
 

Calculer E(X2), si P[X0=0]= 1/3


Exercice :
Soit {Xn, n=0,1,...} une marche aléatoire pour laquelle pi,i+1= 2/3 et pi,i-1= 1/3 pour iϵ{0,±1,
±2...}. Calculer E(X2/X0=0)

Processus Stochastiques/ ENICAR Page 20

Vous aimerez peut-être aussi