Académique Documents
Professionnel Documents
Culture Documents
2 Esperance conditionnelle 9
2.1 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.1 Espace de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.2 Variables aléatoires de carré intégrable . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.3 Cas des variables positives ou intégrables . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.4 Propriétés de l’espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.5 Conditionnement par une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3 Vecteurs aleatoires 15
3.1 Généralités sur les vecteurs aléatoires sur IRn . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.1.1 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.1.2 Loi marginale de X i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.1.3 Changement de variables dans une densité . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2 Vecteurs aléatoires indépendants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.3 Espérance et matrice de variance-covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.3.1 Transformations linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3.2 Fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.4 Vecteurs aléatoires gaussiens : loi multinormale . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.4.1 Densité de la loi multinormale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.5 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1
2 TABLE DES MATIÈRES
5 Chaînes de Markov 23
5.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.1.1 Définitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.2 Classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
5.3 Théorèmes limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
5.3.1 cas transient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
5.3.2 Mesures invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
5.3.3 Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
5.3.4 Théorème ergodique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Définition 1.1.1 On appelle topologie faible sur M associée à la structure uniforme de la convergence
simple sur C (IR), lorsque les éléments de M sont considérés comme fonctions (formes linéaires) sur C (IR).
En particulier, une suite (µn ) de mesures bornées sur IR est dite converger faiblement vers µ si, pour toute
fonction réelle f de C (IR), on Z Z
lim f d µn = f d µ.
n
Définition 1.1.3 Une suite (X n ) de variables aléatoires converge en loi vers une variable aléatoire X si,
les lois de probabilités P X n des X n convergent étroitement vers la loi P X de X . On note
L
X n −→ X
Remarque 1.1.1 Pour montrer la convergence en loi de la suite (X n ) vers X on peut montrer que :
1. Cas discret :
lim IP(X n = x) = IP(X = x)
n−→+∞
3
4 CHAPITRE 1. CONVERGENCES DE SUITES DE VARIABLES ALÉATOIRES
La fonction ϕ ainsi choisie est uniformément continue on pose ||ϕ|| = sup x∈IRd |ϕ(x)|, soit δ > 0, on a
Z Z Z
| (ϕ(X ) − ϕ(X n ))dIP| ≤ |ϕ(X ) − ϕ(X n )| dIP + |ϕ(X ) − ϕ(X n )| dIP
{| X n − X |≥δ} {| X n − X |<δ}
Z
≤ 2||ϕ||IP(| X n − X | ≥ δ) + |ϕ(X ) − ϕ(X n )| dIP
{| X n − X |<δ}
Soit ² > 0, ϕ étant uniformément continue nous pouvons choisir δ > 0 tel que
²
∀ n | X n − X | ≤ δ =⇒ |ϕ(X ) − ϕ(X n )| < .
2
D’après la convergence en probabilité, pour le δ > 0 choisi,
²
∃ N n > N =⇒ P(| X n − X | ≥ δ) ≤ ,
4||ϕ
d’où en définitive on obtient Z
n > N =⇒ | (ϕ(X ) − ϕ(X n ))dIP| ≤ ².
Soit δ > 0, on a
Z Z Z Z
p p p
| X n − X | dIP = | X n − X | dIP + | X n − X | dIP ≥ | X n − X | p dIP,
{| X n − X |≥δ} {| X n − X |>δ} {| X n − X |≥δ}
donc
1
Z
0 = lim p | X n − X | p dIP ≥ lim IP(| X n − X | > δ) ≥ 0,
n δ n
d’où (X n ) converge vers X en probabilité.
1.2. LOIS DES GRANDS NOMBRES 5
Théorème 1.1.4 La convergence presque sûre pour une suite (X n ) implique la convergence en probabi-
lité.
Preuve : Soit une suite (X n ) convergeant presque sûrement vers X . Alors, il existe Ω0 négligeable,
ou
δ > 0, ∀ω ∉ Ω0 , ∃ n : ω ∈ A δn = {ω/∀ r ≥ n : | X r (ω) − X (ω)| ≤ δ}.
On peut écrire
A δn = ∩r≥n [| X r (ω) − X (ω)| ≤ δ].
Pour δ > 0 donné, on déduit
δ
Ω0c ⊂ ∪∞
n=1 A n ,
ou
δ c
∩∞ ∞
n=1 (A n ) = ∩ n=1 [∪ r ≥ n ([| X r (ω) − X (ω)| > δ]) ⊂ Ω0 ,
d’où
δ c
IP(∩∞
n=1 (A n ) ) ≤ IP(Ω0 ) = 0.
La suite (A δn ) c étant décroissante dont l’intersection est de probabilité nulle, on a
δ c δ c
IP(∩∞
n=1 (A n ) ) = lim IP((A n ) ) = 0.
n
On sait que [| X n (ω) − X (ω)| > δ]) ⊂ (A δn ) c d’où pour δ > 0 donné, on a
Preuve : On a
1 Xn
IE(X n ) = µk −→ µ,
n k=1
et
1 X n
V (X n ) = σ2 −→ 0,
n2 k=1 k
Dans le cas des variables aléatoires, ayant même loi, on peut énoncer un théorème de loi forte sans
hypothèse sur les moments du second ordre de la loi.
Théorème 1.2.3 Si (X n ) est une suite de variables aléatoires indépendantes de même loi, et si IE(X n ) = µ
existe, alors
n
X p.s.
Xn = X k −−→ µ.
k=1
Λ = ∩ p ∪n≥P F n = lim su pF n .
n
alors IP(Λ) = 0.
P
1. Si n IP(F n ) < +∞,
Preuve :
Puis que Λ = ∩ p E p , on a :
P
1. Posons E p = ∪n≥ p F n , on a IP(E p ) ≤ n≥ p IP(F n ).
∀ p IP(Λ) ≤ IP(E p ) ≤
X
IP(F n ).
n≥ p
soit
X
lim IP(F n ) = 0.
p−→+∞ n≥ p
Donc on a
0 ≤ IP(Λ) ≤ lim
X
IP(F n ) = 0.
p−→+∞ n≥ p
2. Montrons que IP(Λ c ) = 0, ce qui entraîne que IP(Λ) = 1. Nous avons Λ c = ∪ p ∩n≥ p F nc , les événe-
ments F n étant indépendants les F nc le sont aussi.
Ainsi, IP(∩n≥ p F nc ) = Πn≥ p IP(F nc ) = Πn≥ p (1 − IP(F n ).
P P
Puisque n≥ p IP(F n ) = +∞, donc on a n≥ p Log(1 − IP(F n )) = −∞ car (Log(1 − x) ≤ − x, 0 ≤ x < 1).
On en déduit que IP(∩n≥ p F nc ) = 0, et que IP(Λ c ) = 0.
1.4. THÉORÈME CENTRAL LIMITE 7
S n − nµ L
p −→ N (0, 1).
σ n
nµ
− it σpn t
ϕ S np−nµ (t) = e ϕS n ( p )
σ n σ n
p
nµ t
= e− it Πnj=1 ϕ X j ( p )
σ
σ n
p
nµ t
= e− it σ (ϕ X 1 ( p ))n
σ n
Les variables X j ayant des moments jusqu’à l’ordre deux, la fonction caractéristique ϕ X 1 est deux fois
dérivable et quand n est assez grand, σpt n tend vers zéro, on peut donc effectuer un développement
limité d’ordre deux de (ϕ X 1 ( σpt n ))n . On a
t t 1 t t t
ϕ X 1 ( p ) = ϕ X 1 (0) + p ϕ0X 1 (0) + ( p )2 ϕ00X 1 (0) + ( p )2 ²( p )
σ n σ n 2 σ n σ n σ n
t 1 t 2 2 t t
= 1 + i p µ − ( p ) (µ + σ 2 ) + ( p )2 ² ( p )
σ n 2 σ n σ n σ n
d’où on tire
t nLog(ϕ X 1 ( σpt n ))
(ϕ X 1 ( p ))n = e
σ n
n[ i σpt n µ− 21 ( σpt n )2 (µ2 +σ2 )+ 12 ( σpt n µ)2 +( σpt n )2 ²( σpt n )]
=e
p
µ n 2
it σ
− t2 +( σt )2 ²( σpt n )
=e
2
− t2 +( σt )2 ²( σpt n )
On obtient en définitive que ϕ S np−nµ (t)) = e , ainsi on a
σ n
t2
lim ϕ S np−nµ (t)) = e− 2 .
n−→+∞ σ n
1.5 Exercices
Exercice 1 : Pour tout entier n non nul, on considère la fonction f n définie par
n2 x2
f n (x) = n2 xexp(− )I1IR+ (x).
2
1. montrer que f n est la densité d’une variable aléatoire.
2. Soit (X n ) une suite de variables aléatoires telle que, pour tout n ≥ 1, X n admet pour densité
f n . Démontrer que la suite (X n ) converge en probabilité vers une variable aléatoire X que l’on
précisera.
Exercice 2 : Soit n un entier naturel non-nul et soit a un réel. On considère la fonction f n définie sur
IR par f n (x) = π(+an
n2 x2 )
.
1. Déterminer a pour que f n soit une densité de variable aléatoire.
8 CHAPITRE 1. CONVERGENCES DE SUITES DE VARIABLES ALÉATOIRES
2. Soit (X n ) une suite de variables aléatoires telle que chaque (X n ) admet une densité f n . Etudier
l’existence de moments pour X n .
3. Etudier la convergence en loi de la suite (X n ).
4. Etudier la convergence en probabilité de la suite (X n ).
Exercice 3 : Soit (X n ) une suite de variables aléatoires qui converge en loi vers une variable aléatoire
X égale à une constante. Démontrer que la suite (X n ) converge aussi en probabilité vers X .
Exercice 4 : Soit (X n ) une suite de variables aléatoires indépendantes de même loi et de carré inté-
grable. On note m leur espérance commune. Etudier la convergence presque sûre de la suite
3. Les variables aléatoires (Z j ) j≥1 sont-elles indépendantes ? Et les variables (Z2k )k≥1 ?
4. Déduire de la question précédente que
1Xn
p.s. 1
Z j −−→ quand n −→ +∞.
n j= 4
Exercice 6 :Un fournisseur d’accès à internet met en place un point local d’accès, qui dessert 5000 abon-
nés. A instant donné, chaque abonné a une probabilité égale à 20% d’être connecté. Les comportements
des abonnés sont supposés indépendants les uns des autres.
1. On note X la variable aléatoire égale au nombre d’abonnés connectés à un instant t. Quelle est la
loi de X ? Quelle est son espérance, son écart-type ?
Xp
−1000
2. On pose Y = . Justifier précisément qu’on peut approcher la loi de Y par la loi normale
800
N (0, 1).
3. Le fournisseur d’accès souhaite savoir combien de connexions simultanées le point d’accès doit
pouvoir gérer pour que sa probabilité d’être saturé à un instant donné soit inférieur à 2, 5%. En
utilsant l’approximation précédente, proposer une valeur approchée de ce nombre de connexions.
Exercice 7 : En appliquant le théorème central limite à une suite de variables aléatoires indépendantes
(X n ) suivant toutes une loi de Poisson P (1), démontrer que
n nk 1
lim e−n
X
= .
n−→+∞
k=0 k! 2
Chapitre 2
Esperance conditionnelle
2.1 Indépendance
Soit (Ω, A , IP) un espace de probabilités.
Définition 2.1.1 1. On dit qu’une famille (A〉 ) i∈ I de sous-tribus de A est indépendante si, pour tout
J fini sous ensemble de I et pour tout A i ∈ A〉 on a
IP(∩ i∈ J A i ) = Π i∈ J IP(A i ).
2.2 Conditionnement
2.2.1 Espace de Hilbert
Un espace de hilbert est un espace vectoriel muni d’un produit scalaire et qui est complet pour la
norme associée.
Rappelons quelques résultats sur les espace de Hilbert : Soient H un espace de Hilbert et F ⊂ H un
sous espace fermé. Pour tout x ∈ H , il existe y ∈ F, unique projection orthogonale de x sur F, vérifiant
l’une des propriétés suivantes :
1. ∀ z ∈ F, x − y ⊥ z
2. ∀ z ∈ F, 〈 x, z〉 = 〈 y, z〉
3. ∀ z ∈ F, || x − y|| ≤ || x − z||
Soit
9
10 CHAPITRE 2. ESPERANCE CONDITIONNELLE
Définition 2.2.1 1. Soit X une v.a. F mesurable à valeurs dans [0, +∞]. La fonction Y : Ω −→
[0, +∞] est une version de l’espérance conditionnelle de X sachant F si :
— la variable Y est F mesurable
— pour tout B ∈ F , on a IE(X I1B ) = IE(Y I1B ).
2. Soit X une v.a.r F mesurable intégrable. La fonction Y : Ω −→ [0, +∞] est une version de l’espérance
conditionnelle de X sachant F si :
— la variable Y est F mesurable et intégrable
— pour tout B ∈ F , on a IE(X I1B ) = IE(Y I1B ).
Proposition 2.2.1 Soit (Ω, A , IP), un espace de probabilité et F une sous tribu de A . Soient Y et Y 0 deux
variables aléatoires réelles qui sont soit intégrables, soit positives. On suppose que ∀B ∈ F , IE(Y I1B ) ≤
IE(Y 0 I1B ), alors Y ≤ Y 0 presque sûrement.
Preuve : Pour tous réels a < b, on pose C a,b = {Y 0 ≤ a < b < Y }. Cet ensemble s’écrit
On a donc, Y 0 I1C a,b ≤ aI1C a,b < bI1C a,b < Y I1C a,b , d’où on tire IE(Y 0 I1C a,b ) ≤ IE(aI1C a,b ) < IE(bI1C a,b ) <
IE(Y I1C a,b ), soit IE(Y 0 I1C a,b ) ≤ aIP(C a,b ) < bIP(C a,b ) < IE(Y I1C a,b ).
Or on a supposé que IE(Y I1C a,b ) ≤ IE(Y 0 I1C a,b ), donc on déduit que aIP(C a,b ) = bIP(C a,b ), et par par
conséquent IP(C a,b ) = 0. De plus, on sait que
1 1
IE(| X Y |/F ) ≤ (IE(| X | p /F )) p (IE(|Y | q /F )) q .
6. IE(IE(X /F ) = IE(X ),
7. IE(α X /F ) = αIE(X /F ), p.s. si α ∈ IR
8. IE(X + Y /F ) = IE(X /F ) + IE(Y /F ), p.s.
9. |IE(X /F )| ≤ IE(| X |/F )
Définition 2.2.2 Soit Y une variable aléatoire réelle intégrable quelconque de (Ω, F , IP), X une variable
aléatoire discrète sur (Ω, F , IP) à valeurs dans (E, E ) de loi de probabilité IP X . on appelle espérance
conditionnelle de Y par rapport à X l’application :
1
Z
IE[Y /X = x] = Y (ω)IP(d ω)
IP(X = x) { X = x}
Remarque 2.2.1 1. Il est important de remarquer qu’il existe une classe d’équivalence pour IP X de
fonctions sur E telle que pour tout x ∈ E vérifiant IP X (E) 6= 0 on ait f (x) = IE[Y /X = x]. En effet, E
étant discret, l’ensemble des x où IE[Y /X = x] n’est pas définie est de mesure IP X nulle. On désigne
IE[Y /X ] ou IE X [Y ] un représentant quelconque de cette classe d’équivalence on notera IE[Y /X = x]
ou IE X = x [Y ] la valeur en x de ce représentant.
2. Si IP X (X = x) 6= 0 on retrouve la définition classique de la probabilité conditionnelle de F sachant
X = x, IP(F/X = x).
Théorème 2.2.1 Soient Y une variable aléatoire réelle intégrable sur (Ω, F , IP), X une variable aléatoire
à valeurs dans (E, E ) discrète, définie sur (Ω, F , IP) et IP X la loi de probabilité de X .
Pour tout B ∈ B on a : Z Z
Y (ω)IP(d ω) = IE[Y /X = x]IP X (dx).
X ∈B B
Preuve : On a : Z Z
X
Y (ω)IP(d ω) = IE[Y /X = x]IP X (dx)
X ∈B x∈B,IP X ( X = x)6=0 X = x
X
= IE(Y /X = x)IP X (X = x)
x∈B,IP X ( X = x)6=0
Théorème 2.2.2 Soit IP(F/X = x) une version régulière de la probabilité conditionnelle par rapport à X .
Pour une variable aléatoire réelle intégrable Y on a :
Z
IE(Y /X = x) = Y (ω)IP(d ω/X = x), p.s.
La formule du théorème est vraie pour Y = I1F , elle sera aussi vraie pour toute combinaison linéaire
d’indicatrices, c’est à dire Y = ni=1 λ i I1F i .
P
Pour tout x tel que IP X (X = x) 6= 0, si Yn est une suite croissante de variables aléatoires positives
étagées, alors la formule du théorème reste encore vraie pour Y = su pYn , en effet grâce à la convergence
monotone on a :
Z Z
IE(Y /X = x) = sup IE(Yn /X = x) = sup Yn (ω)IP(d ω/X = x) = Y (ω)IP(d ω/X = x).
n n
Enfin, pour tout x tel que IP X (X = x) 6= 0, et pour toute variable aléatoire intégrable, la relation reste
vraie en considérant, Y = Y + − Y − . Soit Y une variable aléatoire à valeur dans l’espace E muni de la
tribu E . On note σ(Y ) la tribu engendrée par Y . Pour simplifier les notations, on écrit IE(X /Y ) au lieu
de IE(X /σ(Y )).
Lemme 2.2.1 Soit U une variable aléatoire sur Ω, U est σ(Y )- mesurable si et seulement s’il existe une
application mesurable de g de E dans IR telle que U = g(Y ).
Par abus de langage on utilise la notation g(y) = IE(X /Y = y), car il n’y a pas d’égalité. On peut retenir
ceci :
Si (X , Y ) est un couple de variables aléatoires où Y est à valeurs dans IR et X à valeurs dans un
ensemble fini ou dénombrable, ou à valeurs dans IR ou IR p :
— Il existe une mesure de probabilité conditionnelle IP(./X = x) sur Ω.
— Il existe une distribution conditionnelle de Y /X = x.
— Si IE(Y ) existe, alors il existe une variable aléatoire espérance conditionnelle : IE(Y /X ) qui prend
les valeurs IE(Y /X = x) avec la loi probabilité P X :
Z Z
IE(Y /X = x) = Y (ω)dIP(ω/X = x) = ydIP(y/X = x),
Ω IR
et IE[IE[Y /X ]] = IE(Y ).
— Si V (Y ) existe on a V (Y ) = IE[V (Y /X )] + V (E[X /Y ]).
— Si le couple (X , Y ) est à valeur dans IR2 et possède une densité h(x, y) les densités conditionnelles
existent et sont données par :
h(x, y) h(x, y)
g(y/x) = , f (x/y) = ,
f (x) g(y)
R
et on a IE(Y /X = x) = IR yg(y/x)d y, ainsi que les formules de Bayes pour les densités
— Lorsque l’une des variables est discrète et l’autre possède une densité, il suffit de remplacer là
où c’est nécessaire les intégrales par des sommes finies et les densités par des probabilités ponc-
tuelles.
2.3. EXERCICES 13
2.3 Exercices
Exercice 1 : Soit (Ω, A , IP) est un espace de probabilité. Soient X , Y , deux éléments de L2 (Ω, A , IP)
tels que
IE(X /Y ) = Y , p.s; , IE(Y /X ) = X , p.s.
1
IP(X = k) = , k ∈ IN∗ ,
2k
et
f Y (y/X = k) = k(1 − y)k−1 I1[0,1] (y).
1. Déterminer la loi de Y
2. Déterminer la loi de X sachant Y .
3. Calculer IE(X Y ).
Exercice 6 : Soit X 1 , · · · , X n une suite de variables aléatoires indépendantes et même loi de Poisson de
paramètre λ > 0. On pose :
Xn n
X
Sn = X i, K = Yi ,
i =1 i =1
où Yi = I1{ X i =0} .
1. Calculer IE( Kn /S n = s).
2. Calculer V (IE( Kn /S n = s)).
Exercice 7 : Soit (X n )n≥1 une suite de variables aléatoires admettant la même espérance m. Soit N
une variable aléatoire à valeurs dans IN∗ indépendante de la suite (X n )n≥1 . On pose S n = nk=1 X k . On
P
s’intéresse à la variable S N .
1. Si N suit une loi géométrique de paramètre 12 et les variables X n sont équiprobables sur {1, · · · , 6}
donner une façon de simuler S N à l’aide d’un dé et d’une pièce.
2. Déterminer IE[S N /N = n]. En déduire IE[S N /N].
3. Que vaut IE[S N ] ?
4. Application : la fièvre acheteuse. Le nombre de clients se rendant dans un magasin donné dans
l’espace d’une journée est une variable aléatoire de moyenne 50. La somme dépensée par chacun
des clients est aussis une variable aléatoire de moyenne 1500F. Avec des hypothèses raisonnables,
quel est le chiffre d’affaires quotiqien moyen du magasin ?
Exercice 8 :
14 CHAPITRE 2. ESPERANCE CONDITIONNELLE
Vecteurs aleatoires
Les vecteurs aléatoires ont des applications dans beaucoup de domaines. Ils permettent de décrire
des phénomènes aléatoires qui évoluent dans IRn .
Définition 3.1.3 La loi de X admet la densité f positive intégrable sur IRn d’intégrale un si et seulement
si Z x1 Z x2 Z xn
F(x1 , x2 , · · · , xn ) = ··· f (x1 , x2 , · · · , xn )dt 1 dt 2 · · · dt n .
−∞ −∞ −∞
Yi = ϕ i (X 1 , X 2 , · · · , X n ), i = 1, 2, · · · , n.
On peut encore écrire Y = ϕ(X ) où ϕ est une difféomorphisme de IRn dans IRn . Si la loi de X admet une
densité de probabilité f , il en de même pour Y , et sa densité s’obtient par la formule :
f (ϕ−1 (y))
g(y) = ,
| detJ |
15
16 CHAPITRE 3. VECTEURS ALEATOIRES
et
∂ x1 ∂ x1 ∂ x1
∂ y1 ∂ y2
··· ∂ yn
.. .. .. ..
(det(J))−1 = det(J −1 ) = . . . .
∂ xn ∂ xn ∂ xn
∂ y1 ∂ y2
··· ∂ yn
.
µ1
µ2
..
.
IE(X ) = µ = .
µi
..
.
µn
Remarque 3.3.1 La matrice de variance-covariance Σ est symétrique et positive ( i.e., pour tout v ∈
IRn , 〈v, Σv〉 ≥ 0).
On peut supposer que les variables sont centrées, sinon considérer Yi = X − IE(X i , on a alors
〈v, Σv〉 = Σ i j v i v j
X
i, j
X
= IE(X i X j )v i v j
i, j
à !
X
= IE (v i X i v j X j )
i, j
X X
= IE[( v i X i ) × ( v i X j )]
i j
= IE[( v i X i )2 ] ≥ 0
X
i
3.4. VECTEURS ALÉATOIRES GAUSSIENS : LOI MULTINORMALE 17
µY = A µ X , ΣY = A Σ X A t .
Théorème 3.3.1 Une condition nécessaire et suffisante pour qu’une matrice Σ symétrique soit la matrice
de variance d’un vecteur aléatoire est que Σ soit une matrice positive.
Preuve : Condition nécessaire est évidente. Montrons la réciproque, soit Σ une matrice symétrique po-
sitive, alors elle peut s’écrire sous la forme Σ = TT t où T est définie à une transformation orthogonale
1 1
près. On peut choisir T = Σ 2 = P Λ 2 P t où P est la matrice des vecteurs propres normés de T et Λ la
matrice diagonale des valeurs propres. Si on pose Y = T X , où X est de matrice de covariance identité
I d , on voit alors que Σ est la matrice de variance-covariance Y .
Proposition 3.3.1 Soit X un vecteur aléatoire de IRn d’espérance µ et de matrice de covariance Σ régu-
lière (detΣ 6= 0). Alors
1
1. Le Vecteur Y = Σ 2 (X − µ) est un vecteur aléatoire centré réduit à composantes non corrélées.
2. La variable (X − µ)Σ−1 (X − µ) t a pour espérance n.
ϕ X (a) = Πni=1 ϕ X i (a i ).
Lemme 3.4.1 Soit X ∈ IRn un vecteur gaussien, de moyenne µ et de matrice de covariance Σ. Pour tous
b ∈ IRd et A matrice d × n, Y = b + A X est un vecteur gaussien à valeurs IRd de moyenne b + A µ et de
matrice de covariance A Σ A t .
Théorème 3.4.1 Soit X ∈ IRn un vecteur aléatoire, de moyenne µ et de matrice de covariance Σ, il est
gaussien si et seulement si sa fonction caractéristique est donnée par :
1
ϕ X (a) = exp(i 〈µ, a〉 − aΣa t ), a ∈ IRn .
2
Théorème 3.4.2 Etant donnés µ ∈ IRn et une matrice n × n symétrique semi-définie positive Σ, il existe
une et une seule loi gaussienne sur IRn de moyenne µ et de matrice de covariance Σ.
1
ϕ X (a) = exp(− Σni=1 a2i σ2i ) = Πni=1 ϕ X i (a i )
2
18 CHAPITRE 3. VECTEURS ALEATOIRES
3.6 Exercices
Exercice 1 :Soient α, β ∈]0, 1[ deux réels. Pour tout (i, j) ∈ IN2 , on pose p i, j = αβ(1 − α) i (1 − β) j .
1. Montrer qu’en posant IP({(i, j)}) = p i j pour tout (i, j) ∈ IN2 , on définit une mesure de probabilités
sur IN2 , muni de la tribu P (IN2 ).
Pour tout (i, j) ∈ IN2 , on pose X ((i, j)) = i et Y ((i, j)) = j.
2. Déterminer la loi de X et la loi de Y .
3. Calculer IP(X < Y ), IP(Y < X ) et IP(X = Y ).
Exercice 2 : Soit (X , Y ) un vecteur aléatoire sur IR2 dont la loi admet la densité
1 x 2 + y2
f (x, y) = exp(− ).
2π 2
Déterminer X , Y , X + Y et X 2 + Y 2 .
Exercice 3 : Soit X ∈ IR3 un vecteur gaussien centré de matrice de covariance
3 −1 0
Σ = −1 3 0
0 0 2
3.6. EXERCICES 19
1 1 0
Σ = 1 3 4 ?
0 4 3
1. Calculer IE(X /X − Y ).
2. En déduire la loi de IE(X /X − Y ).
Chapitre 4
Les lois infiniment divisibles jouent un rôle essentiel dans la théorie des probabilités, c’est pour cela
il est toujours intéressant de savoir si une loi concrète possède cette propriété ou non. La démonstration
d’une telle propriété se fait généralement à l’aide des fonctions caractéristiques ou des transformées
de Laplace. Le calcul explicite de ces fonctions est souvent difficile, on utilise alors des méthodes inter-
médiaires. En particulier, quelques critères de divisibilité infinie pour une loi de probabilité concentrée
sur [0, +∞[, ont été trouvés, par exemple la log-convexité, la monotonicité hyperbolique complète ou
l’appartenance à la classe de Bondesson.
Une fonction caractéristique ϕ est dite infiniment divisible, si pour tout n ∈ IN, il existe une fonction
caractéristique ϕn telle que
ϕ(t) = (ϕn (t))n , t ∈ IR.
Une loi de probabilité, une fonction de distribution et une variable aléatoire X sont infiniment divisibles,
si la fonction caractéristique correspondante l’est.
Une variable aléatoire X est infiniment divisible, si pour tout n ∈ IN, il existe uen suite de variables
aléatoires X n,i , i = 1, 2, · · · , n, indépendantes et identiquement distribuées telles que l’on ait
n
X
X= X n,i ,
i =1
en loi.
On peut donner comme exemple de fonctions caractéristiques infiniment divisibles :
— loi dégénérée :
ϕ(t) = exp(ita), t ∈ IR, a ∈ IR.
20
4.2. REPRÉSENTATIONS CANONIQUES 21
1
Z
ϕF (t) = exp{ ita − σ2 t2 + A(x, t)dM(x)}, t ∈ IR,
2 IR/{0}
où a ∈ IR, σ > 0 et M est une fonction continue à droite sur IR/{0} avec les propriétés suivantes :
— M est non décroissante sur ] − ∞, 0[ et sur ]0, +∞[,
— M(−∞) = M(+∞) = 0,
R
— ]−1,1[/{0} dM(x) < +∞.
Si F est une distribution infiniment divisible alors est continue si et seulement si σ > 0 ou ∈IR/{0}
M(x)dx = ∞.
Les décompositions de Lévy-Khintchine et de Lévy généralisent la formule de Kolmogorov pour une
loi infiniment divisible de variance finie :
Z +∞ itx
e − 1 − itx
ϕ(t) = exp(itm + d κ(x)), t ∈ IR,
−∞ x2
2
où a fonction intégrée est égale à − t2 , si x = 0, m ∈ IR est une constante, κ est une fonction non décrois-
sante telle que κ(−∞) = 0.
Exemple : Les paramètres dans la décomposition de Lévy-Khintchine de la loi normale N (µ, σ2 ), µ, σ >
0 de densité sont : a = µ, K(x) = σ2 I1[0,+∞[ (x).
Si une distribution F stable, alors, par défintion, sa fonction caractéristique l’est aussi.
Toute fonction caractéristique stable est infiniment divisible
Chaque fonction caractéristique stable admet la représentation canonique de Lévy suivante :
1
Z 0 Z +∞
ϕ(t) = exp(ita − σ2 t2 + A(x, t)dM(x) + A(x, t)dN(x)),
2 −∞ 0
où
— soit σ2 6= 0, M ≡, 0 N ≡ 0;
— soit σ2 = 0, M(x) = C 1 | x|−α , x < 0, N(x) = −C 2 x−α , x > 0; et ces paramètres satisfont
Réciproquement toute fonction caractéristique de cette forme est stable. Le paramètre α est appelé
exposant de cette loi stable.
Une fonction caractéristique ϕ est stable si et seulement si
t
ϕ = exp(ita − C | t|α (1 + i β ωα (t))), t ∈ IR,
| t|
où a ∈ IR, 0 < α < 2, c ≥ 0, |β| ≤ 1, sont des constantes et la fonction ωα donnée par :
πα
tg
si α 6= 1
2
ωα =
2 log| t| si α = 1
π
Chaque loi stable possède une densité, mais les expressions explicites de ces densités ne sont connues
que dans quelques cas. Si α = 2, on a ωα ≡ 0 et on obtient la loi normale.
Si α = 1 et β = 0, on a la loi de Cauchy C α .
Chapitre 5
Chaînes de Markov
Une chaîne de Markov, modélise un phénomène dynamique, pour lequel le futur dépend de l’état
présent et du hasard.
5.1 Généralités
Soient X 0 , X 1 , · · · , X n , · · · une suite de variables aléatoires définies sur un même espace de probabilité
(Ω, A , IP) et à valeurs dans un ensemble E fini ou dénombrable. L’ensemble E est appelé espace des états.
Cette formule signifie, sachant le présent, le futur est indépendant du passé. Ou encore, étant donné
l’état présent, toute information sur le passé est inutile, pour prévoir l’état futur.
Définition 5.1.2 (Homogénéité) Une chaîne de Markov est dite homogène dans le temps, si la probabilité
précédente ne dépend pas de l’instant n. On appelle alors probabilité de transition de l’état i à l’état j, la
probabilité
p i j = IP(X n+1 = j/X n = i) = IP(X n = j/X n−1 = i) = · · · = IP(X 1 = j/X 0 = i).
On appelle matrice de transition de la chaîne, la matrice p = (p i j )1≤ i, j≤ M , si E = {1, 2, · · · , M }. La matrice
de transition est une matrice M × M.
Remarque 5.1.1 La connaissance de la loi initiale, c’est-à-dire des IP(X 0 = i) pour tout i ∈ E et des pro-
babilités de transition permet d’écrire très simplement la loi jointe du vecteur aléatoire (X 0 , X 1 , · · · , X n ),
puis que
23
24 CHAPITRE 5. CHAÎNES DE MARKOV
Proposition 5.1.1 (Chapman-Kolmogorov) Pour tout couple (i, j) d’états de E et pour tout couple (n, m)
d’entiers naturels X
IP(X n+m = j/X 0 = i) = IP(X n = k/X 0 = i)IP(X m = j/X 0 = k).
k∈E
En particulier la matrice des transitions en n étapes est la puissance n − ième de la matrice P des
transitions en une étape.
∀ n ∈ IN, ∀(i, j) ∈ E × E, IP(X n = j/X 0 = i) = P inj .
Autrement dit, l’élément p nij de la matrice P n donne la probabilité pour que la chaîne se trouve à j après
n étapes en quittant l’état i.
Si µ est la probabilité initiale, on a
Preuve : On a
p nik p k j = p ni j+1 .
X
IP(X n+1 = j/X 0 = i) =
k∈E
On note bien, que le dernier terme de droite est la j − ème composante du vecteur µP.
En utliisant la propriété de Markov, pour l’ordre n + 1, on a
X
IP(X n+1 = j) = IP(X n = i, X n+1 = j)
i ∈E
X
= IP(X n+1 = j/X n = i)IP(X n = i)
i ∈E
X
= IP(X n = i)p i j
i ∈E
Supposons que IP(X n = i) est donné par la formule de la proposition, c’est-à-dire, IP(X n = i) est la i − ème
composante du vecteur µP n , on a alors (µP n )P coîncide avec IP(X n+1 = j), puis que (µP n )P = µP n+1 .
5.2. CLASSIFICATION 25
Exemple 5.1.1 On considère une ligne téléphonique. L’état X n de cette ligne à l’étape n est 0 si elle est
libre et 1 si elle est occupée. Entre deux instants successifs, il une probabilité 21 pour qu’un appel arrive.
Si la ligne est occupée et qu’un appel arrive, cet appel est perdu. La probabilité que la ligne se libère entre
l’instant n et l’instant n + 1 est 31 .
1. Donner la matrice de transition de la chaîne
On note µ = (µ0 , µ1 ) la loi initiale, probabilités que la ligne soit initialement libre ou occupée.
2. Calculer P n .
3. Calculer la loi limite de la chaîne, c’est-à-dire µP∞ .
Correction :
1. La matrice de transition est µ1 1¶
P= 2 2
1 2
3 3
Donc on a P n = QD n Q −1 d’où
lim P n = P∞ = QD ∞ Q −1 ,
n−→+∞
où µ ¶
1 0
D∞ =
0 0
ainsi µ2 3¶
P∞ = 5 5
2 3
5 5
Définition 5.1.3 Un état est dit absorbant, si une fois on atteint cet état, on y reste. Autrement dit, l’état
i est absorbant si p ii = 1.
5.2 Classification
Définition 5.2.1 On dit que l’état j est accessible à partir de l’état i, on note i −→ j, s’il existe un entier
n > 0 tel que p nij > 0. C’est - à-dire partant de l’état i on peut atteindre après plusieurs étapes l’état j. Les
états i et j communiquent, si j est accessible à partir de l’état i et si j est accessible à partir de l’état j, on
note x ↔ y.
Remarque 5.2.1 Si on définit la relation R par : xR y si et seulement x ↔ y, alors R est une relation
d’équivalence. Les classes d’équivalence sur E sont appelées classes de communication.
Une chaîne de Markov homogène avec une seule classe est dite irréductible.
T i = min{ n ≥ 1 : X n = i },
l’instant de premier retour dans cet état, T i est une variable aléatoire à valeurs dans IN∗ ∪ +∞. On
introduit r i = IP(T i < +∞/X 0 = i).
— transient si r i < 1,
— récurrent si r i = 1.
Définition 5.2.3 une classe de communication C d’une chaîne de Markov est dite fermée, si pour tout
i ∈ C on a X
p i j = 1.
j ∈E
T
où N i i désigne le nombre de visites à l’état i après l’instant T i . La propriété de Markov forte appliquée
à l’instant T i donne :
T
IP j (N i ≥ n + 1) = IP j (N i i ≥ n/T i < +∞)IP j (T i < +∞)
= IP j (T i < +∞)IP i (N i ≥ n),
car X T i = i sur {T i < +∞}.
∀ n ∈ IN, IP i (N i ≥ n + 1) = α i IP i (N i ≥ n) = (α i )n IP i (N i ≥ 1) = (α i )n+1 ,
d’où
IP i (N i = +∞) = lim (α i )n = 0.
n−→+∞
5.2. CLASSIFICATION 27
en sommant sur k on a
un état i est transient ou récurrent si la série k∈IN∗ P(i, i)k converge ou diverge. L’inégalité ci dessus
P
prouve que la convergence de la série k∈IN∗ P k (i, i) implique celle de k∈IN∗ P k ( j, j) et la divergence
P P
de la série k∈IN∗ P k ( j, j) implique celle de k∈IN∗ P k (i, i), donc les deux séries sont toujours de même
P P
nature.
Proposition 5.2.4 Tous les états d’une même classe récurrente sont visités IP j p.s. une infinité de fois
à partir de n’importe quel état j de la classe : soient i et j deux états appartenant à la même classe
récurrente, alors IP j (T i < +∞) = IP j (N i = +∞) = 1.
Démonstration : Comme les états i et j communiquent, il existe un entier n tel que P n (i, j) > 0. Si
IP j (T i = +∞) > 0, la probabilité de ne pas repasser une fois par i en partant de i est minorée par le
produit IP j (T i = +∞)P n (i, j) > 0, ce qui contredit le fait que i est récurrent. On a donc, IP j (T i = +∞) = 0,
ou encore IP j (T i < +∞) = 1 et en reportant ceci dans l’égalité on obtient pour tout n,
IP j (N i ≥ n + 1) = IP i (N i ≥ n) ≥ IP j (N i = +∞) = 1.
Démonstration : Soit j ∉ C(i), supposons qu’il existe un entier n tel P n (i, j) > 0, dans ce cas, pour tout
m P m ( j, i) = 0, sinon les états i et j communiqueraient. Mais la probabilité de non retour à i partant de
i est non nulle car minorée par P n (i, j) > 0, ce qui contredit le fait que i est récurrent.
Proposition 5.2.6 Toute chaîne de Markov homogène sur un espace d’états fini a au moins un état
récurrent. En particulier, toute chaîne irréductible sur un espace d’états fini est récurrente.
Démonstration : Montrons que tout état i transient et pour tout j, l’espérance du nombre de passages
par l’état i, IE j (N i ) est finie. On a
X
IE j (N i ) = IP j (N i ≥ n + 1)
n∈IN
X
= IP j (T i < +∞)P i (N i ≥ n)
n∈IN
X
= IP j (T i < +∞) P i (N i ≥ n)
n∈IN
= IP j (T i < +∞)(1 + IE i (N i ))
28 CHAPITRE 5. CHAÎNES DE MARKOV
1 Xn
lim I1{ X k (ω)= j} = 0; IP i − p.s.
n−→+∞ n
k=1
Proposition 5.3.2 1. Soit (X n )n∈IN une chaîne de Markov homogène. Si µ est une probabilité inva-
riante et si à un instant k, la loi de X k est µ, alors à tout instant ultérieur m ≥ n, X m est aussi de
loi µ.
2. Si E est un espace d’états fini et si pour tout couple (i, j) de E 2 ,
P n −→ L i ( j),
Démonstration :
1. Si µ est la loi de X k , alors µP est la loi de X k+1 , et µ = µP.
2. Si la suite de matrices P n converge vers la matrice L, alors P n+1 converge aussi vers L. Comme
P n+1 = P n P, on a donc L = LP, d’où chacune de ses lignes L i vérifie L i = L i P.
Théorème 5.3.1 Toute chaîne de Markov homogène récurrente irréductible admet une mesure invariant
strictement positive sur E. et toutes les mesures invariantes sont proportionnelles.
Définition 5.3.2 pour tout état i récurrent, le temps T i de retour à i est fini IP i − p.s. et deux cas se
présentent :
— Soit T i est aussi P i − intégrable, on dit alors que i est récurrent positif.
— Soit T i est non intégrable (IE i (T i ) = +∞), on dit alors que i est récurrent nul.
Théorème 5.3.2 Soit X une chaîne de Markov homogène irréductible, les trois propositions suivantes
sont équivalentes :
1. Tous les états sont récurrents positifs
2. il existe au moins un état récurrent positif
3. X admet une probabilité invariante µ.
5.3. THÉORÈMES LIMITES 29
1
∀ i ∈ E, µ i = .
IE i (T i )
Corollaire 5.3.1 Toute chaîne de Markov homogène irréductible, à espace d’états fini est récurrente po-
sitive : elle admet une probabilité unique invariante définie par
1
∀ i ∈ E, µ i =
IE i (T i )
Proposition 5.3.3 Soient i et j deux états communicants, montrons que d( j) divise d(i), ce qui suffit
par symétrie pour établir que d(i) divise d( j). Comme i et j communiquent, il existe deux entiers ` et m
tels que P ` (i, j) > 0. Si n est tel que P n (i, i) > 0, alors
donc d( j) divise m + n + `. Mais comme P m+` ( j, j) ≥ P m ( j, i)P ` (i, j) > 0, alors d( j) divise m + ` et donc
la différence m + n + `( m + `) = n. Ainsi, d( j) divise tous les entiers n tels que P n (i, i) > 0, don aussi leur
PGCD d(i).
Définition 5.3.4 On dit qu’une classe est apériodique si tous ses états sont de période 1.
1 Xn 1
∀ j ∈ E, I1{ X k = j} −→ , IPλ p.s. quand n −→ +∞.
n k=1 IE j (T j )
De plus si X est récurrente positive de probabilité invariante µ, pour toute fonction f : E −→ IR bornée
1 Xn X
f (X k ) −→ µ i f (i) = IEµ ( f (X 0 )) IPλ p.s. quand n −→ +∞.
n k=1 i ∈E
Exercice 5.3.1 Soit (X n )n≥0 une chaîne de Markov sur {1, 2, 3, 4, 5, 6} de matrice de transition
1 1
2 2 0 0 0 0
1 3 0 0 0 0
4 4
1 1 1 1 0 0
4 4 4 4
P = 1
4 0 41 14 0 41
0 0 0 0 1 1
2 2
0 0 0 0 12 21
Correction :
1. Les classes irréductibles sont {1, 2}, {3, 4}, {5, 6}.
2. Les états 1, 2, 5, 6 sont récurrents. Les états 3, 4 sont transients.
3. L’état 1 étant récurrent, la probabilité de non retour est nulle.
4. On a
1 1 3 1 3 1 3
IP(T1 = 1) = 0; IP(T1 = 2) = ; IP(T1 = 3) = × ; IP(T1 = 4) = ( )2 ; · · · ; IP(T1 = n) = ( )n−2 , n ≥ 2.
8 8 4 8 4 8 4
15
5. L’espérance de T1 est IE(T1 ) = 8 .
Exercice 1 : Soit (X n )n≥0 une chaîne de Markov homogène sur l’espace{1, 2, · · · , 4} de matrice de transi-
tion
1 0 0 0
0.2 0 0.8 0
P =
0 0.2 0.8 0
0 0 0 1
1. Donner les états transients et reccurents ainsi que leur période
2. La chaîne est-elle irréductible ?
3. Y a-t-il des mesures invariantes ? Si oui, donner les.
4. Même questions pour la chaîne
1 1
0 2 2 0 0 0
0 1 1 1
0 0 3 3 3
1 1 1
0 0 0
P = 3 3 3
1 0 0 0 0 0
1 0 0 0 0 0
1 0 0 0 0 0
0 0 0 12 21
1. Dessiner le diagramme de la matrice.
5.3. THÉORÈMES LIMITES 31
Exercice 6 : Discuter des propriétés topologiques des graphes de ces chaînes de Markov.
1. µ1 1¶
P= 2 2
1 1
2 2
2. µ1 1¶
P= 2 2
1 0
3. 1 2
3 0 3
P = 0 1 0
1 4
0 5 5
4. µ ¶
0 1
P=
1 0
Exercice 7 :(Random walk) La marche aléatoire Z est définie par : de l’état i on va à l’état i + 1 avec
probilité p, 0 < p < 1, tandis que le saut à l’état i − 1 se fait avec probabilité 1 − p.
1. Montrer que la chaîne est irréductible
2. Déterminer si la chaîne est reccurente ou transiente.
Chapitre 6
2. une sous- martingale (relativement à (An ) si ∀ n ∈ IN, IE[X n+1 /An )] ≥ X n , p.s
2. Si pour tout n ∈ IN, IE(X n+ ) < +∞ ou IE(X n− ) < +∞, on peut définir des sous-martingales ou des
sur-martingales généralisées.
3. Si on pose Bn = { X m , m ≤ n}, alors (X n )n∈IN est Bn adaptée et que si (X n ) est une martingale (sur-
martingale ou sous-martingale) relativement à (An ), (X n ) est automatiquement une martingale
(sur-martingale ou sous-martingale) relativement à (Bn ).
4. Soit (X n ) une martingale. Si f : IR −→ IR est un fonction convexe (respectivement concave) et si Yn =
f (X n ) est intégrable pour tout n ∈ IN, elle définit une sous-martingale (resp. une sur-martingale).
Définition 6.1.1 On appelle temps d’arrêt de la famille An toute application τ : Ω −→ IN ∪ {+∞} telle
que
∀ n ∈ IN{τ ≤ n} ∈ An .
( On peut aussi dire que τ est temps d’arrêt si ∀ n ∈ IN, {τ = n} ∈ An .) On appelle tribu des événements
antérieurs à τ, l’ensemble Aτ = { A ∈ A tq A ∩ {τ ≤ n} ∈ An , ∀ n ∈ IN}.
32
6.1. DÉFINITIONS ET PROPRIÉTÉS 33
Théorème 6.1.1 Soit (X n )n∈IN une sur-martingale et soient ν1 et ν2 deux t.a bornés tels que ν1 ≤ ν2 ,
alors,
IE(X ν2 /Aν1 ) ≤ X ν1 , p.s.
ρ 0 = ν1 ≤ ρ 1 ≤ · · · ≤ ρ n = ν2 , et ρ 2 − ρ 1 ≤ 1.
Soit A ∈ Aν1 ⊂ Aρ n , ∀ n. On a
Z Z Z Z Z Z
X ν1 dIP = X ρ 0 dIP ≥ X ρ 1 dIP ≥ X ρ 2 dIP ≥ · · · ≥ X ρ p dIP = X ν2 dIP.
A A A A A A
Corollaire 6.1.1 Soient (X n ) une sur-martingale et νn une suite croissante de t.a bornés, alors (X νn ) une
est sur-martingale relativement à Aνn , en particulier
Théorème 6.1.2 Soit (X n )n∈IN une sur-martingale alors, pour tout λ > 0 et tout k ∈ IN, on a
1. λIP(supn≤k X n ≥ λ) ≤ IE(X 0 ) + IE(X k− )
2. λIP(infn≤k X n ≤ −λ) ≤ IE(X k− I1(infn≤k X n ≤−λ) ) ≤ IE(X k− ). donc λIP(supn≤k | X n | ≥ λ) ≤ IE(X 0 ) + 2IE(X k− )
Preuve :
1. Soit ν = [in f { n : X n ≥ λ}] ∧ k, ν est un t.a. borné par k. On a
Z Z
IE(X 0 ) ≥ IE(X ν ) = X ν dIP + X ν dIP
{supn≤k X n ≥λ} {supn<k X n <λ}
Z
≥ λIP(sup X n ≥ λ) + X ν dIP
n≤ k {supn<k X n <λ}
Corollaire 6.1.2 (Doob) Soit (X n )n∈IN une martingale dans L p , (1 ≤ p < +∞) alors
1
IP(sup | X n | ≥ λ) ≤ IE[| X k | p ].
n≤ k λp
Corollaire 6.1.3 (Doob) Soit (X n ) une martingale dans L p où p ∈]1, +∞[, alors
p
|| sup | X n ||| p ≤ || X k || p .
n≤ k p−1
Preuve : On a
λIP(sup | X n | ≥ λ) ≤ IE[| X k |I1(supn≤k ≥λ) ].
n≤ k
6.2 Convergence
6.2.1 Nombre de descentes
Soit (X n )n≥0 une suite de v.a.r. et soient −∞ < a < b < +∞, k ∈ IN. On définit D k (ω, [a, b]) = nombre
de descentes du processus (X n ) à travers l’intervalle [a, b] avant l’instant k. C’est le nombre de couples
(p r , q r ) ∈ {0, 1, · · · , k} × {0, 1, · · · , k} tels que
p r ≤ q r , q r ≤ p r+1 , X p r ≥ b, X q r ≤ a.
On définir de même M k (ω, [a, b]) le nombre de montées à travers l’intervalle [a, b] avant l’instant k.
1
Lemme 6.2.1 1. Soit (X n )n≥0 une sous-martingale, alors IE[D k (ω, [a, b])] ≤ +
b−a IE[(X k − b) ].
1
2. Soit (X n )n≥0 une sur-martingale, alors IE[M k (ω, [a, b])] ≤ −
b−a IE[(X k − a) ].
Preuve : Il est évident que 1) et 2) sont équivalent. Montrons alors, 1). Soit (X n )n≥0 une sous-martingale,
posons, X n0 = (X n − a)+ , (X n0 ) est aussi une sous-martingale. De plus D k (., [a, b]) = D 0k (., [0, [b − a]) où D 0k ()
correspond (X n0 ). Soient
ν1 = inf{ n ≥ 0 : X n0 ≥ b − a} ∧ k
ν2 = inf{ n > ν1 : X n0 = 0} ∧ k
..
.
ν2 p−1 = inf{ n > ν2 p−2 : X n0 ≥ b − a} ∧ k
ν2 p = inf{ n > ν2 p−1 : X n0 = 0} ∧ k
Alors, ν` est une suite croissante de t.a. stationnaire à partir d’un certain rang, c’est-à-dire, si ν` = k,
alors ν`+1 = ν`+2 = · · · = k.
Posons S = p≥1 (X ν0 2 p − X ν0 2 p−1 ). Cette somme est finie.
P
S ≤ −(b − a)D 0k (., [0, b − a]) + (X k0 − X ν0 2 p+1 ) ≤ −(b − a)D 0k (., [0, b − a]) + (X k0 − (b − a)).
Dans tous les cas, on aura (b − a)D 0k (., [0, b − a]) ≤ −S + (X k0 − (b − a))+ . Puis que (X n0 ) est une sous-
martingale, alors IE(S) ≥ 0 d’où (b − a)IE[D 0k (., [0, b − a])] ≤ IE[(X k − a)+ − (b − a)+ ] ≤ IE[(X k − b)+ ].
Lemme 6.2.2 Soit (X n )n≥0 , une sous-martingale. ALors la condition supn≥0 IE[| X n |] < ∞ est équivalente
à celle supn≥0 IE[X n+ ] < ∞
Preuve : On sait que | X n | = X n+ + X n− ≥ X n+ , par conséquent, si supn≥0 IE[| X n |] < ∞, alors on a IE[| X n+ |] ≤
IE[| X n |] ≤ ∞ et donc supn≥0 IE[X n+ ] < ∞.
Réciproquement on pose c = supn≥0 IE[X n+ ] < ∞, puisque IE[X n ] ≥ IE[X 0 ], et
Théorème 6.2.1 Soit (X n )n≥0 , une sous-martingale relativement à (Fn ), on suppose que supn≥0 IE[X n+ ] <
∞, alors il existe une v.a. réelle X ∞ (F∞ )− mesurable et intégrable telle que
lim X n = X ∞ , p.s.
n−→+∞
Preuve : D’après le lemme 6.2.1, on a pour tous −∞ < a < b < +∞,
1
IE(D ∞ (., [a, b])) = lim IE[D k (., [a, b])] ≤ (su p k (IE(X k+ ) + b− ) < ∞,
k−→+∞ b−a
Théorème 6.2.2 Soit (X n )n≥0 , une sur-martingale relativement à (Fn ), ALors la condition supn≥0 IE[| X n |] <
∞ est équivalente à celle supn≥0 IE[X n− ] < ∞.
On suppose que supn≥0 IE[X n− ] < ∞, alors il existe une v.a. réelle X ∞ (F∞ )− mesurable et intégrable
telle que
lim X n = X ∞ , p.s.
n−→+∞
Preuve : Il suffit de voir que si (X n ) est une sur-martingale, alors (− X n ) est une sous-martingale, on
applique les résultats précédents sur les sous-martingale.
Théorème 6.2.3 Soit (X n )n≥0 , une sur-martingale relativement à (Fn ), positive, alors il existe une v.a.
réelle X ∞ (F∞ )− mesurable et à valeurs dans [0, +∞] telle que
lim X n = X ∞ , p.s.
n−→+∞
Preuve : Puis que X n est une sur martingale positive, alors supn≥0 IE[X n− ] < ∞, et on applique le théo-
rème 6.2.2.
36 CHAPITRE 6. MARTINGALES À TEMPS DISCRET
Exercice 6.3.1 Soit X n une suite de variables aléatoires indépendantes identiquement distribuées telles
que
1
IP(X n = 1) = IP(X n = −1) = , n ≥ 1.
2
Considère la suite de sous-tribus
Fn = σ{ X i , 1 ≤ i ≤ n}.
Pn
On pose M0 = 0 et M n = i=1 X i , n ≥ 1.
1. Montrer que (M n )n≥0 est une Fn martingale.
2. On pose S n = S 0 eσ M n , n ≥ 0. Montrer qu’il existe r > 0, tel e−rn S n soit une Fn martingale.
Correction :
1. On a ∀ n, IE(| M n |) < +∞, de plus,
1
IE(S n+1 /Fn ) = S n e−r IE(eσ X n+1 /Fn ) = S n e−r IE(eσ X n+1 ) = S n e−r (eσ + e−σ ).
2
La suite est une martingale si
1 −r σ
e (e + e−σ ) = 1.
2
Le réel r est solution de l’équation 2e r = eσ + e−σ .
Chapitre 7
7.1 Généralités
Soient (Ω, F , IP) un espace de probabilité et (F t ) t≥0 une famille croissante de sous-tribus de F . On dit
que (F t ) t≥0 est continue à droite si, pour tout t ∈ [0, +∞[ on a F t+ = F t où F t+ = ∩²>0 F t+² . Dans la suite,
on supposera le plus souvent que (F t ) est continue à droite et complète, (F t ) t≥0 est appelée filtration ou
famille de référence. Soient (E, B ) un espace mesurable où E est un espace polonais (espace métrique,
complet, séparable) et B sa tribu borélienne.
Un processus stochastique à valeurs dans E est une famille de v.a. X = (X t ) t≥0 à valeurs (E, B ).
Le processus X est mesurable si l’application
ω ∉ N t =⇒ X t (ω) = Yt (ω).
Soit P la tribu sur IR+ × Ω engendrée par les processus mesurables X = (X t ), F t adaptés et continu à
gauche et soit P la tribu sur IR+ × Ω engendrée par les processus mesurables X = (X t ), O t adaptés et
continu à droite. Un processus X = (X t ) est dit (F t - prévisible si l’application
est P /B .
Il est dit F t optionnel (ou bien mesurable) si l’application précédente est O /B .
Soient (Ω, F , IP) et (F t ) t≥0 une filtration. Une application τ : Ω −→ [0, +∞] est un F t temps d’arrêt si
∀ t ≥ 0, {τ ≤ t} ∈ F t .
Fτ = { A ∈ F tel que ∀ t ≥ 0, A ∩ {τ ≤ t} ∈ F t }.
37
38 CHAPITRE 7. MARTINGALES À TEMPS CONTINU
7.2 Martingales
Soit (Ω, F , (F t ) t≥0 , IP) un espace de probabilité filtré.
Définition 7.2.1 Un processus stochastique à valeurs réelles est appelé martingale (resp. surmartingale,
sous-martingale) si
1. X t est intégrable pour tout t ≥ 0
2. Pour tous 0 ≤ s ≤ t, IE[X t /Fs ] = X s , p.s, (resp. E[X t /Fs ] ≤ X s , E[X t /Fs ] ≥ X s , p.s.
Soient −∞ < a < b < +∞ et A = {0 ≤ t 1 < · · · < t n }. On peut définir le nombre de montées du processus
X = (X t ) t≥0 restreint à A, à travers l’intervalle [a, b] : M(ω, A, [a, b]). Si B ⊆ IR+ est quelconque on pose
M(ω, B, [a, b]) = sup A f ini,A ⊆B M(ω, A, [a, b]).
Théorème 7.2.1 Soient X = (X t ) t≥0 une sur martingale, S ⊆ IR+ , dénombrable, dense et I = [r, s[, 0 <
r < s, alors
1. Pour tout λ > 0, λIP(sup t∈ I ∩S X t > λ) ≤ IE(X r ) + IE(X s− )
λIP(inf t∈ I ∩S X t < −λ) ≤ IE(X s− )
2.
1
IE[M(., I ∩ S, [a, b]) ≤ IE(X s − a)− .
b−a
3. Presque sûrement, la restriction à S de la trajectoire t −→ X t (ω) admet des limites à droite et à
gauche en tout point de IR+ et elle est bornée sur tout intervalle borné.
Si X = (X t ) t≥0 est de plus continue à droite, on peut remplacer I ∩ S par I dans les assertions 1), 2)
et 3).
M(., IR+ , [a, b]) = M(., IR+ e IQ, [a, b]) = l im n↑+∞ M(., [0, n[∩IQ, [a, b]),
Proposition 7.2.1 1. Soit X = (X t ) t≥0 une sous-martingale positive continue à droite, telle que, pour
p
tout t ≥ 0, X t ∈ L (p > 1), alors pour tout intervalle I de IR+ , on a
1 1
|| sup X t || p ≤ q sup || X t || p , où + = 1.
t∈ I t∈ I p q
2. Soit X = (X t ) t≥0 une sur martingale continue à droite adaptée à (F t ) t>0 . Si sup t>0 IE(X t ) < ∞, on a
X 0 = lim t↓0 X t existe p.s. et dans L1 , de plus, pour tout t ≥ 0, X 0 ≥ IE{ X t /F0 }, p.s. où F0 = ∩ t>0 F t .
7.2. MARTINGALES 39
Définition 7.2.3 Un processus de comptage est une suite de variables aléatoires N(t), t ≥ 0 telles que
1. N(0) = 0
2. ∀ t ≥ 0, N(t) ≥ 0
3. l’application t −→ N(t) est croissante
Définition 7.2.4 Un processus de Poisson de densité λ > 0 est un processus de comptage (N(t)) t≥0 tel que
1. le processus est à accroissements indépendants, pour toute suite strictement croissante d’instants
t 0 , t 1 , · · · , t n , les variables aléatoires N(t 0 ), N(t 1 ) − N(t 0 ), · · · , N(t n ) − N(t n−1 ) sont indépendantes
2. pour tout (s, t) ∈ IR+ × IR+ , N(t + s) − N(s) suit la loi de Poisson de paramètre λ t.