Vous êtes sur la page 1sur 32

Martingales Descretes

Moulay Abdelkader
25 janvier 2023
Table des matières

1 Rappels 3

2 Espérance Conditionnelle 4
2.1 Probabilité Conditionnelle(Cours 1) . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2 Existence de la probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . 6
2.3 Espérance Conditionnelle (Cas Général) (Cours 2) . . . . . . . . . . . . . . . . . 6
2.4 Propriétés de L'espérance Conditionnelle . . . . . . . . . . . . . . . . . . . . . . 8
2.5 Conditionnement à une variable aléatoire (Cours 3) . . . . . . . . . . . . . . . . 11
2.5.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.5.2 Cas absolument continu . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

3 Martingales à temps Discret 13


3.1 Filtration et temps d'arrêt(Cours 4) . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.1.1 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.2 Martingale, Sous-martingale, Surmartingale (Cours 5) . . . . . . . . . . . . . . . 14
3.2.1 Dénitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.3 Martingale et temps d'arrêt (Cours 6) . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3.1 Théorème d'arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3.2 Inégalités maximales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.4 Décomposition de Doob (Cours 7) . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.5 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.5.1 Convergence presque sure . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.5.2 Martingale uniformement intégrable . . . . . . . . . . . . . . . . . . . . 24

1
Introduction

La théorie des martingales est l'un des outils les plus puissants de la théorie
moderne des probabilités. Le nom martingale est synonime de jeu équitable, c'est-
à-dire d'un jeu où le gain quel'on peut espérer faire en tout temps ultérieur est égal
à la somme gagnée au moment présent. En probabilités, les martingales, ainsi que
leurs variantes les sous-martingales et les surmartingales, jouissent de nombreuses
propriétés qui les rendent très utiles dans l'étude de processus stochastiques plus
généraux.
Ce cours est destiné à des étudiants de la première année master ayant suivi un
cours de base de mesure et intégration et une connaissance préalable sur la théorie
du calcul des probabilités avancée. Le premier chapitre traite de façon détaillée la
notion de l'espérance conditionnelle (dénition, propriétés ...). Le deuxième cha-
pitre fait l'objet de martingales à temps discret (dénition, propriétés, inégalité,
décomposition de Doob, et convergence). Une série des exercices est proposée à
la n du polycopie.

2
Chapitre 1
Rappels

Soit (Ω, F, P) un espace de probabilité. Rappelons les théorèmes suivants :


Théorème 1.0.1. Décomposition de Lebesgue.
On notera EP l'espérance prise par rapport à la mesure de probabilité P.
Soient P et P̃ deux mesures de probabilités sur (Ω, F) . Alors P̃ peut s'écrit P̃a + P̃s

(a) Il existe A ∈ F tel que P̃s (A) = 0 et P (Ac ) = 0 : on dit alors que P̃s est
singulière par rapport à P;
(b) Il existe Y ≥ 0 une v.a telle que pour tout A
Z
P̃a (A) = Y dP = EP (Y 1A ) .
A

Une telle décomposition est unique.


Dénition : Une mesure de probabilité P̃ sur (Ω, F) est dite absolument
continue par rapport à P si ∀A ∈ F P (A) = 0 ⇒ P̃ (A) = 0. Dans ce cas on
note P̃  P.
On dit que P̃ et P sont équivalentes si P̃  P et P  P̃.
Le résultat suivant est un grand "classique".
Théorème 1.0.2. Radon-Nikodym
Il y a équivalence entre les proposition suivantes :
(i) P̃  P;
(ii) Il existe une unique (P-p.s) v.a Z à valeurs dans R+ sur (Ω, F) , P-
intégrable, telle que
Z
∀A ∈ F P̃ (A) = Z (ω) dP (ω) = EP (Z1A ) .
A

Dans ce dernier cas Z est appelée la dérivé de Radon-Nikodym de P̃ par rapport


à P et on la note Z = dP
dP̃
.
3
Chapitre 2
Espérance Conditionnelle

Soit Ω, F, P) un espace de probabilité, étant données une variable aléatoire X


et une sous-tribu B de F . L'espérance conditionnelle est une notion de probabilité
qui permet, d'exprimer ce que l'on sait de X en ayant uniquement l'information
contenue dans B . Pour plus de détail, nous renvoyions le lecteur au [1] et [9].

2.1 Probabilité Conditionnelle(Cours 1)

Dénition 2.1.1. Soient A et B deux évènements de F , où B est un évènement


non négligeable ; la formule
P(A ∩ B)
P(A|B) =
P(B)
dénit une probabilité P(.|B) sur (Ω, F), appelée probabilité conditionnelle à
B ou sachant B .
En eet ;
L'application est clairement à valeurs dans [0, 1] avec P(Ω) = 1.
Si (An )n≥0 est une famille d'évènements deux à deux disjoints alors

! !
[ [ X
! P An ∩ B P (An ∩ B) P(An ∩ B)
[ n n n
P An |B = = =
n
P(B) P(B) P(B)
X  P(An ∩ B)  X
= = P(An |B) J
n
P(B) n

Remarque 2.1.1. On a P(A|B) = P(A∩B)


P(B) et P(B|A) =
P(A∩B)
P(A) donc

4
P(A ∩ B) = P(A|B)P(B) = P(B|A)P(A). Alors on peut généraliser pour une
famille d'évènements on obtient par récurrence :
n
!
\
P Ai = P(A1 ) × P(A2 |A1 ) × P(A3 |A2 ∩ A1 ) × ... × P(An |A1 ∩ ... ∩ An−1 ).
i=1

Si X est une variable aléatoire intégrable, B un évènement non négligeable


l'espérance conditionnelle de X sachant B , est par dénition l'espérance de
X par rapport à la probabilité conditionnelle à B ; soit
Z
E(X|B) = X(w)dP(.|B).

Possède toujours les propriétés de l'espérance.
Proposition 2.1.1. Si X est une variable aléatoire intégrable, B un évènement
non négligeable, alors
E(X 1B )
Z
1
E(X|B) = = XdP.
P(B) P(B) B

Démonstration : Utiliser la méthode standard des applications étagées J


Soit maintenant B = {B1 , ..., Bn } une famille disjointe (un système). Alors si
A∈F :
n
P(A ∩ Bi )
1B
X
P(A|B) = i
i=1
P(Bi )
La probabilité P(A|B) dénie une variable aléatoire qui est σ(B)-mesurable et
vérie : Z
P(A|B)dP = P(A ∩ B); B ∈ B
B
de plus E (P(A|B)) = P(A).

Dénition 2.1.2. Plus généralement, si G est une sous tribu de F et A ∈ F ,


alors P(A|G) est une variable aléatoire G -mesurable telle que :
Z
P(A|G)dP = P(A ∩ B); B ∈ G
B

Théorème 2.1.2. La probabilité P(A|G), G est une sous tribu de F vérie :


1. P(Ω|G) = 1 .p.s.
!
2. Pour tout (An )n≥0 de F deux à deux disjoints, on a : P
[
An |G =
n
P(An |G) .p.s.
X

5
Z Z
Démonstration : D'abord P(Ω|G)dP = P(B ∩ Ω) = P(B) = dP, pour
B B
tout B ∈ G ; alors P(Ω|G) = 1 .p.s.
Soit B ∈ G , !
Z X XZ X [
P(An |G)dP = P(An |G)dP = P(An ∩ B) = P ( An ) ∩ B
B n n B n n
Z !
[
= P An |G
n n
!
[ X
d'où P An |G = P(An |G) J
n n
Proposition 2.1.3. Si G est une sous-tribu de F et C ∈ F , pour tout A ∈ G ,
alors P(A ∩ C|G = P(C|G)1A ) . p.s.

Z En eet, Z
P(A∩C|G)dP = P(A∩B ∩C), d'autre part 1AP(C|G)dP = P(A∩B ∩C) J
B B

2.2 Existence de la probabilité conditionnelle

Si X est une variable aléatoire positive sur (Ω, F, P) alors


Z
µ(B) = XdP, B ∈ G (2.1)
B
est bien dénie.
µ est une mesure sur (Ω, F) → R+ est absolument continue par rapport à P
et sa dérivée de Radon-Nikodym est une variable aléatoire G mesurable.
Pour X = 1A , où A ∈ F du théorème de Radon-Nikodym et 2.1 on dénit
Z Z
P(A|G)dP = µ(B) = 1AdP = P(A ∩ B); B ∈ G
B B
ce qui justie l'existence d'une variable aléatoire vériant la dénition 1.1.2.

2.3 Espérance Conditionnelle (Cas Général) (Cours 2)

Théorème 2.3.1. (et Dénition) Soit X une variable aléatoire intégrable sur
(Ω, F, P) et G une sous-tribu de F . Alors il existe une unique (p.s) variable
aléatoire, appelée Espérance conditionnelle de X sachant G notée E(X|G),
telle que
6
i) E(X|G) est G -mesurable
Z
;
Z
ii) pour tout B ∈ G , E(X|G)dP = XdP.
B B
La condition ii) s'écrit encore :
E(X 1B ) = E (E(X|G)1B ) , pourtout B ∈ G.
Démonstration : L'unicité : Si Y et Y 0 sont deux versions de E(X|G), alors
pour tout B ∈ G Z Z
Y dP = Y 0 dP
B B
Posons A = {Y − Y ≥ ε}, pour ε > 0. Alors
0
Z Z Z
0
0= Y dP − Y dP = (Y − Y 0 )dP ≥ εP(A) = εP(Y − Y 0 ≥ ε)
A A A
Comme c'est vrai pour tout ε, on a Y ≤ Y 0 p.s. En inter changeant les rôles de
Y et Y 0 , on obtient l'inégalité inverse, d'où on déduit l'égalité presque sûre.

Existence : Montrons nalement l'existence. Rappelons qu'une mesure ν sur


(Ω, G) est dite absolument continue par rapport à la mesure µ si µ(A) = 0
implique ν(A) = 0 pour tout A ∈ G . On écrit alors ν  µ. Le théorème de
RadonNikodym arme qu'il existe alors une fonction f ∈ G telle que
Z
f dµ = ν(A), A∈G
A

La fonction f est appelée dérivée de RadonNikodym et notée dµ



.
Supposons d'abord que X ≥ 0. Posons µ = P et dénissons ν par
Z
ν(A) = XdP, A∈G
A

de sorte que ν  µ. Nous avons ∈ G et pour tout A ∈ G .




Z Z

XdP = ν(A) = dP.
A A dµ
Ceci montre que dµdν
satisfait (ii). De plus, prenant A = Ω on voit que dµdν
est
intégrable. Par conséquent dµ est une version de E(X|G).

Finalement, un X quelconque peut se décomposer X = X + −X − avec X + , X − ≥


0. Soit Y1 = E(X + |G) et Y2 = E(X − |G). Alors Y1 − Y2 est G -mesurable et inté-
grable et on a pour tout A ∈ G
Z Z Z Z Z Z
+ −
XdP = X dP − X dP = Y1 dP − Y2 dP = (Y1 − Y2 )dP
A A A A A A
Ceci montre que Y1 − Y2 est une version de E(X|G). J
7
Proposition 2.3.2. Cette espérance conditionnelle E(X|G) vérie alors :
Z Z
∀Z ∈ L2 (Ω, G, P), XZdP = ZE(X|G)dP, B ∈ G. (2.2)
B B

En eet, La propriété est évidente pour une fonction indicatrice, puis nous
passons aux fonctions étagés G -mesurable puis au variables positives et enn aux
variables G -mesurables par la démarche usuelle. J

2.4 Propriétés de L'espérance Conditionnelle

L'espérance conditionnelle possède les propriétés suivantes

1. Linéarité : E (X + Y |G) = E (X|G) + E (Y |G)


2. Son espérance :
E (E (X|G)) = E (X)
En eet, il sut de prendre B = Ω dans la dénition. J
3. Positivité. Si X ≥ 0 alors E(X|G) ≥ 0.
En eet,
Soit X ≥ 0 ; on prend Y = 1{E(X|G)<0} .

E(E(X|G)Y ) = E(E(X|G)1{E(X|G)<0} ) ≤ 0
D'autre part
E(XY ) = E(X 1{E(X|G)<0} ) ≥ 0
Ces deux expressions sont égales, elles sont donc toutes les deux nulles, ce
qui implique E(X|G)1{E(X|G)<0} = 0 p.s et par conséquent E(X|G) ≥ 0. J
4. Monotonie : Si X ≤ Y, alors
E (X|G) ≤ E (Y |G)

5. Indépendance : Si X est indépendant de G, alors

E (X|G) = E(X)
En eet,
Si B ∈ G , 1B et X sont indépendantes et donc pour tout B ∈ G ,
Z Z Z
E(X|G)dP = XdP = E(X)P(B) = E(X)dP.
B B B

Puisque E(X|G) est G -mesurable, E(X|G) = E(X) p.s. J

8
6. Si X est G -mesurable, alors

E (X|G) = X

En particulier E(1|G) = 1.
7. Si Z est G -mesurable, alors

E (XZ|G) = ZE (X|G)

En eet, utiliser la méthode standard. J


8. Conditionnement successif : si G1 ⊂ G2 ,

E (E (X|G1 ) |G2 ) = E (X|G1 ) = E (E (X|G2 ) |G1 )

En eet,
Soit G1 ⊂ G2 . La variable E(X|G1 ) est G2 -mesurable si bien que

E [E(X|G1 )|G2 ] = E(X|G1 ).

Démontrons l'égalité E [E(X|G2 )|G1 ] = E(X|G1 ).


La variable E [E(X|G2 )|G1 ] est G1 -mesurable. De plus, pour tout Y G1 -
mesurable, Y est à la fois G1 et G2 -mesurable et d'après la propriété précé-
dente,

E(Y E [E(X|G2 )|G1 ]) = E(E [E(Y X|G2 )|G1 ]) = E[E(Y X|G2 ) = E(Y X)

Ce sont les deux propriétés qui caractérisent E(X|G1 ). J


9. Inégalité de Jensen conditionnel : si φ est une fonction convexe et
φ(X) est intégrable, alors

E (φ(X)|G) ≥ φ (E (X|G)))

En eet,
Comme φ est convexe alors pour tout a ∈ R il existe λa tel que pour tout
x,
φ(x) ≥ φ(a) + λa (x − a)
Posons : a = E(X|G) et x = X on a

φ(X) ≥ φ(E(X|G)) + λa (X − E(X|G))

On prend alors l'espérance conditionnelle des deux membres pour obtenir

E (φ(X)|G) ≥ φ (E (X|G))). J

9
10. Théorème de convergence monotone conditionnel : si Xn ≥ 0
est une suite croissante de variables aléatoires réelles qui converge presque
sûrement vers X , alors

E (Xn |G) −→ E (X|G) , n −→ ∞.

En eet,
On pose Y = lim E[Xn |G] = lim sup E[Xn |G] (d'après la croissance) qui est
G -mesurable. On a pour tout B ∈ G
E[Y 1B ] = E[limn E[Xn |G]1B ] = limn E[E[Xn |G]1B ] par convergence monotone

= limn E[Xn 1B ]

= E[X 1B ]par convergence monotone. J

11. Lemme de Fatou conditionnel : Si Xn sont des variables aléatoires


positives, alors
E[lim inf Xn |G] ≤ lim inf E[Xn |G].
En eet,
On a d'après le résultat précédent

E[lim inf Xn |G] = limn E[inf k≥n Xk |G]

≤ limn inf k≥n E[Xk |G]

= lim inf E[Xn |G]. J

12. Théorème de convergence dominées conditionnel : Si Xn −→ X


p.s. avec pour tout n, |Xn | ≤ Z ∈ L (Ω, G, P), alors
1

lim E[Xn |G] = E[X|G].


n

En eet, Exercice.

Dénition 2.4.1. Soit (Ω, F, P) un espace de probabilité, deux sous tribus G1 et


G2 de F , sont dites conditionnellement indépendantes à G si

P(A ∩ B|G) = P(A|G)P(B|G), p.s.

pour tous A ∈ G1 , B ∈ G2

10
2.5 Conditionnement à une variable aléatoire (Cours 3)

Dénition 2.5.1. Soit Y une variable aléatoire. Si X est une v.a.r. positive
ou intégrable, on dénit l'espérance conditionnelle de X sachant Y comme l'es-
pérance conditionnelle de X sachant la tribu engendrée par Y . On note alors
E[X|Y ] = E[X|σ(Y )].
Proposition 2.5.1. Une variable aléatoire Y : Ω −→ R est σ(X)-mesurable si
et seulement si il existe une fonction f : R −→ R borélienne telle que Y = f (X).
Démonstration . Exercice.
Proposition 2.5.2. Si X et Y sont des variables aléatoires, alors E(X|Y ) =
ϕ(Y ), où ϕ est une fonction borélienne, si et seulement si
E[Xg(Y )] = E[ϕ(Y )g(Y )]
pour toute fonction borélienne g , en particulier,
E[X 1(Y ∈B) ] = E[ϕ(Y )1(Y ∈B) ]
où B est un borélien.
Démonstration : Toute v.a σ(Y )-mesurable s'écrit g(Y ) avec g borélienne
(Proposition(2.5.1)), d'où le résultat par la dénition de l'espérance conditionnelle.J

2.5.1 Cas discret


Soit X une variable aléatoire réelle dont l'espérance est dénie et Y une variable
aléatoire discrète, pour tout yi tel que l'événement {Y = yi } soit de probabilité
non nulle, on peut dénir
1
E(X|Y = yi ) = E(X.1{Y =yi } )
P(Y = yi )
On dénit ainsi, presque partout, une fonction, ϕ(y) = E(X|Y = y) et une va-
riable aléatoire ϕ(Y ) appelée espérance de X conditionnée par Y et notée E(X|Y ).
Exemple 2.5.1. Pour des variables aléatoires discrète
Soient X et Y deux variables aléatoires réelles indépendantes telles que X suit
la loi P(λ) et Y suit la loi P(µ). On a donc T = X + Y suit la li P(λ + µ). On
calcul
P(X = k, Y = t − k)
P(X = k|T = t) =
P(X + Y = t)
−λ k −µ t−k
e λ e µ t!
= −(λ+µ) (λ + µ)t
k
k! k (t − k)!t−ke
= t p (1 − p) , 0 ≤ k ≤ t,
11
où p = λ/(λ + µ). Par conséquent, la loi conditionnelle de X sachant (T = t) est
une loi binomiale B(t, λ/(λ + µ)).
Ainsi, E(X|T = t) = λt/(λ + µ) et V ar(X|T = t) = λµt/(λ + µ)2 ,
Donc E(X|T ) = λT /(λ + µ) et V ar(X|T ) = λµT /(λ + µ)2 .

2.5.2 Cas absolument continu


Proposition 2.5.3. Si X et Y sont deux variables aléatoires réelles telle que
le couple (X, Y ) admet la densité f(X,Y ) (x, y), alors la loi conditionnelle de X
sachant (Y = y) a une densité lorsque fY (y) 6= 0, donnée par
f(X,Y ) (x, y) f(X,Y ) (x, y)
fX|Y (x|y) = =R
fY (y) R f(X,Y ) (x, y)dx

Proposition 2.5.4. Soit X, Y deux variables aléatoires telles que le couple (X, Y )
admette une densité fX,Y et soit g : R −→ R une fonction borélienne positive ou
PY -intégrable. Alors, pour PX -presque tout x ∈ R,
R
RRg(y)fX,Y (x, y)dy
E(g(Y )|X = x) = .
R fX,Y (x, y)dy

Exemple 2.5.2. Pour des variables aléatoires continues Soient X et Y deux v.a
indépendantes de même loi γ(1, 1), on sait que T = X + Y suit la loi γ(2, 1).
Calculons l'espérance conditionnelle de X sachant T . On cherche ϕ telle que, pour
toute g borélienne bornée, on ait

E[g(T )X] = E[g(T )ϕ(T )]

Or
Z Z Z Z t
−(x+y)
E[g(T )X] = g(x + y)xe dxdy = g(t)e−t ududt
R2+ ZR+ 0

= ϕ(t)g(t)te−t dt
R+
= E[g(t)ϕ(t)].
Z t
1
où ϕ(t) = udu = t/2, donc E(X|T ) = T /2 p.s.
t 0

12
Chapitre 3
Martingales à temps Discret

3.1 Filtration et temps d'arrêt(Cours 4)

La notion de temps d'arrêt intervient de façon essentielle dans l'étude des


processus stochastiques. Nous donnons ici les principaux résultats les concernant,
du moins pour les temps d'arrêt à valeurs entières.

Dénition 3.1.1. Filtration : Soit (Ω, F, P) un espace probabilisé, Fn ⊂ F des


tribus, n ∈ N. On dit que les (Fn )n≥0 forment une ltration si elles constituent
une suite croissante pour l'inclusion : Fn ⊂ Fn+1 pour tout n ∈ N.
Une suite de variables aléatoires (Mn )n≥0 est dite adaptée à la ltration (Fn )n≥0
si Mn est Fn -mesurable pour tout n ∈ N.

Dénition 3.1.2. Temps d'arrêt : Soit (Fn )n≥0 une ltration de F Un temps
d'arrêt relatif à (Fn )n≥0 est une variable aléatoire T à valeurs dans N vériant
(T ≤ n) ∈ Fn pour tout n ∈ N.
Il est immédiat que l'on pourrait dénir un temps d'arrêt T comme étant une
variable aléatoire à valeurs dans N telle que (T = n) ∈ Fn (puisque (T = n) =
(T ≤ n) ∩ (T ≤ n − 1)c et (T ≤ n − 1) = 1≤i≤n−1 (T = i)).
S

Si T est un temps d'arrêt, on dénit la tribu des évènements antérieurs à


T En posant

FT = {A ∈ F : A ∩ (T ≤ n) ∈ Fn pour tout n ∈ N}

En eet,
Il est clair que ∅ et Ω sont des évènements de FT .
Soit A ∈ FT , Ac ∩ (T ≤ n) = (T ≤ n) − (A ∩ (T ≤ n)) ∈ Fn .
Si[(An )n≥0 est une suite
[ d'évènements de FT alors,
( Ak ) ∩ (T ≤ n) = (Ak ∩ (T ≤ n)) ∈ Fn . J
k k

13
On obtient bien sûr une dénition équivalente en remplaçant l'événement (T ≤
n) par l'événement (T = n). On vérie immédiatement que FT est eectivement
une tribu et que T est FT -mesurable.

3.1.1 Propriétés
1. Si S et T sont des temps d'arrêt, alors : S + T, S ∧ T et S ∨ T sont des
temps d'arrêt,
en eet,
n
[
(S + T = n) = ((S = i) ∩ (T = n − i)) ∈ Fn ,
i=0
(S ∧ T ≤ n) = (S ≤ n) ∪ (T ≤ n) ∈ Fn ,
(S ∨ T ≤ n) = (S ≤ n) ∩ (T ≤ n) ∈ Fn .J
2. Si (Tn )n≥0 est une suite de temps, alors supk≥0 Tk et inf k≥0 Tk son des temps
d'arrêt,
En eet,
(supk Tk ≤ n) = k (Tk ≤ n) ∈ Fn et (inf k Tk ≤ n) = k (Tk ≤ n) ∈ Fn . J
T S

3. Si S et T sont des temps d'arrêt, avec S ≤ T alors FS ⊂ FT , en eet, Soit


A ∈ FS ,
A ∩ (T ≤ n) = [A ∩ (S ≤ n)] ∩ (T ≤ n) ∈ Fn .
Car (T ≤ n) ⊂ (S ≤ n) J
Exemples de Temps d'arrêt :
1. Si T est constante presque sûrement, alors c'est un temps d'arrêt.
2. Soit (Xn )n≥0 un processus F -adapté à valeurs dans (Ω, F). Pour tout a ∈ R.
Et on note Ta , le premier temps pour le quel X dépasse a, la variable
aléatoire ci-dessous dénie :

Ta = inf {n ≥ 0 / Xn ≥ a}
avec la convention inf ∅ = ∞. Alors Ta est un temps d'arrêt.
En eet,

(Ta ≤ n) = {∃m ≤ n/ Xm ≥ a} ∈ Fn . J

3.2 Martingale, Sous-martingale, Surmartingale (Cours 5)

L'étude des martingales qui est proposée ci-dessous repose très fortement sur
l'algèbre des espérances conditionnelles, dont la forme utile a été rappelée dans le

14
Chapitre 1. Les Règles qui y ont été données, sont utilisées constamment. Comme
rappelé dans le chapitre 1, les formules qui comportent des espérances condition-
nelles ne sont vraies que presque sûrement.

3.2.1 Dénitions
On suppose donné un processus stochastique à temps discret, c'est-à-dire une
suite (Mn )(n>0) de variables aléatoires dénies sur le même espace probabilisé
ltré (Ω, F, (Fn )n≥0 , P).
Dénition 3.2.1. La suite (Mn)n∈N est une martingale (respectivement sous-
martingale, sur-martingale ) relativement à la ltration (Fn )n≥0 , si
i) les Mn sont intégrables,
ii) la suite (Mn)n≥0 est adaptée à (Fn)n≥0,
iii) E(Mn+1|Fn) = Mn p.s. (respectivement ≥ Mn, ≤ Mn) pour tout n ∈ N.
Donc (Mn )n≥0 est une martingale (resp. une sous-martingale, une sur-martingale)
si et seulement si pour tout A ∈ Fn on a
Z Z
Mn+1 dP = Mn dP (resp. ≥, ≤)
A A
Si la ltration (Fn )n≥0 n'est pas spéciée, on prend Fn = σ(Mk , k ≤ n).
Proposition 3.2.1. Pour tout k > 0, E(Mn+k |Fn) = Mn.
En eet,
Cette proposition se démontre par récurrence sur k . Supposons là vériée pour
k > 0 et démontrons là pour k + 1. Comme Fn ⊂ Fn+k ,
E(Mn+k+1 |Fn ) = E(E(Mn+k+1 |Fn+k )|Fn ) = E(Mn+k |Fn ) = Mn . J

3.2.2 Exemples
1. Martingale de Doob : Soit (Xk )k∈N une suite de variables aléatoires
indépendantes entre elles et centrées (E(Xn ) = 0 pour tout n ∈ N). Po-
sons Sn = X1 + X2 + ... + Xn . Alors la suite (Sn )n∈N est une martingale
relativement à la ltration Fn = σ(X1 , X2 , ..., Xn ).
En eet,
La variable aléatoire Sn est bien intégrable et Fn -mesurable.

E(Sn+1 |Fn ) = E(Xn+1 + Sn |Fn )


= E(Xn+1 |Fn ) + E(Sn |Fn )
= E(Xn+1 ) + Sn
= Sn
15
Remarquons qu'on a l'égalité σ(X1 , X2 , ..., Xn ) = σ(S1 , S2 , ..., Sn ) car les
Xi s'expriment en fonction des Si et réciproquement. La suite (Sn ) est une
martingale aussi bien par rapport aux (Xi ) qu'aux (Si ).
2. Soit M une variable aléatoire intégrable et (Fn ) une ltration. La suite

Mn = E(M |Fn )

est une martingale. En eet,

E(Mn+1 |Fn ) = E[E(M |Fn+1 )|Fn ] = E(M |Fn ) = Mn .


Propriété 3.2.2. Si (Mn)n≥0 est une martingale (resp ; surmartingale, sous-
martingale) par rapport à (Fn )n≥0 , alors, pour tout n > 0, on a : E[Mn ] = E[Mo ]
(resp ≤; ≥).
En eet, il sut de calculer l'éspérances des deux membres dans le conditionne-
ment de la dénition J

Remarque 3.2.1. Il est évident que (Mn)n≥0 est une surmartingale si et seule-
ment si (−Mn )n≥0 est une sous-martingale par rapport à (Fn )n≥0 . Par ailleurs,
(Mn )n≥0 est une martingale si et seulement si (Mn )n≥0 est à la fois une sur-
martingale et une sous-martingale par rapport à (Fn ).

Donnons des méthodes de construction de sous-martingales à partir d'une mar-


tingale ou d'autres sous-martingales.

Lemme 3.2.3. Supposons données :


(a) une martingale (ou une sous-martingale) (Mn )n≥0 par rapport à (Fn )n≥0 ;
(b) une fonction convexe ϕ telle que, pour tout n > 0, l'espérance mathématique
E[ϕ(Mn )] est nie.
Alors (ϕ(Mn ))n est une sous-martingale par rapport à (Fn )n≥0 .
En eet, Utiliser l'énagalité se Jensen J
En particulier ;
Si (Mn )n≥0 est une martingale par rapport à (Fn )n≥0 ; alors (|Mn |)n≥0 et
(Mn2 )n≥0 sont des sous-martingales pour (Fn )n≥0 .

16
3.3 Martingale et temps d'arrêt (Cours 6)

On se donne deux processus X = (Xn )n et dénis sur (Ω, F, (Fn )n≥0 , P). On
suppose que X est adapté à (Fn )n≥0 . On se donne, un temps d'arrêt T du (F)n≥0 .
On dénit un nouveau processus, noté X T = ((X T )n≥0 ); (n > 0), en posant, pour
tout n > 0, 
Xn (w) si n ≤ T (w)
X T (w) = XT ∧n =
XT (w) si n ≥ T (w)
On peut encore écrire :

XT ∧n = X0 1(T =0) + X1 1(T =1) + ... + Xn 1(T =n) + Xn 1(T ≥n)

Comme chacun des événements {T = 0}, {T = 1}, ..., {T = n}, {T ≥ n} appar-


tient à Fn , leurs indicatrices sont des fonctions mesurables de Fn . Comme, par
hypothèse, Xo , X1 , ..., Xn sont aussi de telles fonctions mesurables, le processus
X T est aussi adapté à (Fn )n≥0 . On l'appelle le processus obtenu en arrêtant
X à l'instant (aléatoire) T . Donnons une autre expression pour XT ∧n , qui est
mieux adaptée pour les calculs ultérieurs.

Lemme 3.3.1. On a évidement la représentation :


n−1
1(k<T )(Xk+1 − Xk )
X
XT ∧n = X0 +
k=1

Démonstration : Exercice.

Proposition 3.3.2. Soient M = (Mn)(n>0) une martingale (resp. une sous- mar-
tingale, resp. une sur-martingale) par rapport à (Fn )(n>0) et T un temps d'arrêt
du (Fn )n≥0 . Alors le processus arrêté M T = (MT ∧n )n>0 est encore une martingale
(resp. une sous-martingale, resp. une Sur-martingale) par rapport à (Fn )n≥0 .
En eet,
Suivant le lemme précédent on a : MT ∧n+1 − MT ∧n = 1(n<T ) (Mn+1 − Mn ),
avec 1(n<T ) est dans Fn , et M est une Fn -martingale. On trouve E(MT ∧n+1 −
MT ∧n |Fn ) = 0. J

3.3.1 Théorème d'arrêt


Théorème 3.3.3. Théorème d'arrêt. Soient M = (Mn)(n>0) une martingale
(resp. une sous- martingale, resp. une sur-martingale) par rapport à (Fn )(n>0) et
T un temps d'arrêt borné adapté à (Fn )n≥0 . Alors

E[MT ] = E[M0 ], (resp. E[MT ] ≥ E[M0 ], resp. E[MT ] ≤ E(M0 ).


17
Démonstration : Comme T est borné, il existe un entier K ≥ 1 tel que
0 ≤ T ≤ K , d'où MT ∧K = MT
on peut donc écrire :
K−1
1(k<T )(Mk+1 − Mk )
X
MT = MT ∧K = M0 +
k=0

Or, pour chaque k = 0, 1, ..., K − 1, on a :

E[1(k<T ) (Mk+1 − Mk )] = E[E[1(k<T ) (Mk+1 − Mk )|Fk ]]

= E[1(k<T ) E[(Mk+1 − Mk )|Fk ]] = 0; (resp. ≥ 0, resp. ≤ 0),


car M est une martingale, (resp. une sous-martingale, resp. une sur-martingale).
D'où E(MT ) = E(M0 ), (resp. ≥ 0, resp. ≤ 0). J

Théorème 3.3.4. Si (Mn)n≥0 est une martingale pour (Fn)n≥0, Soient S et T


deux temps d'arrêt bornés de la ltration (Fn )n≥0 tels que S ≤ T ≤ m. Alors
E(XT |FS ) = XS .

Ici encore le théorème est vrai pour les sous-martingales et les surmartingales
si on prend soin de remplacer l'énégalité de la conclusion par l'inégalité appropiée.
Démonstration : La variable aléatoire MS est FS -mesurable. Il sut donc de
démontrer E(1A MS ) = E(1A MT ) pour tout A dans FS . Comme S ≤ T ≤ m, on
a donc pour tout évènement A dans FS ,
m
! m
!
E(1A MS ) = E 1A 1(S=k)Mk = E 1A 1A∩(S=k)Mk
X X

k=0 ! k=0
m
1A 1A∩(S=k)E(Mm|Fk )
X
=E
k=0 !
m
1A∩(S=k)Mm
X
=E Car A ∩ (S = k) ∈ Fk
k=0 !
m
1A 1(S=k)Mm
X
=E
k=0
= E(1A Mm ).

Par un calcul analogue, E(1A MT ) = E(1A Mm ), d'où le résultat. J

18
3.3.2 Inégalités maximales
Théorème 3.3.5. Soit (Mn)(n>0) une sous-martingale positive. Alors

∀λ > 0; λP( max Mk > λ) ≤ E(Mn ).


0≤k≤n

Démonstration : Posons An = (max0≤k≤n Mk > λ) = > λ) et


S
0≤k≤n (Mk
introduisons le temps d'arrêt T , qui vaut min(k : 0 < k < n, Mk > λ) sur An et
n sur Acn . C'est bien un temps d'arrêt du processus (Mn ) ; de plus, il est borné
(par n), de sorte qu'on a : MT ∧n = MT
Appliquons le théorème d'arrêt pour les temps d'arrêt bornés à la sous-martingale
(Mn )(n > 0) et au temps d'arrêt T ∧ n = T . On a

E[Mn ] ≥ E[MT ∧n ] = E[MT ]


= E[MT 1An ] + E[MT 1Acn ] = E[MT 1An ] + E[Mn 1Acn ]
≥ E[MT 1An ] [puisque la sous-martingale (Mn ) est positive]
≥ λE[1An ] = λP(An ). J

Corollaire 3.3.6. Soit (Mn)(n>0) une martingale positive. Alors


∀λ > 0; λP( max |Mk | > λ) ≤ E(|Mn |).
0≤k≤n

Théorème 3.3.7. Soit (Mn)(n>0) une sous-martingale de signe quelconque. Alors


∀λ > 0; λP( max Mk > λ) ≤ E[Mn 1An ] ≤ E(Mn+ ) ≤ E(|Mn |).
0≤k≤n

Démonstration : Il sut de démontrer la première inégalité, les deux autres


étant triviales. Le théorème d'arrêt permet d'écrire

E[Mn ] = E[Mn 1An ] + E[Mn 1Acn ] ≥ E[MT 1An ] + E[Mn 1Acn ].


d'où
E[Mn 1An ] ≥ E[MT 1An ] > λP(An ). J
Théorème 3.3.8. Soit (Mn)(n>0) une sur-martingale positive. Alors
∀λ > 0; λP( max Mk > λ) ≤ E(M0 ).
0≤k≤n

Démonstration : Posons An = (max0≤k≤n Mk > λ) et introduisons le


temps d'arrêt T , qui vaut
min(k : 0 < k < n, Mk > λ)1An + n1Acn sur An et n sur Acn . C'est bien un
temps d'arrêt du processus (Mn ) ; de plus, il est borné (par n), de sorte qu'on a :
MT ∧n = MT

19
Appliquons le théorème d'arrêt pour les temps d'arrêt bornés à la sur-martingale
(Mn )(n > 0) et au temps d'arrêt T ∧ n = T . On a

E[M0 ] ≥ E[MT ∧n ] = E[MT ]


= E[MT 1An ] + E[MT 1Acn ] = E[MT 1An ] + E[Mn 1Acn ]
≥ E[MT 1An ] [puisque la sous-martingale (Mn ) est positive]
≥ λE[1An ] = λP(An ). J

3.4 Décomposition de Doob (Cours 7)

Dénition 3.4.1. (Processus prévisible). Soit (Fn )n≥0 une ltration. Une suite
(Hn )n≥0 est un processus prévisible si Hn est Fn−1 -mesurable pour tout n ≥ 1.

Théorème 3.4.1. Soit S = (Sn)n≥0 une (Fn)n-sous-martingale. Alors il existe


une martingale M = (Mn )n≥0 avec M0 = 0 et un processus A = (An )n≥0 prévi-
sible et croissant avec A0 = 0 , tels que
Sn = Mn + An

De plus, cette décomposition, appelée Décomposition de Doob, est unique p.s.


Démonstration : On pose
n
X
An = E(Sk − Sk−1 |Fk−1 )
k=1

S étant une sous-martingale, on a E(Sk − Sk−1 |Fk−1 ) ≥ 0 p.s. . donc Ak+1 ≥ Ak


p.s. , tandis que par construction Ak est Fk−1 -mesurable. Par ailleurs, on a

E(Sn |Fn−1 ) − Sn−1 = E(Sn − Sn−1 |Fn−1 ) = An − An−1

et donc
E(Sn |Fn−1 ) − An = Sn−1 − An−1
Comme An est Fn−1 -mesurable.

E(Sn − An |Fn−1 ) = Sn−1 − An−1

Si on pose Mn = Sn − An , il suit que M = (Mn )n≥0 est une martingale avec


M0 = 0 , et on a la décomposition souhaitée.
L'unicité : Supposons que

Sn = Mn + An = Ln + Cn

20
soient deux décompositions. En soustrayant l'une de l'autre, on arrive à
Ln − Mn = An − Cn
Comme An et Cn sont Fn−1 -mesurables, il en est de même de Ln − Mn , et donc
Ln − Mn = E(Ln − Mn |Fn−1 ) = Ln−1 − Mn−1 = An−1 − Cn−1 p.s.
Par une récurrence évidente, on obtient alors que Ln − Mn = L0 − M0 = 0 p.s.
(car L0 = M0 = 0).
Par suite, Ln = Mn p.s. , donc aussi An = Cn p.s. , et l'unicité est démontrée.J

3.5 Convergence

Dans le théorème de convergence des martingales, on donne une condition


susante pour qu'une martingale converge vers une variable aléatoire, qui soit
intégrable. La technique de démonstration du théorème fait appel à un argument
de comptage. Il s'agit de compter le nombre de fois qu'une Trajectoire traverse
une bande horizontale et de majorer ce nombre.

3.5.1 Convergence presque sure


Théorème 3.5.1. Soit (Mn)(n≥0) une martingale bornée dans L1, c'est-à-
dire telle que, pour une certaine constante c ≥ 0, on ait :
sup E[|Mn |] ≤ c. (3.1)
n≥0

Alors la suite (Mn)(n≥0) converge presque sûrement vers une variable


aléatoire intégrable M∞.
Démonstration. La démonstration utilise un lemme dû à Doob sur la majo-
ration de la moyenne des traversées d'une bande horizontale par la suite (Mn ).
Pour dénir cette notion, nous supposons donnés deux nombres a, b tels que a < b
et introduisons la suite S1 < T1 < S2 < T2 < ... des temps d'arrêt suivante :
S1 = inf{n ≥ 0 : Mn ≤ a}, T1 = inf{n ≥ S1 : Mn ≥ b},
S2 = inf{n ≥ T1 : Mn ≤ a}, T2 = inf{n ≥ S2 : Mn ≥ b},
et ainsi de suite. Si l'une des bornes inférieures n'existe pas, on donne la valeur
+∞ au temps d'arrêt correspondant, ainsi qu'aux suivants. Dans la gure ci-
dessous ; on a représenté une trajectoire n 7−→ Mn par des croix "×". Les temps
d'arrêt S1 , T1 , S2 , ... sont représentés par des gros points "•". La variable aléatoire
X
M= 1(Tk <∞) (3.2)
k≥1

21
est le nombre total de traversées de [a, b], en montant, eectuées par la trajectoire
n 7−→ Mn .

Lemme 3.5.2. (Inégalité de Dubins). Pour tout k ≥ 1 et tout n ≥ 1, on


a:
(b − a)P(Tk < n) ≤ E[(a − Mn )1(Sk ≤n<Tk ) ] (3.3)

Démonstration. L'entier n étant xé, posons

Dk = MTk ∧n − MSk ∧n

D'après le théorème d'arrêt appliqué aux temps d'arrêt bornés Tk ∧ n et Sk ∧ n,


on voit que E[Dk ] = E[M1 ] − E[M1 ] = 0. D'autre part, on a les implications

n < Sk =⇒ Dk = 0; Tk ≤ n =⇒ Dk ≥ b − a;

Sk ≤ n < Tk =⇒ Dk = Mn − MSk =⇒ Dk ≥ Mn − a;
donc 
(b − a)1(Tk ≤n) ≤ Dk
(Mn − a)1(Sk ≤n<Tk ) ≤ Dk
qu'on peut résumer en écrivant :

(b − a)1(Tk ≤n) + (Mn − a)1(Sk ≤n<Tk ) ≤ 2Dk

En prenant l'espérance mathématique des deux membres, on obtient :

(b − a)P(Tk ≤ n) + E[(Mn − a)1(Sk ≤n<Tk ) ] ≤ 2E(Dk ) = 0. J

Lemme 3.5.3. (Lemme de Doob). Conservant les notations (3.1) et (3.2),


on a la majoration :
|a| + c
E(M ) ≤ . (3.4)
b−a
22
Démonstration. L'inégalité de Dubins (3.3) permet d'écrire
X X
(b − a) P(Tk < n) ≤ E[(a − Mn )1(Sk ≤n<Tk ) ]
k≥1 k≥1

Or, les évènements (Sk ≤ n < Tk ), (k ≥ 1) sont disjoints deux à deux ; notons A
leur réunion. Comme (Sk ≤ n < Tk ) = ∅ dès que k ≥ n, on peut écrire :
X X
E[(a − Mn )1(Sk ≤n<Tk ) ] = E[(a − Mn )1(Sk ≤n<Tk ) ]
k≥1 1≤k≤n

X
= E[(a − Mn ) 1(Sk ≤n<Tk ) ]
1≤k≤n

X
= E[(a − Mn ) 1(Sk ≤n<Tk ) ]
k≥1

= E[(a − Mn )1A ;
d'où X
(b − a) P(Tk < n) ≤ E[(a − Mn )1A ].
k≥1

Maintenant, on a les majorations :

E[(a − Mn )1A ≤ E[(a − Mn )+ 1A ] ≤ E[(a − Mn )+ ≤ |a| + c,


X |a| + c
d'où pour tout n la majoration P(Tk < n) ≤ = λ.
b−a
k≥1
X
D'autre part, E[M ] = P(Tk < +∞). Si l'on avait E[M ] > λ, on airait aussi
k≥1
X
P(Tk < +∞) > λ pour certain K ≥ 1.
1≤k<K
Comme,
X pour tout k ≥ 1, on a P(Tk < +∞) = lim Xn P(Tk < n), on aurait
P(Tk < n) > λ pour n assez grand, a fortiori P(Tk < n) > λ, ce qui
1≤k<K k≥1
contredit la majoration prouvée pout tout n. J

Lemme 3.5.4. La suite (Mn)(n≥0) est presque sûrement convergente.


Démonstration. Pour indiquer que la variable aléatoire M dépend du couple
(a, b), on pose : M = Ma,b . C'est une variable aléatoire positive et l'inégalité

23
(3.4) montre qu'elle est intégrable. Elle est donc presque sûrement nie, ou encore
l'événement (Ma,b = +∞) est négligeable. La réunion dénombrable
[
(Ma,b = +∞)
a,b∈Q,a<b

est aussi négligeable. Or, l'événement (lim inf n Mn < a < b < lim supn Mn )
entraîne qu'il y a une innité d'indices n tels que (Mn < a) se produise et qu'il y
a aussi une innité d'indices n tels que (Mn > b) se produise également ; ce qui
implique alors que l'événement (Ma,b = +∞) se réalise. On a donc

(lim inf Mn < a < b < lim sup Mn ) ⊂ (Ma,b = +∞).


n n

D'où
[  
(lim inf n Mn < lim supn Mn ) = lim inf Mn < a < b < lim sup Mn
n n
a,b∈Q,a<b

[
⊂ (Ma,b = +∞) .
a,b∈Q,a<b

L'évènement (lim inf n Mn < lim supn Mn ) est donc négligeable, ce qui signie que
la suite (Mn )(n≥0) converge presque sûrement. J
Il reste à démontrer que la suite (Mn )(n≥0) converge presque sûrement vers une
variable aléatoire intégrable. Cette propriété résulte du lemme de Fatou.
En eet, d'après le lemme précédent, la suite (Mn )n converge presque sûrement,
disons, vers une variable aléatoire M∞ , d'où |Mn | −→ |M∞ | p.s. Ensuite, pour
tout n ≥ 0, on a E[|Mn |] ≤ c. Les deux conditions du lemme de Fatou sont
remplies et on peut conclure que l'on a aussi E[|M∞ |] ≤ c.J

3.5.2 Martingale uniformement intégrable


Dénition 3.5.1. Une suite de variables aléatoires (Xn)(n≥0) est uniformément
intégrable, si
lim sup E[1(|Xn |>c) |Xn |] = 0.
c−→0 n
s'écrit encore Z
lim sup |Xn |dP = 0.
c−→0 n (|Xn |>c)

Donnons, d'abord, quelques conditions susantes pour qu'une suite de va-


riables aléatoires soit uniformément intégrable.

24
Proposition 3.5.5. Soient (Xn)(n≥0) une suite de variables aléatoires et Z une
variable aléatoire positive, intégrable, telles que pour tout n ≥ 0 on ait |Xn | ≤ Z .
Alors la suite (Xn )(n≥0) est uniformément intégrable.
Démonstration. Exposé.

Théorème 3.5.6. (Théorème de convergence pour les martingales unifor-


mément intégrables). Soit (Mn)(n≥0) une martingale uniformément intégrable.
Alors il existe une variable aléatoire intégrable X∞ telle que
1. Mn −→ M∞ p.s.
2. Mn −→ M∞ (en moyenne d'ordre 1), i.e. E[|Mn − M∞ |] −→ 0,
En outre, pour tout n ≥ 0, on a : E[M∞ ] = E[Mn ].
Démonstration. Voir [1].

25
TD : 1 ( Espérance Conditionnelle)

Exercice 1. Soit X une variable aléatoire de loi N (0, 1). Calculer E[X 2 /X] et
E[X/X 2 ].
Exercice 2. Soient X , Y , Z trois variables aléatoires indépendantes. On suppose
X et Y de carré intégrable et Z intégrable. Calculer E[XY + Z/Y ].
Exercice 3. Soient X et Y deux variables aléatoires qui admettent un moment
d'ordre 2. On suppose que E[X/Y ] = Y et E[Y /X] = X . Montrer que X = Y .
Exercice 4. Variance conditionnelle.
Pour toute variable aléatoire X ∈ L2 (Ω, A, P ) et toute sous-tribu B de A, on note
V ar(X) la variance de X et V ar(X/B) la variance conditionnelle de X sachant
B dénie par :
V ar(X/B) = E (X − E(X/B))2 /B
 

1. Montrer que V ar(X/B) = E(X 2 /B) − (E(X/B)) 2. En particulier


[E(X/B)]2 ≤ E(X 2 /B).
2. Montrer que V ar(X) = E(V ar(X/B)) + V ar(E(X/B)). En particulier
V ar(E(X/B)) ≤ V ar(X) .
3. Que peut-on dire de X si on a égalité dans l'inégalité précédente ?
4. Soient X et Y deux variables aléatoires de carré intégrable telles que E(X/B) =
Y et E(X 2 /B) = Y 2 . Montrer que X et Y sont presque sûrement égales.
5. Soit A un élément de A. On suppose que E(1A /B) est une fonction indica-
trice. Que peut-on dire de A ?
Exercice 5. Soient X et Y deux v.a. indépendantes, Y a une loi N (0; 1).
1. Montrer que les trois propriétés suivantes sont équivalentes :

X2
e 2 est intégrable, eXY est intégrable, e|XY | est intégrable.
X2
2. Montrer que lorsque e 2 est intégrable, alors E[eXY /X] ≥ 1 p.s.
X2
3. Calculer E[eXY /X] lorsque e 2 est intégrable.
Exercice 6. Soit S une v.a. ayant une loi exponentielle de paramètre 1. On xe
un nombre t > 0 et on dénit les deux v.a. X et Y :

X = sup(S, t); Y = inf (S, t)


Calculer E(S/X) et E(S/Y ).

26
Exercice 7. Soit p ∈]0, 1[ un réel. Soient X et Y deux variables aléatoires à
valeurs entières telles que pour tous k, l ∈ N on ait
 p k k l
P(X = k, Y = l) = (1 − p)
e l!
Calculer E[Y /X].

Exercice 8. Soit (X, Y, Z) un vecteur aléatoire de densité f(X,Y,Z) (x, y, z) =


ce−z−2x
1{0≤x≤y≤z} où c est une constante réelle.
(i) Déterminer c.
(ii) Calculer E[X/Y, Z], E[Y /X, Z], E[X/Y ] et E[Y /X].

Lebesgue.

Exercice 9. Soient X et Y deux v.a. Montrer qu'elles sont indépendantes si et


seulement si pour toute fonction g : R −→ R borélienne bornée, on a :

E[g(Y )/X] = E[g(Y )]p.s.

Soit (X, Y ) un vecteur aléatoire dont la densité u par rapport à la mesure de


Lebesgue est
u(x, y) = e−y 10<x<y .
Calculer la loi conditionnelle de Y sachant X = x. En déduire que X et Y − X
sont indépendantes.

27
TD : 2 ( Temps d'arrêt & Martingales)

Exercice 10. On considère une suite (Xn)n≥0 de v.a. dénies sur un espace de
probabilité (Ω, F, P), à valeurs dans [0, 1], indépendantes et de même loi uniforme
sur [0, 1]. On pose, pour n ≥ 0, Fn = σ(Xk , k ≤ n). On introduit la v.a.
T = inf{n ≥ 1; Xn > X0 }

i) Montrer que T est un temps d'arrêt de la ltration (Fn )n .


ii) Déterminer la loi de T . Calculer son espérance.
Exercice 11. Soit T un temps d'arrêt par rapport à une ltration (Fn)n. On
suppose qu'il existe ε > 0 et N ∈ N tels que pour tout n ≥ 0, on a
P(T < N + n/Fn ) > ε, p.s.

Montrer que T est ni presque sûrement et que E(T ) < ∞.


Exercice 12. Soit (Ω, F, F, P) un espace de probabilité ltré, T et S deux temps
d'arrêt, FT et FS les tribus respectives des événements antérieurs à T et S.
Montrer que
(i) S ∧ T, S ∨ T, S + T sont des temps d'arrêt.
(ii) Si T est un temps d'arrêt constant (T = pavecp ∈ N), alors FT = Fp ,
(iii) Si S ≤ T, FS ⊆ FT ,
(iv) FS∨T = FS ∩ FT ,
(v) {S < T} ∈ FS ∩ FT , {S = T} ∈ FS ∩ FT .

Exercice 13. Soit (Ω, F, Fn, P) un espace probabilisé ltré et X une variable
aléatoire intégrable, montrer que (Mn = E(X/Fn ))n est une martingale.
Exercice 14. Soit (Yn)n une suite des variables aléatoires i.i.d., et soit Xn =
i=1 Yi . sous quelle condition la suite (Xn )n est-elle une martingale ?Une sous
Q n

martingale ?une surmatingale ?


Exercice 15. Soit ε1, ε2, · · · des variables aléatoires indépendantes d'espérance
nulle et de variance V ar(εi ) = σi2 . Posons
n
X n
X
Sn = εi T2n = σi2
i=1 i=1

Montrer que Sn2 −T2n est une martingale par rapport a la ltration Fn = σ(ε1 , · · · , εn ).

28
Exercice 16. Soit (Mn)n≥0 une martingale par rapport à une ltration (Fn)n≥0,
telle que E(M2n ) < +∞ pour tout n ≥ 0. Soit
n
X
An = E([Mi − Mi−1 ]2 |Fi−1 )
i=1

Montrer que M2n − An est une (Fn )n≥0 martingale.


Exercice 17. Soit (Yn)P
n≥1 une suite de v.a. i.i.d. avec P(Yi = 1) = p = 1 −
P (Yi = −1). Soit Sn = n
i=1 Yi (et S0 = 0). Montrer que les processus (Wn )n≥0
et (Mn )n≥0 dénit par
Wn = Sn − (2p − 1)n, W0 = 0

et  Sn
1−p
Mn = , M0 = 1
p
sont des martingales par rapport à la ltration naturelle des Yn dénit par Fn =
σ(Y1 , . . . , Yn ) pour n ≥ 1 et F0 = {∅, Ω}.
Exercice 18. Soit (Ω, F, Fn, P) un espace probabilisé ltré, et Xn =
Pn
i=1 1Bn
avec Bn ∈ Fn ∀n.
1. Montrer que (Xn )n est une sous martingale.
2. Donner la décomposition de Doob de Xn .
3. Particulariser au cas Fn = σ(X1 , · · · , Xn ).
Exercice 19. Soit (Xi)i≥1 une suite de variables aléatoires indépendantes equi-
distribuées telles que P(X1 = 1) = P(X1 = −1) P = 21 . Pour n ≥ 0, on note
Fn = σ(X1 , · · · , Xn ) et F0 = {∅, Ω}.On pose Sn = ni=1 Xi .
1. Montrer que (Sn )n , (Sn2 − n)n et (Sn3 − 3nSn )n sont des martingales.
2. Devinez un polynôme P(x, y) de degré 4 en x et de degré 2 en y tel que
(P(Sn , n))n soit une martingale.
3. Montrer que si P est un polynôme à deux variables alors (P(Sn , n))n est
une martingale si et seulement si pour tout s, n ∈ N, on a
P(s + 1, n + 1) + P(s − 1, n + 1) = 2P(s, n)

4. Soit λ ∈ R. Trouver ξ ∈ R tel que (eλSn −ξn )n soit une martingale.


Exercice 20. Soit ξ une variable aléatoire géométrique de paramètre p ∈ ]0, 1[.
Soit, pour tout n ≥ 0, Fn la tribu engendrée par ξ ∧ (n + 1).

29
1. Montrer que :
Fn = σ{{ξ = 0}, {ξ = 1}, . . . , {ξ = n}, {ξ ≥ n + 1}}.

2. Montrer que :
Xn = 1{ξ≤n} − p(ξ ∧ n), n ≥ 0
est une martingale.

30
Bibliographie

[1] V. Girardin, N.Limnios. Probabilités - Processus stochastiques et applications


. Master - Ecoles d'ingénieurs - Agrégation de mathématiques. Vuibert, 2014.
[2] D. Foata and A. Fuchs. Processus stochastiques. Processus de Poisson,
chaînes de Markov et martingales. Sciences Sup, 2e cycle/Master, Agré-
gation, écoles d'Ingénieurs. Dunod, 2006.
[3] J. Neveu. Bases Mathématiques du Calcul des Probabilités. Masson, Paris,
1970.
[4] J. Neveu. Martingales à temps discret. Masson, 1972.
[5] J-F Le Gall. Intégration, Probabilités et Processus Aléatoires. FIMFA, 2006.
[6] J.-Y. Ouvrard. Probabilités, volume 2. Cassini, 2000.
[7] P. Baldi, L. Mazliak, and P. Priouret. Martingales et chaînes de Markov avec
exercices corrigés. Hermann, seconde edition, 2000.
[8] Charles SUQUET. Martingales. Agrégation de Mathématiques, 2009-2010.
[9] Philippe Barbe et Michel Ledoux. Probabilités. Belin, 1998.

31

Vous aimerez peut-être aussi