Vous êtes sur la page 1sur 7

Université Paris VI

Master 1 : Modèles stochastiques pour la finance

TD 3 et 4 : Processus à temps discret et Martingales

1. Conditionnement dans un exemple simple 1 Soit Ω = {1, . . . , 5} muni de la tribu


F = P(Ω). Soit X, Y : Ω → R définies par X(1) = X(2) = 0, X(3) = 1, X(4) = X(5) = 2
et Y (ω) = ω 2 pour tout ω ∈ Ω.
a) Donner la tribu σ(X) engendrée par X (rappel : c’est la plus petite tribu G de Ω
telle que X : (Ω, G) → (R, B(R)) est mesurable, i.e. l’intersection de ces tribus).
b) On munit Ω de la loi uniforme. Donner E(Y |σ(X)).
c) Même question si la loi choisie n’est plus la loi uniforme sur ω, mais (p1 , . . . , p5 )
avec p1 = p2 = 1/4 et p3 = p4 = p5 = 1/6.
Solution : a) Soit une tribu G de Ω telle que X : (Ω, G) → (R, B(R)) est mesurable.
On a, pour tout y ∈ R, X −1 ({y}) ∈ G. Donc G contient {1, 2}, {3} et {4, 5}. Ainsi, la
tribu G0 engendrée par {1, 2}, {3} et {4, 5} (qui est l’ensemble des unions de 0,1, 2 ou
3 ensembles pris parmi {1, 2}, {3} et {4, 5}) est contenue dans σ(X). Par ailleurs, X est
G0 -mesurable, donc σ(X) ⊂ G0 . Ainsi, σ(X) = G0 .
b) Soit Z = E(Y |σ(X)). Z est σ(X)-mesurable, donc constante sur chacun des en-
sembles {1, 2}, {3} et {4, 5}. Par ailleurs, si E est un de ces trois ensembles, on a

E(Z 1E ) = E(Y 1E ).

Donc, en notant zE la valeur de Z sur E, on a


1 1X
zE Card(E) = Y (ω),
5 5 ω∈E

d’où
1 X
zE = Y (ω).
Card(E) ω∈E

On en déduit z{1,2} = 5/2, z{3} = 9, z{4,5} = 41/2.


c) Soit Z = E(Y |σ(X)). Z est σ(X)-mesurable, donc constante sur chacun des en-
sembles {1, 2}, {3} et {4, 5}. Par ailleurs, si E est un de ces trois ensembles, on a

E(Z 1E ) = E(Y 1E ).

Donc, en notant zE la valeur de Z sur E, on a


X X
zE pω = pω Y (ω),
ω∈E ω∈E

d’où
1 X
zE = P pω Y (ω).
ω∈E pω ω∈E

1
On en déduit z{1,2} , z{3} , z{4,5} .
2. Conditionnement dans un exemple simple 2 Soit Ω un ensemble fini muni de la
tribu F = P(Ω) et d’une loi P (telle que pour tout E ⊂ Ω, P (E) = 0 ⇒ E = ∅).
a) Soit A = {A1 , . . . , Ap } une partition de Ω, c’est à dire une partie de P(Ω) dont les
éléments sont non vides, 2 à 2 disjoints et d’union Ω. Montrer que la tribu σ(A) engendrée
par A (c’est à dire la plus petite tribu contenant A, c’est à dire l’intersection des tribus
contenant A) est
σ(A) = {∪rj=1 Aij ; 1 ≤ i1 < · · · < ir ≤ p}.
b) Soit Y : Ω → R. Montrer que
p
yi 1Ai ,
X
E(Y |σ(A)) =
i=1
P
P ({ω})Y (ω)
avec yi = ω∈AiP (Ai ) pour tout i.
c) Soit X : Ω → R prenant exactement p valeurs 2 à 2 distinctes x1 , . . . , xp . Montrer
que
σ(X) = σ({X −1 ({x1 }), . . . , X −1 ({xp })}).

Solution : Les démonstrations sont des généralisations de celles de l’exercice 1.


3. Questions basiques sur les filtrations 1. Une union de tribus est-elle toujours une
tribu ?
2. Soit (Fn ) une filtration (suite croissante de tribus) d’un ensemble Ω. ∪n∈N Fn est-elle
toujours une tribu ?
3. Que dire d’une martingale (resp. d’une sous-martingale, d’une sur-martingale) par
rapport à une filtration constante (i.e. telle que Fn = F0 pour tout n) ? Que dire d’un
temps d’arrêt par rapport à une filtration constante ?
Solution : 1. Non, si Ω = {1, 2, 3}, alors F = {∅, Ω, {1}, {2, 3}}, G = {∅, Ω, {1, 2}, {3}}
sont des tribus, mais pas F ∪ G car {2} = {2, 3} ∩ {1, 2} ∈ / F ∪ G.
2. Non, si l’on prend Ω = [0, 1[, et pour tout n, Fn = σ([(i−1)/2n , i/2n [ ; i = 1, · · · , 2n ),
alors ∪n∈N Fn est l’ensemble des unions finies d’intervalles du type [(i − 1)/2n , i/2n [, avec
n ≥ 0, i = 1, · · · , 2n . Cet ensemble n’est pas une tribu, sinon, il serait égal à la tribu
qu’il engendre, et la tribu qu’il engendre est l’ensemble des boréliens de Ω, par densité
des nombres dyiadiques dans Ω.
3. C’est une suite p.s. constante (resp. p.s. croissante, décroissante) d’éléments de
L1 mesurables par rapport à cette tribu. Un temps d’arrêt par rapport à une filtration
constante est une v.a. à valeurs dans N̄ mesurable par rapport à cette tribu.
4. Conditionnement et indépendance 1. Soient X et Y deux variables aléatoires
indépendantes de lois de Bernoulli de paramètres p, q ∈]0, 1[. On pose Z = 1{X+Y =0} et
G = σ(Z). Calculer E(X | G) et E(Y | G).
2. Ces deux variables aléatoires sont-elles indépendantes ?
3. Soient Z, T des variables aléatoires définies sur un même espace de probabilité
(Ω, A, P ) à valeurs dans des espaces mesurables quelconques (Ω0 , A0 ), (Ω00 , A00 ) telles que
pour toute sous-tribu B de A, pour toutes fonctions numériques mesurables bornées

2
f, g définies respectivement sur (Ω0 , A0 ), (Ω00 , A00 ), E(f (Z)|B) et E(g(T )|B) sont indé-
pendantes. Montrer que Z ou T est p.s. constante.
Solution : 1. Les ensembles {Z = 0} et {Z = 1} forment une partition de Ω qui
engendre G. Ainsi,

E(X|G) = E (X|Z = 0) 1{Z=0} + E (X|Z = 1) 1{Z=1} .

Sur {Z = 0}, X = 0 p.s et donc E(X|Z = 0) = 0. De plus,

P (X = 1)
E (X|Z = 1) =
P (X + Y ≥ 1)
P (X = 1)
=
1 − P (X + Y = 0)
p p
= = .
1 − (1 − p)(1 − q) p + q − pq

Ainsi,
p
E(X|G) = 1{Z≥1} .
p + q − pq
Les rôles de X et Y étant symétriques,
q
E(Y |G) = 1{Z=≥1} .
p + q − pq

2. Les variables aléatoires E(X|G) et E(Y |G) sont donc proportionnelles p.s et non
constantes, elles ne sont donc pas indépendantes.
3. Supposons que ni Z, ni T ne soient p.s. constantes. Alors il existe les ensembles
mesurables A, B des espaces d’arrivée respectifs de Z, T tels que X := 1A (Z), Y := 1B (T )
soient des v.a. de loi de Bernouilli de paramètres p, q ∈]0, 1[. X et Y sont indépendantes
(par hypothèse en conditionnant avec la tribu A). Par ce qui précède, l’hypothèse est mise
en défaut.
5. Rappels : Martingales et sur-martingales.
On se place sur une espace de probabilité (Ω, F, P) muni de la filtration F = (Fn )n≥0 .
1. Soit Y ∈ L1 . On définit le processus X = (Xn )n≥0 par Xn = E(Y | Fn ). Montrer
que X est une F-martingale.
2. Soit (Xn ) une sous-martingale et une fonction convexe croissante ϕ : R 7→ R telle
que pour tout n, ϕ(Xn ) ∈ L1 . Montrer que (ϕ(Xn ))n≥0 est une sous-martingale pour F.
3. Soit (Xn ) une sous-martingale et K ∈ R. Montrer que (Xn ∨ K)n≥0 est une sous-
martingale pour F.
4. On suppose que Y ∈ L1 est FN −mesurable et on définit Z = (Zn )n≤N par ZN = Y
et Zn = ξn ∨ E [Zn+1 | Fn ] pour n ≤ N − 1 où ξ = (ξn )n≥0 est F−adapté et borné. Montrer
que Z est une sur-martingale.
5. Soit (Xn ) une martingaleP et H = (Hn )n≥0 un processus F-prévisible borné. On
définit V = (Vn )n≥0 par Vn = nk=1 Hk (Xk − Xk−1 ) pour n ≥ 0. Montrer que V est une
martingale pour F.

3
6. Montrer qu’un processus prévisible intégrable est une martingale ssi il est p.s.
constant.
7. Soit (Xn ) une martingale L2 et telle que Xn+1 − Xn est indépendant de Fn pour
tout n ≥ 0. Montrer que W = (Wn )n≥0 défini par Wn = (Xn − E [Xn ])2 − Var(Xn ) pour
n ≥ 0 est une martingale.
Solution : 1. C’est simplement une application de la transitivité de l’espérance condi-
tionnelle : si B ⊂ A sont des tribus, alors pour tout X ∈ L1 , E(X|B) = E(E(X|A)|B).
2. On a, pour tout n,

E(ϕ(Xn+1 )|Fn ) ≥ ϕ(E(Xn+1 |Fn )) ≥ ϕ(Xn )

car ϕ est convexe et croissante et (Xn ) une sous-martingale.


3. C’est une application de la question précédente pour ϕ(x) = x ∧ K.
4. a) Zn est clairement adapté et on montre par récurrence décroissante que Zn , su-
premum de deux fonctions intégrables, est intégrable.
b) Pour tout n, Zn ≥ E [Zn+1 | Fn ].
5. Tout d’abord, comme somme de produit de v.a. Fn -mes, Vn est Fn -mes. Ensuite,
Vn est clairement L1 car les Hk sont bornés et les Xk sont L1 . Enfin,

E(Vn+1 |Fn ) = Vn + E(Hn+1 (Xn+1 − Xn )|Fn ) = Vn + Hn+1 E(Xn+1 − Xn |Fn ) = Vn .

6. Tout processus p.s. constant est une martingale et réciproquement, si H = (Hn )n≥0
un processus F-prévisible et une F-martingale, on a pour tout n, p.s.

Hn = E(Hn+1 |Fn ) = Hn+1 .

7. Posons Yn = Xn − E [Xn ]. Ce processus satisfait les mêmes hypothèses que Xn


en étant en plus centré, et l’exercice revient à montrer que Zn := Yn2 − E(Yn2 ) est une
martingale. Notons que l’on a alors E(Yn+1 Yn ) = E(Yn2 ) (commencer par conditionner par
Fn ). Par ailleurs, par indépendance, on a E((Yn+1 − Yn )2 |Fn ) = E((Yn+1 − Yn )2 ). Il en
résulte, en écrivant
2
Zn+1 −Zn = Yn+1 −Yn2 −E(Yn+1
2
)+E(Yn2 ) = (Yn+1 −Yn )2 +2Yn+1 Yn −2Yn2 −E(Yn+1
2
)+E(Yn2 ),

que l’on a E(Zn+1 − Zn |Fn ) = 0.


6. Une application du théorème d’arrêt.
n
X
On considère une suite Xn = ξi , avec (ξi )i≥1 v.a.i.i.d. de loi 21 (δ−1 +δ1 ). On introduit
i=1
la filtration Fn = σ(ξ1 , . . . , ξn ). Soit a < 0 < b entiers. On définit Ta,b = inf{n ≥ 1 ; Xn =
a ou b}.
1. Que peut-on dire de (Xn ) et de Ta,b ?
2. Montrer que Ta,b est presque sûrement fini (on pourra considérer, pour p ∈ N,
l’événement Ap = {ξp(b−a)+1 = · · · = ξp(b−a)+(b−a) = 1}).
3. Donner la loi de XTa,b .
Solution : 1. Les ξi étant indépendants et centrés, Xn est une martingale par rapport
à la filtration Fn . Ta,b est un temps d’arrêt.

4
2. Les événements Ap sont indépendants, de probabilité > 0, donc on est presque sûr
que l’un d’entre eux se produira. Mais pour tout p, sur Ap , Ta,b ≤ p(b − a) + (b − a). Donc
Ta,b est presque sûrement fini.
3. Appliquons le théorème d’arrêt : on sait que pour tout n ∈ N, E(XTa,b ∧n ) = E(X0 ) =
0. Par convergence dominée, en faisant tendre n vers l’infini, par convergence dominée
(car pour tout n, a ≤ XTa,b ∧n ≤ b), on obtient, comme Ta,b est presque sûrement fini :
E(XTa,b ) = 0, soit
aP (XTa,b = a) + bP (XTa,b = b) = 0,
ce qui permet de conclure, avec

P (XTa,b = a) + P (XTa,b = b) = 1.

7. Martingales exponentielles.
On reprend l’exercice précédent et on définit le processus Z = (Zn )n≥0 par Zn = eXn
pour n ≥ 0.
1. Montrer que Z est une sous-martingale pour F.
2. Trouver un processus F-prévisible B = (Bn )n≥0 issu de 1 en 0 tel que U = (Un )n≥0
défini par Un = Bn Zn pour chaque n ≥ 0 soit une martingale.
3. Donner E [Zn ] pour tout n ≥ 0.
Solution : 1. Il suffit de remarquer que exp est croissante et convexe.
2. On a Xn+1 = Xn + n , donc

E(Zn+1 |Fn ) = Zn E(en+1 |Fn ) = Zn cosh(1)

par indépendance. Donc Bn = cosh(1)−n convient.


3. E(Un ) est constante égale à un, donc E(Zn ) = 1/Bn .
8. Jeu de pile ou face et temps d’arrêts.
On considère deux joueurs qui jouent à pile ou face. Le joueur 1 donne (resp. reçoit) 1
euro si face apparaît (resp. si pile apparaît). Le jeu est répété plusieurs fois. On modélise
le jeux comme suit. Soit X = (Xn )n≥1 une suite de variables aléatoires i.i.d. de loi de
Bernouilli B(1/2) définie sur un espace de probabilité (Ω, F, P). L’évènement {Xn = 1}
signifie
Pn que pile est apparu au n-eme tirage. On définit la suite Y = (Yn )n≥0 par Yn =
i=1 (2Xi − 1) pour n ≥ 0. Le processus Y correspond à la richesse du joueur 1 après
les différents tirages. Après chaque tirage, les joueurs connaissent la valeur obtenue aux
tirages précédents, leur information peut donc être modélisée par la filtration F = (Fn )n≥0
où Fn = σ(Xk , k ≤ n).
1. Ecrire la dynamique de Y (i.e. la relation entre Yn+1 et Yn ) et montrer que c’est une
martingale pour F.
2. Le joueur 1 décide d’arrêter de jouer si il a déjà gagné 100 euros où si le nombre
de tirages atteint N ∈ N∗ et le joueur 2 est disposé à continuer à jouer jusqu’à ce que le
joueur 1 s’arrête : le jeux s’arrête au temps τ := inf{n ≥ 0 : Yn = 100} ∧ N . Montrer
que τ est un F-temps d’arrêt, i.e. que {τ ≤ n} ∈ Fn pour tout n ≥ 0.
3. Quelle est, avec cette stratégie, l’espérance de gain du joueur 1 ?

5
4. Y a-t-il une stratégie qui donne au joueur 1 une espérance un gain strictement
positive en un temps borné ? Autrement dit, existe-t-il une v.a. σ à valeur dans N, bornée,
telle que pour tout n, {σ = n} ∈ Fn et telle que E(Yσ ) > 0 ?
5. Soit M ∈ N∗ et κ = inf{n ≥ 0|Yn = M }. κ est-elle bornée p.s. ?
Solution : 1. Les v.a. Xi0 := 2Xi −1 sont indépendantes et centrées, la tribu engendrée
par X10 , . . . , Xn0 est Fn , donc Yn est une F-martingale.
2. Pour tout n, {τ ≤ n} = Ω ∈ Fn si n ≥ N et {τ ≤ n} = {Y1 ≥ 100} ∪ · · · ∪ {Yn ≥
100} ∈ Fn .
3. L’espérance de gain du joueur 1 si le jeu s’arrête en τ est E(Yτ ). Or on sait (théorème
d’arrêt) que (Zn := Yn∧τ )n est une martingale. De plus, τ = τ ∧ N . Donc

E(Yτ ) = E(ZN ) = E(Z0 ) = 0.

4. Une telle v.a. σ est un temps d’arrêt, donc (Hn := Yn∧σ )n est une martingale, et si
K entier est tel que σ ≤ K p.s., alors, Yσ = HK p.s., donc E(Yσ ) = E(HK ) = E(H0 ) = 0.
Donc il n’existe pas de telle stratégie.
5. Par la question précédente, la réponse est non.
9. Doubling strategies. On considère un jeu répété avec tirages indépendants et même
probabilité de succès que d’échec à chaque tirage. A chaque coup, on mise un montant x,
que l’on remporte si on gagne et que l’on paye si on perd. Un joueur, partant de fortune
initiale nulle, suit la stratégie suivante. Il joue 1 au premier tour et si sa dette est de
D au n−ème tirage, il mise un montant 2D au tirage suivant (somme qu’il finance par
emprunt) et s’arrête de jouer la première fois qu’il gagne. On suppose que les emprunts
sont sans intérêt. On pourra faire comme si les tirages continuent après que le joueur aie
arrêté de jouer, mais sa fortune n’évolue plus.
1. Modéliser le jeu en introduisant un espace de probabilité muni d’une filtration
adéquate. Donner l’espérance de la fortune du joueur après le n-ème tirage.
2. Montrer que le joueur gagne en un nombre de coups fini avec probabilité 1. Ce
nombre est-il presque sûrement borné ?
Solution : 1. Introduisons une suite (Xi ) de vaiid valant ±1 avec probas 1/2, 1/2
représentant les tirages successifs (1 = succès, −1 = échec). Soit τ = min{i/Xi = 1}.
Alors la fortune du joueur au temps n est (Zn∧τ ), où Z0 = 0, Z1 = X1 et pour tout n ≥ 1,
(
3Zn si Xn+1 = −1,
Zn+1 =
−Zn sinon.

Il faut donc calculer E(Zn∧τ ). Pour ce faire, on va montrer que (Zn ) est une martingale
par rapport à la filtration Fn := σ(X1 , . . . , Xn ). Le processus est clairement a dapté,
|Zn | ≤ 3n donc on a intégrabilité, et l’égalité de martingale peut se monter en écrivant

∀n ≥ 1, Zn+1 = Zn (1 − 2Xn+1 )

ou
∀n ≥ 1, Zn+1 = h(Zn , Xn+1 )
avec h(z, x) = 3z si x < 0 et −z si x ≥ 0.

6
On en déduit, comme τ est un temps d’arrêt, que E(Zn∧τ ) = E(Z0 ) = 0.
2. La probabilité que le joueur perde aux coups 1, 2, . . . , n vaut 2−n . Ces événement
sont imbriques les uns dans les autres, donc la probabilité que le joueur perde tout le
temps est la limite de cette probabilité, soit 0. Ainsi, le joueur gagne en un nombre de
coups fini (égal à τ ) avec probabilité 1. τ n’est pas presque sûrement borné : sinon, on
aurait E(Zτ ) = E(Z0 ) = 0, ce qui est absurde car Zτ > 0. On peut aussi dire que pour
tout n, la proba que τ soit supérieur à n est 2−n > 0.
10. Une réciproque du théorème d’arrêt. Soit (Xn )n≥0 un processus sur un espace
de probabilité filtré (Ω, F, (Fn )n≥0 , P) intégrable et adapté. Montrer que, si l’on a E(Xτ ) =
E(X0 ) pour tout temps d’arrêt borné τ , alors (Xn )n≥0 est une martingale.
Solution :
On remarque que E(Xn ) = E(X0 ) pour tout n ≥ 0. De plus, pour n ≥ 0, et A un
ensemble Fn -mesurable, on considère

τ = n1A + (n + 1)1Ac .

Pour tout 0 ≤ k ≤ n−1, {τ ≤ k} = ∅ ; {τ ≤ n} = A ; et pour tout k ≥ n+1, {τ ≤ k} = Ω.


Donc, τ est un temps d’arrêt et il est borné. Donc

E(Xτ ) = E(Xn 1A ) + E(Xn+1 1Ac ) = E(Xn+1 )

ce qui implique que E(Xn 1A ) = E(Xn+1 1A ). Cette égalité étant vérifiée pour tous les
ensembles Fn -mesurables, on a E(Xn+1 |Fn ) = Xn .

Vous aimerez peut-être aussi