Vous êtes sur la page 1sur 4

ESPERANCE CONDITIONNELLE INTRODUCTION AUX MARTINGALES

Prparation lagrgation externe de Mathmatiques de luniversit Rennes 1 Anne 2008/2009

1. Esprance conditionnelle 1.1 Introduction Soit X L2 (, F, I ) une var et {A1 , , An } une partition de constitue dvnements de probabilit non nulle. P Notons G la tribu engendre par cette partition. Comme G = {iI Ai , I {1, , n}}, il est naturel de dnir, dans ce cas, lesprance conditionnelle de X sachant G par la relation
n

I E[X|G] =
i=1

I E[X|Ai ]1Ai .

Un calcul montre que cet objet est en fait la projection orthogonale de X sur L2 (, G, I ). On exploite ensuite cette P observation pour exporter la notion desprance conditionnelle au cas dune tribu quelconque. Dnition 1.1 Soient X L2 (, F, I ) une var et G une sous-tribu. On appelle esprance conditionnelle de X sachant P G, que lon note I E[X|G], la projection orthogonale de X sur L2 (, G, I ). P I E(X|G) est donc -au sens de la norme L2 - la meilleure approximation de X par une var G-mesurable, ou encore la meilleure prvision (au mme sens) quon puisse faire de X si on ne dispose que de linformation apporte par G. Cette notion se prolonge de manire isomtrique aux variables seulement intgrables : Dnition-Thorme 1.2 Soient X L1 (, F, I ) une var et G une sous-tribu. Il existe une unique var Y P L1 (, G, I ) telle que A G : I P E(X1A ) = I E(Y 1A ). Cette var Y est appele esprance conditionnelle de X sachant G, et note I E[X|G]. Bien entendu, les deux dnitions coincident ! Lorsque A est un vnement, on pose I [A|G] := I A |G]. Par ailleurs, P E[1 dans le cas o la sous-tribu G est engendre par une va Y , on note habituellement I E[X|Y ] := I E[X|G]. Exercice 1.1 [Formule de Bayes] Soit G une sous-tribu, et A, B deux vnements tels que I (A) = 0 et B G. P Montrer que I [A|G]dI P P . I (B|A) = B P I [A|G]dI P P 1.2 Comment calculer une esprance conditionnelle ? Lorsque X est une var intgrable et Y est une va valeurs dans Z d , on peut toujours crire pour tout y Z d tel que Z Z I (Y = y) = 0 : P 1 I E[X|Y = y] = I E[X1{Y =y} ]. I (Y = y) P Ainsi, si on note la fonction telle que (y) = I E[X|Y = y], on a I E[X|Y ] = (Y ). La formule donnant I E[X|Y = y] ne sexporte pas en gnral dans le cas o Y est valeurs dans I d et pourtant, elle R est abondamment utilise ... Pourquoi ? Daprs le lemme de factorisation de Doob, il existe une fonction borlienne telle que I E[X|Y ] = (Y ). La notation I E[X|Y = y] dsigne alors (y). Il nexiste pas de mthode gnrale pour calculer une esprance conditionnelle. Selon les cas, on peut nanmoins utiliser lune des 3 astuces suivantes :
1 Benot

Cadre - ENS Cachan Bretagne

Astuce 1.1 [Vecteur densit] Soit (X, Y ) un vecteur alatoire valeurs dans I p I q qui possde une densit R R f , et : I p I borlienne telle que (X) est intgrable. Pour I Y -p.t. y : R R P I (X)|Y = y = E
I q R

(x)

f (x, y) dx. fY (y)

Astuce 1.2 [V.a. indpendantes] Soient X, Y des va valeurs dans I d et I p resp., et : I d I p I telle R R R R R que I E|(X, Y )| < . Si Y est indpendante de X, alors I E[(X, Y )|X] =
I p R

(X, y)I Y (dy), p.s. P

Astuce 1.3 [-systme] Soit X une var, G une sous-tribu et P un -systme qui engendre G. Si il existe une var Z qui est G-mesurable et telle que I E[X1A ] = I E[Z1A ] pour tout A P, alors : I E[X|G] = Z p.s. Exercice 1.2 Soient X1 , , Xn des vaiid de loi U[0, 1] et T = sup(X1 , , Xn ). Calculer I E[X1 |T ]. 1.3 Proprits fondamentales de lesprance conditionnelle Proprits 1.1 Soient X, Y des var intgrables et G une sous-tribu. (1.) Si X est G-mesurable, X = I E[X|G] p.s. (2.) a, b R : I E[aX + bY |G] = aI E[X|G] + bI E[Y |G] p.s. (3.) Si X Y p.s., I E[X|G] I E[Y |G] p.s. (4.) Si X est indpendante de G, I E[X|G] = I EX p.s. (5.) Si I E|XY | < et si X est G-mesurable, I E[XY |G] = XI E[Y |G] p.s. Proprits 1.2 X L1 (, F, I ) une var et G1 , G2 des sous-tribus. P (1.) Si G1 G2 , I E[X|G1 ]|G2 ] = I E[X|G2 ]|G1 ] = I E[I E[I E[X|G1 ] p.s. En particulier, I E[X|G1 ]] = I E[I EX p.s. (2.) Si X et G1 sont indpendantes de G2 , I E[X|G1 G2 ] = I E[X|G1 ] p.s. Proprit 1.3 [Ingalit de Jensen] Soient : I I convexe, X L1 (, F, I ) une var et G une sous-tribu. R R P Si I E|(X)| < , alors (I E[X|G]) I E[(X)|G] p.s. Proprits 1.4 Soient (Xn )n des var appartenant L1 (, F, I ), X une var et G une sous-tribu. P (1.) Proprit de Beppo-Lvi : si 0 Xn X lorsque n et I E|X| < , alors I E[Xn |G] I E[X|G] p.s. lorsque n . (2.) Proprit de Lebesgue : si Xn X lorsque n et I supn |Xn | < , alors I E E[|Xn X||G] 0 p.s. lorsque n . (3.) Proprit de Fatou : si Xn 0 p.s. et pour tout n, et si I lim inf n Xn | < , alors I E| E[lim inf n Xn |G] lim inf n I E[Xn |G] p.s. Exercice 1.3 Soient X1 , , Xn des variid de loi intgrable et Sn leur somme. Calculer I E[X1 |Sn ], puis sa limite lorsque n . 2. Martingales 2.1 Introduction Le terme martingale provient du mot provencal "martegalo" dsignant une courroie qui, place sous le ventre dun cheval, relie la sangle la muserolle pour empcher lanimal de trop lever la tte. Cette terminologie fut introduite par de Moivre, peut-tre dans lespoir que les martingales permettraient de "brider" le hasard ? Dnitions 2.1 (1.) Une suite croissante de sous-tribus est appele ltration ; (2.) Soit (Fn )n une ltration. Le processus stochastique (Xn )n est dit (Fn )n -adapt si pour tout n, Xn est Fn mesurable ; (3.) La ltration naturelle du processus (Xn )n est (X0 , , Xn ) n : on dit que (Xn )n engendre cette ltration.

(Xn )n est donc adapt (Fn )n si, chaque instant n, linformation disponible permet de connatre la valeur prise par Xn . De plus, (Xn )n0 engendre (Fn )n0 si, chaque instant n, linformation disponible est exactement celle qui rsulte des valeurs prises par X0 , , Xn . Lorsque (Xn )n engendre (Fn )n , cette ltration est la plus petite ltration qui adapte (Xn )n . Dnition 2.2 [Ville et Lvy]Soit (Xn )n un processus stochastique valeurs relles et (Fn )n une ltration. On dit que (Xn )n est une (Fn )n -(sur ; sous)-martingale si (i) n, Xn est intgrable ; (ii) (Xn )n est (Fn )n -adapt ; (iii) n, I E[Xn+1 |Fn ](; ) = Xn p.s. Noter que lon a alors I E[Xn+p |Fn ](; ) = Xn pour chaque n, p. De plus, si (Xn )n est une (Fn )n -(sur ; sous)martingale, cest aussi une (sur ; sous)-martingale pour sa ltration naturelle. 2.2 Quelques martingales classiques (a.) Marche alatoire. Soient (n )n des variid de moyenne p, et Sn = 0 + + n n. Le processsus (Sn )n est une sur-martingale, sous-martingale ou martingale, selon le signe de p. (b.) Martingale de Doob. Soit Z une var intgrable et (Fn )n une ltration. Le processus (I E[Z|Fn ])n est une (Fn )n -martingale. (c.) Soit (Xn )n une (Fn )n -martingale et : I I une fonction convexe telle que (Xn ) est intgrable n. Le R R processus (Xn ) n est une (Fn )n -sous-martingale. (d.) Soit (Xn )n une chane de Markov homogne valeurs dans E ni, de matrice de transition (pij )i,jE , et : E E une fonction borne et harmonique, i.e. i E : (i) = jE pij (j). Alors ((Xn ))n est une martingale.
n (e.) Processus de Galton-Watson. Soient (i )i,n0 des vaiid, intgrables de moyenne m, et valeurs dans I . N On note Z0 = 1 et pour n 0 : Zn

Zn+1 =
i=1

n+1 i ,

avec la convention

0 i=1

= 0. Le processus (Zn /mn )n est une martingale.

(f.) Intgrale stochastique. Soit (Xn )n une (Fn )n -martingale, et (Yn )n un processus prvisible (i.e. Y0 est F0 mesurable et Yn est Fn1 -mesurable). On suppose en outre que Yn est born. Le processus (Zn )n dni pour tout n par
n

Zn = Y0 X0 +
k=1

Yk (Xk Xk1 )

est une (Fn )n -martingale. Les martingales qui apparaissent ci-dessus peuvent modliser les phnomnes suivants : (a.) Marche de livrogne ... (b.) Z reprsente la taille dun individu lge de 20 ans. Cette taille est fonction dun grand nombre de variables, dont seulement n peuvent tre observes lge de 10 ans. Fn reprsente linformation apporte par ces n variables. Dans ce contexte, I E[Z|Fn ] est la meilleure approximation (pour le critre quadratique) de Z lorsque seule linformation Fn est connue. Cependant, cela ne nous dit pas comment calculer cette esprance conditionnelle ...
n+1 (e.) On considre une population de bactries hermaphrodites. Alors, i reprsente le nombre de "descendants" de la i-me bactrie de la gnration n, m est le taux de fcondit de lespce et Zn recense le nombre dindividus de la gnration n.

(f.) Considrons que, linstant k, Xk est le cours dune action donne et Yk est la quantit dactions dtenues. Le processus (Yn )n est prvisible car le nancier dcide en fonction des cours prcdents combien dactions il va dtenir. Le bnce algbrique ralis entre les instants k-1 et k est Yk (Xk Xk1 ), et la fortune totale accumule linstant n est Zn .

2.3 Convergence p.s. des martingales Thorme 2.1 Soit (Xn )n une sous-martingale borne dans L1 (i.e., supn I E|Xn | < ). Alors, il existe une var intgrable X telle que Xn X p.s. La martingale de Doob et le processus (Zn /mn )n de lexemple (e.) convergent p.s. vers des var intgrables. En particulier, lorsque m < 1, la population de bactries nira donc par steindre. Par ailleurs, une surmartingale positive tant borne dans L1 , on a le rsultat : Corollaire 2.1 Une sur-martingale positive converge p.s. vers une var intgrable. La convergence p.s. nentrane pas la convergence des esprances, ce qui est fcheux en gnral, et tout particulirement pour les martingales qui sont dnies par des esprances conditionnelles : considrons 1 , 2 , des variid telles que I (1 = 0) = I (1 = 2) = 1/2, et Xn = 1 n . Le processus (Xn )n -qui est born dans L1 - est une martingale qui P P converge p.s. vers 0, mais qui ne converge pas dans L1 . La bonne condition pour sassurer une convergence L1 fera lobjet dun prochain cours. En revanche, pour ce qui concerne la convergence dans L1 , le traitement des martingales de carrs intgrables est plus simple. Soit (Xn )n0 une martingale borne dans L2 (elle converge p.s. car elle est en particulier borne dans L1 ). 2 Comme (Xn )n0 est une sous-martingale, la suite (I n )n0 est croissante, et elle est aussi borne, donc elle converge. EX 2 Or, pour chaque n p 0 : I E(Xn Xp )2 = I n I p , EX 2 EX 2 ce qui montre que (Xn )n0 est une suite de Cauchy dans L2 .

REFERENCES D. Dacunha-Castelle et M. Duo, Probabilits et statistiques - Tome 2 : Problmes temps mobile (Cours et Exercices), Masson, 1983. D. Foata et A. Fuchs, Processus stochastiques - Processus de Poisson, chanes de Markov et martingales, Dunod, 2002. J. Neveu, Martingales temps discret, Masson, 1972. J.-Y. Ouvrard, Probabilits 2 : matrise agrgation, Cassini, 2001. D. Williams, Probability with martingales, Cambridge University Press, 1991.

Vous aimerez peut-être aussi