Vous êtes sur la page 1sur 6

Processus aléatoires ENS Paris, 2013/2014

Bastien Mallein
Bureau V2

TD 8 – Espérance conditionnelle
31 mars 2014

Dans toute la suite, (Ω, F, P) représente un espace de probabilité.

1 Propriétés élémentaires des espérances conditionnelles


Exercice 1 (Positivité de l’espérance conditionnelle). Soient G une sous-tribu de F et X une variable
aléatoire positive sur Ω. Montrer que {E[X|G] > 0} est le plus petit ensemble G-mesurable (aux ensembles
négligeables près) qui contient {X > 0}.
Démonstration. E(X|G) est une variable aléatoire G-mesurable, donc {E[X|G] > 0} ∈ G. De plus, on a

E(X1{E(X|G)=0} ) = E(E(X|G)1{E(X|G)=0} ) = 0,

donc {X > 0} ⊂ {E(X|G) > 0} aux ensembles négligeables près. D’autre part, pour tout A ∈ G tel que
{X > 0} ⊂ A, on a
0 = E(X1{Ac } ) = E(E(X|G)1{Ac } ),
donc {E(X|G) > 0} ⊂ A aux ensembles négligeables près.
Exercice 2 (Indépendance des espérances conditionnelles). 1. Soient X et Y deux variables aléatoires
indépendantes de loi de Bernoulli de paramètre p, q ∈ (0, 1). On pose Z = 1{X+Y >0} et G = σ(Z).
Calculer E[X|G] et E[Y |G]. Ces deux variables aléatoires sont-elles indépendantes ?
2. Soient U, T des variables aléatoires à valeurs dans des espaces mesurables quelconques (E, A) et (F, B)
telles que pour toute sous-tribu G de F, pour toutes fonctions (f, g) : E × F → R2 mesurables bornées,
E[f (U )|G] et E[g(T )|G] sont indépendantes. Montrer que U ou T est constante.
Démonstration. Les ensembles {Z = 0} et {Z = 1} forment une partition de Ω, de plus
p q
E(X|Z = 0) = E(Y |Z = 0) = 0 et E(X|Z = 1) = , E(Y |Z = 1) = ,
p + q − pq p + q − pq
d’où qE(X|G) = pE(Y |G), qui sont proportionnelles donc non-indépendantes.
On choisit pour f = 1A et g = 1B , avec A ∈ A et B ∈ B. Le résultat précédent implique que pour tout
A, B ∈ A × B, soit P(U ∈ A) ∈ {0, 1}, soit P(T ∈ B) ∈ {0, 1}, ce qui implique bien que l’une de ces variables
aléatoires est constante.
Exercice 3 (Symétrie par rapport au pipe). On se donne deux variables aléatoires réelles positives X et Y ,
et on suppose que E[X|Y ] = Y et E[Y |X] = X.
1. Montrer que si X et Y sont dans L2 , alors X = Y p.s.

1
2. Montrer que pour toute variable aléatoire positive Z et tout a ≥ 0,

E[Z|Z ∧ a] ∧ a = Z ∧ a.

3. Montrer que le couple (X ∧ a, Y ∧ a) vérifie les mêmes hypothèses que le couple (X, Y ), et en déduire
que X = Y p.s.
Démonstration. On calcule
E((X − Y ))2 = E(X 2 ) + E(Y 2 ) − 2E(XY ),
or E(XY ) = E(XE(Y |X)) = E(X 2 ) = E(Y 2 ), donc X = Y p.s.
Soit a > 0, on a

E(Z|Z ∧ a) = E(Z1{Z<a} |Z ∧ a) + E(Z1{Z≥a} |Z ∧ a)


= E(Z ∧ a1{Z∧a<a} |Z ∧ a) + E(Z1{Z∧a=a} |Z ∧ a)
= Z ∧ a1{Z∧a<a} + E(Z1{Z≥a} |Z ∧ a)1{Z∧a=a}

dès lors E(Z|Z ∧ a) ∧ a = Z ∧ a.


On utilise alors l’inégalité de Jensen

E(X ∧ a|Y ∧ a) ≤ E(X|Y ∧ a) ∧ a

or E(X|Y ∧ a) ∧ a = E(E(X|Y )|Y ∧ a) ∧ a = E(Y |Y ∧ a) ∧ a = Y ∧ a. Par conséquent, on a

E(X ∧ a|Y ∧ a) ≤ Y ∧ a and E(Y ∧ a|X ∧ a) ≤ X ∧ a.

En particulier, E(X ∧ a) ≤ E(Y ∧ a), par conséquent,

E(E(X ∧ a|Y ∧ a) − Y ∧ a) = 0,

d’où on conclut E(X ∧ a|Y ∧ a) = Y ∧ a, car une variable aléatoire négative d’espérance nulle est nulle.
On conclut en utilisant que X ∧ a et Y ∧ a sont dans L2 .

2 Calculs d’espérances conditionnelles


Exercice 4 (Un calcul de loi conditionnelle). On se donne deux réels a et b strictement positifs, et (X, Y )
une variable aléatoire à valeurs dans Z+ × R+ dont la loi est caractérisée par
t
(ay)n
Z
P(X = n, Y ≤ t) = b exp(−(a + b)y)dy.
0 n!
Y
Déterminer, pour toute fonction h mesurable bornée, E[h(Y )|X], et en déduire E[ (X+1) ]. Calculer ensuite
E[1{X=n} |Y ] et enfin E[X|Y ].

Démonstration. On calcule pour commencer


Z +∞ n
(ay)n −(a+b)y

b a
P(X = n) = b e dy = .
0 n! a+b a+b

2
On a donc
y X −(a+b)y
Z
X+1
E(h(Y )|X) = (a + b) e dy,
R+ X!
dès lors
((a + b)y)X+1 −(a+b)y
  Z 
Y 1
E =E e dy = .
X +1 R + (X + 1)! a + b
De plus, on a Z t
P(Y ≤ t) = b e−by dy,
0
par conséquent,
(aY )n −aY
P(X = n|Y ) = e ,
n!
donc E(X|Y ) = aY .

Exercice 5 (Espérance conditionnelle de variables aléatoires exponentielles). Soient X1 , . . . , Xn des variables


aléatoires indépendantes de même loi exponentielle de paramètre λ. On note T = X1 + . . . + Xn . Calculer
E[h(X1 )|T ] pour toute fonction h : R → R borélienne bornée. Que remarque-t-on lorsque n = 2 ?
En déduire que, pour tout t > 0,
h i
E[h(X1 , X1 + X2 , . . . X1 + · · · + Xn−1 )|T = t] = E h(tU (1) , . . . tU (n−1) ,

avec U (1) , . . . U (n−1) le réordonnement de U1 , . . . Un−1 des variables aléatoires i.i.d. de loi uniforme sur [0, 1].
Démonstration. Soit k ∈ N, on note sk = x1 + · · · + xk , on a alors
ZZZ
E(h(X1 )f (T )) = λn e−λ(x1 +···+xn ) h(x1 )f (x1 + · · · + xn )dx
Rn
+
ZZZ
= λn e−λsn h(s1 )f (sn )ds
0≤s1 ≤···≤sn
λn
Z
= h(s)f (t)(t − s)n−2 e−λt dsdt,
(n − 2)! 0≤s≤t

donc
T
λn
Z
E(h(X1 )|T ) = h(s)(T − s)n−2 ds.
0 (n − 2)!
En particulier, si n = 2 la loi de X1 conditionnellement à T est uniforme sur [0, T ].
On observe également que

(n − 1)!
ZZZ ZZZ
h i 1
E h(tU (1) , tU (n−1) ) = n−1 h(s(1) , . . . s(n−1) )ds = n−1 h(s1 , . . . sn−1 )ds.
t [0,t]n−1 t 0≤s1 ≤···≤sn−1

D’autre part
ZZZ
E[h(X1 , X1 + X2 , . . . X1 + · · · + Xn−1 )f (T )] = λ n
h(s1 , . . . sn−1 )f (sn )e−λsn
0≤s1 ···≤sn

3
et
+∞
λn
Z
E(f (T )) = f (t)tn−1 e−λt dt.
(n − 1)! 0

Exercice 6 (Convergence conditionnelle). On se donne (Xi )i≥1 et (Fi )i≥1 une suite de variables aléatoires
positives et une suite de sous-tribus de F. On suppose que E[Xi | Fi ] converge en probabilité vers 0.
1. Montrer que (Xi )i≥1 converge en probabilité vers 0.
2. Montrer que la réciproque est fausse.
Démonstration. Raisonnons par l’absurde, et supposons qu’il existe  > 0 tel que P(Xi > ) >  infiniment
souvent. On pose Ai = {E(Xi |Fi ) > 2 /10}, par hypothèse on a limi→+∞ P(Ai ) = 0. Dès lors, P(Xi >
, Aci ) ≥ /2 pour une infinité de i. Dès lors

E[Xi 1Aci ] = E(E[Xi |Fi ]1Aci ) ≤ 2 /10

2
E(Xi 1Aci ] ≥ E(Xi 1{Xi >,Aci } ) ≥ ,
2
ce qui est une contradiction.

3 Pour aller plus loin


Exercice 7 (Indépendance conditionnelle). On dit que deux variables aléatoires X et Y sont indépendantes
conditionnellement à G si pour toutes fonctions f et g de R dans R mesurables positives,

E[f (X)g(Y )|G] = E[f (X)|G]E[g(Y )|G].

1. Que signifie ceci si G = {∅, Ω} ? Si G = F ?


2. Montrer que la définition précédente équivaut à : pour toute variable aléatoire G-mesurable positive Z,
pour toutes fonctions f et g de R dans R mesurables positives,

E[f (X)g(Y )Z] = E[f (X)ZE[g(Y )|G]],

et aussi à : pour toute fonction g de R dans R mesurable positive,

E[g(Y )|G ∨ σ(X)] = E[g(Y )|G].

Démonstration. Si G est triviale, c’est la définition de l’indépendance, si c’est F, les variables aléatoires sont
toujours indépendantes.
On suppose que pour toutes fonctions f, g mesurables positives, on a

E(f (X)g(Y )|G) = E(f (X)|G)E(g(Y )|G).

Dès lors, pour toute variable aléatoire G-mesurable positive, alors

E(f (X)g(Y )Z) = E [E(f (X)g(Y )|G)Z]


= E [E(f (X)|G)E(g(Y )|G)Z]
= E [f (X)E(g(Y )|G)Z] .

4
Réciproquement, on suppose que pour toute fonction mesurable positive f, g, et pour toute variable aléatoire
G-mesurable positive Z,
E(f (X)g(Y )Z) = E [f (X)E(g(Y )|G)Z] .
Alors, comme ZE(g(Y )|G) est G-mesurable positive, on a

E(f (X)g(Y )|G) = E(f (X)|G)E(g(Y )|G).

De plus, sous ces conditions, pour tout borélien produit de σ(X) ∨ G, de la forme {X ∈ H} ∩ G, on a

E(g(Y )1{X∈H} 1G ) = E(g(Y )|G)1{X∈H} 1G ).

ce qui caractérise la variable aléatoire E(G(Y )|G ∨ σ(X)). La réciproque est évidente.
Exercice 8 (Convergence L2 de martingale rétrograde). Soit (Fn , n ≥ 0) une suite décroissante de sous-tribus
de F, avec F0 = F. Soit X une variable aléatoire de carré intégrable.
1. Montrer que les variables E[X|Fn ] − E[X|Fn+1 ] sont orthogonales dans L2 , et que la série
X
(E[X|Fn ] − E[X|Fn+1 ])
n≥0

converge dans L2 .
T
2. Montrer que si F∞ = n≥0 Fn , on a

lim E[X|Fn ] = E[X|F∞ ] dans L2 .


n→∞

Démonstration. On calcule, pour m < n

E [(E(X|Fn+1 ) − E(X|Fn )) (E(X|Fm+1 ) − E(X|Fm ))]


= E [E(X|Fn+1 )E(X|Fm+1 ) − E(X|Fn+1 )E(Y |Fm ) + E(X|Fn )E(Y |Fm+1 ) − E(X|Fn )E(X|Fm )]
= E E(X|Fm+1 )2 − E(X|Fm )2 + E(X|Fm+1 )2 − E(X|Fm )2
 

=0

ce qui montre que la famille est orthogonale. De plus, pour m = n, on a


h i
2
E (E(X|Fn+1 ) − E(X|Fn )) = E E(X|Fn )2 − E(X|Fn+1 )2 ,
 

P h 2
i
donc E (E(X|Fn+1 ) − E(X|Fn )) < +∞, d’où la convergence de la série dans L2 , par critère de Cauchy
dans L2 .
On déduit de la question précédente que E(X|Fn ) converge, on note Y la variable aléatoire limite. Par
décroissance des tribus, on a Y est Fn -mesurable pour tout n. C’est donc une variable aléatoire F∞ -mesurable.
Or, par Jensen,
Y = E(Y |F∞ ) = lim E [E(X|Fp )|F∞ ] = E(X|F∞ )
p→+∞
2
où la limite est prise dans L .

5
Exercice 9 (Biais par la taille conditionnel). Soit X une variable aléatoire strictement positive p.s. telle que
E(X) = 1. On définit la mesure de probabilité P b par

∀A ∈ F, P(A)
b = E (1A X) .

Soit G une sous-tribu de F, montrer que pour toute variable aléatoire intégrable Y ,
b |G] = E[XY |G]
E[X|G]E[Y p.s.

En déduire une condition pour que P(·|G) = P(·|G)


b

Démonstration. Soit Y une variable aléatoire mesurable, et Z une variable aléatoire G-mesurable, on a
h i
b |G] = E
b Z E[Y
E b [Y Z] = E(XY Z) = E [ZE[XY |G]] .

Et d’autre part h i h i h i
b |G] = E XZ E[Y
b Z E[Y
E b |G] = E Z E[Y
b |G]E(X|G) ,

on a donc égalité.
En particulier, si X est une variable aléatoire G-mesurable, on a
b |G] = E(Y |G).
E[Y

Exercice 10 (Propagation de la rumeur). Soit p ∈ (0, 1), on considère le modèle de propagation de la rumeur
suivant. L’information initiale est 1, et chaque individu qui entend la rumeur (à la génération k) la transmet
à deux nouvelles personnes (à la génération k +1) avec probabilité p, ou transmet l’information contraire avec
probabilité 1 − p. Quel est la probabilité qu’il existe un individu à la génération k possédant l’information
initiale jamais dégradée ? Calculer l’espérance et la variance de Zk le nombre d’individus à la génération k
qui ont reçu l’information 1. Montrer que 2−n Zn converge p.s.