Vous êtes sur la page 1sur 10

École des Mines de Nancy Année 2017-2018

Denis Villemonais, denis.villemonais@univ-lorraine.fr

FICM 2A – Probabilités

TD 1. Espérance conditionnelle (corrigé)

Dans tous les exercices, (Ω, F , P) est un espace de probabilité sur lequel sont
définies les variables aléatoires considérées. Ces variables aléatoires sont donc
en particulier F -mesurables.

Exercice 1. Soit B ⊂ F une tribu. Soient X et Z des variables aléatoires réelles


telles que X et X Z sont intégrables, avec Z B-mesurable. Montrer que E(X Z ) =
E(E(X | B)Z ).

Solution. Nous commençons par démontrer que E(|X Z |) = E(E(|X | | B)|Z |) (ceci
est une conséquence du cours, mais nous le redémontrons car il est important
de comprendre comment cela fonctionne). En effet, nous avons

E(|X Z |) = E( lim |X Z |1|Z |≤n ) = lim E(|X Z |1|Z |≤n )


n→+∞ n→+∞

d’après le théorème de convergence monotone, puisque (|X Z |1|Z |≤n ) est une
suite positive croissante. Or E(|X Z |1|Z |≤n ) = E(E(|X | | B)|Z |1|Z |≤n ) par défini-
tion de l’espérance conditionnelle et en utilisant le fait que |X | est intégrable et
que |Z |1|Z |≤n est B-mesurable borné. Or E(|X | | B)|Z |1|Z |≤n est positive crois-
sante presque sûrement vers E(|X | | B)|Z |, donc, d’après le théorème de conver-
gence dominée,

lim E E(|X | | B)|Z |1|Z |≤n = E (E(|X | | B)|Z |) .


¡ ¢
n→+∞

En définitive,

E(|X Z |) = E (E(|X | | B)|Z |) . (1)

Nous savons que cette relation est vraie si Z est bornée et nous allons donc
nous ramener à cette situation en utilisant le théorème de convergence domi-
née. Pour tout n ∈ N, Z 1|Z |≤n est une variable aléatoire bornée B-mesurable.
Par conséquent, d’après la proposition 2.9 p 34,

E(X Z 1|Z |≤n ) = E(E(X | B)Z 1|Z |≤n ). (2)

1
Or
 
p.s. E(X | B)Z 1 p.s.
X Z 1
|Z |≤n −−−−→ X Z |Z |≤n − −−−→ E(X | B)Z
n→∞ et n→∞
|E(X | B)Z 1
|Z |≤n | ≤ E(|X | | B)|Z |, ∀n, p.s.
|X Z 1
|Z |≤n | ≤ |X Z |,

car |Z | est bornée B-mesurable. Or |X Z | et E(|X | | B)|Z | sont des variables


aléatoires intégrables (d’après l’égalité (1)), donc, d’après le théorème de conver-
gence dominée,

E(X Z 1|Z |≤n ) −−−−→ E(X Z ) et E(E(X | B)Z 1|Z |≤n ) −−−−→ E(E(X | B)Z ).
n→∞ n→∞

Par passage à la limite dans (2), on en déduit que

E(X Z ) = E(E(X | B)Z ).

Exercice 2. Soient (X , Y ) et (X 0 , Y 0 ) deux couples de variables aléatoires de même


loi, tels que X est intégrable.
1. Soit f une fonction mesurable telle que E(X | Y ) = f (Y ). Montrer que
E(X 0 | Y 0 ) = f (Y 0 ).
En particulier, cela implique que E(X | Y ) et E(X 0 | Y 0 ) ont même loi.
2. Supposons que X est symétrique, c’est-à-dire que X et −X ont même
loi. Déterminer E(X | |X |).
3. Soient X 1 , . . . , X n des variables aléatoires réelles indépendantes et de même
loi. Nous supposons que X 1 est positive presque sûrement ou intégrable.
Déterminer E(X 1 | X 1 + · · · + X n ).

Solution. 1. Pour toute variable aléatoire Z 0 bornée et σ(Y 0 )-mesurable, il


existe une fonction mesurable bornée h Z 0 telle que Z 0 = h Z 0 (Y 0 ). Ainsi,

E(X 0 Z ) = E(X 0 h Z 0 (Y 0 ))
= E(X h Z 0 (Y )) car (X , Y ) et (X 0 , Y 0 ) ont même loi
= E( f (Y )h Z 0 (Y )) car f (Y ) = E(X | Y )
= E( f (Y 0 )h Z 0 (Y 0 )) car (X , Y ) et (X 0 , Y 0 ) ont même loi
= E( f (Y 0 )Z 0 ).

Ceci étant vrai pour toute variable aléatoire bornée Z B-mesurable, on


déduit de la proposition 2.9 p. 34 que

E(X 0 | Y 0 ) = f (Y 0 ).

2
2. Les variables aléatoires X et −X ont même loi. Donc (X , |X |) et (−X , |X |)
ont même loi. D’après la question 1,

E(X | |X |) = E(−X | |X |).

Or, par linéarité de l’espérance conditionnelle,

E(X | |X |) + E(−X | |X |) = E(0 | |X |) = 0.

Par conséquent,

E(X | |X |) = E(−X | |X |) = 0.

3. Les vecteurs aléatoires (X 1 , (X 1 , . . . , X n )), ..., (X n , (X 1 , . . . , X n )) ont même


loi. Donc, d’après la question 1., il existe une fonction mesurable f telle
que

E(X i | X 1 + · · · + X n ) = f (X 1 + · · · + X n ), ∀i ∈ {1, . . . , n}.

Nous en déduisons que

1X n
E(X 1 | X 1 + · · · + X n ) = E(X i | X 1 + · · · + X n )
n i =1
1
= E(X 1 + . . . + X n | X 1 + · · · + X n ) par linéarité.
n
Or X 1 + · · · + X n est σ(X 1 + · · · + X n )-mesurable, donc

X1 + · · · + Xn
E(X 1 | X 1 + · · · + X n ) = .
n

Exercice 3. Soit X une variable aléatoire de loi uniforme sur [0, 1]. Posons Y =
1 X ≤1/2 et

1
Y1 = X , Y2 = X (1/2 − X ), Y3 = 1/X et Y4 = .
X − 1/2
Déterminer, si elles existent, E(Y1 | Y ), E(Y2 | Y ), E(Y3 | Y ) puis E(Y4 | Y ).

Solution. Y est une variable aléatoire à valeur dans l’ensemble fini {0, 1}, nous
allons donc chercher à appliquer la propriété 2.16 p.40.

3
1. La variable aléatoire Y1 est bornée, donc intégrable. Par conséquent, E(Y1 |
Y ) est bien définie. De plus, Y étant à valeurs dans un espace au plus dé-
nombrable, on a d’après la proposition 2.16 p.40,
E(Y1 1Y =0 ) E(Y1 1Y =1 )
E(Y1 | Y ) = 1Y =0 + 1Y =1 .
P(Y = 0) P(Y = 1)
D’une part, P(Y = 0) = P(Y = 1) = 1/2 car X est uniforme sur [0, 1]. De
plus, d’après le théorème du transport,
Z
E(Y1 1Y =1 ) = E(X 1 X ≤1/2 ) = x1x≤1/2 d λ1 (x)
[0,1]
Z
= x d λ1 (x)
[0,1/2]
1
= .
8
De même,
Z
E(Y1 1Y =0 ) = E(X 1 X >1/2 ) = x1x>1/2 d λ1 (x)
[0,1]
Z
= x d λ1 (x)
]1/2,1]
3
= .
8
En définitive,
1 3
E(Y1 | Y ) = 1Y =1 + 1Y =0 .
4 4

2. La variable aléatoire Y2 est bornée, donc intégrable. Par conséquent, E(Y2 |


Y ) est bien définie. De plus, Y étant à valeurs dans un espace au plus dé-
nombrable, on a d’après la proposition 2.16 p.40,
E(Y2 1Y =0 ) E(Y2 1Y =1 )
E(Y2 | Y ) = 1Y =0 + 1Y =1 .
P(Y = 0) P(Y = 1)
D’une part, P(Y = 0) = P(Y = 1) = 1/2 car X est uniforme sur [0, 1]. De
plus, d’après le théorème du transport,
Z
E(Y2 1Y =1 ) = E(X (1/2 − X )1 X ≤1/2 ) = x(1/2 − x)1x≤1/2 d λ1 (x)
[0,1]
x
Z
= − x 2 d λ1 (x)
[0,1/2] 2
1 1 1
= − = .
16 24 48

4
De même,
Z
E(Y2 1Y =0 ) = E(X (1/2 − X )1 X >1/2 ) = x(1/2 − x)1x>1/2 d λ1 (x)
[0,1]
x
Z
= − x 2 d λ1 (x)
]1/2,1] 2
3 7 5
= − =− .
16 24 48
Finalement,

1 5
E(Y2 | Y ) = 1Y =1 − 1Y =0 .
24 24

3. La variable aléatoire Y3 est positive presque sûrement. Par conséquent,


E(Y3 | Y ) est bien définie. De plus, Y étant à valeurs dans un espace au
plus dénombrable, on a d’après la proposition 2.16 p.40,

E(Y3 1Y =0 ) E(Y3 1Y =1 )
E(Y3 | Y ) = 1Y =0 + 1Y =1 .
P(Y = 0) P(Y = 1)
D’une part, P(Y = 0) = P(Y = 1) = 1/2 car X est uniforme sur [0, 1]. De
plus, d’après le théorème du transport,
Z
E(Y3 1Y =1 ) = E(1/X 1 X ≤1/2 ) = 1/x1x≤1/2 d λ1 (x) = +∞.
[0,1]

De même,
Z
E(Y3 1Y =0 ) = E(1/X 1 X >1/2 ) = 1/x1x>1/2 d λ1 (x)
[0,1]
Z
= 1/x d λ1 (x) = ln 2.
]1/2,1]

Finalement,

E(Y3 | Y ) = +∞ 1Y =1 + ln 2 1Y =0 .

4. La variable Y4 n’est ni positive, ni intégrable E(|Y4 |) = +∞ d’après une


application immédiate du théorème du transport. Par conséquent,

E(Y4 | Y ) n’est pas définie.

5
Exercice 4. Soient X et Y deux variables aléatoires réelles indépendantes. No-
tons F X +Y la fonction de répartition de la variable aléatoire réelle X + Y et F Y
celle de la variable aléatoire réelle Y .
1. Montrer que pour tout t ∈ R,

E(1 X +Y ≤t | X ) = F Y (t − X ) presque sûrement.

2. Supposons que X est une variable de loi uniforme sur [0, 1]. Montrer que
Z 1
∀t ∈ R, F X +Y (t ) = F Y (t − u) d u.
0

Solution. 1. Les variables aléatoires X et Y étant supposées indépendantes,


nous allons chercher à appliquer la proposition 2.30 p.51, avec h(x, y) =
1x+y≤t . Remarquons que h est bornée, donc h(X , Y ) est intégrable. Nous
avons donc

E(1 X +Y ≤t | X ) = g (X ),

avec
Z Z
g (x) = E(h(x, Y )) = h(x, y) d PY (y) = 1x+y≤t d PY (y)
R R
= PY (] − ∞, t − x]) = F Y (t − x),

par définition de la fonction F Y . En définitive,

E(1 X +Y ≤t | X ) = F Y (t − X ).

2. Nous avons

F X +Y (t ) = E(1 X +Y ≤t ) = E(E(1 X +Y ≤t | X )) = E(F Y (t − X )),

donc, d’après le théorème du transport,


Z
F X +Y (t ) = F Y (t − x) d λ1 (x).
[0,1]

Exercice 5 (DM1). Soit (X , Y , Z ) un vecteur gaussien centré de matrice de co-


variance  
2 −1 1
M =  −1 2 1 .
1 1 2

6
1. Déterminer E(X | Y , Z ).
2. Déterminer E(X | 2Y + Z ).
3. Déterminer E(X | X + Y , Y − Z ).

Solution. 1. La matrice de covariance du vecteur gaussien (Y , Z ) est


µ ¶ µ ¶
2 1 −1 1 2 −1
Γ(Y ,Z ) = , avec (Γ(Y ,Z ) ) =
1 2 3 −1 2

et la matrice de covariance de X est Γ X = (2). Par conséquent, (X , Y , Z )


étant un vecteur gaussien et Γ(Y ,Z ) ) étant inversible, on a d’après la pro-
position 2.38 p.53,
µµ ¶ µ ¶¶
−1 Y Y
E(X | Y , Z ) = E(X ) + (Γ X ,(Y ,Z ) (Γ(Y ,Z ) ) ) −E ,
Z Z

avec Γ X ,(Y ,Z ) = (−1, 1). Étant donné que le vecteur (X , Y , Z ), est centré,
nous en déduisons que
µ ¶µ ¶
1 2 −1 Y
E(X | Y , Z ) = (−1, 1) .
3 −1 2 Z

En définitive, nous obtenons

E(X | Y , Z ) = −Y + Z .

2. Le vecteur aléatoire (U ,V ) = (X , 2Y + Z ) est un vecteur gaussien centré,


en tant que transformation linéaire du vecteur gaussien centré (X , Y , Z ).
De plus, sa matrice de covariance est donnée par
 
µ 1 0
¶ µ ¶
1 0 0 2 −1
Γ(U ,V ) = M  0 2  = .
0 2 1 −1 14
0 1

Nous déduisons donc de la proposition 2.37 que

−1
E(X | 2Y + Z ) = E(U | V ) = V,
14
soit

2Y + Z
E(X | 2Y + Z ) = − .
14

7
3. Le vecteur aléatoire (U ,V,W ) = (X , X + Y , Y − Z ) est un vecteur gaussien
centré, en tant que transformation linéaire du vecteur gaussien centré
(X , Y , Z ). De plus, sa matrice de covariance est donnée par
     
1 0 0 1 1 0 2 1 −2
Γ(U ,V,W ) = 1 1 0  M 0 1 1  =  1 2 −1 .
0 1 −1 0 0 −1 −2 −1 2

Ainsi, la matrice de covariance de (V,W ) est


µ ¶ µ ¶
2 −1 −1 1 2 1
Γ(V,W ) = avec (Γ(V,W ) ) =
−1 2 3 1 2

et la matrice de covariance de U est ΓU = (2). Par conséquent, d’après la


proposition 2.38 p.53,
µµ ¶ µ ¶¶
−1 V V
E(U | V,W ) = E(U ) + (ΓU ,(V,W ) (Γ(V,W ) ) ) −E ,
W W

avec ΓU ,(V,W ) = (1, −2). Étant donné que le vecteur (U ,V,W ) est centré,
nous en déduisons que
µ ¶µ ¶
1 2 1 V
E(U | V,W ) = (1, −2) = −W.
3 1 2 W

En définitive,

E(X | X + Y , Y − Z ) = −Y + Z

Exercice 6 (DM1). Soient X ∈ L 2 (Ω, F , P) et B ⊂ F une tribu sur Ω. On appelle


variance conditionnellement à B la variable aléatoire

Var(X | B) = E (X − E(X | B))2 | B


¡ ¢

1. Supposons que E(X 2 ) = E(E(X | B)2 ). Montrer que X est B mesurable.


2. Montrer que, presque sûrement,

Var(X | B) = E(X 2 | B) − E(X | B)2 .

8
3. Montrer que
Var X = E (Var(X |B)) + Var (E(X | B))
et en déduire que
Var (E(X | B)) ≤ Var X .

4. Rappelons que si A ∈ F , P(A | B) = E(1 A | B). Montrer que pour tout


ε > 0, presque sûrement
Var(X |B)
P (|X − E(X | B)| ≥ ε | B) ≤ .
ε2

Solution. Remarquons dès à présent que X ∈ L 2 , donc E(X | B) ∈ L 2 , ce qui


justifie l’existence des espérances dans la suite de l’exercice.
1. D’après le théorème de Pythagore (applicable car X ∈ L 2 ), nous avons

E(X 2 ) = E(E(X | B)2 ) + E((X − E(X | B))2 ).

Par conséquent, sous l’hypothèse E(X 2 ) = E(E(X | B)2 ), nous obtenons


E((X − E(X | B))2 ) = 0. Or la variable aléatoire (X − E(X | B))2 est posi-
tive presque sûrement, donc (X − E(X | B))2 = 0 presque sûrement. En
définitive,

X = E(X | B) p.s.

En particulier, X est B-mesurable.


Remarque 1. En fait, nous pouvons en déduire que X est B-mesurable
si et seulement si B est complète, au sens où elle contient tous les en-
sembles négligeables de F . C’est une hypothèse que nous faisons donc
implicitement ici.
2. Nous avons

Var(X | B) = E(X 2 − 2X E(X | B) + E(X | B)2 | B)


= E(X 2 | B) − 2E(X E(X | B) | B) + E(E(X | B)2 | B)

par linéarité de l’intégrale conditionnelle. De plus, les variables aléa-


toires E(X | B) et E(X | B)2 étant B-mesurables,

Var(X | B) = E(X 2 | B) − 2E(X | B)E(X | B) + E(X | B)2 .

En définitive,

Var(X | B) = E(X 2 | B) − E(X | B)2 .

9
3. Nous avons

E (Var(X |B)) + Var (E(X | B)) = E E(X 2 | B) − E(X | B)2 + E E(X | B)2 − E (E(X | B))2
¡ ¢ ¡ ¢

= E E(X 2 | B) − E (E(X | B))2


¡ ¢

= E(X 2 ) − E(X )2 .

En définitive,

Var(X ) = E (Var(X |B)) + Var (E(X | B)) .

La variance conditionnelle étant positive presque sûrement par défini-


tion, nous en déduisons que

Var (E(X | B)) ≤ Var(X ).

4. Nous avons (en utilisant notamment la croissance de l’espérance condi-


tionnelle)

P (|X − E(X | B)| ≥ ε | B) = E 1|X −E(X |B)|≥ε | B


¡ ¢

|X − E(X | B)|2
µ ¶
≤ E 1|X −E(X |B)|≥ε |B
ε2
|X − E(X | B)|2
µ ¶
≤E |B .
ε2

Soit

Var(X | B)
P (|X − E(X | B)| ≥ ε | B) ≤ .
ε2

10