FICM 2A – Probabilités
Dans tous les exercices, (Ω, F , P) est un espace de probabilité sur lequel sont
définies les variables aléatoires considérées. Ces variables aléatoires sont donc
en particulier F -mesurables.
Solution. Nous commençons par démontrer que E(|X Z |) = E(E(|X | | B)|Z |) (ceci
est une conséquence du cours, mais nous le redémontrons car il est important
de comprendre comment cela fonctionne). En effet, nous avons
d’après le théorème de convergence monotone, puisque (|X Z |1|Z |≤n ) est une
suite positive croissante. Or E(|X Z |1|Z |≤n ) = E(E(|X | | B)|Z |1|Z |≤n ) par défini-
tion de l’espérance conditionnelle et en utilisant le fait que |X | est intégrable et
que |Z |1|Z |≤n est B-mesurable borné. Or E(|X | | B)|Z |1|Z |≤n est positive crois-
sante presque sûrement vers E(|X | | B)|Z |, donc, d’après le théorème de conver-
gence dominée,
En définitive,
Nous savons que cette relation est vraie si Z est bornée et nous allons donc
nous ramener à cette situation en utilisant le théorème de convergence domi-
née. Pour tout n ∈ N, Z 1|Z |≤n est une variable aléatoire bornée B-mesurable.
Par conséquent, d’après la proposition 2.9 p 34,
1
Or
p.s. E(X | B)Z 1 p.s.
X Z 1
|Z |≤n −−−−→ X Z |Z |≤n − −−−→ E(X | B)Z
n→∞ et n→∞
|E(X | B)Z 1
|Z |≤n | ≤ E(|X | | B)|Z |, ∀n, p.s.
|X Z 1
|Z |≤n | ≤ |X Z |,
E(X Z 1|Z |≤n ) −−−−→ E(X Z ) et E(E(X | B)Z 1|Z |≤n ) −−−−→ E(E(X | B)Z ).
n→∞ n→∞
E(X 0 Z ) = E(X 0 h Z 0 (Y 0 ))
= E(X h Z 0 (Y )) car (X , Y ) et (X 0 , Y 0 ) ont même loi
= E( f (Y )h Z 0 (Y )) car f (Y ) = E(X | Y )
= E( f (Y 0 )h Z 0 (Y 0 )) car (X , Y ) et (X 0 , Y 0 ) ont même loi
= E( f (Y 0 )Z 0 ).
E(X 0 | Y 0 ) = f (Y 0 ).
2
2. Les variables aléatoires X et −X ont même loi. Donc (X , |X |) et (−X , |X |)
ont même loi. D’après la question 1,
Par conséquent,
E(X | |X |) = E(−X | |X |) = 0.
1X n
E(X 1 | X 1 + · · · + X n ) = E(X i | X 1 + · · · + X n )
n i =1
1
= E(X 1 + . . . + X n | X 1 + · · · + X n ) par linéarité.
n
Or X 1 + · · · + X n est σ(X 1 + · · · + X n )-mesurable, donc
X1 + · · · + Xn
E(X 1 | X 1 + · · · + X n ) = .
n
Exercice 3. Soit X une variable aléatoire de loi uniforme sur [0, 1]. Posons Y =
1 X ≤1/2 et
1
Y1 = X , Y2 = X (1/2 − X ), Y3 = 1/X et Y4 = .
X − 1/2
Déterminer, si elles existent, E(Y1 | Y ), E(Y2 | Y ), E(Y3 | Y ) puis E(Y4 | Y ).
Solution. Y est une variable aléatoire à valeur dans l’ensemble fini {0, 1}, nous
allons donc chercher à appliquer la propriété 2.16 p.40.
3
1. La variable aléatoire Y1 est bornée, donc intégrable. Par conséquent, E(Y1 |
Y ) est bien définie. De plus, Y étant à valeurs dans un espace au plus dé-
nombrable, on a d’après la proposition 2.16 p.40,
E(Y1 1Y =0 ) E(Y1 1Y =1 )
E(Y1 | Y ) = 1Y =0 + 1Y =1 .
P(Y = 0) P(Y = 1)
D’une part, P(Y = 0) = P(Y = 1) = 1/2 car X est uniforme sur [0, 1]. De
plus, d’après le théorème du transport,
Z
E(Y1 1Y =1 ) = E(X 1 X ≤1/2 ) = x1x≤1/2 d λ1 (x)
[0,1]
Z
= x d λ1 (x)
[0,1/2]
1
= .
8
De même,
Z
E(Y1 1Y =0 ) = E(X 1 X >1/2 ) = x1x>1/2 d λ1 (x)
[0,1]
Z
= x d λ1 (x)
]1/2,1]
3
= .
8
En définitive,
1 3
E(Y1 | Y ) = 1Y =1 + 1Y =0 .
4 4
4
De même,
Z
E(Y2 1Y =0 ) = E(X (1/2 − X )1 X >1/2 ) = x(1/2 − x)1x>1/2 d λ1 (x)
[0,1]
x
Z
= − x 2 d λ1 (x)
]1/2,1] 2
3 7 5
= − =− .
16 24 48
Finalement,
1 5
E(Y2 | Y ) = 1Y =1 − 1Y =0 .
24 24
E(Y3 1Y =0 ) E(Y3 1Y =1 )
E(Y3 | Y ) = 1Y =0 + 1Y =1 .
P(Y = 0) P(Y = 1)
D’une part, P(Y = 0) = P(Y = 1) = 1/2 car X est uniforme sur [0, 1]. De
plus, d’après le théorème du transport,
Z
E(Y3 1Y =1 ) = E(1/X 1 X ≤1/2 ) = 1/x1x≤1/2 d λ1 (x) = +∞.
[0,1]
De même,
Z
E(Y3 1Y =0 ) = E(1/X 1 X >1/2 ) = 1/x1x>1/2 d λ1 (x)
[0,1]
Z
= 1/x d λ1 (x) = ln 2.
]1/2,1]
Finalement,
E(Y3 | Y ) = +∞ 1Y =1 + ln 2 1Y =0 .
5
Exercice 4. Soient X et Y deux variables aléatoires réelles indépendantes. No-
tons F X +Y la fonction de répartition de la variable aléatoire réelle X + Y et F Y
celle de la variable aléatoire réelle Y .
1. Montrer que pour tout t ∈ R,
2. Supposons que X est une variable de loi uniforme sur [0, 1]. Montrer que
Z 1
∀t ∈ R, F X +Y (t ) = F Y (t − u) d u.
0
E(1 X +Y ≤t | X ) = g (X ),
avec
Z Z
g (x) = E(h(x, Y )) = h(x, y) d PY (y) = 1x+y≤t d PY (y)
R R
= PY (] − ∞, t − x]) = F Y (t − x),
E(1 X +Y ≤t | X ) = F Y (t − X ).
2. Nous avons
6
1. Déterminer E(X | Y , Z ).
2. Déterminer E(X | 2Y + Z ).
3. Déterminer E(X | X + Y , Y − Z ).
avec Γ X ,(Y ,Z ) = (−1, 1). Étant donné que le vecteur (X , Y , Z ), est centré,
nous en déduisons que
µ ¶µ ¶
1 2 −1 Y
E(X | Y , Z ) = (−1, 1) .
3 −1 2 Z
E(X | Y , Z ) = −Y + Z .
−1
E(X | 2Y + Z ) = E(U | V ) = V,
14
soit
2Y + Z
E(X | 2Y + Z ) = − .
14
7
3. Le vecteur aléatoire (U ,V,W ) = (X , X + Y , Y − Z ) est un vecteur gaussien
centré, en tant que transformation linéaire du vecteur gaussien centré
(X , Y , Z ). De plus, sa matrice de covariance est donnée par
1 0 0 1 1 0 2 1 −2
Γ(U ,V,W ) = 1 1 0 M 0 1 1 = 1 2 −1 .
0 1 −1 0 0 −1 −2 −1 2
avec ΓU ,(V,W ) = (1, −2). Étant donné que le vecteur (U ,V,W ) est centré,
nous en déduisons que
µ ¶µ ¶
1 2 1 V
E(U | V,W ) = (1, −2) = −W.
3 1 2 W
En définitive,
E(X | X + Y , Y − Z ) = −Y + Z
8
3. Montrer que
Var X = E (Var(X |B)) + Var (E(X | B))
et en déduire que
Var (E(X | B)) ≤ Var X .
X = E(X | B) p.s.
En définitive,
9
3. Nous avons
E (Var(X |B)) + Var (E(X | B)) = E E(X 2 | B) − E(X | B)2 + E E(X | B)2 − E (E(X | B))2
¡ ¢ ¡ ¢
= E(X 2 ) − E(X )2 .
En définitive,
|X − E(X | B)|2
µ ¶
≤ E 1|X −E(X |B)|≥ε |B
ε2
|X − E(X | B)|2
µ ¶
≤E |B .
ε2
Soit
Var(X | B)
P (|X − E(X | B)| ≥ ε | B) ≤ .
ε2
10