Vous êtes sur la page 1sur 13

ESPÉRANCE CONDITIONNELLE

Connaissant la notion de probabilité de l’événement B sachant l’événement A, il est


naturel de définir la loi de probabilié conditionnelle d’une variable aléatoire Y sachant une
autre variable X. Cette nouvelle définition doit se déduire de l’ancienne lorsque X = 1lA
et Y = 1lB .

1. Loi conditionnelle et espérance conditionnelle : première approche


1.1. Cas discret. Soient X : Ω → E et Y : Ω → F deux variables aléatoires discrètes
définies sur le même espace de probabilité (Ω, A, P). Notons pX,Y (x, y) la loi du couple
(X, Y ) et pX la loi de X. Conditionnellement à {X = x}, avec P(X = x) > 0, l’événement
{Y = y} a une probabilité de
P(X = x, Y = y) pX,Y (x, y)
P(Y = y|X = x) = = .
P(X = x) pX (x)
Les réels (P(Y = y|X = x))y∈F définissent une probabilité sur F , représentant la distri-
bution de Y quand X = x.
Définition 1.1. La loi conditionnelle de Y sachant X = x, notée pY |X (·|x), est définie
par
pX,Y (x, y)
pY |X (y|x) = ∀y ∈ F
pX (x)
pour chaque x ∈ E tel que pX (x) > 0.
La loi conditionnelle n’est pas définie par les valeurs de x telles que pX (x) = P(X =
x) = 0. Cela ne gêne pas, car l’événement {X = x} se produit avec probabilité zéro.
Lorsque F ⊂ R et sous réserve d’intégrabilité, l’espérance de Y pour la loi conditionnelle
P(Y = ·|X = x) vaut :
X
E(Y |X = x) = ypY |X (y|x)
y∈F

et on l’appelle espérance conditionnelle de Y sachant X = x. Il s’agit d’une fonction de


x (la valeur prise par X) : ψ(x) = E(Y |X = x), mais il est très utile de la considérer
comme une fonction ψ(X).
Définition 1.2. Soit ψ(x) = E(Y |X = x). La variable aléatoire ψ(X) est l’espérance
conditionnelle de Y sachant X et on la note ψ(X) = E(Y |X).
Attention ! E(Y |X) est une variable aléatoire, fonction de la variable X.

1.2. Cas continu. Soit un couple (X, Y ) de densité pX,Y sur R2 . Soit I un intervalle de
R. Si pX (x) > 0, on peut écrire pour ∆ > 0 (∆ & 0) :
R
P(Y ∈ I, X ∈ [x, x + ∆] p (x, y)dy∆
Z
I X,Y pX,Y (x, y)
P(Y ∈ I|X ∈ [x, x + ∆]) = ' = dy.
P(X ∈ [x, x + ∆]) pX (x)∆ I pX (x)
Cela justifie la définition suivante :
1
Définition 1.3. Soit (X, Y ) un couple aléatoire à densité sur R2 et x ∈ R tel que
pX (x) > 0. On appelle densité conditionnelle de Y sachant X = x la fonction pY |X (·|x)
définie par
pX,Y (x, y)
pY |X (y|x) =
pX (x)
et la loi conditionnelle de Y sachant X = x la loi de probabilité sur R admettant pY |X (·|x)
pour densité.
On définit à nouveau l’espérance conditionnelle de Y sachant X = x par
E(Y |X) = ψ(X)
R
avec ψ(x) = E(Y |X = x) = ypY |X (y|x)dy.
Exemple 1.1. Considérons le couple (X, Y ) de densité jointe pX,Y (x, y) = x1 1l0<y<x<1 .
On obtient pX (x) = pX,Y (x, y)dy = 1l]0,1[ (x) et pour 0 < x < 1, pY |X (y|x) = x1 1l0<y<x .
R

On trouve donc E(Y |X) = X2 .

Remarque 1. Si (X, Y ) ∈ Rn × Rd a une densité sur Rn+d , alors on définit de même loi
et densité conditionnelles. Si g : Rd → R est régulière, on a alors
Z
E(g(Y )|X = x) = g(y)pY |X (y|x)dy.
Rd

2. Cas général
Soit (Ω, A, P) un espace de probabilité.
Définition 2.1. Soit X une variable aléatoire intégrable, B ∈ A tel quel P(B) > 0. On
appelle espérance conditionnelle de X sachant B
Z Z
1
E(X|B) = XdP(·|B) = XdP.
P(B) B
R R
Remarque 2. 1) Si X est intégrable, alors E|X| = |X|dP < ∞ et donc |X|dP(·|B) =
1
R
P(B) B
|X|dP < ∞.
2) Si X = 1lA , alors E(1lA |B) = P(A|B)
Supposons que P(B) > 0 et P(B c ) > 0. On définit alors G = σ(B) = {B, B c , ∅, Ω}. On
appelle espérance conditionnelle de X sachant G la variable aléatoire G-mesurable :
E(X|G) = E(X|B)1lB + E(X|B c )1lB c .
Ainsi, si (Bk )k est une partition de Ω par des événements tels que pour tout k ∈ N,
P(Bk ) > 0 et G = Σ(Bk , k ∈ N), alors

X
E(X|G) = E(X|Bk )1lBk .
k=0

Remarque 3. Il n’y a pas de problème de convergence de la série car (Bk )k est une partition
de Ω, donc pour tout ω ∈ Ω, seul Bk0 compte :
E(X|G)(ω) = E(X|Bk0 )1lBk0 .
2
Théorème 2.1 (Théorème-définition). Soit X une variable aléatoire intégrable (ou po-
sitive) sur (Ω, A, P). Soit G une sous-tribu de A. Alors, il existe une variable aléatoire Y ,
G-mesurable et PG -intégrable (ou positive) vérifiant :
Z Z
∀A ∈ G, XdP = Y dP.
A A

Cette variable aléatoire Y est définie PG −presque-sûrement de manière unique. Elle est
appelée espérance conditionnelle de X sachant G et se note E(X|G).
Remarque 4. Dans le cas où X 2 est intégrable, on établit facilement cette existence. En
effet, notons L2 l’espace des variables aléatoires réelles X telles que E(X 2 ) < ∞. L2 muni
du produit scalaire
< X, Y >= E(XY )
et de la norme associée p p
||X||2 = < X, X > = E(X 2 )
est un espace de Hilbert. (Remarquons qu’on définit L2 en introduisant sur
L2 = {X variable aléatoire telle que E(X 2 ) < ∞}
la relation d’équivalence X ∼ Y ⇔ P(X = Y ) = 1 et L2 = L2 / ∼.
La preuve de “L2 est un espace de Hilbert” est donnée en Annexe5. Soit L2 (G) ⊂ L2 le
sous-espace constitué des variables aléatoires réelles G-mesurables. D’après le théorème
des projections (voir Annexe5) :
L2 = L2 (G) ⊕ L2 (G)⊥
et tout élément X ∈ L2 s’écrit de façon unique
X = Y + (X − Y )
où Y est la projection orthogonale de X sur L2 (G), càd Y est caractérisé par :
i) Y est G-mesurable
ii) (X − Y )⊥Z (ie E(XZ) = E(Y Z) pour tout Z ∈ L2 (G).
R R
On a alors 1lA Y dP = 1lA XdP pour tout A ∈ G.
Ceci prouve l’existence de l’espérance conditionnelle pour des variables aléatoires dans
L2 et donne une interprétation géométrique concrète : pour X ∈ L2 , Y = E(X|G) est la
meilleure approximation de X au sens L2 par des variables aléatoires de L2 (G). Il s’agit
donc de l’unique élément de L2 (G) réalisant l’égalité
||X − Y ||2 = inf ||X − Z||2 .
Z∈L2 (G)

Démonstration. 1) Unicité. Supposons qu’il existe Y1 , Y2 vérifiant la définition. On a alors


{Y1 < Y2 } ∈ G et
Z Z Z
XdP = Y1 dP = Y2 dP,
{Y1 <Y2 } {Y1 <Y2 } {Y1 <Y2 }
R
d’où {Y1 <Y2 } (Y2 − Y1 )dP = 0 et donc (Y2 − Y1 )1lY2 −Y1 >0 = 0 p.s. On a donc P(Y2 > Y1 ) = 0
et de même, P(Y1 > Y2 ) = 0, ce qui donne ainsi P(Y1 = Y2 ) = 1.
2) Existence. On a vu l’existence de Y si X ∈ L2 . En décomposant X = X+ − X− ,
on voit qu’il suffit de traiter le cas X ≥ 0, X ∈ L1 (Ω, A, P). Posons Xn = inf{X, n}. On
3
voit que Xn ∈ L2 . De plus, il s’agit d’une suite croissante, Xn croı̂t vers X et pour tout
n ∈ N, il existe Yn = E(Xn |G) ≥ 0 p.s. En effet,
Z Z
Yn dP = Xn dP ≤ 0.
{Yn <0} {Yn <0}

Or par construction, Xn ≥ 0 et Xn 1lYn <0 ≥ 0, donc P(Yn < 0) = 0. Comme Xn+1 −Xn ≥ 0,
on a
E(Xn+1 |G) − E(Xn |G) = E(Xn+1 − Xn |G) ≥ 0.
On obtient alors par convergence monotone pour tout A ∈ G
Z Z Z Z Z
XdP = lim Xn dP = lim Yn 1lA dP = lim Yn 1lA dP = Y dP.
A A A

Donc il existe une variable aléatoire Y = lim E(Xn |G). 


Remarque 5. 1) G représente l’information disponible et E(X|G) est la meilleure prévision
qu’on peut faire sur X en ne connaissant que G.
2) On ne définit l’espérance conditionnelle qu’à un presque sûr près.

3. Propriétés de l’espérance conditionnelle


Soit (Ω, A, P) un espace de probabilité. Considérons G, une sous-tribu de A. Soient
X, Y des variables aléatoires, a, b des réels et A ∈ G.
1) Linéarité : E(aX + bY |G) = aE(X|G) + bE(Y |G).
2) Positivité : si X ≥ 0, alors E(X|G) ≥ 0 p.s.
3) Soit T ⊂ G, alors E(X|T ) = E [E(X|G)|T ].
4) E(X|{∅, Ω}] = E(X) p.s.
5) Si X est G-mesurable, alors E(X|G) = X p.s.
6) Si X et G sont indépendantes,
R Ralors E(X|G) = E(X) p.s.R
En effet, il suffit d’écrire A XdP = 1lA XdP = P(A)E(X) = A E(X)dP.
7) Si X, Y ∈ L1 et X ≤ Y p.s., alors E(X|G) ≤ E(Y |G) p.s.
En effet, soit A = {ω; E(X|G)(ω) > E(Y |G)(ω)}. On a
Z Z Z Z
XdP = E(X|G)dP ≤ Y dP = E(Y |G)dP,
A A A A
R
d’où 1lA [E(X|G) − E(Y |G)] dP ≤ 0 et donc P(E(X|G) − E(Y |G) > 0) = 0, ie P(A) = 0.
8)
Théorème 3.1 (Convergence monotone conditionnelle). Si Xn ≥ 0 et Xn croı̂t p.s. vers
X ∈ L1 alors lim E(Xn |G) = E(X|G) p.s.
9)
Théorème 3.2 (Convergence dominée conditionnelle). Soit |Xn | ≤ M , Xn ∈ L1 conver-
geant p.s. vers X. Alors, la suite (E(Xn |G))n converge p.s. vers E(X|G).
10)
Théorème 3.3 (Lemme de Fatou conditionnel). Si Xn ≥ 0, alors E(lim inf Xn |G) ≤
lim inf E(Xn |G).
Démonstration. Pour les trois résultats précédents, il suffit d’utiliser le résultat corres-
pondant pour l’espérance. 
4
11) Soient X, Y deux variables aléatoires telles que X, Y et XY sont intégrables. Si X
est G-mesurable, alors E(XY |G) = XE(Y |G) p.s.
En effet, on suppose X, Y ≥ 0. Il existe une suite Xn croissant vers X, où les Xn sont
étagées et G-mesurables (car X l’est). On a 0 ≤ Xn Y et Xn Y croı̂t vers XY . Par le
théorème de convergence monotone conditionnelle : E(Xn Y |G) % E(XY |G) p.s. Soit
C ∈ G. Pour tout A ∈ G, on a C ∩ A et
Z Z Z Z
1lC Y dP = Y dP = E(Y |G)dP = 1lC E(Y |G)dP.
A A∩C A∩C A

Par unicité de l’espérance conditionnelle, on trouve que E(Y |G)1lC = E(Y 1lC |G). Donc
E(Xn Y |G) = Xn E(Y |G) % XE(Y |G).
12)
Théorème 3.4 (Inégalité de Jensen conditionnelle). Soit X une variable aléatoire intégrable
à valeurs dans I, f : I → R une fonction convexe. Alors : E(X|G) ∈ I p.s. et si
E|f (X)| < ∞, alors f (E(X|G)) ≤ E(f (X)|G) p.s.
Idée de la preuve. On montre qu’il existe I0 dénombrable, I0 ⊂ I tel que ∀y ∈ I,
f (y) = sup{f (x) + f+0 (x)(y − x)}
x∈I0

où f+0 (x) est la dérivée à droite en x.


Proposition 3.1. Soit X une variable aléatoire réelle/ X est indépendante de la tribu
G si et seulement si :
∀u ∈ R, E(eiuX |G) = E(eiuX ) p.s.
Démonstration. Compte tenu de la propriété 6), il suffit de montrer que l’égalité précédente
entraı̂ne l’indépendance. Or, si E(eiuX |G) = E(eiuX ), on a pour tout G ∈ G, E(eiuX 1lG ) =
E(eiuX )P(G) par définition de l’espérance conditionnelle. Si P(G) 6= 0, on peut écrire que
 
iuX 1lG
E e = E(eiuX ).
P(G)
Cela signifie que la fonction caractéristique de X est la même sous la probabilité P et
1lG
sous la probabilité P(G) par rapport à P. L’égalité des fonctions caractéristiques entraı̂ne
 
1lG
l’égalité des lois et par conséquent pour toute fonction borélienne bornée E f (X) P(G) =
E(f (X)), ce qui implique l’indépendance. 
Pour illustrer l’utilisation de la symétrie, considérons l’exemple suivant. Soit (Xn )n une
suite de variables aléatoires indépendantes, de même loi que X, avec E|X| < ∞.
Soit Sn = X1 + X2 + · · · + Xn . Considérons les tribus
Gn = σ(Sn , Sn+1 , · · · ) = σ(Sn , Xn+1 , Xn+2 , · · · ).
On veut calculer E(X1 |Gn ).
Comme la tribu σ(X1 , Sn ) est une sous-tribu de σ(X1 , X2 , · · · , Xn ), on voit que σ(Xn+1 , Xn+2 , · · · )
est indépendante de σ(X1 , Sn ). On a ainsi E(X1 |Gn ) = E(X1 |Sn ) car si T est indépendante
de σ(σ(X), G), alors E(X|σ(G, T )) = E(X|G) p.s. Mais si on note p la loi de X, alors
Z
E(X1 1lSn ∈B ) = x1 p(dx1 ) · · · p(dxn ) = E(X2 1lSn ∈B ) = · · · = E(Xn 1lSn ∈B ).
x1 +···+xn ∈B
5
On a donc p.s.
1 1
E(X1 |Sn ) = E(X2 |Sn ) = · · · = E(Xn |Sn ) = E(X1 + X2 + · · · + Xn |Sn ) = Sn .
n n
4. Exercices
Exercice 1 Caractère sans mémoire de la loi exponentielle
Soit T une v.a positive ayant une densité f continue sur [0, ∞[. Montrer que T a une loi
exponentielle si et seulement si, pour tout t > 0, la loi conditionnelle de T − t sachant
que T > t est encore celle de T.
Exercice 2
Le nombre d’œufs pondus par un insecte est une variable aléatoire de Poisson N de
paramètre m. La probabilité qu’un œuf se développe est 0 < p < 1. On suppose que les
œufs se développent indépendamment les uns des autres. Soit X le nombre de descendants
survivants d’un insecte donné. Calculer E(X).
Exercice 3
1. Le nombre N de voitures passant devant une station d’essence suit la loi de Pois-
son de paramètre λ > 0. Chaque voiture s’arrête à la station avec une probabilité p,
indépendamment des autres. On note K le nombre de voitures s’arrêtant à la station.
Trouver l’espérance de K.
2. Un auto-stoppeur attend au péage de l’autoroute A6 à Avallon. Le nombre de véhicules
passant par ce péage durant une heure est une variable aléatoire X. Pour chacun de ces
véhicules il y a une probabilité p ∈]0, 1[ qu’il vienne de la direction de Paris et donc
q = 1 − p qu’il vienne de la direction Lyon. On note Y et Z le nombre de véhicules venant
de Paris (resp. Lyon), donc Y + Z = X.
On suppose que X suit une loi de Poisson de paramètre λ. Déterminer les lois de Y et
Z et montrer que Y et Z sont indépendantes.
Exercice 4
Un prisonnier est enfermé dans une cellule contenant 3 portes. La première porte ouvre
sur un tunnel qui revient dans la cellule après une marche de 2 jours. La seconde porte
donne sur un tunnel qui revient aussi à la cellule au bout d’un voyage de 4 jours. La
troisième porte conduit vers la liberté au bout d’un jour de marche. On suppose que le
prisonnier choisit, de manière indépendante, à chaque tentative les portes 1, 2 et 3 avec
des probabilités respectives de 0.5, 0.3 et 0.2.
Quel est le nombre moyen de jours nécessaires au prisonnier pour retrouver sa liberté ?

Exercice 5
Soit ([0, 1], B, λ) où B est la tribu borélienne sur [0, 1] et λ est la mesure de Lebesgue.
a) Considérons la tribu G sur [0, 1] engendrée les intervalles ] 14 , 32 ] et ] 32 , 1]. On note X
la variable aléatoire ω 7→ ω 2 . Calculer E(X|G).
b) Pour tout entier n, on pose pour tout entier 0 ≤ k ≤ 2n − 1, Ink = [2−n k, 2−n (k + 1)].
Considérons les tribus Fn = σ(Ink ; 0 ≤ k ≤ 2n − 1) et F∞ = σ(Fn , n ≥ 1).
i) Qui est F∞ ?
ii) Soit Z une fonction continue Z : [0, 1], → R. On lui associe la suite de variables
aléatoires (Zn )n , Zn = E(Z|Fn ). Etudier la convergence p.s. de cette suite.
Exercice 6
On réalise une suite infinie de parties indépendantes d’un jeu à deux issues possibles :
le succès avec probabilité p et l’échec avec probabilité 1 − p. Désignons par N l’instant
6
du premier succès et définissons la variable aléatoire Y par Y = 1 si le résultat de la
première partie est un succès et Y = 0 sinon. Calculer Var(N ) en conditionnant N par
rapport Y .
Exercice 7
Soit S une v.a. ayant une loi exponentielle de paramètre 1. On fixe un nombre t > 0 et
on définit les deux v.a. X et Y :
X = sup(S, t); Y = inf(S, t).
Calculer E(S|X) et E(S|Y ).
Exercice 8
Soit (X, Y ) un vecteur aléatoire de R2 , dont la loi admet une densité f par rapport à la
mesure de Lebesgue :

n(n − 1)(y − x)n−2 si 0 ≤ x ≤ y ≤ 1
f (x, y) =
0 sinon
où n ≥ 2 est fixé.
1) Quelle est la loi marginale de Y ?
2) Calculer la densité conditionnelle par rapport à la mesure de Lebesgue de la loi de
Y sous l’hypothèse X = x.
3) Calculer E(Y |X = x). En déduire E(Y ).
Exercice 9
Soit (Ak )k≥1 une suite d’événements indépendants deux à deux et tels que
X
P(A1 ) > 0 et P(Ak ) = ∞.
k≥1

Pour tous entiers k, n ≥ 1, on note


n
X X
Sn = 1l{Ak } , S = 1l{Ak } et A = lim sup Ak .
k=1 k≥1

1) Démontrer les deux propriétés élémentaires suivantes :


a) ∀n ≥ 1, Var(Sn ) ≤ E(Sn ),
b) limn E(Sn ) = ∞.
2) Etablir les inégalités suivantes, valables pour tout entier n ≥ 1 :
     
E(Sn ) E(Sn ) E(Sn ) 4V ar(Sn )
P S≥ ≥ P Sn ≥ ≥ P |Sn − E(Sn )| ≤ ≥1− .
2 2 2 (E(Sn ))2

Exercice 10
1) Soient X et Y deux v.a. Montrer qu’elles sont indépendantes si et seulement si pour
toute fonction g : R → R borélienne bornée, on a :
E[g(Y )|X] = E[g(Y )] p.s.
2) Application : on considère (X, Y ) un vecteur aléatoire dont la loi possède une densité
u par rapport à la mesure de Lebesgue 2-dimensionnelle :
u(x, y) = e−y 1l0<x<y .
Calculer la loi conditionnelle de Y sachant X = x. En déduire que X et Y − X sont
indépendantes.
7
Exercice 11
Soient X et Y deux v.a.indépendantes, Y a une loi N (0, 1).
1) Montrer que les trois propriétés suivantes sont équivalentes :
X2
(∗)e 2 est intégrable; (∗∗)eXY est intégrable; (∗ ∗ ∗)e|XY | est intégrable
X2
2) Montrer que lorsque e 2 est intégrable, alors E[eXY |X] ≥ 1 p.s.
X2
3) Calculer E[eXY |X] lorsque e 2 est intégrable.
Solution 1 Rt
Soit F (t) = P(T < t) = 0 f (u)du. Alors
P(t < T < a + t) F (a + t) − F (t)
P(T − t < a|T > t) = =
Pr(T > t) 1 − F (t)
et l’hypothèse faite sur T se reécrit
F (a + t) − F (t) = (1 − F (t))F (a).
En dérivant cette égalité en t = 0, on obtient
f (a) − f (0) = −f (0)F (a).
Ceci prouve que f est C 1 et que f est solution de l’équation différentielle
f 0 (a) = −f (0)f (a)
dont la solution est donnée par f (a) = λe−λa , f (0) = λ.

Solution 2
X représente le nombre de descendants survivants. Il s’agit donc d’une v.a. à valeurs
entières positives. De même pour N qui représente le nombre total d’œufs pondus.
1) Rappelons tout d’abord que l’espérance conditionnelle est une v.a. Le développement
n
de chaque œuf est indépendant de celui des autres. On a P(N = n) = e−m mn! et P(X =
k|N = n) = Cnk pk (1 − p)n−k pour k ∈ {0, · · · , n}, et vaut 0 sinon. Nous savons par
définition que :
n n n
X X
k k n−k
X pk (1 − p)n−k
E[X|N = n] = kP(X = k|N = n) = kCn p (1 − p) = n!
k=0 k=0 k=1
(k − 1)!(n − k)!
Cela implique donc
n
X X X pk (1 − p)n−k
E[X|N ] = E[X|N = n]1lN =n = n! 1N =n .
n n k=1
(k − 1)!(n − k)!
Pour calculer la moyenne de X, il ne nous reste plus qu’à utiliser le fait que
X X pk (1 − p)n−k
E(X) = E(E[X|N ]) = P(N = n) n! = pm.
n k
(k − 1)!(n − k)!
2) Calculons la loi de X par une méthode “directe”. Par la formule des probabilités
totales, on a pour r ∈ N :
∞ ∞
X X mi
P(X = r) = P(X = r|N = i)P(N = i) = Cir pr (1 − p)i−r e−m
i=r i=r
i!
(mp)r
= e−mp
r!
8
X suit donc une loi de Poisson de paramètre mp. On obtient alors immédiatement sa
moyenne : E(X) = mp.

Solution 3
n
1. On a par hypothèse sur les variables N et K : P(N = n) = λn! e−λ , E(N ) = λ et
P(K = k|N = n) = Cnk pkP (1 − p)n−k .
D’où E(K|N = n) = k kP(K = k|N = n) = np, ce qui donne E(K|N ) = pN . Nous
savons de plus, par propriété de l’espérance conditionnelle, que E(K) = E[E(K|N )] =
pE(N ) par linéarité, donc E(K) = λp.
2. Posons Y = X
P
i=1 Yi avec Yi = 1 si la i-ème voiture est “parisienne” et Yi = 0 si elle
est “lyonnaise”.
P(Y = k|X = n) = Cnk pk (1 − p)n−k
pour k ≤ n et P(Y = K|X = n) = 0 sinon. Ainsi, comme dans la question précédente,
on en déduit que
X (λp)k
P(Y = k) = P(Y = k|X = n)P(X = n) = e−λp .
n≥k
k!

Solution 4
Soit T le temps mis par le prisonnier pour recouvrer sa liberté. Considérons les événements
suivants :
A=“il choisit la bonne porte”, B=“il choisit la porte 2 jours”, et C=“il choisit la porte
4 jours”.
Avant tout chose, il faut vérifier que E(T ) < ∞. Ici, T est discrète positive, d’où
X X 4(k+1)−1
X X
E(T ) = P(T ≥ n) ≤ 4 + P(T > n) ≤ 4 + 4P(T > 4k).
n≥1 k≥1 n=4k k≥1

Or {T > 4k} ⊂ {il y a au moins k retours à l’origine}, donc P(T > 4k) ≤ (2/3)k , ce qui
montre bien que T est intégrable.
On a : E(T |A) = 1, E(T |B) = 2 + E(T̃ ) et E(T |C) = 4 + E(T̃˜), où T̃ et T̃˜ sont des v.a.
de même loi que T , indépendantes. Soit G = σ(A, B, C). Par définition, on sait que
E(T |G) = 1lA + (2 + E(T ))1lB + (4 + E(T ))1lC .
De plus, E(T ) = E(E(T |G)), donc
1
E(T ) = P(A) + (2 + E(T ))P(B) + (4 + E(T ))P(C) = + 0, 5(2 + E(T )) + 0, 3(4 + E(T ))
5
donc E(T ) = 12.

Solution 5
a) Notons A =] 41 , 23 ], B =] 32 , 1] et C = [0, 14 ]. On a par définition
E(X|G) = E(X|A)1lA + E(X|B)1lB + E(X|C)1lC .
Or on sait que
Z Z 2/3
1 12 97
E(X|A) = XdP = ω 2 dω = .
P(A) A 5 1/4 432
19 1
De même, on trouve que E(X|B) = 27
et E(X|C) = 48 . On en déduit la formule donnant
E(X|G).
9
b) i) On sait par construction que F∞ ⊂ B([0, 1]) (car pour tout n, Fn ⊂ B([0, 1]).
Montrons maintenant que B([0, 1]) P ⊂ F∞ . Soit E = {[0, t[} pour t ∈ [0, 1]. Or on a le
développement dyadique de t : t = n≥1 α2nn avec αn = 0 ou 1.
Soit Ak = [0, ki=1 α2ii [= [0, 2Ak [. Comme [ 2jk , j+1 ] ∩ [ j+1 , j+2 ] = { j+1
P
2k 2k 2k 2k
}, on voit que
j+1 A A−1 j j+1
{ 2k } ∈ Fk et donc [0, 2k [= ∪j=0 [ 2k , 2k [∈ Fk . Donc Ak ∈ F∞ . De plus, Ak est limite
croissante de [0, t[, donc [0, t[∈ F∞ et donc on obtient le résultat souhaité. Finalement,
on voit que F∞ = B([0, 1]).
ii) Posons Ink = [k2−n , (k + 1)2−n [. On a
2− 1 2− 1  Z 
X X 1
Z − Zn = E(Z|Fn ) − Z = E(Z|Ink )Ink − Z = Zdλ − Z Ink .
P(I nk ) Ink
k=0 k=0

Supposons que x ∈ In1 . On a alors


Z Z
1 1
Zn (x) − Z(x) = Z(ω)dλ(ω) − Z(x) = (Z(ω) − Z(x)) dλ(ω).
P(In1 ) In1 P(In1 ) In1
Or ω ∈ In1 et x ∈ In1 . De plus, Z est uniformément continue et pour n assez grand,
on a λ(Ink) ≤ δ, donc |Z(ω) − Z(x)| ≤ ε. On en conclut donc que |Zn (x) − Z(x)| ≤
1
P(In1 )
εP(In1 ) = ε. Finalement, Zn converge uniformément vers Z et pour tout ω fixé, Zn
converge vers Z (p.s.)

Solution 6
Soit N l’instant du premier succès. Notons Y = 1 si la première partie est un succès et
Y = 0 sinon. Tout d’abord, calculons E(N ). N est une v.a. positive, à valeurs dans N.
Par définition, on sait que E(N ) = E(E(N |Y )). Or
E(N |Y ) = E(N |Y = 1)1lY =1 + E(N |Y = 0)1lY =0 ,
E(N |Y = 1) = 1 et E(N |Y = 0) = 1 + E(Ñ ) où Ñ suit la même loi que N et est
indépendante de {Y = 0}. On a donc E(N |Y ) = 1lY =1 + (1 + E(N ))1lY =0 . Ainsi, on
obtient
E(N ) = P(Y = 1) + (1 + E(N ))P(Y = 0) = p + (1 + E(N ))(1 − p)
et E(N ) = p−1 . On procède identiquement pour montrer que E(N 2 ) = 2
p2
− p1 et finalement
Var(N ) = p12 − p1 .

Solution 7
1
1) Calculons E(S|X). On sait que E(S|X = x) = E(S1lX=x ) P(X=x) = x si x > t (et cela
n’est pas possible si x < t). En effet, supposons x > t. Alors par définition, on a
R
x<X≤x+h
SdP
E(S|X = x) = x = lim .
h&0 P(x < X ≤ x + h

1
R
Il reste donc à traiter le cas x = t.On sait que E(S|X = t) = P(X=t X=t
SdP. Or
−t
R R t −s −t
P(X = t) = P(S ≤ t) = 1 − e et X=t SdP = 0 se ds = 1 − e (1 + t). On conclut
alors
E(S|X) = E(S|X = x)1lX<t + E(S|X = x)1lX=t + E(S|X = x)1lX>t
1 − e−X (1 + X)
= X1l]t,∞[ (X) + 1l{t} (X).
1 − e−X
10
2) On procède identiquement pour calculer E(S|Y ). On obtient :
E(S|Y ) = E(S|Y = y)1ly<t + E(S|Y = y)1ly=t + E(S|Y = y)1ly>t
= E(S|Y = y)1ly<t + E(S|Y = y)1ly=t .
De même, si y < t, alors E(S|Y = y) = y. Il ne reste onc qu’à traiter le cas y = t :
Z Z
1 1
E(S|Y = t) = SdP = SdP = 1 + t.
P(Y = t) Y =t P(S ≥ t) S≥t
On a donc finalement E(S|Y ) = Y 1l[0,t[ (Y ) + (1 + Y )1l{t} (Y ).

Solution 8
1) Déterminons la loi marginale de X, notée f1 . On sait que
Z
f1 (x) = f (x, y)λ(dy) = n(1 − x)n−1 1l0≤x≤1 .
R
On reconnait alors la densité de loi loi Bêta de paramètres (n, 1). On obtient ainsi la
fonction de répartition suivante :
Z t
P(X ≤ t) = f1 (x)dx = (1 − (1 − t)n )1l0≤t≤1 + 1lt≥1 .
−∞

2) La densité conditionnelle de la loi de Y sous l’hypothèse X = x est


f (x, y) (n − 1)(y − x)n−2
h(y|x) = = 1l0≤x≤y≤1 PX − ps.
f1 (x) (1 − x)n−1
R1
3) On a immédiatement E(Y |X = x) = x yh(y|x)dy = 1 − 1−x n
. On en déduit alors
1 − E(X) n
E(Y ) = E(E(Y |X)) = 1 − =
n n+1
1
R
car E(X) = xf1 (x)dx = n+1
.

Solution 9
2) La première inégalité est triviale par définition de S. Pour la deuxième, il suffit d’écrire
ESn ESn ESn
P(|Sn − ESn | ≤ = P(− ≤ Sn − ESn ≤ ).
2 2 2
La dernière inégalité n’est rien de plus que celle de Markov.

Solution 10
1) Supposons tout d’abord que X et Y sont indépendantes. Alors X et g(Y ) le sont aussi
pour toute fonction g borélienne bornée, car σ(g(Y )) ⊂ σ(Y ). Donc E(g(Y )|X) = Eg(Y )
ps.
Supposons maintenant que pour toute fonction g borélienne bornée, on a E(g(Y )|X) =
Eg(Y ) ps. Soit h une fonction borélienne bornée. On a
E(h(X)g(Y )) = E(h(X)E(g(Y )|X)) = E(h(X)Eg(Y )) = Eh(X)Eg(Y ).
On choisit alors g = 1lA et h = 1lB où A et B sont des boréliens quelconques et donc X
et Y sot bien indépendantes.
2) Pour trouver la loi conditionnelle de Y sachant X = x, commeno̧ns par calculer la
marginale de X, qui est
Z ∞
f1 (x) = e−y dy1lx>0 = e−x 1lx>0 .
x
11
u(x,x)
On a alors p(y|x) = = e−y+x 1l0<x<y et
f1 (x)
Z t
P(Y ≤ t|X = x) = p(y|x)dy = (t − x)(ex−t − 1).
x
Pour montrer que X et X − Y sont indépendantes, considérons une fonction g borélienne
bornée. On a :
Z Z ∞ Z ∞
−y+x
E(g(Y − X)|X = x) = g(y − x)p(y|x)λ(dy) = g(y − x)e dy = g(v)e−v dv
R x 0
avec le changement de variable v = y − x. Cette dernière intégrale est constante (elle ne
dépend plus de x). On a bien prouvé l’indépendance demandée.

Solution 11
1) Si e|XY | est intégrable, alors eXY l’est aussi.
R R∞ −y 2 /2 2
E(eXY ) = Ω eXY dP = R −∞ exy e √2π dydPX (x) par Fubini. Donc E(eXY ) = R ex /2 dPX (x) =
R R
2
EeX /2 .
De même
Z Z ∞ −y 2 /2 Z Z ∞ −y 2 /2
|XY | x|y| e −x|y| e
E(e )= e √dydPX (x) + e √ dydPX (x).
x>0 −∞ 2π x<0 −∞ 2π
R∞ 2 R∞ 2 2 2 √ 2
Or −∞ ex|y| e−y /2 dy ≤ ex /2 2π, donc E(e|XY | ) ≤ 2E(eX /2 ).
2 0 e−(y−x) /2+x /2 dy ≤
2
2) Si eX /2 est intégrable, alors E(e |X) ≥ 1 ps. Donc par l’inégalité de Jensen (car exp
XY

est convexe) :
E(eXY |X) ≥ eE(XY |X) = eXEY = 1 ps.
2
3) Supposons que eX /2 est intégrable. Alors E(eXY |X = x) = E(exY |X = x) = E(exY )
2
(car X et Y sont indépendantes), d’où E(eXY |X = x) = ex /2 . On conclut donc que
2
E(eXY |X) = eX /2 ps.

5. Annexe
Rappelons qu’on définit L2 en introduisant sur
L2 = {X variable aléatoire telle que E(X 2 ) < ∞}
la relation d’équivalence X ∼ Y ⇔ P(X = Y ) = 1 et L2 = L2 / ∼.
Théorème 5.1. L2 est un espace de Hilbert.
Démonstration. Montrons que L2 est un espace vectoriel normé complet. Soit (Xn )n une
suite de Cauchy dans (L2 , || · ||2 ) :
∀ε ∃N ∈ N; ∀p, q ≥ N, ||Xp − Xq ||2 ≤ ε.
En particulier, pour tout n ≥ 1, il existe Nn ∈ N tel que pour tout p, q ≥ Nn , on a
||Xp − Xq ||2 ≤ 2−n . Comme la série de terme général 2−n converge, on a :
X X
|| (XNn +1 − XNn )||2 ≤ ||XNn +1 − XNn ||2 < ∞
n n
et la série de terme général XNn +1 −XNn converge presque sûrement : il existe une variable
aléatoire réelle X telle que lim XNn = X p.s.
Soit n ≥ 1 fixé. On a pour tout m ≥ n, pour tout p ≥ Nn : ||Xp − XNm ||2 ≤ 2−n . Par le
lemme de Fatou, on a pour tout p ≥ Nn :
E(Xp − X)2 = E lim(Xp − XNm )2 = E lim inf (Xp − XNm )2 ≤ lim inf E(Xp − XNm )2 ≤ 2−n .
m m m
12
Par linéarité de l’espérance, on en déduit que X ∈ L2 et limn ||Xn − X||2 = 0. Donc
(L2 , || · ||2 ) est bien un espace vectoriel normé complet. 
Théorème 5.2 (de la projection orthogonale). Soit K un sous-espace vectoriel complet
de L2 . Soit X ∈ L2 . Il existe Y ∈ K, unique presque sûrement, telle que
i) ||X − Y ||2 = inf{||X − Z||2 ; Z ∈ K},
ii) ∀Z ∈ K, < X − Y, Z >= 0.
On appelle Y la projection orthogonale de X sur K.
Démonstration. Soit (Yn )n une suite de K telle que limn ||X − Yn ||2 = inf{||X − Z||2 ; Z ∈
K}. On a alors
 
1 1
||X − Yr ||2 + ||X − Ys ||2 = X − (Yr + Ys ) + (Yr − Ys ) 2
2 2
 
1 1
+ X − (Yr + Ys ) − (Yr − Ys ) 2
2 2
1
= 2 X − (Yr + Ys ) 2 + ||Yr − Ys ||2 ≥ ||Yr − Ys ||2 .
2
On en déduit que la suite (Yn )n est de Cauchy dans K, qui est complet. Donc elle converge
(pour la norme || · ||2 ) vers Y ∈ K. On a alors :
inf{||X − Z||2 ; Z ∈ K} ≤ ||X − Y ||2 ≤ ||X − Yn ||2 + ||Yn − Y ||2 .
Comme lim ||X − Yn ||2 = inf{||X − Z||2 ; Z ∈ K} et lim ||Yn − Y ||2 = 0, on en déduit que
||X − Y ||2 = inf{||X − Z||2 ; Z ∈ K}.
Remarquons de plus que i) ⇔ ii). En effet, pour Z ∈ K, on a pour tout λ ∈ R,
Y + λZ ∈ K. Donc pour tout λ ∈ R, on a
||X − Y ||22 ≤ ||X − Y − λZ||22 + λ2 ||Z||22 + 2λ < X − Y, Z > .
En faisant un équivalent du membre de droite quand λ tend vers 0, on voit qu’il faut que
< X − Y, Z >= 0. La preuve de la réciproque est laissée en exercice. 
Références
[1] Benaı̈m M. El Karoui N. (2004), .
[2] Comets F. (2002), .
[3] Foata F. Fuchs (2004), .
[4] Toulouse P.S., .

13

Vous aimerez peut-être aussi