Académique Documents
Professionnel Documents
Culture Documents
1.2. Cas continu. Soit un couple (X, Y ) de densité pX,Y sur R2 . Soit I un intervalle de
R. Si pX (x) > 0, on peut écrire pour ∆ > 0 (∆ & 0) :
R
P(Y ∈ I, X ∈ [x, x + ∆] p (x, y)dy∆
Z
I X,Y pX,Y (x, y)
P(Y ∈ I|X ∈ [x, x + ∆]) = ' = dy.
P(X ∈ [x, x + ∆]) pX (x)∆ I pX (x)
Cela justifie la définition suivante :
1
Définition 1.3. Soit (X, Y ) un couple aléatoire à densité sur R2 et x ∈ R tel que
pX (x) > 0. On appelle densité conditionnelle de Y sachant X = x la fonction pY |X (·|x)
définie par
pX,Y (x, y)
pY |X (y|x) =
pX (x)
et la loi conditionnelle de Y sachant X = x la loi de probabilité sur R admettant pY |X (·|x)
pour densité.
On définit à nouveau l’espérance conditionnelle de Y sachant X = x par
E(Y |X) = ψ(X)
R
avec ψ(x) = E(Y |X = x) = ypY |X (y|x)dy.
Exemple 1.1. Considérons le couple (X, Y ) de densité jointe pX,Y (x, y) = x1 1l0<y<x<1 .
On obtient pX (x) = pX,Y (x, y)dy = 1l]0,1[ (x) et pour 0 < x < 1, pY |X (y|x) = x1 1l0<y<x .
R
Remarque 1. Si (X, Y ) ∈ Rn × Rd a une densité sur Rn+d , alors on définit de même loi
et densité conditionnelles. Si g : Rd → R est régulière, on a alors
Z
E(g(Y )|X = x) = g(y)pY |X (y|x)dy.
Rd
2. Cas général
Soit (Ω, A, P) un espace de probabilité.
Définition 2.1. Soit X une variable aléatoire intégrable, B ∈ A tel quel P(B) > 0. On
appelle espérance conditionnelle de X sachant B
Z Z
1
E(X|B) = XdP(·|B) = XdP.
P(B) B
R R
Remarque 2. 1) Si X est intégrable, alors E|X| = |X|dP < ∞ et donc |X|dP(·|B) =
1
R
P(B) B
|X|dP < ∞.
2) Si X = 1lA , alors E(1lA |B) = P(A|B)
Supposons que P(B) > 0 et P(B c ) > 0. On définit alors G = σ(B) = {B, B c , ∅, Ω}. On
appelle espérance conditionnelle de X sachant G la variable aléatoire G-mesurable :
E(X|G) = E(X|B)1lB + E(X|B c )1lB c .
Ainsi, si (Bk )k est une partition de Ω par des événements tels que pour tout k ∈ N,
P(Bk ) > 0 et G = Σ(Bk , k ∈ N), alors
∞
X
E(X|G) = E(X|Bk )1lBk .
k=0
Remarque 3. Il n’y a pas de problème de convergence de la série car (Bk )k est une partition
de Ω, donc pour tout ω ∈ Ω, seul Bk0 compte :
E(X|G)(ω) = E(X|Bk0 )1lBk0 .
2
Théorème 2.1 (Théorème-définition). Soit X une variable aléatoire intégrable (ou po-
sitive) sur (Ω, A, P). Soit G une sous-tribu de A. Alors, il existe une variable aléatoire Y ,
G-mesurable et PG -intégrable (ou positive) vérifiant :
Z Z
∀A ∈ G, XdP = Y dP.
A A
Cette variable aléatoire Y est définie PG −presque-sûrement de manière unique. Elle est
appelée espérance conditionnelle de X sachant G et se note E(X|G).
Remarque 4. Dans le cas où X 2 est intégrable, on établit facilement cette existence. En
effet, notons L2 l’espace des variables aléatoires réelles X telles que E(X 2 ) < ∞. L2 muni
du produit scalaire
< X, Y >= E(XY )
et de la norme associée p p
||X||2 = < X, X > = E(X 2 )
est un espace de Hilbert. (Remarquons qu’on définit L2 en introduisant sur
L2 = {X variable aléatoire telle que E(X 2 ) < ∞}
la relation d’équivalence X ∼ Y ⇔ P(X = Y ) = 1 et L2 = L2 / ∼.
La preuve de “L2 est un espace de Hilbert” est donnée en Annexe5. Soit L2 (G) ⊂ L2 le
sous-espace constitué des variables aléatoires réelles G-mesurables. D’après le théorème
des projections (voir Annexe5) :
L2 = L2 (G) ⊕ L2 (G)⊥
et tout élément X ∈ L2 s’écrit de façon unique
X = Y + (X − Y )
où Y est la projection orthogonale de X sur L2 (G), càd Y est caractérisé par :
i) Y est G-mesurable
ii) (X − Y )⊥Z (ie E(XZ) = E(Y Z) pour tout Z ∈ L2 (G).
R R
On a alors 1lA Y dP = 1lA XdP pour tout A ∈ G.
Ceci prouve l’existence de l’espérance conditionnelle pour des variables aléatoires dans
L2 et donne une interprétation géométrique concrète : pour X ∈ L2 , Y = E(X|G) est la
meilleure approximation de X au sens L2 par des variables aléatoires de L2 (G). Il s’agit
donc de l’unique élément de L2 (G) réalisant l’égalité
||X − Y ||2 = inf ||X − Z||2 .
Z∈L2 (G)
Or par construction, Xn ≥ 0 et Xn 1lYn <0 ≥ 0, donc P(Yn < 0) = 0. Comme Xn+1 −Xn ≥ 0,
on a
E(Xn+1 |G) − E(Xn |G) = E(Xn+1 − Xn |G) ≥ 0.
On obtient alors par convergence monotone pour tout A ∈ G
Z Z Z Z Z
XdP = lim Xn dP = lim Yn 1lA dP = lim Yn 1lA dP = Y dP.
A A A
Par unicité de l’espérance conditionnelle, on trouve que E(Y |G)1lC = E(Y 1lC |G). Donc
E(Xn Y |G) = Xn E(Y |G) % XE(Y |G).
12)
Théorème 3.4 (Inégalité de Jensen conditionnelle). Soit X une variable aléatoire intégrable
à valeurs dans I, f : I → R une fonction convexe. Alors : E(X|G) ∈ I p.s. et si
E|f (X)| < ∞, alors f (E(X|G)) ≤ E(f (X)|G) p.s.
Idée de la preuve. On montre qu’il existe I0 dénombrable, I0 ⊂ I tel que ∀y ∈ I,
f (y) = sup{f (x) + f+0 (x)(y − x)}
x∈I0
Exercice 5
Soit ([0, 1], B, λ) où B est la tribu borélienne sur [0, 1] et λ est la mesure de Lebesgue.
a) Considérons la tribu G sur [0, 1] engendrée les intervalles ] 14 , 32 ] et ] 32 , 1]. On note X
la variable aléatoire ω 7→ ω 2 . Calculer E(X|G).
b) Pour tout entier n, on pose pour tout entier 0 ≤ k ≤ 2n − 1, Ink = [2−n k, 2−n (k + 1)].
Considérons les tribus Fn = σ(Ink ; 0 ≤ k ≤ 2n − 1) et F∞ = σ(Fn , n ≥ 1).
i) Qui est F∞ ?
ii) Soit Z une fonction continue Z : [0, 1], → R. On lui associe la suite de variables
aléatoires (Zn )n , Zn = E(Z|Fn ). Etudier la convergence p.s. de cette suite.
Exercice 6
On réalise une suite infinie de parties indépendantes d’un jeu à deux issues possibles :
le succès avec probabilité p et l’échec avec probabilité 1 − p. Désignons par N l’instant
6
du premier succès et définissons la variable aléatoire Y par Y = 1 si le résultat de la
première partie est un succès et Y = 0 sinon. Calculer Var(N ) en conditionnant N par
rapport Y .
Exercice 7
Soit S une v.a. ayant une loi exponentielle de paramètre 1. On fixe un nombre t > 0 et
on définit les deux v.a. X et Y :
X = sup(S, t); Y = inf(S, t).
Calculer E(S|X) et E(S|Y ).
Exercice 8
Soit (X, Y ) un vecteur aléatoire de R2 , dont la loi admet une densité f par rapport à la
mesure de Lebesgue :
n(n − 1)(y − x)n−2 si 0 ≤ x ≤ y ≤ 1
f (x, y) =
0 sinon
où n ≥ 2 est fixé.
1) Quelle est la loi marginale de Y ?
2) Calculer la densité conditionnelle par rapport à la mesure de Lebesgue de la loi de
Y sous l’hypothèse X = x.
3) Calculer E(Y |X = x). En déduire E(Y ).
Exercice 9
Soit (Ak )k≥1 une suite d’événements indépendants deux à deux et tels que
X
P(A1 ) > 0 et P(Ak ) = ∞.
k≥1
Exercice 10
1) Soient X et Y deux v.a. Montrer qu’elles sont indépendantes si et seulement si pour
toute fonction g : R → R borélienne bornée, on a :
E[g(Y )|X] = E[g(Y )] p.s.
2) Application : on considère (X, Y ) un vecteur aléatoire dont la loi possède une densité
u par rapport à la mesure de Lebesgue 2-dimensionnelle :
u(x, y) = e−y 1l0<x<y .
Calculer la loi conditionnelle de Y sachant X = x. En déduire que X et Y − X sont
indépendantes.
7
Exercice 11
Soient X et Y deux v.a.indépendantes, Y a une loi N (0, 1).
1) Montrer que les trois propriétés suivantes sont équivalentes :
X2
(∗)e 2 est intégrable; (∗∗)eXY est intégrable; (∗ ∗ ∗)e|XY | est intégrable
X2
2) Montrer que lorsque e 2 est intégrable, alors E[eXY |X] ≥ 1 p.s.
X2
3) Calculer E[eXY |X] lorsque e 2 est intégrable.
Solution 1 Rt
Soit F (t) = P(T < t) = 0 f (u)du. Alors
P(t < T < a + t) F (a + t) − F (t)
P(T − t < a|T > t) = =
Pr(T > t) 1 − F (t)
et l’hypothèse faite sur T se reécrit
F (a + t) − F (t) = (1 − F (t))F (a).
En dérivant cette égalité en t = 0, on obtient
f (a) − f (0) = −f (0)F (a).
Ceci prouve que f est C 1 et que f est solution de l’équation différentielle
f 0 (a) = −f (0)f (a)
dont la solution est donnée par f (a) = λe−λa , f (0) = λ.
Solution 2
X représente le nombre de descendants survivants. Il s’agit donc d’une v.a. à valeurs
entières positives. De même pour N qui représente le nombre total d’œufs pondus.
1) Rappelons tout d’abord que l’espérance conditionnelle est une v.a. Le développement
n
de chaque œuf est indépendant de celui des autres. On a P(N = n) = e−m mn! et P(X =
k|N = n) = Cnk pk (1 − p)n−k pour k ∈ {0, · · · , n}, et vaut 0 sinon. Nous savons par
définition que :
n n n
X X
k k n−k
X pk (1 − p)n−k
E[X|N = n] = kP(X = k|N = n) = kCn p (1 − p) = n!
k=0 k=0 k=1
(k − 1)!(n − k)!
Cela implique donc
n
X X X pk (1 − p)n−k
E[X|N ] = E[X|N = n]1lN =n = n! 1N =n .
n n k=1
(k − 1)!(n − k)!
Pour calculer la moyenne de X, il ne nous reste plus qu’à utiliser le fait que
X X pk (1 − p)n−k
E(X) = E(E[X|N ]) = P(N = n) n! = pm.
n k
(k − 1)!(n − k)!
2) Calculons la loi de X par une méthode “directe”. Par la formule des probabilités
totales, on a pour r ∈ N :
∞ ∞
X X mi
P(X = r) = P(X = r|N = i)P(N = i) = Cir pr (1 − p)i−r e−m
i=r i=r
i!
(mp)r
= e−mp
r!
8
X suit donc une loi de Poisson de paramètre mp. On obtient alors immédiatement sa
moyenne : E(X) = mp.
Solution 3
n
1. On a par hypothèse sur les variables N et K : P(N = n) = λn! e−λ , E(N ) = λ et
P(K = k|N = n) = Cnk pkP (1 − p)n−k .
D’où E(K|N = n) = k kP(K = k|N = n) = np, ce qui donne E(K|N ) = pN . Nous
savons de plus, par propriété de l’espérance conditionnelle, que E(K) = E[E(K|N )] =
pE(N ) par linéarité, donc E(K) = λp.
2. Posons Y = X
P
i=1 Yi avec Yi = 1 si la i-ème voiture est “parisienne” et Yi = 0 si elle
est “lyonnaise”.
P(Y = k|X = n) = Cnk pk (1 − p)n−k
pour k ≤ n et P(Y = K|X = n) = 0 sinon. Ainsi, comme dans la question précédente,
on en déduit que
X (λp)k
P(Y = k) = P(Y = k|X = n)P(X = n) = e−λp .
n≥k
k!
Solution 4
Soit T le temps mis par le prisonnier pour recouvrer sa liberté. Considérons les événements
suivants :
A=“il choisit la bonne porte”, B=“il choisit la porte 2 jours”, et C=“il choisit la porte
4 jours”.
Avant tout chose, il faut vérifier que E(T ) < ∞. Ici, T est discrète positive, d’où
X X 4(k+1)−1
X X
E(T ) = P(T ≥ n) ≤ 4 + P(T > n) ≤ 4 + 4P(T > 4k).
n≥1 k≥1 n=4k k≥1
Or {T > 4k} ⊂ {il y a au moins k retours à l’origine}, donc P(T > 4k) ≤ (2/3)k , ce qui
montre bien que T est intégrable.
On a : E(T |A) = 1, E(T |B) = 2 + E(T̃ ) et E(T |C) = 4 + E(T̃˜), où T̃ et T̃˜ sont des v.a.
de même loi que T , indépendantes. Soit G = σ(A, B, C). Par définition, on sait que
E(T |G) = 1lA + (2 + E(T ))1lB + (4 + E(T ))1lC .
De plus, E(T ) = E(E(T |G)), donc
1
E(T ) = P(A) + (2 + E(T ))P(B) + (4 + E(T ))P(C) = + 0, 5(2 + E(T )) + 0, 3(4 + E(T ))
5
donc E(T ) = 12.
Solution 5
a) Notons A =] 41 , 23 ], B =] 32 , 1] et C = [0, 14 ]. On a par définition
E(X|G) = E(X|A)1lA + E(X|B)1lB + E(X|C)1lC .
Or on sait que
Z Z 2/3
1 12 97
E(X|A) = XdP = ω 2 dω = .
P(A) A 5 1/4 432
19 1
De même, on trouve que E(X|B) = 27
et E(X|C) = 48 . On en déduit la formule donnant
E(X|G).
9
b) i) On sait par construction que F∞ ⊂ B([0, 1]) (car pour tout n, Fn ⊂ B([0, 1]).
Montrons maintenant que B([0, 1]) P ⊂ F∞ . Soit E = {[0, t[} pour t ∈ [0, 1]. Or on a le
développement dyadique de t : t = n≥1 α2nn avec αn = 0 ou 1.
Soit Ak = [0, ki=1 α2ii [= [0, 2Ak [. Comme [ 2jk , j+1 ] ∩ [ j+1 , j+2 ] = { j+1
P
2k 2k 2k 2k
}, on voit que
j+1 A A−1 j j+1
{ 2k } ∈ Fk et donc [0, 2k [= ∪j=0 [ 2k , 2k [∈ Fk . Donc Ak ∈ F∞ . De plus, Ak est limite
croissante de [0, t[, donc [0, t[∈ F∞ et donc on obtient le résultat souhaité. Finalement,
on voit que F∞ = B([0, 1]).
ii) Posons Ink = [k2−n , (k + 1)2−n [. On a
2− 1 2− 1 Z
X X 1
Z − Zn = E(Z|Fn ) − Z = E(Z|Ink )Ink − Z = Zdλ − Z Ink .
P(I nk ) Ink
k=0 k=0
Solution 6
Soit N l’instant du premier succès. Notons Y = 1 si la première partie est un succès et
Y = 0 sinon. Tout d’abord, calculons E(N ). N est une v.a. positive, à valeurs dans N.
Par définition, on sait que E(N ) = E(E(N |Y )). Or
E(N |Y ) = E(N |Y = 1)1lY =1 + E(N |Y = 0)1lY =0 ,
E(N |Y = 1) = 1 et E(N |Y = 0) = 1 + E(Ñ ) où Ñ suit la même loi que N et est
indépendante de {Y = 0}. On a donc E(N |Y ) = 1lY =1 + (1 + E(N ))1lY =0 . Ainsi, on
obtient
E(N ) = P(Y = 1) + (1 + E(N ))P(Y = 0) = p + (1 + E(N ))(1 − p)
et E(N ) = p−1 . On procède identiquement pour montrer que E(N 2 ) = 2
p2
− p1 et finalement
Var(N ) = p12 − p1 .
Solution 7
1
1) Calculons E(S|X). On sait que E(S|X = x) = E(S1lX=x ) P(X=x) = x si x > t (et cela
n’est pas possible si x < t). En effet, supposons x > t. Alors par définition, on a
R
x<X≤x+h
SdP
E(S|X = x) = x = lim .
h&0 P(x < X ≤ x + h
1
R
Il reste donc à traiter le cas x = t.On sait que E(S|X = t) = P(X=t X=t
SdP. Or
−t
R R t −s −t
P(X = t) = P(S ≤ t) = 1 − e et X=t SdP = 0 se ds = 1 − e (1 + t). On conclut
alors
E(S|X) = E(S|X = x)1lX<t + E(S|X = x)1lX=t + E(S|X = x)1lX>t
1 − e−X (1 + X)
= X1l]t,∞[ (X) + 1l{t} (X).
1 − e−X
10
2) On procède identiquement pour calculer E(S|Y ). On obtient :
E(S|Y ) = E(S|Y = y)1ly<t + E(S|Y = y)1ly=t + E(S|Y = y)1ly>t
= E(S|Y = y)1ly<t + E(S|Y = y)1ly=t .
De même, si y < t, alors E(S|Y = y) = y. Il ne reste onc qu’à traiter le cas y = t :
Z Z
1 1
E(S|Y = t) = SdP = SdP = 1 + t.
P(Y = t) Y =t P(S ≥ t) S≥t
On a donc finalement E(S|Y ) = Y 1l[0,t[ (Y ) + (1 + Y )1l{t} (Y ).
Solution 8
1) Déterminons la loi marginale de X, notée f1 . On sait que
Z
f1 (x) = f (x, y)λ(dy) = n(1 − x)n−1 1l0≤x≤1 .
R
On reconnait alors la densité de loi loi Bêta de paramètres (n, 1). On obtient ainsi la
fonction de répartition suivante :
Z t
P(X ≤ t) = f1 (x)dx = (1 − (1 − t)n )1l0≤t≤1 + 1lt≥1 .
−∞
Solution 9
2) La première inégalité est triviale par définition de S. Pour la deuxième, il suffit d’écrire
ESn ESn ESn
P(|Sn − ESn | ≤ = P(− ≤ Sn − ESn ≤ ).
2 2 2
La dernière inégalité n’est rien de plus que celle de Markov.
Solution 10
1) Supposons tout d’abord que X et Y sont indépendantes. Alors X et g(Y ) le sont aussi
pour toute fonction g borélienne bornée, car σ(g(Y )) ⊂ σ(Y ). Donc E(g(Y )|X) = Eg(Y )
ps.
Supposons maintenant que pour toute fonction g borélienne bornée, on a E(g(Y )|X) =
Eg(Y ) ps. Soit h une fonction borélienne bornée. On a
E(h(X)g(Y )) = E(h(X)E(g(Y )|X)) = E(h(X)Eg(Y )) = Eh(X)Eg(Y ).
On choisit alors g = 1lA et h = 1lB où A et B sont des boréliens quelconques et donc X
et Y sot bien indépendantes.
2) Pour trouver la loi conditionnelle de Y sachant X = x, commeno̧ns par calculer la
marginale de X, qui est
Z ∞
f1 (x) = e−y dy1lx>0 = e−x 1lx>0 .
x
11
u(x,x)
On a alors p(y|x) = = e−y+x 1l0<x<y et
f1 (x)
Z t
P(Y ≤ t|X = x) = p(y|x)dy = (t − x)(ex−t − 1).
x
Pour montrer que X et X − Y sont indépendantes, considérons une fonction g borélienne
bornée. On a :
Z Z ∞ Z ∞
−y+x
E(g(Y − X)|X = x) = g(y − x)p(y|x)λ(dy) = g(y − x)e dy = g(v)e−v dv
R x 0
avec le changement de variable v = y − x. Cette dernière intégrale est constante (elle ne
dépend plus de x). On a bien prouvé l’indépendance demandée.
Solution 11
1) Si e|XY | est intégrable, alors eXY l’est aussi.
R R∞ −y 2 /2 2
E(eXY ) = Ω eXY dP = R −∞ exy e √2π dydPX (x) par Fubini. Donc E(eXY ) = R ex /2 dPX (x) =
R R
2
EeX /2 .
De même
Z Z ∞ −y 2 /2 Z Z ∞ −y 2 /2
|XY | x|y| e −x|y| e
E(e )= e √dydPX (x) + e √ dydPX (x).
x>0 −∞ 2π x<0 −∞ 2π
R∞ 2 R∞ 2 2 2 √ 2
Or −∞ ex|y| e−y /2 dy ≤ ex /2 2π, donc E(e|XY | ) ≤ 2E(eX /2 ).
2 0 e−(y−x) /2+x /2 dy ≤
2
2) Si eX /2 est intégrable, alors E(e |X) ≥ 1 ps. Donc par l’inégalité de Jensen (car exp
XY
est convexe) :
E(eXY |X) ≥ eE(XY |X) = eXEY = 1 ps.
2
3) Supposons que eX /2 est intégrable. Alors E(eXY |X = x) = E(exY |X = x) = E(exY )
2
(car X et Y sont indépendantes), d’où E(eXY |X = x) = ex /2 . On conclut donc que
2
E(eXY |X) = eX /2 ps.
5. Annexe
Rappelons qu’on définit L2 en introduisant sur
L2 = {X variable aléatoire telle que E(X 2 ) < ∞}
la relation d’équivalence X ∼ Y ⇔ P(X = Y ) = 1 et L2 = L2 / ∼.
Théorème 5.1. L2 est un espace de Hilbert.
Démonstration. Montrons que L2 est un espace vectoriel normé complet. Soit (Xn )n une
suite de Cauchy dans (L2 , || · ||2 ) :
∀ε ∃N ∈ N; ∀p, q ≥ N, ||Xp − Xq ||2 ≤ ε.
En particulier, pour tout n ≥ 1, il existe Nn ∈ N tel que pour tout p, q ≥ Nn , on a
||Xp − Xq ||2 ≤ 2−n . Comme la série de terme général 2−n converge, on a :
X X
|| (XNn +1 − XNn )||2 ≤ ||XNn +1 − XNn ||2 < ∞
n n
et la série de terme général XNn +1 −XNn converge presque sûrement : il existe une variable
aléatoire réelle X telle que lim XNn = X p.s.
Soit n ≥ 1 fixé. On a pour tout m ≥ n, pour tout p ≥ Nn : ||Xp − XNm ||2 ≤ 2−n . Par le
lemme de Fatou, on a pour tout p ≥ Nn :
E(Xp − X)2 = E lim(Xp − XNm )2 = E lim inf (Xp − XNm )2 ≤ lim inf E(Xp − XNm )2 ≤ 2−n .
m m m
12
Par linéarité de l’espérance, on en déduit que X ∈ L2 et limn ||Xn − X||2 = 0. Donc
(L2 , || · ||2 ) est bien un espace vectoriel normé complet.
Théorème 5.2 (de la projection orthogonale). Soit K un sous-espace vectoriel complet
de L2 . Soit X ∈ L2 . Il existe Y ∈ K, unique presque sûrement, telle que
i) ||X − Y ||2 = inf{||X − Z||2 ; Z ∈ K},
ii) ∀Z ∈ K, < X − Y, Z >= 0.
On appelle Y la projection orthogonale de X sur K.
Démonstration. Soit (Yn )n une suite de K telle que limn ||X − Yn ||2 = inf{||X − Z||2 ; Z ∈
K}. On a alors
1 1
||X − Yr ||2 + ||X − Ys ||2 = X − (Yr + Ys ) + (Yr − Ys )2
2 2
1 1
+ X − (Yr + Ys ) − (Yr − Ys )2
2 2
1
= 2X − (Yr + Ys )2 + ||Yr − Ys ||2 ≥ ||Yr − Ys ||2 .
2
On en déduit que la suite (Yn )n est de Cauchy dans K, qui est complet. Donc elle converge
(pour la norme || · ||2 ) vers Y ∈ K. On a alors :
inf{||X − Z||2 ; Z ∈ K} ≤ ||X − Y ||2 ≤ ||X − Yn ||2 + ||Yn − Y ||2 .
Comme lim ||X − Yn ||2 = inf{||X − Z||2 ; Z ∈ K} et lim ||Yn − Y ||2 = 0, on en déduit que
||X − Y ||2 = inf{||X − Z||2 ; Z ∈ K}.
Remarquons de plus que i) ⇔ ii). En effet, pour Z ∈ K, on a pour tout λ ∈ R,
Y + λZ ∈ K. Donc pour tout λ ∈ R, on a
||X − Y ||22 ≤ ||X − Y − λZ||22 + λ2 ||Z||22 + 2λ < X − Y, Z > .
En faisant un équivalent du membre de droite quand λ tend vers 0, on voit qu’il faut que
< X − Y, Z >= 0. La preuve de la réciproque est laissée en exercice.
Références
[1] Benaı̈m M. El Karoui N. (2004), .
[2] Comets F. (2002), .
[3] Foata F. Fuchs (2004), .
[4] Toulouse P.S., .
13