Vous êtes sur la page 1sur 5

Université d’Orléans – Préparation à l’agrégation de Mathématiques 1

Inégalités en analyse et en probabilités


Corrigé partiel des exercices
Exercice 6 (Covariance et corrélation).
1. On vérifie facilement que hX, Y i = cov(X, Y ) définit un forme bilinéaire symétrique
positive sur l’espace vectoriel des variables aléatoires X : Ω → R . Toutefois, on a

hX, Xi = 0 ⇔ E ([X − E (X)]2 ) = 0 ⇔ ∃c ∈ R : P {X = c} = 1 .

La covariance n’est donc pas une forme définie en général.


Toutefois hX, Y i = cov(X, Y ) est un produit scalaire si l’on se restreint aux variables
aléatoires centrées (d’espérance nulle), et que l’on identifie à 0 toutes les variables
aléatoires valant 0 avec probabilité 1.
2. La preuve de l’inégalité de Cauchy–Schwarz donnée dans l’exercice 1 n’utilise en
fait pas le caractère défini du produit scalaire (celui-ci n’intervient que dans la car-
actérisation de l’égalité). On peut donc conclure que

|cov(X, Y )|2 6 cov(X, X) cov(Y, Y ) = Var(X) Var(Y ) .

3. Par définition du coefficient de corrélation et l’inégalité ci-dessus, on a

ρX,Y ∈ [−1, 1] .

4. On a |ρX,Y | = 1 si et seulement si X et Y sont liés dans le sens qu’il existe a, b, c ∈ R


tels que
P {aX + bY = c} = 1 .
C’est encore une fois une conséquence de la preuve de l’exercice 1: l’égalité

|cov(X, Y )|2 = Var(X) Var(Y )

a lieu si et seulement s’il existe a, b ∈ R tels que Var(aX + bY ) = 0, ce qui équivaut à


la condition ci-dessus.

Exercice 7 (Inégalité de Bienaymé–Tchebychev).


1. Une première méthode consiste à observer que

E (X)2 6 E (X 2 ) < ∞

en vertu de l’inégalité de Jensen, appliquée à la fonction convexe ϕ(t) = t2 .


Une seconde possibilité consiste à appliquer l’inégalité de Cauchy–Schwarz à la forme
bilinéaire symétrique hX, Y i = E (XY ) pour conclure que
p p
|E (X)| = |E (X · 1)| 6 E (X 2 )E (1) = E (X 2 ) < ∞ ,

où 1 désigne la variable aléatoire constante égale à 1.


2. Il suffit d’appliquer l’inégalité de Markov pour obtenir
1 1
P |X − E (X)| > a = P (X − E (X))2 > a2 6 2 E (X − E (X))2 = 2 Var(X) .
  
a a
Université d’Orléans – Préparation à l’agrégation de Mathématiques 2

Exercice 8 (La loi faible des grands nombres).


1. Par linéarité de l’espérance, on a

E (Sn ) = nµ .

De plus, comme la variance d’une somme de variables aléatoires indépendantes est


égale à la somme de leurs variances, on a

Var(Sn ) = nσ 2 .

2. L’inégalité de Bienaymé–Tchebychev implique

σ2
 
Sn  1
P − µ > ε = P |Sn − E (Sn )| > nε 6 2 2 Var(Sn ) = 2 .
n n ε nε

Lorsque ε > 0 est fixé, σ 2 /(nε2 ) tend bien vers 0 lorsque n → ∞.

Exercice 9 (Equivalence entre inégalités de Cauchy–Schwarz et de Bessel*).


1. L’inégalité de Bessel pour n = 1 s’écrit

|hx, e1 i|2 6 hx, xi

pvecteur e1 tel que he1 , e1 i = 1. Si y 6= 0, l’inégalité appliquée au vecteur


pour tout
e1 = y/ hy, yi implique l’inégalité de Cauchy–Schwarz. Si y = 0, l’inégalité est
clairement satisfaite.
De plus, on a égalité si et seulement si x est colinéaire à e1 , ce qui est vrai si et
seulement si x est colinéaire à y.
2. En supposant vraie l’inégalité de Cauchy–Schwarz, on a
n n
X X X 2
|hx, ei i|2 = hx, ei i − hx, ej i hej , ei i
| {z }
i=1 i=1 j6=i
=0
n
X D X E 2
= x− hx, ej iej , ei
i=1 j6=i
Xn D X X E
6 x− hx, ej iej , x − hx, ek iek hei , ei i
| {z }
i=1 j6=i k6=i =1
n 
X X X X 
2 2
= hx, xi − |hx, ej i| − |hx, ek i| + hx, ej ihx, ek i hej , ek i
| {z }
i=1 j6=i k6=i j,k6=i
=δjk
n X
X
= nhx, xi − |hx, ej i|2
i=1 j6=i
n
X
= nhx, xi − (n − 1) |hx, ei i|2 .
i=1
Pn 2
En ajoutant (n − 1) i=1 |hx, ei i| des deux côtés et en divisant par n, on obtient
l’inégalité de Bessel.
Université d’Orléans – Préparation à l’agrégation de Mathématiques 3

P
De plus, on a égalité si et seulement si x − j6=i hx, ej iej est colinéaire à ei pour tout i.
Dans ce cas il existe des scalaires αi tels que
X
x = αi ei + hej , xiej
j6=i

pour tout i. En prenant le produit scalaire avec ei , on voit que αi = hei , xi. Par
conséquent, on a bien égalité si et seulement si
n
X
x= hei , xiei .
i=1

Exercice 10 (Intégration par parties*).


1. Considérons tout d’abord le cas où X admet une densité f . Notons
Z ∞
R(x) = P {X > x} = f (t) dt .
x

On a R0 (x)
= −f (x) et limx→∞ R(x) = 0. Par conséquent, une intégration par parties
nous fournit
Z b h ib Z b
E (ϕ(X)) = lim ϕ(x)f (x) dx = lim −ϕ(x)R(x) + lim ϕ0 (x)R(x) dx .
b→∞ 0 b→∞ 0 b→∞ 0

Le terme de bord ϕ(0)R(0) est nul par hypothèse. Par ailleurs, pour tout b > 0, nous
avons
Z ∞ Z ∞
ϕ(b)R(b) = ϕ(b)f (x) dx 6 ϕ(x)f (x) dx 6 E (ϕ(X)) < ∞ .
b b

Par conséquent, le terme de bord limb→∞ ϕ(b)R(b) est également nul, et le résultat
suit.
Dans le cas général, on peut utiliser la théorème de Fubini justifiant l’échange des
ordres d’intégration pour écrire
Z
E (ϕ(X)) = ϕ(X(ω)) dP (ω)

Z Z X(ω)
= ϕ0 (t) dt dP (ω)
ZΩ Z0 ∞
= 1{t<X(ω)} ϕ0 (t) dt dP (ω)
ZΩ∞ 0Z
= 1{X(ω)>t} ϕ0 (t) dP (ω) dt
0 Ω
Z ∞
= P {X > t}ϕ0 (t) dt .
0

2. En découpant l’intégrale en t = E (X) puis en utilisant l’inégalité de Markov, on a


Z E (X) Z ∞
0
E (ϕ(X)) = ϕ (t)P {X > t} dt + ϕ0 (t)P {X > t} dt
0 E (X)
Z E (X) Z ∞
1
6 ϕ0 (t) dt +
ϕ0 (t) E (X) dt
0 E (X) t
Z ∞ 0
ϕ (t)
= ϕ(E (X)) + E (X) dt .
E (X) t
Université d’Orléans – Préparation à l’agrégation de Mathématiques 4

3. Pour ϕ(t) = tp on obtient


Z ∞
p p
E (X ) 6 E (X) + E (X) ptp−2 dt .
E (X)

L’intégrale converge si et seulement si p < 1, et dans ce cas on obtient


E (X)p
E (X p ) 6 .
1−p
Si 0 < p < 1, la fonction t 7→ tp est concave, et l’inégalité de Jensen nous fournit
E (X p ) 6 E (X)p . L’inégalité de Jensen est donc plus précise dans ce cas. Toutefois la
majoration obtenue ci-dessus par l’inégalité de Markov ne requiert pas la concavité,
elle est donc plus générale.

Exercice 11 (Inégalité de type Chernoff–Cramér pour la loi binomiale*).


1. La somme Sn suit une loi binomiale d’espérance n2 et de variance n4 .
2. On a
1  
X 1 −λ/2 1 λ/2 λ
E (Zi ) = P {Xi = n}Zi (n) = e + e = cosh .
2 2 2
n=0
3. On a
n
Y   n
λ[Sn −E (Sn )]
 λ
E e =E Zi = cosh .
2
i=1
4. On peut utiliser l’inégalité de Markov en écrivant

P Sn − E (Sn ) > nt = P eλ[Sn −E (Sn )] > eλnt


 

6 e−λnt E eλ[Sn −E (Sn )]



 n
−λnt λ
=e cosh = e−nft (λ) ,
2
où nous avons posé   
λ
ft (λ) = λt − log cosh .
2
5. Comme la dérivée  
1 λ
ft0 (λ) = t − tanh
2 2
est positive pour λ → −∞ et négative pour λ → ∞ en ne changeant de signe qu’une
seule fois, la fonction λ 7→ ft (λ) admet un unique maximum, en λ∗ solution de
 ∗
λ
tanh = 2t .
2
On en déduit  
1 + 2t
λ∗ = log
1 − 2t
et
 
∗ 1 + 2t 1
I(t) = ft (λ ) = t log − log p
1 − 2t (1 − 2t)(1 + 2t)
   
1 1
= + t log(1 + 2t) + − t log(1 − 2t) .
2 2
Université d’Orléans – Préparation à l’agrégation de Mathématiques 5

La fonction t 7→ I(t) est définie sur l’intervalle [− 12 , 12 ], paire, et admet le développe-


ment limité en 0
I(t) = 2t2 + O(t4 ) .
De plus, on vérifie qu’elle est croissante sur [0, 21 ] et admet une tangente verticale en
t = 12 .

I(t)

0.5

−0.5 0.5 t

6. La probabilité cherchée est

P {S1000 > 600} = P {S1000 − 500 > 0.1 · 1000} 6 e−1000·I(0.1)

On trouve I(0.1) ∼
= 0.0201 et par conséquent

P {S1000 > 600} 6 e−20.1 = 1.8 · 10−9 .

L’inégalité de Bienaymé–Tchebychev fournit l’estimation beaucoup moins bonne


 
S1000 1
P {S1000 > 600 ou S1000 < 400} = P − > 0.1
1000 2
 
1 S1000
6 2
Var
0.1 1000
1
= = 0.025 .
40

Vous aimerez peut-être aussi