Vous êtes sur la page 1sur 48

Corrigé de la série "proba et variables aléatoires"

Exercice 6:
Exercice 8: (Partie 4)
Exercice 7: (Les questions sont numérotés autrement dans le corrigé)
Exercice 14: (Extrait du concours Mines Ponts PSI 2021 : Je vous conseille de voir le reste du sujet ....)

Variables aléatoires entières symétriques à forte dispersion

Questions de cours

xn P(X = xn ) converge absolument, c’est-à-


P
1. On dit que X est d’espérance finie si la série
n>0
|xn |P(X = xn ) converge (une probabilité est positive, donc
P
dire si et seulement si la série
n>0
|P(X = xn )| = P(X = xn )).
Notons que d’après le théorème du transfert, |X| est d’espérance finie si et seulement si la série
|xn |P(X = xn ) converge absolument. Ce qui, d’après le rappel ci-dessus, équivaut au fait que
P
n>0
X soit d’espérance finie, d’où le résultat.
2. Sous ces hypothèses, on a pour tout n ∈ N : |xn |P(X = xn ) 6 M P(X = xn ). En effet, soit
|xn | 6 M , auquel cas c’est évident, soit |xn | > M , auquel cas P(X = xn ) = 0 (donc chaque
membre de l’inégalité est nul, et elle reste vraie) vu que par hypothèse P(|X| > M ) = 0, et :
(X = xn ) ⊆ (|X| > M ).
M P(X = xn ) converge par σ-additivité d’une probabilité, donc par comparaison de
P
Or la série
n>0
xn P(X = xn ) converge absolument : d’où le résultat.
P
séries à termes positifs la série
n>0

Généralités sur les variables aléatoires


3. On rappelle que X est d’espérance finie si et seulement si |X| l’est. Or |X| est à valeurs dans
N, et on sait que dans ce cas, |X| est d’espérance finie si et seulement si la série P(|X| > n)
P
n>1
α
converge. Mais, dans le cas où X vérifie (Dα ), on a : P(|X| > n) ∼ avec α > 0, et on sait
n→+∞ n
P 1
que la série harmonique n
est divergente. Donc, par comparaison de séries à termes positifs, la
n>1
P(|X| > n) diverge aussi : ainsi |X| n’est pas d’espérance finie, et X non plus.
P
série
n>1
On vient de justifier que |X| n’est pas d’espérance finie, donc la série |xn |P(X = xn ) diverge. Or
P
n>0
l’inégalité : ∀n ∈ N, (|xn | − 1)2 > 0 implique : ∀n ∈ N, x2n + 1 > 2|xn |, donc d’après le théorème de
P 2
comparaison de séries à termes positifs, la série (xn +1)P(X = xn ) diverge également, et la série
n>0
x2n P(X = xn ) diverge aussi (en tant que différence de la série divergente (x2n + 1)P(X = xn )
P P
n>0 n>0
P(X = xn )). D’après le théorème du transfert, on en déduit que X 2
P
et de la série convergente
n>0
n’est pas d’espérance finie.
4. Puisque X est symétrique, les variables aléatoires X et −X ont même loi. D’après le principe de
transfert de l’égalité en loi (théorème 1 du préambule), f (X) et f (−X) ont aussi même loi. Or
f (−X) = −f (X) car f est supposée impaire, donc finalement il en résulte que f (X) et −f (X)
ont même loi : cela prouve que f (X) est symétrique.
On suppose que f (X) est d’espérance finie. Puisque f (X) et −f (X) ont même loi, leurs espé-
rances sont égales, donc : E (f (X)) = E (−f (X)). Or l’espérance est linéaire, donc : E (f (X)) =
−E (f (X)). On en déduit : E(f (X)) = 0.
5. On veut montrer que X + Y est symétrique. On doit montrer :

∀z ∈ (X + Y )(Ω), P(X + Y = z) = P(−X − Y = z).

1
Soit z ∈ (X + Y )(Ω). On a :
[
(X + Y = z) = (X = x, Y = z − x).
x∈X(Ω)

Donc, par σ-additivité et indépendance des variables aléatoires X et Y :


X X
P(X + Y = z) = P(X = x, Y = z − x) = P(X = x)P(Y = z − x).
x∈X(Ω) x∈X(Ω)

Or X et Y sont symétriques, donc :


X X
P(X = x)P(Y = z − x) = P(−X = x)P(−Y = z − x),
x∈X(Ω) x∈X(Ω)

et en imitant le raisonnement fait pour (X + Y ) = Z, on montre que cette somme est égale à
P(−X − Y = z). On a donc montré :
P(X + Y = z) = P(−X − Y = z),
d’où le résultat.

Fonction caractéristique d’une variable aléatoire symétrique


14. Montrer que ΦX est bien définie revient à justifier que pour tout t ∈ R, la variable aléatoire
cos(tX) admet une espérance ; or le cosinus est borné par 1, donc d’après la question 2 on a le
résultat voulu.
Soit t ∈ R. Comme le cosinus est une fonction paire, on a : cos(tX) = cos(−tX), donc les
espérances de ces deux variables aléatoires sont les mêmes, et on a ΦX (t) = ΦX (−t). Ceci prouve
que ΦX est une fonction paire.
Enfin, on a : −1 6 cos(tX) 6 1, donc, par croissance de l’espérance : E(−1) 6 E (cos(tX)) 6 E(1),
c’est-à-dire : −1 6 ΦX (t) 6 1. D’où le résultat.
15. D’après le théorème du transfert, on a :
+∞
X
∀t ∈ R, ΦX (t) = cos(xn t)P(X = xn ).
n=0

Or, si l’on pose : ∀n ∈ N, ∀t ∈ R, fn (t) = cos(xn t)P(X = xn ), alors on montre facilement :


∀n ∈ N, kfn k∞ 6 P(X = xn ). La série P(X = xn ) converge par σ-additivité d’une probabilité,
P
n>0
kfn k∞ converge aussi. Ainsi la série
P
donc par comparaison des séries à termes positifs la série
n>0
fn converge normalement, donc uniformément, sur R, et fn est continue sur R
P
de fonctions
n>0
pour tout n ∈ N. En tant que limite uniforme d’une série de fonctions continues, la fonction ΦX
est continue sur R.
Exercice 16: (Peut être les questions sont numérotées autrement dans le corrigé

VI. Transformation de Laplace


VI.AOnapplique le theor eme de regularité d’une integrale ´ a` parametre `
sur un segment ...

VI.B
VI.B.1 (Question de cours)
La fonction génératrice des variables Xi+∞
est : +∞
  λk
Xi
GXi (t) = E(t ) = P(Xi = k)tk = e−λ tk = eλ(t−1) .
k!
k=0 k=0

On sait aussi que si X et Y sont deux variables indépendantes, tX et tY le sont et donc


E(tX+Y ) = E(tX tY ) = GX (t)GY (t).
Montrons maintenant, par récurrence, que Sn → P(nλ).
– C’est immédiat au rang n = 1 .
– Supposons le résultat vrai au rang n  1 . Comme Sn et Xn+1 sont indépendantes,

GSn+1 (t) = GSn (t)GXn+1 (t) = enλ(t−1) eλ(t−1) = e(n+1)λ(t−1)

Sn+1 suit donc une loi de Poisson de paramètre (n + 1)λ puisque sa fonction génératrice est celle
d’une telle loi.
VI.B.2 (Question de cours, cf. loi faible  desgrands nombres)
Sn
Par linéarité de l’espérance, E = λ puisque l’espérance de chaque Xi est égale à λ.
n
De plus, les variables étant indépendantes, et puisque V(Xi ) = λ pour tout i :
n

V(Sn ) = V(Xi ) = nλ ,
i=1
 
Sn 1 λ
donc V = V(Sn ) = .
n n2 n
Sn
L’inégalité de Bienaymé-Tchebychev appliquée à la variable aléatoire s’écrit :
n
     
 Sn Sn  1 Sn

P  −E  ε  2V
n n  ε n
et en remplaçant par les valeurs ci-dessus on obtient :

P (|Sn − λ|  nε)  λ .
nε2
VI.B.3 On a l’implication : x > n(λ + ε) =⇒ |x − nλ|  nε d’où l’inclusion :
(Sn > n(λ + ε)) ⊂ (|Sn − nλ|  nε)
De même on a l’implication : x  n(λ − ε) =⇒ |x − nλ|  nε . Ainsi :
(Sn  n(λ − ε)) ⊂ (|Sn − nλ|  nε)
λ−x
VI.B.4 Supposons x ∈ [0 ; λ[ et posons ε = 2 . On a ε > 0 et x < λ − ε . On en déduit que
(Sn  nx) ⊂ (Sn  n(λ − ε)) et donc :
λ .
0  P(Sn  nx)  P(Sn  n(λ − ε))  P(|Sn − nλ|  nε) 
nε2
Par théorème d’encadrement, on a donc :
∀ x ∈ [0 ; λ[, lim P(Sn  nx) = 0.
n→+∞
x−λ
Supposons maintenant x > λ et posons ε = 2 . On a ε > 0 et λ + ε < x. On en déduit que
(Sn > nx) ⊂ (Sn > n(λ − ε)) et donc :
λ .
0  P(Sn > nx)  P(Sn > n(λ − ε))  P(|Sn − nλ|  nε) 
nε2
Par théorème d’encadrement, P(Sn > nx) → 0 et donc P(Sn  nx) = 1 − P(Sn > nx) → 1 :
∀ x > λ, lim P(Sn  nx) = 1.
n→+∞

VI.C Sn étant à valeurs entières positives et suivant une loi de Poisson de paramètre nλ,
  (nλ)k
P(Sn  nx) = P(Sn = k) = e−nλ
k!
0knx 0knx

et la question précédente donne :



 (nλ)k −nλ 0 si 0  x < λ
lim e =
n→+∞ k! 1 si x > λ .
0knx

VI.D
VI.D.1 Avec la formule de VI.A pour (L(f ))(k) , on a :
   +∞
nk (nt)k
(−1)k (L(f ))(k) (n) = f (t)e−nt dt
k! 0 k!
0knx 0knx
⎛ ⎞
 +∞  (nt)k
= ⎝ f (t)e−nt ⎠ dt.
0 k!
0knx

Notons (x étant fixé) Fn la fonction (de t) sous l’intégrale. La question précédente indique que la suite
(Fn ) converge simplement sur R vers la fonction valant f sur [0, x[ , f (x)2 en x et nulle sur ]x ; +∞[ ;
nous noterons F cette fonction. Il nous suffit de pouvoir intervertir limite et intégrale pour pouvoir
conclure. Les Fn et F et F étant continues par morceaux, il nous suffit de vérifier l’hypothèse de
domination pour utiliser le théorème de convergence dominée. Or on a :
+∞
 (nt)k
∀ n ∈ N, ∀ t ∈ R+ , |Fn (t)|  |f (t)| e−nt = |f (t)|
k!
k=0
+
et le majorant est intégrable sur R . On a ainsi prouvé que :
 k  x
kn (k)
lim (−1) (L(f )) (n) = f (t) dt.
n→+∞ k! 0
0knx

VI.C.2 L est linéaire donc il suffit de montrer que son noyau est réduit à {0} .
 nulle hors d’un segment et telle que L(f ) = 0 . La question précédente
Soit donc f une fonction continue
x
montre que pour tout x réel, f (t) dt = 0 . En dérivant, f est nulle sur R.
0
Exercice 17 : (Peut être les questions sont numérotées autrement dans le corrigé)
Exercice 10 :
Exercice 12: (Vers une rédaction de la question 5 …)

Exercice 15 :
A.
Exercice 19 :
3.
Exercice 20 :
Q.45 : Voir le rappel après le tableau (Page N°2)

Exercice 21:
Exercice 22:
Exercice 23:
Exercice 24:

Centrale 2017 - PSI1


Un corrigé

1 Premiers résultats
1.1 Une classe de variables aléatoires
1. Il s’agit de l’inégalité de Cauchy-Schwarz. Pour la prouver, on remarque que E((U + tV )2 ) > 0
pour tout t. Par linéarité de l’espérance, on a donc
∀t ∈ R, t2 E(V 2 ) + 2tE(U V ) + E(U 2 ) > 0
Comme V n’est pas presque surement nulle, E(V 2 ) > 0 (puisque V 2 > 0) et on a un trinôme
du second degré qui reste positif. Son discriminant est donc négatif ou nul et
E(U V )2 − E(U 2 )E(V 2 ) 6 0
Si on a égalité alors le trinôme admet une racine et il existe t tel que E((U + tV )2 ) > 0 et
comme (U + tV )2 > 0, ceci entraı̂ne que U + tV est presque surement nulle.
Réciproquement, s’il existe un tel t alors le trinôme admet une racine et le discriminant est nul.
Ainsi
E(U V )2 = E(U 2 )E(V 2 ) 6 0 ⇐⇒ ∃ t ∈ R/ tV + U est presque surement nulle
Remarque : on a utilisé à deux reprises le fait que si X > 0 et E(X) = 0 alors X est presque
surementPnulle. Ceci découle du fait qu’en notant xi , i ∈ I les valeurs prises par X, on a
E(X) = i∈I xi P(X = xi ) qui est une somme de termes positifs et n’est donc nulle que si tous
les termes sont nuls ce qui entraı̂ne P(X = xi ) = 0 pour tous les i tels que xi 6= 0.
2. (a) Il existe une constante M telle que X(Ω) ⊂ [−M, M ]. Soit τ > 0 ; on a
∀x ∈ X(Ω), |eτ x P(X = x)| 6 eτ M P(X = x)
Ceci est le terme général d’une série convergente (de somme eτ M ) et par formule de transfert,
eτ X est d’espérance finie.
Si X est bornée alors ∀τ > 0, X vérifie (Cτ )
(b) On a
p
∀k ∈ N∗ , etk P(X = k) = p(1 − p)k−1 etk = ((1 − p)et )k
1−p
1
C’est le terme général d’une série géométrique de raison (1 − p)et qui converge ssi et < 1−p
(tout est positif) i.e. t < − ln(1 − p). C’est la condition pour que E(etX ) existe. On sait alors
calculer la somme :
pet
∀t < − ln(1 − p), E(etX ) = 1−(1−p)et

(c) On a
(λet )k −λ
∀k ∈ N, etk P(X = k) = e
k!
C’est pour tout t le terme général d’une série convergente et E(etX ) < +∞ avec
∀t ∈ R, E(etX ) = exp(λ(et − 1))
3. (a) Si t ∈ [a, b] alors pour x > 0, tx 6 bx et pour x 6 0, tx 6 ax. Dans chaque cas on peut
composer par exp qui croı̂t. Ainsi, etx est majoré soit par eta soit par etb . Et comme exp est
positive, un majorant commun est eta + etb . On en déduit que
∀t ∈ [a, b], 0 6 etX 6 eaX + ebX
La somme de deux variables ayant une espérance admet une espérance. Avec le résultat
rappelé en préambule,

1
∀t ∈ [a, b], E(etX ) < +∞
L’ensemble {t ∈ R/ E(etX ) < +∞} est donc convexe et c’est donc un intervalle (les inter-
valles sont exactement les convexes de R).
(b) Comme a < b, on a
- Au voisinage de +∞, eay = o(eby ) et donc θk,t,a,b (y) ∼ y k e(t−b)y . Pour t < b, cette
quantité est de limite nulle en +∞.
- Au voisinage de −∞, eby = o(eay ) et donc θk,t,a,b (y) ∼ y k e(t−a)y . Pour t > a, cette
quantité est de limite nulle en −∞.
∀t ∈]a, b[, lim θk,t,a,b (y) = lim θk,t,a,b (y) = 0
t→+∞ t→−∞

La fonction θk,t,a,b est donc bornée par 1 sur des voisinages [α, +∞[ et ] − ∞, β]. Comme elle
est continue, elle est aussi bornée par une quantité M sur le segment [β, α]. Elle est alors
bornée par max(M, 1) sur R.
∀t ∈]a, b[, ∀k ∈ N, θk,t,a,b est bornée sur R
(c) On peut imaginer que l’on travaille encore avec t ∈]a, b[ et k ∈ N. En notant M un majorant
de |θk,t,a,b | sur R, on a alors

0 6 |X|k etX 6 M (eaX + ebX )

Le majorant étant d’espérance finie, il en va de même de |X|k etX par le résultat du


préambule.
∀t ∈]a, b[, ∀k ∈ N, E(|X|k etX ) < +∞
(d) Notons Φ : (y, t) ∈ R × [c, d] 7→ θk,t,a,b (y). On a

ecy + edy
∀y ∈ R, ∀t ∈ [c, d], |Φ(y, t)| 6 |y|k
eay + eby
Comme en question (b), le majorant est de limite nulle quand y tend vers +∞ ou −∞. Il
est donc plus petit que 1 sur une partie R\]α, β[ :

∀t ∈ [c, d], ∀y ∈
/ [α, β], |Φ(y, t)| 6 1

Par ailleurs, Φ est continue sur le compact [α, β] × [c, d] et donc bornée par une constante
K sur ce compact. Φ est alors bornée par max(K, 1) sur son domaine.
∃Mk,a,b,c,d / ∀t ∈ [c, d], ∀y ∈ R, |θk,t,a,b (y)| 6 Mk,a,b,c,d
4. (a) On sait depuis 3(a) que I est un intervalle. Comme ∀t ∈ [−τ, τ ], 0 6 etX 6 eτ |X| et comme
E(eτ |X| ) < +∞, le résultat admis en préambule indique que [−τ, τ ] ⊂ I.
(b) X et etX prenant un nombre fini de valeurs, ces variables admettent des espérances et I = R.
Notons x1 , . . . , xn les valeurs deux à deux distinctes prises par X. Par formule de transfert,
on a
Xn
∀t ∈∈ R, ϕX (t) = etxk P(X = xk )
k=1
Par théorèmes d’opérations, on a donc
ϕX ∈ C ∞ (R)
(c) On a cette fois

X
∀t ∈ I, ϕX (t) = etxn pn
n=1

On pose fn : t ∈ I 7→ pn etxn .
On va appliquer le théorème de continuité puis celui de
régularité (relatifs aux sommes de séries de fonctions).

2
- ∀n, fn ∈ C 0 (I). P
- Par définition de I, (fn ) converge simplement sur I. Plus précisément, pour tout
segment [a, b] ⊂ I, on a (avec 3(a))

∀t ∈ [a, b], 0 6 fn (t) 6 fn (a) + fn (b)

et donc kf Pn k∞,[a,b] 6 fn (a) + fn (b). Le majorant est le terme général d’une série conver-
gente et (fn ) est donc normalement P convergente sur tout segment de I.
Ceci montre que la somme ϕX de la série (fn ) est continue sur I.
(k)
- Pour tout n, fn est de classe C ∞ sur I. Sa dérivée k-ième, pour k ∈ N, est fn : t 7→
k tx
xn p n e n .
- Soit k ∈ N. Soit [c, d] un segment inclus dans l’intérieur de I, que nous noterons Int(I)
(on pourrait bien sûr écrire ˚I). Par définition de l’intérieur d’une partie, il existe a, b ∈ I
tels que [c, d] ⊂]a, b[. Avec la question 3(d) (et aussi 3(a)) on a

∀t ∈ [c, d], ∀n, |fn(k) (t)| 6 pn Mk,a,b,c,d etxn 6 Mk,a,b,c,d (fn (a) + fn (b))
(k)
On a donc kfn k∞,[c,d] 6 Mk,a,b,c,d (fn (a) + fn (b))
P qui est le terme général d’une série
convergente. Ainsi, toutes les séries dérivées de (fn ) convergent normalement sur tout
segment de Int(I).
On peut alors appliquer le théorème de régularité sur Int(I).
ϕX ∈ C 0 (I) ∩ C ∞ (Int(I))
(d) Le théorème utilisé ci-dessous stipule aussi que la dérivée k-ième s’obtient en dérivant terme
P (k)
à terme et est donc la somme de la série (fn ). Par téorème de transfert, on a donc
(k)
∀t ∈ Int(I), ∀k ∈ N, ϕX (t) = E(X k etX )
(e) On peut penser qu’il y a une erreur d’énoncé et que l’on travaille sur l’intérieur sur I (puisque
la dérivabilité de ϕX n’a été justifiée que sur cet ensemble).
Notons tout d’abord que etX est une variable strictement positive et que quand son espérance
existe, elle est > 0. En particulier, ϕX (t) > 0 pour t ∈ I et ψX est bien définie sur Int(I).
Avec la régularité prouvée, on a ψX ∈ C ∞ (Int(I)) et

0 ϕ00X (t)ϕX (t) − ϕ0X (t)2


∀t ∈ Int(I), ψX (t) =
ϕX (t)2

Or, ϕ00X (t)ϕX (t) − ϕ0X (t)2 = E(X 2 etX )E(etX ) − E(XetX )2 > 0 avec 1.1 appliquée avec
U = XetX/2 et V = etX/2 (qui admettent des moments d’ordre 2 et avec V qui est > 0 et
donc non presque surement nulle). La dérivée de ψX est donc positive et
ψX croı̂t sur Int(I)
Si X n’est pas presque surement constante alors (comme etX/2 est > 0), U/V = X n’est
pas presque surement constante et ψX est alors strictement croissante sur l’intérieur de I
puisque sa dérivée est > 0 en tout point de cet ensemble (avec le cas d’égalité de 1.1).

1.2 Inégalité de Bienaymé-Tchebychev


1. Comme X admet un moment d’ordre 2, il en est de même de Sn . De plus, par indépendance
mutuelle des Xk (l’argument sert uniquement pour la variance, pour l’espérance on a la linéarité)
n
X n
X
E(Sn ) = E(Xk ) = nE(X) et V(Sn ) = V(Xk ) = nV(X)
k=1 k=1

3
L’inégalité de Bienaymé-Tchebychev appliquée à Sn donne
V(Sn )
∀a > 0, P(|Sn − E(Sn )| > a) 6
a2
Il nous suffit d’appliquer ceci avec a = nδ et d’utiliser les formules données :
V(X)
∀δ > 0, P(|Sn − nE(X)| > nδ) 6 nδ 2

2. Comme u < E(X) < v, on a δ = min(E(X) − u, v − E(X)) > 0. Si |Sn − nE(X)| < nδ alors
n(E(X) − δ) < Sn < n(δ + E(X)) et donc nu 6 Sn 6 nv. On en déduit que

1 − P(|Sn − nE(X)| > nδ) = P(|Sn − nE(X)| < nδ) 6 πn

et avec la question précédente,


V(X)
1−
6 πn
nδ 2
Comme πn 6 1, on en déduit par encadrement que
lim πn = 1
n→+∞

1.3 Suites sur-additives


1. On a u(k+1)m+r > um + ukm+r et donc, par récurrence, ukm+r > kum + ur pour tout k ∈ N. En
particulier,
un = uqm+r > qum + ur
Ainsi, un − ns > qum + ur − ns. Comme ns = (mq + r)s, on peut alors regrouper les termes et
obtenir
un − ns > q(um − ms) + ur − rs
2. Notons n = qm + r la division euclidienne de n par m (c’est possible car m > 1 et on a
0 6 r 6 m − 1). On a alors
 
un q ur um q 1 ur
≥ um + = + um − +
n n n m n m n
q 1 qm−n r
Comme n − m = nm = − nm on a donc
un um ur r
≥ + −
n m n nm

Or, unr − nm
r
6 |urn|+1 6 max(|u0 |,...,|u
n
m−1 |)+1
qui est de limite nulle quand n → +∞ (le
numérateur du majorant est indépendant de n et ne dépend que de m). Il est donc arbi-
trairement petit pour n grand et
∀n ∈ N∗ , ∀ε > 0, ∃N/ ∀n > N, un
n > um
m −ε
3. Soit ε > 0. Par définition de la borne supérieure, il existe un entier m > 1 tel que umm > s − ε
(ce réel n’étant pas un majorant de l’ensemble dont s est la borne supérieure puisque s est le
plus petit des majorants). La question précédente fournit un N tel que
un
∀n > N, s − 2ε 6 6s
n
Par définition de la limite,
lim un =s
n→+∞ n

4
2 Le théorème des grandes déviations
2.1 Exposant des grandes déviations
1. Supposons que P(X > a) = 0. Montrons par récurrence que pour tout n on a P(Sn > na) = 0.
- C’est immédiat pour n = 1 puisque S1 = X1 a la même loi que X.
- Supposons le résultat vrai jusqu’à un rang n > 1. On a Sn+1 = Sn +Xn+1 . Si Sn+1 > (n+1)a
alors soit Sn > na, soit Sn < na et alors Xn+1 > a (sinon la somme est < (n + 1)a). Ainsi

0 6 P(Sn+1 > (n + 1)a) 6 P(Sn > na) + P(Xn+1 > a)

Le majorant est nul par l’hypothèse de récurrence et le résultat supposé sur X.


Réciproquement, si ∀n ∈ N∗ on a P(Sn > na) = 0, le résultat pour n = 1 donne P(X > a) = 0.
Ainsi
P(X > a) = 0 ⇐⇒ ∀n ∈ N∗ , P(Sn > na) = 0
2. (a) On a T = Sm+n − Sm = Xm+1 + · · · + Xm+n . Soit x ∈ T (Ω) ; on a

[ n
\
(Sm+n − Sm = x) = (Xm+i = xi )
x1 ,...,xn ∈X(Ω) k=1
x1 +···+xn =x

Comme la réunion (qui est dénombrable) est disjointe, on a


n
!
X \
P(Sm+n − Sm = x) = P (Xm+i = xi )
x1 ,...,xn ∈X(Ω) k=1
x1 +···+xn =x

Les variables Xm+k étant indépendantes,

X n
Y
P(Sm+n − Sm = x) = P(Xm+i = xi )
x1 ,...,xn ∈X(Ω) k=1
x1 +···+xn =x

Les Xi ayant même loi,

X n
Y
P(Sm+n − Sm = x) = P(Xi = xi )
x1 ,...,xn ∈X(Ω) k=1
x1 +···+xn =x

Les variables Xk étant indépendantes, onremonte le calcul et on obtient que T a même loi
que X1 + · · · + Xn = Sn .
Sm+n − Sm et Sn ont même loi
(b) On a
(Sm+n − Sm > nb) ∩ (Sm > mb) ⊂ (Sm+n > (n + m)b)
Par lemme des coalitions, Sm+n −Sm et Sm sont indépendantes. En passant aux probabilités,
on a donc
P(Sm+n − Sm > nb)P(Sm > mb) 6 P(Sm+n > (n + m)b)
Avec la question précédente, Sm+n − Sm a même loi que Sn et donc
P(Sm+n > (n + m)b) > P(Sn > nb)P(Sm > mb)

5
3. Comme P(X > a) > 0, la question 2.1.1 montre que P(Sn > na) > 0 pour tout n. On peut
donc poser
un = ln(P(Sn > na))
La question précédente indique que (un ) est une suite sur-additive (um+n > un + um ). Comme
un un ∗
n 6 0, on peut utiliser la partie 1.3 pour conclure que n → γa = sup{un /n ∈ N } et cette
borne supérieure est négative (les éléments de l’ensemble étant négatifs). Par croissance de
l’exponentielle, on passe de unn 6 γa à eun 6 enγa . Ainsi
ln(P(Sn >na))
n → γ 6 0 et ∀n ∈ N∗ , P(Sn > na) 6 enγa

2.2 Majoration des grandes déviations


1. On a etSn = nk=1 etXk . Les variables Xk étant mutuellement indépendantes, il en va de même
Q
des etXk . L’espérance du produit est alors égale au produit des espérances. Les Xk ayant la
même loi que X, on a donc
∀t ∈ I, E(etSn ) = (ϕX (t))n

Si t ∈ R+∗ ∩ I alors Sn > na équivaut à tSn > nta et donc à etSn > enta . Comme etSn admet
une espérance et est à valeurs positives, on peut utiliser l’inégalité de Markov :

E(etSn )
P(Sn > na) = P(etSn > eta ) 6
enta
Si t = 0 le résultat reste vrai puisque le majorant vaut alors 1. Avec le premier résultat, on
conclut que
ϕX (t)n
∀t ∈ I ∩ R+ , P(Sn > na) 6 enta

2. (a) Le résultat précédent pour n = 1 donne, par croissance du logarithme, la relation


∀t ∈ R+ ∩ I, ln(P(X > a)) 6 χ(t) (on rappelle que l’on a supposé P(X > a) > 0).
ηa = inf{χ(t)/ t ∈ I ∩ R+ } existe
(b) Notons que puisqu’il existe τ > 0 tel que X vérifie (Cτ ), ϕX est définie sur [−τ, τ ] et est de
classe C ∞ sur ] − τ, τ [. Par formule de Taylor-Young, on a

ϕX (t) = ϕX (0) + tϕ0x (t) + o0 (t) = 1 + tE(X) + o0 (t)

On en déduit que χ(t) = (E(X) − a)t + o(t) et comme E(X) 6= a,

χ(t) ∼ (E(X) − a)t


t→0

Comme E(X) − a < 0, χ prend des valeurs < 0 sur I ∩ R+ (fonction localement négative au
voisinage de 0+ ) et donc
ηa < 0
(c) On peut trouver une suite (tk ) d’éléments de I ∩ R+ telle que χ(tk ) → ηa . On a alors
φX (tk )e−tk a → eηa et donc φX (tk )n e−ntk a → enηa quand k → +∞. On en déduit avec 2.2.1
que
P(Sn > a) 6 enηa
ln(P(Sn >na ))
Ainsi, n 6 ηa et donc γa 6 ηa < 0.

6
(d) Dans le cas où X suit la loi B(p), on a P(X > a) = 0 ssi a > 1. De plus E(X) = p. On fait
donc l’hypothèse
a ∈]p, 1]
Par théorème de transfert, on a, pour tout t réel,

φX (t) = E(etX ) = (1 − p) + pet

On en déduit que
∀t > 0, χ(t) = ln((1 − p) + pet ) − ta
ou encore  
∀t > 0, χ(t) = ln (1 − p)e−ta + pe(1−a)t

Posons g(t) = (1 − p)e−ta + pe(1−a)t en sorte que g 0 (t) = e−ta −a(1 − p) + p(1 − a)et . g est


donc χ est minimale sur R+ quand et = a(1−p)


p(1−a) et le minimum vaut, après un calcul que l’on
t
espérera sans erreur (on remplace e par son expression dans χ(t) et de même on remplace
t par le logarithme de l’expression trouvée pour et )
   
1−p
ηa = (1 − a) ln 1−a − a ln ap

On suppose maintenant que X suit la loi P(λ). On a donc E(X) = λ. De plus P(X > a) est
> 0 pour toute valeur de a et on impose donc

a ∈]λ, +∞[

Comme ϕX (t) = E(etX ) = exp(λ(et − 1)) (question 1.1.2.c), on a χ(t) = λ(et − 1) − ta.
χ est minimale sur R+ en t tel que et = λa et on a donc
ηa = a − λ − a ln a

λ
Exercice 25:

Corrigé X-ENS 2020, épreuve B , MP .


MUSTAPHA LAAMOUM
m.laamoum@gmail.com

Première partie :
1 . On remarque que pour tout k ∈ {1, . . . , n} , {−1, 1} ⊂ X k (Ω) et pour tout h ∈ X k (Ω) \ {−1, 1} on a P [X k = h] = 0 et E(X k ) = 0.
Par le théorème de transfert on a :

E[exp(λZ )] e λz P(Z = z)
X
=
z∈Z (Ω)

e λz P(Z = z)
X

z∈Z (Ω)
z≥t
λt
P(Z = z) = e λt P(Z ≥ t )
X
≥ e
z∈Z (Ω)
z≥t

ce qui donne P(Z ≥ t ) ≤ e −λt E[exp(λZ )].

2 . On a [S n < 0] = [S n ≥ 0] , et X 1 + .. + X n < 0 ⇒ ∃i ∈ {1, .., n} , X i < 0 , donc [S n < 0] ⊂ [X i < 0] et P [S n < 0] ≤ P [X i < 0] ,
or P [X i < 0] ∈ 0, 12 donc P [S n < 0] ≤ 12 et P [S n ≥ 0] ≥ 12 .
© ª

3 . De la question 1. on a

P[S n ≥ t ] = P[nS n ≥ nt ]
≤ exp(−λnt )E[exp(λnS n )]

comme X 1 , .., X n sont indépendantes alors exp(λX 1 ), .., exp(λX n ) le sont aussi donc

E[exp(λnS n )] = E[exp(λ(X 1 + .. + X n ))]


n
E[exp(λX k ]
Y
=
k=1

e λ +e −λ
et par le théorème de transfert on a E[exp(λX k )] = 2 ce qui donne :
!n
e λ + e −λ
Ã
P[S n ≥ t ] ≤ exp(−λnt ) = exp(n(ψ(λ) − λt ))
2

1
donc n log P [S n Ê t ] É (ψ(λ) − λt ) pour tout λ ≥ 0 , (éventuelement valable si P [S n Ê t ] = 0), ce qui donne le résultat.
λ −λ λ −λ λ −λ
4 . Soit λ Ê 0, on a E X 1 exp (λX 1 ) = e −e et E exp (λX 1 ) = e +e donc m(λ) = ee λ −e
£ ¤ £ ¤
2 2 +e −λ
= t h(λ) qui est strictement croissante de
R+ vers [0, 1[ donc bijective, d’où pour tout t ∈ [0, 1[ il existe un unique λ Ê 0 tel que m(λ) = t .

5 a. . Soit n Ê 2 et λ Ê 0, on a

(X 1 − m(λ)) (X 2 − m(λ)) D n (λ) = exp (λX 1 ) (X 1 − m(λ)) exp (λX 2 ) (X 2 − m(λ)) exp λTn − nψ(λ)
£ ¤£ ¤ ¡ ¢

avec Tn = X 3 + .. + X n .
Les variables X i sont indépendantes donc X 1 ,X 2 , Tn le sont , d’où l’indépendance des variables

exp (λX 1 ) (X 1 − m(λ)) , exp (λX 2 ) (X 2 − m(λ)) et exp λTn − nψ(λ)


¡ ¢

donc

E [(X 1 − m(λ)) (X 2 − m(λ)) D n (λ)] = E exp (λX 1 ) (X 1 − m(λ)) .E exp (λX 2 ) (X 2 − m(λ)) .E exp λTn − nψ(λ)
£ ¤ £ ¤ £ ¡ ¢¤

de plus E exp (λX 1 ) (X 1 − m(λ)) = e λ (1 − m(λ)) + e −λ (−1 − m(λ)) = 0 d’où le résultat.


£ ¤

1
b . On a aussi pour i 6= j , E (X i − m(λ)) X j − m(λ) D n (λ) = 0 ce qui donne
£ ¡ ¢ ¤

"Ã !2 #
1 n
E (S n − m(λ))2 D n (λ) E
£ ¤ X
= X k − m(λ) D n (λ)
n2 k=1
" #
1 n
2
E
X
= (X k − m(λ)) D n (λ)
n 2 k=1
1 Xn
E (X k − m(λ))2 D n (λ)
£ ¤
= 2
n k=1

Par indépendance des X i on obtient :


" Ã !#
2 −nψ(λ) 2
E (X k − m(λ)) D n (λ) = e E (X k − m(λ)) exp (λX k ) E exp λ
£ ¤ £ ¤ X
Xi
i 6=k

et on a
1 1
E (X k − m(λ))2 exp (λX k ) (1 − m(λ))2 e λ + (1 + m(λ))2 e −λ
£ ¤
=
2 2
2
=
e λ + e −λ
et !n−1
e λ + e −λ
" Ã !# Ã
¤n−1
E exp λ = E exp (λX 1 )
X £
Xi =
i 6=k 2
ce qui donne

!−n !n−1
e λ + e −λ e λ + e −λ
à Ã
2
E (X k − m(λ))2 D n (λ)
£ ¤
=
2 e λ + e −λ 2
4
= ¢2
λ
¡
e + e −λ

finalement : E (S n − m(λ))2 D n (λ) = 1 4 1


£ ¤
n (e λ +e −λ )2 ≤ n ( sauf erreur de calcul on trouve une meilleure majoration ! )

6.

E I n (λ, ε) exp λn (S n − m(λ) − ε) e λn(s−m(λ)−ε) P [S n = s]


£ ¤ X
=
s∈S n (Ω)
|s−m(λ)|Éε

P [S n = s] = P [|S n − m(λ)| É ε] ( car s − m(λ) − ε ≤ 0)


X

s∈S n (Ω)
|s−m(λ)|Éε

7 . Ecrivons (S n − m(λ))2 = (1 − I n (λ, ε)) (S n − m(λ))2 + I n (λ, ε) (S n − m(λ))2 on obtient

E (S n − m(λ))2 D n (λ) ≥ E (1 − I n (λ, ε)) (S n − m(λ))2 D n (λ)


£ ¤ £ ¤

≥ ε2 E [(1 − I n (λ, ε))D n (λ)]

on vérifie facilement que E [D n (λ)] = 1 et on a E (S n − m(λ))2 D n (λ) ≤ 4


£ ¤
n , ce qui donne le résultat.

8 a. . Puisque [ |s − m(λ)| É ε] = [S n Ê m(λ) − ε] ∩ [S n ≤ m(λ) + ε] donc

P( [S n Ê m(λ) − ε]) ≥ P( [|s − m(λ)| É ε])


E I n (λ, ε) exp λn (S n − m(λ) − ε)
£ ¤

≥ E [(I n (λ, ε)D n (λ)] .e nψ(λ)−λnm(λ)−εnλ
4
≥ (1 − 2 )e nψ(λ)−λnm(λ)−εnλ

2
ce qui donne
1
log P [S n Ê m(λ) − ε] Ê ψ(λ) − λm(λ) − λε + u n (ε)
n
1
avec u n (ε) = n log(1 − nε4 2 )
b . D’après 3. on a pour tout t ∈ R
1
log P [S n Ê t ] É inf (ψ(λ) − λt )
n λÊ0

Soit t ∈ [0, 1[ et ε tel que t + ε ∈ [0, 1[ , d’après 4. ∃λ ≥ 0 tel que m(λ) = t + ε, ce qui donne

1 1
log P [S n Ê t ] = log P [S n Ê m(λ) − ε]
n n
Ê ψ(λ) − λt + u n (ε)
≥ inf (ψ(λ) − λt ) + u n (ε)
λÊ0

finalement
1
inf (ψ(λ) − λt ) + u n (ε) ≤ log P [S n Ê t ] É inf (ψ(λ) − λt )
λÊ0 n λÊ0

ce qui donne lim n1 log P [S n Ê t ] = inf (ψ(λ) − λt ).


n→+∞ λÊ0
c . Ecrivons
P [S n Ê 1] = P ([S n Ê 1] ∩ [X n = 1]) + P ([S n Ê 1] ∩ [X n = −1]) + P ([S n Ê 1] ∩ [X n ∉ {1, −1}])

on a P ([S n Ê 1] ∩ [X n = −1]) = P [X 1 + .. + X n−1 Ê n + 1] = 0 car ∃i tel que [X 1 + .. + X n−1 Ê n + 1] ⊂ [X i > 1] , et


P ([S n Ê 1] ∩ [X n ∉ {1, −1}]) = 0
Donc P [S n Ê 1] = P ([S n−1 Ê 1] ∩ [X n = 1]) ainsi par récurrence on a
à !
n 1
P [S n Ê 1] = P
\
[X i = 1] = n
i =1 2

1
et n log P [S n Ê 1] = − log 2. La fonction ϕ(λ) = ψ(λ) − λ = log ch(λ) − λ est décroissante sur [0, +∞[ et lim ϕ(λ) = − log 2.
λ→+∞
Donc le résultat est valable pour t = 1.

Vous aimerez peut-être aussi