Vous êtes sur la page 1sur 23

Probabilités Appliquées & Statistiques

Convergence

L.Horchani & N.Chaouachi

E.N.S.I

2023/2024

E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 1 / 22


1 Les inégalités fameuses

2 Convergence en loi

3 Théorème Central limite

4 Approximations

E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 2 / 22


I-Les inégalités fameuses

Inégalité de Markov
Soit X une variable aléatoire réelle qui possède un moment d’ordre 1,
E[X ]. Pour tout nombre réel a > 0, on a :

E[|X |]
P(|X | ≥ a) ≤
a

Inégalité de Bienaymé-Tchebichev
Soit X une variable aléatoire réelle qui possède un moment d’ordre 2,
E(X 2 ). Alors, pour tout nombre réel a > 0, on a l’inégalité de
Bienaymé-Tchebichev :

V (X )
P(|X − E(X )| ≥ a) ≤
a2

E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 3 / 22


Si σ est l’écart type de X alors l’inégalité s’écrit :
1
P(|X − E(X )| ≥ aσ) ≤
a2
Cette inégalité permet de contrôler, l’éloignement de la v.a.r X par rapport
à sa valeurs moyenne E(X )

E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 4 / 22


Exercice
Z x r
π
−t 2 /2 1
Montrez que ∀x > 0 : e dt ≥
(1 − 2 )
0 2 x
1
Rappel B-T : P(|X − E(X )| ≥ aσ) ≤ 2
a

E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 5 / 22


Exercice
Z x r
π 1
−t 2 /2
Montrez que ∀x > 0 : (1 − 2 )
e dt ≥
0 2 x
1
Rappel B-T : P(|X − E(X )| ≥ aσ) ≤ 2
a
Soit X ∼ N (0, 1), l’inégalité de Bienaymé-Tchebichev donne :
1
P(|X | ≥ a) ≤ ; ∀a > 0
a2
1
⇔ P(X ∈ [−a, a]) ≥ 1 −
a2
Z a
1 −t 2 1
⇔√ e 2 dt ≥ 1 −
2π −a a2
Z a
−t 2 √ 1
⇔2 e 2 dt ≥ 2π(1 − )
0 a2

E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 5 / 22


Inégalité de Cauchy-Schwarz
Soient X et Y deux variables aléatoires de carré intégrable, alors XY est
intégrable, et on a l’inégalité de Cauchy-Schwarz :
q
|E(XY )| ≤ E(|XY |) ≤ E(X 2 )E(Y 2 )

Inégalité de Jensen
Soit X une variable aléatoire réelle intégrable, et f une fonction mesurable
telle que f (X ) soit intégrable. Supposons de plus que f soit une fonction
convexe. Alors
E(f (X )) ≥ f (E(X )).

E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 6 / 22


II-Convergence en loi

Définition
On dit que la suite (Xn )n∈N de variables aléatoires à valeurs dans R
L
converge en loi vers la variable aléatoire X à valeurs R et on note Xn −
→X
si :
∀f : R → R continue bornée, E(f (Xn )) −−−−→ E(f (X )).
n→+∞

Propriété
Soient (Xn )n∈N des v.a.d à valeurs dans N. Les assertions suivantes sont
équivalentes :
1 Xn converge vers X en loi.
 
2 ∀k ∈ N, on a lim P {Xn = k} = P {X = k} .
n→+∞
3 GXn converge simplement vers GX sur [0, 1].

GX (t) = E(t X )
E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 7 / 22
Théorème
Soit (Xn )n∈N une suite de v.a. réelles. Soit FX la fonction de répartition
d’une v.a. réelle X . Les assertions suivantes sont équivalentes :
1 Xn converge en loi vers X .
2 Si x est un point de continuité de FX , alors lim FXn (x ) = FX (x ).
n→+∞

Théorème
Soient (Xn )n∈N et (Yn )n∈N deux suites de v.a. réelles définies sur un
même espace de probabilité. Si Xn converge en loi vers X , et si Yn
converge en loi vers c ∈ R, alors :
L
1 Xn + Yn −
→X +c;
L
2 Xn Yn −
→ cX
Xn L X
3 −
→ , si c ̸= 0
Yn c

E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 8 / 22


Théorème :
On considère une suite de v.a. (Xn )n∈N à valeurs dans R. Les conditions
suivantes sont équivalentes :
L
1 Xn −
→X;
2 ϕXn converge simplement vers ϕX .

E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 9 / 22


Exercice

On considère une machine qui tourne à une cadence de n cycles par unité
de temps et qui a une probabilit p ∈]0, 1[ de tomber en panne lors de
chaque cycle et ce indépendamment des autres cycles. Soit N le numéro
du cycle où se produit la première panne.
1 Quelle est la loi de N ? Que représente T = N/n ?
Soit µ l’espérance de T . Exprimer µ en fonction de p et n.
2 Dans le cas où n est grand, on souhaite approcher la variable discrète
T par une variable aléatoire à densité. Pour cela on va effectuer le
passage à la limite n → +∞ en choisissant pn de façon à ce que
l’espérance de Tn reste égale à µ.
a. Que vaut pn ?
b. Calculer la fonction caractéristique de Tn
c. En déduire que cette variable converge en loi vers une limite que l’on
précisera.

E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 10 / 22


Corrigé ...
1 N ∼ G(p).
∀k ∈ N∗ , P(N = k) = (1 − p)k−1 p
La variable aléatoire T représente le temps avant la première panne.
E(N) 1
µ= =
n np
1
2 a pn =

b

ϕTn (t) = E e itTn



 N
= E e it n
+∞
X
= pn (1 − pn )k−1 e itk/n
k=1
pn e it/n
=
1 − (1 − pn ) e it/n

E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 11 / 22


Suit corrigé ...

1
ϕTn (t) =
1 + nµ e −it/n − 1


 
c On a lim n e −it/n − 1 = −it
n→+∞

1 1/µ
∀t ∈ R, lim ϕTn (t) = =
n→+∞ 1 − itµ 1/µ − it
Donc les variables Tn convergent en loi vers la loi exponentielle de
paramètre 1/µ

E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 12 / 22


Fcts caractéristiques des lois usuelles

E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 13 / 22


III-Théorème Central limite

TLC
Soient X1 , X2 , . . . , Xn , . . . une suite de v.a.réelles i.i.d (i.e indépendantes et
n
X
identiquement distribuées), avec E(X 2 ) < ∞. On note Sn = Xi la
i=1
somme partielle au rang n, µ = E(X ), et σ 2 = Var (X ). Alors :
n
X L
Sn = Xi −−−−→ N (nµ, nσ 2 )
n→+∞
i=1

Autrement :
Sn − nµ L
Sn∗ = √ −−−−→ N (0, 1)
σ n n→+∞

La loi normale apparaît comme loi limite ( pour n ≥ 30 )quelle que soit la
loi des Xi (il faut juste que µ et σ existent). Ceci montre le caractère
universel des lois normales et leurs importances.
E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 14 / 22
...

Le théorème central limite est l’un des résultats les plus importants de la
théorie des probabilités. De façon informelle, ce théorème donne une
estimation très précise de l’erreur qu’on commet en approchant la
moyenne mathématique par la moyenne empirique .
Il a d’abord été observé par Gauss, qui l’appelait la loi des erreurs ; mais ce
dernier n’en a pas donné de démonstration rigoureuse. La preuve en a été
apportée par Moivre et Laplace, le théorème porte parfois leurs noms. La
dénomination actuelle est apparue vers 1950 (en anglais : central limit
theorem, ce qu’on a parfois traduit à tort par “le théorème de la limite
centrale”).

E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 15 / 22


Exercice 1
Chaque jour, dans une certaine ville, 100 personnes ont besoin d’un
examen radioscopique. Pour préserver le libre choix, n centres d’imagerie
sont installés dans cette ville. On admet que les patients choisissent
indifféremment l’un ou l’autre centre d’imagerie. Soit N le nombre de
patients journaliers dans un centre d’imagerie.
1 Quelle est la probabilité qu’un patient choisisse le centre d’imagerie
considéré ?
100
X
2 Montrer que N peut s’écrire N = Xi où les (Xi )1≤i≤n sont n
i=1
variables aléatoires indépendantes et distribuées suivant la loi de
Bernoulli de même paramètre p que l’on déterminera.
3 Quelle est la loi de N ?
4 En utilisant le théorème de la limite centrale, déterminer quelle
capacité c chaque centre d’imagerie doit avoir pour être capable de
répondre à la demande avec une probabilité de 98% ?
E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 16 / 22
Corrigé exercice 1

1 Les patients choisissent indifféremment l’un ou l’autre des ncentres


d’imagerie, la probabilité qu’un client choisisse le centre d’imagerie
1
considéré est .
n
2 Soit (Xi ) la variable aléatoire discrète réelle qui vaut 1 si le client i va
au centre d’imagerie considéré et 0 sinon.
Xi ∼ Be(p) tel que
1
p = P(Xi = 1) =
n
100
X
N= Xi
i=1
3 N ∼ B(100, p).
100 100 1
E(N) = , V (N) = (1 − )
n n n

E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 17 / 22


4 On cherche c tq :P [N ≤ c] = 0.98
100
X 100 ≫ 30
(Xi ) i.i.d, N= Xi , TLC L
 
100 100 1
i=1 −−→ N −
→N n ; n (1 − n
N ∗ = N−E(N)
1
E(Xi ) = n V (Xi ) = n1 (1 − n1 ) √ ∼ N (0, 1)
V (N)

" # !
c − E(N)
∗ c − E(N)
P [N ≤ c] = P N ≤ p =π p
V (N) V (N)
Pour pouvoir faire face à demande avec une probalité de 98%, le
centre doit avoir la capacité c(n) donnée par : c(n)−E(N)
√ =2
V (N)
s
100 1 1
 
c(n) = + 20 1−
n n n

E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 18 / 22


Exercice 2

Un joueur lance une pièce équilibrée. Lorsqu’il obtient “pile”, il gagne 1


euro et lorsqu’il obtient “face”, il perd 1 euro.
Quel est le nombre maximal de lancers à effectuer pour que le joueur ait
95% de chances de perdre au plus 20 euros ?

E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 19 / 22


IV-Approximations

Théorème
Si (pn )n est une suite de réels de [0, 1] telle que lim npn = λ, alors, pour
n→+∞
tout k fixé,
λk
lim Ckn pnk (1 − pn )n−k = e −λ .
n→+∞ k!

Application : En pratique, lorsque p ≤ 0.1, n ≥ 30 et np < 15, on peut


approximer la loi binomiale B(n, p) par la loi de Poisson P(np).

E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 20 / 22


Théorème
Si (Xn )n est une suite de variables aléatoires indépendantes, de même loi
n
X
de Poisson P(λ) et si Sn = Xi , alors Sn suit la loi de Poisson P(nλ).
i=1

Application : En pratique, lorsque λ ≥ 15, on peut approximer la loi de


Poisson P(λ) par la loi normale N (λ, λ).

E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 21 / 22


Théorème
Si (Xn )n est une suite de variables aléatoires indépendantes de même loi de
n
X
Bernoulli B(p) et si Sn = Xi , alors Sn , alors Sn suit la loi binomiale
i=1
B(n, p).

Application : : En pratique, lorsque n ≥ 30, np ≤ 15 et np(1 − p) > 5, la


loi binomiale B(n, p) peut être approximée par la loi normale
N (np, np(1 − p)).

Correction de continuité : Si X suit la loi binomiale B(n, p), X est àvaleurs


entièeres. Or approximer la loi B(n, p) par la loi normale N (np, np(1 − p))
revient àconsidérer X comme une variable aléatoire qui prend toutes les
valeurs réelles.
On remplacera donc P([X = 0]) par F (0.5), P([X = n]) par 1 − F (n − 0.5)
et, pour k ∈ {1, . . . , n − 1}, P([X = k]) par F (k + 0.5) − F (k − 0.5).

E.N.S.I (II.1) Probabilités Appliquées & Statistiques2023/2024 22 / 22

Vous aimerez peut-être aussi