ESTIMATION
CHAPITRE 1 : LOIS USUELLES DE PROBABILITE
L. SKALLI
PLAN
Soit X une variable aléatoire suivant la loi B(50, 1/2) . Les conditions d'approximations de la loi
de X par une loi normale sont remplies (n=50>30; np =25>5 et nq=25>5), et l'on peut considérer
25
que X suit à peu près la loi N ( 25, 2
). Évaluons alors de deux façons P(24 ≤ X ≤ 26)
En valeur exacte avec la loi binomiale : P(X = 24) + P(X = 25) + P(X = 26) ≈ 0,3282
En valeur approchée avec la loi normale : P(24 ≤ XC ≤ 26) ≈ 0,2222
En valeur approchée avec la loi normale corrigée par continuité : P(23,5 ≤ XC ≤ 26,5) ≈ 0,3286.
Le résultat est bien meilleur en tenant compte de la correction par continuité.
II- Loi binomiale B(n,p) : exemple
Comme on le voit, les calculs de probabilités ne sont pas aisés dans la loi binomiale.
C’est pourquoi on utilise souvent une table de la loi binomiale pour calculer les
probabilités de tel ou tel évènement
Toutes les lois que nous étudierons par la suite sont également tabulées.
II- Loi binomiale B(n,p) : table
Il s’agit uniquement d’une partie de la table, pour n=19
et 20 (1ère colonne). la table binomiale dans son
entièreté donne toutes les probabilités pour des
expériences allant de n=1 à n=30.
Espérance et variance :
E(X) = V(X) = l
Somme de lois de Poisson :
Si X suit une loi de Poisson de paramètre l1 , Y suit une loi de Poisson de
paramètre l2 et X et Y indépendantes alors X+Y suit une loi de Poisson de
paramètre l1 + l2. Ce résultat se généralise à la somme de n lois de
Poisson indépendantes.
III- Loi de Poisson : Exemple 1
Un magasin reçoit 3 réclamations en moyenne par jour. En supposant que la loi de survenance de
ces réclamations est une loi de Poisson, calculer la probabilité pour que le premier lundi du mois
prochain soient enregistrées :
1) 0 réclamation
2) 2 réclamations
3) au plus 2 réclamations
Solution
Soit X : nombre de réclamations reçues par jour
X~P(3) donc
��
1) �(� = �) = �−� �! = �, ����
��
2) �(� = �) = �−� �! = �, ����
3) P(X≤ 2) = P(X=0) +P(X=1) +P(X=2) = 0,0498 +0,1494+0,2240 = 0,4232
Remarque : l’étudiant est invité à refaire les calculs en utilisant la table de poisson.
III- Loi de Poisson : Exemple 2
Soit X une variable aléatoire qui suit une loi binomiale �(50; 0,1). Calculer P(X=2)
de deux manières différentes.
Solution :
1) P( X = 2 ) = �250 (0,1)2 × (0,9)50−2 = 0,0779 ~0,08
2) n=50>30, p≤0,1, et np=5≤15 donc on peut approximer la loi de X par une loi
de poisson de paramètre l = np = 5
52
P(X=2) = �−5 = 0,0842 ~0,08
2!
Si X~P(1,5), les probabilités sont données dans l’encadré orangé. On vérifiera aisément que :
P(X=0)= 0,2231, P(X=1)=0,3347…P(X=8)=0,0001
Et P(X<5) =P(X=0)+…+P(X=4) = 0,2231+0,3347+0,2510+0,1255+0,0471= 0,9814
III- Loi de Poisson : Table (2)
Cette table permet de calculer les probabilités cumulées P(X≤k). Ainsi, si on reprend
l’exemple précédent, si X~P(1,5),
P(X<5)=P(X≤4) = 0,9814
2- Lois de variables continues
IV- La variable aléatoire normale centrée réduite
N(0,1) : définition/fonction de densité
Définition :
La variable aléatoire normale centrée réduite Z est la variable aléatoire
absolument continue dont la densité f est définie sur IR par :
1 z²
f(z) = 2�
. exp(− )
2
On note : Z~N(0,1)
Forme : il s’agit d’une courbe dite « en cloche » symétrique par rapport à l’axe
des ordonnées (fonction paire)
IV- La variable aléatoire normale centrée
réduite N(0,1) : fonction de répartition
Fonction de répartition :
�
1 �²
�(�) = exp − ��
2� −∞ 2
+∞ 2 +∞ � z²
−
Variance : V(Z) = E(Z²) –[E(Z)]² = E(Z²) = −∞
z f(z)dz = −∞ 2�
. z. e 2 dz
z²
z −
On fait une intégration par partie ��� = �� − ��� en posant : u = 2π
et dv = z. e 2 dz
−z² −�² +∞
dz z 1 �²
avec du = et v =− e 2 et donc V(Z) = − � 2 �+∞
−∞ + exp − �� = 0 + 1
2π 2π 2� −∞ 2
Addition :
Si deux v.a. indépendantes X1 et X2 suivent respectivement des lois normales N (m1, σ1)
et N (m2, σ2 ), alors la v.a. X1 + X2 suit une loi normale N (m1 + m2, σ1 ² + σ2 ²). Cette
propriété est généralisable à n variables indépendantes normales
Combinaison linéaire :
On démontre que si X1, X2, ..., Xn suivent des lois normales indépendantes d’espérances
m1, m2, ..., mn et d’écart-types σ1 , σ2 , ..., σn , alors pour tous λi ∈ IR, la v.a. ��=1 �� ��
suit une loi normale d’espérance ��=1 �� �� et de variance ��=1 �� �2� .
On remarque que plus le nombre de ddl augmente plus les courbes ressemblent à
celle de la loi normale, en application du théorème central-limite
VI-2 Loi de Student à n degrés de liberté
Définition
Soit X et Y deux v.a. indépendantes telles que X suit une loi N (0, 1) et Y suit une
X
loi �2� . Alors, la v.a. T = suit une loi de Student à n ddl On note : T∼ Tn
Y
n
Espérance
E(T) = 0
Approximation :
Lorsque n est grand (n > 30), la loi Tn peut être approximée par une loi Normale
centrée et réduite N (0, 1).
VI-2 Loi de Student : représentation
On voit que pour n=1 (loi de Cauchy), la distribution est relativement aplatie avec des queues de
distribution épaisses. Plus n augmente, plus la dispersion diminue. A partir de n=30, elle est plus
resserrée et très proche de la courbe représentant la fonction de densité de la loi normale
centrée réduite. C’est pourquoi, la loi de Student n’est utilisée que pour les petits échantillons
de taille inférieure à 30. Au-delà, on utilisera la loi normale centrée et réduite.
VI-3 Loi de Fisher-Snedecor : F(n1, n2)
Définition:
Soit X1 et X2 deux v.a. indépendantes de lois respectives �2�1 et �2�2 . Alors, la v.a. F
�1
�1
�2
�2
suit une loi F (n1, n2) à n1 et n2 degrés de liberté. On note : F ~F(n1, n2)
VI-3 Loi de Fisher-Snedecor : exemples
de représentation