Vous êtes sur la page 1sur 36

ECHANTILLONNAGE ET

ESTIMATION
CHAPITRE 1 : LOIS USUELLES DE PROBABILITE

L. SKALLI
PLAN

Partie 1 : Lois de variables aléatoires discrètes


I- Loi de Bernoulli
II- Loi Binomiale
III- Loi de Poisson
Partie 2 : Lois de variables aléatoires continues
IV- Loi normale centrée réduite
V- Loi de Laplace-Gauss
VI- Lois de variables aléatoires liées à des variables normales
1) Loi du Khi-deux
2) Loi de Student
3) Loi de Fisher-Snedecor
1- Lois de variables discrètes
I- Loi de Bernoulli B(1, p) : définition et
caractéristiques
Définition : Une variable aléatoire X suit une loi de Bernoulli notée B(1, p), si elle prend les deux
seules valeurs 0 et 1 avec les probabilités suivantes :
P(X=1) = p
P(X=0) = 1- p
Remarque : On peut écrire également : P(X=x) =px (1 − p)1−x
Espérance et variance :
1
E(X) = �=0
�. �(� = �) = 0. (1 − �) + 1. �   E(X) = p
1
V(X) = �=0
(� − �(�))2 . �(� = �) = (0 − �)2 . (1 − �) + (1 − �)2 . �   V(X) = p(1-p)

L’usage veut qu’on note q = 1-p (probabilité de l’événement contraire). On a donc :


E(X) = p et V(X) = pq
Utilisation :
On utilise une telle variable aléatoire lorsque les résultats possibles d’une épreuve aléatoire sont
réduits à deux possibilités : OUI/NON; Vrai/Faux; Pile/Face; Homme/Femme, Fumeur/non fumeur;
Succès/Echec….
I- Loi de Bernoulli : exemple

On lance un dé de six faces, soit X la variable aléatoire qui prend 1 si on a obtenu


un nombre pair et 0 sinon.
1) Quelle est la loi suivie par X ?
2) Quelles sont ces espérance et variance ?
Solution :
1) Comme X ne peut prendre que les valeurs 0 ou 1, X est une variable aléatoire de
Bernoulli B(1, p) avec p = P(X=1) = P(D=2 ou D=4 ou D=6)= P(D=2) +P(D=4) +P(D=6) =
1/6 +1/6+1/6 = ½
Donc X  B(1, ½).
1 1
2) E(X) = p = ½ et V(X) = pq = × =  1/4
2 2
II- Loi binomiale B(n,p) : définitions

Définition 1 : On dit qu’un processus d’alternatives répétées constitue une


expérience binomiale s’il satisfait aux conditions suivantes :
1) l’expérience consiste en n essais répétés se soldant à chaque fois soit par un
échec soit par un succès
2) Tous les essais sont identiques et se déroulent dans les mêmes conditions
3) Les essais sont indépendants les uns des autres
4) La probabilité d’obtenir un succès est constante à l’intérieur de chaque essai
Définition 2 : Une variable aléatoire X suit une loi binomiale B(n,p) si elle prend
les (n+1) valeurs 0, 1, …, n avec les probabilités
�!
�(� = �) = ��� �� (� − �)�−� = �� ��−�
�! (� − �)!
II- Loi binomiale B(n,p) : Construction,
valeurs caractéristiques et approximations

Construction : Si n variables aléatoires indépendantes X1, X2, …, Xn suivent la


même loi de Bernoulli B(1,p) alors la variable aléatoire X= ni=1 Xi suit une loi
binomiale B(n,p).
Espérance et variance : dès lors on montre facilement que :
E(X) = np et V(X) = npq
Approximations (convergences en loi) :
Lorsque n est grand, en pratique n≥30, et
1) Si np et npq sont voisins (p<0,1) et si np<15, on peut approximer la loi B(n,p)
par une loi de Poisson P(l) où l=np
2) Si np>5 et si nq>5 on peut approximer la loi B(n,p) par une loi normale N(m,s)
où m =np et s = npq (ATTENTION A LA CORRECTION DE CONTINUITE)
Correction de continuité : pourquoi et comment
Pourquoi et comment ? Supposons qu’on souhaite approximer la variable binomiale X~ (B (n, p)
qui prend des valeurs entières entre 0 et n par une variable normale �� ~N(np, ���). Pour la
loi normale, qui est continue, la probabilité d’une valeur isolée est nulle. Il semble donc
impossible de calculer P(X = k) avec cette approximation. Approcher la loi binomiale par la loi
normale c’est remplacer une loi discrète (celle de X) par une loi continue (celle de Xc). On
remplace donc la probabilité de la valeur isolée x de la variable X par celle d’un intervalle
d’amplitude 1 autour de x pour la variable Xc :
P(X = x) ≈ P(x – 1/2 < Xc < x + 1/2)
Cette opération s’appelle la correction de continuité.
Règles d’approximation : La variable discrète X étant approchée par la variable continue Xc on
a:
P(X < n) s’obtient avec P(Xc < n – 0,5)
P(X ≤ n) s’obtient avec P(Xc < n + 0,5)
P(X > n) s’obtient avec P(Xc > n + 0,5)
P(X ≥ n) s’obtient avec P(Xc > n – 0,5)
On calcule par exemple P(a < X ≤ b) avec P(a + 0,5 < Xc < b + 0,5) = F(b + 0,5) – F(a + 0,5) où F
désigne la fonction de répartition de la variable continue Xc .
La correction de continuité : exemple

Soit X une variable aléatoire suivant la loi B(50, 1/2) . Les conditions d'approximations de la loi
de X par une loi normale sont remplies (n=50>30; np =25>5 et nq=25>5), et l'on peut considérer
25
que X suit à peu près la loi N ( 25, 2
). Évaluons alors de deux façons P(24 ≤ X ≤ 26)

En valeur exacte avec la loi binomiale : P(X = 24) + P(X = 25) + P(X = 26) ≈ 0,3282
En valeur approchée avec la loi normale : P(24 ≤ XC ≤ 26) ≈ 0,2222
En valeur approchée avec la loi normale corrigée par continuité : P(23,5 ≤ XC ≤ 26,5) ≈ 0,3286.
Le résultat est bien meilleur en tenant compte de la correction par continuité.
II- Loi binomiale B(n,p) : exemple

On lance 20 fois, de manière indépendante, un dé de 6 faces. Soit X la variable


aléatoire « nombre de lancers dont le résultat est 6 ».
1) Quelle est la probabilité d’obtenir le résultat 6 sur un lancer du dé ?
2) Montrer que X suit une loi binomiale dont on donnera les paramètres.
3) Calculer son espérance et sa variance.
4) Calculer P(X=0), P(X=1), P(X>2).
Solution :
���� {������� �� 6} ����{������� �� 6}
1) P(obtenir 6) = = = 1/6
���� Ω ���� {1,2,3,4,5,6}
II- Loi binomiale B(n,p) : solution de
l’exemple
2)
 on répète 20 fois une même expérience aléatoire (lancer du dé)
 les répétitions sont indépendantes
 deux issues contraires pour chaque expérience : soit un succès (obtenir un 6):
de probabilité 1/6; soit un échec (obtenir 1, 2, 3, 4 ou 5) : q = 1 − 1/6 = 5/6
alors, la variable aléatoire X qui compte le nombre de succès, suit une loi
binomiale de paramètres (n = 20, p = 1/6) avec :
les valeurs possibles de X sont {0, 1, 2, ...,20} de probabilités respectives :
�! ��! � �
�(� = �) = ��� �� (� − �)�−� = �� ��−� = . ( )� . ( )��−�
�!(�−�)! �!(��−�)! � �
II- Loi binomiale B(n,p) : solution de
l’exemple (suite)
3) E(X) = np= 20.(1/6)= 3,33 V(X) = npq = 2,77
4)

�(� = �) = ���� �� (� − �)��−� = ( )�� = 0,026

��! � � � �
�(� = �) = ���� �� (� − �)��−� = (��) . ( )� . ( )�� = ��. . ( )�� = �, ���
�! ! � � � �

�(� ≥ �) = � − [(�(� = �) + �(� = �) = �, ��

Comme on le voit, les calculs de probabilités ne sont pas aisés dans la loi binomiale.
C’est pourquoi on utilise souvent une table de la loi binomiale pour calculer les
probabilités de tel ou tel évènement
Toutes les lois que nous étudierons par la suite sont également tabulées.
II- Loi binomiale B(n,p) : table
Il s’agit uniquement d’une partie de la table, pour n=19
et 20 (1ère colonne). la table binomiale dans son
entièreté donne toutes les probabilités pour des
expériences allant de n=1 à n=30.

La deuxième colonne donne x (le x de P(X=x)) qui


prend toutes les valeurs de 0 à n donc ici de 0 à 19 pou
n=19 et de 0 à 20 pour n=20.

La première ligne du tableau donne p. On remarque


que p varie uniquement de 0,05 à 0,5, et que donc les
les lois binomiales qui ont un p>0,5 ne sont pas
tabulées. En fait, on utilisera la relation suivante : si
X~B(n,p) avec p>0,5; on définit la variable binomiale
Y/ Y~B(n,q=1-p) avec q<0,5 qui est tabulée et on a
P(X=x)=P(Y=n-x)

Enfin, l’intérieur du tableau donne P(X=x)


II- Loi binomiale B(n,p) : utilisation de la table

Si X~B(19, 0,15), les probabilités sont données dans l’encadré orangé.


On a donc : P(X=0) =0,0456, P(X=1)=0,1529…P(X=9)=0,0007,
P(X=10)=0,0001 et P(X>10)=0

Si Y~B(20, 0,4), les probabilités sont données dans l’encadré vert. On


peut calculer : P( 2<Y<6) = P(Y=3)+P(Y=4)+P(Y=5) =0,1219
P(Y>13) = P(Y=14)+…+P(Y=20) = 0,0065

Si X’~B(20, 0,75), on a p=0,75>0,5, cette loi n’est pas tabulée.


On pose Y’~B(20, 0,25), les probabilités sont données dans l’encadré
bleu.
P(X’=16) =P(Y’=20-16=4) = 0,1897
P(10<X’<15) = P(-15<-X’<-10)=P(20-15<20-X’<20-10)=P(5<Y’<10)=
P(Y’=6)+P(Y’=7)+P(Y’=8)+P(Y’=9) = 0,1932
….
III- Loi de Poisson : définition 1

On considère le nombre de réalisations d’un évènement non pas par rapport à un


nombre fixé d’épreuves, mais en rapport avec un intervalle de temps déterminé
ou une « région » donnée.
Définition 1 : une expérience aléatoire est dite de Poisson si :
1) Le nombre de fois qu’un évènement se réalise dans un intervalle de temps ou
une région spécifiée est connu, l
2) La probabilité que cet évènement se réalise dans un intervalle de temps ou
une région très petite est proportionnelle à sa longueur ou à son étendue et
ne dépend pas du nombre de réalisations à l’extérieur
3) La probabilité que l’évènement se produise plus d’une fois dans un intervalle
de temps très court ou une région très réduite est négligeable.
On dit que la loi de Poisson est la loi des évènements rares
III- Loi de Poisson : définition 2 et
valeurs caractéristiques
Définition 2 : Une variable aléatoire suit une loi de Poisson notée P(l) si elle
prend ses valeurs dans IN avec les probabilités :
λ�
�(� = �) = �−λ      avec l >0
�!

Espérance et variance :
E(X) = V(X) = l

Somme de lois de Poisson :
Si X suit une loi de Poisson de paramètre l1 , Y suit une loi de Poisson de
paramètre l2 et X et Y indépendantes alors X+Y suit une loi de Poisson de
paramètre l1 + l2. Ce résultat se généralise à la somme de n lois de
Poisson indépendantes.
III- Loi de Poisson : Exemple 1
Un magasin reçoit 3 réclamations en moyenne par jour. En supposant que la loi de survenance de
ces réclamations est une loi de Poisson, calculer la probabilité pour que le premier lundi du mois
prochain soient enregistrées :
1) 0 réclamation
2) 2 réclamations
3) au plus 2 réclamations
Solution
Soit X : nombre de réclamations reçues par jour
X~P(3) donc
��
1) �(� = �) = �−� �! = �, ����
��
2) �(� = �) = �−� �! = �, ����
3) P(X≤ 2) = P(X=0) +P(X=1) +P(X=2) = 0,0498 +0,1494+0,2240 = 0,4232

Remarque : l’étudiant est invité à refaire les calculs en utilisant la table de poisson.
III- Loi de Poisson : Exemple 2

Soit X une variable aléatoire qui suit une loi binomiale �(50;  0,1). Calculer P(X=2)
de deux manières différentes.
Solution :
1) P( X = 2 ) = �250 (0,1)2 × (0,9)50−2 = 0,0779 ~0,08
2) n=50>30, p≤0,1, et np=5≤15 donc on peut approximer la loi de X par une loi
de poisson de paramètre l = np = 5
52
P(X=2) = �−5 = 0,0842 ~0,08
2!

Remarque : plus n est grand, meilleure est l’approximation !


III- Table (1)

Si X~P(1,5), les probabilités sont données dans l’encadré orangé. On vérifiera aisément que :
P(X=0)= 0,2231, P(X=1)=0,3347…P(X=8)=0,0001
Et P(X<5) =P(X=0)+…+P(X=4) = 0,2231+0,3347+0,2510+0,1255+0,0471= 0,9814
III- Loi de Poisson : Table (2)

Cette table permet de calculer les probabilités cumulées P(X≤k). Ainsi, si on reprend
l’exemple précédent, si X~P(1,5),
P(X<5)=P(X≤4) = 0,9814
2- Lois de variables continues
IV- La variable aléatoire normale centrée réduite
N(0,1) : définition/fonction de densité

Définition :
La variable aléatoire normale centrée réduite Z est la variable aléatoire
absolument continue dont la densité f est définie sur IR par :
1 z²
f(z) = 2�
. exp(− )
2

On note : Z~N(0,1)
Forme : il s’agit d’une courbe dite « en cloche » symétrique par rapport à l’axe
des ordonnées (fonction paire)
IV- La variable aléatoire normale centrée
réduite N(0,1) : fonction de répartition
Fonction de répartition :

1 �²
�(�) = exp − ��
2� −∞ 2

Forme : Du fait de la parité de la fonction de densité, elle est symétrique par


rapport au point (0,1/2)
F(x)
IV- La loi normale centrée réduite N(0,1):
valeurs caractéristiques
Valeurs caractéristiques :
+∞ z² 0 z² +∞ z²
1 − 1 − 1 −
Espérance : E(Z) = 2π −∞
z. e 2 dz = 2π −∞
z. e 2 dz + 2π 0
z. e 2 dz
z

Or g(z) = ze 2 est une fonction impaire : g(t) = -g(-t)
Donc E(Z) = 0 la variable est centrée

+∞ 2 +∞ � z²

Variance : V(Z) = E(Z²) –[E(Z)]² = E(Z²) = −∞
z f(z)dz = −∞ 2�
. z. e 2 dz

z −
On fait une intégration par partie ��� = ��  − ��� en posant : u = 2π
et dv = z. e 2 dz
−z² −�² +∞
dz z 1 �²
avec du =   et v =− e 2 et donc V(Z) = − � 2 �+∞
−∞ + exp − �� = 0 + 1
2π 2π 2� −∞ 2

V(Z) = 1 la variable est réduite


IV- Table N(0,1)
présentation
Devant une table statistique le premier réflexe est de
chercher ce qui est tabulé. Ici, on le voit, il s’agit de
F(z) = P(Z<z). Donc toutes les valeurs dans le tableau,
(à l’intérieur de l’encadré rouge), sont des F(z).
On remarque que 0,5≤F(z)≤1 avec z≥ 0
IV- Table N(0,1):utilisation
Le z du F(z) est donné à la fois dans la première ligne et
la première colonne. C’est un nombre avec deux
chiffres après la virgule qu’on obtient en additionnant
la donnée de la première colonne à la donnée de la
première ligne.
Ainsi F(z=2,21)= F(2,2+0,01) = 0,9864
F(1,08) = 0,8599

Calcul pour une valeur négative de z :


On utilise la relation F(-z) =1-F(z) résultant de la
symétrie de la fonction par rapport à l’axe des abcisses.
En effet : F(-z) =P(Z<-z) =P(Z>z) =1 –F(z)
Ainsi :
F(-1,96) =P(Z<-1,96) =1 –F(1,96) = 1-0,9750=0,025

Calcul pour des intervalles : soit z1 et z2 positifs, on a:


P(z1<Z<z2) = F(z2)-F(z1)
P(-z1<Z<-z2) =P (z2<Z<z1) =F(z1)-F(z2)
P(-z1<Z<z2) =F(z2)-F(-z1)=F(z2)+F(z1)-1
V- La loi de Laplace-Gauss ou loi normale
N(m,s) : définition et conséquence
Définition
Une variable aléatoire X absolument continue dont l’espérance et l’écart-type sont notés
respectivement m et s est dite de Laplace-Gauss (on note : X~N(m,s)) si la variable centrée
�−�
réduite associée Z = est une variable normale centrée réduite.

Fonction de densité
1 (x−μ)2
Pour tout x de IR , f(x) = exp(− )
σ 2π 2σ2

Conséquence pratique : utilisation de la table de la loi N(0,1)


Pour calculer des probabilités liées à la loi N(m, s), on passera de la variable normale à la
variable normale centrée et réduite et on utilisera la table de N(0,1).
Exemple : X~N(4,2)
−5 X−μ 2
P(-1<X<6) = P(-1-4<X-m<6-4)=P( < < ) =P(-2,5<Z<1) =F(1)+F(2,5) -1 = 0,8413 +0,9938 -1 =0,8351
2 σ 2
V- La loi de Laplace-Gauss N(m,s) :
intervalles remarquables
Intervalles remarquables :
On peut calculer en pourcentages les probabilités pour que la variable normale se trouve dans
des intervalles centrés en m et de demi-longueurs ks avec k=1,2 et 3.
�−�
 �(� − � ≤ � ≤ � + �) = �(−� ≤ � − � ≤ �) = � −1 ≤ ≤ 1 = P(−1 ≤ � ≤ 1) = 68,27%

 �(� − 2� ≤ � ≤ � + 2�) = �(−2� ≤ � − � ≤ 2�) = P(−2 ≤ � ≤ 2) = 95,44%


 �(� − 3� ≤ � ≤ � + 3�) = �(−3� ≤ � − � ≤ 3�) = P(−3 ≤ � ≤ 3) = 99,74%
Ces résultats sont importants et bien que non suffisants pour reconnaître si une loi est
normale, ils constituent un premier test de normalité (avant d’effectuer, s’il est positif, un
test du Khi2 par exemple).
V- La loi de Laplace-Gauss : propriétés

Addition :
Si deux v.a. indépendantes X1 et X2 suivent respectivement des lois normales N (m1, σ1)
et N (m2, σ2 ), alors la v.a. X1 + X2 suit une loi normale N (m1 + m2, σ1 ² +  σ2 ²). Cette
propriété est généralisable à n variables indépendantes normales
Combinaison linéaire :
On démontre que si X1, X2, ..., Xn suivent des lois normales indépendantes d’espérances
m1, m2, ..., mn et d’écart-types σ1 , σ2 , ..., σn , alors pour tous λi ∈ IR, la v.a. ��=1 �� ��
suit une loi normale d’espérance ��=1 �� �� et de variance ��=1 �� �2� .

Exemples : Si X~N(m,s) et Y~N(m’,s’)


VI- Lois de variables aléatoires liées à
des v.a. normales
Il s’agit de
1) La loi du Khi-2
2) La loi de Student
3) La loi de Fisher-Snedecor

Ces lois sont utiles pour de nombreux tests notamment en Econométrie.


L’expression explicite des densités de ces lois n’est pas à connaître puisque,
comme pour la loi normale, des tables statistiques permettent de les manipuler.
La présentation et l’utilisation de ces tables se feront ultérieurement en théorie
des tests et économétrie.
VI-1 Loi du Khi 2 à n degrés de liberté:
�2�
Définition :
Soit Z1, Z2, ..., Zn n v.a. indépendantes et de même loi N (0, 1). Alors, la variable aléatoire
Y= ��=1 �2� suit une loi du Khi 2 à n degrés de libertés. On note : Y∼ �2

Espérance et variance : E(�2� ) = n , V(�2� ) = 2n
Nombre de degrés de liberté (ddl) :
le nombre de degré de liberté correspond au nombre de variables normales centrées et
réduites indépendantes utilisées pour définir la variable Y. S’il existe une relation linéaire
entre ses variables, du type a1Z1+a2Z2+…+anZn = a0 alors la loi de Y perd un degré de liberté et
devient �2�−1 . Ainsi, on perdra autant de ddl que de paramètres à estimer
Addition : Si deux v.a. indépendantes Y1 et Y2 suivent respectivement des lois �2�1 et �2�2   alors
la v.a. Y1 + Y2 suit une loi �2�1+�2 .
Approximation : Lorsque n est grand (n > 30), la loi de la v.a. 2�2� − 2� − 1  peut être
approximée par une loi Normale centrée et réduite N (0, 1).
VI-1 Loi du Khi 2 : représentation

On remarque que plus le nombre de ddl augmente plus les courbes ressemblent à
celle de la loi normale, en application du théorème central-limite
VI-2 Loi de Student à n degrés de liberté

Définition
Soit X et Y deux v.a. indépendantes telles que X suit une loi N (0, 1) et Y suit une
X
loi �2� . Alors, la v.a. T =    suit une loi de Student à n ddl On note : T∼ Tn
Y
n

Espérance
E(T) = 0
Approximation :
Lorsque n est grand (n > 30), la loi Tn peut être approximée par une loi Normale
centrée et réduite N (0, 1).
VI-2 Loi de Student : représentation

On voit que pour n=1 (loi de Cauchy), la distribution est relativement aplatie avec des queues de
distribution épaisses. Plus n augmente, plus la dispersion diminue. A partir de n=30, elle est plus
resserrée et très proche de la courbe représentant la fonction de densité de la loi normale
centrée réduite. C’est pourquoi, la loi de Student n’est utilisée que pour les petits échantillons
de taille inférieure à 30. Au-delà, on utilisera la loi normale centrée et réduite.
VI-3 Loi de Fisher-Snedecor : F(n1, n2)

Définition:
Soit X1 et X2 deux v.a. indépendantes de lois respectives �2�1 et �2�2 . Alors, la v.a. F
�1
�1
�2
�2
suit une loi F (n1, n2) à n1 et n2 degrés de liberté. On note : F ~F(n1, n2)
VI-3 Loi de Fisher-Snedecor : exemples
de représentation

Vous aimerez peut-être aussi