Vous êtes sur la page 1sur 36

Table des matières

1 Rappels et préliminaires 3
1.1 Espérance et variance . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Retour à la loi normale . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Lois dérivées de la loi normale . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Loi de Khi-deux χ2 (p) . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Loi de Student t(n) . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.3 Loi de Fisher-Snedecor F(n, p) . . . . . . . . . . . . . . . . 7
1.4 Théorème central limite et applications : approximations de la loi bi-
nomiale, loi de poisson par loi normale . . . . . . . . . . . . . . . . . 7
1.4.1 Approximation de la loi binomiale par la loi normale . . . . . 8
1.4.2 Approximation de la loi de Poisson par la loi normale . . . . . 8
1.4.3 Approximation de la loi binomiale par la loi de Poisson . . . . 8
1.5 Autres Théorèmes asymptotiques . . . . . . . . . . . . . . . . . . . . 9

2 Échantillonnage 10
2.1 Quelques types d’échantillonnages . . . . . . . . . . . . . . . . . . . 11
2.1.1 Échantillonnage stratifié . . . . . . . . . . . . . . . . . . . . 11
2.1.2 Échantillonnage par grappes . . . . . . . . . . . . . . . . . . 11
2.1.3 Échantillonnage systématique . . . . . . . . . . . . . . . . . 12
2.1.4 Échantillonnage de commodité . . . . . . . . . . . . . . . . . 12
2.1.5 Échantillonnage par quotas . . . . . . . . . . . . . . . . . . . 12
2.1.6 Échantillonnage aléatoire simple . . . . . . . . . . . . . . . . 12
2.2 Distribution d’échantillonnage . . . . . . . . . . . . . . . . . . . . . 14
2.2.1 La moyenne d’échantillonnage . . . . . . . . . . . . . . . . . 14
2.2.2 Lois de probabilité de la moyenne . . . . . . . . . . . . . . . 15
2.2.3 La variance d’échantillonnage . . . . . . . . . . . . . . . . . 15
2.2.4 Lois de probabilité de la Variance . . . . . . . . . . . . . . . 16
2.3 La proportion d’échantillonnage . . . . . . . . . . . . . . . . . . . . 16
2.3.1 Cas ESAR . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.2 Cas ESSR . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3.3 Lois de probabilité d’une proportion . . . . . . . . . . . . . . 17

1
TABLE DES MATIÈRES

3 Estimation 19
3.1 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.1.1 Quelques estimateurs . . . . . . . . . . . . . . . . . . . . . . 20
3.1.2 Qualité des estimateurs . . . . . . . . . . . . . . . . . . . . . 21
3.1.3 Estimation par la méthode des moments . . . . . . . . . . . . 22
3.1.4 Estimation par la méthode de maximum de vraisemblance . . 24
3.2 Estimation par intervalle de confiance . . . . . . . . . . . . . . . . . 26
3.2.1 Intervalle de confiance pour la moyenne . . . . . . . . . . . . 27
3.2.2 Intervalle de confiance pour la proportion . . . . . . . . . . . 28
3.2.3 Intervalle de confiance pour la variance . . . . . . . . . . . . 28
3.2.4 Précision d’une estimation par intervalle de confiance . . . . . 29

4 Tests statistiques 30
4.1 Tests pour une moyenne . . . . . . . . . . . . . . . . . . . . . . . . 32
4.2 Tests pour une variance . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.3 Tests pour une proportion . . . . . . . . . . . . . . . . . . . . . . . . 32

2
Chapitre 1

Rappels et préliminaires

1.1 Espérance et variance


Soient a, b deux réels et X, Y deux variables aléatoires. On dit que l’espérance est
linéaire et on écrit :
E(aX + bY ) = aE(X) + bE(Y ) .
La variance d’une variable aléatoire s’exprime en fonction de son espérance comme
suit :
V ar(X) = E[(X − E(X))2 ] = E(X 2 ) − [E(X)]2 .
La variance ainsi définie n’est pas linéaire et nous avons les relations suivantes :
– V ar(aX) = a2 V ar(X) ,
– V ar(aX ± bY ) = a2 V ar(X) + b2 V ar(Y ) ± 2 a b cov(X, Y ) .

Rappelons que :
cov(X, Y ) = E[(X − E(X))(Y − E(Y )] = E(XY ) − E(X)E(Y ) .
– Si X et Y sont deux variables aléatoires indépendantes, alors :

V ar(X + Y ) = V ar(X − Y ) = V ar(X) + V ar(Y ) ,


et
E(XY ) = E(X)E(Y ) .

Définition 1
Soit X une variable aléatoire.
– Si E(X) = 0, on dit que X est une variable aléatoire centrée.
– Si l’écart-type σX = 1, on dit que X est une variable aléatoire réduite.
– Si E(X) = 0 et σX = 1, on dit que X est une variable aléatoire centrée
réduite.
Le théorème ci-après donne la manière de manipuler la somme de deux variables
aléatoires indépendantes suivant la même loi (cas binomial, de poisson et le cas nor-
mal).

3
CHAPITRE 1. RAPPELS ET PRÉLIMINAIRES

Théorème 2 (Théorème d’addition)


Soient X et Y deux variables aléatoires indépendantes et a, b deux réels. On a :
– Si X ∼ B(n1 , p) et Y ∼ B(n2 , p) , alors X + Y ∼ B(n1 + n2 , p) .
– Si X ∼ P(λ1 ) et Y ∼ P(λ2 ) , alors X + Y ∼ P(λ1 + λ2 ) .
– Si X ∼ N (µ1 , σ12 ) et Y ∼ N (µ2 , σ22 ) ,

alors aX + bY ∼ N (aµ1 + bµ2 ; a2 σ12 + b2 σ22 ) .

1.2 Retour à la loi normale


Le but de cette partie est de pouvoir trouver les valeurs de probabilités pour une
variable aléatoire normale de moyenne m et d’écart-type σ : N (m, σ) .
Nous proposons par la suite des exercices concernant la loi normale centrée réduite et
la loi normale de paramètres quelconques.

Exercices :
Soit X une variable normale centrée réduite.
1. Pour quelle valeur x de X, 20% des valeurs observées de X sont-elles extérieures
à l’intervalle (-x,x) ?
2. Soit Y ∼ N (3, 3) . calculer les probabilités suivantes :
– P(2<Y<5)
– P(Y<3,5)
– P(0<Y)
– P(|Y-3|>6)
3. Soit Z ∼ N (0, 2) . calculer les probabilités suivantes :
– P(0<Z<1)
– P(Z<2.04)
– P(0<Z)
– P(|Z-1|>3)
4. Soit T ∼ N (5, 1) . calculer les probabilités suivantes :
– P(3<T<5)
– P(T<3.11)
5. Considérons Z1 ∼ N (m, σ) . Quelle est la valeur de la probabilité :
P(m − σ < Z1 < m + σ) ?

Solutions :

1. Il s’agit de calculer la probabilité suivante : P(X<-x ou X>x) = P(X<-x)+ P(X>x).

On cherche x telle que cette somme de probabilités soit égale à 0,2.


Or, P(X<-x)= P(X>x).

Par conséquent, ceci revient à chercher la valeur de x tel que P(X>x)= 0,1.

4
1.2. RETOUR À LA LOI NORMALE

P(X > x) = 0, 1 ⇔ 1 − P(X < x) = 0, 1


1 − P(X < x) = 0, 1 ⇔ Φ(x) = 0, 9
x = 1, 29 .
2. Soit Y ∼ N (3, 3) . L’écart-type de la variable Y est égal à 3. Dans cet exercice,
Y −3
On pose : X = . X suit une loi normale centrée réduite.
3  
2−3 Y −3 5−3
– P(2 < Y < 5) = P < < .
3 3 3
Par conséquent,
P(2 < Y < 5) =  P(−1/3 < X < 2/3)  = Φ(2/3) − Φ(−1/3) = 0, 3747.
Y −3 3, 5 − 3
– P(Y < 3, 5) = P < = P(X < 1/6)
3 3
= Φ(0, 17) = 0, 5675 .

– P(0 < Y ) = P(X > −1) = P(X < 1) = Φ(1) = 0, 8413 .

– P(|Y − 3| > 6) = P(Y > 9) + P(Y < −3) = P(X > 2) + P(X < −2)
= 1 − Φ(2) + 1 − Φ(2) = 0, 0455 .

3. Soit Z ∼ N (0, 2) . l’écart-type de la variable Z est égal à 2. Dans cet exercice,


Z
On pose : X = . X suit une loi normale centrée réduite.
2
– P(0 < Z < 1) = P(0 < X < 1/2) = Φ(1/2) − Φ(0)

= 0, 6915 − 05 = 0, 1915 .

– P(Z < 2.04) = P(X < 1.04) = Φ(1, 04) = 0, 8508 .

– P(0<Z)=P(0<X)=0,5.
– P(|Z − 1| > 3) = P(4 < Z) + P(Z < −2) = P(2 < X) + P(X < −1)
= 1 − Φ(2) + 1 − Φ(1) = 0, 1815 .

4. Soit T ∼ N (5, 1) . l’écart-type de la variable Z est égal à 2. Dans cet exercice,


On pose : X = T − 5 . X suit une loi normale centrée réduite.
– P(3 < T < 5) = P(−2 < X < 0) = Φ(0) − Φ(−2)
= Φ(0) + 1 − Φ(2) = 0, 5 + 1 − 0, 9772 = 0, 5228 .
– P(T < 3.11) = P(X < −1, 89) = Φ(−1, 89) = 1 − Φ(1, 89) = 0, 0294.
 
−σ Z1 − m σ
5. P(m−σ < Z1 < m+σ) = P(−σ < Z1 −m < σ) = P < <
σ σ σ
 
Z1 − m
= P −1 < <1
σ

5
CHAPITRE 1. RAPPELS ET PRÉLIMINAIRES

Z1 − m
Or Z1 ∼ N (m, σ) . Par conséquent, ∼ N (0, 1).
σ
Ce qui revient à calculer la probabilité suivante :
P (-1<X<1), avec X ∼ N (0, 1).

P(−1 < X < 1) = Φ(1) − Φ(−1) = Φ(1) − (1 − Φ(1)) = 0, 6826.


Faites la même chose pour vérifier les valeurs qui sont sur le graphe suivant :

F IGURE 1.1 – Loi normale

1.3 Lois dérivées de la loi normale


1.3.1 Loi de Khi-deux χ2 (p)
Soit p un entier positif. Une v.a X suit une loi de khi-deux à p degrés de liberté,
notée χ2 (p) si X est une v.a.c admettant comme densité de probabilité la fonction
suivante :

1 t


 p/2 t(p/2)−1 exp(− ) , si t ≥ 0
2 Γ(p/2) 2
fX (t) =


 0 , si t < 0.

où,
Z +∞
Γ(r) = tr−1 exp (−t) dt (fonction gamma d’Euler).
0

Pour une v.a.c X suivant la loi de khi-deux à p degrés de liberté, on a :

E(X) = p et V ar(X) = 2p .

6
1.4. THÉORÈME CENTRAL LIMITE ET APPLICATIONS : APPROXIMATIONS
DE LA LOI BINOMIALE, LOI DE POISSON PAR LOI NORMALE
Remarque 3
Si X1 , X2 , · · · , Xn est une suite de v.a indépendantes et identiquement distribuées
Xn
(iid) suivant une loi normale N (0, 1) . Alors la v.a U = Xi2 suit la loi de khi-
i=1
deux à n degrés de liberté (ddl).
Autrement dit, la loi de khi-deux est résultat d’une somme des carrées de variables
normales centrées réduites.

1.3.2 Loi de Student t(n)


Soit U une v.a suivant la loi normale N (0, 1) et X une v.a qui suit indépendam-
ment de U une loi de khi-deux à n degrés de liberté. Alors la v.a :
U
Tn = q
X
n

suit la loi de Student à n degrés de liberté.

1.3.3 Loi de Fisher-Snedecor F(n, p)


Soient X et Y deux v.a suivant indépendamment des lois de khi-deux à n et p degrés
de libertés respectivement. Alors, la v.a :
X/n
F =
Y /p
suit une loi de Fisher-Snedecor à n degrés de liberté au numérateur et p degrés de liberté
au dénominateur.

1.4 Théorème central limite et applications : approxi-


mations de la loi binomiale, loi de poisson par loi
normale
Théorème 4 (Théorème de la limite centrale(TLC, CLT ou TCL))
Soit (X1 , X2 , · · · , Xn )(n≥1) une suite de variables aléatoires iid d’espérance
µ = E(Xi ) et de variance finie σ 2 = V ar(Xi ). Alors,
Xn − µ
pour n suffisamment grand, √ suit une loi normale centrée réduite N (0, 1) .
σ/ n

Remarque 5
– Le théorème de la limite centrale (ou central limite) peut être formulé pour
Xn
Sn = Xi .
i=1
Sn − nµ
En effet, pour n suffisamment grand, √ suit la loi normale N (0, 1) .
σ n

7
CHAPITRE 1. RAPPELS ET PRÉLIMINAIRES

Autrement dit, pour n suffisamment grand, Sn suit la loi normale N (nµ, nσ 2 )


et X n suit la loi normale N (µ, σ 2 /n) . ;
– Le TCL est un outil important dans la construction d’intervalles de confiance
ainsi que pour les tests statistiques.
– Le TCL nous offre la possibilité d’approximation de la loi Binomiale par la loi de
Poisson, approximation de la loi Binomiale par la loi normale et l’approximation
de la loi de Poisson par la loi normale.

1.4.1 Approximation de la loi binomiale par la loi normale


Soit X ∼ B(n, p) on a :

X − np
p ≈ N (0, 1) lorsque n > 30, np ≥ 5 et n(1 − p) ≥ 5 .
np(1 − p)

En pratique, on vérifie que n>30 et que np>5 et nq>5 dans ce cas :

B(n, p) ≈ N (np, npq) .

1.4.2 Approximation de la loi de Poisson par la loi normale


Soit X ∼ P(λ) on a :

X −λ
√ ≈ N (0, 1) lorsque λ > 15.
λ

En pratique, on vérifie que λ > 15 . Si c’est le cas, on peut écrire :

P(λ) ≈ N (λ, λ) .

1.4.3 Approximation de la loi binomiale par la loi de Poisson


Considérons X ∼ B(n, p). Si n → +∞ et p → 0 de sorte que np → λ > 0 .
Alors la v.a X est proche de la loi de Poisson de paramètre λ . On écrit :

e−λ λk
X ∼ B(n, p) et ( np → λ) ⇒ Cnk pk (1 − p)n−k ≈ , k∈N.
k!
On dit que la variable binomiale est asymptotiquement une variable de Poisson.

En pratique, il faut vérifier les conditions (p<0,1 et n>30), dans ce cas :

B(n, p) ≈ P(np) .

8
1.5. AUTRES THÉORÈMES ASYMPTOTIQUES

1.5 Autres Théorèmes asymptotiques


Théorème 6 (Inégalité de Markov)
Soit X une variable aléatoire réelle supposé presque-sûrement positive ou nulle (càd :
P(X ≥ 0) = 1). Alors :
E(X)
∀α > 0, P(X ≥ α) ≤ .
α

Théorème 7 (Théorème de Bienaymé-Tchebychev)


2
Soit X une variable aléatoire telle que sa variance (σX ) existe et soit λ > 0.
2
σX
P (|X − E(X)| ≥ λ) ≤ .
λ2
Remarque 8
– L’idée de démonstration de ce théorème est de considérer la variable aléatoire
Y = |X − E(X)|2 et lui appliquer l’inégalité de Markov.
– On applique l’inégalité de Bienaymé-Tchebichev avec λ = k σX . On a :
σ2 1
P (|X − E(X)| ≥ k σX ) ≤ 2X2 = 2 .
k σ k
⇒ P (|X − E(X)| ≥ k σX ) = 1 − P (|X − E(X)| < k σX ) .
1
⇒ 1 − P (|X − E(X)| < σX ) ≤ 2 .
k
1
⇒ P (|X − E(X)| < k σX ) ≥ 1 − 2 .
k

Théorème 9 (Loi des grands nombres (LGN))


Soit (X1 , X2 , · · · , Xn )(n≥1) une suite de variables aléatoires iid d’espérance µ. Alors
n
1X
Xn = Xi converge en probabilité vers µ lorsque n → +∞ . C’est à dire :
n i=1

∀ > 0 P(|X − µ|) > ) = 0 .

9
Chapitre 2

Échantillonnage

Afin d’étudier et donner les caractéristiques d’un caractère (variable statistique)


dans une population, nous pouvons procéder selon deux démarches différentes :
– Le recensement (approche descriptive) : consiste à parcourir toute la population
pour avoir une idée sur le caractère étudié. Lorsque la taille de la population
est grande, le recensement devient pratiquement impossible ou demande un coût
élevé et un temps considérable. Par conséquent, une autre alternative s’impose.
– Le sondage (approche inférentielle) : Lorsque le recensement n’est pas possible
ou sa pratique rencontre des contraintes, on peut avoir recours à un sondage. Il
s’agit de faire l’étude statistique sur un sous-ensemble de la population appelé
Échantillon et essayer, ensuite, de généraliser les résultats obtenus sur la popula-
tion parente dont l’échantillon est issu.
Pour pouvoir généraliser les résultats obtenus à partir d’un échantillon, il faut que
l’échantillon pris soit représentatif de la population, ensuite, il faut que les techniques
utilisées soient capables de représenter les paramètres inconnus de la population.
Bien évidemment, la démarche suivie pour choisir nos échantillons a une influence
sur les résultats obtenus. En effet, avant d’estimer les paramètres inconnus de la po-
pulation via un sous-ensemble de la population, il faut d’abord répondre à la question
essentielle : de quelle manière choisir les éléments qui constituent ces sous-ensembles ?

Définition 10
– Échantillonnage : c’est l’opération qui consiste à sélectionner de façon organi-
sée les éléments de l’échantillon.
– Base de sondage : présentation ordonnée de tous les éléments considérés par
l’enquête constituant la population.
– Erreur d’échantillonnage : écart entre les résultats obtenus auprès d’un échan-
tillon et ceux obtenus en procédant par un recensement comparable de la popu-
lation. Plus la taille de l’échantillon est grande plus l’erreur d’échantillonnage
diminue.
– Fraction ou taux de sondage : proportion des éléments de la population qui
font partie de l’échantillon. C’est le rapport entre la taille de l’échantillon n, et la

10
2.1. QUELQUES TYPES D’ÉCHANTILLONNAGES

taille de la population N.
n
f= × 100 .
N

2.1 Quelques types d’échantillonnages


Un échantillon aléatoire est un sous ensemble de la population de base qui est
interrogé après sélection lors d’une enquête.

2.1.1 Échantillonnage stratifié


L’échantillonnage stratifié est un échantillonnage aléatoire dans lequel la popula-
tion est partitionnée en sous-populations appelées strates. Ensuite un échantillon simple
(probabilité d’être choisi est la même pour tous les individus de la population) est
constitué à partir de chaque strate.
Supposons que la taille de la population est N. Cette population est subdivisée en p
strates, avec Ni est la taille de la strate i. On a :

N = N1 + N2 + · · · + Np .

Exemple :
On souhaite étudier un caractère chez la population des étudiants des universités maro-
caines, on considère que chaque strate est composée des étudiants d’une même univer-
sité. Il y a autant de strates que d’universités. Ensuite, nous procédons par échantillon-
nage simple sur chaque université.

Remarque 11
Ce type d’échantillonnage est effectué lors de l’existence de sous-ensembles homo-
gènes au sein de la population. C’est à dire avec des variances internes petites et va-
riances externes grandes. Cette méthode assure la bonne représentation de tous les
strates dans l’échantillon.

2.1.2 Échantillonnage par grappes


C’est un échantillonnage aléatoire dans lequel la population est d’abord divisée en
grappes, ensuite, on sélectionne au hasard un certain nombre de grappes pour représen-
ter la population totale, puis on englobe dans l’échantillon toutes les unités incluses à
l’intérieur des grappes sélectionnées.

Exemple :
On souhaite étudier l’activité favorite pour les étudiants de la deuxième année d’écono-
mie et gestion au Maroc. Il serait trop coûteux et trop long d’interroger chaque étudiant
de 2ème année. On sélectionne plutôt au hasard 7 facultés de tout le pays. Ces facul-
tés fournissent des grappes d’échantillons. On sonde ensuite chaque étudiant de 2ème
année d’économie et gestion de chacune des 7 grappes. Les étudiants inclus dans ces

11
CHAPITRE 2. ÉCHANTILLONNAGE

grappes représentent, en effet, tous les étudiants de la 2ème année d’économie et ges-
tion au Maroc.

Ce type d’échantillonnage est choisi lors de l’existence de sous-ensembles hété-


rogènes au sein de la population. C’est à dire des variances internes grandes et des
variances externes petites.

2.1.3 Échantillonnage systématique


Les individus de la population Ω sont numérotés de 1 à N. Pour sélectionner n
individus, nous divisons la population en n groupes :
{1, · · · , k}, {1 + k, · · · , 2k}, · · · , {1 + (n − 1)k, · · · , N } où k=N/n.
Nous choisissons au hasard l’individu i parmi les individus numérotés de 1 à k. Nous
construisons notre échantillon des individus {i, i + k, i + 2k, · · · , i + (n − 1)k} .
Le choix de l’individu i détermine entièrement la constitution de l’échantillon. Cette
méthode est bien adaptée au prélèvement des pièces défectueuses dans une fabrication
pour un contrôle de qualité. L’inconvénient majeur de cette méthode est la non consi-
dération de phénomènes cycliques pouvant être présents dans une population donnée.

2.1.4 Échantillonnage de commodité


C’est un échantillonnage non aléatoire dans lequel les éléments de l’échantillon
sont sélectionnés en fonction de leurs commodité (disponibilité, facilité).

2.1.5 Échantillonnage par quotas


Échantillonnage non aléatoire dans lequel les éléments de l’échantillon sont sé-
lectionnés en fonction des croyances de la personne qui construit l’échantillon. C’est
un échantillonnage subjectif. Il s’agit d’une sorte de stratification avec probabilités in-
égales pour qu’un élément de la population soit pris dans l’échantillon.

Exemple :
On veut construire un échantillon de 100 individus. La structure de la population selon
un échantillonnage par quotas, basé sur le sexe des individus, peut être comme suit :
On va choisir 40% des femmes et 60% des hommes.

Un échantillonnage par quotas est statistiquement irrationnel et en tant que tel, il


est à éviter.

2.1.6 Échantillonnage aléatoire simple


Lors d’un échantillonnage aléatoire simple, on considère que, dans une population
d’effectif N, tous les échantillons possibles de taille n (n<N) sont possibles avec la
même probabilité.
L’aspect aléatoire signifie qu’on procède par tirage au hasard. L’aspect simple veut dire

12
2.1. QUELQUES TYPES D’ÉCHANTILLONNAGES

que l’on traite de manière directe la population de base sans modification ou prépara-
tion préalable et que la probabilité d’inclusion des éléments de la population est la
même pour tous.

1. Échantillonnage simple avec remise (ESAR) : On choisi de manière succes-


sive et aléatoire n unités de la population, une fois un élément est choisi dans
l’échantillon, il est remis dans la population et peut être choisi plusieurs fois.

Exemple :
Soit la population P = {1, 2, 3, 4} . Si l’on veut construire deux échantillons de
taille n=3, l’échantillon E1 = {1, 2, 2} est considéré différent de l’échantillon
E2 = {2, 2, 1} dans ce type d’échantillonnage.

Proposition 12
Dans le cas d’un ESAR, le nombre d’échantillons possibles est de N n .

2. Échantillonnage simple sans remise (ESSR) : On choisi de manière successive


et aléatoire n unités de la population, une fois un élément est choisi et inclus dans
l’échantillon, il est retiré de la population et ne peut pas être choisi une autre fois.

Exemple :
Soit la population P = {1, 2, 3, 4} . Si l’on veut construire deux échantillons de
taille n=3, quatres possibilités se présentent :
E1 = {1, 2, 3} E2 = {1, 2, 4} E3 = {1, 4, 3} E2 = {2, 3, 4} .

Proposition 13
n N!
Dans le cas d’un ESSR, le nombre d’échantillons possibles est de CN = .
(N − n)! n!
L’inconvenient de ce type d’échantillonnage est la possibilité de choisir des éléments
éloignés, ce qui risque de créer des échantillons non homogènes.

Dans la suite de ce chapitre nous nous intéressons au cas d’échantillonnage aléa-


toire simple (ESAR et ESSR).

On dit que L’ESAR est un échantillonnage non exhaustif puisque, pour construire
l’échantillon, chaque élément est remis dans la population, une fois choisi. L’ESSR est
un échantillonnage exhaustif.

En pratique :

– si la population est finie et qu’on effectue un ESAR, alors la population est consi-
dérée infinie.
– si la population est infinie (N ≫ n) et qu’on effectue un ESSR, alors l’échan-
tillonnage effectué est assimilé à un ESAR.
Lorsque (n ≥ 30) et (le taux de sondage ≤ 5%), on peut assimiler un ESSR à un ESAR.

13
CHAPITRE 2. ÉCHANTILLONNAGE

2.2 Distribution d’échantillonnage


Définition 14
Soit X une variable aléatoire réelle. Un échantillon aléatoire d’effectif n ≥ 1 est la
suite de variables aléatoires suivante (X1 , X2 , · · · , Xn ) à n composantes qui sont n
variables aléatoires indépendantes suivant la même loi que X, appelée Variable aléa-
toire parente.

Définition 15 (Statistique de l’échantillon)


Toute variable aléatoire T = f (X1 , X2 , · · · , Xn ) , fonction de l’échantillon aléatoire
(X1 , X2 , · · · , Xn ) , est appelée statistique de l’échantillon. la variable aléatoire T
possède une distribution de probabilité, dite distribution d’échantillonnage.
Considérons une population P caractérisée par sa moyenne µ, sa variance σ 2 ,
son écart-type σ et une proportion p d’unités de la population possédant un certain
caractère. Dans la suite, nous allons décrire l’échantillon en exprimons ses différents
paramètres en fonction des paramètres de la population et en déterminant la loi suivie
par chacun de ses paramètres.

2.2.1 La moyenne d’échantillonnage


Cas d’ESAR
Soit X une Variable aléatoire sur la population P et X1 , X2 , · · · , Xn un ESAR.
Alors, la statistique appelée moyenne échantillonnage est définie par :
n
1X
X= Xi .
n i=1

X est une variable aléatoire, puisqu’elle dépend de X1 , X2 , · · · , Xn . Déterminer la


distribution d’échantillonnage de la moyenne c’est déterminer la loi suivie par X, son
espérance et sa variance.
Il est facile de vérifier que :

2 σ2
E(X) = µ σX = V ar(X) = .
n
Par le TCL, on a :
σ
X ∼ N (µ, √ ) .
n
autrement,
X −µ
√ ∼ N (0, 1) .
σ/ n

Remarque 16
σ
– L’écart-type de l’échantillon σX = √ est appelé erreur standard de la
n
moyenne d’un échantillon aléatoire est simple.

14
2.2. DISTRIBUTION D’ÉCHANTILLONNAGE

Cas d’ESSR
Soit X une Variable aléatoire sur la population P et X1 , X2 , · · · , Xn un ESSR.
La moyenne de l’échantillon ainsi que l’espérance de la moyenne de l’échantillon
gardent la même forme. Par contre la variance diffère et sera égale à :

2 N − n σ2
σX = V ar(X) =
N −1 n

Remarque 17
N −n
– le coefficient est appelé coefficient d’exhaustivité.
N −1

2.2.2 Lois de probabilité de la moyenne


1. la distribution de la moyenne est normale avec une espérance égale à µ et une
σ2
variance égale à dans les cas suivants :
n
– si n>10 et que la population mère est normale de paramètres µ et σ.
– Si n ≥ 30 (grands échantillons), quelle que soit la distribution de la population
mère, que ce soit pour les échantillons issus d’un ESAR ou d’un ESSR.
– pour les petits échantillons (n<30), si l’échantillon est issu d’un ESAR.
Dans ces trois cas, le TCL nous assure que :
X −µ
σ ∼ N (0, 1) .

n
2. Pour les petits échantillons (n<30) issus d’un ESSR, ou que tels que la loi de
la population mère est inconnue, la distribution de la moyenne est une loi de
Student avec (n-1) degrés de liberté :
X −µ
σ ∼ t(n − 1) .

n

2.2.3 La variance d’échantillonnage


Soit X une Variable aléatoire sur la population P et X1 , X2 , · · · , Xn un ESAR.
Alors, la statistique appelée variance d’échantillonnage est définie par :
n
1X
2
S = V (X) = (Xi − X)2 .
n i=1

S 2 est une variable aléatoire, puisqu’elle dépend de X1 , X2 , · · · , Xn . Déterminer la


distribution d’échantillonnage de la variance c’est déterminer la loi suivie par S 2 , son
espérance et sa variance.
L’espérance de la variance de l’échantillon est donnée par :
n−1 2
E(S 2 ) = σ .
n

15
CHAPITRE 2. ÉCHANTILLONNAGE

Dans le cas où X1 , X2 , · · · , Xn est issu d’une loi normale, la variance de S 2 est


donnée par :
2(n − 1) 4
V ar(S 2 ) = σ .
n2

Remarque 18
Notons que dans le cas d’un ESSR, l’espérance de la variance prendra la forme sui-
vante :
N n−1 2
E(S 2 ) = × σ .
N −1 n
N
est appelé coefficient d’exhaustivité.
N −1

2.2.4 Lois de probabilité de la Variance


Pour la loi de la variance, on admet le premier résultat suivant :
n−1 2
S2 − σ
p n ∼ N (0, 1) .
V ar(S 2 )

Si la population mère est gaussienne (càd. Xi ∼ N (µ, σ)). Alors, on a les résultats
suivants :
nS 2
– ∼ χ2 (n − 1)
σ2
n
X
(Xi − X)2
⇔ i=1 ∼ χ2 (n − 1) .
σ2
– Quand σ √est inconnue, on utilise le résultat suivant :
n−1
(X − µ) ∼ t(n − 1) (student à n-1 degrés de liberté).
S
avec S est la racine de S 2 . C’est l’écart-type de l’échantillon.

2.3 La proportion d’échantillonnage


2.3.1 Cas ESAR
Soit p la proportion d’un certain caractère dans une population P. Soit X1 , X2 , · · · , Xn
un ESAR tel que :

1 si la ième unité a le caractère.
Xi =
0 sinon

Les Xi sont donc des variables de Bernoulli. La proportion de présence de ce caractère


dans la population peut être estimée par :

16
2.3. LA PROPORTION D’ÉCHANTILLONNAGE

n
1X
fn = Xi .
n i=1
L’espérance de fn est donc :
E(fn ) = p .
La variance de fn est :
p(1 − p) pq
V ar(fn ) = = .
n n
Avec q=1-p.
Remarque 19
La quantité :

pq
σfn = √
n
s’appelle l’erreur standard de la proportion d’échantillonnage aléatoire simple.

2.3.2 Cas ESSR


Soit p la proportion d’un certain caractère dans une population P. Soit X1 , X2 , · · · , Xn
un ESSR tel que :

1 si la ième unité a le caractère.
Xi =
0 sinon
Les valeurs fn et E(fn ) sont les mêmes que dans le cas d’un ESAR. Par contre, la
variance de fn est :
N − n p(1 − p) N − n pq
V ar(fn ) = = .
N −1 n N −1 n
Avec q=1-p.
Remarque 20
La quantité :
r √
N − n pq
σfn = √
N −1 n
s’appelle l’erreur standard de la proportion d’échantillonnage aléatoire simple.

2.3.3 Lois de probabilité d’une proportion


Pour les grands échantillons [(n ≥ 30 et np ≥ 10) ou (n ≥ 20 et n(1 − p) ≥ 10)].
On a : r
pq
– Cas ESAR ou population infinie : fn ∼ N (p, ).
r r n
pq N − n
– Cas ESSR ou population finie : fn ∼ N (p, ).
n N −1

17
TABLE 2.1 – Récapitulatif d’échantillonnage

Moyenne d’échantillonnage Proportion d’échantillonnage Variance d’échantillonnage

n n n
1X 1X 1X 2
Forme X = Xi fn = Xi (Xi sont des variables de Bernoulli) S2 = (Xi − X)
n i=1 n i=1 n i=1

n−1 2
Espérance µ (de la population parente) p (de la population parente) - ESAR ou population infinie : σ
n
N n−1 2
-ESSR ou population finie : σ
N −1 n

σ2 pq
Variance -ESAR ou population infinie : -ESAR ou population infinie : Population de loi normale :
n n
N − n σ2 N − n pq 2(n − 1) 4
-ESSR ou population finie : -ESSR ou population finie : σ
N −1 n N −1 n n2

18
n − 1 2
σ2 S2 − σ
X ∼ N (µ, ) , si : -ESAR ou population infinie - Généralement : p n ∼ N (0, 1)
n 2
V ar(S )
r
pq
1- n>10, avec population normale( µ, σ 2 ) fn ∼ N (p, ) -Si la population parente est gaussienne :
n
n
2
X
(xi − X)
2
nS i=1 2
Lois de probabilité 2- n ≥ 30 quelque soit la loi de la population (ESAR ou ESSR) : - ESSR ou population finie = ∼ χ (n − 1)
σ2 σ2
r s
pq N −n
3- n<30 avec ESAR fn ∼ N (p, ) -Si σ est inconnu :
n N −1

X−µ n−1
σ ∼ t(n − 1) (X − µ) ∼ t(n − 1) (student à n-1 degrés de liberté)
√ S
n

pour n<30 avec ESSR, ou paramètre de la population inconnu


Chapitre 3

Estimation

On considère l’échantillon X1 , X2 , · · · , Xn provenant d’une population P de loi


de probabilité inconnue. Dans ce chapitre, on va proposer comment déduire les pro-
priétés sur cette population à partir de l’échantillon.
Un estimateur de θ est une statistique θn = θ̂ (donc une fonction de (X1 , · · · , Xn ))
dont la réalisation est considérée comme une valeur "proche" du paramètre θ. On parle
d’estimation de θ associée à cet estimateur : la valeur prise par la fonction au point
observé (x1 , · · · , xn ).

Les statistiques que nous allons définir pour la moyenne, la variance et la propor-
tion, et qui serviront d’estimateurs de ces valeurs vont permettre de :
– estimer un paramètre inconnu de la population (estimation ponctuelle),
– donner une zone d’appartenance potentielle du paramètre recherché (intervalle
de confiance),
– prendre des décisions (tests statistiques).
Pour toutes ces fins, les distributions d’échantillonnage, exposées dans le cha-
pitre précédent, vont jouer un rôle crucial, notamment dans le cas des intervalles de
confiance.

3.1 Estimation ponctuelle

Dans les problèmes d’estimation, on souhaite "déduire" un paramètre inconnu θ


d’une population P.
Dans le cadre de l’estimation ponctuelle, on s’intéresse à une valeur unique calcu-
lée à partir d’un échantillon aléatoire contenant n observations issues de la population
parente. On cherche à choisir la "meilleure valeur" possible reflétant au mieux le para-
mètre inconnu de la population.

19
CHAPITRE 3. ESTIMATION

3.1.1 Quelques estimateurs


1. Estimateur d’une moyenne :
La moyenne d’échantillon :
n
1X
X= Xi
n i=1

est un estimateur ponctuel de la moyenne de la population µ. Pour une obser-


vation (x1 , x2 , · · · , xn ) de l’échantillon, on écrit :
n
1X
x = µ̂ = xi
n i=1

et on dit que x est une estimation ponctuelle de µ.


2. Estimateurs de la variance :
La variance d’échantillon :
n
1X
S2 = (Xi − X)2 .
n i=1

est un estimateur ponctuel de la variance de la population σ 2 . Pour une obser-


vation (x1 , x2 , · · · , xn ) de l’échantillon, on écrit :
n
1X
S 2 = σˆ2 = (xi − x)2
n i=1

et on dit que S 2 est une estimation ponctuelle de σ 2 .


La variance de la population peut-être estimée par une quantité :
n
n 1 X
Sc2 = S2 = (Xi − X)2
n−1 n − 1 i=1

appelée, la variance corrigée ou quasi-variance.


3. Estimateur de la proportion :
La proportion d’échantillon :
n
1X
fn = Xi .
n i=1

Avec Xi sont des variables de Bernoulli, est un estimateur ponctuel de la pro-


portion dans la population p. Pour une observation (x1 , x2 , · · · , xn ) de l’échan-
tillon, on écrit :
n
1X
fn = p̂ = xi
n i=1

et on dit que fn est une estimation ponctuelle de p.

20
3.1. ESTIMATION PONCTUELLE

3.1.2 Qualité des estimateurs


Soit un estimateur θ̂ d’un paramètre inconnu θ de la population. Le choix d’un
estimateur θ̂ repose sur ses qualités. Le premier défaut possible est lié à la possibilité
de présence d’un biais.

Définition 21
On appelle Biais de θ̂ pour θ la valeur :

bθ (θ̂) = E(θ̂) − θ .

– Un estimateur θ̂ est dit sans biais si E(θ̂) = θ . Dans le cas contraire, on dit que
l’estimateur θ̂ est biaisé.
– Un estimateur θ̂ de θ est asymptotiquement sans biais si :
lim E(θ̂) = θ .
n→+∞
– Un estimateur θ̂ de θ est dit convergent si :
lim P(|θ̂ − θ| > ) = 1 .
n→+∞
Si θ̂ est un estimateur sans biais ou asymptotiquement sans biais de θ et si sa va-
riance tend vers 0 lorsque n tend vers l’infini, alors θ̂ est un estimateur consistant
de θ .

Théorème 22
Tout estimateur consistant est convergent.

En pratique : Pour vérifier la convergence d’un estimateur, il suffit de vérifier sa


consistance. Càd :
[ lim E(θ̂) = θ ou E(θ̂) = θ ] et lim V ar(θ̂) = 0 .
n→+∞ n→+∞

– L’erreur quadratique moyenne (MSE) :


l’erreur d’estimation d’un paramètre θ par un estimateur θ̂ peut être mesurée par
l’erreur quadratique moyenne (Mean
h Squared
i Error) :
M SE(θ̂) = E (θ̂ − θ) = V ar(θ̂) + b2 (θ̂) .
2

Remarque 23
Si l’estimateur est sans biais, alors :
M SE(θ̂) = V ar(θ̂)

– L’efficacité relative :
Soitent θ̂1 et θ̂2 deux estimateurs quelconques de θ. L’efficacité relative de θ̂1 par
rapport à θ̂2 est définie par :
M SE(θ̂2 )
Er (θ̂1 , θ̂2 ) = .
M SE(θ̂1 )
Si Er (θ̂1 , θ̂2 ) ≥ 1, alors on dit que θ̂1 est plus efficace que θ̂2 .

21
CHAPITRE 3. ESTIMATION

– Efficacité :
Entre deux estimateurs sans biais, on préfère utiliser celui qui a la variance la
plus petite(la variance minimale). Un estimateur θ̂ de θ est efficace si sa variance
est minimale parmi les variances des estimateurs sans biais de θ.

3.1.3 Estimation par la méthode des moments


Définition 24
On appelle moments d’ordre k d’une variable aléatoire X, la quantité : E(X k ).
On appelle moments centrées d’ordre k d’une variable aléatoire X, la quantité :
E((X − E(X))k ).

Remarque 25
Pour k=1, le moment d’ordre k est l’espérance de X.
Pour k=2, le moment centré d’ordre k correspond à la variance de X.

La méthode des moments consiste à estimer les moments de la population par les
moments analogues de l’échantillon.

Proposition 26
Soit (X1 , X2 , · · · , Xn ) un échantillon de X et k ∈ N∗ , avec E(X k ) < +∞. Alors
n
k 1X k
X = X est un estimateur sans biais et consistant de mk = E(X k ) le moment
n i=1 i
d’ordre k de X.

De manière générale, Soit g une fonction continue de R dans R et k ∈ N∗ . On peut


n
1X k
estimer g(mk ) par g(X k ) = g( X ).
n i=1 i

Quelques exemples d’utilisation :

1. Loi binomiale B(7, p) :


Soit X le nombre de face 1 obtenu en lançant 7 dés identiques. Les dés peuvent
être pipés. Alors X suit une loi binomiale B(7, p), où p est la probabilité d’obtenir
1 quand on lance un dé une fois.
On rappelle que dans ce cas : E(X)= 7p et var (X)= 7p (1-p).
Si l’on veut estimer p la probabilité d’obtenir 1. On fait l’expérience 3fois (lancer
7 dès 3 fois). On obtient un échantillon (X1 , X2 , X3 ) de la variable aléatoire X.
E(X)
On a E(X)= 7p, ce qui est équivaut à p = .
7
1
On estime E(X) par X = (X1 + X2 + X3 ) . D’où un estimateur de p est donné
3
par :
X 1
p̂ = = (X1 + X2 + X3 ) .
7 21

22
3.1. ESTIMATION PONCTUELLE

2. Loi géométrique G(p) :


Soit X ∼ G(p), et soit (X1 , X2 , · · · , Xn ) un échantillon de X, avec p ∈ [0, 1]
inconnue.
1 1−p
Rappelons que : E(X) = et V ar(X) = .
p p2
En utilisant la méthode des moments, on peut dire qu’un estimateur de p est
1 n
donné par : p̂ = = n .
E(X) X
Xi
i=1
3. Loi de Poisson P(λ) :
Soit X une variable aléatoire de Poisson de paramètre λ > 0 .
Rappelons que E(X) = V ar(X) = λ .
n
1X
Ceci nous amène à affirmer que λ̂ = Xi est un estimateur du paramètre
n i=1
de la loi par la méthode des moments.
Nous avons également : λ = V ar(X) = E(X 2 ) − (E(X))2 . Ceci nous
n n
!2
1X 2 1X
permet d’avancer que X − Xi est un autre estimateur de λ par
n i=1 i n i=1
la méthode des moments.
Les deux estimateurs sont consistants, par contre, le premier est préférable car il
est relativement plus efficace que le second.
4. Loi Exponentielle E(λ) :
Soit X une variable aléatoire de paramètre λ > 0 . Alors X est à valeurs dans
R+ . Sa densité est donnée par :

 λ exp(−λx), si x ≥ 0
f (x) =
0, si x < 0.

1 1
Rappelons que E(X) = et V ar(X) = 2 .
λ λ
Si l’on veut estimer le paramètre de la loi par la méthode des moments, nous
pouvons affirmer que :
n
λ̂ = n
X
Xi
i=1
2
5. Loi Normale N (µ, σ ) :
Un estimateur de µ est donné par X. Pour la variance, nous rappelons que σ 2 =
E(X 2 ) − E(X)2 . Donc, en utilisant la méthode des moments, on peut dire que
la variance de la loi est estimée par :
n n
!2
1 1
σˆ2 =
X X
2
X − Xi .
n i=1 i n i=1

23
CHAPITRE 3. ESTIMATION

3.1.4 Estimation par la méthode de maximum de vraisemblance


Considérons X une variable aléatoire sur une population P de loi connue, mais dont
les paramètres sont inconnus. Le paramètre inconnu de la loi sera noté θ.
Afin d’estimer ce paramètre, considérons un échantillon iid X1 , · · · , Xn de loi Pθ dans
le cas discret, et fθ dans le cas continu. La loi de cet échantillon dépend clairement du
paramètre inconnu θ et ce dernier est fonction des observations (x1 , · · · , xn ).
La fonction de vraisemblance mesure la probabilité que des observations x1 , · · · , xn
de l’échantillon X1 , · · · , Xn proviennent d’une loi donnée (probabilité de réalisation
de l’échantillon sachant que sa loi dépend de θ).
Étant donné l’indépendance des Xi , la probabilité de réalisation de l’échantillon peut
être exprimée comme suit :
n
Y
– Cas discret : L(x1 , · · · , xn ; θ) = Pθ [Xi = xi ] .
i=1
Yn
– Cas continu : L(x1 , · · · , xn ; θ) = fθ (xi ) .
i=1
Trouver un estimateur θ̂ de θ par la méthode de maximum de vraisemblance consiste
à trouver un estimateur qui assure le maximum de "vraisemblance" entre la loi de
l’échantillon et la loi de la variable aléatoire de la population parente X. Autrement
dit, choisir comme estimateur du paramètre θ la valeur la plus vraisemblable : celle qui
a la plus grande probabilité de provoquer la réalisation de l’échantillon. C’est à dire
qu’il s’agit de trouver θ̂ qui vérifie :
L(x1 , · · · , xn ; θ̂) ≥ L(x1 , · · · , xn ; θ) Pour tout θ ∈ Θ .
Avec, Θ c’est l’ensemble des valeurs possibles pour θ.

Remarque 27
– L’estimateur de maximum de vraisemblance (EMV) n’est pas forcément unique.
Il peut ne pas exister ou être difficilement calculable. De plus, il n’y a pas de
raisons de s’attendre à ce que l’EMV soit sans biais.
– Si θ̂ maximise ln Lθ (x1 , · · · , xn ), alors il maximise également Lθ (x1 , · · · , xn ).
Ceci revient au fait que la fonction logarithme népérien est croissante. Souvent,
maximiser ln L est plus simple que de maximiser L. Par conséquent, on va cher-
cher à maximiser ln L (log de vraisemblance) dans les cas pratiques au lieu de
L.
Les étapes de calcul : Pour calculer l’estimation de maximum de vraisemblance(EMV) θ̂
de l’inconnu θ, on procède comme suit :
1. Calculer L(x1 , · · · , xn ; θ) .
2. Calculer log L(x1 , · · · , xn ; θ) .
3. Résoudre en θ l’équation :
∂ log L(x1 , · · · , xn ; θ)
=0.
∂θ
4. La solution θ̂ de l’équation précédente peut être un EMV. Reste à vérifier si :

24
3.1. ESTIMATION PONCTUELLE

∂ 2 log L(x1 , · · · , xn ; θ)
≤0.
∂θ2
Quelques exemples d’utilisation :
1. Loi de Poisson P(λ) :
On souhaite estimer le paramètre λ d’une loi de poisson à partir d’un échantillon
de taille n.
λx
On a : Pλ (X = x) = e−λ . Donc, la fonction de vraisemblance va s’écrire :
x!
n n
Y λxi Y λ xi
L(x1 , · · · , xn ; λ) = e−λ = e−nλ .
i=1
xi ! x!
i=1 i
Par conséquent,
n
X n
X
ln L(x1 , · · · , xn ; λ) = −nλ + ln λ xi − ln xi ! .
i=1 i=1
n
X
xi
∂ ln L(x1 , · · · , xn ; θ) i=1
⇒ = −n + .
∂θ λ
n
1X
Cette première dérivée s’annule en la valeur : λ̂ = xi .
n i=1
La dérivée seconde s’écrit :
Xn
xi
∂ 2 ln L(x1 , · · · , xn ; θ) i=1
=− 2 .
∂θ2 λ
La dérivée seconde est négative. Donc, l’estimateur par le maximum de vraisem-
blance de la valeur λ est donné par la moyenne empirique λ̂ = x.
2. Loi normale N (µ, σ 2 ) :
Afin d’estimer les paramètres de la loi µ et σ à partir d’un échantillon de taille
n par la méthode de maximum de vraisemblance, il faut rappeler la densité de la
loi normale :
(x − µ)2
 
1
f (x; µ, σ) = √ exp − .
σ 2π 2σ 2
La vraisemblance pour une réalisation d’un échantillon de n variables indépen-
dantes est donc :
 n
X

2
n  n/2  (xi − µ) 
Y 1  i=1 
f (x1 , · · · , xn ; µ, σ) = f (xi ; µ, σ) = 2
exp −
2
.
i=1
2πσ 
 2σ 

Or,
n
X n
X n
X
(xi − µ)2 = (xi − x + x − µ)2 = (xi − x)2 + n(x − µ)2 .
i=1 i=1 i=1

25
CHAPITRE 3. ESTIMATION

Avec, x est la moyenne de l’échantillon. Par conséquent, la vraisemblance peut


être réécrite :
 n 
X
2 2
 n/2  (xi − x) + n(x − µ) 
1  i=1 
f (x1 , · · · , xn ; µ, σ) = 2
exp −

2
.
2πσ  2σ 

∂ −2n(x − µ)
ln L = 0 − .
∂µ 2σ 2
On obtient l’estimateur par le maximum de vraisemblance :
µ̂ = x .
2
Pour le paramètre σ . On calcule la dérivée de ln L par rapport à σ. On trouve :
 n
X

 (xi − x)2 + n(x − µ)2 
∂ ∂  n 1 i=1

ln L =  ln(
2
)− 2
=
∂σ ∂σ 
 2 2πσ 2σ 

n
X
(xi − x)2 + n(x − µ)2
n i=1
− + .
σ σ3
On trouve que :
n
(xi − µ̂)2
σˆ2 =
X
,
i=1
n
et ceci peut être écrit :
n
1X
σˆ2 = (xi − µ̂)2 .
n i=1
Après vérification que les dérivées secondes de ln L par rapport à µ et par rap-
port à σ sont négatives.On peut conclure que les estimateurs trouvés ci-dessus
maximisent la vraisemblance.
La méthode fournit, dans le cas normal, un estimateur non biaisé de la moyenne
et un estimateur biaisé pour la variance.

3.2 Estimation par intervalle de confiance


Considérons une population P dont un paramètre θ est inconnu (θ peut être la
moyenne, une proportion ou la variance...). On prend un échantillon aléatoire simple
X1 , · · · , Xn et on essaie d’estimer ce paramètre inconnu par un estimateur θ̂ construit
à partir des réalisations de l’échantillon.
A partir de l’échantillon, on souhaite construire ce qu’on appelle intervalle de confiance
(IC) pour θ. Cet intervalle est construit tel que le paramètre θ s’y trouve avec une
grande probabilité.

26
3.2. ESTIMATION PAR INTERVALLE DE CONFIANCE

Avant de construire cet intervalle, il faut se fixer une marge d’erreur ou un risque de
se tromper qui est égal à une certaine quantité α. Ce risque α correspond réellement
aux erreurs d’échantillonnages jugées acceptables. Une fois le risque fixé, on appelle
le nombre 1 − α le niveau de confiance de notre IC.

Définition 28
On appelle intervalle de confiance pour θ de niveau de confiance 1 − α un intervalle
Iα tel que :
P(θ ∈ Iα ) = 1 − α

Remarque 29
– Un intervalle de confiance est un intervalle centré autour de θ qui s’écrit sous la
forme :
[θ- erreur d’échantillonnage ; θ+ erreur d’échantillonnage].
– L’interprétation de l’intervalle de confiance est une des deux affirmations sui-
vantes :
1. On accepte qu’il y’ ait α.100 chances sur 100 de se tromper en disant que
θ appartient à l’intervalle.
2. On accepte qu’il y’ ait (1 − α).100 chances sur 100 de ne pas se tromper
en disant que θ appartient à l’intervalle.

3.2.1 Intervalle de confiance pour la moyenne


Soit X une variable aléatoire sur la population de moyenne µ et de variance σ 2 .
µ est le paramètre d’intérêt et σ 2 est un paramètre de nuisance. Pour un échantillon
ESAR X1 , · · · , Xn de X, on a : µ̂ = X est un estimateur de µ.
1. Cas de petits échantillons (n<30) :

On suppose que X suit une loi normale, on a les résultats suivants :


– Cas où σ est connu (entre 10 et 30) :
 
σ σ
IC1−α (µ) = X − z1−α/2 √ ; X + z1−α/2 √
n n
– Cas où σ est inconnu
 : 
S S
IC1−α (µ) = X − t1−α/2;n−1 √ ; X + t1−α/2;n−1 √
n−1 n−1
où, t1−α/2;n−1 est le quantile d’ordre 1−α/2 de la loi de Student à n-1 degrés
de liberté.
D’autre part, S est l’écart-type de l’échantillon. C’est la racine carrée de la
variance empirique S 2 . Puisque cet estimateur est biaisé, on peut utilisé Sc à
sa place, déduit de la variance corrigée Sc2 . Ceci en tenant compte du fait que
S S
√c = √ .
n n−1
2. Cas de grands échantillons (n ≥ 30) :

On suppose que X suit une loi quelconque, on a les résultats suivants :

27
CHAPITRE 3. ESTIMATION

– Cas où σ est connu :  


σ σ
IC1−α (µ) = X − z1−α/2 √ ; X + z1−α/2 √
n n
– Cas où σ est inconnu :  
S S
IC1−α (µ) = X − z1−α/2 √ ; X + z1−α/2 √
n n

3.2.2 Intervalle de confiance pour la proportion


Soit X une variable aléatoire sur la population P qui suit une loi de Bernoulli B(p)
où 0 < p < 1 est le paramètre d’intérêt. Soit un échantillon ESAR X1 , · · · , Xn de X
dont la taille n ≥ 30 (cas de grands échantillons). L’intervalle de confiance p est :
" r r #
fn (1 − fn ) fn (1 − fn )
IC1−α (p) = fn − z1−α/2 ; fn + z1−α/2
n n

3.2.3 Intervalle de confiance pour la variance


Soit X une variable aléatoire sur la population de moyenne µ et de variance σ 2 . σ 2
est le paramètre d’intérêt et µ est un paramètre de nuisance. Pour un échantillon ESAR
X1 , · · · , Xn de X, on a : σˆ2 est un estimateur de σ 2 .
1. Cas de petits échantillons (n<30) :

On suppose que X suit une loi normale, on a les résultats suivants :


– Cas où µ est connu : Dans ce cas, on prend :
n
ˆ 1X
2
σ = (Xi − µ)2 .
n 1
et l’intervalle de confiance est : " #
2 nσˆ2 nσˆ2
IC1−α (σ ) = ; .
χ2n;1−α/2 χ2n;α/2
– Cas où µ est inconnu : Dans ce cas, on prend :
n
1X
σˆ2 = (Xi − X)2 .
n 1
et l’intervalle de confiance est : " #
2 2
nS nS
IC1−α (σ 2 ) = ; .
χ2n−1;1−α/2 χ2n−1;α/2
2. Cas de grands échantillons (n ≥ 50) :

On suppose que X suit une loi quelconque et µ connu ou inconnu, on a le résultat


suivant :
h p p i
IC1−α (σ 2 ) = S 2 − z1−α/2 (µˆ4 − S 4 )/n; S 2 + z1−α/2 (µˆ4 − S 4 )/n

où,

28
3.2. ESTIMATION PAR INTERVALLE DE CONFIANCE

n
1X
µˆ4 = (Xi − X)4 .
n i=1
Ci-après quelques coefficient critiques (ou quantiles) de la loi normale correspondants
à des niveau de confiances usuels.
Niveau de confiance 1-α niveau de risque α coefficient critiques z1−α/2
90% 10% 1,645
95% 5% 1,960
97% 3% 2,170
99% 1% 2,576

3.2.4 Précision d’une estimation par intervalle de confiance


Lors de l’estimation par un intervalle de confiance de la forme [b1 , b2 ], on peut
définir les incertitudes (ou erreurs) suivantes :
– L’incertitude absolue : d’un intervalle de confiance bilatéral [b1 , b2 ] est simple-
ment égale au rayon de cet intervalle. C’est à dire :
b2 − b1
Ia = .
2
– L’incertitude relative : d’un intervalle de confiance bilatéral [b1 , b2 ] est :
Ia b2 − b1
Ir = =
µ̂ b2 + b1
L’incertitude relative (ou absolue) est proportionnelle à l’écart-type de la population σ
et au niveau de confiance 1 − α. et inversement proportionnelle à la racine carrée de la
taille de l’échantillon n.
Remarque 30
On peut contrôler l’incertitude absolue en agissant sur la taille de l’échantillon. En
effet, dans le cas d’échantillons aléatoires simples, plus la taille de l’échantillon est
grande plus la précision augmente. Ainsi, pour contrôler l’incertitude d’estimation de
z1−α/2 σ 2
 
la moyenne µ par ∆µ, si σ est connu, il faut que n ≥ .
∆µ
Si l’on veut contrôler l’incertitude d’estimation de la proportion p par ∆p, il faut que
z1−α/2 2
 
n≥ .
2∆p

29
Chapitre 4

Tests statistiques

Nous nous mettons dans la situation où la population a un paramètre θ inconnu.


Réaliser un test statistique paramétrique consiste à faire une hypothèse H0 , appelée
hypothèse nulle ou hypothèse de référence, sur le paramètre θ et à décider d’accepter
ou de rejeter cette hypothèse.
Une fois H0 est donnée, il faut établir ce qu’on appelle une hypothèse alternative H1 .
Soient H0 et H1 deux hypothèses. Seulement une des deux hypothèses est vraie, et
seulement une des deux hypothèses peut être acceptée (l’autre rejetée). La décision
d’un test consiste à choisir une de ces deux hypothèses. Il y a quatres cas possibles, qui
peuvent être récapitulé dans le tableau suivant :
H0 vraie H1 vraie
H0 acceptée (décidée) 1−α β
H1 acceptée (décidée) α 1−β
où :
– α : la probabilité de rejeter H0 (accepter H1 ) alors que H0 est vraie.
– β : la probabilité d’accepter H0 (rejeter H1 ) alors que H1 est vraie.

Définition 31
1. Niveau de test : On appelle niveau de test ou Erreur de premier espèce, la pro-
babilité α donnant la probabilité de rejeter à tort l’hypothèse H0 . C’est à dire :
α= P(rejeter H0 quand H0 est vraie).
2. Puissance du test : On appelle puissance du test la valeur 1 − β qui correspond
à la probabilité de rejeter H0 quand H1 est vraie. C’est à dire :
1 − β= P(rejeter H0 quand H1 est vraie).
La probabilité β est appelée erreur de deuxième espèce : la probabilité d’accepter
à tort une mauvaise hypothèse H0 . C’est à dire la probabilité d’accepter H0 , alors
que H1 est vraie.

Remarque 32
– Les valeurs souvent utilisées pour α sont 1%, 5% ou 10%.

30
– Plus la valeur de α est grande (resp.petite), plus β est petite (resp. grande).
Une fois les hypothèses H0 (l’hypothèse nulle) et H1 (l’hypothèse alternatives)
choisies. Il faut définir ce qu’on appelle La variable de décision. Cette variable est
une statistique T() dont la distribution (la loi) est connue sous l’hypothèse H0 et appe-
lée distribution de référence. Elle est également nommée statistique du test.
La zone de rejet ou région critique dans un test correspond à l’ensemble des valeurs
(ou intervalles) de la variable de décision T() qui conduisent à écarter l’hypothèse nulle
H0 au profit de l’hypothèse H1 . La région ou zone d’acceptation étant le complémen-
taire de la zone de rejet.

Typologie des tests


avant de commencer le test statistique, il faut se demander si le test que l’on va
réaliser est un test unilatéral ou bilatéral. Le type de test est déterminé à partir des
hypothèses constituant le test. Plus précisément, à partir de l’hypothèse alternative H1 .

Test bilatéral
Un test bilatéral est associé à une d’hypothèse alternative H1 selon laquelle le signe
de la différence entre les valeurs de deux paramètres, ou entre la valeur d’un para-
mètre et une valeur donnée, est inconnu. Par exemple, nous cherchons à comparer les
moyennes de deux échantillons A et B. Supposons que nous ne savons pas si A serait
supérieur à B ou le contraire. Dans ce cas, on choisi d’effectuer un test bilatéral, dont
l’hypothèse alternative H1 peut être écrite comme suit : H1 : µA 6= µB .

Test unilatéral
Un test unilatéral est associé à une hypothèse alternative selon laquelle le signe de
la différence entre les valeurs de deux paramètres, ou entre la valeur d’un paramètre et
une valeur donnée est connu auparavant. Dans l’exemple décrit précédemment, l’hypo-
thèse alternative H1 associée à un test unilatéral peut être écrite sous la forme suivante :
H1 : µA > µB ou H1 : µA < µB .

Le tableau suivant donne les différentes formes de tests et leurs appellations.

Test
 unilatéral à gauche  Test bilatéral Test
 unilatéral à droite
H0 : θ ≥ θ0 H0 : θ = θ0 H0 : θ ≤ θ 0
H1 : θ < θ0 H1 : θ 6= θ0 H1 : θ > θ 0

31
CHAPITRE 4. TESTS STATISTIQUES

4.1 Tests pour une moyenne

TABLE 4.1 – Tests pour une moyenne


Hypothèses Règle de décision Statistique du test T et sa loi sous H0
H0 H1 rejet de H0 si n<30 et X ∼ N (µ, σ 2 ) n ≥ 30
σ connu : σ inconnu :

X − µ0 X − µ0 X − µ0
µ ≤ µ0 µ > µ0 T > q1−α T = √ T = √ T = √
σ/ n S/ n − 1 S/ n − 1
µ = µ0 µ 6= µ0 |T | > q1−α T ∼ N (0, 1) T ∼ t(n − 1) T ≈ N (0, 1)
µ ≥ µ0 µ < µ0 T < −q1−α

avec qα est le quantile d’ordre α de la loi de la statistique test correspondante au


problème de test considéré.

4.2 Tests pour une variance

TABLE 4.2 – Tests pour une proportion


Hypothèses Règle de décision Statistique du test T et sa loi sous H0
H0 H1 rejet de H0 si n<50 et X ∼ N (µ, σ 2 ) n ≥ 50

nS 2 S 2 − σ02
σ 2 ≤ σ02 σ 2 > σ02 T > q1−α T = T =p
σ02 (µ̂4 − σ04 )/n
σ 2 = σ02 σ2 =
6 σ02 T ∈
/ [qα/2 , q1−α/2 ] T ∼ χ2n−1 T ≈ N (0, 1)
σ 2 ≥ σ02 σ < σ02
2
T < qα

4.3 Tests pour une proportion

32
4.3. TESTS POUR UNE PROPORTION

TABLE 4.3 – Tests pour une proportion


Hypothèses Règle de décision Statistique du test T et sa loi sous H0
H0 H1 rejet de H0 si n ≥ 30

p − p0
p ≤ p0 p > p0 T > q1−α T =p
p0 (1 − p0 )/n
p = p0 p 6= p0 |T | > q1−α/2 T ≈ N (0, 1)
p ≤ p0 p < p0 T < −q1−α

Exercice/Exemple
Considérons une population normale de moyenne µ inconnue et d’écart-type σ =
1, 5. On prélève un échantillon aléatoire simple de taille n=9. Les valeurs prélevées
sont :

24,3 ; 24,7 ; 23,2 ; 23,8 ; 24,5 ; 26,0 ; 25,4 ; 24,8 ; 23,8.

1. Effectuez le test bilatéral H0 : µ = 22, 8 contre H1 : µ 6= 22, 8 au niveau 1%.


2. Effectuez le test unilatéral H0 : µ = 22, 8 contre H1 : µ > 22, 8 au niveau 1%.
3. Effectuez le test unilatéral H0 : µ = 22, 8 contre H1 :> 22, 8 au niveau 1% en
supposant que σ est inconnu.

Solution
La moyenne x observée est :
9
X
1
x= 9 xi = 24, 5
i=1

1. Le problème du test est le suivant :



H0 : µ = 22, 8
H1 : µ 6= 22, 8
La statistique du test :
X − µ0 24, 5 − 22, 8
T = √ ⇒ Tcalculée = = 3, 4
σ/ n 1, 5/3
La loi de T sous H0 est une normale centrée réduite.
Règle de décision : On rejette H0 si |T | > z1−α/2 = z0,995 = 2, 58.
Donc, on rejette H0 car 3,4> 2,58.
2. Problème de test :

H0 : µ = 22, 8
H1 : µ > 22, 8

33
CHAPITRE 4. TESTS STATISTIQUES

La statistique du test :
X − µ0 24, 5 − 22, 8
T = √ ⇒ Tcalculée = = 3, 4
σ/ n 1, 5/3
La loi de T sous H0 est une normale centrée réduite.
Règle de décision : On rejette H0 si T > z1−α = z0,99 = 2, 33.
Donc, on rejette H0 car 3,4> 2,33.
9
X
3. Puisque l’écart-type est supposé inconnu, calculons S 2 = 1
9 x2i − x2 = 0, 66.
i=1
Par conséquent, S=0,81.

Le problème du test est le suivant :



H0 : µ = 22, 8
H1 : µ > 22, 8
La statistique du test :
X − µ0 24, 5 − 22, 8
T = √ ⇒ Tcalculée = √ = 6, 299
S/ n − 1 0, 81/ 8
La loi de T sous H0 est : T ∼ tn−1 = t8 .
Règle de décision : On rejette H0 si T > t8,1−α = t8;0,99 = 2, 897.
Donc, on rejette H0 car 6,299> 2,897.
Les exercices de tests statistiques se traitent de la même manière que cet exercice.
La même démarche, sauf que les statistiques à considérer ainsi que les lois sont récapitulées dans les
tableaux ci-dessus.

34
4.3. TESTS POUR UNE PROPORTION

35
CHAPITRE 4. TESTS STATISTIQUES

Table de la loi de Student

36

Vous aimerez peut-être aussi