Vous êtes sur la page 1sur 42

Probabilités et Statistique 2

Inférence Statistique

Licence 2
A imprimer
(Fichier incomplet)

Sciences économique et gestion

Dr Ténan YEO
yeo.tenan@yahoo.fr
Table des matières

Table des matières 2

1 Introduction 4
1.1 But de la statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Les méthodes statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Exemples introductifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1 Exemple 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.2 Exemple 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.3 Exemple 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2 Estimation statistique 8
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Qualité d’un estimateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.1 Estimateur sans biais (ou centré) . . . . . . . . . . . . . . . . . . . . . 9
2.2.2 Estimateur asymptotiquement sans biais . . . . . . . . . . . . . . . . . 10
2.2.3 Estimateur convergent (en probabilité) . . . . . . . . . . . . . . . . . . 10
2.2.4 Estimateur efficace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3 Information de Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4 Inégalité de Fisher-Cramer-Damois-Rao . . . . . . . . . . . . . . . . . . . . . 12

3 Estimation ponctuelle
Méthode du Maximum de Vraisemblance 13
3.1 Fonction de vraisemblance pour un paramètre θ . . . . . . . . . . . . . . . . . 13
3.2 Méthode du Maximum de Vraisemblance . . . . . . . . . . . . . . . . . . . . . 14
3.2.1 Condition nécessaire et suffisante de maximisation de L . . . . . . 14
3.2.2 Propriétés de l’estimateur du Maximum de vraisembance . . . . . 14
3.3 Quelques exemples d’E.M.V. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

4 Estimation par intervalle de confiance 18


4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
4.2 Détermination de l’intervalle I . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
4.3 Estimation de la moyenne m d’une loi normale : X N (m, σ ) et θ = m . . . . 19
4.3.1 Cas où l’écart type σ est connu . . . . . . . . . . . . . . . . . . . . . . 19
4.3.2 Cas où l’écart type σ est inconnu . . . . . . . . . . . . . . . . . . . . . 20
4.4 Estimation de la moyenne lorsque la loi de X n’est pas la loi de Laplace-Gauss 20

2
TABLE DES MATIÈRES 3

4.4.1 Cas où n ≤ 30 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.4.2 cas où n > 30 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.5 Intervalle de confiance pour la variance σ 2 d’une loi de Laplace-Gauss : X
N (m, σ ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.5.1 Cas où n ≤ 30 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.5.2 Cas n > 30 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.6 Estimation d’une proportion θ = p . . . . . . . . . . . . . . . . . . . . . . . . 21
4.7 Comparaison de paramètres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.7.1 Intervalle de confiance de la différence de deux moyennes : m1 − m2 . . 22
4.7.2 Intervalle de confiance de la différence de deux proportions : p1 − p2 . 22
σ2
4.7.3 Intervalle de confiance pour le rapport de deux variances : 12 . . . . . 23
σ2

5 Tests statistiques 24
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.1.1 Exemples introductifs . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.1.2 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.1.3 Étude d’un cas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
5.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
5.3 Détermination de la région critique W -Méthode de Neyman-Pearson . . . . . . 27
5.3.1 Hypothèse simple contre hypothèse simple . . . . . . . . . . . . . . . . 27
5.3.2 Hypothèse simple contre hypothèse composite . . . . . . . . . . . . . . 28
5.4 Quelques exemples de problème de tests statistiques . . . . . . . . . . . . . . 28
5.4.1 Test d’une moyenne d’une loi de normale : X N (m, σ ) . . . . . . . . 28
5.4.2 Test d’une proportion (n > 30) . . . . . . . . . . . . . . . . . . . . . . . 34
5.4.3 Test de signification d’une variance : X N (m, σ ) . . . . . . . . . . . 35
5.4.4 Test de comparaison de deux moyennes : m1 − m2 . . . . . . . . . . . . 37
σ2
5.4.5 Comparaison de variances : 12 . . . . . . . . . . . . . . . . . . . . . . 39
σ2
5.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
Chapitre 1

Introduction

1.1 But de la statistique


L’objet de la statistique est la détermination, à partir d’observations faites sur un échantillon,
d’un ou plusieurs paramètres caractéristiques de cette population. Ainsi, soit X la variable qui
décrit le caractère étudié, et Pθ la loi de probabilité de X, θ étant le paramètre de cette loi. La
statistique inférentielle (ou inductive) a pour objet la détermination, à partir des observations
données par l’échantillon, des valeurs de θ .
Les caractéristiques du paramètre θ dépendent de l’échantillon, en particulier de sa taille.
Le passage de l’échantillon de taille n, à la population de taille N se ramène à étudier le
comportement de X lorsque n → N .
Les données sont souvent entachées d’incertitudes et présentent des variations pour plusieurs
raisons :
• le déroulement des phénomènes observés n’est pas prévisible à l’avance avec certitude
• toute mesure est entachée d’erreur, seuls quelques individus sont observés
• ...
⇒ données issues de phénomènes aléatoires
⇒ intervention du hasard et des probabilités
L’objectif de la statistique est de maîtriser au mieux cette incertitude pour extraire des infor-
mations utiles des données, par l’intermédiaire de l’analyse des variations dans les observa-
tions.

1.2 Les méthodes statistiques


On distingue deux classes de méthodes statistiques
1) la Statistique descriptive : elle a pour but de résumer l’information contenue dans les
données de façon synthétique et efficace par :
• Représentations graphiques
• Indicateurs de position, de dispersion et de relation

4
1.3. EXEMPLES INTRODUCTIFS 5

• Régression linéaire
⇒ cela permet de dégager les caractéristiques essentielles du phénomène étudié et de
suggérer des hypothèses pour une étude ultérieure plus poussée. Les probabilités
n’ont ici qu’un rôle mineur.
2) la Statistique inférentielle : elle a pour but de faire des prévisions et de prendre des
décisions au vu des observations par :
• Estimation paramétrique
• Intervalles de confiance
• Tests d’hypothèse
⇒ Il est donc nécessaire de définir des modèles probabilistes du phénomène aléatoire
et savoir gérer les risques d’erreurs.

Dans ce cours nous traitons le cas de la statistique inférentielle.

1.3 Exemples introductifs


1.3.1 Exemple 1
Un industriel vient de recevoir un lot important de pièces. Afin d’avoir une idée de la propor-
tion, notée θ , de pièces défectueuses celui-ci réalise un tirage aléatoire avec remise de n pièces
au sein du lot (un examen exhaustif du lot étant trop coûteux). L’échantillon est extrait du lot
selon le schéma de Bernoulli. Autrement dit, si on note Xi la variable aléatoire à valeurs dans
{0, 1} associée au tirage numéro i, on suppose que les n variables aléatoires X1 , · · · , Xi , · · · , Xn
sont indépendantes et de même loi ; à savoir P(Xi = 1) = θ et P(Xi = 0) = 1 − θ (l’évènement
0 X = 10 signifie donc que la pièce i est défectueuse).
i

Le problème statistique est d’estimer la proportion inconnue θ à partir des observations, c’est à
dire à partir des xi (réalisations des variables aléatoires Xi ).

1.3.2 Exemple 2
On souhaite savoir si une pièce de monnaie est équilibrée ou non. La pièce est dite équilibrée
si, quand on la lance, la probabilité d’avoir ‘pile’ est égale à la probabilité d’avoir ‘face’. Si on
1
note θ la probabilité d’avoir ‘pile’, la pièce est équilibrée si θ = .
2
Pour répondre à la question posée on lance n = 10 fois la pièce. Le résultat de cette expérience
aléatoire est : PPPFFPFPFP (P=pile et F=face). Peut-on conclure sur la base de ce résultat
que la pièce est équilibrée ?

1.3.3 Exemple 3
Une entreprise E fabrique et commercialise des ampoules électriques de 100 Watts. Sur l’em-
ballage de ces ampoules l’entreprise E a porté la mention : durée d’utilisation T = 1000 heures.
Un organisme de défense du consommateur se propose de ‘valider’ la mention portée par
ce constructeur sur ces emballages. Il souhaite de plus pouvoir décider si la durée de vie
1.4. GÉNÉRALITÉS 6

(moyenne) d’une ampoule de 100 Watts fabriquée par l’entreprise E est supérieure ou égale
T. Pour ce faire, il teste un grand nombre n d’ampoules fabriquées par cette entreprise, et
note xi la durée de vie observée de l’ampoule No i. La durée de vie d’une ampoule électrique
étant ‘par nature’ une grandeur imprévisible - au sens où la valeur de xi ne peut, avant de
l’avoir observée, être prédite avec certitude - il est commode de la modéliser par une variable
aléatoire X. La loi de probabilité généralement retenue pour X est la loi exponentielle. Rappe-
lons qu’une variable aléatoire réelle X suit une loi exponentielle de paramètre θ si sa densité
est :
1  x
f (x) = exp − 1[0,+∞[ (x).
θ θ
On peut aisément vérifier que le paramètre θ de la loi exponentielle est égal à la durée de vie
moyenne d’une ampoule ; autrement dit, E(X) = θ .
Le problème statistique consiste : premièrement, à estimer le paramètre inconnu θ à par-
tir des observations, c’est à dire à partir des xi (réalisations des variables aléatoires Xi ) ; et
deuxièmement, à décider si θ > T, ou si, à l’inverse θ ≤ T.

Ces trois exemples ont en commun de faire reposer la réponse au problème statistique consi-
déré, soit sur une expérience aléatoire (cf exemples 1 et 2), soit une modélisation aléatoire de
la grandeur étudiée (cf exemple 3). Ils ont également en commun de baser l’inférence sur le
paramètre θ (qu’il s’agisse d’estimer θ ou de tester une valeur particulière de θ ) sur n observa-
tions x1 , · · · , xi , · · · , xn où xi désigne la réalisation d’une variable aléatoire réelle Xi (dont la loi de
probabilité est paramétrée par θ ).

1.4 Généralités
Afin de préciser l’objet et la place de la Statistique inférentielle (au sein de la Statisque en gé-
néral) en il convient de rappeler que le travail du Statisticien s’inscrit traditionnellement dans
l’une des trois phases suivantes : production de données, exploration des données, et modéli-
sation (aléatoire) des données. La production de données inclut en particulier l’organisation
de la collecte des données (conception de plans de sondage, par exemple). L’exploration des
données repose essentiellement sur les méthodes de la Statistique descriptive et de l’Analyse
des données. La modélisation comporte classiquement plusieurs étapes :
a) au sein d’un ensemble de modèles probabilistes susceptibles d’avoir généré les observa-
tions, sélectionner l’un d’entre eux (cette étape étant réalisée à l’aide d’une procédure
statistique de choix de modèles).
b valider le modèle retenu.
c) estimer les paramètres du modèle retenu et éventuellement proposer des procédures de
tests portant sur les paramètres du modèle.
Cette présentation présuppose qu’un modèle paramétrique a été retenu, mais d’autres alterna-
tives existent. Dans ce cours on abordera essentiellement les questions relatives à la dernière
étape de cette procédure. La Statistique inférentielle (appelée encore Statistique mathéma-
tique ou Statistique inductive) consiste en un ensemble de concepts, de méthodes et d’outils
élaborés en vue de réaliser chacune des étapes a) b) et c). Les outils mathématiques utili-
sés en Statistique inférentielle ou Statistique inductive font largement appel à la Théorie des
1.4. GÉNÉRALITÉS 7

Probabilités, du simple fait que les observations sont considérées comme des réalisations de
variables aléatoires.
Chapitre 2

Estimation statistique

2.1 Définitions
Soit une population décrite par une variable aléatoire X, dont la loi de probabilité Pθ dépend
d’un ou plusieurs paramètres θ .
Définition 2.1 On appelle modèle aléatoire le couple (Ω, Pθ ) , où Ω est l’ensemble des valeurs
de X et Pθ la loi de probabilité de X.
Exemple 2.1
a) X ∈ {0, 1, 2, · · · , n} et Pθ = B(n, p) avec θ = p.
b) X = N et Pθ = P(λ ) avec λ = θ .
c) X = [0, a] et Pθ = U[0,a] avec θ = a.
d) X = R et Pθ = N (m, σ 2 ) avec θ ∈ {m, σ 2 , (m, σ 2 )}.
 
1 2 n−1
e) X ∈ 0, , , · · · , , 1 et Pθ = B(1, p) avec θ = p.
n n n
L’estimation statistique a pour objet la détermination de la valeur du paramètre θ .
Définition 2.2 Soit Θ l’ensemble des valeurs de θ . L’estimation est dite :
1. ponctuelle si Θ est réduit à une constante : Θ = {θ0 } ;
2. ensembliste sinon. En particulier, si Θ est un ensemble I de R, l’estimation est dite par
par intervalle de confiance pour le paramètre θ .
Définition 2.3 (Notion de Statistique)
Soit (X, Pθ ) un modèle aléatoire et soit Y un espace donné. On appelle Statistique toute applica-
tion T telle que

T : (X, Pθ ) −→ Y
(X1 , X2 , X3 , . . . , Xn ) 7−→ T (X1 , X2 , X3 , . . . , Xn ) = Tn

où (X1 , X2 , X3 , . . . , Xn ) est un échantillon aléatoire de taille n.

8
2.2. QUALITÉ D’UN ESTIMATEUR 9

Exemple 2.2 : Statistiques usuelles


n
1
• Tn = ∑ Xi = X (moyenne empirique) ;
n i=1
n
1
• Tn = ∑ Xi − X 2 = S2n (variance empirique) ;

n i=1
1 n 2 2
• Tn = ∑ Xi − X = S0 n (quasi-variance empirique) ;
n − 1 i=1
• Tn = Sup (Xi ) ;
1≤i≤n
• Tn = Inf (Xi ).
1≤i≤n

Définition 2.4 (Notion d’estimateur-estimation)


• Étant donnés un modèle aléatoire (X, Pθ ) et une Statistique T définie sur (X, Pθ ), on appelle
estimateur de θ l’image Tn d’un échantillon aléatoire (X1 , X2 , · · · , Xn ).
X, S2n , S0 2n , Sup (Xi ), Inf (Xi ) sont des estimateurs.
1≤i≤n 1≤i≤n

• On appelle estimation de θ toute valeur prise par un estimateur T pour une réalisation
(x1 , x2 , · · · , xn ) de l’échantillon (X1 , X2 , X3 , . . . , Xn ).
1 n 1 n 2 1 n
x= ∑ xi ; s2n = ∑ (xi − x)2 ; s0 n = ∑ (xi − x)2 sont des estimations.
n i=1 n i=1 n − 1 i=1

Choix d’un estimateur


Un paramètre θ peut avoir un ou plusieurs estimateurs. Soit Tn un de ces estimateurs pos-
sibles. On appelle erreur d’estimation (ou biais) l’écart Tn − θ , où θ est la vraie valeur du
paramètre.
Un critère de choix de Tn est alors que E (Tn − θ )2 soit minimum. En
 
 effet, 2θ étant un
paramètre, on a : V (Tn − θ ) = V (Tn ) et si E(Tn ) = θ alors V (Tn − θ ) = E (Tn − θ ) .

2.2 Qualité d’un estimateur


Dans tout ce qui suit, on suppose que Tn est un estimateur du paramètre θ .

2.2.1 Estimateur sans biais (ou centré)


Définition 2.5 Un estimateur Tn d’un paramètre θ est dit sans biais si : E(Tn ) = θ .
Exemple 2.3
1 n
1) Tn = ∑ Xi , θ = m. On a E(Tn ) = m = θ .
n i=1
2 1 n 2
2) Tn = S0 n = ∑ Xi − X ; θ = σ 2 . On a E(Tn ) = σ 2 = θ 2 .
n − 1 i=1
2.3. INFORMATION DE FISHER 10

2.2.2 Estimateur asymptotiquement sans biais


Définition 2.6 Un estimateur Tn est dit asymptotiquement sans biais si

lim E(Tn ) = θ .
n→+∞

Exemple 2.4
1 n 2 n−1 2
Tn = Sn2 = ∑ Xi − X et θ = σ 2 . On a E(Tn ) = σ 6= θ ; mais lim E(Tn ) = σ 2 = θ .
n i=1 n n→+∞

Donc Tn est un estimateur asymptotiquement sans biais de σ 2 .

2.2.3 Estimateur convergent (en probabilité)


Définition 2.7 Tn est dit convergent si
P
Tn −→ θ .

Une condition suffisante de convergence est que l’estimateur soit sans biais et que sa variance
tende vers zéro lorsque la taille de l’échantillon tend vers l’infini.

E(Tn ) = θ   
P
⇒ Tn −→ θ .
V (Tn ) −→ 0 
n→∞

La propriété reste valable lorsque l’estimateur est asymptotiquement sans biais.


Exemple 2.5 Tn = X, θ = m.
σ2
On a E(Tn ) = m ; V (Tn ) = −→ 0 et X est donc un estimateur convergent de m.
n n→∞

2.2.4 Estimateur efficace


Définition 2.8
• Soient deux estimateurs Tn et T0n d’un même paramètre θ . On dit que Tn est plus efficace que
T0n si :
V (Tn ) ≤ V (T0n ).
• Soit un ensemble d’estimateurs d’un même paramètre θ . L’estimateur efficace T de ce paramètre
est celui qui a la plus faible variance : V (T ) ≤ V (T0n ), ∀n.

2.3 Information de Fisher


Soit (X, Pθ ) un modèle aléatoire, où X la variable dont la densité de probabilité f est telle que
• f est dérivable par rapport à θ jusqu’à l’ordre 2 :
∂f ∂2 f
f ≥0, f0 = , f 00 = .
∂θ ∂θ2
2.3. INFORMATION DE FISHER 11
Z
• On peut dériver, par rapport à θ , sous le signe d’intégration l’intégrale f (x, θ )dx.

Définition 2.9 On appelle information de Fisher pour le paramètre θ , le réel I(θ ) défini par :
" 2 #

I(θ ) = E log f (X, θ ) .
∂θ

Théorème 2.1 On a
∂2 
 
I(θ ) = −E log f (X, θ ) .
∂θ2

L’intérêt de cette proposition est que cette expression de I(θ ) est plus facile à manipuler que
celle de la définition.
Exemple 2.6
• On considère l’échantillon (X1 , · · · , Xn ) extrait d’une loi de Bernoulli.
On sait que la densité d’une loi de Bernoulli de paramètre θ est : f (X, θ ) = θ X (1 − θ )1−X ,
x ∈ {0, 1}. D’où
log f (X, θ ) = X log(θ ) + (1 − X) log(1 − θ )
∂ 2 log f (X, θ ) X 1−X
2
=− 2− .
∂θ θ (1 − θ )2
Ainsi
∂2 
  1
I(θ ) = −E 2
log f (X, θ ) = .
∂θ θ (1 − θ )
Soit In (θ ) l’information de Fisher de (X1 , · · · , Xn ), on a donc
n
In (θ ) = .
θ (1 − θ )

• On considère l’échantillon (X1 , · · · , Xn ) extrait d’une loi de N (θ , σ 2 ) , θ inconnu et σ connue.


−(X − θ )2
 
1
f (X, θ ) = √ exp
2πσ 2σ 2

(X − θ )2
 
1
log f (X, θ ) = log √ −
2πσ 2σ 2
∂ log f (X, θ ) 1
2
=− 2
∂θ σ
Ainsi
∂2 
  1
I(θ ) = −E 2
log f (X, θ ) = 2 .
∂θ σ
Soit In (θ ) l’information de Fisher de (X1 , · · · , Xn ), on a donc
n
In (θ ) = .
σ2
Propriété 2.1
2.4. INÉGALITÉ DE FISHER-CRAMER-DAMOIS-RAO 12

1) I(θ ) ≥ 0 ;
2) (X1 , X2 ) indépendants ⇒ I(X1 ,X2 ) (θ ) = IX1 (θ ) + IX2 (θ ) ;
3) (X1 , X2 , · · · , Xn ) étant un échantillon aléatoire indépendant, on a par généralisation de la
propriété 2) ci-dessus :
I(X1 ,X2 ,··· ,Xn ) (θ ) = In (θ ) = nIn (θ ).

2.4 Inégalité de Fisher-Cramer-Damois-Rao


Théorème 2.2 Soit une fonction g du paramètre θ , dérivable par rapport à θ , et soit Tn un
estimateur sans biais de g(θ ). On a alors :

[g0 (θ )]2
V (Tn ) ≥ ;
In (θ )

Cette inégalité s’appelle l’inégalité de Cramer-Rao


1
Si g(θ ) = θ alors V (Tn ) ≥ .
In (θ )
On en déduit le résultat suivant pour un estimateur sans biais Tn de θ :
 
1
[Tn efficace] ⇔ V (Tn ) = .
In (θ )
Exemple 2.7
• Soit (X1 , · · · , Xn ) un échantillon de taille n issu de la loi normale N (θ , σ 2 ) avec σ connue. On
a
σ2 n
E(X n ) = θ , Var(X n ) = , In (θ ) = .
n σ2
1
Alors Var(X n ) = . X n est donc un estimateur efficace de θ .
In (θ )
• On considère un échantillon (X1 , · · · , Xn ) de taille n issu de la loi normale N (, σ 2 ) avec m
connue. On montre que

n 2σ 2 2σ 4
In (σ 2 ) = ; Var(Sn2 ) = 6= .
2σ 4 n−1 n
1 n
Donc Sn2 = ∑ (Xi − X n)2 n’est pas un estimateur efficace.
n − 1 i=1
Chapitre 3

Estimation ponctuelle
Méthode du Maximum de Vraisemblance

3.1 Fonction de vraisemblance pour un paramètre θ


Définition 3.1 Soit un échantillon aléatoire (X1 , X2 , · · · , Xn ) et soit f la densité de probabilité de
la variable aléatoire X. On suppose que f dépend d’un paramètre θ à estimer.
La vraisemblance de θ est définie par la loi conjointe du vecteur aléatoire (X1 , X2 , · · · , Xn ) . Elle
est donnée par la fonction L suivante, définie sur Θ, ensemble des valeurs de θ :

θ ∈ Θ 7−→ L (X1 , X2 , . . . , Xn ; θ )

Si l’échantillon est indépendant, L est le produit des densités de probabilité des Xi , i.e.
 n
∏ P (Xi = xi) si X est discrète





 i=1
L (x1 , x2 , , . . . , xn ; θ ) = n

 n
 ∏ f (xi , θ ) si X est continue .



i=1

Exemple 3.1

1) Pθ = N (m, σ ); θ =σ
"  #
1 n xi − m 2
 n 
1
L (x1 , x2 , . . . , xn ; θ ) = √ exp − ∑ .
σ 2π 2 i=1 σ

2) Pθ = P(λ ); θ =λ
n
∑ xi
e−nλ λ i=1
L (x1 , x2 , . . . , xn ; θ ) = n .
∏ xi!
i=1

13
3.2. MÉTHODE DU MAXIMUM DE VRAISEMBLANCE 14

∂2
 
Remarque 3.1 L’information de Fisher est égale à −E (log L) .
∂θ2

3.2 Méthode du Maximum de Vraisemblance


L’idée fondamentale de cette méthode est de trouver une valeur de θ qui maximise la fonction
de vraisemblance L. On notera θ̂ cette valeur.
Exemple 3.2 Soit Pθ = U[0,θ ] .
 
1 1
 θ si x ∈ [0, θ ]  θn si 0 ≤ inf(Xi ) ≤ sup(Xi ) ≤ θ
f (x, θ ) = ⇒L=
 0 sinon  0 sinon
Le maximum de L est atteint pour θ = θ̂ = min(Xi ).

3.2.1 Condition nécessaire et suffisante de maximisation de L


3.2.1.1 Condition du premier ordre - Équation de vraisemblance
Le maximum de L et celui de log L sont atteints pour la même valeur de θ .
On a donc les équivalences suivantes

∂ ∂
L=0 ⇔ (log L) = 0. (3.1)
∂θ ∂θ

Dans le cas d’un échantillon indépendant l’égalité (3.1) s’écrit :

n  
∂ 
∑ log f (xi , θ ) = 0 (équation de vraisemblance).
i=1 ∂θ

3.2.1.2 Condition du second ordre

∂2 ∂2
L≤0 ⇔ (log L) ≤ 0. (3.2)
∂σ2 ∂θ2

3.2.2 Propriétés de l’estimateur du Maximum de vraisembance


Théorème 3.1 S’il existe un estimateur T de θ , efficace, il est unique solution de l’équation de
vraisemblance. Et si θ̂ est l’estimateur du maximum de vraisemblance de θ , on a :
" !#  
1 1
θ̂ −→ N θ , p ⇔ E(θ ) −→ θ et V (θ̂ ) −→ .
I(θ ) n→+∞ n→+∞ I(θ )
3.3. QUELQUES EXEMPLES D’E.M.V. 15

3.3 Quelques exemples d’E.M.V.


Exemple 3.3 Estimation du paramètre d’une loi de Poisson de paramètre λ
n
∑ xi
e−λ λ x e−nλ λ i=1
X ∈ N, P(X = x) = ; on a L = n
x!
∏ xi!
i=1
n

n
!
n
!

∑ xi
log L = −nλ + ∑ xi log λ − log ∏ xi! et (log L) = −n + i=1 =0
i=1 i=1 ∂λ λ
n
∑ Xi n
i=1
⇒ λ̂n = n = X̄n ⇔ ∑ Xi = nλ̂n .
i=1

La condition du second ordre est vérifiée. En effet :


n

∂2 ∑ Xi n
i=1
(log L) =− 2 = − ≤ 0.

∂λ 2 λ =λ̂n λ λ =λ̂n λ̂n
Exemple 3.4 Estimation du paramètre p d’une loi Binomiale : X B(n, p).
X ∈ {0, 1, 2, · · · , · · · , n} ; P(X = x) = Cnx px (1 − p)n−x .
n n
n
!
∑ xi ∑ (n − xi)
On a L= ∏ Cnx pi=1 (1 − p)i=1
i=1
!
n n n
⇒ log L = ∑ logCnx + ∑ Xi log p + ∑ (n − xi) log(1 − p)
i=1 i=1 i=1
n n


∑ xi ∑ (n − xi) Xn
i=1 i=1
⇒ (log L) = − = 0 ⇒ p̂n =
∂p p 1− p n
et
∂2 n2
(log L) = − < 0.

∂ p2 p̂n (1 − p̂n )

p= p̂n

Exemple 3.5 Estimation de la moyenne d’une loi de Laplace-Gauss : X N (m, σ 2 ) et σ


connu. On a "  #
1 n xi − m 2
 n 
1
L= √ exp − ∑ .
σ 2π 2 i=1 σ
n  
∂ 1 xi − m
(log L) = ∑ = 0 ⇒ m̂n = X n ;
∂m i=1 σ σ
3.3. QUELQUES EXEMPLES D’E.M.V. 16

∂2 n
(log L) = − 2 ≤ 0.

∂m 2
m=m̂ σ
On vérifie aisément les propriétés suivantes de l’estimateur m̂n = X n obtenu :
E(X) = m : m̂n est sans biais.
σ2
V (X) = √ −→ 0 : m̂n est un estimateur convergent.
n n→+∞
 2 
∂ n 1
In (m) = −E 2
(log L) = 2 = : m̂n est un estimateur efficace.
∂m σ V (X)

Exemple 3.6 Estimation de la variance σ 2 : X N (m, σ 2 ) et m connu.


n  
xi − m
n − 21 ∑
!
n 
xi − m 2

σ2
 n  n 
1 1 1 1
L = σ √2π exp − 2 ∑ = √2π √
2
e i=1 .
σ σ
i=1

On pose θ = σ 2 et la fonction L s’écrit :


n
n 
xi − m 2 (xi − m)2

− 1 ∑
 n − n 2 ∑ σ
 n n i=1
L = √12π σ 2 2 e i=1 = √12π θ − 2 e− 2θ

n
∑ (xi − m)2
√ n 1
⇒ log L = −n log( 2π) − log θ − i=1
2 2 θ

n n

∂ n
∑ (xi − m)2 ∑ (xi − m)2
⇒ (log L) = − + i=1 = 0 ⇒ θ̂ = i=1
∂θ 2θ 2θ 2 n
et
∂2 n
(log I) =− ≤ 0.

∂ θ̂ 2 θ =θ̂ 2θ̂ 2

Exemple 3.7 Soit (X1 , · · · , Xn ) un échantillon de taille n issu d’une loi exponentielle. Déterminer
l’EMV associé à cet échantillon.
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
3.3. QUELQUES EXEMPLES D’E.M.V. 17

.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
Chapitre 4

Estimation par intervalle de confiance

4.1 Introduction
L’estimation ponctuelle consiste à déterminer un estimateur T d’un paramètre θ et de prendre
pour estimation la valeur (ou la réalisation) θ0 de T sur un échantillon donné. Si l’échantillon
est de faible taille, l’estimation θ0 retenue peut être assez éloignée de la vraie valeur de θ .
Il apparaît, dès lors, préférable de déterminer un intervalle, qui a une probabilité au moins
égale à un niveau fixé, pour contenir la vraie valeur du paramètre.
L’estimation par intervalle de confiance consiste donc à déterminer un tel intervalle pour θ .
C’est-à-dire, qu’étant donné un réel α ∈ [0, 1], on cherche à déterminer l’intervalle I ⊂ R tel
que :
P (θ ∈ I) ≥ 1 − α.

I est l’intervalle de confiance pour θ . α est le seuil de confiance ; et 1 − α le niveau de


confiance.
Définition 4.1 Soit X une variable aléatoire réelle. Supposons que la fonction de répartition FX
de X soit continue et strictement croissante. Pour 0 ≤ α ≤ 1 , on note uα l’unique nombre réel
vérifiant
FX (uα ) = P(X ≤ uα ) = α.
On dit que uα est le quantile d’ordre α.

4.2 Détermination de l’intervalle I


On se limitera à l’égalité : P (θ ∈ I) = 1 − α.
La détermination de I montre qu’il est nécessaire de décomposer α en une somme telle que :
P (θ ∈ I) = α = α1 + α2 avec α1 = P (θ ∈] − ∞,t1 [) et α2 = P (θ ∈]t2 , +∞[).
Théorème 4.1 Pour un seuil α donné, l’intervalle de confiance I (de niveau 1 − α) a une lon-
α
gueur minimale α1 = α2 = et t1 = −t2 = −t.
2

18
4.3. ESTIMATION DE LA MOYENNE M D’UNE LOI NORMALE : X N (M, σ ) ET θ = M 19

4.3 Estimation de la moyenne m d’une loi normale : X N (m, σ )


et θ = m
Soit un échantillon indépendant (X1 , X2 , · · · , Xn ) et I =]a, b[ l’intervalle de confiance recherché.
On doit avoir pour α donné :

P (m ∈ [a, b]) = P (a ≤ m ≤ b) = 1 − α.

∑ Xi
On fait appel à la moyenne empirique X = qui est un bon estimateur de m :
n

σ2
E(X) = m et V (X) = .
n

4.3.1 Cas où l’écart type σ est connu


!
X −b X −m X −a
P (a ≤ m ≤ b) = P σ ≤ σ ≤ σ = 1 − α.
√ √ √
n n n
Par ailleurs, notons que
h σ i hXn − m i
X N (m, √ ) ⇔ σ N (0, 1) .
n √
n
On pose " # " #
Xn − m X −b α Xn − m X −a α
P σ ≤ σ = et P σ ≥ σ = .
√ √ 2 √ √ 2
n n n n

X −a X −b
⇒ σ = u1−α/2 et σ = −u1−α/2
√ √
n n
où u1−α/2 désigne le quantile d’ordre 1 − α/2 donné par les tables de la loi N (0, 1) ;

 a = X − u1−α/2 . √σn

 b = X +u σ
1−α/2 . √n .

L’intervalle de confiance pour m au niveau 1 − α est alors


h σ σ i
X − u1−α/2 . √ , X + u1−α/2 . √ .
n n

Plus généralement, soit I = [a, b], et soit la variable aléatoire X. On considère la moyenne
Xn − m p
empirique X. La variable U = ; où m = E(X) et σX = V (X), est appelée fonction
σX
pivotale de m. La forme générale de l’intervalle de confiance pour m est :

h i
I = X − u1−α/2 .σX ; X + u1−α/2 .σX
4.4. ESTIMATION DE LA MOYENNE LORSQUE LA LOI DE X N’EST PAS LA LOI DE LAPLACE-GAUSS

4.3.2 Cas où l’écart type σ est inconnu


Dans ce cas la variance V (X) = σ 2 est estimée par :
n

02 = 1
2
 n n − 1 ∑ Xi − X ,
S si n ≤ 30



i=1
n
 2 1 2
 Sn = n ∑ Xi − X , si n > 30.


i=1

X −m
• Si n ≤ 30 , la fonction pivotale de m est la variable T = S0 n
qui suit une loi de Student

n
T(n − 1). Et on a :

P (a ≤ m ≤ b) = P (−t ≤ T ≤ t) = 1 − α ; où t = t1−α/2 .

S0 n S0 n
⇒ a = X − t1−α/2 . √ et b = X + t1−α/2 . √
n n
et donc h S0 n S0 n i
I = X − t1−α/2 . √ , X + t1−α/2 . √ .
n n

• Et si n > 30 , la loi T(n − 1) converge vers la loi N (0, 1) ; et les valeurs de t sont données
par la table de la loi normale centrée réduite ;
h S0 n S0 n i
I = X − u1−α/2 . √ , X + u1−α/2 . √ .
n n

4.4 Estimation de la moyenne lorsque la loi de X n’est pas la loi


de Laplace-Gauss
4.4.1 Cas où n ≤ 30
Xn − m
Dans ce cas on applique le théorème centrale limite à la fonction pivotale U =
σX
N (0, 1), et l’intervalle de confiance I est de la forme
h i
I = X − u1−α/2 .σX , X + u1−α/2 .σX .

4.4.2 cas où n > 30


On applique l’inégalité de Bienaymé-Tchébichev pour obtenir :
 1 1 1
P X − m < tσX ≥ 1 − 2 = 1 − α ⇒ 2 = α ⇒ t = ± √
t t α
et h 1 1 i
I = X − √ σX , X + √ σX .
α α
4.5. INTERVALLE DE CONFIANCE POUR LA VARIANCE σ 2 D’UNE LOI DE LAPLACE-GAUSS : X N

4.5 Intervalle de confiance pour la variance σ 2 d’une loi de Laplace-


Gauss : X N (m, σ )
4.5.1 Cas où n ≤ 30
2
nS2 (n − 1)S0 2n n 
Xi − X
On sait que : 2 = =∑ χ 2 (n − 1).
σ σ2 i=1 σ

Les intervalles de confiance pour σ 2 et σ sont respectivement de la forme :


s s
h (n − 1)S0 2 (n − 1)S0 2 i h n−1 n−1 0 i
σ2 ∈ n
, n
; σ∈ Sn0 , S ,
χ2 χ1 χ2 χ1 n
avec  α α
P χ 2 (n − 1) ≤ χ1 = et P χ 2 (n − 1) ≤ χ2 = 1 − .
  
2 2
χ1 est le quantile d’ordre α/2 d’une loi de Khi-deux à n − 1 degrés de liberté, et χ2 le quantile
d’ordre 1 − α/2 d’une loi de Khi-deux à n − 1 degrés de liberté.

4.5.2 Cas n > 30


r !
1 n 2 2σ 4
On a : Sn2 = ∑ Xi − X N m, ;
n i=1 n
et les intervalles de confiance pour la variance et l’écart-type sont respectivement :
r r i
2
h
2 2 2 2 2 2
σ ∈ Sn − u1−α/2 Sn , Sn + u1−α/2 Sn et
n n
h Sn Sn i
σ ∈ Sn − u1−α/2 √ , Sn + u1−α/2 √ .
2n 2n

Exemple 4.1 : Soit un échantillon de taille n = 100 où on observe une variance de 1600. On
cherche à déteminer un intervalle de confiance pour l’écart type à un niveau de confiance de 95%.
On a 1 − α = 0, 95 u1−α/2 = 1, 96 Sn2 = 1600 ; d’où
h 40 40 i  
σ ∈ 40 − 1, 96 √ ; 40 + 1, 96 √ = 34, 5 ; 45, 5 .
2 × 100 2 × 100

4.6 Estimation d’une proportion θ = p


Soit p la proportion d’un phénomène dans une population. Une estimation ponctuelle de p
est la fréquence observée dans un échantillon de taille n :
1 n
fn = ∑ Xi où Xi B(1, p).
n i=1

fn est un estimateur sans biais, convergent et efficace de p.


4.7. COMPARAISON DE PARAMÈTRES 22

Propriété 4.1 Un intervalle de confiance asymptotique de seuil α pour p est :


" r r #
fn (1 − fn ) fn (1 − fn )
I = fn − u1−α/2 ; fn + u1−α/2
n n

Exemple 4.2 Soit un échantillon de taille n = 100 ; on y observe f = 0, 2 et soit un niveau de


confiance de 95%.
On a uα = u .... = ....
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................

4.7 Comparaison de paramètres


4.7.1 Intervalle de confiance de la différence de deux moyennes : m1 − m2
Soient deux paramètres p1 et p2 ; on tire un échantillon de chacune d’elles de taille respectives
n1 et n2 , supérieures à 30, et soient X 1 et X 2 , σ1 et σ2 ; s1 et s2 , moyennes empiriques, les écart-
types et les écart-types
 empiriques
 respectifs. On a dans ces conditions :
X 1 − X 2 N m1 − m2 , σX 1 −X 2 avec
 s
 σ12 σ22
si σ1 et σ2 sont connus


 +

 n1 n2
σX 1 −X 2 = s
s21 s22




 + si les écart-types sont inconnus.
n1 n2

L’intervalle de confiance pour m1 − m2 , au niveau 1 − α est de la forme suivante


h i
I = X 1 − X 2 − u1−α/2 σX 1 −X 2 , X 1 − X 2 + u1−α/2 σX 1 −X 2 .

4.7.2 Intervalle de confiance de la différence de deux proportions : p1 − p2


Propriété 4.2 Un intervalle de confiance de la différence de deux proportions p1 − et p2 est
h i
I = f1 − f2 − u1−α/2 σ f1 − f2 , f1 − f2 + u1−α/2 σ f1 − f2 ;
4.7. COMPARAISON DE PARAMÈTRES 23
s
f1 (1 − f1 ) f2 (1 − f2 )
où σ f1 − f2 = + ; f1 et f2 étant les fréquences observées dans un échantillon
n1 n2
de taille n1 , n2 respectivement ; i.e.

1 n1 (1) 1 n2 (2)
f1 = ∑ Xi ; f2 = ∑ Xi .
n1 i=1 n2 i=1

σ12
4.7.3 Intervalle de confiance pour le rapport de deux variances :
σ22
S12 /σ12
F(n1 − 1, n2 − 1) et l’intervalle de confiance est alors :
S22 /σ22
h 1 s2 1 s2 i
1 1
I= ; où F1 et F2 sont définies par les égalités suivantes :
F2 s22 F1 s22
   
P F(n1 − 1, n2 − 1) < F2 = 1 − α/2 et P F(n1 − 1, n2 − 1) < F1 = α/2.

F1 est le quantile d’ordre α/2 d’une loi de Fisher à (n1 − 1 , n2 − 1) degrés de liberté, et F2 le
quantile d’ordre 1 − α/2 d’une loi de Fisher à (n1 − 1 , n2 − 1) degrés de liberté.
Exemple 4.3 : n1 = 16 ; s21 = 25 ; n2 = 10 ; s22 = 20 et 1 − α = 0, 90. On a

S12 /σ12 1 1
F(15 ; 9) et F2 = F0,95 (15, 9) = 3, 006; F1 = F0,05 (15, 9) = = = 0, 33.
S22 /σ22 F0,95 (15, 9) 3, 006

L’intervalle de confiance est alors :


h 1 25 1 25 i  
I= × ; × = 0, 415 ; 3, 78 .
3, 006 20 0, 33 20
Chapitre 5

Tests statistiques

Dans tout ce chapitre :


• on notera π(x) la valeur de fonction de répartition au point x d’une variable normale centrée
réduite ;
• T (n) la loi de Student à n degrés de liberté.

5.1 Introduction
5.1.1 Exemples introductifs
Exemple 5.1 Dans une population, 60% des malades atteints d’une maladie M, survivent plus
de 6 ans. Un laboratoire produit un médicament qu’il expérente sur 40 patients choisis au hasard.
Et après 6 ans, 26 de ces derniers sont encore vivants.
On veut savoir, à un niveau de signification de 10%, si ce nouveau médicament est plus efficace
que le précédent.
Exemple 5.2 Un échantillon aléatoire de 100 professeurs du secondaire public montre que ceux-
ci reçoivent un salaire moyen de 250 000 F CFA avec un écart-type de 50 000 F CFA ; alors que
100 professeurs du secondaire privé, choisis au hasard, perçoivent un salaire moyen de 210 000
F CFA, avec un écart-type de 30 000 F CFA.
On veut vérifier, au niveau de signification de 1%, si le salaire moyen des professeurs du public
est supérieur de 50 000 F CFA à celui des professeurs du privé.
Exemple 5.3 On veut vérifier si une pièce de monnaie est régulière en la lançant 100 fois de
suite. On obtient 47 fois pile. On doit décider si on accepte, à un niveau de signification de 1%,
qu’elle est régulière ou non.

5.1.2 Problématique
Soit (X, Pθ ) un modèle statistique et Θ l’ensemble des valeurs de θ . Un test statistique consiste
à choisir, au vu des résultats fournis par un échantillon, entre des hypothèses relatives au
paramètre θ .

24
5.2. DÉFINITIONS 25

Pour le statisticien, ce choix consiste à prendre une décision, D0 ou D1 , à partir de deux


hypothèses H0 et H1 . Pour cela on admet que
1) Θ = Θ0 ∪ Θ1 , avec Θ0 ∩ Θ1 = ∅
2) À chaque hypothèse H0 ou H1 est associé un sous-ensemble de Θ0 et Θ1 respectivement.
3) Le choix d’une hypothèse Hi se ramène à décider (prendre une décision Di ) dans quel
sous-ensemble de Θ se trouve la vraie valeur de θ .

5.1.3 Étude d’un cas


Un laboratoire fabrique un médicament contenant un produit toxique qui peut être dangereux
si la teneur t de celui-ci dépasse une valeur t0 fixée. On pose :
H0 : t < t0 et H1 : t ≥ t0
Θ0 = {t ∈ R+ : t < t0 } et Θ1 = Θ0 = {t ∈ R+ : t ≥ t0 } t0 étant une valeur fixée.

5.2 Définitions
Définition 5.1 Étant donné un problème de test statistique, on distingue deux types d’hypo-
thèses :
• l’hypothèse simple : elle est de la forme Hi : θ = θi
• l’hypothèse composite ou (multiple) : elle est de la forme Hi : {θ < θi } ou {θ > θi }
ou {θ 6= θi }.

Définition 5.2 Une règle de décision est une application δ définie de la façon suivante :
δ : (X1 , · · · , Xn ) −→ D = {D0 , D1 }
x = (x1 , · · · , xn ) 7−→ Di ∈ D.

Définition 5.3 Lors d’un test statistique, deux types d’erreurs sont possibles dans la prise de
décision :
• l’erreur de première espèce : elle consiste à refuser l’hypothèse H0 , et donc prendre la
décision D1 alors que cette hypothèse est vraie. On définit alors le risque de première
espèce noté α et défini par :
α = P (D1 /H0 )
• l’erreur de seconde espèce : elle consiste à accepter l’hypothèse H0 , c’est-à-dire prendre
la décision D0 alors que cette hypothèse est fausse. Elle est caractérisée par le risque de
deuxième espèce (ou risque de l’acheteur), c’est-à-dire le réel noté β suivant :

β = P (D0 /H1 ) .

Définition 5.4 On appelle matrice des risques la matrice définie par les risques α et β de la
façon suivante :
5.2. DÉFINITIONS 26

HH Di
HH
D1 D0
Hi HH
H0 α 1−α
H1 1−β = η β

1 − α = P (D0 /H0 ) et 1 − β = P (D1 /H1 ) = η.

Définition 5.5 La puissance d’un test est la probabilité η de rejeter H0 (de prendre la décion
D1 ) sachant qu’elle est fausse (H1 est vraie).
Définition 5.6 La région critique d’un test est le domaine W défini par
W = {x = (x1 , · · · , xn ) : δ (x1 , · · · , xn ) = D1 } .
W est la région de rejet de l’hypothèse H0 ; et la région d’acceptation de H0 est
W = {x = (x1 , · · · , xn ) : δ (x1 , · · · , xn ) = D0 } .
On a
α = P (D1 /H0 ) = P (W /H0 ) .

La résolution d’un problème de test statistique se ramène à la détermination de la


région critique W , pour un risque de première espèce α donné.
Exemple 5.4 Soit une usine qui fabrique des pièces dont on mesure le diamètre X. On suppose
que X N (m, 2). Un échantillon de taille n = 36 a permis d’observer un diamètre moyen x = 20, 8
cm. On veut choisir entre deux hypothèses : m = 20 cm ou m = 21 cm.
Les hypothèses du test sont alors les alors suivantes :
H0 : m = m0 = 20 cm
H1 : m = m1 = 21 cm
On sait que X est un bon estimateur de la moyenne m. La règle de décision sera donc la suivante :
x > c ⇒ on rejette H0 (et on prend la décision D1 ).

Pour la résolution du test, on détermine la région critique W , le risque α étant donné. Intuiti-
vement celle-ci est de la forme suivante :
W = {(x1 , · · · , xn ) : x > c} .

On a α = P (D1 /H0 ) = P X > c/m = m0 .
2
Sachant que X N (m, √ ), on obtient successivement :
36
 
 X − 20 c − 20
1 − α = P X < c | m = 20 = P <
1/3 1/3
 
= P U < 3(c − 20)
h
= π 3(c − 20)] ⇒ 3(c − 20) = u1−α (5.1)
5.3. DÉTERMINATION DE LA RÉGION CRITIQUE W -MÉTHODE DE NEYMAN-PEARSON27

X − 20
avec U = N (0, 1).
1/3

β = P (D0 | H1 )
 
X − 21 c − 21

= P X < c | m = m1 P <
1/3 1/3
h i
= π 3(c − 21) ⇒ 3(c − 21) = uβ . (5.2)

5.3 Détermination de la région critique W -Méthode de Neyman-


Pearson
Le principe est le suivant : on se fixe une valeur de α (ou seuil) et on cherche à rendre mi-
nimum le risque β (ce qui équivaut à rendre maximum la puissance du test). On détermine
ainsi une région critique W qui sera la "meilleure" région critique au seuil α, et qui définit le
test le plus puissant de H1 contre H0 au seuil α.

Résolution

5.3.1 Hypothèse simple contre hypothèse simple


(
H0 : θ = θ0
H1 : θ = θ1
Soit un échantillon aléatoire (X1 , · · · , Xn ). Sous H0 la fonction vraisemblance α et β est L0 (x1 , · · · , xn ; θ0 )
et sous H1 L1 (x1 , · · · , xn ; θ1 ). Les risques α et β s’expriment alors de la façon suivante :
Z
α = P (X ∈ W | H0 ) = L0 (x)dx ;
W
 Z Z
β = P X ∈ W | H1 = L1 (x)dx = 1 − L1 (x)dx
W W
où X = (X1 , · · · , Xn )
Selon la méthode de Neyman-Person la région critique W est définie de la façon suivante :
L0
W = { X = (X1 , · · · , Xn ) : (X) ≤ k }
L1
et
L0
W = { X = (X1 , · · · , Xn ) : (X) > k }
L1
5.4. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 28

5.3.2 Hypothèse simple contre hypothèse composite


(
H0 : θ = θ0
H1 : θ 6= θ0
À chaque valeur θi différente de θ0 correspond une région critique Wi . Le test est dit Unifor-
mément plus puissant (UPP ou UMP 1 en anglais) si toutes les régions critiques associées
sont confondues.
La puissance d’un test , η = 1 − β est une fonction de θ ; et la courbe représentative de la
fonction η = η(θ ), est la courbe d’efficacité du test.

5.4 Quelques exemples de problème de tests statistiques


5.4.1 Test d’une moyenne d’une loi de normale : X N (m, σ )
(
H0 : m = m0
(1)
H1 : m = m1
On a alors ce qui suit :
"  # "  #
1 n xi − m0 2 1 n xi − m1 2
 n   n 
1 1
L0 = √ exp − ∑ ; L1 = √ exp − ∑
σ 2π 2 i=1 σ σ 2π 2 i=1 σ

On a " !#
n n
L0 1
L1
= exp − 2
2σ ∑ (xi − m0)2 − ∑ (xi − m1)2 ≤k
i=1 i=1
!
n n
1 2 2
⇒− 2 ∑ (xi − m0) − ∑ (xi − m1 ) ≤ log k
2σ i=1 i=1
n
⇒ ∑ (xi − m0 + xi − m1 ) (xi − m0 − xi + m1 ) ≥ −2σ log k
i=1
n n(m21 − m20 )
⇒ (m1 − m0 ) ∑ xi ≥ − σ 2 log k
i=1 2
m21 − m20 σ 2 log k
⇔ (m1 − m0 )x ≥ c = −
2 n
Il en découle que :
c
a) si m1 < m0 alors W = {X : X ≤ A , A = }
m1 − m0
b) si m1 > m0 alors W = {X : X > A}
1. Uniformly Most Powerful
5.4. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 29

Détermination de la région critique


L

1) m1 < m0
a) σ connu
Étant donné le risque 1 − α, on a :

α = P (W | H0 )

= P X ≤ A | m = m0
 
X − m0 A − m0
= P √ ≤ √ | m = m0
σ/ n σ/ n
 
X − m0 A − m0
= P √ ≤ √
σ/ n σ/ n
 
A − m0
= π √
σ/ n

A − m0 σ
⇒ √ = uα et A = m0 + uα √
σ/ n n

Règle de décision
L



 si X ≤ A alors on rejette H0 et donc m = m1


si X > A alors on accepte H0 et donc m = m0


 σ
où A = m0 + uα √



n

b) σ inconnu et n > 30
1 n
Dans ce cas on estime σ par la variance empirique s2 = ∑ (xi − x)2.
n i=1
Mais comme
X −m
√ N (0 ; 1)
s/ n
alors  
X − m0 A − m0 A − m0
P √ ≤ √ =α ⇒ √ = uα
s/ n s/ n s/ n
s
⇒ A = m0 + uα √ .
n

c) σ inconnu et n ≤ 30
5.4. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 30

X −m
On sait que dans ce cas √ T (n − 1), loi de Student à n − 1 degrés de liberté.
s/ n
 
A − m0 A − m0 s
α = P T (n − 1) < √ ⇒ √ = tα (n − 1) et A = m0 + tα (n − 1) √ ,
s/ n s/ n n
où tα (n − 1) est le quantile d’ordre α d’une loi de Student à n − 1 degrés de liberté.

2) m1 > m0

W = {X = (X1 , · · · , Xn ) | X ≥ A}

Règle de décision : La décision est la suivante


L

(
si X ≥ A alors on rejette H0 et donc m = m1
si X < A alors on accepte H0 et donc m = m0

avec A défini comme suit :

a) σ connu

 
 X − m0 A − m0
α = P (W | H0 ) = P X ≥ A | m = m0 =P √ ≥ √
σ/ n σ/ n
 
A − m0 σ
⇒π √ = 1−α et A = m0 + u1−α √ ,
σ/ n n
u1−α étant le quantile d’ordre 1 − α d’une loi normale centrée réduite.

b) σ inconnu et n < 30
X −m
Dans ce cas √ T (n − 1). On trouve
s/ n
s
A = m0 + t1−α (n − 1) √ .
n

c) σ inconnu et n ≥ 30

X −m s
√ N (0 1) ⇒ A = m0 + u1−α √
s/ n n

On considère maintenant le problème de test suivant


(
H0 : m = m0
(2)
H1 : m > m0
5.4. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 31

On montre que la région critique est de la forme suivante :

W = {X = (X1 , · · · , Xn ) | X ≥ A}.

Règle de décision
L

(
si X ≥ A alors on rejette H0
si X < A alors on accepte H0

a) σ connu
σ
La valeur critique est A = m0 + u1−α √ et le risque de deuxième espèce est :
n
 
 A−m
β = P X < A | m > m0 = π √ = β (m).
σ/ n

La puissance du test est alors une fonction de m, m ≥ m0 :


 
A−m
η = 1−π √
σ/ n

courbe d’efficacité : c’est la courbe représentative de la fonction β = β (m).


.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
b) σ inconnu et n < 30

X −m 1 n 02
√ T (n − 1) avec s = ∑ (xi − x)2 ,
s0 / n n − 1 i=1
5.4. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 32

s0
A = m0 + t1−α √ .
n

Soit le problème de test suivant :


(
H0 : m = m0
(3)
H1 : m < m0

Règle de décision
L

(
si X ≤ A alors on rejette H0
si X > A alors on accepte H0
 
σ  A−m
avec A = m0 + uα √ et β = P X > A | m = m0 = 1 − π √ .
n σ/ n
courbe d’efficacité
 
A−m
η = 1 − β (m) = π √
σ/ n

.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................

cas σ inconnu et n < 30 ? ? ?

cas σ inconnu et n ≥ 30 ? ? ?
5.4. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 33

Soit le problème de test (


H0 : m = m0
(4)
H1 : m 6= m0
Ce test dit bilatéral équivaut à deux tests unilatéraux de type (2) et (3).

Région critique : la région critique est de la forme W = W1 ∪W2 avec


L

W1 = {X = (X1 , · · · , Xn ) : X ≤ A} et W2 = {X = (X1 , · · · , Xn ) : X ≥ B}

La région d’acceptation de H0 est W = {X = (X1 , · · · , Xn ) : A ≤ X ≤ B}.


Il reste à déterminer A et B. Pour une risque α donné, on a
 
P (W | H0 ) = P X ∈/ [A, B] | m = m0 = 1 − P X ∈ [A, B] | m = m0
 
On prend P X ≤ A | m = m0 et P X ≥ B | m = m0 . On trouve

σ σ
A = m0 + uα/2 √ et B = m0 + u1−α/2 √ .
n n

Règle de décision
L

(
si X ∈ ]A, B[ alors on accepte H0
si X ∈
/ ]A, B[ alors on rejette H0

Puissance du test
L

   
 B−m A−m
η = 1 − β (m) = P X ∈]A,
/ B[ | m 6= m0 = 1 − π √ +π √ , m 6= m0
σ/ n σ/ n
Courbe d’efficacité

.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
5.4. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 34

5.4.2 Test d’une proportion (n > 30)


On considère une variable aléatoire X de Bernoulli B(1 p) et un échantillon de taille n ,
1 n
(n > 30). On sait que fn = ∑ Xi est un bon estimateur de p et que pour n > 30, fn suit une
n i=1
r !
p(1 − p)
loi N p , .
n

...................................
(
H0 : p = p0
(1)
H1 : p < p0

Règle de décision
L

si fn ≤ A alors on rejette H0





si fn > A alors on accepte H0

 r
 où A = p0 + uα p0 (1 − p0 )



n

...................................
(
H0 : p = p0
(2)
H1 : p > p0

Règle de décision
L

si fn ≥ A alors on rejette H0





si fn < A alors on accepte H0

 r
 où A = p0 + u1−α p0 (1 − p0 )



n

...................................
(
H0 : p = p0
(3)
H1 : p 6= p0

Règle de décision
L

(
si fn ∈ ]A, B[ alors on accepte H0
si fn ∈
/ ]A, B[ alors on rejette H0
5.4. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 35
r r
p0 (1 − p0 ) p0 (1 − p0 )
avec A = p0 + uα/2 et B = p0 + u1−α/2 .
n n

5.4.3 Test de signification d’une variance : X N (m, σ )


Selon le principe de Neyman-Person, on a successivement :

 n " #

2 n
  
   
L0 σ1 1 1
2 1 
≤k ⇔ 2
exp − 2
− 2 ∑ (xi − m)2 ≤ k
L1  0
 σ 2 σ 0 σ 1 i=1


(  2   n )
n σ 1 1 1
⇔ log 1
2
− 2
− 2 ∑ (xi − m)2 ≤ log k
2 σ0 2 σ0 σ1 i=1
  n   2 
1 1 2 n σ1
⇔ 2
− 2 ∑ (xi − m) ≥ 2 log k + log
σ0 σ1 i=1 2 σ02

Région critique
L

n
a) Si σ12 > σ02 : W = {X = (X1 , · · · , Xn ) : ∑ (Xi − m)2 ≥ A},
i=1
" !#
2 n σ12
avec A = ! log k + log
1 1 2 σ02
2
− 2
σ0 σ1
et la règle de décision est la suivante

Règle de décision
L

n

si ∑ (Xi − m)2 ≥ A alors on rejette H0




 i=1
 n
 si ∑ (Xi − m)2 < A alors on accepte H0



i=1

n
b) Si σ12 < σ02 : W = {X = (X1 , · · · , Xn ) : ∑ (Xi − m)2 < A}
i=1

Règle de décision
L
5.4. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 36

n

si ∑ (Xi − m)2 ≤ A alors on rejette H0




 i=1
 n
 si ∑ (Xi − m)2 > A alors on accepte H0



i=1

n
∑ (Xi − m)2
i=1
Rappels : • Si m est connu χ 2 (n).
σ2
n
∑ (Xi − X)2
i=1
• Si m est inconnu, χ 2 (n − 1).
σ2

5.4.3.1 Résolution de tests : X N (m, σ ) , m connu et n < 30


On rappel que si m est inconnu et n < 30, on fait appel à la loi du χ 2 (n − 1), et si n > 30 on
remplace la loi du χ 2 par une approximation appropriée (cf page 20).

H0 : σ 2 = σ02
(
(1)
H1 : σ 2 > σ02

S0 2
Posons S0 2 = ∑ni=1 (Xi − m)2 . On a χ 2 (n)
σ2

On a la règle de décision suivante.

Règle de décision
L


02
 si S > A alors on rejette H0

2
si S0 ≤ A alors on accepte H0

!
S0 2
 
A A A
α = P (D1 | H0 ) = P 2
> 2 | σ 2 = σ02 2
= P χ (n) > 2 ⇒ 2
2
= χ1−α (n)
σ σ σ0 σ0

⇒ A = σ02 χ1−α
2
(n)

............................
5.4. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 37

H0 : σ 2 = σ02
(
(2)
H1 : σ 2 < σ02

Règle de décision
L


02
 si S < A alors on rejette H0

2
si S0 ≥ A alors on accepte H0

avec A = σ02 χα2 (n)

............................
H0 : σ 2 = σ02
(
(3)
H1 : σ 2 6= σ02

Règle de décision
L


02
 si S ∈
 / [A, B] alors on rejette H0

2
si S0 ∈ [A, B] alors on accepte H0

avec A = σ02 χα/2


2 (n) et B = σ02 χ1−α/2
2 (n)

5.4.4 Test de comparaison de deux moyennes : m1 − m2


Soient deux variables aléatoires indépendantes X1 et X2 suivant des lois normales : X1
N (m1 , σ ) et X2 N (m2 , σ ). On cherche à résoudre le test suivant :
(
H0 : m1 = m2
H1 : m1 6= m2

Remarquons que ce test est équivalent au test suivant


(
H0 : m1 − m2 = 0
H1 : m1 − m2 6= 0

On considère la variable aléatoire Z = X1 − X2 .


On sait que Z N (m1 − m2 , σZ ). Et on a
s
Z − (m1 − m2 ) σ12 σ22
N (0, 1) où σZ = + .
σZ n1 n2
5.4. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 38

Résolution : On fait l’hypothèse suivante :


α = P X 1 − X 2 ∈]A,
/ B[ | H0
et

  α
P X 1 − X 2 < A | H0 = P X 1 − X 2 > B | H0 =
2
Sous l’hypothèse H0
 
α = P X 1 − X 2 ∈]A,
/ B[ | H0
! !
X1 − X2 A X1 − X2 B
= P ≤ +P ≥
σX 1 −σ σX 1 −σ σX 1 −σ σX 1 −σ
X2 X2 X2 X2

Z
La détermination de A et B dépend donc de la loi de .
σZ
Z
• Si σ1 et σ2 sont connus N (0, σZ )
σZ
• Sinon, et si n < 30, la loi est celle d’une Student T (n1 + n2 − 2) :

Z
T (n1 + n2 − 2).
σZ

On admet que σ1 = σ2 = σ . Et σ est estimé par :

(n1 − 1)s21 + (n2 − 1)s22


σ̂ 2 =
n1 + n2 − 2

s
σ̂ 2 σ̂ 2
r
1 1
σ̂Z = + = σ̂ + .
n1 n2 n1 n2
Et on obtient

 r
1 1
 A = tα/2 σ̂ n1 + n2



r

 1 1
 B = t1−α/2 σ̂
 +
n1 n2
5.4. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 39

σ12
5.4.5 Comparaison de variances : 2
σ2
On s’intéresse au test suivant

σ2
H0 : 12 = 1


H0 : σ12 = σ22
( 

 σ2

H1 : σ12 6= σ22 
 σ12
 H1 : 2 =

 6 1
σ2

La règle de décision est la suivante


Règle de décision
L


S2
si 21 ∈
/ ]A, B[ alors on rejette H0



S2



 S21
 si 2 ∈ ]A, B[ alors on accepte H0


S2
avec A = Fα/2 (n1 − 1, n2 − 1) et B = F1−α/2 (n1 − 1, n2 − 1).
5.5. EXERCICES 40

5.5 Exercices
Exercice 1

On réalise des mesures de hauteurs d’arbres dans une forêt sur un échantillon de 12 arbres.
On suppose que ces hauteurs sont distribuées selon une loi normale de moyenne et de va-
riance inconnues. Les résultats sont répertoriés dans le tableau suivant :

1. Donner une estimation de la hauteur moyenne des arbres, ainsi qu’une estimation de la
variance de cette hauteur.
2. Calculer un intervalle de confiance à 95% de cette hauteur.

Exercice 2

On suppose que des notes d’examen (sur 100), suivent une loi normale de moyenne théorique
m et d’écart-type σ = 15. Un échantillon de taille n = 25 est observé, on trouve x = 69, 2
Déterminer un intervalle de confiance pour m avec un coefficient de sécurité 90%.

Exercice 3

Lors d’un sondage auprès de 500 personnes et portant sur leurs opinions politiques, 180
personnes se sont déclarées favorables au parti A.
Estimer la proportion p des gens favorables au parti A au moyen d’un intervalle de confiance
de niveau 90%.

Exercice 4

Dans le cadre d’une étude sur la santé au travail, on a interrogé au hasard 500 salariés de
différents secteurs et de différentes régions de la Côte d’Ivoire. 145 d’entre eux déclarent avoir
déjà subi un harcèlement moral au travail.

1. Donner une estimation ponctuelle de la proportion de salariés ayant déjà subi un harcè-
lement moral au travail.
2. Donner une estimation de cette proportion par un intervalle de confiance à 90%.
3. Si avec les mêmes données on calculait un intervalle de confiance à 95%, serait-il plus
grand ou plus petit que celui trouvé à la question précédente ? (justifier sans calcul).
5.5. EXERCICES 41

Exercice 5

Une entreprise fabrique des sacs en plastique pour les enseignes de distribution. Elle s’inté-
resse au poids maximal que ces sacs peuvent supporter sans se déchirer.
On suppose ici que le poids maximal que ces sacs peuvent supporter suit une loi normale
d’espérance mathématique m et d’écart-type 3 kg.
Sur 200 sacs reçus, une grande enseigne de distribution constate un poids moyen de 57, 7 kg.
Donner un intervalle de confiance bilatéral de la moyenne des poids sur un échantillon de
taille 200, au seuil 1%.

Exercice 6

Afin de mieux gérer les demandes de crédits de ses clients, un directeur d’agence bancaire réa-
lise une étude relative à la durée de traitement des dossiers, supposée suivre une distribution
normale.
Un échantillon de 30 dossiers a donné :

1. Calculer la moyenne et l’écart-type des durées de traitement des dossiers de cet échan-
tillon.
2. En déduire les estimations ponctuelles de la moyenne m et de l’écart-type σ de la popu-
lation des dossiers.
3. Donner une estimation de m par intervalle de confiance au seuil de risque 5%.

Exercice 7

Dans un centre avicole, des études antérieures ont montré que la masse d’un œuf choisi
au hasard peut être considérée comme la réalisation d’une variable aléatoire normale X, de
moyenne m et de variance σ 2 . On admet que les masses des œufs sont indépendant les unes
des autres. On prend un échantillon de n = 36 œufs que l’on pèse. Les mesures sont données
(par ordre croissant) dans le tableau suivant :

50, 34 52, 62 53, 79 54, 99 55, 82 57, 67


51, 41 53, 13 53, 89 55, 04 55, 91 57, 99
51, 51 53, 28 54, 63 55, 12 55, 95 58, 10
52, 07 53, 30 54, 76 55, 24 57, 05 59, 30
52, 22 53, 32 54, 78 55, 28 57, 18 60, 58
52, 38 53, 39 54, 93 55, 56 57, 31 63, 15

a) Calculer la moyenne empirique et l’écart-type empirique de cette série statistique.


5.5. EXERCICES 42

b) Donner une estimation des paramètres m et σ .


c) Donner un intervalle de confiance au niveau 95%, puis 98%, de la masse moyenne m
d’un œuf.
d) Tester à un niveau de confiance 95% si la moyenne de cette variable est égale à 56.

Exercice 8

On suppose que le poids d’un nouveau né est une variable normale d’écart-type égal à 0, 5 kg.
Le poids moyen des 49 enfants nés au mois de janvier 2004 dans l’hôpital de Charleville-
Mézières a été de 3, 6 kg.
a) Déterminer un intervalle de confiance à 95% pour le poids moyen d’un nouveau né dans
cet hôpital.
b) Quel serait le niveau de confiance d’un intervalle de longueur 0, 1 kg centré en 3, 6 pour
ce poids moyen ?

Exercice 9

Un appareil de télécommunications reçoit un signal stocké à chaque (petite) unité de temps


dans une suite de variables (Xn ) . Cet appareil doit détecter un signal effectif, en le diffé-
renciant d’un bruit. On suppose que le bruit est une suite de variables indépendantes de
loi normale de moyenne nulle et de variance 1. Pour un signal, la moyenne n’est pas nulle.
Aujourd’hui on a observé une suite de 40 variables (x1 , . . . , x40 ), supposées indépendantes,
de variance 1. La moyenne empirique vaut 0,6 . S’agit-il de bruit ? Construire un test pour
répondre à cette question.

Exercice 10

On utilise une nouvelle variété de pommes de terre dans une exploitation agricole. Le ren-
dement de l’ancienne variété était de 41.5 tonnes à l’ha. La nouvelle est cultivée sur 100 ha,
avec un rendement moyen de 45 tonnes à l’ha et un écart-type de 11.25. Faut-il, au vu de ce
rendement, favoriser la culture de la nouvelle variété ?

Exercice 11

On se propose de tester la qualité d ?un lot important de pièces mécaniques. Soit X une carac-
téristique aléatoire de ces pièces dont la loi de probabilité est une loi normale de moyenne
21.32 et d’écart-type σ = 4. À la suite d’erreurs survenant lors de la fabrication de ces pièces,
on ignore si m égale 20 ou si m égale 22. On doit néanmoins prendre une décision. Pour cela
on prélève dans un lot un échantillon aléatoire de 25 pièces. Quelle décision doit-on prendre ?

Vous aimerez peut-être aussi