Académique Documents
Professionnel Documents
Culture Documents
Inférence Statistique
Licence 2
A imprimer
(Fichier incomplet)
Dr Ténan YEO
yeo.tenan@yahoo.fr
Table des matières
1 Introduction 4
1.1 But de la statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Les méthodes statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Exemples introductifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1 Exemple 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.2 Exemple 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.3 Exemple 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2 Estimation statistique 8
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Qualité d’un estimateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.1 Estimateur sans biais (ou centré) . . . . . . . . . . . . . . . . . . . . . 9
2.2.2 Estimateur asymptotiquement sans biais . . . . . . . . . . . . . . . . . 10
2.2.3 Estimateur convergent (en probabilité) . . . . . . . . . . . . . . . . . . 10
2.2.4 Estimateur efficace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3 Information de Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4 Inégalité de Fisher-Cramer-Damois-Rao . . . . . . . . . . . . . . . . . . . . . 12
3 Estimation ponctuelle
Méthode du Maximum de Vraisemblance 13
3.1 Fonction de vraisemblance pour un paramètre θ . . . . . . . . . . . . . . . . . 13
3.2 Méthode du Maximum de Vraisemblance . . . . . . . . . . . . . . . . . . . . . 14
3.2.1 Condition nécessaire et suffisante de maximisation de L . . . . . . 14
3.2.2 Propriétés de l’estimateur du Maximum de vraisembance . . . . . 14
3.3 Quelques exemples d’E.M.V. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2
TABLE DES MATIÈRES 3
4.4.1 Cas où n ≤ 30 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.4.2 cas où n > 30 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.5 Intervalle de confiance pour la variance σ 2 d’une loi de Laplace-Gauss : X
N (m, σ ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.5.1 Cas où n ≤ 30 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.5.2 Cas n > 30 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.6 Estimation d’une proportion θ = p . . . . . . . . . . . . . . . . . . . . . . . . 21
4.7 Comparaison de paramètres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.7.1 Intervalle de confiance de la différence de deux moyennes : m1 − m2 . . 22
4.7.2 Intervalle de confiance de la différence de deux proportions : p1 − p2 . 22
σ2
4.7.3 Intervalle de confiance pour le rapport de deux variances : 12 . . . . . 23
σ2
5 Tests statistiques 24
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.1.1 Exemples introductifs . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.1.2 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.1.3 Étude d’un cas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
5.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
5.3 Détermination de la région critique W -Méthode de Neyman-Pearson . . . . . . 27
5.3.1 Hypothèse simple contre hypothèse simple . . . . . . . . . . . . . . . . 27
5.3.2 Hypothèse simple contre hypothèse composite . . . . . . . . . . . . . . 28
5.4 Quelques exemples de problème de tests statistiques . . . . . . . . . . . . . . 28
5.4.1 Test d’une moyenne d’une loi de normale : X N (m, σ ) . . . . . . . . 28
5.4.2 Test d’une proportion (n > 30) . . . . . . . . . . . . . . . . . . . . . . . 34
5.4.3 Test de signification d’une variance : X N (m, σ ) . . . . . . . . . . . 35
5.4.4 Test de comparaison de deux moyennes : m1 − m2 . . . . . . . . . . . . 37
σ2
5.4.5 Comparaison de variances : 12 . . . . . . . . . . . . . . . . . . . . . . 39
σ2
5.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
Chapitre 1
Introduction
4
1.3. EXEMPLES INTRODUCTIFS 5
• Régression linéaire
⇒ cela permet de dégager les caractéristiques essentielles du phénomène étudié et de
suggérer des hypothèses pour une étude ultérieure plus poussée. Les probabilités
n’ont ici qu’un rôle mineur.
2) la Statistique inférentielle : elle a pour but de faire des prévisions et de prendre des
décisions au vu des observations par :
• Estimation paramétrique
• Intervalles de confiance
• Tests d’hypothèse
⇒ Il est donc nécessaire de définir des modèles probabilistes du phénomène aléatoire
et savoir gérer les risques d’erreurs.
Le problème statistique est d’estimer la proportion inconnue θ à partir des observations, c’est à
dire à partir des xi (réalisations des variables aléatoires Xi ).
1.3.2 Exemple 2
On souhaite savoir si une pièce de monnaie est équilibrée ou non. La pièce est dite équilibrée
si, quand on la lance, la probabilité d’avoir ‘pile’ est égale à la probabilité d’avoir ‘face’. Si on
1
note θ la probabilité d’avoir ‘pile’, la pièce est équilibrée si θ = .
2
Pour répondre à la question posée on lance n = 10 fois la pièce. Le résultat de cette expérience
aléatoire est : PPPFFPFPFP (P=pile et F=face). Peut-on conclure sur la base de ce résultat
que la pièce est équilibrée ?
1.3.3 Exemple 3
Une entreprise E fabrique et commercialise des ampoules électriques de 100 Watts. Sur l’em-
ballage de ces ampoules l’entreprise E a porté la mention : durée d’utilisation T = 1000 heures.
Un organisme de défense du consommateur se propose de ‘valider’ la mention portée par
ce constructeur sur ces emballages. Il souhaite de plus pouvoir décider si la durée de vie
1.4. GÉNÉRALITÉS 6
(moyenne) d’une ampoule de 100 Watts fabriquée par l’entreprise E est supérieure ou égale
T. Pour ce faire, il teste un grand nombre n d’ampoules fabriquées par cette entreprise, et
note xi la durée de vie observée de l’ampoule No i. La durée de vie d’une ampoule électrique
étant ‘par nature’ une grandeur imprévisible - au sens où la valeur de xi ne peut, avant de
l’avoir observée, être prédite avec certitude - il est commode de la modéliser par une variable
aléatoire X. La loi de probabilité généralement retenue pour X est la loi exponentielle. Rappe-
lons qu’une variable aléatoire réelle X suit une loi exponentielle de paramètre θ si sa densité
est :
1 x
f (x) = exp − 1[0,+∞[ (x).
θ θ
On peut aisément vérifier que le paramètre θ de la loi exponentielle est égal à la durée de vie
moyenne d’une ampoule ; autrement dit, E(X) = θ .
Le problème statistique consiste : premièrement, à estimer le paramètre inconnu θ à par-
tir des observations, c’est à dire à partir des xi (réalisations des variables aléatoires Xi ) ; et
deuxièmement, à décider si θ > T, ou si, à l’inverse θ ≤ T.
Ces trois exemples ont en commun de faire reposer la réponse au problème statistique consi-
déré, soit sur une expérience aléatoire (cf exemples 1 et 2), soit une modélisation aléatoire de
la grandeur étudiée (cf exemple 3). Ils ont également en commun de baser l’inférence sur le
paramètre θ (qu’il s’agisse d’estimer θ ou de tester une valeur particulière de θ ) sur n observa-
tions x1 , · · · , xi , · · · , xn où xi désigne la réalisation d’une variable aléatoire réelle Xi (dont la loi de
probabilité est paramétrée par θ ).
1.4 Généralités
Afin de préciser l’objet et la place de la Statistique inférentielle (au sein de la Statisque en gé-
néral) en il convient de rappeler que le travail du Statisticien s’inscrit traditionnellement dans
l’une des trois phases suivantes : production de données, exploration des données, et modéli-
sation (aléatoire) des données. La production de données inclut en particulier l’organisation
de la collecte des données (conception de plans de sondage, par exemple). L’exploration des
données repose essentiellement sur les méthodes de la Statistique descriptive et de l’Analyse
des données. La modélisation comporte classiquement plusieurs étapes :
a) au sein d’un ensemble de modèles probabilistes susceptibles d’avoir généré les observa-
tions, sélectionner l’un d’entre eux (cette étape étant réalisée à l’aide d’une procédure
statistique de choix de modèles).
b valider le modèle retenu.
c) estimer les paramètres du modèle retenu et éventuellement proposer des procédures de
tests portant sur les paramètres du modèle.
Cette présentation présuppose qu’un modèle paramétrique a été retenu, mais d’autres alterna-
tives existent. Dans ce cours on abordera essentiellement les questions relatives à la dernière
étape de cette procédure. La Statistique inférentielle (appelée encore Statistique mathéma-
tique ou Statistique inductive) consiste en un ensemble de concepts, de méthodes et d’outils
élaborés en vue de réaliser chacune des étapes a) b) et c). Les outils mathématiques utili-
sés en Statistique inférentielle ou Statistique inductive font largement appel à la Théorie des
1.4. GÉNÉRALITÉS 7
Probabilités, du simple fait que les observations sont considérées comme des réalisations de
variables aléatoires.
Chapitre 2
Estimation statistique
2.1 Définitions
Soit une population décrite par une variable aléatoire X, dont la loi de probabilité Pθ dépend
d’un ou plusieurs paramètres θ .
Définition 2.1 On appelle modèle aléatoire le couple (Ω, Pθ ) , où Ω est l’ensemble des valeurs
de X et Pθ la loi de probabilité de X.
Exemple 2.1
a) X ∈ {0, 1, 2, · · · , n} et Pθ = B(n, p) avec θ = p.
b) X = N et Pθ = P(λ ) avec λ = θ .
c) X = [0, a] et Pθ = U[0,a] avec θ = a.
d) X = R et Pθ = N (m, σ 2 ) avec θ ∈ {m, σ 2 , (m, σ 2 )}.
1 2 n−1
e) X ∈ 0, , , · · · , , 1 et Pθ = B(1, p) avec θ = p.
n n n
L’estimation statistique a pour objet la détermination de la valeur du paramètre θ .
Définition 2.2 Soit Θ l’ensemble des valeurs de θ . L’estimation est dite :
1. ponctuelle si Θ est réduit à une constante : Θ = {θ0 } ;
2. ensembliste sinon. En particulier, si Θ est un ensemble I de R, l’estimation est dite par
par intervalle de confiance pour le paramètre θ .
Définition 2.3 (Notion de Statistique)
Soit (X, Pθ ) un modèle aléatoire et soit Y un espace donné. On appelle Statistique toute applica-
tion T telle que
T : (X, Pθ ) −→ Y
(X1 , X2 , X3 , . . . , Xn ) 7−→ T (X1 , X2 , X3 , . . . , Xn ) = Tn
8
2.2. QUALITÉ D’UN ESTIMATEUR 9
• On appelle estimation de θ toute valeur prise par un estimateur T pour une réalisation
(x1 , x2 , · · · , xn ) de l’échantillon (X1 , X2 , X3 , . . . , Xn ).
1 n 1 n 2 1 n
x= ∑ xi ; s2n = ∑ (xi − x)2 ; s0 n = ∑ (xi − x)2 sont des estimations.
n i=1 n i=1 n − 1 i=1
lim E(Tn ) = θ .
n→+∞
Exemple 2.4
1 n 2 n−1 2
Tn = Sn2 = ∑ Xi − X et θ = σ 2 . On a E(Tn ) = σ 6= θ ; mais lim E(Tn ) = σ 2 = θ .
n i=1 n n→+∞
Une condition suffisante de convergence est que l’estimateur soit sans biais et que sa variance
tende vers zéro lorsque la taille de l’échantillon tend vers l’infini.
E(Tn ) = θ
P
⇒ Tn −→ θ .
V (Tn ) −→ 0
n→∞
Définition 2.9 On appelle information de Fisher pour le paramètre θ , le réel I(θ ) défini par :
" 2 #
∂
I(θ ) = E log f (X, θ ) .
∂θ
Théorème 2.1 On a
∂2
I(θ ) = −E log f (X, θ ) .
∂θ2
L’intérêt de cette proposition est que cette expression de I(θ ) est plus facile à manipuler que
celle de la définition.
Exemple 2.6
• On considère l’échantillon (X1 , · · · , Xn ) extrait d’une loi de Bernoulli.
On sait que la densité d’une loi de Bernoulli de paramètre θ est : f (X, θ ) = θ X (1 − θ )1−X ,
x ∈ {0, 1}. D’où
log f (X, θ ) = X log(θ ) + (1 − X) log(1 − θ )
∂ 2 log f (X, θ ) X 1−X
2
=− 2− .
∂θ θ (1 − θ )2
Ainsi
∂2
1
I(θ ) = −E 2
log f (X, θ ) = .
∂θ θ (1 − θ )
Soit In (θ ) l’information de Fisher de (X1 , · · · , Xn ), on a donc
n
In (θ ) = .
θ (1 − θ )
(X − θ )2
1
log f (X, θ ) = log √ −
2πσ 2σ 2
∂ log f (X, θ ) 1
2
=− 2
∂θ σ
Ainsi
∂2
1
I(θ ) = −E 2
log f (X, θ ) = 2 .
∂θ σ
Soit In (θ ) l’information de Fisher de (X1 , · · · , Xn ), on a donc
n
In (θ ) = .
σ2
Propriété 2.1
2.4. INÉGALITÉ DE FISHER-CRAMER-DAMOIS-RAO 12
1) I(θ ) ≥ 0 ;
2) (X1 , X2 ) indépendants ⇒ I(X1 ,X2 ) (θ ) = IX1 (θ ) + IX2 (θ ) ;
3) (X1 , X2 , · · · , Xn ) étant un échantillon aléatoire indépendant, on a par généralisation de la
propriété 2) ci-dessus :
I(X1 ,X2 ,··· ,Xn ) (θ ) = In (θ ) = nIn (θ ).
[g0 (θ )]2
V (Tn ) ≥ ;
In (θ )
n 2σ 2 2σ 4
In (σ 2 ) = ; Var(Sn2 ) = 6= .
2σ 4 n−1 n
1 n
Donc Sn2 = ∑ (Xi − X n)2 n’est pas un estimateur efficace.
n − 1 i=1
Chapitre 3
Estimation ponctuelle
Méthode du Maximum de Vraisemblance
θ ∈ Θ 7−→ L (X1 , X2 , . . . , Xn ; θ )
Si l’échantillon est indépendant, L est le produit des densités de probabilité des Xi , i.e.
n
∏ P (Xi = xi) si X est discrète
i=1
L (x1 , x2 , , . . . , xn ; θ ) = n
n
∏ f (xi , θ ) si X est continue .
i=1
Exemple 3.1
1) Pθ = N (m, σ ); θ =σ
" #
1 n xi − m 2
n
1
L (x1 , x2 , . . . , xn ; θ ) = √ exp − ∑ .
σ 2π 2 i=1 σ
2) Pθ = P(λ ); θ =λ
n
∑ xi
e−nλ λ i=1
L (x1 , x2 , . . . , xn ; θ ) = n .
∏ xi!
i=1
13
3.2. MÉTHODE DU MAXIMUM DE VRAISEMBLANCE 14
∂2
Remarque 3.1 L’information de Fisher est égale à −E (log L) .
∂θ2
∂ ∂
L=0 ⇔ (log L) = 0. (3.1)
∂θ ∂θ
n
∂
∑ log f (xi , θ ) = 0 (équation de vraisemblance).
i=1 ∂θ
∂2 ∂2
L≤0 ⇔ (log L) ≤ 0. (3.2)
∂σ2 ∂θ2
n
!
n
!
∂
∑ xi
log L = −nλ + ∑ xi log λ − log ∏ xi! et (log L) = −n + i=1 =0
i=1 i=1 ∂λ λ
n
∑ Xi n
i=1
⇒ λ̂n = n = X̄n ⇔ ∑ Xi = nλ̂n .
i=1
∂2 ∑ Xi n
i=1
(log L) =− 2 = − ≤ 0.
∂λ 2 λ =λ̂n λ λ =λ̂n λ̂n
Exemple 3.4 Estimation du paramètre p d’une loi Binomiale : X B(n, p).
X ∈ {0, 1, 2, · · · , · · · , n} ; P(X = x) = Cnx px (1 − p)n−x .
n n
n
!
∑ xi ∑ (n − xi)
On a L= ∏ Cnx pi=1 (1 − p)i=1
i=1
!
n n n
⇒ log L = ∑ logCnx + ∑ Xi log p + ∑ (n − xi) log(1 − p)
i=1 i=1 i=1
n n
∂
∑ xi ∑ (n − xi) Xn
i=1 i=1
⇒ (log L) = − = 0 ⇒ p̂n =
∂p p 1− p n
et
∂2 n2
(log L) = − < 0.
∂ p2 p̂n (1 − p̂n )
p= p̂n
∂2 n
(log L) = − 2 ≤ 0.
∂m 2
m=m̂ σ
On vérifie aisément les propriétés suivantes de l’estimateur m̂n = X n obtenu :
E(X) = m : m̂n est sans biais.
σ2
V (X) = √ −→ 0 : m̂n est un estimateur convergent.
n n→+∞
2
∂ n 1
In (m) = −E 2
(log L) = 2 = : m̂n est un estimateur efficace.
∂m σ V (X)
n
∑ (xi − m)2
√ n 1
⇒ log L = −n log( 2π) − log θ − i=1
2 2 θ
n n
∂ n
∑ (xi − m)2 ∑ (xi − m)2
⇒ (log L) = − + i=1 = 0 ⇒ θ̂ = i=1
∂θ 2θ 2θ 2 n
et
∂2 n
(log I) =− ≤ 0.
∂ θ̂ 2 θ =θ̂ 2θ̂ 2
Exemple 3.7 Soit (X1 , · · · , Xn ) un échantillon de taille n issu d’une loi exponentielle. Déterminer
l’EMV associé à cet échantillon.
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
3.3. QUELQUES EXEMPLES D’E.M.V. 17
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
Chapitre 4
4.1 Introduction
L’estimation ponctuelle consiste à déterminer un estimateur T d’un paramètre θ et de prendre
pour estimation la valeur (ou la réalisation) θ0 de T sur un échantillon donné. Si l’échantillon
est de faible taille, l’estimation θ0 retenue peut être assez éloignée de la vraie valeur de θ .
Il apparaît, dès lors, préférable de déterminer un intervalle, qui a une probabilité au moins
égale à un niveau fixé, pour contenir la vraie valeur du paramètre.
L’estimation par intervalle de confiance consiste donc à déterminer un tel intervalle pour θ .
C’est-à-dire, qu’étant donné un réel α ∈ [0, 1], on cherche à déterminer l’intervalle I ⊂ R tel
que :
P (θ ∈ I) ≥ 1 − α.
18
4.3. ESTIMATION DE LA MOYENNE M D’UNE LOI NORMALE : X N (M, σ ) ET θ = M 19
P (m ∈ [a, b]) = P (a ≤ m ≤ b) = 1 − α.
∑ Xi
On fait appel à la moyenne empirique X = qui est un bon estimateur de m :
n
σ2
E(X) = m et V (X) = .
n
X −a X −b
⇒ σ = u1−α/2 et σ = −u1−α/2
√ √
n n
où u1−α/2 désigne le quantile d’ordre 1 − α/2 donné par les tables de la loi N (0, 1) ;
a = X − u1−α/2 . √σn
⇒
b = X +u σ
1−α/2 . √n .
Plus généralement, soit I = [a, b], et soit la variable aléatoire X. On considère la moyenne
Xn − m p
empirique X. La variable U = ; où m = E(X) et σX = V (X), est appelée fonction
σX
pivotale de m. La forme générale de l’intervalle de confiance pour m est :
h i
I = X − u1−α/2 .σX ; X + u1−α/2 .σX
4.4. ESTIMATION DE LA MOYENNE LORSQUE LA LOI DE X N’EST PAS LA LOI DE LAPLACE-GAUSS
X −m
• Si n ≤ 30 , la fonction pivotale de m est la variable T = S0 n
qui suit une loi de Student
√
n
T(n − 1). Et on a :
P (a ≤ m ≤ b) = P (−t ≤ T ≤ t) = 1 − α ; où t = t1−α/2 .
S0 n S0 n
⇒ a = X − t1−α/2 . √ et b = X + t1−α/2 . √
n n
et donc h S0 n S0 n i
I = X − t1−α/2 . √ , X + t1−α/2 . √ .
n n
• Et si n > 30 , la loi T(n − 1) converge vers la loi N (0, 1) ; et les valeurs de t sont données
par la table de la loi normale centrée réduite ;
h S0 n S0 n i
I = X − u1−α/2 . √ , X + u1−α/2 . √ .
n n
Exemple 4.1 : Soit un échantillon de taille n = 100 où on observe une variance de 1600. On
cherche à déteminer un intervalle de confiance pour l’écart type à un niveau de confiance de 95%.
On a 1 − α = 0, 95 u1−α/2 = 1, 96 Sn2 = 1600 ; d’où
h 40 40 i
σ ∈ 40 − 1, 96 √ ; 40 + 1, 96 √ = 34, 5 ; 45, 5 .
2 × 100 2 × 100
1 n1 (1) 1 n2 (2)
f1 = ∑ Xi ; f2 = ∑ Xi .
n1 i=1 n2 i=1
σ12
4.7.3 Intervalle de confiance pour le rapport de deux variances :
σ22
S12 /σ12
F(n1 − 1, n2 − 1) et l’intervalle de confiance est alors :
S22 /σ22
h 1 s2 1 s2 i
1 1
I= ; où F1 et F2 sont définies par les égalités suivantes :
F2 s22 F1 s22
P F(n1 − 1, n2 − 1) < F2 = 1 − α/2 et P F(n1 − 1, n2 − 1) < F1 = α/2.
F1 est le quantile d’ordre α/2 d’une loi de Fisher à (n1 − 1 , n2 − 1) degrés de liberté, et F2 le
quantile d’ordre 1 − α/2 d’une loi de Fisher à (n1 − 1 , n2 − 1) degrés de liberté.
Exemple 4.3 : n1 = 16 ; s21 = 25 ; n2 = 10 ; s22 = 20 et 1 − α = 0, 90. On a
S12 /σ12 1 1
F(15 ; 9) et F2 = F0,95 (15, 9) = 3, 006; F1 = F0,05 (15, 9) = = = 0, 33.
S22 /σ22 F0,95 (15, 9) 3, 006
Tests statistiques
5.1 Introduction
5.1.1 Exemples introductifs
Exemple 5.1 Dans une population, 60% des malades atteints d’une maladie M, survivent plus
de 6 ans. Un laboratoire produit un médicament qu’il expérente sur 40 patients choisis au hasard.
Et après 6 ans, 26 de ces derniers sont encore vivants.
On veut savoir, à un niveau de signification de 10%, si ce nouveau médicament est plus efficace
que le précédent.
Exemple 5.2 Un échantillon aléatoire de 100 professeurs du secondaire public montre que ceux-
ci reçoivent un salaire moyen de 250 000 F CFA avec un écart-type de 50 000 F CFA ; alors que
100 professeurs du secondaire privé, choisis au hasard, perçoivent un salaire moyen de 210 000
F CFA, avec un écart-type de 30 000 F CFA.
On veut vérifier, au niveau de signification de 1%, si le salaire moyen des professeurs du public
est supérieur de 50 000 F CFA à celui des professeurs du privé.
Exemple 5.3 On veut vérifier si une pièce de monnaie est régulière en la lançant 100 fois de
suite. On obtient 47 fois pile. On doit décider si on accepte, à un niveau de signification de 1%,
qu’elle est régulière ou non.
5.1.2 Problématique
Soit (X, Pθ ) un modèle statistique et Θ l’ensemble des valeurs de θ . Un test statistique consiste
à choisir, au vu des résultats fournis par un échantillon, entre des hypothèses relatives au
paramètre θ .
24
5.2. DÉFINITIONS 25
5.2 Définitions
Définition 5.1 Étant donné un problème de test statistique, on distingue deux types d’hypo-
thèses :
• l’hypothèse simple : elle est de la forme Hi : θ = θi
• l’hypothèse composite ou (multiple) : elle est de la forme Hi : {θ < θi } ou {θ > θi }
ou {θ 6= θi }.
Définition 5.2 Une règle de décision est une application δ définie de la façon suivante :
δ : (X1 , · · · , Xn ) −→ D = {D0 , D1 }
x = (x1 , · · · , xn ) 7−→ Di ∈ D.
Définition 5.3 Lors d’un test statistique, deux types d’erreurs sont possibles dans la prise de
décision :
• l’erreur de première espèce : elle consiste à refuser l’hypothèse H0 , et donc prendre la
décision D1 alors que cette hypothèse est vraie. On définit alors le risque de première
espèce noté α et défini par :
α = P (D1 /H0 )
• l’erreur de seconde espèce : elle consiste à accepter l’hypothèse H0 , c’est-à-dire prendre
la décision D0 alors que cette hypothèse est fausse. Elle est caractérisée par le risque de
deuxième espèce (ou risque de l’acheteur), c’est-à-dire le réel noté β suivant :
β = P (D0 /H1 ) .
Définition 5.4 On appelle matrice des risques la matrice définie par les risques α et β de la
façon suivante :
5.2. DÉFINITIONS 26
HH Di
HH
D1 D0
Hi HH
H0 α 1−α
H1 1−β = η β
Définition 5.5 La puissance d’un test est la probabilité η de rejeter H0 (de prendre la décion
D1 ) sachant qu’elle est fausse (H1 est vraie).
Définition 5.6 La région critique d’un test est le domaine W défini par
W = {x = (x1 , · · · , xn ) : δ (x1 , · · · , xn ) = D1 } .
W est la région de rejet de l’hypothèse H0 ; et la région d’acceptation de H0 est
W = {x = (x1 , · · · , xn ) : δ (x1 , · · · , xn ) = D0 } .
On a
α = P (D1 /H0 ) = P (W /H0 ) .
Pour la résolution du test, on détermine la région critique W , le risque α étant donné. Intuiti-
vement celle-ci est de la forme suivante :
W = {(x1 , · · · , xn ) : x > c} .
On a α = P (D1 /H0 ) = P X > c/m = m0 .
2
Sachant que X N (m, √ ), on obtient successivement :
36
X − 20 c − 20
1 − α = P X < c | m = 20 = P <
1/3 1/3
= P U < 3(c − 20)
h
= π 3(c − 20)] ⇒ 3(c − 20) = u1−α (5.1)
5.3. DÉTERMINATION DE LA RÉGION CRITIQUE W -MÉTHODE DE NEYMAN-PEARSON27
X − 20
avec U = N (0, 1).
1/3
β = P (D0 | H1 )
X − 21 c − 21
= P X < c | m = m1 P <
1/3 1/3
h i
= π 3(c − 21) ⇒ 3(c − 21) = uβ . (5.2)
Résolution
On a " !#
n n
L0 1
L1
= exp − 2
2σ ∑ (xi − m0)2 − ∑ (xi − m1)2 ≤k
i=1 i=1
!
n n
1 2 2
⇒− 2 ∑ (xi − m0) − ∑ (xi − m1 ) ≤ log k
2σ i=1 i=1
n
⇒ ∑ (xi − m0 + xi − m1 ) (xi − m0 − xi + m1 ) ≥ −2σ log k
i=1
n n(m21 − m20 )
⇒ (m1 − m0 ) ∑ xi ≥ − σ 2 log k
i=1 2
m21 − m20 σ 2 log k
⇔ (m1 − m0 )x ≥ c = −
2 n
Il en découle que :
c
a) si m1 < m0 alors W = {X : X ≤ A , A = }
m1 − m0
b) si m1 > m0 alors W = {X : X > A}
1. Uniformly Most Powerful
5.4. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 29
1) m1 < m0
a) σ connu
Étant donné le risque 1 − α, on a :
α = P (W | H0 )
= P X ≤ A | m = m0
X − m0 A − m0
= P √ ≤ √ | m = m0
σ/ n σ/ n
X − m0 A − m0
= P √ ≤ √
σ/ n σ/ n
A − m0
= π √
σ/ n
A − m0 σ
⇒ √ = uα et A = m0 + uα √
σ/ n n
Règle de décision
L
si X ≤ A alors on rejette H0 et donc m = m1
si X > A alors on accepte H0 et donc m = m0
σ
où A = m0 + uα √
n
b) σ inconnu et n > 30
1 n
Dans ce cas on estime σ par la variance empirique s2 = ∑ (xi − x)2.
n i=1
Mais comme
X −m
√ N (0 ; 1)
s/ n
alors
X − m0 A − m0 A − m0
P √ ≤ √ =α ⇒ √ = uα
s/ n s/ n s/ n
s
⇒ A = m0 + uα √ .
n
c) σ inconnu et n ≤ 30
5.4. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 30
X −m
On sait que dans ce cas √ T (n − 1), loi de Student à n − 1 degrés de liberté.
s/ n
A − m0 A − m0 s
α = P T (n − 1) < √ ⇒ √ = tα (n − 1) et A = m0 + tα (n − 1) √ ,
s/ n s/ n n
où tα (n − 1) est le quantile d’ordre α d’une loi de Student à n − 1 degrés de liberté.
2) m1 > m0
W = {X = (X1 , · · · , Xn ) | X ≥ A}
(
si X ≥ A alors on rejette H0 et donc m = m1
si X < A alors on accepte H0 et donc m = m0
a) σ connu
X − m0 A − m0
α = P (W | H0 ) = P X ≥ A | m = m0 =P √ ≥ √
σ/ n σ/ n
A − m0 σ
⇒π √ = 1−α et A = m0 + u1−α √ ,
σ/ n n
u1−α étant le quantile d’ordre 1 − α d’une loi normale centrée réduite.
b) σ inconnu et n < 30
X −m
Dans ce cas √ T (n − 1). On trouve
s/ n
s
A = m0 + t1−α (n − 1) √ .
n
c) σ inconnu et n ≥ 30
X −m s
√ N (0 1) ⇒ A = m0 + u1−α √
s/ n n
W = {X = (X1 , · · · , Xn ) | X ≥ A}.
Règle de décision
L
(
si X ≥ A alors on rejette H0
si X < A alors on accepte H0
a) σ connu
σ
La valeur critique est A = m0 + u1−α √ et le risque de deuxième espèce est :
n
A−m
β = P X < A | m > m0 = π √ = β (m).
σ/ n
X −m 1 n 02
√ T (n − 1) avec s = ∑ (xi − x)2 ,
s0 / n n − 1 i=1
5.4. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 32
s0
A = m0 + t1−α √ .
n
Règle de décision
L
(
si X ≤ A alors on rejette H0
si X > A alors on accepte H0
σ A−m
avec A = m0 + uα √ et β = P X > A | m = m0 = 1 − π √ .
n σ/ n
courbe d’efficacité
A−m
η = 1 − β (m) = π √
σ/ n
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
cas σ inconnu et n ≥ 30 ? ? ?
5.4. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 33
W1 = {X = (X1 , · · · , Xn ) : X ≤ A} et W2 = {X = (X1 , · · · , Xn ) : X ≥ B}
σ σ
A = m0 + uα/2 √ et B = m0 + u1−α/2 √ .
n n
Règle de décision
L
(
si X ∈ ]A, B[ alors on accepte H0
si X ∈
/ ]A, B[ alors on rejette H0
Puissance du test
L
B−m A−m
η = 1 − β (m) = P X ∈]A,
/ B[ | m 6= m0 = 1 − π √ +π √ , m 6= m0
σ/ n σ/ n
Courbe d’efficacité
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
.................................................................................................................................................
5.4. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 34
...................................
(
H0 : p = p0
(1)
H1 : p < p0
Règle de décision
L
si fn ≤ A alors on rejette H0
si fn > A alors on accepte H0
r
où A = p0 + uα p0 (1 − p0 )
n
...................................
(
H0 : p = p0
(2)
H1 : p > p0
Règle de décision
L
si fn ≥ A alors on rejette H0
si fn < A alors on accepte H0
r
où A = p0 + u1−α p0 (1 − p0 )
n
...................................
(
H0 : p = p0
(3)
H1 : p 6= p0
Règle de décision
L
(
si fn ∈ ]A, B[ alors on accepte H0
si fn ∈
/ ]A, B[ alors on rejette H0
5.4. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 35
r r
p0 (1 − p0 ) p0 (1 − p0 )
avec A = p0 + uα/2 et B = p0 + u1−α/2 .
n n
n " #
2 n
L0 σ1 1 1
2 1
≤k ⇔ 2
exp − 2
− 2 ∑ (xi − m)2 ≤ k
L1 0
σ 2 σ 0 σ 1 i=1
( 2 n )
n σ 1 1 1
⇔ log 1
2
− 2
− 2 ∑ (xi − m)2 ≤ log k
2 σ0 2 σ0 σ1 i=1
n 2
1 1 2 n σ1
⇔ 2
− 2 ∑ (xi − m) ≥ 2 log k + log
σ0 σ1 i=1 2 σ02
Région critique
L
n
a) Si σ12 > σ02 : W = {X = (X1 , · · · , Xn ) : ∑ (Xi − m)2 ≥ A},
i=1
" !#
2 n σ12
avec A = ! log k + log
1 1 2 σ02
2
− 2
σ0 σ1
et la règle de décision est la suivante
Règle de décision
L
n
si ∑ (Xi − m)2 ≥ A alors on rejette H0
i=1
n
si ∑ (Xi − m)2 < A alors on accepte H0
i=1
n
b) Si σ12 < σ02 : W = {X = (X1 , · · · , Xn ) : ∑ (Xi − m)2 < A}
i=1
Règle de décision
L
5.4. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 36
n
si ∑ (Xi − m)2 ≤ A alors on rejette H0
i=1
n
si ∑ (Xi − m)2 > A alors on accepte H0
i=1
n
∑ (Xi − m)2
i=1
Rappels : • Si m est connu χ 2 (n).
σ2
n
∑ (Xi − X)2
i=1
• Si m est inconnu, χ 2 (n − 1).
σ2
H0 : σ 2 = σ02
(
(1)
H1 : σ 2 > σ02
S0 2
Posons S0 2 = ∑ni=1 (Xi − m)2 . On a χ 2 (n)
σ2
Règle de décision
L
02
si S > A alors on rejette H0
2
si S0 ≤ A alors on accepte H0
!
S0 2
A A A
α = P (D1 | H0 ) = P 2
> 2 | σ 2 = σ02 2
= P χ (n) > 2 ⇒ 2
2
= χ1−α (n)
σ σ σ0 σ0
⇒ A = σ02 χ1−α
2
(n)
............................
5.4. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 37
H0 : σ 2 = σ02
(
(2)
H1 : σ 2 < σ02
Règle de décision
L
02
si S < A alors on rejette H0
2
si S0 ≥ A alors on accepte H0
............................
H0 : σ 2 = σ02
(
(3)
H1 : σ 2 6= σ02
Règle de décision
L
02
si S ∈
/ [A, B] alors on rejette H0
2
si S0 ∈ [A, B] alors on accepte H0
α = P X 1 − X 2 ∈]A,
/ B[ | H0
et
α
P X 1 − X 2 < A | H0 = P X 1 − X 2 > B | H0 =
2
Sous l’hypothèse H0
α = P X 1 − X 2 ∈]A,
/ B[ | H0
! !
X1 − X2 A X1 − X2 B
= P ≤ +P ≥
σX 1 −σ σX 1 −σ σX 1 −σ σX 1 −σ
X2 X2 X2 X2
Z
La détermination de A et B dépend donc de la loi de .
σZ
Z
• Si σ1 et σ2 sont connus N (0, σZ )
σZ
• Sinon, et si n < 30, la loi est celle d’une Student T (n1 + n2 − 2) :
Z
T (n1 + n2 − 2).
σZ
s
σ̂ 2 σ̂ 2
r
1 1
σ̂Z = + = σ̂ + .
n1 n2 n1 n2
Et on obtient
r
1 1
A = tα/2 σ̂ n1 + n2
r
1 1
B = t1−α/2 σ̂
+
n1 n2
5.4. QUELQUES EXEMPLES DE PROBLÈME DE TESTS STATISTIQUES 39
σ12
5.4.5 Comparaison de variances : 2
σ2
On s’intéresse au test suivant
σ2
H0 : 12 = 1
H0 : σ12 = σ22
(
σ2
⇔
H1 : σ12 6= σ22
σ12
H1 : 2 =
6 1
σ2
S2
si 21 ∈
/ ]A, B[ alors on rejette H0
S2
S21
si 2 ∈ ]A, B[ alors on accepte H0
S2
avec A = Fα/2 (n1 − 1, n2 − 1) et B = F1−α/2 (n1 − 1, n2 − 1).
5.5. EXERCICES 40
5.5 Exercices
Exercice 1
On réalise des mesures de hauteurs d’arbres dans une forêt sur un échantillon de 12 arbres.
On suppose que ces hauteurs sont distribuées selon une loi normale de moyenne et de va-
riance inconnues. Les résultats sont répertoriés dans le tableau suivant :
1. Donner une estimation de la hauteur moyenne des arbres, ainsi qu’une estimation de la
variance de cette hauteur.
2. Calculer un intervalle de confiance à 95% de cette hauteur.
Exercice 2
On suppose que des notes d’examen (sur 100), suivent une loi normale de moyenne théorique
m et d’écart-type σ = 15. Un échantillon de taille n = 25 est observé, on trouve x = 69, 2
Déterminer un intervalle de confiance pour m avec un coefficient de sécurité 90%.
Exercice 3
Lors d’un sondage auprès de 500 personnes et portant sur leurs opinions politiques, 180
personnes se sont déclarées favorables au parti A.
Estimer la proportion p des gens favorables au parti A au moyen d’un intervalle de confiance
de niveau 90%.
Exercice 4
Dans le cadre d’une étude sur la santé au travail, on a interrogé au hasard 500 salariés de
différents secteurs et de différentes régions de la Côte d’Ivoire. 145 d’entre eux déclarent avoir
déjà subi un harcèlement moral au travail.
1. Donner une estimation ponctuelle de la proportion de salariés ayant déjà subi un harcè-
lement moral au travail.
2. Donner une estimation de cette proportion par un intervalle de confiance à 90%.
3. Si avec les mêmes données on calculait un intervalle de confiance à 95%, serait-il plus
grand ou plus petit que celui trouvé à la question précédente ? (justifier sans calcul).
5.5. EXERCICES 41
Exercice 5
Une entreprise fabrique des sacs en plastique pour les enseignes de distribution. Elle s’inté-
resse au poids maximal que ces sacs peuvent supporter sans se déchirer.
On suppose ici que le poids maximal que ces sacs peuvent supporter suit une loi normale
d’espérance mathématique m et d’écart-type 3 kg.
Sur 200 sacs reçus, une grande enseigne de distribution constate un poids moyen de 57, 7 kg.
Donner un intervalle de confiance bilatéral de la moyenne des poids sur un échantillon de
taille 200, au seuil 1%.
Exercice 6
Afin de mieux gérer les demandes de crédits de ses clients, un directeur d’agence bancaire réa-
lise une étude relative à la durée de traitement des dossiers, supposée suivre une distribution
normale.
Un échantillon de 30 dossiers a donné :
1. Calculer la moyenne et l’écart-type des durées de traitement des dossiers de cet échan-
tillon.
2. En déduire les estimations ponctuelles de la moyenne m et de l’écart-type σ de la popu-
lation des dossiers.
3. Donner une estimation de m par intervalle de confiance au seuil de risque 5%.
Exercice 7
Dans un centre avicole, des études antérieures ont montré que la masse d’un œuf choisi
au hasard peut être considérée comme la réalisation d’une variable aléatoire normale X, de
moyenne m et de variance σ 2 . On admet que les masses des œufs sont indépendant les unes
des autres. On prend un échantillon de n = 36 œufs que l’on pèse. Les mesures sont données
(par ordre croissant) dans le tableau suivant :
Exercice 8
On suppose que le poids d’un nouveau né est une variable normale d’écart-type égal à 0, 5 kg.
Le poids moyen des 49 enfants nés au mois de janvier 2004 dans l’hôpital de Charleville-
Mézières a été de 3, 6 kg.
a) Déterminer un intervalle de confiance à 95% pour le poids moyen d’un nouveau né dans
cet hôpital.
b) Quel serait le niveau de confiance d’un intervalle de longueur 0, 1 kg centré en 3, 6 pour
ce poids moyen ?
Exercice 9
Exercice 10
On utilise une nouvelle variété de pommes de terre dans une exploitation agricole. Le ren-
dement de l’ancienne variété était de 41.5 tonnes à l’ha. La nouvelle est cultivée sur 100 ha,
avec un rendement moyen de 45 tonnes à l’ha et un écart-type de 11.25. Faut-il, au vu de ce
rendement, favoriser la culture de la nouvelle variété ?
Exercice 11
On se propose de tester la qualité d ?un lot important de pièces mécaniques. Soit X une carac-
téristique aléatoire de ces pièces dont la loi de probabilité est une loi normale de moyenne
21.32 et d’écart-type σ = 4. À la suite d’erreurs survenant lors de la fabrication de ces pièces,
on ignore si m égale 20 ou si m égale 22. On doit néanmoins prendre une décision. Pour cela
on prélève dans un lot un échantillon aléatoire de 25 pièces. Quelle décision doit-on prendre ?