Académique Documents
Professionnel Documents
Culture Documents
Fadoua BADAOUI
18 février 2019
Introduction
Méthodes d'estimation
3 Tests d'hypothèses
Introduction et méthodes
mesurable),
statistiques il est possible d'avoir une idée assez précise sur cette proportion
Figure échantillonnage
Dénition
Une population est l'ensemble des éléments qui forme le champs d'analyse
d'un individu envers le nouveau produit est une variable aléatoire (v.a.) qui
1
si l'individu est en faveur du nouveau produit
X =
0 sinon.
nouveau produit est égale à P{X = 1}. D'une manière générale, chaque
Dénition
Les v.a. X1 , . . . , Xn constituent un échantillon aléatoire de taille n (ou un
n
Y
∀(x1 , . . . , xn ) ∈ Rn , fX (x1 , . . . , xn ) = f (xi ).
i=1
Exemple
les quantités
X1 + . . . + Xn 1
et S2 = (Xi − X )2
X
X =
n n−1
Proposition
Soient x1 , . . . , xn des nombres réels et x leur moyenne. Alors
n n
(xi − x)2 = (xi − x)2 .
X X
min
x∈R
i=1 i=1
n n
(n − 1)s 2 = (xi − x)2 = xi2 − nx 2 .
X X
(1)
i=1 i=1
n n
(xi − x)2 = (xi − x + x − x)2
X X
i=1 i=1
n n n
2
(x − x)2
X X X
= (xi − x) + 2(x − x) (xi − x) +
i=1 i=1 i=1
| {z }
=0
n
(xi − x)2 + n(x − x)2
X
=
i=1
− x)2
Pn Pn
i=1 (x et de remarquer que i=1 xi = nx .
Fadoua BADAOUI (INSEA) Inférence 18 février 2019 12 / 194
Proposition
Soit X1 , . . . , Xn un échantillon issu d'une loi de moyenne µ et de variance
σ 2 < ∞. Alors
σ2
1- E[X ] = µ, 2- Var (X ) = , et 3- E[S 2 ] = σ 2 .
n
Introduction
Méthodes d'estimation
3 Tests d'hypothèses
Introduction et méthodes
Théorème
Si l'échantillon X1 , . . . , Xn est issu d'une loi normale N (µ, σ 2 ), alors
σ2
1- La v. a. X suit la loi normale N (µ, ).
n
S2
n
1 X
2- La v. a. (n − 1) = (Xi − X )2 suit la loi de khi-deux à n−1
σ2 σ2
i=1
degrés de liberté.
√ X −µ
3- La v. a. T = n suit une loi de student à n−1 degrés de
S
liberté. On note : T ∼ t(n − 1).
Remarque
En particulier, si l'échantillon X1 , . . . , Xn est issu d'une loi normale
N (µ, σ 2 ), alors
X −µ
σ = Z ∼ N (0, 1).
√
n
σ 2 < ∞.
Pn
moyenne µ et de variance Posons Sn = i=1 Xi , alors
n√ X − µ o
∀x ∈ R, lim P n ≤ x = P{Z ≤ x}.
n→∞ σ
Remarque
Sous les hypothèses du Théorème 2, le TCL conduit souvent à faire,
pour n assez grand, l'approximation suivante :
n√ X − µ √ x − µ o
∀x ∈ R, P{X1 + . . . + Xn ≤ x} = P n ≤ n n
σ σ
n √ xn − µ o
'P Z ≤ n .
σ
Exemple
Soit X une v.a. qui suit une loi Binômiale(n, p). Nous savons que X
peut s'écrire comme somme de n v.a. indépendantes et de même loi de
B ernoulli(P ), i.e. X = X1 + . . . + Xn . D'où, si n ≥ 30,
n X − np x − np o
∀x ∈ R, P{X ≤ x} = P p ≤p
np(1 − p) np(1 − p)
n x − np o
'P Z ≤ p .
np(1 − p) M
Introduction
Méthodes d'estimation
3 Tests d'hypothèses
Introduction et méthodes
manière naturelle. Il en est ainsi lorsque le paramètre est, par exemple, une
moyenne ou une proportion. Notons toutefois, que dans des cas compliqués,
Les origines de cette méthode remontent à Karl Pearson (1894). Elle est
Dénition
Considérons l'échantillon X1 , . . . , Xn , On appelle estimateur de θ obtenu
Pn
Xik
i=1
n = E[X k ] pour tout k ∈ {1, . . . , p}
où p = dim(θ).
Fadoua BADAOUI (INSEA) Inférence 25 février 2019 25 / 194
Exemple
Soit X1 , . . . , Xn un échantillon issu d'une loi de probabilité dont la
densité est donnée par
On a Z 1 Z 1
θ
E[X1 ] = x f (x; θ)dx = x θx θ−1 dx = .
0 0 θ+1
Ainsi θ = g (µ) = µ/(1 − µ) et donc son estimateur par la MM est
θb = X /(1 − X ) M
[E[X ]]2
β= E[X ]
Var [X ] et α = Var [X ]
échantillon issu d'une loi dont la pdf (ou pmf ) est f (x, θ), on appelle
Qn
L(x1 , . . . , xn , θ) = i=1 f (xi ; θ).
Dénition
On cherche la valeur de fonction des observations (x1 , . . . , xn ) qui assure
Dénition
Si la fonction de vraisemblance est continue et deux fois dérivable par
( ∂L
∂θ )θMV = 0
2
( ∂∂ 2Lθ )θMV < 0
i=1
b x)
θ( la valeur de θ qui maximise, la fonction de θ, L(x , θ) =
Qn
f (xi , θ).
i=1
La statistique θ(X)
b est appelée l'estimateur de maximum de vraisemblance
(EMV) de θ.
Remarque
Lorsque le paramètre θ est un élément de Rd , i.e. θ = (θ1 , . . . , θd ) ∈ Rd ,
la MMV consiste à résoudre le système
∂ ln L(x , θ)
= 0, pour i = 1 . . . d.
∂θi
1 n n
L(x , θ) = I]0,θ[ (max xi ) I]0,∞[ (min xi ) n'est pas dérivable au point
θn i=1 i=
n
max xi . Il n'est donc pas possible d'utiliser la dérivée pour trouver le
i=1
1
point qui maximise la fonction. Mais comme θ 7−→ est décroissante
θn
sur ]0, ∞[, la fonction de vraisemblance est maximale en θ = maxni= xi .
n
Donc l'estimateur du MMV pour θ est θb = max Xi .
i= M
Fadoua BADAOUI (INSEA) Inférence 25 février 2019 36 / 194
Table of Content
1 Statistiques d'Échantillonnage
Introduction
Méthodes d'estimation
3 Tests d'hypothèses
Introduction et méthodes
cette v.a. ait une moyenne nulle et une variance nulle. On aimerait donc
C1- La moyenne de l'erreur est nulle, i.e. E θb − θ = 0.
C2- La variance de l'erreur est minimale, i.e. si θb0 est un autre estimateur
de θ alors
Var θb0 − θ ≥ Var θb − θ .
b θb = E θb − θ .
Dénition
Un estimateur θbn est dit asymptotiquement sans biais pour de θ si
limn→+∞ E(θbn ) = θ
que l'on désire estimer. Pour cela, on prélève d'une façon indépendante n
pièces et on observe un échantillon X1 , . . . , Xn où chaque xi prend la valeur
minimale.
estimateurs θb1 et θb2 d'un paramètre θ, on choisira celui qui est sans biais et
si les deux sont sans biais on choisira celui dont la variance est la plus
petite.
Dénition
Soit θb un estimateur de θ, on dit que c'est l'Estimateur Sans Biais de
Variance Minimale (ESBVM) s'il est sans biais et tel que pour tout autre
Dénition
Soit θb un estimateur de θ, on dit que θb est un Estimateur Sans Biais de
Variance Minimale (ESBVM) s'il est sans biais et tel que pour tout autre
Proposition
Si un ESBVM existe, il est unique (p.s.)
Démonstration.
Si θb1θb2 sont deux ESBVM de θ, alors Var (θb1 ) = Var (θb2 ) = v . D'autre
et
Exercice
Soit X1 , . . . , Xn un échantillon issu de la loi U niforme[0, θ] où θ0
inconnue.
2 Calculer Var (T )
3 L'estimateur S = S(X1 , . . . , Xn ) = max(X1 , . . . , Xn )
1 S est-il sans biais ?
2 En déduire un ESB de θ, qu'on note U .
3 Calculer Var (U)
4 Comparer T et U .
Fadoua BADAOUI (INSEA) Inférence 25 février 2019 47 / 194
Dénitions & concepts
Dénition :Modèle statistique paramétrique
On appelle modèle statistique paramétrique de paramètre θ∈Θ pour un
Exemple
Une expérience consiste à recueillir les durées de vie de n ampoules
T (x1 , . . . , xn )
Exemple : Modèle des ampoules
Soit le modèle statistique (R , {exp(λ), λ 0}) .
+
Pn
t(x) = i=1 (xi ) est une statistique, avec xi ∼ exp(λ), λ 0
Donc t ∼ Γ(n, λ)
Le modèle image (R+ , {Γ(n, λ), λ 0})
Dénition
Soit T (X) une statistique. On dit que c'est une statistique exhaustive
pour θ si la loi conditionnelle de X sachant T (X) ne dépend pas de θ.
Exemple :
Une chaîne de production produit des pièces qui peuvent être défectueuses
représentée par une v.a. de Bernoulli qui prend la valeur 1 si la pièce est
pour θ.
Solution :
En utilisant l'indépendance et le fait que la somme de k v.a. de Bernoulli
P{X1 = x1 , . . . , Xn = xn , T = t}
P{X = (x1 , . . . , xn )| T = t} =
P{T = t}
t 6= ni=1 xi . Supposons que
P
Le numérateur est nul pour tout
Pn
t= i=1 xi , alors
Qn
= xi }
Qn xi 1−xi
i=1 P{Xi 1 i=1 θ (1 − θ)
P{X = (x1 , . . . , xn )| T = t} = = t
P{T = t} {n θt (1 − θ)n−t
1
= ,
{tn
Fadoua BADAOUI (INSEA) Inférence 25 février 2019 52 / 194
Statistique exhaustive
Proposition
Soient fX et fT les fdp de X et T respectivement. La statistique T est
Démonstration.
Pour des raisons de clarté nous démontrons la proposition dans le cas de
P{X = x , T (X) = T (x )}
P{X = x | T (X) = T (x )} =
P{T (X) = T (x )}
P{X = x }
=
P{T (X) = T (x )}
f (x )
= X .
fT (T (x ))
Théorème
[Théorème de Factorisation] Supposons que fX , la fdp de X existe. Alors la
∀x ∈ Rn fX (x ) = g (T (x )) h(x ) (2)
Remarque
Les fonctions g et h qui interviennent dans l'équation ( 2) ne sont pas
uniques.
Exemple
Soit X1 , . . . , Xn un échantillon issu d'une loi normale N (µ, σ 2 ), avec σ 2
connue.
− µ)2
Pn
1 i=1 (xi
fX (x ) = √ exp − (Par indépendance)
(σ 2π)n 2σ 2
nµ2 xi2
Pn Pn
1 µ i=1 xi i=1
= √ exp exp − 2 exp −
(σ 2π)n σ2 2σ 2σ 2
nµ2
Pn
µ i=1 xi
En choisissant g (T (x )) = exp − 2 exp , on constate que
2σ σ2
T (X) = i=1 Xi est une statistique exhaustive pour µ.
Pn
M
Exemple
Soit X1 , . . . , Xn un échantillon issu de la loi U niforme[0, θ], i.e.
1
fX1 (x) = I[0,θ] (x). La fdp de X = (X1 , . . . , Xn ) est alors donnée par
θ
n
1 1 n n
fX (x ) =
Y
I[0,θ] (xi ) = I]−∞,θ] (max xi ) I[0,∞[ (min xi ).
θn θn i=1 i=1
i=1
Remarque :
Dans tous ces exemples, les statistiques exhaustives sont des fonctions
Exemple
Soit X1 , . . . , Xn un échantillon issu d'une loi normale N (µ, σ 2 ) avec µ
et σ 2 inconnues. Dans ce cas, on a θ = (µ, σ 2 ) et
− µ)2
Pn
1 i=1 (xi
fX (x ) = √ exp −
(σ 2π)n 2σ 2
nµ2 h µ X n n
1 1 X
xi2
i
= √ exp − 2 exp − 2 xi − 2
(σ 2π)n 2σ σ 2σ
i=1 i=1
est indépendante de θ.
Remarque
x y − x 2 /n
Pour tout entier n > 1, la fonction g : (x, y ) 7→ , est une
n n−1
bijection. La statistique g (T(X)) = (X , S 2 ) est exhaustive pour θ.
Fadoua BADAOUI (INSEA) Inférence 25 février 2019 60 / 194
Famille exponentielle
Dénition
Un ensemble de fdp ou fpm de paramètre θ est une famille exponentielle
si ses éléments s'écrivent
k
X
f (x) = h(x) c(θ) exp wi (θ) ti (x) ,
i=1
Théorème
SoitX1 , . . . , Xn un échantillon dont f est la fdp commune. Si f est un
k
X
f (x) = h(x) c(θ) exp wi (θ) ti (x) .
i=1
Alors
n
X n
X
T (X) = t1 (Xj ), . . . , tk (Xj )
j=1 j=1
Exercice :
Montrez que X appartient à la famille exponentielle et donnez une
1 x ∼ B ernoulli(p), θ = p
2 x ∼ exp(λ), θ = λ 0
3 x ∼ N (µ, σ 2 ), θ = (µ, σ)
Théorème
[Rao-Blackwell] Soient T une statistique exhaustive et W un estimateur
sans biais pour θ. Alors, quand ça existe, E[W |T ] est un estimateur sans
Démonstration :
Il est évident que E[W |T ] est un ESB pour θ. Avant de prouver l'inégalité
Var (X2 ) = E[Var (X2 |X1 )] + Var [E(X2 |X1 )] "th de la variance totale"
X
x2 P(X2 = x2 |X1 = x1 ), pr le cas discret.
x2 ∈X2 (Ω)
E[X2 |X1 = x1 ] = Z (3)
x2 f (x2 |x1 ), pr
le cas continue.
T ∗ = E W |T et µ = E[W ].
Posons
E[T ∗ ] = E[E W |T ] = E W = µ, W
est un ESB.
Var (W )=Var (E W |T ) + E Var (W |T )]
∗) + E Var (W |T )] Var (T ∗ )
=Var (T
Remarque :
Nous pouvons donc nous restreindre, dans la recherche du meilleur
statistique exhaustive.
Dénition
Une statistique T est dite complète si, pour toute fonction g
Eθ [g (T )] = 0, ∀θ =⇒ Pθ {g (T ) = 0} = 1, ∀θ.
Exemple
Soit X1 , . . . , Xn un échantillon issu d'une loi uniforme sur ]0, θ[. D'après
le théorème de factorisation, la statistique T = X(n) est exhaustive pour
θ. Sa fdp est donnée par
nt n−1 θ−n
si 0 < t < θ
fT (θ) =
sinon.
0
d d θ
Z
0 = E [g (T )] = g (t)) nt n−1 θ−n dt
dθ θ dθ 0
d d
Z θ Z θ
= θ−n n g (t) t n−1 dt + θ−n n g (t) t n−1 d
dθ 0 dθ 0
d
n−1
−n −n n
= θ n g (θ) θ + θ θ Eθ [g (T )]
dθ | {z }
=0
−1
=θ n g (θ).
Eθ [g (T )] = 0, ∀θ =⇒ g (θ) = 0, ∀θ,
Exercice :
Soit X = (x1 , . . . , xn ) un échantillon i.i.d de B ernoulli(θ).
T = ni=1 Xi est une statistique exhaustive pour θ = p .
P
Soit
Théorème
Soit X1 , . . . , Xn un échantillon issu d'une famille exponentielle dont la fdp
est de la forme
p
X
f (x) = h(x) c(θ) exp wi (θ) ti (x) , θ ∈ Θ.
i=1
P
T (X) =
P
Alors, la statistique i t1 (Xi ), . . . , i tp (Xi ) est exhaustive et
complète.
Exemple
Soit X1 , . . . , Xn un échantillon issu d'une loi N (µ, σ 2 ). Nous avons déjà
montré que la statistique T(X) = (T1 (X), T2 (X)) = (X , S 2 ) est
exhaustive pour θ = (µ, σ 2 ). D'après le théorème ci-dessus, elle est
également complète. M
Théorème
[Lehmann-Scheé] Soit T une statistique exhaustive et complète pour θ, et
soit U un estimateur sans biais pour θ. Alors, E[U|T ] est l'ESBVM pour θ.
Démonstration.
Soit V un estimateur sans biais pour θ. On a alors E[U] = E[V ] = θ et
h i
donc E E[U|T ] − E[V |T ] = 0. Comme T est une statistique complète,
Corollaire :
Pour trouver un estimateur optimal, il sut de trouver un estimateur sans
Exemple
Soit X1 , . . . , Xn un échantillon issu d'une loi de Bernoulli(θ). On sait
n
que T = Xi est une statistique exhaustive et complète pour θ.
X
i=1
D'après le Corollaire, X est l'ESBVM pour θ. M
i=1
une statistique exhaustive et complète pour λ et que U = I{0} (X1 ) est
un estimateur sans biais pour θ qui n'est pas fonction de T . Pour
obtenir l'ESBVM pour θ, on calculera E[U|T ]. Soit t ∈ {0, 1, 2, . . . , n},
P{X1 =0, ni=2 Xi =t}
P
E[U|T = t] = P{X1 = 0|T = t} = P{T =t}
(n−1)t λt
× e e−ntλ = (1 − n1 )t .
−(n−1)λ
=θ n t λt
1
Ainsi E[U|T ] = 1 − T est l'ESBVM pour θ.
n M
Remarque :
Il n'est pas facile de trouver directement l'ESBVM quand il existe. Le
résultat suivant nous donne une borne inférieure pour l'ensemble des
variances des estimateurs sans biais. Ainsi , si l'ESBVM existe, c'est celui
peut descendre au-dessous d'un certain seuil qui est fonction de θ. Ce seuil,
trouve un estimateur sans biais dont la variance atteint ce seuil, alors il est
Théorème
[Cramér-Rao]
de l'échantillon.
d
Z Z Z Z
∂
··· f (x ; θ) dx = ··· f (x ; θ) dx ,
dθ ∂θ
Remarque
Proposition
Si f (x; θ) est telle que
d ∂
Z
i ∂ h ∂ i
E ln f (X; θ) = ln f (x ; θ) f (x ; θ) dx ,
dθ ∂θ ∂θ ∂θ
alors
h ∂ 2 i h ∂2 i
E ln f (X1 ; θ) = −E ln f (X1 ; θ)
∂θ ∂θ2
Démonstration.
∂
∂ f (X ;θ)
Posons : U= ∂θ ln f (X ; θ) = ∂θ
f (X ;θ)
∂
R f (x;θ) R ∂ ∂
R
On a : E[U] = ∂θ
f (x;θ) f (x; θ)dx = ∂θ f (x; θ)dx = ∂θ f (x; θ)dx = 0
puisque cette intégrale est égale à la constante 1. De plus :
∂2 ∂2
∂2
∂
f (X ;θ)f (X ;θ)−[ ∂θ f (X ;θ)]2 f (X ;θ) ∂
f (X ;θ)
∂θ2
ln f (X ; θ) = ∂θ 2
[f (X ;θ)]2
= ∂θ 2
f (X ;θ) − [ ∂θf (X ;θ) ]2
∂2
2 f (X ;θ)2
∂ ∂θ 2
d'où : E[ ∂θ 2 ln f (X ; θ)] = E[ f (X ;θ) ] − E[U ]
∂2
f (X ;θ) R ∂2 ∂2
E[ ∂θf2(X ;θ) ] = ∂θ
R
Or : 2 f (x; θ)dx = ∂θ 2 f (x; θ)dx = 0.
ce qui démontre la relation.
Exemple
Dans le cas d'une loi normale N (µ, σ 2 ), nous avons déjà vu que µb = X
et σc2 = S sont des estimateurs sans biais. Sont-ils de variances
minimales ?
h ∂ n 2 i h ∂2 i
avec θ = (µ, σ 2 )
Y
E ln f (Xi ; θ) = −nE ln f (X1 ; θ)
∂µ ∂µ2
i=1
h ∂2 1 (X1 − µ)2 i n
= −nE 2
ln √ − 2
= 2
∂µ σ 2π 2σ σ
σ2
Ainsi la variance de tout estimateur sans biais de µ est ≥ n . Or X est
2
un estimateur sans biais pour µ de variance σ
n , donc c'est l'ESBVM. M
Fadoua BADAOUI (INSEA) Inférence 25 février 2019 85 / 194
Table of Content
1 Statistiques d'Échantillonnage
Introduction
Méthodes d'estimation
3 Tests d'hypothèses
Introduction et méthodes
loi dépendant du paramètre θ∈R dont nous cherchons à établir une région
de conance.
Dénition
Soit b(θ) une fonction de θ. On appelle région de conance pour b(θ) de
Pθ b(θ) ∈ C(X) = 1 − α.
0.01 respectivement.
Dans ce qui suit nous allons établir des intervalles de conance dans les
cas les plus fréquemment rencontrés dans la pratique.
n o
P l(X) ≤ µ ≤ L(X) = 1 − α.
√ X −µ
n = Z ∼ N (0, 1).
σ
P Z ≥ zα = α.
P z1−α/2 ≤ Z ≤ zα/2 = 1 − α.
n √ X −µ o
P −zα/2 ≤ Z ≤ zα/2 = P −zα/2 ≤ n ≤ zα/2
σ
n σ σ o
= P X − zα/2 √ ≤ µ ≤ X + zα/2 √
n n
= 1 − α.
On en déduit que
h σ σ i
X − √ zα/2 , X + √ zα/2
n n
connue.
Les lois de Student étant tabulées, il est possible de trouver pour tout
α ∈]0, 1[, les valeurs tn−1, α où le réel tn−1, α est tel que
P{tn−1 ≥ tn−1, α } = α.
Notre objectif ici est donc de déterminer les statistiques l(X) et L(X) telles
que
P{l(X) ≤ µ ≤ L(X)} = 1 − α.
Fadoua BADAOUI (INSEA) Inférence 25 février 2019 94 / 194
Cas où la variance σ 2 est inconnue
√ X −µ
P −tn−1, α/2 ≤ n ≤ tn−1, α/2 = 1 − α,
S
ou encore
S S
P X − √ tn−1, α/2 ≤ µ ≤ X + √ tn−1, α/2 = 1 − α.
n n
S S
X − √ tn−1, α/2 , X + √ tn−1, α/2
n n
statistique
n
1
S̃ 2 = (Xi − µ)2
X
n
i=1
est un estimateur sans biais pour σ2. Comme X1 , ..., Xn sont indépendantes
et comme (Xi − µ)/σ suit la loi normale standard N (0, 1), on a bien
S̃ 2
n = χ2n . (5)
σ2
P χ2n ≥ χ2n, α = α.
nS̃ 2
P{χ2n, 1−α/2 ≤ ≤ χ2n, α/2 } = 1 − α,
σ2
et donc
nS̃ 2 nS̃ 2
( )
P 2 ≤ σ2 ≤ 2 = 1 − α.
χn, α/2 χn, 1−α/2
h nS̃ 2 nS̃ 2 i
,
χ2n, α/2 χ2n, 1−α/2
connue.
h (n − 1)S 2 (n − 1)S 2 i
,
χ2n−1, α/2 χ2n−1, 1−α/2
inconnue.
Fadoua BADAOUI (INSEA) Inférence 25 février 2019 99 / 194
I. C. pour la moyenne d'une loi quelconque
√ X −µ
∀x ∈ R, P{ n ≤ x} ' P{Z ≤ x}. (7)
σ
Remarque
montre que,
√ X −µ
∀x ∈ R, P{ n ≤ x} ' P{Z ≤ x}.
s
Ainsi pour n ≥ 30, un intervalle de conance approximatif de niveau
h S S i
X − √ zα/2 , X + √ zα/2 .
n n
Fadoua BADAOUI (INSEA) Inférence 25 février 2019 102 / 194
Exemple
Un manufacturier produit une nouvelle peinture dont il veut déterminer
le temps moyen de séchage µ. Un échantillon de 36 surfaces de tailles
égales a révélé un temps moyen de séchage x = 66.3 mn avec un
écart-type s = 8.4 mn. Construire un intervalle de conance de niveau
1 − α = 0.90 pour µ. M
8.4 8.4
h i
66.3 −√ 1.64 , 66.3 +√ 1.64 = [64.0, 68.6]
36 36
p p
h pb(1 − pb) pb(1 − pb) i
pb − √ zα/2 , pb + √ zα/2 .
n n
indépendants.
µX − µY et que
σX2 σY2
X − Y ∼ N µ X − µY , + .
m n
X − Y − (µX − µY )
Z= q ∼ N (0, 1), d'où
σX2 σY2
m + n
X −Y −(µX −µY )
P −zα/2 ≤ r ≤ zα/2 = 1 − α,
σ2 σ2
X Y
m
+ n
ou encore,
s s
2
σX σ 2 2
σX σ 2
P X −Y − + Y zα/2 ≤ µX − µY ≤ X − Y + + Y zα/2 =
m n m n
diérence µX − µY quand les variances σX2 et σY2 sont connues est donné
par
s s
h σX2 σ2 σX2 σ2 i
(X − Y ) − + Y zα/2 , (X − Y ) + + Y zα/2 .
m n m n
On suppose ici que σY2 = σX2 = σ 2 , où σ2 est aussi inconnue. Dans ce cas
1
σ2 SX2 = − X )2
Pm
possède au moins deux estimateurs : i=1 (Xi et
m−1
1
SY2 = − Y )2 .
Pn
i=1 (Yi En combinant les deux échantillons on
n−1
obtient un meilleur estimateur appelé l'estimateur unié sans biais de σ 2 ,
noté
2
Suni et donné par
é
2 (m − 1)SX2 + (n − 1)SY2
Sunié = .
n+m−2
Remarque
On a
n+m−2 2
Sunié ∼ χ2m+n−2 ,
σ2
2σ 4
d'où E[ S2unié ] = σ 2 et 2
Var (Sunié )= m+n−2 .
2
D'où Var (Sunié ) ≤ min(VarSX2 , VarSY2 ).
plus la diérence
σ2 σ2
X − Y ∼ N µX − µY , + ,
m n
et est indépendante de
2
Sunié. Par conséquent, la v.a.
(X − Y ) − (µX − µY )
q = tn+m−2 suit la loi de Student à m+n−2 degrés
Sunié m1 + n1
de liberté. D'où
( r )
1 1
P (µX − µY ) − (X − Y ) ≤ tm+n−2, α/2 + Sunié = 1 − α.
m n
Ainsi
r
1 1
h i
(X − Y ) ± Sunié + tm+n−2, α/2 .
m n
donné par :
s
(10 − 1)(0.5)2 + (8 − 1)(0.7)2
Sunié = = 0.596,
10 + 8 − 2
=[-0.199,0.999].
min(n, m) ≥ 30. On a σX2 ' SX2 et σY2 ' SY2 . D'où, par le TCL on a
(X − Y ) − (µX − µY )
q ' Z.
SX2 /m + SY2 /n
Ainsi un intervalle de conance de niveau (1 − α) pour la diérence
s s
h S2
X S2
Y SX2 S2 i
(X − Y ) − + zα/2 , (X − Y ) + + Y zα/2 .
m n m n
Fadoua BADAOUI (INSEA) Inférence 3 mai 2019 116 / 194
Cas de deux lois qlcq (Éch. de grandes tailles)
Dans ce cas, on doit faire appel aux théorèmes limites. On supposera alors
que m et n sont assez grands pour que les approximations soient justiées.
s s
h σX2 σ2 σX2 σ2 i
(X − Y ) − + Y zα/2 , (X − Y ) + + Y zα/2 .
m n m n
(X − Y ) − (µX − µY )
q ' Z.
SX2 /m + SY2 /n
s s
h S2
X S2
Y SX2 SY2 i
(X − Y ) − + zα/2 , (X − Y ) + + z .
m n m n α/2
(X − Y ) − (pX − pY )
q ' Z.
X (1 − X )/m + Y (1 − Y )/n
Ainsi un intervalle de conance approximatif de niveau 1 −α pour
s
h X (1 − X ) Y (1 − Y ) i
(X − Y ) ± + zα/2 .
m n
Fadoua BADAOUI (INSEA) Inférence 3 mai 2019 119 / 194
Exemple
Un sondage a montré que 132 des 200 électeurs et 90 des 150 électrices
interrogés préfèrent le candidat A. Notons pH et pF les proportions des
électeurs respectivement chez les hommes et chez les femmes qui sont
favorables au candidat A. Construire un intervalle de conance de
niveau 0.99 pour pH − pF . M
r
h (0.66)(0.34) (0.60)(0.40) i
(0.66 − 0.60) ± + 2.575
200 150
P{Fm−1,n−1 ≥ Fm−1,n−1, α } = α
σY2 SX2
Il s'ensuit que P Fm−1,n−1, 1−α/2 ≤ 2 2 ≤ Fm−1,n−1, α/2 = 1−α.
σX SY
σY2
On en déduit un intervalle de conance de niveau (1 − α) pour est
σX2
donné par
h S2 S2 i
Fm−1,n−1, 1−α/2 Y2 , Fm−1,n−1, α/2 Y2 .
SX SX
Fadoua BADAOUI (INSEA) Inférence 3 mai 2019 122 / 194
IC pour une diérence de moyennes : Échantillons appariés
hasard puis on a relevé les temps (en mn) qu'ils ont mis pour accomplir
cette tâche. Les six ouvriers ont ensuite suivi le programme de formation
formation.
Ouvrier N
◦ 1 2 3 4 5 6
Temps avant la formation (en mn) :X 6.0 5.0 7.0 6.2 6.0 6.4
Temps après la formation (en mn) :Y 5.4 5.2 6.5 5.9 6.0 5.8
alors les techniques que nous avons déjà développées dans le cas d'un seul
échantillon.
Fadoua BADAOUI (INSEA) Inférence 3 mai 2019 125 / 194
IC pour une diérence de moyennes : Échantillons appariés
6
SD SD 1
SD2 = (Di − D)2 .
X
D − √ t5,α/2 , D + √ t5,α/2 , où
6 6 5
i=1
Remarque
Dans le cas d'échantillons de grandes tailles (n ≥ 30), le TCL permet de
passer à l'hypothèse de normalité pour l'échantillon D1 , . . . , Dn .
Introduction
Méthodes d'estimation
3 Tests d'hypothèses
Introduction et méthodes
suivant
510; 614; 780; 603; 512; 501; 534; 603; 788; 650.
élaborer une règle de décision permettant de faire un choix entre les deux
hypothèses statistiques H0 et H1 .
• L'hypothèse nulle H0 . C'est l'hypothèse selon laquelle on xe a priori la
diérente de H0 .
Fadoua BADAOUI (INSEA) Inférence 7 mai 2019 130 / 194
Reconsidérons l'exemple de la durée de vie des ampoules fabriquées selon
un nouveau procédé.
La décision qui sera prise dépend donc de l'échantillon observé. Elle est
H0 vraie H0 fausse
Dénition
Les probabilités des erreurs de première et deuxième espèce sont notées
deuxième espèce.
complémentaires.
Dénition
Les hypothèses H0 : θ ∈ Θ0 et H1 : θ ∈ Θ1 , où Θ0 et Θ1 sont deux
Lorsque Θi est réduit à un seul élément, on dit que Hi est une hypothèse
que nous adoptons ici consiste à convenir que l'erreur de première espèce
est plus grave que l'erreur de deuxième espèce et donc il est préférable de
En pratique, les valeurs les plus courantes de α sont 0.10, 0.05 et 0.01. La
Si /R
(x1 , . . . , xn ) ∈ alors on décide de rejeter H1 et d'accepter H0 .
On suppose que la durée de vie des lampes suit une loi normale de même
H0 : m = m0 = 1000heures
H1 : m = m1 = 1075heures
d−1000
P(X > d) = p(Z 20 ) = 0.05
d−1000
20 = 1.6449 =⇒ d = 1033h
Règles de décision :
Notations
La fonction φ(x) = IR (x), dénie à partir de la région critique d'un test,
fonction test.
sup Pθ {(X1 , . . . , Xn ) ∈ R} ≤ α.
θ∈Θ0
connue ou inconnue...
Pr (R/H0 ) = (1 − α).
On en déduit la valeur du risque de deuxième espèce β :
Pr (R/H1 ) = (1 − β)
Introduction
Méthodes d'estimation
3 Tests d'hypothèses
Introduction et méthodes
Tests sur les moyennes : Dans ce paragraphe nous présentons les tests
les plus usuels concernant la moyenne d'une population.
Supposons que nous voulons tester, au niveau α ∈]0, 1[, l'hypothèse nulle
H0 H1 Rejeter H0 lorsque
√ |x − µ0 |
µ = µ0 µ 6= µ0 n > zα/2
σ
√ x − µ0
µ = µ0 µ > µ0 n > zα
σ
√ x − µ0
µ = µ0 µ < µ0 n < −zα
σ
H0 H1 Rejeter H0 lorsque
√ |x − µ0 |
µ = µ0 µ 6= µ0 n > tn−1,α/2
s
√ x − µ0
µ = µ0 µ > µ0 n > tn−1,α
s
√ x − µ0
µ = µ0 µ < µ0 n < −tn−1,α
s
Remarque
Il est possible de remplacer µ = µ0 par µ ≤ µ0 de l'hypothèse nulle
dans la deuxième ligne du tableau ( ou par µ ≥ µ0 dans la troisième
ligne du tableau) sans rien changer à la décision. Cette remarque reste
valable pour tous les tableaux de ce genre qui vont suivre.
H0 H1 Rejeter H0 lorsque
√ |x − µ0 |
µ = µ0 µ 6= µ0 n > zα/2
σ̃
√ x − µ0
µ = µ0 µ > µ0 n > zα
σ̃
√ x − µ0
µ = µ0 µ < µ0 n < −zα
σ̃
cas de gure :
H0 H1 Rejeter H0 lorsque
|x − y |
µ1 − µ 2 = 0 µ1 − µ2 6= 0 q > zα/2
σ12 /m + σ22 /n
x −y
µ1 − µ 2 = 0 µ1 − µ 2 > 0 q > zα
σ12 /m + σ22 /n
x −y
µ1 − µ 2 = 0 µ1 − µ 2 < 0 q < −zα
σ12 /m + σ22 /n
H0 H1 Rejeter H0 lorsque
|x − y |
µ1 − µ2 = 0 µ1 − µ2 6= 0 p > tm+n−2,α/2
Sunié 1/m + 1/n
x −y
µ1 − µ2 = 0 µ1 − µ2 > 0 p > tm+n−2,α
Sunié 1/m + 1/n
x −y
µ1 − µ2 = 0 µ1 − µ2 < 0 p < −tm+n−2,α
Sunié 1/m + 1/n
(m − 1)SX2 + (n − 1)SY2
r
où Sunié = est l'écart-type unié.
m+n−2
Fadoua BADAOUI (INSEA) Inférence 7 mai 2019 156 / 194
Cas de deux populations de lois qlcq : Éch. de grandes tailles
Supposons que nous voulons tester, au niveau α ∈]0, 1[, l'hypothèse nulle
H0 H1 Rejeter H0 lorsque
|x − y |
µ1 − µ2 = 0 µ1 − µ2 6= 0 q > zα/2
σ˜1 2 /m + σ˜2 2 /n
x −y
µ1 − µ2 = 0 µ1 − µ 2 > 0 q > zα
σ˜1 2 /m + σ˜2 2 /n
x −y
µ1 − µ2 = 0 µ1 − µ 2 < 0 q < −zα
2
σ˜1 /m + σ˜2 /n 2
Supposons que nous voulons tester, au niveau α ∈]0, 1[, l'hypothèse nulle
H0 H1 Rejeter H0 lorsque
(n − 1)S 2
σ = σ0 σ 6= σ0 > χ2n−1,α/2 ou < χ2n−1,1−α/2
σ02
(n − 1)S 2
σ = σ0 σ > σ0 > χ2n−1,α
σ02
(n − 1)S 2
σ = σ0 σ < σ0 < χ2n−1,1−α
σ02
Nous avons vu, lors des tests de comparaison de deux moyennes, comment
Supposons que nous voulons tester, au niveau α ∈]0, 1[, l'hypothèse nulle
N (µ1 , σ12 ) et d'un échantillon Y1 , . . . , Yn issu d'une loi N (µ2 , σ22 ) que l'on
suppose indépendants.
H0 H1 Rejeter H0 lorsque
S12
σ1 = σ2 σ1 6= σ2 > Fm−1,n−1,α/2 ou < Fm−1,n−1,1−α/2
S22
S12
σ1 = σ2 σ1 > σ2 > Fm−1,n−1,α
S22
S12
σ1 = σ2 σ1 < σ2 < Fm−1,n−1,1−α
S22
Dans ce paragraphe nous présentons les tests les plus usuels concernant p
la probabilité de succès dans une expérience à deux issues possibles :
Succès et échec.
Supposons que nous voulons tester, au niveau α ∈]0, 1[, l'hypothèse nulle
H0 H1 Rejeter H0 lorsque
√ |b
p − p0 |
p = p0 p 6= p0 n p > Zα/2
p0 (1 − p0 )
√ pb − p0
p = p0 p > p0 n p > Zα
p0 (1 − p0 )
√ pb − p0
p = p0 p < p0 n p < −Zα
p0 (1 − p0 )
H0 H1 Rejeter H0 lorsque
|pb1 − pb2 |
p1 = p2 p1 6= p2 p > Zα/2
pb12 (1 − pb12 )(1/n + 1/m)
pb1 − pb2 ,
p1 = p2 p1 > p2 p > Zα
pb12 (1 − pb12 )(1/n + 1/m)
pb1 − pb2
p1 = p2 p1 < p2 p < −Zα
pb12 (1 − pb12 )(1/n + 1/m)
mpb1 + npb2
où pb12 = .
m+n
niveau α = 0.05.
pb − pb2
On rejette l'hypothèse H0 si p 1 > Zα . Or on a
pb12 (1 − pb12 )
Remarque
Dans le cas de deux échantillons appariés, on se ramène au cas d'un
seul échantillon en considérant l'échantillon des diérences.
Introduction
Méthodes d'estimation
3 Tests d'hypothèses
Introduction et méthodes
Dénition
On appelle puissance d'un test la probabilité de rejeter H0 alors qu'elle est
d−1000
P(X > d) = p(Z 20 ) = 0.05
d−1000
20 = 1.6449 =⇒ d = 1033h
Règles de décision :
D'où β = 0, 0179.
La probabilité de refuser H1 alors que cette hypothèse est vraie est donc
égale à 0, 0179, elle est assez faible ; la puissance du test est égale à 0, 9821.
1 − β ≥ α.
Dénition
Soit C une classe de tests pour tester H0 : θ ∈ Θ0 contre H1 : θ ∈ Θ1 . Et
continuité)
a- (Susance) Tout test de taille α dont la région critique vérie (8) est
UPP dans l'ensemble des tests de niveau α.
admet une région critique qui vérie (8) sauf sur un négligeable.
test de taille α qui est basé sur T et de région critique S est UPP de
niveau α si
t ∈ S
si g (t, θ1 ) > k g (t, θ0 )
(9)
t ∈
/S si g (t, θ1 ) < k g (t, θ0 )
Dénition
Une famille de f.d.p. {g (t, θ) : t ∈ R, θ ∈ Θ ⊂ R} est dite à rapport de
vraisemblance monotone (RVM) si, pour tout θ1 < θ2 , la fonction
g (t, θ2 )
est croissante en t sur ∪2i=1 {t ∈ R : g (t, θi ) > 0}.
g (t, θ1 )
Exemple
Soient X1 , . . . , Xn un échantillon issu d'une loi de Poisson de paramètre
θ et θ1 θ.
x
θ i exp(−θ1 )
1
Qn
i=1
Pn
f (X1 ,...,Xn ;θ1 )
f (X1 ,...,Xn ;θ) = xi !
Qn θxi exp(−θ) = exp −(θ1 − θ)( θθ1 ) i=1 xi =T (X )=λ
i=1 xi !
monotone en T (x).
Exemple
Soient X1 , . . . , Xn un échantillon issu d'une loi de Bernoulli de
paramètre θ = p .
θ
P(X = x) = exp(x ln( 1−θ ) + ln(1 − θ))
critique est donnée par R={T> t0 } est UPP au niveau α = Pθ0 {T > t0 }.
Remarque
Il est clair que par raisonnement analogue, on peut montrer que pour
tout t0 , le test de région critique R={T< t0 } est UPP au niveau
α = Pθ0 {T < t0 } pour tester H0 : θ ≥ θ0 contre H1 : θ < θ0 .
Donc W = {X ≥ µ0 + σU√1n−α }. M
Fadoua BADAOUI (INSEA) Inférence 17 mai 2019 193 / 194
Exemple
Soit X1 , . . . , Xn un échantillon issu de la loi exponentielle de moyenne µ
1
(i.e. f (x, θ) = θe−θx I[0,∞[ (x), où θ =
> 0). Déterminer, s'il existe, le
µ
test UPP au niveau α pour tester H0 : µ ≥ µ0 vs H1 : µ < µ0 . Notons
que cela reviens à tester H0 : θ ≤ θ0 vs H1 : θ > θ0 . La fonction de
vraisemblance est f (x1 , . . . , xn , θ) = θn I[0,∞[ (xi ) e−θ xi . La loi de
Y P