Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
1 Rappels et préliminaires 3
1.1 Espérance et variance . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Retour à la loi normale . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Lois dérivées de la loi normale . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Loi de Khi-deux χ2 (p) . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Loi de Student t(n) . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.3 Loi de Fisher-Snedecor F(n, p) . . . . . . . . . . . . . . . . 7
1.4 Théorème central limite et applications : approximations de la loi bi-
nomiale, loi de poisson par loi normale . . . . . . . . . . . . . . . . . 7
1.4.1 Approximation de la loi binomiale par la loi normale . . . . . 8
1.4.2 Approximation de la loi de Poisson par la loi normale . . . . . 8
1.4.3 Approximation de la loi binomiale par la loi de Poisson . . . . 8
1.5 Autres Théorèmes asymptotiques . . . . . . . . . . . . . . . . . . . . 9
2 Échantillonnage 10
2.1 Quelques types d’échantillonnages . . . . . . . . . . . . . . . . . . . 11
2.1.1 Échantillonnage stratifié . . . . . . . . . . . . . . . . . . . . 11
2.1.2 Échantillonnage par grappes . . . . . . . . . . . . . . . . . . 11
2.1.3 Échantillonnage systématique . . . . . . . . . . . . . . . . . 12
2.1.4 Échantillonnage de commodité . . . . . . . . . . . . . . . . . 12
2.1.5 Échantillonnage par quotas . . . . . . . . . . . . . . . . . . . 12
2.1.6 Échantillonnage aléatoire simple . . . . . . . . . . . . . . . . 12
2.2 Distribution d’échantillonnage . . . . . . . . . . . . . . . . . . . . . 14
2.2.1 La moyenne d’échantillonnage . . . . . . . . . . . . . . . . . 14
2.2.2 Lois de probabilité de la moyenne . . . . . . . . . . . . . . . 15
2.2.3 La variance d’échantillonnage . . . . . . . . . . . . . . . . . 15
2.2.4 Lois de probabilité de la Variance . . . . . . . . . . . . . . . 16
2.3 La proportion d’échantillonnage . . . . . . . . . . . . . . . . . . . . 16
2.3.1 Cas ESAR . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.2 Cas ESSR . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3.3 Lois de probabilité d’une proportion . . . . . . . . . . . . . . 17
1
TABLE DES MATIÈRES
3 Estimation 19
3.1 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.1.1 Quelques estimateurs . . . . . . . . . . . . . . . . . . . . . . 20
3.1.2 Qualité des estimateurs . . . . . . . . . . . . . . . . . . . . . 21
3.1.3 Estimation par la méthode des moments . . . . . . . . . . . . 22
3.1.4 Estimation par la méthode de maximum de vraisemblance . . 24
3.2 Estimation par intervalle de confiance . . . . . . . . . . . . . . . . . 26
3.2.1 Intervalle de confiance pour la moyenne . . . . . . . . . . . . 27
3.2.2 Intervalle de confiance pour la proportion . . . . . . . . . . . 28
3.2.3 Intervalle de confiance pour la variance . . . . . . . . . . . . 28
3.2.4 Précision d’une estimation par intervalle de confiance . . . . . 29
4 Tests statistiques 30
4.1 Tests pour une moyenne . . . . . . . . . . . . . . . . . . . . . . . . 32
4.2 Tests pour une variance . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.3 Tests pour une proportion . . . . . . . . . . . . . . . . . . . . . . . . 32
2
Chapitre 1
Rappels et préliminaires
Rappelons que :
cov(X, Y ) = E[(X − E(X))(Y − E(Y )] = E(XY ) − E(X)E(Y ) .
– Si X et Y sont deux variables aléatoires indépendantes, alors :
Définition 1
Soit X une variable aléatoire.
– Si E(X) = 0, on dit que X est une variable aléatoire centrée.
– Si l’écart-type σX = 1, on dit que X est une variable aléatoire réduite.
– Si E(X) = 0 et σX = 1, on dit que X est une variable aléatoire centrée
réduite.
Le théorème ci-après donne la manière de manipuler la somme de deux variables
aléatoires indépendantes suivant la même loi (cas binomial, de poisson et le cas nor-
mal).
3
CHAPITRE 1. RAPPELS ET PRÉLIMINAIRES
Exercices :
Soit X une variable normale centrée réduite.
1. Pour quelle valeur x de X, 20% des valeurs observées de X sont-elles extérieures
à l’intervalle (-x,x) ?
2. Soit Y ∼ N (3, 3) . calculer les probabilités suivantes :
– P(2<Y<5)
– P(Y<3,5)
– P(0<Y)
– P(|Y-3|>6)
3. Soit Z ∼ N (0, 2) . calculer les probabilités suivantes :
– P(0<Z<1)
– P(Z<2.04)
– P(0<Z)
– P(|Z-1|>3)
4. Soit T ∼ N (5, 1) . calculer les probabilités suivantes :
– P(3<T<5)
– P(T<3.11)
5. Considérons Z1 ∼ N (m, σ) . Quelle est la valeur de la probabilité :
P(m − σ < Z1 < m + σ) ?
Solutions :
Par conséquent, ceci revient à chercher la valeur de x tel que P(X>x)= 0,1.
4
1.2. RETOUR À LA LOI NORMALE
– P(|Y − 3| > 6) = P(Y > 9) + P(Y < −3) = P(X > 2) + P(X < −2)
= 1 − Φ(2) + 1 − Φ(2) = 0, 0455 .
= 0, 6915 − 05 = 0, 1915 .
– P(0<Z)=P(0<X)=0,5.
– P(|Z − 1| > 3) = P(4 < Z) + P(Z < −2) = P(2 < X) + P(X < −1)
= 1 − Φ(2) + 1 − Φ(1) = 0, 1815 .
5
CHAPITRE 1. RAPPELS ET PRÉLIMINAIRES
Z1 − m
Or Z1 ∼ N (m, σ) . Par conséquent, ∼ N (0, 1).
σ
Ce qui revient à calculer la probabilité suivante :
P (-1<X<1), avec X ∼ N (0, 1).
où,
Z +∞
Γ(r) = tr−1 exp (−t) dt (fonction gamma d’Euler).
0
E(X) = p et V ar(X) = 2p .
6
1.4. THÉORÈME CENTRAL LIMITE ET APPLICATIONS : APPROXIMATIONS
DE LA LOI BINOMIALE, LOI DE POISSON PAR LOI NORMALE
Remarque 3
Si X1 , X2 , · · · , Xn est une suite de v.a indépendantes et identiquement distribuées
Xn
(iid) suivant une loi normale N (0, 1) . Alors la v.a U = Xi2 suit la loi de khi-
i=1
deux à n degrés de liberté (ddl).
Autrement dit, la loi de khi-deux est résultat d’une somme des carrées de variables
normales centrées réduites.
Remarque 5
– Le théorème de la limite centrale (ou central limite) peut être formulé pour
Xn
Sn = Xi .
i=1
Sn − nµ
En effet, pour n suffisamment grand, √ suit la loi normale N (0, 1) .
σ n
7
CHAPITRE 1. RAPPELS ET PRÉLIMINAIRES
X − np
p ≈ N (0, 1) lorsque n > 30, np ≥ 5 et n(1 − p) ≥ 5 .
np(1 − p)
X −λ
√ ≈ N (0, 1) lorsque λ > 15.
λ
P(λ) ≈ N (λ, λ) .
e−λ λk
X ∼ B(n, p) et ( np → λ) ⇒ Cnk pk (1 − p)n−k ≈ , k∈N.
k!
On dit que la variable binomiale est asymptotiquement une variable de Poisson.
B(n, p) ≈ P(np) .
8
1.5. AUTRES THÉORÈMES ASYMPTOTIQUES
9
Chapitre 2
Échantillonnage
Définition 10
– Échantillonnage : c’est l’opération qui consiste à sélectionner de façon organi-
sée les éléments de l’échantillon.
– Base de sondage : présentation ordonnée de tous les éléments considérés par
l’enquête constituant la population.
– Erreur d’échantillonnage : écart entre les résultats obtenus auprès d’un échan-
tillon et ceux obtenus en procédant par un recensement comparable de la popu-
lation. Plus la taille de l’échantillon est grande plus l’erreur d’échantillonnage
diminue.
– Fraction ou taux de sondage : proportion des éléments de la population qui
font partie de l’échantillon. C’est le rapport entre la taille de l’échantillon n, et la
10
2.1. QUELQUES TYPES D’ÉCHANTILLONNAGES
taille de la population N.
n
f= × 100 .
N
N = N1 + N2 + · · · + Np .
Exemple :
On souhaite étudier un caractère chez la population des étudiants des universités maro-
caines, on considère que chaque strate est composée des étudiants d’une même univer-
sité. Il y a autant de strates que d’universités. Ensuite, nous procédons par échantillon-
nage simple sur chaque université.
Remarque 11
Ce type d’échantillonnage est effectué lors de l’existence de sous-ensembles homo-
gènes au sein de la population. C’est à dire avec des variances internes petites et va-
riances externes grandes. Cette méthode assure la bonne représentation de tous les
strates dans l’échantillon.
Exemple :
On souhaite étudier l’activité favorite pour les étudiants de la deuxième année d’écono-
mie et gestion au Maroc. Il serait trop coûteux et trop long d’interroger chaque étudiant
de 2ème année. On sélectionne plutôt au hasard 7 facultés de tout le pays. Ces facul-
tés fournissent des grappes d’échantillons. On sonde ensuite chaque étudiant de 2ème
année d’économie et gestion de chacune des 7 grappes. Les étudiants inclus dans ces
11
CHAPITRE 2. ÉCHANTILLONNAGE
grappes représentent, en effet, tous les étudiants de la 2ème année d’économie et ges-
tion au Maroc.
Exemple :
On veut construire un échantillon de 100 individus. La structure de la population selon
un échantillonnage par quotas, basé sur le sexe des individus, peut être comme suit :
On va choisir 40% des femmes et 60% des hommes.
12
2.1. QUELQUES TYPES D’ÉCHANTILLONNAGES
que l’on traite de manière directe la population de base sans modification ou prépara-
tion préalable et que la probabilité d’inclusion des éléments de la population est la
même pour tous.
Exemple :
Soit la population P = {1, 2, 3, 4} . Si l’on veut construire deux échantillons de
taille n=3, l’échantillon E1 = {1, 2, 2} est considéré différent de l’échantillon
E2 = {2, 2, 1} dans ce type d’échantillonnage.
Proposition 12
Dans le cas d’un ESAR, le nombre d’échantillons possibles est de N n .
Exemple :
Soit la population P = {1, 2, 3, 4} . Si l’on veut construire deux échantillons de
taille n=3, quatres possibilités se présentent :
E1 = {1, 2, 3} E2 = {1, 2, 4} E3 = {1, 4, 3} E2 = {2, 3, 4} .
Proposition 13
n N!
Dans le cas d’un ESSR, le nombre d’échantillons possibles est de CN = .
(N − n)! n!
L’inconvenient de ce type d’échantillonnage est la possibilité de choisir des éléments
éloignés, ce qui risque de créer des échantillons non homogènes.
On dit que L’ESAR est un échantillonnage non exhaustif puisque, pour construire
l’échantillon, chaque élément est remis dans la population, une fois choisi. L’ESSR est
un échantillonnage exhaustif.
En pratique :
– si la population est finie et qu’on effectue un ESAR, alors la population est consi-
dérée infinie.
– si la population est infinie (N ≫ n) et qu’on effectue un ESSR, alors l’échan-
tillonnage effectué est assimilé à un ESAR.
Lorsque (n ≥ 30) et (le taux de sondage ≤ 5%), on peut assimiler un ESSR à un ESAR.
13
CHAPITRE 2. ÉCHANTILLONNAGE
2 σ2
E(X) = µ σX = V ar(X) = .
n
Par le TCL, on a :
σ
X ∼ N (µ, √ ) .
n
autrement,
X −µ
√ ∼ N (0, 1) .
σ/ n
Remarque 16
σ
– L’écart-type de l’échantillon σX = √ est appelé erreur standard de la
n
moyenne d’un échantillon aléatoire est simple.
14
2.2. DISTRIBUTION D’ÉCHANTILLONNAGE
Cas d’ESSR
Soit X une Variable aléatoire sur la population P et X1 , X2 , · · · , Xn un ESSR.
La moyenne de l’échantillon ainsi que l’espérance de la moyenne de l’échantillon
gardent la même forme. Par contre la variance diffère et sera égale à :
2 N − n σ2
σX = V ar(X) =
N −1 n
Remarque 17
N −n
– le coefficient est appelé coefficient d’exhaustivité.
N −1
15
CHAPITRE 2. ÉCHANTILLONNAGE
Remarque 18
Notons que dans le cas d’un ESSR, l’espérance de la variance prendra la forme sui-
vante :
N n−1 2
E(S 2 ) = × σ .
N −1 n
N
est appelé coefficient d’exhaustivité.
N −1
Si la population mère est gaussienne (càd. Xi ∼ N (µ, σ)). Alors, on a les résultats
suivants :
nS 2
– ∼ χ2 (n − 1)
σ2
n
X
(Xi − X)2
⇔ i=1 ∼ χ2 (n − 1) .
σ2
– Quand σ √est inconnue, on utilise le résultat suivant :
n−1
(X − µ) ∼ t(n − 1) (student à n-1 degrés de liberté).
S
avec S est la racine de S 2 . C’est l’écart-type de l’échantillon.
16
2.3. LA PROPORTION D’ÉCHANTILLONNAGE
n
1X
fn = Xi .
n i=1
L’espérance de fn est donc :
E(fn ) = p .
La variance de fn est :
p(1 − p) pq
V ar(fn ) = = .
n n
Avec q=1-p.
Remarque 19
La quantité :
√
pq
σfn = √
n
s’appelle l’erreur standard de la proportion d’échantillonnage aléatoire simple.
17
TABLE 2.1 – Récapitulatif d’échantillonnage
n n n
1X 1X 1X 2
Forme X = Xi fn = Xi (Xi sont des variables de Bernoulli) S2 = (Xi − X)
n i=1 n i=1 n i=1
n−1 2
Espérance µ (de la population parente) p (de la population parente) - ESAR ou population infinie : σ
n
N n−1 2
-ESSR ou population finie : σ
N −1 n
σ2 pq
Variance -ESAR ou population infinie : -ESAR ou population infinie : Population de loi normale :
n n
N − n σ2 N − n pq 2(n − 1) 4
-ESSR ou population finie : -ESSR ou population finie : σ
N −1 n N −1 n n2
18
n − 1 2
σ2 S2 − σ
X ∼ N (µ, ) , si : -ESAR ou population infinie - Généralement : p n ∼ N (0, 1)
n 2
V ar(S )
r
pq
1- n>10, avec population normale( µ, σ 2 ) fn ∼ N (p, ) -Si la population parente est gaussienne :
n
n
2
X
(xi − X)
2
nS i=1 2
Lois de probabilité 2- n ≥ 30 quelque soit la loi de la population (ESAR ou ESSR) : - ESSR ou population finie = ∼ χ (n − 1)
σ2 σ2
r s
pq N −n
3- n<30 avec ESAR fn ∼ N (p, ) -Si σ est inconnu :
n N −1
√
X−µ n−1
σ ∼ t(n − 1) (X − µ) ∼ t(n − 1) (student à n-1 degrés de liberté)
√ S
n
Estimation
Les statistiques que nous allons définir pour la moyenne, la variance et la propor-
tion, et qui serviront d’estimateurs de ces valeurs vont permettre de :
– estimer un paramètre inconnu de la population (estimation ponctuelle),
– donner une zone d’appartenance potentielle du paramètre recherché (intervalle
de confiance),
– prendre des décisions (tests statistiques).
Pour toutes ces fins, les distributions d’échantillonnage, exposées dans le cha-
pitre précédent, vont jouer un rôle crucial, notamment dans le cas des intervalles de
confiance.
19
CHAPITRE 3. ESTIMATION
20
3.1. ESTIMATION PONCTUELLE
Définition 21
On appelle Biais de θ̂ pour θ la valeur :
bθ (θ̂) = E(θ̂) − θ .
– Un estimateur θ̂ est dit sans biais si E(θ̂) = θ . Dans le cas contraire, on dit que
l’estimateur θ̂ est biaisé.
– Un estimateur θ̂ de θ est asymptotiquement sans biais si :
lim E(θ̂) = θ .
n→+∞
– Un estimateur θ̂ de θ est dit convergent si :
lim P(|θ̂ − θ| > ) = 1 .
n→+∞
Si θ̂ est un estimateur sans biais ou asymptotiquement sans biais de θ et si sa va-
riance tend vers 0 lorsque n tend vers l’infini, alors θ̂ est un estimateur consistant
de θ .
Théorème 22
Tout estimateur consistant est convergent.
Remarque 23
Si l’estimateur est sans biais, alors :
M SE(θ̂) = V ar(θ̂)
– L’efficacité relative :
Soitent θ̂1 et θ̂2 deux estimateurs quelconques de θ. L’efficacité relative de θ̂1 par
rapport à θ̂2 est définie par :
M SE(θ̂2 )
Er (θ̂1 , θ̂2 ) = .
M SE(θ̂1 )
Si Er (θ̂1 , θ̂2 ) ≥ 1, alors on dit que θ̂1 est plus efficace que θ̂2 .
21
CHAPITRE 3. ESTIMATION
– Efficacité :
Entre deux estimateurs sans biais, on préfère utiliser celui qui a la variance la
plus petite(la variance minimale). Un estimateur θ̂ de θ est efficace si sa variance
est minimale parmi les variances des estimateurs sans biais de θ.
Remarque 25
Pour k=1, le moment d’ordre k est l’espérance de X.
Pour k=2, le moment centré d’ordre k correspond à la variance de X.
La méthode des moments consiste à estimer les moments de la population par les
moments analogues de l’échantillon.
Proposition 26
Soit (X1 , X2 , · · · , Xn ) un échantillon de X et k ∈ N∗ , avec E(X k ) < +∞. Alors
n
k 1X k
X = X est un estimateur sans biais et consistant de mk = E(X k ) le moment
n i=1 i
d’ordre k de X.
22
3.1. ESTIMATION PONCTUELLE
1 1
Rappelons que E(X) = et V ar(X) = 2 .
λ λ
Si l’on veut estimer le paramètre de la loi par la méthode des moments, nous
pouvons affirmer que :
n
λ̂ = n
X
Xi
i=1
2
5. Loi Normale N (µ, σ ) :
Un estimateur de µ est donné par X. Pour la variance, nous rappelons que σ 2 =
E(X 2 ) − E(X)2 . Donc, en utilisant la méthode des moments, on peut dire que
la variance de la loi est estimée par :
n n
!2
1 1
σˆ2 =
X X
2
X − Xi .
n i=1 i n i=1
23
CHAPITRE 3. ESTIMATION
Remarque 27
– L’estimateur de maximum de vraisemblance (EMV) n’est pas forcément unique.
Il peut ne pas exister ou être difficilement calculable. De plus, il n’y a pas de
raisons de s’attendre à ce que l’EMV soit sans biais.
– Si θ̂ maximise ln Lθ (x1 , · · · , xn ), alors il maximise également Lθ (x1 , · · · , xn ).
Ceci revient au fait que la fonction logarithme népérien est croissante. Souvent,
maximiser ln L est plus simple que de maximiser L. Par conséquent, on va cher-
cher à maximiser ln L (log de vraisemblance) dans les cas pratiques au lieu de
L.
Les étapes de calcul : Pour calculer l’estimation de maximum de vraisemblance(EMV) θ̂
de l’inconnu θ, on procède comme suit :
1. Calculer L(x1 , · · · , xn ; θ) .
2. Calculer log L(x1 , · · · , xn ; θ) .
3. Résoudre en θ l’équation :
∂ log L(x1 , · · · , xn ; θ)
=0.
∂θ
4. La solution θ̂ de l’équation précédente peut être un EMV. Reste à vérifier si :
24
3.1. ESTIMATION PONCTUELLE
∂ 2 log L(x1 , · · · , xn ; θ)
≤0.
∂θ2
Quelques exemples d’utilisation :
1. Loi de Poisson P(λ) :
On souhaite estimer le paramètre λ d’une loi de poisson à partir d’un échantillon
de taille n.
λx
On a : Pλ (X = x) = e−λ . Donc, la fonction de vraisemblance va s’écrire :
x!
n n
Y λxi Y λ xi
L(x1 , · · · , xn ; λ) = e−λ = e−nλ .
i=1
xi ! x!
i=1 i
Par conséquent,
n
X n
X
ln L(x1 , · · · , xn ; λ) = −nλ + ln λ xi − ln xi ! .
i=1 i=1
n
X
xi
∂ ln L(x1 , · · · , xn ; θ) i=1
⇒ = −n + .
∂θ λ
n
1X
Cette première dérivée s’annule en la valeur : λ̂ = xi .
n i=1
La dérivée seconde s’écrit :
Xn
xi
∂ 2 ln L(x1 , · · · , xn ; θ) i=1
=− 2 .
∂θ2 λ
La dérivée seconde est négative. Donc, l’estimateur par le maximum de vraisem-
blance de la valeur λ est donné par la moyenne empirique λ̂ = x.
2. Loi normale N (µ, σ 2 ) :
Afin d’estimer les paramètres de la loi µ et σ à partir d’un échantillon de taille
n par la méthode de maximum de vraisemblance, il faut rappeler la densité de la
loi normale :
(x − µ)2
1
f (x; µ, σ) = √ exp − .
σ 2π 2σ 2
La vraisemblance pour une réalisation d’un échantillon de n variables indépen-
dantes est donc :
n
X
2
n n/2 (xi − µ)
Y 1 i=1
f (x1 , · · · , xn ; µ, σ) = f (xi ; µ, σ) = 2
exp −
2
.
i=1
2πσ
2σ
Or,
n
X n
X n
X
(xi − µ)2 = (xi − x + x − µ)2 = (xi − x)2 + n(x − µ)2 .
i=1 i=1 i=1
25
CHAPITRE 3. ESTIMATION
∂ −2n(x − µ)
ln L = 0 − .
∂µ 2σ 2
On obtient l’estimateur par le maximum de vraisemblance :
µ̂ = x .
2
Pour le paramètre σ . On calcule la dérivée de ln L par rapport à σ. On trouve :
n
X
(xi − x)2 + n(x − µ)2
∂ ∂ n 1 i=1
ln L = ln(
2
)− 2
=
∂σ ∂σ
2 2πσ 2σ
n
X
(xi − x)2 + n(x − µ)2
n i=1
− + .
σ σ3
On trouve que :
n
(xi − µ̂)2
σˆ2 =
X
,
i=1
n
et ceci peut être écrit :
n
1X
σˆ2 = (xi − µ̂)2 .
n i=1
Après vérification que les dérivées secondes de ln L par rapport à µ et par rap-
port à σ sont négatives.On peut conclure que les estimateurs trouvés ci-dessus
maximisent la vraisemblance.
La méthode fournit, dans le cas normal, un estimateur non biaisé de la moyenne
et un estimateur biaisé pour la variance.
26
3.2. ESTIMATION PAR INTERVALLE DE CONFIANCE
Avant de construire cet intervalle, il faut se fixer une marge d’erreur ou un risque de
se tromper qui est égal à une certaine quantité α. Ce risque α correspond réellement
aux erreurs d’échantillonnages jugées acceptables. Une fois le risque fixé, on appelle
le nombre 1 − α le niveau de confiance de notre IC.
Définition 28
On appelle intervalle de confiance pour θ de niveau de confiance 1 − α un intervalle
Iα tel que :
P(θ ∈ Iα ) = 1 − α
Remarque 29
– Un intervalle de confiance est un intervalle centré autour de θ qui s’écrit sous la
forme :
[θ- erreur d’échantillonnage ; θ+ erreur d’échantillonnage].
– L’interprétation de l’intervalle de confiance est une des deux affirmations sui-
vantes :
1. On accepte qu’il y’ ait α.100 chances sur 100 de se tromper en disant que
θ appartient à l’intervalle.
2. On accepte qu’il y’ ait (1 − α).100 chances sur 100 de ne pas se tromper
en disant que θ appartient à l’intervalle.
27
CHAPITRE 3. ESTIMATION
où,
28
3.2. ESTIMATION PAR INTERVALLE DE CONFIANCE
n
1X
µˆ4 = (Xi − X)4 .
n i=1
Ci-après quelques coefficient critiques (ou quantiles) de la loi normale correspondants
à des niveau de confiances usuels.
Niveau de confiance 1-α niveau de risque α coefficient critiques z1−α/2
90% 10% 1,645
95% 5% 1,960
97% 3% 2,170
99% 1% 2,576
29
Chapitre 4
Tests statistiques
Définition 31
1. Niveau de test : On appelle niveau de test ou Erreur de premier espèce, la pro-
babilité α donnant la probabilité de rejeter à tort l’hypothèse H0 . C’est à dire :
α= P(rejeter H0 quand H0 est vraie).
2. Puissance du test : On appelle puissance du test la valeur 1 − β qui correspond
à la probabilité de rejeter H0 quand H1 est vraie. C’est à dire :
1 − β= P(rejeter H0 quand H1 est vraie).
La probabilité β est appelée erreur de deuxième espèce : la probabilité d’accepter
à tort une mauvaise hypothèse H0 . C’est à dire la probabilité d’accepter H0 , alors
que H1 est vraie.
Remarque 32
– Les valeurs souvent utilisées pour α sont 1%, 5% ou 10%.
30
– Plus la valeur de α est grande (resp.petite), plus β est petite (resp. grande).
Une fois les hypothèses H0 (l’hypothèse nulle) et H1 (l’hypothèse alternatives)
choisies. Il faut définir ce qu’on appelle La variable de décision. Cette variable est
une statistique T() dont la distribution (la loi) est connue sous l’hypothèse H0 et appe-
lée distribution de référence. Elle est également nommée statistique du test.
La zone de rejet ou région critique dans un test correspond à l’ensemble des valeurs
(ou intervalles) de la variable de décision T() qui conduisent à écarter l’hypothèse nulle
H0 au profit de l’hypothèse H1 . La région ou zone d’acceptation étant le complémen-
taire de la zone de rejet.
Test bilatéral
Un test bilatéral est associé à une d’hypothèse alternative H1 selon laquelle le signe
de la différence entre les valeurs de deux paramètres, ou entre la valeur d’un para-
mètre et une valeur donnée, est inconnu. Par exemple, nous cherchons à comparer les
moyennes de deux échantillons A et B. Supposons que nous ne savons pas si A serait
supérieur à B ou le contraire. Dans ce cas, on choisi d’effectuer un test bilatéral, dont
l’hypothèse alternative H1 peut être écrite comme suit : H1 : µA 6= µB .
Test unilatéral
Un test unilatéral est associé à une hypothèse alternative selon laquelle le signe de
la différence entre les valeurs de deux paramètres, ou entre la valeur d’un paramètre et
une valeur donnée est connu auparavant. Dans l’exemple décrit précédemment, l’hypo-
thèse alternative H1 associée à un test unilatéral peut être écrite sous la forme suivante :
H1 : µA > µB ou H1 : µA < µB .
Test
unilatéral à gauche Test bilatéral Test
unilatéral à droite
H0 : θ ≥ θ0 H0 : θ = θ0 H0 : θ ≤ θ 0
H1 : θ < θ0 H1 : θ 6= θ0 H1 : θ > θ 0
31
CHAPITRE 4. TESTS STATISTIQUES
X − µ0 X − µ0 X − µ0
µ ≤ µ0 µ > µ0 T > q1−α T = √ T = √ T = √
σ/ n S/ n − 1 S/ n − 1
µ = µ0 µ 6= µ0 |T | > q1−α T ∼ N (0, 1) T ∼ t(n − 1) T ≈ N (0, 1)
µ ≥ µ0 µ < µ0 T < −q1−α
nS 2 S 2 − σ02
σ 2 ≤ σ02 σ 2 > σ02 T > q1−α T = T =p
σ02 (µ̂4 − σ04 )/n
σ 2 = σ02 σ2 =
6 σ02 T ∈
/ [qα/2 , q1−α/2 ] T ∼ χ2n−1 T ≈ N (0, 1)
σ 2 ≥ σ02 σ < σ02
2
T < qα
32
4.3. TESTS POUR UNE PROPORTION
p − p0
p ≤ p0 p > p0 T > q1−α T =p
p0 (1 − p0 )/n
p = p0 p 6= p0 |T | > q1−α/2 T ≈ N (0, 1)
p ≤ p0 p < p0 T < −q1−α
Exercice/Exemple
Considérons une population normale de moyenne µ inconnue et d’écart-type σ =
1, 5. On prélève un échantillon aléatoire simple de taille n=9. Les valeurs prélevées
sont :
Solution
La moyenne x observée est :
9
X
1
x= 9 xi = 24, 5
i=1
33
CHAPITRE 4. TESTS STATISTIQUES
La statistique du test :
X − µ0 24, 5 − 22, 8
T = √ ⇒ Tcalculée = = 3, 4
σ/ n 1, 5/3
La loi de T sous H0 est une normale centrée réduite.
Règle de décision : On rejette H0 si T > z1−α = z0,99 = 2, 33.
Donc, on rejette H0 car 3,4> 2,33.
9
X
3. Puisque l’écart-type est supposé inconnu, calculons S 2 = 1
9 x2i − x2 = 0, 66.
i=1
Par conséquent, S=0,81.
34
4.3. TESTS POUR UNE PROPORTION
35
CHAPITRE 4. TESTS STATISTIQUES
36