INFERENTIELLES
Licence d’économie et de gestion
Laurence GRAMMONT
Laurence.Grammont@univ-st-etienne.fr
http://www.univ-st-etienne.fr/maths/CVLaurence.html
1 Rappels 5
1.1 Statistique descriptive . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Statistique descriptive univariée . . . . . . . . . . . . . . . 5
1.1.2 Statistique descriptive bivariée . . . . . . . . . . . . . . . 7
1.2 Rappels de probabilité . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1 Espace probabilisable, espace probabilisé . . . . . . . . . . 8
1.2.2 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . 9
1.2.3 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3 Notions de convergence de v.a . . . . . . . . . . . . . . . . . . . . 11
1.4 Lois discrètes usuelles . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.1 La loi binomiale B(n, p) . . . . . . . . . . . . . . . . . . . 12
1.4.2 La loi hypergéométrique H(N, n, p) . . . . . . . . . . . . 13
1.4.3 La loi de Poisson P(m) . . . . . . . . . . . . . . . . . . . 13
1.5 Lois continues usuelles . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.1 La loi normale (Laplace-Gauss) N (µ, σ) . . . . . . . . . . 14
1.5.2 La loi du Khi-deux à n degrés de liberté (χ2n ) . . . . . . . 16
1.5.3 La loi de Student à n degrés de liberté (Tn ) . . . . . . . . 17
1.5.4 La loi de Fischer-Snedecor (F(n1 , n2 )) . . . . . . . . . . . 18
3 Estimation 29
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2 Généralités sur les estimateurs . . . . . . . . . . . . . . . . . . . 30
3.3 Estimation ponctuelle des paramètres usuels . . . . . . . . . . . . 31
3.3.1 Estimation de la moyenne . . . . . . . . . . . . . . . . . 31
3
4 CONTENTS
4 Tests de conformité 41
4.1 Généralités sur les tests statistiques . . . . . . . . . . . . . . . . . 41
4.2 Généralités sur les tests de conformité . . . . . . . . . . . . . . . 42
4.3 Tests de conformité sur une moyenne . . . . . . . . . . . . . . . . 42
4.3.1 Cas d’une variable Gaussienne . . . . . . . . . . . . . . . 42
4.3.2 Cas d’un échantillon de grande taille . . . . . . . . . . . . 46
4.4 Tests de conformité sur une variance d’une v.a Gaussienne . . . . 46
4.5 Tests de conformité sur une proportion . . . . . . . . . . . . . . . 49
4.6 Tests de choix entre deux valeurs du paramètre . . . . . . . . . . 50
5 Tests de comparaison 51
5.1 Généralités sur les tests de comparaison . . . . . . . . . . . . . . 51
5.2 Tests de comparaison de deux moyennes . . . . . . . . . . . . . 51
5.2.1 Cas où σ1 et σ2 sont connus . . . . . . . . . . . . . . . . . 52
5.2.2 Cas où σ1 et σ2 sont inconnus avec σ1 = σ2 et n1 et n2
< 30 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2.3 Cas où σ1 et σ2 sont inconnus et n1 et n2 > 30 . . . . . . 54
5.3 Tests de comparaison de deux variances . . . . . . . . . . . . . 55
5.4 Tests de comparaison de deux proportions . . . . . . . . . . . . 56
6 Tests du Khi-deux 59
6.1 Tests d’adéquation à une loi théorique . . . . . . . . . . . . . . . 59
6.2 Tests d’indépendance de deux caractères . . . . . . . . . . . . . . 61
6.3 Tests d’homogénéité (d’une v.a X) . . . . . . . . . . . . . . . . . 62
Chapter 1
Rappels
classes fréq. abs. fréq. rel. fréq. cumul.
n1
C1 n1 (nb.ind. ∈ C1 ) f1 = F1 = f1
N
n2
C2 n2 f2 = F2 = F1 + f2
N
..
.
nk
Ck nk fk = Fk = Fk−1 + fk = 1
N
N = cardΩ
5
6 CHAPTER 1. RAPPELS
fj ≥ fi
• définition (moments):
a) moments d’ordre p centrés en 0:
k
X
Mp = fi xpi
i=1
k
X
x̄ = M1 = fi xi moyenne de x
i=1
b) cas continu
0 si x ≤ e0
fi
F (x) = Fi−1 + (x − ei−1 ) si x ∈ [ei−1 , ei [
ei − ei−1
1 si x ≥ ek
• représentation graphique
fi
[ei−1 , ei [7−→ hi =
ei − ei−1
• définition (indices):
a) indices centraux (ou paramètres de la tendance centrale)
1.1. STATISTIQUE DESCRIPTIVE 7
D1 D2 . . . Dl
C1 n11 n12 . . . n1l n1•
∀A ∈ B, X −1 (A) ∈ F
∀A ∈ B, PX (A) = P (X −1 (A))
Soient X et Y des v.a.d. dont les valeurs sont respectivement {x1 , .., xN } et
{y1 , .., yM }. On notera pi = P (X = xi ) et qj = P (Y = yj ).
• définition On appelle variable conditionnelle X sachant Y = yj notée
X|Y = yj la v.a.d dont les valeurs sont {x1 , .., xN } et les probabilités sont
P (X = xi |Y = yj )
On note pij = P (X = xi ∩ Y = yj ).
10 CHAPTER 1. RAPPELS
N
X
E(X|Y = yj ) = xi P (X = xi |Y = yj )
i=1
M
X
E(X) = E(X|Y = yj )P (Y = yj )
j=1
1.2.3 Indépendance
• définition Soient (Ω, F, P ) un espace probabilisé et A, B ∈ F. A et B sont
deux évènements indépendants ssi
P (A ∩ B) = P (A) × P (B)
∀i, j P (X = xi ∩ Y = yj ) = P (X = xi ) × P (Y = yj ).
•Propriétés:
si X ∼ B(n, p) alors
E(X) = np
V (X) = npq
si X1 ∼ B(n1 , p) et X2 ∼ B(n2 , p) alors, si ces 2 v.a. sont indépendantes,
Y = X1 + X2 ∼ B(n1 + n2 , p)
• X ∼ N (µ, σ)
• fonction de répartition
x
1 t−µ 2
− ( )
Z
1
F (x) = √ e 2 σ dt
−∞ σ 2π
•Propriétés:
si X ∼ N (µ, σ) alors
E(X) = µ
V (X) = σ 2
• Exemple:
a)
X ∼ N (µ, σ)
a−µ X −µ b−µ a−µ b−µ
P (a < X < b) = P ( < < ) = P( <U < )
σ σ σ σ σ
numérique : µ = 2, σ = 0.5, a = 1.7, b = 2.1
P (1.7 < X < 2.1) = P (−0.6 < U < 0.2)
b)
U ∼ N (0, 1)
si P (U < a), a > 0 est connue, alors
P (U < −a) = 1 − P (U < a);
P (−a < U < a) = P (U < a) − P (U < −a)
= P (U < a) − [1 − P (U < a)] = 2P (U < a) − 1;
numérique : a = 1.87
P (U < 1.87) = 0.9693;
P (U < −1.87) = 1 − 0.9693 = 0.0307;
P (−1.87 < U < 1.87) = 0.9693 − 0.0307 = 0.9386 (= 2 × 0.9693 − 1 = 0.9386).
16 CHAPTER 1. RAPPELS
E(X) = n
V (X) = 2n
X
Z=p ∼ tn
Y /n
t2 −(n+1)/2
ftn (t) = cn (1 + )
n
Z
où cn sont t.q. ftn (t)dt = 1.
IR
• Propriétés:
si X ∼ tn alors
E(X) = 0 , n > 1
n
V (X) =
, n>2
n−2
18 CHAPTER 1. RAPPELS
Y1 /n1
F = ∼ F(n1 , n2 )
Y2 /n2
fF (t) = cn1 ,n2 tn1 /2−1 (n1 t + n2 )−(n1 +n2 )/2 , t > 0
• 2 paramètres: n1 , n2
• Propriétés:
si F ∼ F(n1 , n2 ) alors
E(F ) = n1 , n > 2
2
n2 − 2
2
2n2 (n1 + n2 − 2)
V (F ) = , n2 > 4
n1 (n2 − 2)2 (n2 − 4)
Chapter 2
Introduction à la statistique
inférentielle
– mesures ou caractéristiques utilisées pour décrire une population
s’appellent PARAMETRES.
– mesures ou caractéristiques utilisées pour décrire un échantillon
s’appellent réalisations (ou observations) de STATISTIQUES.
19
20CHAPTER 2. INTRODUCTION À LA STATISTIQUE INFÉRENTIELLE
L’inférence statistique
C’ est l’ensemble des méthodes permettant de tirer des conclusions sur un groupe
déterminé à partir des données provenant d’un échantillon choisi dans cette
population.
Question 2
exemple: En matière de contrôle de qualité, on souhaite lors de la
réception d’échantillons de pièces mécaniques comparer le taux de
déchets observés par rapport à la norme fixée de manière à refuser
le lot si son le taux de déchets dépasse la norme.
Question 3
Les personnes qui décident sont souvent intéressées à déterminer si deux pop-
ulations données sont semblables ou nettement différentes par rapport à une
caractéristique particulière.
Question 4
D’autres problèmes peuvent se poser, par exemple de savoir si une population
donnée suit une loi de probabilité particulière connue.
Ce sont les TESTS D’AJUSTEMENT (analytique) qui permettent de vérifier
la qualité de l’ajustement de la population étudiée à une loi normale, binomiale,
de Poisson ou encore uniforme.
Ils ont pour but d’établir s’il est plausible que l’échantillon (aléatoire) provi-
enne d’une population dont la loi de probabilité aurait été celle spécifiée (chapitre
6).
Question 5
Il est intéressant de savoir, dans certaines situations, si 2 caractères qualitatifs
sont indépendants. Les TESTS D’INDEPENDANCE seront traités dans le
chapitre 6.
Question 6
On peut vouloir savoir si plusieurs populations sont homogènes par rapport à
un certain caractère. Les TESTS D’HOMOGENEITE seront traités dans le
chapitre 6).
Echantillonnage stratifié
Dans la suite, on traite le cas de l’échantillonnage aléatoire simple, car les con-
cepts fondamentaux et les formules importantes découlent de cette méthode.
Ce type d’échantillonnage consiste à extraire un échantillon de taille n dans une
population de taille N par des tirages aléatoires équiprobables et indépendants
(tirages avec remise). On introduit le modèle suivant :
Soit Ω = {w1 , . . . , wN } la population constituée d’éléments appelés unités d’observation.
Soit X le caractère que l’on voudrait étudier sur l’ensemble de cette population.
Xk , le résultat aléatoire du k ièm tirage, est une v.a qui suit la même loi que
X. On note xk le résultat du k ièm tirage.
On note (X1 , . . . , Xn ) les résultats aléatoires de ces tirages.
E(aX + b) = aE(X) + b
E(X + Y ) = E(X) + E(Y )
V (aX + b) = a2 V (X)
V (X) = E(X 2 ) − [E(X)]2 = E([X − E(X)]2 )
si X, Y indépendantes,
V (X + Y ) = V (X) + V (Y )
n
1X
X̄ = Xi .
n i=1
n
1X
Sa réalisation est x̄ = xi (qui est la moyenne de l’échantillon) aussi
n i=1
appelée moyenne observée.
(on verra plus tard que X̄ estimera l’espérance E(X))
• Propriétés:
(
E(X̄) = µ
1
V (X̄) = σ 2
n
Calculons
n n n
1X 1X 1X
E(X̄) = E( Xi ) = E(Xi ) = E(X) = E(X) = µ
n i=1 n i=1 n i=1
n n n n
1X 1 X 1 X 1 X
V (X̄) = V ( Xi ) = 2 V ( Xi ) = 2 V (Xi ) = 2 V (X)
n i=1 n i=1
n i=1 n i=1
nV (X) 1 1
= = V (X) = σ 2
n2 n n
n n
1X 1 X 2
S2 = (Xi − X̄)2 = ( X ) − X̄ 2 .
n i=1 n i=1 i
24CHAPTER 2. INTRODUCTION À LA STATISTIQUE INFÉRENTIELLE
n
21X
Sa réalisation est s = (xi − x̄)2 (qui est la variance de l’échantillon), aussi
n i=1
appelée variance observée.
• Propriétés:
n−1 2
E(S 2 ) = σ
n
Calculons
n n
1X 1X 2
E(S 2 ) = E( (Xi − X̄)2 ) = E( X − X̄ 2 )
n i=1 n i=1 i
n n
1 X 2 1X
= E( Xi ) − E(X̄ 2 ) = E(Xi2 ) − E(X̄ 2 )
n i=1 n i=1
n
1X
= [V (Xi ) + (E(Xi ))2 ] − [V (X̄) + (E(X̄))2 ]
n i=1
n
1X 1
= [V (X) + (E(X))2 ] − σ 2 − µ2
n i=1 n
1 1
= V (X) + (E(X))2 − σ 2 − µ2 = σ 2 + µ2 − σ 2 − µ2
n n
1 n−1 2
= (1 − )σ 2 = σ
n n
• 2 cas à étudier:
a) Taille n grande
(d’après le thm. limite centrale)
X̄ − µ
1) √ suit approximativement N (0, 1)
σ/ n
2.2. QUELQUES STATISTIQUES CLASSIQUES 25
X̄ − µ
√ ∼ N (0, 1) pour n → ∞
σ/ n
ou bien
σ
X̄ suit approximativement N (µ, √ ) (en pratique n > 30)
n
• exercice Soit un lot de 500 chocolats. Le poids d’un chocolat est une v.a.
telle que µ = 5g et σ = 0.5g. Quelle est la probabilité qu’une boı̂te de 50
chocolats issus de ce lot ait un poids total supérieur à 260g?
solution
L’échantillon étant grand (n = 50 > 30) et on peut appliquer la
première formule:
0.5
X̄ ∼ N (5, √ ) approximativement
50
on pose T = 50X̄; cette nouvelle v.a. suit approximativement:
50 × 0.5 √
T ∼ N (50 × 5, √ ) = N (250, 0.5 50)
50
calculons
P (T > 260) = P (U > 260−250
√
0.5 50
) = P (U > 2.83)
= 1 − P (U < 2.83) = 1 − 0.9977
b) Echantillon gaussien
Soit X ∼ N (µ, σ)
(d’après l’additivité pour des v.a. suivant des lois normales)
σ
1) X̄ ∼ N (µ, √ )
n
ou bien
X̄ − µ
√ ∼ N (0, 1)
σ/ n
Attention!!!!!
c’est une loi exacte et non une approximation comme dans le cas
d’un échantillon de grande taille où la loi n’est pas connue.
n
2) 2 S 2 ∼ χ2n−1
σ
X̄ − µ
3) √ √ ∼ tn−1
S2/ n − 1
26CHAPTER 2. INTRODUCTION À LA STATISTIQUE INFÉRENTIELLE
X̄ − µ
U= √ ∼ N (0, 1)
σ/ n
nS 2
Y = 2 ∼ χ2n−1
σ
et alors
U
Z=p ∼ tn−1
Y /(n − 1)
X̄ − µ 1 X̄ − µ
calculons Z : Z = √ ·q =q
σ/ n nS 2 S2
σ 2 (n−1) n−1
solution
pour commencer, il faut déterminer α et β t.q.
2 2 2
0.85 = P (α < nS nS nS
σ 2 < β) = P ( σ 2 < 2β) − P ( σ 2 < α)
nS 2 nS
= 1 − P ( σ2 > β) − [1 − P ( σ2 > α)]
2
nS 2
= P ( nS
σ 2 > α) − P ( σ 2 > β)
nS 2
on sait que ∼ χ225−1 = χ224 et alors on cherche dans la table du
σ2
χ2n à 24 degrés de liberté les valeurs α et β comme suit:
( 2
P ( nS
σ 22 > α) = 0.90 (choix du aux tables)
P ( nS
σ 2 > β) = 0.05
on trouve:
α = 15.659
β = 36.415
et alors
2
P (15.659 < 25S
22 < 36.415) = 0.85
P (2.5054 < S 2 < 5.8264) = 0.85
P (1.58 < S < 2.41) = 0.85
Estimation
3.1 Introduction
La distribution exacte d’une variable X modélisant le caractère qui intéresse
le statisticien (taux de pollution d’une rivière, dépenses des ménages pour le
logement...) est généralement partiellement connue. Souvent la loi de X dépend
d’un paramètre inconnu. On cherche à se faire une idée sur ce paramètre à partir
des données observées sur l’échantillon.
Attribuer au paramètre une valeur numérique unique est une ESTIMATION
PONCTUELLE. Pour ce faire, on choisit une statistique dont la valeur est, après
tirage aléatoire de l’échantillon, l’estimation du paramètre. Cette statistique est
l’ESTIMATEUR.
Mais quelles sont les chances pour que cette estimation ponctuelle soit ex-
acte? Plutôt que d’estimer un paramètre à l’aide d’un seul nombre, il ar-
rive fréquemment que l’on fasse l’estimation en donnant un INTERVALLE de
valeurs. Un INTERVALLE D’ESTIMATION (ou de CONFIANCE) est défini
de telle sorte que l’on puisse affirmer avec un degré de confiance fixé que le
paramètre visé se trouve dans cet intervalle.
Nous nous intéresserons dans ce chapitre à l’estimation des principales car-
actéristiques (ou paramètres) d’une v.a dans une population, à savoir la moyenne,
la variance et la fréquence.
Notations
• les paramètres à estimer seront notés par des lettres grecques minuscules
µ : moyenne
σ : écart-type
σ 2 : variance
π : proportion
• les réalisations d’échantillon seront notées par des lettres latines minuscules
29
30 CHAPTER 3. ESTIMATION
x1 , . . . , xn : valeur de l’échantillon
x̄ : moyenne de l’échantillon
s : écart-type de l’échantillon
s2 : variance de l’échantillon
p : proportion dans l’échantillon
X̄
S2
F
n−1
En effet, E(X̄) = λ, E(S 2 ) = λ car E(X) = V (X) = λ.
n
3.3. ESTIMATION PONCTUELLE DES PARAMÈTRES USUELS 31
• définition :
Un estimateur T de θ est dit asymptotiquement sans biais si E(T ) −→ θ
pour n → ∞.
• définition :
sans biais
Un estimateur est dit convergent si V (T ) −→
asymptotiquement sans biais
0 pour n → ∞.
• définition :
Soient T et T 0 deux estimateurs sans biais de θ. T est dit plus efficace que
T 0 si
V (T ) ≤ V (T 0 )
• définition :
L’estimateur sans biais et de variance minimale est appelé estimateur efficace.
• théorème
1
X̄ = (X1 + . . . + Xn ) , la moyenne empirique, est un estimateur efficace
n
de µ.
V (X)
car sans biais E(X̄) = µ et de plus V (X̄) = −→ 0 pour
n
n → ∞, et ∀T , un autre estimateur de µ , V (T ) > V (X̄).
en effet,
n n n
1X 1X 2 1X
E(T 2 ) = E( (Xi − µ)2 ) = E( Xi − 2 µXi + µ2 )
n i=1 n i=1 n i=1
n n
1 X 2 1X
= E( Xi ) − 2µ E(Xi ) + µ2
n i=1 n i=1
n n
1X 2 2 1X
= E(Xi ) − µ = [V (Xi ) + (E(Xi ))2 ] − µ2
n i=1 n i=1
= σ 2 + µ2 − µ2 = σ 2
b) µ inconnue
• théorème :
n
1X
S2 = (Xi − X̄)2 , c’est-à-dire la variance empirique, est un estimateur
n i=1
biaisé de σ 2 , mais asymptotiquement sans biais.
en effet,
n−1 2
E(S 2 ) = σ
n
1 1
B(S 2 ) = E(S 2 ) − σ 2 = (1 − )σ 2 = − σ 2
n n
V (S 2 ) −→ 0 pour n → ∞
• théorème :
n
n 1 X
0 2
(S ) = S2 = (Xi − X̄)2
n−1 n − 1 i=1
est un estimateur sans biais de σ 2
en effet,
n n n−1 2
E((S 0 )2 ) = E(S 2 ) = σ = σ2
n−1 n−1 n
donc sans biais
E(X1 ) + . . . + E(Xn )
E(F ) = = π donc F est un estimateur sans biais de
n
π
V (X1 ) + . . . + V (Xn ) nπ(1 − π) π(1 − π)
V (F ) = = = donc F est un es-
n2 n2 n
timateur convergent de π
solution
K 48 66 48 + 66
F = ; f1 = = 0.4, f2 = = 0.44, f3 = = 0.422
n 120 150 120 + 150
t1 < θ < t 2
plutôt que d’écrire sèchement θ = t, car on sait que la valeur estimée t diffère
toujours de la valeur exacte du paramètre recherché, θ. Il est donc souhaitable
de donner la précision de l’estimation en acceptant de faire une erreur α sur
celle-ci.
• définition:
Soit X une v.a. dont la loi dépend d’un paramètre inconnu θ; on appelle
INTERVALLE DE CONFIANCE pour θ de niveau 1 − α (ou de seuil α), un
intervalle qui a la probabilité 1 − α de contenir la vraie valeur de θ.
(plus le niveau de confiance est élevé, plus la certitude est grande que la méthode
d’estimation produira une estimation contenant la vraie valeur de θ)
• les niveaux de confiance les plus fréquemment utilisés sont 90%, 95%, 99%
• α est appelé le seuil (le risque); on choisira dans la plupart des cas un
intervalle à risques symétriques, c-a-d t.q.
α α
P (θ < t1 ) = , P (θ > t2 ) =
2 2
• remarque: Si on augmente le niveau de confiance 1 − α, on augmente la
longueur de l’intervalle.
X̄ − µ
(ou bien √ ∼ N (0, 1))
σ/ n
• On se fixe le risque α et on cherche dans la table de la loi normale la valeur
u1− α2 telle que
X̄ − µ
P (−u1− α2 < √ < u1− α2 ) = 1 − α
σ/ n
m
X̄ − µ
P ( √ < u1− α2 ) = 1 − α/2
σ/ n
α
u1− α2 est le fractile d’ordre 1 − 2 de la loi normale centrée réduite.
X̄ − µ
P (−u1− α2 < √ < u1− α2 ) = 1 − α
σ/ n
m
σ σ
P (X̄ − u1− α2 √ < µ < X̄ + u1− α2 √ ) = 1 − α
n n
σ σ
I = [x̄ − u1− α2 √ , x̄ + u1− α2 √ ]
n n
P15
• exemple: n = 15, σ = 3.75, α = 5%, i=1 xi = 2400 alors x̄ =
2400/15 = 160, u1− α2 = 1.96 car P (U < −1.96) = 0.025
on suppose X gaussienne et on obtient l’intervalle de confiance:
3.75 3.75
[160 − 1.96 √ , 160 + 1.96 √ ] = [158.10, 161.90]
15 15
a-2) σ inconnu
X̄ − µ
• √ ∼ tn−1 d’après le chapitre 2.
S n−1
X̄ − µ
P (−tn−1(1− α2 ) < √ < tn−1(1− α2 ) ) = 1 − α
S/ n − 1
m
X̄ − µ
P( √ < tn−1(1− α2 ) ) = 1 − α/2.
S/ n − 1
36 CHAPTER 3. ESTIMATION
On a
X̄ − µ
P (−tn−1(1− α2 ) < √ < tn−1(1− α2 ) ) = 1 − α
S/ n − 1
m
S S
P (X̄ − tn−1(1− α2 ) √ < µ < X̄ + tn−1(1− α2 ) √ )=1−α
n−1 n−1
s s
I = [x̄ − tn−1(1− α2 ) √ , x̄ + tn−1(1− α2 ) √ ]
n−1 n−1
P30 P30 2
• exemple n = 30, i=1 xi = 1673, i=1 xi = 98285, α = 10% alors
x̄ = 55.77, s2 = 165.87, s = 12.88, t29(10%) = 1.699
12.88 12.88
I = [55.77 − 1.699 √ , 55.77 + 1.699 √ ] = [51.71, 59.83]
29 29
X̄ − µ
• D’après le chapitre 2 √ ∼ N (0, 1) pour n → ∞
σ/ n
La démarche est la même que dans a-1)
• Conclusion : Si x̄ est une réalisation de X̄ et si s une réalisation de S,
l’intervalle de confiance de µ de seuil α est
σ σ
I = [x̄ − u1− α2 √ , x̄ + u1− α2 √ ]
n n
b-2) σ inconnu
On peut prendre comme intervalle de confiance celui de la section a-2). On
peut également utiliser l’approximation suivante :
X̄ − µ
• √ → N (0, 1) .
S n
nT 2
∼ χ2n
σ2
• L’erreur α étant fixée, on cherche dans la table χ2n les valeurs kn(1− α2 ) et
kn(1−α/2) telles que
n 2
P (kn( α2 ) < T < kn(1− α2 ) ) = 1 − α (1)
σ2
⇑
38 CHAPTER 3. ESTIMATION
2
P ( nT < kn(1− α ) ) = 1 − α/2
σ 22 2
P( nT
< kn( α2 ) ) = α/2
σ2
nT 2 nT 2
(1) ⇐⇒ P ( < σ2 < )=1−α
kn(1− α2 ) kn( α2 )
• Conclusion : si t2 est une réalisation de T 2 , l’intervalle de confiance de σ 2
de seuil α est
nt2 nt2
I=[ , ]
kn(1− α2 ) kn( α2 )
• exemple:
10
X
n = 10, µ = 6, x2i = 402, α = 5%
i=1
alors
t2 = 40.2 − 36 = 4.2, k10(0.025) = 20.5, k10(0.975) = 3.25
10 × 4.2 10 × 4.2
I=[ , ] = [2.05, 12.92]
20.5 3.25
b) µ inconnue
• On a
nS 2
∼ χ2n−1
σ2
• On cherche dans la table χ2n−1 les valeurs kn−1(1− α2 ) et kn−1( α2 ) telles que
n 2
P (kn−1( α2 ) < S < kn−1(1− α2 ) ) = 1 − α (1)
σ2
⇑
2
P ( nS < kn−1( α ) ) = α/2
σ 22 2
nS
P( < kn−1(1− α2 ) ) = 1 − α/2
σ2
nS 2 nS 2
(1) ⇐⇒ P ( < σ2 < )=1−α
kn−1(1− α2 ) kn−1( α2 )
• Conclusion : si s2 est une réalisation de S 2 , l’intervalle de confiance de σ 2
de seuil α est
3.4. INTERVALLE DE CONFIANCE 39
ns2 ns2
I=[ , ]
kn−1(1− α2 ) kn−1( α2 )
• remarque: Si dans les tables du χ2n ou de tn vous ne trouvez pas les valeurs
correspondantes à α/2 et à 1 − α/2, on prendra un risque asymétrique.
• ATTENTION à ne pas confondre S avec T et x̄ avec µ
• exemple:
30
X 30
X
n = 30, xi = 1683, x2i = 98295, α = 10%
i=1 i=1
alors
x̄ = 55.77, s2 = 165.87, k29(0.05) = 42.6, k29(0.95) = 17.7
30 × 165.87 30 × 165.87
I=[ , ] = [116.81, 281.14]
42.6 17.7
ou bien
F −π
q ∼ N (0, 1) pour nπ, n(1 − π) > 5
π(1−π)
n
F −π
P (−u1− α2 < q < u1− α2 ) = 1 − α
π(1−π
n
m
F −π
P(q < u1− α2 ) = 1 − α/2.
π(1−π
n
40 CHAPTER 3. ESTIMATION
On a
F −π
P (−u1− α2 < q < u1− α2 ) = 1 − α
π(1−π
n
r m r
π(1 − π) π(1 − π)
P (F − u 1− α < π < F + u1− α2 )=1−α
2
n n
• problème: π(1 − π) est inconnu !!!
• solution 1 : r
méthode par estimation
r de l’écart-type
π(1 − π) f (1 − f )
on remplace par , f étant la valeur observée de F
n n
(estimation de π) et on a
r r
f (1 − f ) f (1 − f )
I = [f − u 1− α , f + u1− α2 ]
2
n n
I = [π1 , π2 ]
Chapter 4
Tests de conformité
41
42 CHAPTER 4. TESTS DE CONFORMITÉ
a) tests bilatéraux
On peut chercher W sous la forme ] − ∞, z1 [ ∪ ]z2 , ∞[ (W̄ =
[z1 , z2 ]).
Ainsi P [z1 ≤ Z ≤ z2 avec θ = θ0 ] = 1 − α
b) tests unilatéraux à droite
On peut chercher W sous la forme ]z, ∞[.
Ainsi P [Z > z avec θ = θ0 ] = α
c) tests unilatéraux à gauche
On peut chercher W sous la forme ] − ∞, z[.
Ainsi P [Z < z avec θ = θ0 ] = α
On traitera également (dans la section 4.6) les tests de choix entre
deux valeurs du paramètre:
(H0 ) θ = θ0 contre (H1 ) θ = θ1 où θ0 et θ1 sont des valeurs
numériques.
a) cas σ connu
X̄ − µ
• On prend comme variable de décision X̄ [ou Z = √ ].
σ/ n
X̄ − µ0
Si µ = µ0 alors √ ∼ N (0, 1)
σ/ n
• Calcul de la région critique et conclusion du test.
a-1) test bilatéral (H1 ) µ 6= µ0
On cherche la région d’acceptation sous la forme [x1 , x2 ], intervalle symétrique
autour de µ0 .
Soit u1− α2 le réel déterminé comme habituellement dans la table de la loi
normale (P (−u1− α2 < U < u1− α2 ) = 1 − α avec U ∼ N (0, 1) ).
σ σ
Ainsi, si µ = µ0 alors P (µ0 − u1− α2 √ < X̄ < µ0 + u1− α2 √ ) = 1 − α
n n
X̄ − µ0
(on remplace U par √ ).
σ/ n
L’intervalle d’acceptation pour X̄ au risque α est
σ σ
Iaccept = [µ0 − u1− α2 √ , µ0 + u1− α2 √ ]
n n
• Conclusion :
Si x̄ , la réalisation de X̄, ∈ Iaccept , on ne peut rejeter (H0 ) ,
sinon, on rejette (H0 ).
Remarque Si on choisit comme variable de décision Z, l’intervalle d’acceptation
pour Z au risque α est [−u1− α2 ; u1− α2 ] . Si z, la réalisation de Z, ∈ [−u1− α2 ; u1− α2 ],
on ne rejette pas (H0 ). Sinon, on la rejette.
a-2) test unilatéral à droite (H1 ) µ > µ0
On cherche la région critique sous la forme [x1 , +∞[.
Soit u1−α le réel déterminé dans la table de la loi normale tel que P (U < u1−α ) = 1 − α
avec U ∼ N (0, 1).
σ
Ainsi, si µ = µ0 alors P (X̄ > µ0 + u1−α √ ) = α
n
X̄ − µ0
(on remplace U par √ )
σ/ n
La région critique (ou intervalle de rejet) pour X̄ au risque α est
σ
Irejet = [µ0 + u1−α √ , +∞[
n
44 CHAPTER 4. TESTS DE CONFORMITÉ
• Conclusion :
Si x̄ , la réalisation de X̄, ∈ Irejet , on rejette (H0 ) ,
sinon, on ne la rejette pas.
Remarque Si on choisit comme variable de décision Z, l’intervalle d’acceptation
pour Z au risque α est [u1−α ; +∞] . Si z, la réalisation de Z , ∈ [u1−α ; +∞[,
on rejette (H0 ). Sinon, on ne la rejette pas.
a-3) test unilatéral à gauche (H1 ) µ < µ0
On cherche la région critique sous la forme ] − ∞, x1 ].
Soit u1−α le réel déterminé dans la table de la loi normale tel que P (U < u1−α ) = 1 − α
avec U ∼ N (0, 1). On a donc P (U < −u1−α ) = α.
σ
Ainsi, si µ = µ0 alors P (X̄ < µ0 − u1−α √ ) = α (on remplace U par
n
X̄ − µ0
√ )
σ/ n
La région de rejet pour X̄ au risque α est
σ
Irejet =] − ∞, µ0 − u1−α √ ]
n
• Conclusion :
Si x̄ , la réalisation de X̄, ∈ Irejet , on rejette (H0 ) ,
sinon, on ne la rejette pas.
Remarque Si on choisit comme variable de d ] − ∞ : −u1−α ] . Si z, la
réalisation de Z , ∈ ] − ∞ : −u1−α ], on rejette (H0 ). Sinon, on ne la rejette
pas.
b) cas σ inconnu
X̄ − µ
• On prend comme variable de décision X̄ [ou Z = √ ].
S/ n − 1
X̄ − µ0
Si µ = µ0 alors √ ∼ tn−1
S/ n − 1
• Calcul de la région critique et conclusion du test.
b-1) test bilatéral (H1 ) µ 6= µ0
On cherche la région d’acceptation sous la forme [x1 , x2 ], intervalle symétrique
autour de µ0 .
Soit tn−1(1− α2 ) le réel déterminé comme habituellement dans la table de tn−1
(P (−tn−1(1− α2 ) < T < tn−1(1− α2 ) ) = 1 − α avec T ∼ tn−1 ).
S S
Ainsi, si µ = µ0 alors P (µ0 − tn−1(1− α2 ) √ < X̄ < µ0 + tn−1(1− α2 ) √ )=1−α
n−1 n−1
X̄ − µ0
(on remplace T par √ ).
S/ n − 1
4.3. TESTS DE CONFORMITÉ SUR UNE MOYENNE 45
• Conclusion :
Si x̄ , la réalisation de X̄, ∈ Iaccept , on ne peut rejeter (H0 ) ,
sinon, on rejette (H0 ).
Remarque Si on choisit comme variable de décision Z, l’intervalle d’acceptation
pour Z au risque α est [−tn−1(1− α2 ) ; tn−1(1− α2 ) ] . Si z, la réalisation de Z ,
∈ [−tn−1(1− α2 ) ; tn−1(1− α2 ) ], on ne rejette pas (H0 ). Sinon, on la rejette.
b-2) test unilatéral à droite (H1 ) µ > µ0
On cherche la région critique sous la forme [x1 , +∞[.
Soit tn−1(1−α) le réel déterminé dans la table de tn−1 tel que P (T < tn−1(1−α) ) = 1 − α
avec T ∼ tn−1 .
S
Ainsi, si µ = µ0 alors P (X̄ > µ0 + tn−1(1−α) √ ) = α (on remplace T
n−1
X̄ − µ0
par √ )
S/ n − 1
La région de rejet pour X̄ au risque α est
s
Irejet = [µ0 + tn−1(1−α) √ , +∞[
n−1
• Conclusion :
Si x̄ , la réalisation de X̄, ∈ Irejet , on rejette (H0 ) ,
sinon, on ne la rejette pas.
Remarque Si on choisit comme variable de décision Z, l’intervalle de rejet
pour Z au risque α est [tn−1(1−α) , +∞] . Si z, la réalisation de Z , ∈ ] − ∞ :
−u1−α ], on rejette (H0 ). Sinon, on ne la rejette pas.
b-3) test unilatéral à gauche (H1 ) µ < µ0
On cherche la région critique sous la forme ] − ∞, x1 ].
On a P (T < −tn−1(1−α) ) = α.
S
Ainsi, si µ = µ0 alors P (X̄ < µ0 − tn−1(1−α) √ ) = α.
n−1
La région de rejet pour X̄ au risque α est
s
Irejet =] − ∞, µ0 − tn−1(1−α) √ ]
n−1
• Conclusion :
Si x̄ , la réalisation de X̄, ∈ Irejet , on rejette (H0 ) ,
sinon, on ne la rejette pas.
46 CHAPTER 4. TESTS DE CONFORMITÉ
b) cas σ inconnu
X̄ − µ0
Quand n est grand, on peut considérer que si µ = µ0 , ∼ N (0, 1) .
S
√
n
Il faut reprendre les résultats du paragraphe 4.3.1 b) en remplaçant n − 1
par n , tn−1(1−α) par u1−α et tn−1(1− α2 ) par u1− α2 .
• test bilatéral : L’intervalle d’acceptation pour X̄ au risque α est
s s
Iaccept = [µ0 − u1−α/2 √ , µ0 + u1−α/2 √ ]
n n
a) cas µ connu
4.4. TESTS DE CONFORMITÉ SUR UNE VARIANCE D’UNE V.A GAUSSIENNE47
n
1X
• On prend comme variable de décision T 2
== (Xi − µ)2 [ou Z =
n i=1
nT 2
].
σ2
nT 2
Si σ 2 = σ02 alors ∼ χ2n
σ2
• Calcul de la région critique et conclusion du test.
a-1) test bilatéral (H1 ) σ 2 6= σ02
On cherche la région d’acceptation sous la forme [t1 , t2 ].
Soit kn(α/2) et kn(1−α/2) les réels déterminés dans la table de la loi χ2n tels
que
nT 2
P ( 2 < kn(1− α2 ) ) = 1 − α/2
σ2
P ( nT < kn( α ) ) = α/2
σ2 2
n
Si σ 2 = σ02 , on a donc P (kn(α/2) < 2 T 2 < kn(1−α/2) ) = 1 − α
σ0
σ2 σ2
d’où P ( 0 kn( α2 ) < T 2 < 0 kn(1− α2 ) ) = 1 − α
n n
L’intervalle d’acceptation pour T 2 au risque α est
σ2 σ2
Iaccept = [ 0 kn( α2 ) , 0 kn(1− α2 ) ]
n n
• Conclusion :
Si t2 , la réalisation de T 2 , ∈ Iaccept , on ne peut rejeter (H0 ) ,
sinon, on rejette (H0 ).
Remarque Si α est tel que l’on ne peut déterminer kn(α/2) et kn(1−α/2) ,
on cherche l’intervalle d’acceptation sous la forme [kα1 , kα2 ] déterminés dans la
n n
table de la loi χ2n tels que P ( 2 T 2 > kα2 ) = α2 et P ( 2 T 2 < kα1 ) = α1 avec
σ0 σ0
σ2 σ2
α = α1 + α2 donc Iaccept = [ 0 kα1 , 0 kα2 ]
n n
a-2) test unilatéral à droite (H1 ) σ 2 > σ02
On cherche la région critique sous la forme [t1 , +∞[.
n
Soit kn(1−α) le réel déterminé dans la table de la loi χ2n par P ( 2 T 2 < kn(1−α) ) = 1 − α
σ0
La région critique (ou intervalle de rejet) pour T 2 au risque α est
σ2
Irejet = [ 0 kn(1−α) , +∞[
n
• Conclusion :
Si t2 , la réalisation de T 2 , ∈ Irejet , on rejette (H0 ) ,
48 CHAPTER 4. TESTS DE CONFORMITÉ
σ2
Irejet = [−∞, 0 kn(α) ]
n
• Conclusion :
Si t2 , la réalisation de T 2 , ∈ Irejet , on rejette (H0 ) ,
sinon, on ne rejette pas (H0 ).
Remarque Si on choisit comme variable de décision Z, l’intervalle d’acceptation
pour Z au risque α pour un test bilatéral est Iaccept = [kn( α2 ) , kn(1− α2 ) ] l’intervalle
de rejet pour Z au risque α pour un test unilatéral à droite et à gauche est re-
spectivement Irejet = [kn(1−α) , +∞] et Irejet = [−∞, kn(α) ]
b) cas µ inconnu
• On a
nS 2
∼ χ2n−1
σ2
σ2 σ2
Iaccept = [ 0 kn−1( α2 ) , 0 kn(1− α2 ) ]
n n
σ2
Irejet = [ 0 kn−1(1−α) , +∞]
n
σ2
Irejet = [−∞, 0 kn−1(α) ]
n
4.5. TESTS DE CONFORMITÉ SUR UNE PROPORTION 49
F − π0
P (−u1− α2 < q < u1− α2 ) = 1 − α
π0 (1−π0
n
m
F − π0
P(q < u1− α2 ) = 1 − α/2
π0 (1−π0
n
• Conclusion :
Si f , la réalisation de F , ∈ Iaccept , on ne peut pas rejeter (H0 ) ,
sinon, on rejette (H0 ).
b) Test unilatéral à droite π > π0
F − π0
On cherche dans la table de N (0, 1) la valeur u1−α telle que P ( q < u1−α ) = 1 − α
π0 (1−π0
n
L’intervalle de rejet pour F au risque α est
r
π0 (1 − π0 )
I = [π0 + u1−α , +∞]
n
• Conclusion :
Si f , la réalisation de F , ∈ Irejet , on rejette (H0 ) ,
50 CHAPTER 4. TESTS DE CONFORMITÉ
Tests de comparaison
51
52 CHAPTER 5. TESTS DE COMPARAISON
contre
(H1 ) µ1 − µ2 6= 0 ou µ1 − µ2 > 0 ou µ1 − µ2 < 0.
• On choisit le risque α.
X̄ − X̄2
s1 ∼ N (0, 1)
σ12 σ22
+
n1 n2
a) test bilatéral µ1 − µ2 6= 0
On cherche un intervalle d’acceptation centré en 0. Soit u1− α2 le réel déterminé
comme habituellement dans la table de la loi centrée réduite N (0, 1).
L’intervalle d’acceptation pour Z au risque α est
• Conclusion :
x¯1 − x¯2
Si z = q 2 , la réalisation de Z, ∈ Iaccept , on ne peut rejeter (H0 )
σ1 σ22
n1 + n2
; sinon, on rejette (H0 ).
b) test unilatéral à droite µ1 − µ2 > 0
Soit u1−α le réel déterminé comme habituellement dans la table de la loi
centrée réduite N (0, 1).
L’intervalle de rejet pour Z au risque α est
• Conclusion :
x¯1 − x¯2
Si z = q 2 , la réalisation de Z, ∈ Irejet , on rejette (H0 ) au risque
σ1 σ22
n1 + n2
α de se tromper; sinon, on ne peut pas rejeter (H0 ).
c) test unilatéral à gauche µ1 − µ2 < 0
Soit u1−α le réel déterminé comme habituellement dans la table de la loi
centrée réduite N (0, 1).
L’intervalle de rejet pour Z au risque α est
5.2. TESTS DE COMPARAISON DE DEUX MOYENNES 53
Irejet =] − ∞, −u1−α ]
• Conclusion :
x¯1 − x¯2
Si z = q 2 , la réalisation de Z, ∈ Irejet , on rejette (H0 ) au risque
σ1 σ22
n1 + n 2
α de se tromper; sinon, on ne peut pas rejeter (H0 ).
X̄1 − X̄2
s r ∼ tn1 +n2 −1
n1 S12 + n2 S22 1 1
+
n 1 + n 2 − 2 n1 n2
a) test bilatéral µ1 − µ2 6= 0
On cherche un intervalle d’acceptation centré en 0. Soit t1−α/2 le réel
déterminé dans la table de la loi de student tn1 +n2 −1 tel que P (−t1−α/2 <
Z < t1−α/2 ) = 1 − α ( ⇐⇒ P (Z < t1−α/2 ) = 1 − α/2) .
L’intervalle d’acceptation pour Z au risque α est
• Conclusion :
x¯1 − x¯2
Si z = s r , la réalisation de Z, ∈ Iaccept , on ne
n1 s21
+ n2 s22 1 1
+
n1 + n2 − 2 n1 n2
peut pas rejeter (H0 ) ,
sinon, on rejette (H0 ).
b) test unilatéral à droite µ1 − µ2 > 0
Soit t1−α le réel déterminé dans la table de la loi de student tn1 +n2 −1 tel que
P (Z < t1−α ) = 1 − α.
L’intervalle de rejet pour Z au risque α est
• Conclusion :
54 CHAPTER 5. TESTS DE COMPARAISON
x¯1 − x¯2
Si z = s r , la réalisation de Z, ∈ Irejet , on rejette
n1 s21 + n2 s22 1 1
+
n1 + n2 − 2 n1 n2
(H0 ) au risque α de se tromper ,
sinon, on ne peut pas rejeter (H0 ).
c) test unilatéral à gauche µ1 − µ2 < 0
L’intervalle de rejet pour Z au risque α est
Irejet =] − ∞, −t1−α ]
• Conclusion :
x¯1 − x¯2
Si z = s r , la réalisation de Z, ∈ Irejet , on rejette
n1 s21
+ n2 s22 1 1
+
n1 + n2 − 2 n1 n2
(H0 ) au risque α de se tromper ,
sinon, on ne peut pas rejeter (H0 ).
X̄1 − X̄2
s ∼ N (0, 1)
S12 S22
+
n1 − 1 n2 − 1
a) test bilatéral µ1 − µ2 6= 0
On cherche un intervalle d’acceptation centré en 0. Soit u1− α2 le réel déterminé
comme habituellement dans la table de la loi centrée réduite N (0, 1).
L’intervalle d’acceptation pour Z au risque α est
Iaccept = [−u1− α2 , +u1− α2 ]
• Conclusion :
x¯1 − x¯2
Si z = q 2 , la réalisation de Z, ∈ Iaccept , on ne peut rejeter
s1 s22
n1 −1 + n2 −1
(H0 ) ,
sinon, on rejette (H0 ).
b) test unilatéral à droite µ1 − µ2 > 0
Soit u1−α le réel déterminé comme habituellement dans la table de la loi
centrée réduite N (0, 1).
L’intervalle de rejet pour Z au risque α est
5.3. TESTS DE COMPARAISON DE DEUX VARIANCES 55
• Conclusion :
x¯1 − x¯2
Si z = q 2 , la réalisation de Z, ∈ Irejet , on rejette (H0 ) au
s1 s22
n1 −1 + n2 −1
risque α de se tromper ,
sinon, on ne peut pas rejeter (H0 ).
c) test unilatéral à gauche µ1 − µ2 < 0
Soit u1−α le réel déterminé comme habituellement dans la table de la loi
centrée réduite N (0, 1).
L’intervalle de rejet pour Z au risque α est
Irejet =] − ∞, −u1−α ]
• Conclusion :
x¯1 − x¯2
Si z = q 2 , la réalisation de Z, ∈ Irejet , on rejette (H0 ) au
s1 s22
n1 −1 + n2 −1
risque α de se tromper ,
sinon, on ne peut pas rejeter (H0 ).
n1 S12
n −1
Z = 1 2 ∼ F(n1 − 1, n2 − 1)
n 2 S2
n2 − 1
56 CHAPTER 5. TESTS DE COMPARAISON
• Conclusion
n1 s21
n −1
Si z = 1 2 , la réalisation de Z , ∈ Iaccept , on accepte (H0 ); sinon on
n2 s2
n2 − 1
rejette (H0 ).
• Remarque importante
Si α est tel que l’on ne puisse pas lire dans la table de Fischer-Snedecor les
valeurs fα/2 et f1−α/2 , on cherchera un intervalle d’acceptation pour Z de la
forme [fα1 , fα2 ], fα1 étant définie par P (Z < fα1 ) = α1 et fα2 étant définie par
P (Z > fα2 ) = α2 avec α = α1 + α2 .
F1 − F2
Z=r ∼ N (0, 1).
1 1
π(1 − π)( + )
n1 n2
F1 − F2
Z=r ∼ N (0, 1).
1 1
f (1 − f )( + )
n1 n2
a) test bilatéral π1 6= π2
On cherche un intervalle d’acceptation centré en 0. Soit u1− α2 le réel déterminé
comme habituellement dans la table de la loi centrée réduite N (0, 1).
L’intervalle d’acceptation pour Z au risque α est
• Conclusion :
f1 − f2
Si z = r , la réalisation de Z, ∈ Iaccept , on ne peut
1 1
f (1 − f )( + )
n1 n2
rejeter (H0 ) ,
sinon, on rejette (H0 ).
b) test unilatéral à droite π1 > π2
Soit u1−α le réel déterminé comme habituellement dans la table de la loi
centrée réduite N (0, 1).
L’intervalle de rejet pour Z au risque α est
• Conclusion :
Si z , la réalisation de Z, ∈ Irejet , on rejette (H0 ) au risque α de se
tromper ,
sinon, on ne peut pas rejeter (H0 ).
c) test unilatéral à gauche π1 < π2
Soit u1−α le réel déterminé comme habituellement dans la table de la loi
centrée réduite N (0, 1).
L’intervalle de rejet pour Z au risque α est
Irejet =] − ∞, −u1−α ]
• Conclusion :
Si z , la réalisation de Z, ∈ Irejet , on rejette (H0 ) au risque α de se
tromper ,
sinon, on ne peut pas rejeter (H0 ).
58 CHAPTER 5. TESTS DE COMPARAISON
Chapter 6
Tests du Khi-deux
59
60 CHAPTER 6. TESTS DU KHI-DEUX
i=k
X (ni − npi )2
d=
i=1
npi
i=k
X (Ni − npi )2
∼ χ2k−r−1
i=1
npi
où r est le nombre de paramètres de la loi Q qui ont été estimés et k, le nombre
de classes de X.
• On choisit le risque de type I α et on va rejeter (H0 ) si l’écart D est trop
grand. Ainsi, on choisira la zone de rejet de la forme [d∗ , +∞[. On détermine
dans la table de χ2k−r−1 , le réel kk−r−1(1−α) tel que P (D < kk−r−1(1−α) ) = 1−α.
6.2. TESTS D’INDÉPENDANCE DE DEUX CARACTÈRES 61
• conclusion
Si d ∈ [kk−r−1(1−α) , +∞[ on rejette (H0 ) avec le risque α de se tromper;
sinon on ne la rejette pas.
i=k
X j=l
X j=l
i=k X
X
avec n•j = nij et ni• = nij et n = nij .
i=1 j=1 i=1 j=1
j=l
i=k X
X (Nij − Tij )2
∼ χ2(k−1)(l−1)
i=1 j=1
T ij
où Tij et Nij sont les v.a dont les réalisations sont respectivement tij et nij .
• Le risque de type I, α, étant fixé, n calcule la région critique en déterminant
le réel k(k−1)(l−1) (1 − α) dans la table du χ2 correspondante tel que P (D <
k(k−1)(l−1) (1 − α)) = 1 − α.
• conclusion
Si d ∈ [k(k−1)(l−1) (1−α), +∞[ on rejette (H0 ) avec le risque α de se tromper;
sinon on ne la rejette pas.
• Remarque Tous les effectifs doivent être supérieurs à 5. Si ce n’est pas
le cas, il faut regrouper les classes (ceci est également valable pour les tests
d’adéquation et ceux d’homogénéité).
i=r
X j=k
X j=k
i=r X
X
avec n•j = nij et ni• = nij et n = nij .
i=1 j=1 i=1 j=1
j=l
i=k X
X (Nij − Tij )2
∼ χ2(k−1)(r−1)
i=1 j=1
T ij
où Tij et Nij sont les v.a dont les réalisations sont respectivement tij et nij .
• Le risque de type I, α, étant fixé, on calcule la région critique en déterminant
le réel k(k−1)(r−1) (1 − α) dans la table du χ2 correspondante tel que P (D <
k(k−1)(r−1) (1 − α)) = 1 − α.
• conclusion
Si d ∈ [k(k−1)(r−1) (1−α), +∞[ on rejette (H0 ) avec le risque α de se tromper;
sinon on ne la rejette pas.
• Remarque Les notations sont les mêmes que dans les tests d’indépendance,
mais les significations de ces notations sont différentes.
64 CHAPTER 6. TESTS DU KHI-DEUX
Bibliography
65