Vous êtes sur la page 1sur 65

POLYTECHLILLE

DPARTEMENT G.I.S.
Statistiques infrentielles
Julien JACQUES
http ://labomath.univ-lille1.fr/jacques/
2
Table des matires
1 chantillonnage et statistiques descriptives 7
1.1 chantillon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Exemple introductif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Description dune variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.1 Les diffrents types de variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2 Rsums numriques dune variable quantitative . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.2.1 Caractristiques de tendance centrale . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.2.2 Caractristiques de dispersion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.2.3 Caractristiques de forme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.3 Reprsentation graphique dune variable quantitative . . . . . . . . . . . . . . . . . . . . . 10
1.3.3.1 Bote moustaches ou box plot . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.3.2 Histogramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.3.3 La fonction de rpartition empirique . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.4 Rsum numrique dune variable qualitative . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.5 Reprsentation graphique dune variable qualitative . . . . . . . . . . . . . . . . . . . . . . 12
1.4 Description de plusieurs variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.1 Liaison entre deux variables quantitatives . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
Nuage de points. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
Coefcient de corrlation linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
Coefcient de corrlation partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.2 Liaison entre une variable quantitative et une variable qualitative . . . . . . . . . . . . . . . 15
1.4.3 Liaisons entre deux variables qualitatives . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4.3.1 Cas des variables ordinales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4.4 Vers le cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2 Estimation 19
2.1 Prambule : tude des statistiques

X et V
2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.1 Etude de la statistique

X . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.2 Etude de la statistique V
2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1.3 Dnition des lois du
2
, de Student et de Fisher-Snedecor . . . . . . . . . . . . . . . . . . 21
2.1.4 Cas des chantillons gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Notion destimateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3 Qualit dun estimateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4 Estimateur exhaustif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.5 Estimation sans biais de variance minimale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.6 Mthode du maximum de vraisemblance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.7 Estimation par intervalles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.7.1 Intervalle de conance sur lesprance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.7.1.1 Intervalle de conance sur lesprance dune loi normale avec variance connue . . 26
2.7.1.2 Intervalle de conance sur lesprance dune loi normale avec variance inconnue . 27
2.7.1.3 Si la loi de X nest pas une loi normale . . . . . . . . . . . . . . . . . . . . . . . 28
2.7.2 Intervalle de conance sur la variance dune loi normale . . . . . . . . . . . . . . . . . . . 28
2.7.2.1 Intervalle de conance sur la variance dune loi normale lorsque est connue . . 28
2.7.2.2 Intervalle de conance sur la variance dune loi normale lorsque est inconnue . 28
3
4 TABLE DES MATIRES
2.7.3 Intervalle de conance sur une proportion . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.7.4 Rcapitulatif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.8 Plus destimation statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.8.1 Estimation baysienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.8.1.1 Application : estimation baysienne de la moyenne dune loi normale de variance
connue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.8.2 Estimation robuste : cas de la valeur centrale dune distribution symtrique . . . . . . . . . 30
2.9 Estimation fonctionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.9.1 Estimation de la fonction de rpartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.9.2 Estimation non paramtrique de la densit . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3 Tests statistiques 33
3.1 Thorie des tests paramtriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.1.1 Introduction : test sur lesprance dune loi normale de variance connue . . . . . . . . . . . 33
3.1.2 Vocabulaire des tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.1.3 Probabilit derreur et risque, puissance de test . . . . . . . . . . . . . . . . . . . . . . . . 34
3.1.4 Choix optimal de la statistique de test et de la rgion de rejet . . . . . . . . . . . . . . . . . 35
3.1.5 Utilisation de la puissance de test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.1.6 Rsum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.1.7 p-value . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2 Tests sur une population . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2.1 Test sur le caractre central dune population . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2.1.1 Cas dun chantillon grand ou gaussien . . . . . . . . . . . . . . . . . . . . . . . 37
Test H
0
: =
0
contre H
1
: =
0
lorsque
2
est connue . . . . . . . . . . . . . 37
Test H
0
: =
0
contre H
1
: =
0
lorsque
2
est inconnue . . . . . . . . . . . . 38
3.2.1.2 Cas dun petit chantillon non gaussien . . . . . . . . . . . . . . . . . . . . . . . 38
Statistique de rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
Test des rangs signs (Wilcoxon un chantillon) . . . . . . . . . . . . . . . . . . . 39
Test du signe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Test des scores normaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.2 Test sur la variance dune population gaussienne . . . . . . . . . . . . . . . . . . . . . . . 40
3.2.2.1 Test H
0
:
2
=
2
0
contre H
1
:
2
=
2
0
, moyenne connue . . . . . . . . . . . 40
3.2.2.2 Test H
0
:
2
=
2
0
contre H
1
:
2
=
2
0
, moyenne inconnue . . . . . . . . . . 40
3.2.2.3 Tests unilatraux sur la variance . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2.3 Test sur une proportion pour un grand chantillon . . . . . . . . . . . . . . . . . . . . . . . 41
3.2.3.1 Test H
0
: p = p
0
contre H
1
: p = p
0
. . . . . . . . . . . . . . . . . . . . . . . . 41
3.2.3.2 Tests unilatraux sur une proportion . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2.4 Test de lalatoire dun chantillon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2.4.1 Test de corrlation des rangs de Spearman . . . . . . . . . . . . . . . . . . . . . 41
3.2.4.2 Test des changements de signes . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2.5 Tests dajustement une loi de probabilit spcie . . . . . . . . . . . . . . . . . . . . . . 42
3.2.5.1 Quelques mthodes empiriques . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
La forme de lhistogramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
La nature du phnomne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
Utilisation des moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2.5.2 Ajustement graphiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.5.3 Test dajustement du
2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
Si des estimations sont ncessaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
Effectif minimal dune classe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.5.4 Test de Kolmogorov-Smirnov . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.2.5.5 Test de Shapiro-Wilk (normalit) . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.2.6 Test dindpendance entre deux variables alatoires . . . . . . . . . . . . . . . . . . . . . . 44
3.2.6.1 Cas de deux variables alatoires quantitatives . . . . . . . . . . . . . . . . . . . . 44
Test de corrlation linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Test de corrlation des rangs de Spearman . . . . . . . . . . . . . . . . . . . . . . . 45
3.2.6.2 Cas de deux variables alatoires qualitatives : Test du
2
. . . . . . . . . . . . . . 45
3.2.6.3 Cas de deux variables alatoires binaires et de petits chantillons : Test exact de
Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.2.6.4 Cas dune variable qualitative et dune variable quantitative : ANOVA 1 facteur 46
Test de lhomognit des variances : test de Levene. . . . . . . . . . . . . . . . . . 47
Comparaison des moyennes deux deux . . . . . . . . . . . . . . . . . . . . . . . 47
3.3 Tests de comparaison de deux populations indpendantes . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.1 Cas de deux chantillons gaussiens ou de grandes tailles . . . . . . . . . . . . . . . . . . . 48
3.3.1.1 Test de comparaison des variances de Fisher . . . . . . . . . . . . . . . . . . . . 48
3.3.1.2 Test de comparaison des moyennes de Student avec variances gales . . . . . . . 48
3.3.1.3 Test de comparaison des moyennes avec variances diffrentes . . . . . . . . . . . 49
3.3.1.4 chantillons non gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3.2 chantillons de petites tailles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3.2.1 Test de Wilcoxon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
Cas des ex-quo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.2.2 Test U de Mann-Whitney . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.2.3 Test de la mdiane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.2.4 Test des scores normaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.2.5 Test de Kolmogorov-Smirnov . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.3.3 Cas de deux chantillons dpendants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.3.4 Tests de comparaison de deux proportions, pour de grands chantillons . . . . . . . . . . . 51
3.4 Tests de comparaison de K populations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.4.1 Tests de comparaison de K populations indpendantes . . . . . . . . . . . . . . . . . . . . 52
3.4.1.1 chantillons gaussiens ou de grandes tailles : ANOVA 1 facteur . . . . . . . . . . 52
3.4.1.2 chantillons de petites tailles : test de Kruskal-Wallis . . . . . . . . . . . . . . . 52
3.4.2 Tests de comparaison de K populations dpendantes (cas des mesures rptes) . . . . . . . 52
3.4.2.1 chantillons gaussiens ou de grandes tailles : ANOVA 2 facteurs . . . . . . . . . 52
Estimation des effets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4.2.2 chantillons de petites tailles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
Test de Friedman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
Test de Quade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
Test de Page . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4 Annexes 57
4.1 Rappel sur les convergences des suites de variables alatoires . . . . . . . . . . . . . . . . . . . . . 57
4.1.0.3 Loi faible des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.1.0.4 Loi forte des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.1.0.5 Thorme centrale limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2 Tables statistiques pour test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.2.1 Test des rangs signs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.2.2 Test du signe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.2.3 Test de Wilcoxon (2 populations) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.2.4 Test de Shapiro-Wilk (normalit) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.2.5 Test de Friedman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
6 TABLE DES MATIRES
Chapitre 1
chantillonnage et statistiques descriptives
La problmatique de linfrence statistique consiste, partir dun chantillon de donnes provenant dune
population de loi de probabilit inconnue, dduire des proprits sur cette population : quelle est sa loi (problme
destimation, chapitre 2), comment prendre une dcision en contrlant au mieux le risque de se tromper (problme
de test, chapitre 3).
1.1 chantillon
Un chantillonnage correspond des tirages indpendants et quiprobables dindividus au sein de la population.
On associe alors chaque individu i une variable alatoire X
i
, dont on observe une seule ralisation x
i
.
Dnition 1.1.1. Un chantillon X
1
, . . . , X
n
est un n-uplet (X
1
, . . . , X
n
) de variables alatoires X
i
indpen-
dantes et identiquement distribues (mme loi).
Par simplicit nous utiliserons rgulirement le terme chantillon pour signier la fois lchantillon dobser-
vations x
1
, . . . , x
n
et le n-uplet alatoire (X
1
, . . . , X
n
).
Il est frquent de caractriser un chantillon par des quantits telle que la moyenne, variance, etc. Ces quantits sont
elles-mmes des variables alatoires fonction de X
1
, . . . , X
n
.
Dnition 1.1.2. Une statistique T est une variable alatoire fonction (mesurable) de X
1
, . . . , X
n
.
1.2 Exemple introductif
Le jeu de donnes GermanCredit.data, disponible en ligne
1
, comporte des renseignements sur 1000 clients
dune banque allemande, chaque client tant dcrit par 20 variables. Ce jeu de donnes sera utilis pour illustrer les
notions de ce chapitre. Le tableau 1.2 contient la description des 20 variables.
1.3 Description dune variable
1.3.1 Les diffrents types de variables
Les variables que lon rencontre en statistique peuvent tre de diffrentes natures :
Dnition 1.3.1. une variable est quantitative si ses valeurs sont mesurables. Elle peut tre continue (R) ou
discrte (N).
une variable est qualitative si ses valeurs ne sont pas des valeurs numriques, mais des caractristiques,
appeles modalits.
une variable qualitative est dite ordinale si ses valeurs sont naturellement ordonnes (mention au bac, ap-
prciation, classe dge...). Dans le cas contraire elle est dite nominale (sexe, couleur des cheveux...).
Exercice. Dnir le type de chacune des variables dans lexemple GermanCredit.data.
1
http ://labomath.univ-lille1.fr/jacques/
7
8 CHAPITRE 1. CHANTILLONNAGE ET STATISTIQUES DESCRIPTIVES
numero nom de la variable valeur
1 tat du compte chque (en DM) A11 : < 0
A12 : [0, 200[
A13 : 200 ou versement des salaires pendant au moins un an
A14 : pas de compte chque
2 dure en mois du crdit N
3 historique des crdits A30 : pas de crdit / tous rembourss
A31 : tous les crdits dans la banque rembourss
A32 : crdits en cours
A33 : retard de paiement dans le pass
A34 : compte critique / crdit existant dans dautre banque
4 but du crdit A40 : voiture neuve
A41 : voiture occasion
A42 : quipement / fourniture
A43 : radio / tlvision
A44 : appareils mnagers
A45 : rparation
A46 : ducation
A47 : vacances
A48 : recyclage
A49 : professionnel
A410 : autre
5 montant du crdit (en DM) R
6 montant de lpargne (en DM) A61 : < 100
A62 : [100, 500[
A63 : [500, 100[
A64 : 1000
A65 : inconnu
7 anciennet dans le travail actuel (an) A71 : sans emploi
A72 : < 1
A73 : [1, 4[
A74 : [4, 7[
A75 : 7
8 taux dapport R
9 tat marital A91 : homme divorc / spar
A92 : femme divorc / spar / marie
A93 : homme clibataire
A94 : homme mari / veuf
A95 : femme clibataire
10 autre demandeurs / garants A101 : aucun
A102 : co-demandeur
A103 : garant
11 dure dhabitation N
dans la rsidence actuelle (an)
12 biens A121 : immobilier
A122 : si pas A121 : placement (assurance vie ou part dans la banque)
A123 : si pas A121 et A122 : voiture ou autre, non compris dans la variable 6
A124 : inconnu
13 ge (an) N
14 autre demande de crdits A141 : banque
A142 : magasins
A143 : aucun
15 situation dans la rsidence actuelle A151 : locataire
A152 : propritaire
A153 : occupant titre gratuit
16 nombre de crdits dans la banque N
17 emploi A171 : sans emploi / non quali - tranger
A172 : non quali - non tranger
A173 : emploi quali / fonctionnaire
A174 : gestion / indpendant / emploi hautement quali / haut fonctionnaire
18 nombre de personnes pouvant N
rembourser le crdit
19 tlphone A191 : aucun
A192 : oui, enregistr au nom du client
20 travailleur tranger A201 : oui
A202 : non
TAB. 1.1 Variables du jeu de donnes GermanCredit.data
1.3. DESCRIPTION DUNE VARIABLE 9
1.3.2 Rsums numriques dune variable quantitative
Soit X
1
, . . . , X
n
un chantillon dune variable alatoire quantitative, de fonction de rpartition F.
1.3.2.1 Caractristiques de tendance centrale
La moyenne empirique exprime la valeur moyenne de lchantillon :

X =
1
n
n

i=1
X
i
.
Attention, cette quantit est trs sensible aux valeurs extrmes.
Beaucoup moins sensible aux extrmes, la mdiane M est la valeur qui partage lchantillon, rang dans lordre
croissant X
1
X
2
. . . X
n
(ou dcroissant), en deux parties gales. Si n est impair la mdiane sera Xn+1
2
,
sinon ce sera par convention
Xn
2
+Xn
2
+1
2
. La fonction de rpartition vaut 0.5 en la mdiane : F(M) = 0.5.
Lorsque les donnes sont entires, on utilise parfois le mode qui est la valeur la plus frquente.
1.3.2.2 Caractristiques de dispersion
Ltendue, ou intervalle de variation est la diffrence entre les deux valeurs extrmes : X
max
X
min
. Attention,
les variables X
min
et X
max
nont plus la mme distribution que les variables X
1
, . . . , X
n
de lchantillon. En effet,
on montre (exercice) que leur fonction de rpartition sont respectivement :
F
min
(x) = F
n
(x) et F
max
(x) = 1 (1 F(x))
n
.
Les 1er et 3me quartiles Q
1
et Q
3
sont dnis par F(Q
1
) = 0.25 et F(Q
3
) = 0.75. Lintervalle inter-quartile
[Q
1
, Q
3
] contient donc 50% des donnes.
Bien que lintervalle inter-quartile soit moins sensible aux valeurs extrmes que ltendue, il nest pas trs souvent
utilis. On utilise plus souvent la variance empirique V
2
et sa racine carr V lcart-type :
V
2
=
1
n
n

i=1
(X
i


X)
2
=
1
n
n

i=1
X
2
i


X
2
.
Lcart-type a lavantage de sexprimer dans la mme unit que les donnes.
Le coefcient de variation exprime quant lui le rapport V/

X.
1.3.2.3 Caractristiques de forme
Elles permettent de situer la distribution observe par rapport une distribution de rfrence quest la distribution
gaussienne.
Le coefcient dasymtrie
1
(skewness) indique la symtrie de la distribution :

1
=
1
n

n
i=1
(X
i


X)
3
(
_
n/(n 1)V )
3
,
lintrt du facteur
_
n/(n 1) au dnominateur sera prcis au chapitre 2. Il est nul pour une distribution sym-
trique. Un
1
positif indique une distribution dcale vers la gauche avec une queue de distribution tendue vers la
droite.
Le coefcient daplatissement
2
(kurtosis) renseigne sur la diffusion de la distribution :

2
=
1
n

n
i=1
(X
i


X)
4
(n/(n 1))
2
V
4
.
Il vaut 3 pour une distribution gaussienne. Si la distribution est plus aplatie quune gaussienne, le coefcient dapla-
tissement sera suprieur 3.
Attention : certains logiciels et/ou auteurs soustraient 3
2
pour le comparer directement 0.
10 CHAPITRE 1. CHANTILLONNAGE ET STATISTIQUES DESCRIPTIVES
1.3.3 Reprsentation graphique dune variable quantitative
1.3.3.1 Bote moustaches ou box plot
Une bote moustaches (gure 1.1) rsume la srie de donnes laide des caractristiques suivantes :
la mdiane est le trait centr au milieu de la bote,
la bote est forme par les 1er quartile q
1
et 3me quartile q
3
,
les moustaches sont dnies par les valeurs observes les plus extrmes dans lintervalle [q
1
1.5(q
3

q
1
), q
3
+ 1.5(q
3
q
1
)],
les reprsentent les valeurs extrmes non contenues dans lintervalle prcdent.
2
0
3
0
4
0
5
0
6
0
7
0
FIG. 1.1 Bote moustaches illustrant la distribution des ges des clients.
Cette reprsentation permet galement de comparer facilement la distribution de diffrentes variables, ou encore de
la mme variable pour diffrentes modalits dune variable qualitative (gure 1.2). On remarque ainsi que parmi les
clients de la banque allemande les femmes divorces, spares ou maries ainsi que les hommes maris ou veufs
sont gnralement moins gs que les hommes clibataires, divorcs ou spars.
1.3.3.2 Histogramme
Un histogramme est un graphique en barres verticales accoles obtenu aprs dcoupage en classes de lintervalle
de variation des donnes. La surface de chaque barre est proportionnelle la frquence de la classe. Pour des classes
de mme largeur (souvent utilises dans les logiciels), cest donc la hauteur de la barre qui est proportionnelle la
frquence de la classe. La surface de lensemble des barres vaut 1.
Lhistogramme dune srie de donnes peut tre vue comme une version discontinue empirique de la courbe de
densit dune variable alatoire. Ainsi, sa visualisation permet davoir un avis sur la nature de la distribution des
donnes. Par exemple (gure 1.3), la variable ge ne semble pas suivre une loi normale.
Attention : sur un histogramme gurent en ordonnes des frquences et non pas des effectifs, comme ont tendance
le faire beaucoup de logiciels !
1.3. DESCRIPTION DUNE VARIABLE 11
A91 A92 A93 A94
2
0
3
0
4
0
5
0
6
0
7
0
FIG. 1.2 Bote moustaches illustrant la distribution des ges des clients suivant les diffrents statut maritaux.
Histogram of data[, 13]
data[, 13]
D
e
n
s
i
t
y
20 30 40 50 60 70
0
.
0
0
0
.
0
1
0
.
0
2
0
.
0
3
0
.
0
4
FIG. 1.3 Histogramme des ges des clients.
12 CHAPITRE 1. CHANTILLONNAGE ET STATISTIQUES DESCRIPTIVES
1.3.3.3 La fonction de rpartition empirique
La fonction de rpartition empirique dune srie de donnes est dnie par :
F
n
(x) =
N
x
n
o N
x
= #{X
i
: X
i
x, 1 i n} est le nombre de donnes infrieures ou gales X. En tant que fonction
de lchantillon, la fonction de rpartition empirique est une variable alatoire. Voir un exemple de fonction de
rpartition empirique sur la gure 1.4, calcule et reprsente laide de la fonction ecdf sous le logiciel R.
20 30 40 50 60 70 80
0
.
0
0
.
2
0
.
4
0
.
6
0
.
8
1
.
0
ecdf(x)
x
F
n
(
x
)
FIG. 1.4 Fonction de rpartition empirique des ges des clients.
1.3.4 Rsum numrique dune variable qualitative
Soit X une variable alatoire qualitative prenant ses valeurs dans lespace des modalits {m
1
, . . . , m
p
}. Plutt
que de sintresser directement lchantillon X
1
, . . . , X
n
, on sintresse gnralement aux frquences dobserva-
tion de chaque modalit dans cet chantillon. Pour chaque modalit m
j
de la variable qualitative (1 j p), on
note
N
j
= #{X
i
: X
i
= m
j
, 1 i n}
le nombre doccurrences (effectif) de la modalit m
j
dans lchantillon (

p
j
N
j
= n), et F
i
la frquence corres-
pondante :
F
j
=
N
j
n
.
1.3.5 Reprsentation graphique dune variable qualitative
Les variables qualitatives nominales sont gnralement reprsentes sous la forme de camemberts (pie-chart,
gure 1.5) ou diagramme en barres horizontales (gure 1.6). On utilisera des diagrammes en barres verticales
lorsque les variables sont qualitatives ordinales.
1.3. DESCRIPTION DUNE VARIABLE 13
A91
A92
A93
A94
FIG. 1.5 Diagrammes en camenbert des situations maritales des clients.
A
9
1
A
9
2
A
9
3
A
9
4
0 100 200 300 400 500
FIG. 1.6 Diagrammes en barres des situations maritales des clients.
14 CHAPITRE 1. CHANTILLONNAGE ET STATISTIQUES DESCRIPTIVES
1.4 Description de plusieurs variables
Nous nous intressons dans cette section ltude simultane de deux variables, avec comme objectif de mettre
en vidence une volution simultane de ces deux variables.
1.4.1 Liaison entre deux variables quantitatives
Nuage de points. Ltude graphique du nuage de points reprsentant les deux variables X et Y dintrts permet
de mettre en vidence un certain lien entre les variables :
une liaison linaire positive ou ngative,
une liaison non linaire,
une absence de liaison,
ou encore des structures de liaison plus particulires (absence de liaison en moyenne mais pas en dispersion).
On devine sur lexemple bancaire (gure 1.7) une liaison linaire linaire positive entre la dure et le montant du
crdit.
10 20 30 40 50 60 70
0
5
0
0
0
1
0
0
0
0
1
5
0
0
0
data[, 2]
d
a
t
a
[
,

5
]
FIG. 1.7 Reprsentations du montant du crdit en fonction de sa dure.
Coefcient de corrlation linaire Lindice de liaison utilis est le coefcient de corrlation linaire, dni
par :

XY
=
V
XY
V
X
V
Y
o V
X
et V
Y
sont les cart-types des variables X et Y , et V
XY
est la covariance empirique entre X et Y , dnie
par :
V
XY
=
1
n
n

i=1
(X
i


X)(Y
i


Y ) =
1
n
n

i=1
X
i
Y
i


X

Y
Le coefcient de corrlation (comme la covariance) est symtrique (
XY
=
Y X
) et prend ses valeurs entre 1 et
+1.
1.4. DESCRIPTION DE PLUSIEURS VARIABLES 15
Attention : si les variables X et Y sont indpendantes, leur covariance est nulle et donc leur coefcient de corrla-
tion linaire galement. Mais la rciproque est fausse !
Coefcient de corrlation partielle Il arrive parfois que lon constate une corrlation tonnante entre deux
variables. Ce phnomne arrive lorsque la corrlation est en fait due une troisime variable. On cite souvent
lexemple du nombre de maladies mentales (X) corrl positivement avec le nombre de postes de radio (Y ), cor-
rlation purement ctive tant en fait due une troisime variable non alatoire, le temps (T). Pour remdier ce
phnomne on utilise le coefcient de corrlation partielle (ou conditionnel) de X et Y conditionnellement T :

XY T
=

XY

XT

Y T
_
(1
2
XT
)(1
2
Y T
)
1.4.2 Liaison entre une variable quantitative et une variable qualitative
On a dj vu sur la gure 1.2 comment il est possible dillustrer la liaison entre une variable qualitative et
une variable quantitative en reprsentant cte cte des botes moustaches pour chaque modalit de la variable
qualitative.
Soit X la variable qualitative R modalits, et Y la variable quantitative. Notons N
1
, . . . , N
R
les effectifs de
chaque modalit au sein de lchantillon,

Y
1
, . . . ,

Y
R
et V
2
1
, . . . , V
2
R
les moyennes et variances de Y pour chaque
modalit de X, et

Y et V
2
les moyenne et variance globales de Y .
On montre alors que la variance de Y peut se dcomposer suivant la formule danalyse de variance suivante :
V
2
=
1
n
R

j=1
N
j
(

Y
j


Y )
2
. .
V
2
X
:variance inter (between) ou expliquee parX
+
1
n
R

j=1
N
j
V
2
j
. .
variance intra (within) ou rsiduelle
.
Cette formule danalyse de variance est lanalogue empirique, dans le cas o X est une variable alatoire qualitative,
de la formule vue en probabilit :
V (Y ) = V (E[Y |X]) +E[V (Y |X)].
On peut alors dnir comme indice de liaison le rapport de corrlation :
R
Y |X
=
_
V
2
X
V
2
.
Le carr de ce rapport est appel coefcient de dtermination, et est galement utilis par la suite pour exprimer
le degr de liaison entre deux variables quantitatives.
1.4.3 Liaisons entre deux variables qualitatives
Soient deux variables alatoires qualitatives pouvant prendre respectivement R et C modalits : m
1
, . . . , m
R
et
o
1
, . . . , o
C
. Les donnes de ce type sont prsentes dans un tableau dans lequel les modalits de X gurent en ligne
et celles de Y en colonne, contenant dans chaque case les effectifs conjoints N
rc
. Un tel tableau est appel table de
contingence :
Les N
r
et N
c
sont les marges, ou effectifs marginaux, en lignes et en colonnes.
On appelle r-me prol-ligne lensemble des frquences de la variables Y conditionnelles la modalits m
r
de
X :
{
N
r1
N
r
, ,
N
rc
N
r
, ,
N
rC
N
r
}.
De mme on dnit le c-me prol-colonne :
{
N
1c
N
c
, ,
N
rc
N
c
, ,
N
Rc
N
c
}.
16 CHAPITRE 1. CHANTILLONNAGE ET STATISTIQUES DESCRIPTIVES
o
1
o
c
o
C
sommes
m
1
N
11
N
1c
N
1C
N
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
m
r
N
r1
N
rc
N
rC
N
r
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
m
R
N
R1
N
Rc
N
RC
N
R
sommes N
1
N
c
N
C
n
TAB. 1.2 Table de contingence
Lorsque aucune liaison nexiste entre les deux variables qualitatives, tous les prols-lignes sont gaux entre eux,
ainsi que tous les prols-colonnes. On a ainsi
N
rc
=
N
r
N
c
n
1 r R, 1 c C.
Une mesure de la liaison entre les deux variables peut tre faite en valuant lcart cette situation de non liaison,
par lindice suivant :

2
=
R

r=1
C

c=1
_
N
rc

NrNc
n
_
2
NrNc
n
= n
_
R

r=1
C

c=1
N
2
rc
N
r
N
c
1
_
Le
2
est toujours positif ou nul, et il est dautant plus grand que la liaison est forte. Malheureusement cet indice
dpend des dimensions R et C ainsi que de leffectif total n. Dautres indicateurs sont alors utiliss comme :
le
2
=

2
n
qui dpend encore de C et de R,
le V de Cramer
V =


2
inf(R, C) 1
qui est compris entre 0 et 1,
le T de Tschuprow
T =


2
(R 1)(C 1)
qui est compris entre 0 et 1 et est infrieur au V de Cramer.
1.4.3.1 Cas des variables ordinales
Lorsque les variables alatoires sont ordinales, beaucoup dutilisateurs des statistiques ont tendances considrer
les variables comme si elles taient quantitatives. Or ceci est trs abusif, et peut amener des conclusions errones,
notamment lorsque les modalits ne sont pas quirparties. Une solution plus correcte consiste travailler sur les
rangs associs (cf. section 3.2.1.2). Lchantillon X
1
, . . . , X
n
est remplac par les rangs associs R
1
, . . . , R
n
, o
R
i
est le rang de la variable X
i
dans le classement par ordre croissant des variables de lchantillon.
On utilise alors simplement comme indice de liaison entre deux variables ordinales le coefcient de corrlation
linaire entre leurs rangs, appel coefcient de corrlation des rangs de Spearman.
1.4.4 Vers le cas multidimensionnel
Considrons dsormais un chantillon X
1
, . . . , X
n
de variables alatoires quantitatives p-dimensionnelles (X
i
=
(X
1
i
, . . . , X
p
i
) R
p
). On note gnralement cet chantillon sous la forme dune matrice (ou dun tableau) n p :
X = (X
j
i
)
1in,1jp
.
Les covariances entre les variables sont exprimes par la matrice de variance , de taille p p, composes des
variances sur la diagonale et des covariances en dehors de la diagonale :
=
1
n
Y
t
Y
1.4. DESCRIPTION DE PLUSIEURS VARIABLES 17
o Y est le tableau des donnes centres, obtenu par Y = AX avec Ala matrice nn de terme gnral a
ij
vriant
a
ij
= 1I
i=j
1/n.
Proprits de la matrice de variance :
est symtrique :
t
= ,
Les valeurs propres de sont positives ou nulles. Lorsquil nexiste aucune relation afne presque sre entre
les composantes du vecteur alatoire, la matrice est valeurs propres strictement positives : elle est dnie
positive.
18 CHAPITRE 1. CHANTILLONNAGE ET STATISTIQUES DESCRIPTIVES
Chapitre 2
Estimation
Soit un chantillon X
1
, . . . , X
n
de variables alatoires indpendantes et identiquement distribues, desprance
et de variance
2
.
Lestimation statistique consiste donner une valeur approche une caractristique dune population, partir dun
chantillon dobservations issus de cette population. Nous nous intressons dans un premier temps lestimation de
paramtres de la population (esprance, variance, proportion...). Dans un second temps, nous chercherons dcrire
de faon encore plus ne le comportement dune population statistique en estimant la fonction de rpartition et la
densit de probabilit dune variable alatoire quantitative.
2.1 Prambule : tude des statistiques

X et V
2
Nous avons vu dans le chapitre prcdent lintrt des statistiques

X et V
2
pour dcrire la tendance centrale et
la variabilit dun chantillon X
1
, . . . , X
n
. Nous tudions dans cette section les proprits de ces deux statistiques.
2.1.1 Etude de la statistique

X
On montre facilement (exercice) que :
E[

X] = et V (

X) =

2
n
.
Nous verrons plus tard que la premire proprit fait de

X un estimateur sans biais de lesprance de la population.
On peut montrer galement que les coefcients dasymtrie (skewness) et daplatissement (kurtosis) de

X sont
respectivement

1
(

X) =

1

n
et
2
(

X) = 3 +

2
3
n
o
1
et
2
sont les coefcients dasymtrie
1
et daplatissement
2
de la loi de lchantillon.
On remarque que :
comme V (

X)
n
0 on a E[(

X)
2
] 0 et donc

X converge en moyenne quadratique vers lesprance
de la loi de lchantillon,

1
(

X)
n
0 et
2
(

X)
n
3 ce qui tend penser la normalit asymptotique de

X.
Enn, lapplication de la loi forte des grands nombres au cas dun chantillon (i.i.d.) assure que

X
p.s.

Remarque : la loi faible assure la convergence en probabilit.


Finalement, le thorme central-limite assure la la normalit asymptotique de

X :

X
/

n
L
N(0, 1)
1
le coefcient dasymtrie ou skewness est dnit pour une variable alatoire X de moyenne et de variance
2
par
1
=
E[(X)
3
]

3
, et
est nul si la loi de X est symtrique
2
le coefcient daplatissement ou kurtosis est dnit par
2
=
E[(X)
4
]

4
, vaut 3 si la loi de X est normale et est suprieur 3 si sa densit
est plus aplatie quune gaussienne
19
20 CHAPITRE 2. ESTIMATION
Application 1 : sondage lectoral
Considrons le sondage dune population visant dterminer la proportion p dlecteurs votant pour un certain
candidat C. Nous supposons (ce qui nest gnralement pas le cas dans la ralit) que les diffrents sondeurs agissent
indpendamment, alatoirement et ne relve pas lidentit des personnes sondes.
Soit X
i
la variable alatoire qui vaut 1 si le sond i dclare voter pour C et 0 sinon. Soit n le nombre de personnes
interroges. Avec ces notations, la frquence empirique des personnes dclarant voter pour C, dnie par F =
1
n

n
i=1
X
i
, nest autre que

X.
Les variables (X
1
, . . . , X
n
) constituent un chantillon de loi de Bernoulli de paramtre p. Ainsi, si n est grand, le
thorme central limite nous permet de considrer que F suit une loi normale de moyenne p et de variance
p(1p)
n
.
Exercice. On suppose que 1000 personnes sondes, 300 ont dclar voter pour C.
Sachant que la probabilit pour quune variable alatoire de loi normale centre rduite appartienne [1.96, 1.96]
est de 0.95, donner un intervalle (de conance) auquel la variable alatoire

X a 95% de chance dappartenir.
Rponse : IC(p)
95%
= [0.2716, 0.3284]
2.1.2 Etude de la statistique V
2
On peut montrer en exercice que la statistique V
2
peut scrire sous la forme suivante
V
2
=
1
n
n

i=1
X
2
i


X
2
.
La loi des grands nombres nous assure que
V
2
p.s.

2
,
mais
E[V
2
] =
n 1
n

2
.
La preuve de cette dernire galit est un exercice intressant.
Contrairement la statistique

X, V
2
sera un estimateur biais de la variance de la population : il la sous-estime
lgrement. La variance de V
2
est :
V (V
2
) =
n 1
n
3
[(n 1)
4
(n 3)
4
].
Enn, un thorme limite nous assure que la statistique V
2
converge en loi vers une loi normale :
V
2

n1
n

2
_
V (V
2
)
L
N(0, 1)
A noter que lorsque n , on a lquivalence V (V
2
)
4
4
n
, do lapproximation suivante :
V
2

2
_

4
L
N(0, 1)
Proprit 2.1.1. La corrlation entre

X et V
2
est :
(

X, V
2
) =

3

n3
n1

4
Dmonstration en exercice (indication : on supposera sans perte de gnralit que = 0).
Ainsi, la corrlation entre

X et V
2
est nulle si et seulement si
3
= 0, ce qui est le cas des distributions symtriques.
Attention, cela nimplique ncessairement pas leur indpendance.
An de corriger le fait que E[V
2
] =
2
on utilise la statistique
S
2
=
1
n 1
n

i=1
(X
i


X)
2
pour exprimer la variance de lchantillon. Ainsi, E[S
2
] = E[
n
n1
V
2
] =
2
2.1. PRAMBULE : TUDE DES STATISTIQUES

X ET V
2
21
2.1.3 Dnition des lois du
2
, de Student et de Fisher-Snedecor
Dnition 2.1.1. Soient U
1
, . . . , U
n
une suite de variables alatoires normales centres rduites indpendantes.
On appelle loi du khi-deux n degrs de libert
2
n
la loi de la variable alatoire

n
i=1
U
2
i
Lesprance et la variance dune variable alatoire de loi
2
n
sont :
E[
2
n
] = n et V (
2
n
) = 2n
La densit dune variable alatoire de loi
2
n
est :
f(x) =
x
n
2
1
(
n
2
)2
n
2
e

x
2
1I
{x>0}
o (a) =
_

0
e
x
x
a1
dx
Dnition 2.1.2. Soient X et Y deux variables alatoires indpendantes de lois du
2
n
et
2
p
. On appelle loi de
Fisher de paramtres n et p, note F
n,p
, la loi de la variable
F =
X
n
Y
p
.
Lesprance et la variance dune variable alatoire de loi F
n,p
sont :
E[F] =
p
p 2
pour tout p > 2 et V (F) =
2p
2
(n +p 2)
n(p 2)
2
(p 4)
pour tout p > 4.
Dnition 2.1.3. Soient U une variable alatoire normale centre rduite et X une variable alatoire de loi du

2
n
, indpendante de U. On appelle loi de Student n degrs de libert, note t
n
, la loi de la variable alatoire
T
n
=
U

X
n
Lesprance et la variance dune variable alatoire de loi t
n
sont :
E[T
n
] = 0 si n > 1 et V (T
n
) =
n
n 2
si n > 2.
2.1.4 Cas des chantillons gaussiens
Lorsque lchantillon (X
1
, . . . , X
n
) est issu dune loi normale, la statistique

X suit alors une loi normale en
tant que combinaison linaire de variables normales (plus besoin de thorme asymptotique).
En partant de lgalit X
i


X = X
i
+

X, on peut dcomposer V
2
sous la forme :
V
2
=
1
n
n

i=1
(X
i
)
2
(

X )
2
,
do, en multipliant par
n

2
:
n

i=1
(
X
i

)
2
=
n

2
V
2
+ (

n
)
2
En appliquant le thorme de Cochran sur les formes quadratiques cette dcomposition, on en dduit les deux
thormes suivants.
Thorme 2.1.1. (X
1
, . . . , X
n
) est un chantillon gaussien =
n

2
V
2

2
n1
.
Thorme 2.1.2.

X et V
2
sont indpendants (X
1
, . . . , X
n
) est un chantillon gaussien.
22 CHAPITRE 2. ESTIMATION
2.2 Notion destimateur
Nous avons tudi au paragraphe prcdent les deux statistiques

X et V
2
. Les lois des grands nombres nous
assure que les valeurs x et v
2
de ces statistiques pour un chantillon donn sont de bonnes estimations de la moyenne
et la variance
2
de la population :

X
p.s.
et V
2
p.s.

2
De mme la frquence empirique f dun vnement est une bonne estimation de sa probabilit p.
Les variables alatoires

X, V
2
et F sont des estimateurs de ,
2
et p.
Dnition 2.2.1. On appelle estimateur dun paramtre dune population, toute fonction
T
n
= f(X
1
, . . . , X
n
)
Un estimateur est une variable alatoire (cest une fonction de variable alatoire).
Il est cependant possible dutiliser plusieurs estimateurs pour une mme quantit (pour une distribution sym-
trique, la mdiane est galement un estimateur de ). Nous allons donc prsenter dans le paragraphe suivant les
diffrentes qualits dun estimateur qui nous guideront dans son choix.
2.3 Qualit dun estimateur
La premire qualit que lon attend dun estimateur est quil converge vers le paramtre quil estime, lorsque la
taille de lchantillon tend vers linni.
Dnition 2.3.1. Un estimateur T
n
est faiblement consistant sil converge en probabilit vers quand n tend vers
linni
> 0 IP(|T
n
| )
n
0
Un estimateur T
n
est fortement consistant sil converge presque-srement vers quand n tend vers linni
IP
_
lim
n
T
n
=
_
= 1
Une seconde qualit est labsence de biais dun estimateur.
Dnition 2.3.2. On appelle biais dun estimateur la quantit E[T
n
]
On parle alors destimateur sans biais, biais ou asymptotiquement sans biais.
Exemple. Que dire des estimateurs

X, V
2
et S
2
?
On mesure galement la prcision dun estimateur T
n
par lerreur quadratique moyenne E[(T
n
)
2
], qui se
dcompose sous la forme
E[(T
n
)
2
] = V (T
n
) + (E[T
n
] )
2
Ainsi, de deux estimateurs sans biais, le plus performant sera celui de variance minimale. Nous chercherons donc
gnralement utiliser des estimateurs sans biais de variance minimale.
Exemple. On peut montrer que lorsque est connue, lestimateur V
2

=
1
n

n
i=1
(X
i
)
2
est meilleur que S
2
.
Exercice. Proposer 2 estimateurs pour le paramtre dune loi de Poisson et dterminer le meilleur.
2.4. ESTIMATEUR EXHAUSTIF 23
2.4 Estimateur exhaustif
Un chantillon X
1
, . . . , X
n
contient une certaine information vis--vis dun paramtre inconnu de la popula-
tion. Une statistique T
n
rsumant linformation contenue dans lchantillon, il sera trs important de ne pas perdre
dinformation : cest cette qualit que lon nomme lexhaustivit.
Dnition 2.4.1. On appelle vraisemblance du paramtre la fonction
L(x
1
, . . . , x
n
, ) =
_
n
i=1
f(x
i
; ) si les X
i
sont continues

n
i=1
IP(X
i
= x
i
; ) si les X
i
sont discrtes
o f(.; ) est la densit de la variable alatoire X
1
et IP(X
i
= x
i
; ) est la probabilit de lvnement {X
i
= x
i
}
paramtre par .
Soit T
n
une statistique fonction de X
1
, . . . , X
n
de loi g(t, ) (densit dans le cas continu, P(T = t) dans le cas
discret).
Dnition 2.4.2. La statistique T est exhaustive pour si
L(x
1
, . . . , x
n
, ) = g(t, )h(x
1
, . . . , x
n
).
En dautre terme, elle est exhaustive si la loi de lchantillon sachant T = t ne dpend pas de
Ce qui signie que si T est connue, lchantillon napportera plus aucune autre information supplmentaire sur
.
Exemple. Pour la loi normale de moyenne connue , la statistique T =

n
i=1
(X
i
)
2
est exhaustive pour
2
.
Thorme 2.4.1 (de Darmois). Soit X
1
, . . . , X
n
un chantillon dont le domaine de dnition de la loi ne dpend
pas de . Une condition ncessaire et sufsante pour que lchantillon admette une statistique exhaustive est que la
densit soit de la forme :
f(x, ) = exp[a(x)() +b(x) +()]
Une telle densit est dite de la famille exponentielle.
Si de plus lapplication x
1


n
i=1
a(x
i
) est bijective et C
1
alors T =

n
i=1
a(X
i
) est une statistique exhaustive
particulire.
Exemple. Montrer que T = ln

n
i=1
X
i
est une statistique exhaustive pour une loi Gamma de paramtre inconnu,
dont la densit est
f(x) =
x
1
()e
x
Exercice. Donner des statistiques exhaustives pour les lois de Bernoulli, exponentielle et normale (avec soit la
variance connue, soit la moyenne).
La notion dexhaustivit renseigne sur le pouvoir dune statistique vhiculer linformation contenue dans
un chantillon vis--vis dun paramtre inconnu que lon cherche estimer. La quantit dinformation sur le
paramtre apporte par lchantillon sexprime elle par linformation de Fisher.
Dnition 2.4.3. On appelle quantit dinformation de Fisher I
n
() apporte par un n-chantillon sur le paramtre
la quantit suivante (si elle existe) :
I
n
() = E
_
_
lnL

_
2
_
Thorme 2.4.2. Si le domaine de dnition de la loi de lchantillon ne dpend pas de , on a :
I
n
() = E
_

2
lnL

2
_
24 CHAPITRE 2. ESTIMATION
Proprit 2.4.1. (i) Si le domaine de dnition de la loi de lchantillon ne dpend pas de , I
n
() = nI
1
()
(ii) Si la loi de lchantillon est une loi normale de variance connue, ( = ), alors I
1
() =
1

2
(iii) en notant I
T
() = E
_
_
lng(t,)

_
2
_
linformation de Fisher apporte par la statistique T, avec g(t, ) la
densit de T, on a I
T
() I
n
(). On a galit si T est exhaustive, et rciproquement si le domaine de
dnition de la loi de lchantillon est indpendant de .
La proprit 1 dit que chaque observation a la mme importance, ce qui nest pas le cas lorsque le domaine de
dnition dpend de , comme pour une loi uniforme sur [0, ], o la plus grande valeur de lchantillon apporte
plus dinformation que les autres sur .
La proprit 2 nous assure linformation apporte par une observation est dautant plus grande que la dispersion est
petite.
2.5 Estimation sans biais de variance minimale
Nous avons vu prcdemment que les deux qualits les plus importantes pour un estimateur taient dtre sans
biais, et de variance minimale. Il existe un certain nombre de thormes facilitant la recherche dun tel estimateur.
Thorme 2.5.1 (Unicit). Sil existe un estimateur de sans biais de variance minimale, il est unique presque
srement.
Thorme 2.5.2 (Rao-Blackwell). Soit T un estimateur sans biais de et U une statistique exhaustive pour .
Alors T

= E[T|U] est un estimateur sans biais de au moins aussi bon que T (dun point de vue variance).
Thorme 2.5.3. Sil existe une statistique exhaustive U, alors lunique estimateur T de sans biais de variance
minimale ne dpend que de U.
Dnition 2.5.1. Une statistique U est complte si E[h(U) = 0] h = 0p.s.
Thorme 2.5.4 (Lehmann-Scheff). Si T

est un estimateur sans biais de dpendant dune statistique exhaustive


complte U alors T

est lunique estimateur sans biais de variance minimale. En particulier si lon dispose dun
estimateur T sans biais de , T

= E[T|U].
Exemple. Le nombre de bug informatique par semaine dun logiciel donn suit une loi de Poisson de paramtre
. On cherche valuer la probabilit de navoir aucune panne pendant une semaine P(X = 0) = e

. Que
proposez-vous ?
Le rsultat suivant nous indique une borne laquelle ne peut tre infrieure la variance dun estimateur.
Thorme 2.5.5 (Ingalit de Frchet-Darmois-Cramer-Rao). Si le domaine de dnition de la loi de lchantillon
ne dpend pas de , tout estimateur T vrie
V (T)
1
I
n
()
et si T est un estimateur sans biais de h()
V (T)
[h

()]
2
I
n
()
Dnition 2.5.2. Un estimateur qui atteint la borne de Cramer-Rao est dit efcace. Autrement dit, un estimateur
est efcace sil nest pas possible de trouver un estimateur sans biais de variance plus faible.
Thorme 2.5.6 (efcacit). la borne de Cramer-Rao ne peut tre atteinte que si la loi de lchantillon est
de la famille exponentielle :
f(x, ) = exp[a(x)() +b(x) +()]
2.6. MTHODE DU MAXIMUM DE VRAISEMBLANCE 25
dans ce cas il nexiste quune seule fonction du paramtre ( une transformation linaire prs) qui puisse
tre estime efcacement, cest
h() =

()

()
Lestimateur de h() est alors
T =
1
n
n

i=1
a(X
i
)
et la variance minimale est
V (T) =
h

()
n

()
Exemple. Donner un estimateur de lcart-type dune loi normale de moyenne connue.
La recherche destimateur sans biais de variance minimale passe donc par la recherche destimateur exhaustif.
Or cette recherche peut ne pas aboutir, et elle est de plus assez lourde. La mthode du maximum de vraisemblance
est une mthode systmatique permettant de trouver des estimateurs.
2.6 Mthode du maximum de vraisemblance
La mthode du maximum de vraisemblance permet de trouver des estimateurs dans toutes les situations, mme
les plus compliques. Cest une des mthodes destimation les plus utilises.
Cette mthode consiste recherche le paramtre qui maximise la fonction de vraisemblance L(x
1
, . . . , x
n
, ),
cest--dire pour lequel la densit de lchantillon est la plus grande.
Lestimateur du maximum de vraisemblance (EMV) est donc une solution de lquation de vraisemblance

lnL(X
1
, . . . , X
n
, ) = 0
vriant

2

2
lnL(X
1
, . . . , X
n
,

) < 0. Un certain nombre de proprit nous prouve lintrt de cette estimateur.
Proprit 2.6.1. (i) Sil existe une statistique exhaustive U, alors lEMV en dpend.
(ii) Si

est lEMV, f(

) est lEMV de f()


(iii) Il existe une suite

n
de racines de lquation de vraisemblance qui converge presque srement vers . de
plus, il existe un rang partir duquel le maximum est atteint.
(iv)

n
L
N(,
1
In()
).
La dernire proprit nous assure que lEMV est asymptotiquement efcace. Il est donc important davoir un
chantillon important pour utiliser cet estimateur.
Lorsque le modle comporte plusieurs paramtres
1
, . . . ,
p
, il sera ncessaire de rsoudre le systme dquation
simultanes

i
lnL = 0 1 i p
Remarque 2.6.1. Lquation de vraisemblance na pas ncessairement une unique racine.
La solution de lquation de vraisemblance nest pas toujours calculable analytiquement. Dans ce cas, des
algorithmes de recherche de maximum (de type Newton) peuvent tre utiliss.
2.7 Estimation par intervalles
Il est souvent plus intressant de donner une estimation dun paramtre dintrt sous la forme dun intervalle,
associ une certaine probabilit dtre dans cet intervalle, plutt que de donner une estimation ponctuelle de ce
paramtre.
Exemple. Sondages lectoraux.
26 CHAPITRE 2. ESTIMATION
Considrons un estimateur T de dont on connait la loi de probabilit. On prendra bien entendu le meilleur
estimateur possible, ds lors que sa loi est connue. Connaissant la loi de T qui dpend de , pour une valeur estime
t de il est possible de dterminer un intervalle tel que :
P( [t
1
(t, ), t
2
(t, )]) = 1 .
Ainsi, la vraie valeur (inconnue) du paramtre sera dans lintervalle [t
1
(t, ), t
2
(t, )] avec une probabilit 1 .
On dit que [t
1
(t, ), t
2
(t, )] est un intervalle de conance de niveau 1 , que lon note IC
1
().
A contrario, le risque est la probabilit pour que lintervalle de conance ne comprenne pas .
Remarque 2.7.1. (i) lintervalle de conance est fonction de lestimation t de ,
(ii) lintervalle de conance est galement fonction de . Plus est petit, plus le niveau de conance est grand,
et donc plus lintervalle slargit.
(iii) lorsque la taille de lchantillon grandit, lestimateur T tant convergeant la variance V (T) diminue, et
lintervalle se rtrcit.
Soit a et b les bornes dun intervalle de conance IC
1
() de niveau de conance 1 pour le paramtre .
On a :
p(a b) = 1 et donc p( < a) +p( > b) =
En posant =
1
+
2
, il existe une innit de choix possibles pour
1
et
2
, et donc de choix pour a et b. Nous ne
considrerons que le cas dun intervalle bilatral risques symtriques, pour lesquels le risque est partag en deux
parts gales
1
=
2
=

2
. Nanmoins, il arrive en pratique que lon sintresse des risque unilatraux, mais nous
en parlerons plus en dtail dans le chapitre 3 sur les tests statistiques.
Dans la suite de ce chapitre, nous dcrivons les intervalles de conance les plus classiques. Mais il faut garder
lesprit que ce ne sont pas les seuls, et que ds lors que lon connait la loi de lestimateur, il est possible de donner
un intervalle de conance.
2.7.1 Intervalle de conance sur lesprance
2.7.1.1 Intervalle de conance sur lesprance dune loi normale avec variance connue
Soit X N(,
2
) avec connu. Le meilleur estimateur de est

X. Comme X est de loi normale,
T =

n
N(0, 1).
En prenant des risques symtriques, on peut lire dans les tables les quantiles u

2
et u
1

2
de la loi normale centre
rduite dordres respectifs

2
et 1

2
, tels que :
IP(u

2
T u
1

2
) = 1
ou encore
IP(T u

2
) = p(T u
1

2
) =

2
.
La notion de quantile est dnie de la faon suivante :
Dnition 2.7.1. pour une variable alatoire continue X, le nombre q

tel que
IP(X q

) = ,
est le quantile dordre de la loi de X.
Ces quantiles sont nots de diffrentes faons : u

pour la loi normale, t


n

pour la loi de Student n degrs de


libert,
n

pour la loi du
2
n
, etc.
La gure 2.1 illustre la dnition de ces quantiles.
Comme la loi normale est symtrique, on a la proprit suivante :
u
1

2
= u

2
. (2.1)
2.7. ESTIMATION PAR INTERVALLES 27
4 3 2 1 0 1 2 3 4
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5

2 2

1
u u
2 2
FIG. 2.1 quantiles dordre

2
et 1

2
de la loi normale centre rduite
Ces quantiles sont donns par les tables statistiques. Par exemple, pour = 0.05, pour lequel on obtient u

2
=
1.96.
Daprs (2.1),
IP(u

2
T u
1

2
) = 1 ,
peut scrire
IP(u

2
T u

2
) = 1 ,
do on tire
IP(

X +u

n


X u

n
) = 1 ,
do lintervalle de conance :
IC
1
() = [

X +u

n
,

X u

n
].
Pour une ralisation numrique x
1
, ..., x
n
du n-chantillon X
1
, ..., X
n
, on obtient lintervalle de conance sur m au
niveau de conance 1 :
IC
1
() = [ x +u

n
, x u

n
]. (2.2)
qui donne pour = 0.05 :
[ x 1.96

n
, x + 1.96

n
]
2.7.1.2 Intervalle de conance sur lesprance dune loi normale avec variance inconnue
Si la variance
2
est inconnue, on utilise a sa place son meilleur estimateur S
2
.
Comme on sait que
n

2
V
2
suit une loi du
2
n 1 degrs de libert,
n1

2
S
2
aussi.
La statistique que lon utilise est donc
T
n1
=

X
S

n
.
En remarquant quelle scrit
T
n1
=

n
_
n1

2
S
2
n1
28 CHAPITRE 2. ESTIMATION
on trouve quelle suit une loi de Student n 1 degrs de libert, comme rapport dune loi normale centre rduite
sur la racine dun
2
divis par son degr de libert.
Comme prcdemment, on obtient lintervalle de conance :
IC
1
() = [ x +t
n1,

2
S

n
, x t
n1,

2
S

n
],
o t
n1,

2
est le quantile dordre

2
de la loi de Student n 1 degrs de libert.
2.7.1.3 Si la loi de X nest pas une loi normale
Dans ce cas, lorsque la taille de lchantillon n est suprieure ou gale 30, le thorme central limite nous
permet dutiliser le fait que

X suit une loi normale, et donc les rsultats prcdents sont applicables.
2.7.2 Intervalle de conance sur la variance dune loi normale
2.7.2.1 Intervalle de conance sur la variance dune loi normale lorsque est connue
Comme est connue, le meilleur estimateur de la variance est la statistique :
V
2

n
i=1
(X
i
)
2
n
.
Or,
P
(Xi)
2

2
=
n

2
V
2

suit une loi du


2
n degrs de libert en tant que somme de n carrs de loi normale centre
rduite indpendantes.
Il est possible dobtenir un intervalle de conance sur
2
, en xant le niveau de conance 1 dans lingalit :
IP(
2
n,

2
V
2


2
n,1

2
) = 1 ,
o
2
n,

2
et
2
n,1

2
les quantiles dordre

2
et 1

2
de la loi du
2
n degrs de libert.
Lintervalle est alors :
IC
1
(
2
) = [
nV
2

2
n,1

2
,
nV
2

2
n,

2
]
On obtient une estimation numrique de cet intervalle en remplaant V
2

par sa valeur sur le n-chantillon de X


obtenu par exprience.
2.7.2.2 Intervalle de conance sur la variance dune loi normale lorsque est inconnue
Si est inconnue, on utilise lestimateur de
2
:
S
2
=

n
i=1
(X
i


X)
2
n 1
.
La proprit qui nous assure que
n1

2
S
2
suit un loi du
2
n1
nous permet de construire lintervalle de conance :
IC
1
(
2
) = [
(n 1)S
2

2
n1,1

2
,
(n 1)S
2

2
n1,

2
],
et donc, en remplaant S
2
par sa valeur s
2
sur le n-chantillon obtenu par exprience :
IC
1
(
2
) = [
(n 1)s
2

2
n1,1

2
,
(n 1)s
2

2
n1,

2
].
Remarque 2.7.2. Ces intervalles de conance ne sont valables que pour une loi normale. Il nest pas possible
dtendre ces rsultats au cas dautre loi comme pour les intervalles de conance sur la moyenne.
2.7. ESTIMATION PAR INTERVALLES 29
2.7.3 Intervalle de conance sur une proportion
Nous supposons que la proportion p dindividus prsentant un certain caractre C au sein dune population est
inconnue. Le meilleur estimateur de p est la frquence empirique F, que lon peut dnir par :
F =

X =

n
i=1
X
i
n
,
o X
i
est une v.a. de Bernoulli de paramtre p, dnie par :
X
i
=
_
1 si lindividu i possde la caractre C
0 sinon.
Comme X suit une loi de Bernoulli B(p), nF =

n
i=1
X
i
suit une loi binomiale B(n, p).
Si n est faible, on utilisera les tables de la loi binomiale (ou des abaques).
Si n est sufsamment grand, de sorte que np > 5 et n(1 p) > 5, on peut considrer (loi des grands nombres) que

n
i=1
X
i
suit une loi normale N(np, np(1 p)), do F suit une loi normale N(p,
p(1p)
n
), et donc T =
Fp
q
p(1p)
n
suit une loi N(0, 1).
On obtient alors, en fonction des quantiles p(u

2
T u

2
) = 1 , lintervalle de conance sur p :
IC
1
(p) = [F +u

2
_
p(1 p)
n
, F u

2
_
p(1 p)
n
].
Cet intervalle recouvre p avec la probabilit 1 , mais il est toutefois inoprant puisque ses bornes dpendent de
p. En pratique, il existe trois faons dobtenir lintervalle de conance. Nous retiendrons celle qui remplace p par
son estimateur F.
Ainsi, on obtient lintervalle de conance sur la proportion p en fonction de la valeur f de F sur notre chantillon :
IC
1
(p) = [f +u

2
_
f(1 f)
n
, f u

2
_
f(1 f)
n
].
2.7.4 Rcapitulatif
Intervalle de conance dune moyenne
IC
1
()
loi normale ou n 30

2
connue
[ x +u

n
, x u

n
]

2
inconnue
[ x +t
n1,

2
S

n
, x t
n1,

2
S

n
]
Intervalle de conance dune variance
IC
1
(
2
)
loi normale
connue
[
nV
2

2
n,1

2
,
nV
2

2n,

2
]
inconnue
[
(n1)s
2

2
n1,1

2
,
(n1)s
2

2
n1,

2
]
Intervalle de conance dune proportion
IC
1
(p)
np > 5 et n(1 p) > 5
[f +u

2
_
f(1f)
n
, f u

2
_
f(1f)
n
]
30 CHAPITRE 2. ESTIMATION
2.8 Plus destimation statistique
2.8.1 Estimation baysienne
Le point de vue baysien suppose que les paramtres de la loi des observations X
1
, . . . , X
n
sont galement
des variables alatoires.
La densit g() de est la loi a priori de .
La densit conditionnelle des observations X
i
sachant est f(x
i
|).
La vraisemblance (conditionnelle) est L(x
1
, . . . , x
n
, ) =

n
i=1
f(x
i
|).
La loi conjointe des observations et du paramtre (X
1
, . . . , X
n
, ) est
f(x
1
, . . . , x
n
, ) = L(x
1
, . . . , x
n
, )g().
On dnit galement la loi a posteriori du paramtre connaissant les observations :
g(|X
1
= x
1
, . . . , X
n
= x
n
) =
L(x
1
, . . . , x
n
, )g()
_
R
L(x
1
, . . . , x
n
, )g()d
.
2.8.1.1 Application : estimation baysienne de la moyenne dune loi normale de variance connue
On suppose que la loi de lchantillon conditionnellement est N(,
2
), et que la loi a priori de est
galement une loi normale N(
0
,
2
0
).
Le calcul de la loi a posteriori donne une loi normale desprance et de variance :
E[|X
1
, . . . , X
n
] =

2
n

0
+
2
0

X

2
n
+
2
0
et V (|X
1
, . . . , X
n
) =

2
0
n

2
n
+
2
0
Lestimateur baysien de , qui est lesprance a posteriori est donc une moyenne pondre de lesprance a priori
et de la moyenne empirique des observations.
Introduisons le concept de prcision, comme linverse de la variance. La prcision a priori sur est
1
=
1

2
0
et sur la
moyenne empirique elle est
2
=
n

2
. On voit alors que E[|X
1
, . . . , X
n
] =
10+2

X
1+2
et
1
V (|X1,...,Xn)
=
1
+
2
.
Lestimateur baysien de est donc la moyenne pondre des deux estimations (a priori et empirique) pondres
par leur prcision. Si linformation a priori est trs prcise, les observations nauront que peu dinuence dans
lestimateur baysien. Au contraire si la prcision a priori tend vers 0 ou si n tend vers linni, lestimateur baysien
est lestimateur classique

X.
Cette application fonctionne trs bien car la loi a posteriori se calcule facilement. Mais pour des lois quel-
conques, les calculs sont gnralement beaucoup plus compliqus, et la loi a posteriori doit tre estime par des
algorithmes spciques.
La statistique baysienne peut tre vu comme un rafnement de la statistique classique, mais le choix de la loi
a priori peut tre trs problmatique et reste toujours subjectif. Nanmoins, pour les problmes statistique dans
lesquels on dispose de peu de donnes (abilit de systmes trs rarement dfaillant par exemple), lincorporation
dune information a priori ( jugement dexpert ) peut savrer trs intressante.
2.8.2 Estimation robuste : cas de la valeur centrale dune distribution symtrique
Lestimation x de lesprance dune distribution symtrique est trs sensibles des valeurs extrmes aber-
rantes .
Lorsque des valeurs aberrantes sont prsentes (ou souponnes), un estimateur robuste de lesprance peut tre
utilis : la moyenne tronque dordre , qui est la moyenne arithmtique obtenue en liminant de lchantillon les
n plus grandes et plus petites valeurs. Une valeur gnralement recommande est = 15%.
La mdiane est le cas extrme de cet estimateur pour = 50%, et est trs robuste.
Au lieu dliminer les n plus grandes valeurs, il est galement possible de toutes les xer la plus grande valeur
conserves : cest ce quon appelle la winzorization .
Dautres approches existent galement, comme celle des M-estimateurs, qui consistent chercher une estima-
tion qui minimise une fonction du type
n

i=1
h
_
x
i

s
_
2.9. ESTIMATION FONCTIONNELLE 31
o s est une estimation robuste de la dispersion. Toute une famille destimateur est ainsi dnie en fonction du
choix de h. Pour h(x) = lnf(x), avec f la densit des donnes, on retrouve les estimateurs du maximum de
vraisemblance.
2.9 Estimation fonctionnelle
2.9.1 Estimation de la fonction de rpartition
La fonction de rpartition empirique, introduite section 1.3.3.3 et dnie comme la proportion des n variables
X
1
, . . . , X
n
infrieures ou gales x :
F
n
(x) =
#{X
i
: X
i
x, 1 i n}
n
(2.3)
est un estimateur de la fonction de rpartition F(x) = p(X t).
Cest une variable alatoire, en tant que fonction des variables alatoires X
1
, . . . , X
n
. A un chantillon dobser-
vations x
1
, . . . , x
n
correspond une ralisation de cette fonction alatoire, qui est une fonction en escalier de sauts
1/n.
Thorme 2.9.1 (Glivenko-Cantelli). Soit F
n
la fonction de rpartition empirique dun chantillon (X
1
, . . . , X
n
)
o les X
i
ont pour fonction de rpartition F. Alors
x R, F
n
(x)
p.s.
F(x)
||F
n
F||

p.s.
0
Preuve. Le premier point est dmontr en cours, le second point est admis. Pour un rappel sur les diffrents modes
de convergence dune suite de variables alatoires, se reporter lannexe 4.1.
Le second point de ce thorme nous assure que pour une taille assez grande dchantillon, la fonction de
rpartition thorique peut tre approxime par la fonction de rpartition empirique.
2.9.2 Estimation non paramtrique de la densit
Pour aller plus loin se rfrer [1].
La connaissance de la densit dune variable alatoire donne une information trs importante. Nous avons vu quun
premier estimateur de la densit de probabilit pouvait tre lhistogramme (section 1.3.3.2). Lhistogramme est un
graphique en btons, dont la hauteur pour une classe j est proportionnelle la proportion de point observ dans
cette classe
nj
n
(o n
j
est le nombre de points dans la classe et n est le nombre de points total). Si la longueur de
lintervalle vaut h, la hauteur est alors
nj
n
1
h
, de sorte ce que lair totale des btons soit gale 1. Cet estimateur
discontinue samliore lorsque lon fait tendre vers 0 la largeur h de chaque intervalle, et que lon fait tendre vers
linni le nombre de points par classe. Mais en pratique le nombre de points est ni, et cet estimateur discontinu
nest pas le meilleur estimateur pour une fonction continue.
Nous prsentons ici une mthode destimation fonctionnelle plus volue, qui permet, en labsence de toute hypo-
thse de modle paramtrique donn, une estimation point par point de la densit de probabilit.
On cherche une estimation

f
n
de la densit f minimisant lerreur quadratique moyenne intgre :
MISE = E
__
R
(

f
n
(x) f(x))
2
dx
_
.
Soit X
1
. . . X
n
un chantillon, rang dans lordre croissant, de la variable alatoire dont on cherche estimer
la densit. Sachant que la fonction de densit est la drive de la fonction de rpartition, on a
f(x) = lim
h0
F(x +h) F(x h)
2h
,
et on peut donc approcher f, pour de petite valeur de h par
f
n
(x)
F(x +h) F(x h)
2h

F
n
(x + h) F
n
(x h)
2h
32 CHAPITRE 2. ESTIMATION
o F
n
est la fonction de rpartition empirique. En remplaant F
n
par son expression (2.3), on obtient lestimateur
par fentre mobile de la densit
f
n
(x)
1
nh
n

i=1
1
2
1I
[1,1]
_
X
i
x
h
_
.
Cet estimateur se gnralise lestimateur par la mthode du noyau de Parzen

f
n
(x) =
1
nh
n

i=1
K
_
x x
i
h
_
o K est une fonction noyau, dnie de R R
+
et dintgrale gale 1.
Il existe diffrents types de noyau, parmi lesquels :
uniforme (ci-dessus) : K(x) =
1
2
1I
[1,1]
(x),
gaussien : K(x) =
1

2
exp
x
2
/2
,
triangulaire : K(x) = (|x| + 1)1I
[1,1]
,
Epanechnikov : K(x) = 3/4(1 x
2
)1I
[1,1]
.
Le choix du noyau nest pas dune importance capitale, au contraire du choix de la taille de la fentre h : plus h
est petit, plus les uctuations sont importantes, plus h est grand, plus le lissage est important. Tout lintrt sera
de trouver le meilleur compromis. On recommande gnralement le choix de h = s
n
n
1/5
o s
n
est lcart-type
estim des observations.
Proprits des estimateurs noyau

f
n
estimateur asymptotiquement sans biais : lim
n
E[

f
n
(x)] = f(x) pour tout x R
V (

f
n
(x)) 0 si h 0 et hn (h tend vers 0 moins vite que 1/n)
vitesse de convergence en n
4/5
:
E[(

f
n
(x) f(x))
2
] cste n
4/5
,
qui est la vitesse optimale pour les estimateurs non-paramtriques, mais qui est plus faible que la vitesse
typique des mthodes paramtriques, gnralement n
1
.
Logiciel : lestimation par noyau se fait sous le logiciel R laide de la fonction density.
Chapitre 3
Tests statistiques
On distingue diffrentes catgories de tests :
les tests paramtriques ont pour objet de tester une certaine hypothse relative un ou plusieurs paramtres
dune variable alatoire de loi spcie (gnralement suppose normale). Lorsque le test est toujours valide
pour des variables non gaussiennes, on dit que le test est robuste ( la loi).
les tests non paramtriques qui portent gnralement sur la fonction de rpartition de la variable alatoire,
sa densit...
les tests libres (distributions free) qui ne supposent rien sur la loi de probabilit de la variable alatoire tudie
(et qui sont donc robuste). Ces tests sont souvent non paramtriques, mais pas toujours.
Dans ce cours, nous classons les tests en fonction de leur fonctionnalit :
Tests sur une population :
test sur le caractre centrale dune population,
test sur la variance,
test sur une proportion,
test de lalatoire dun chantillon,
test dajustement une loi spcie,
test de liaison entre variables (quantitatives, qualitatives, mixtes)
Tests de comparaison de deux populations
3.1 Thorie des tests paramtriques
3.1.1 Introduction : test sur lesprance dune loi normale de variance connue
Soit un chantillon (X
1
, ..., X
n
) de loi N(,
2
), avec inconnue et
2
connue. On cherche tester si lesp-
rance est gale ou non une valeur de rfrence
0
:
H
0
: =
0
contre H
1
: =
0
Sous lhypothse H
0
, la statistique suivante suit une loi N(0, 1)
T =

X
0

n
.
Ainsi, si H
0
est vraie, la valeur de cette statistique pour lchantillon observ devrait appartenir lintervalle
[u

2
, u
1

2
] avec la probabilit 1 . Ce qui revient dire que la ralisation de

X appartient lintervalle
[
0
+u

n
,
0
+ u
1

n
]
avec une probabilit de 1 .
Ainsi, si lobservation x de

X nest pas dans cet intervalle on peut dcider de rejeter lhypothse H
0
. Le risque de
se tromper en rejetant H
0
est .
33
34 CHAPITRE 3. TESTS STATISTIQUES
3.1.2 Vocabulaire des tests
Un test est un procd qui permet de trancher entre deux hypothses, au vu des rsultats dun chantillon : on
teste une hypothse nulle contre une hypothse alternative. Lhypothse nulle H
0
est lhypothse que lon veut
contrler. Elle est toujours de forme simple
H
0
: =
0
o
0
est une valeur donne du paramtre. Le choix de cette hypothse est fait de manire conservative : si on
test un mdicament, on prendra H
0
lhypothse o le mdicament na pas deffet. Cest galement souvent la plus
importante des deux hypothses puisque cest celle dont on contrle le risque. Lhypothse alternative H
1
est quant
elle gnralement composite :
H
1
:
1
o
1
est une partie de R non ncessairement rduite un lment. Cette hypothse se ramne souvent un des cas
suivants : <
0
, >
0
(test unilatraux) ou =
0
(test bilatral).
Suivant la justesse de la dcision prise lissue du test, on est en prsence de 4 cas de gure (tableau 3.1).

Dcision
Vrit
H
0
H
1
H
0
conclusion correcte erreur de deuxime espce
H
1
erreur de premire espce conclusion correcte
TAB. 3.1 Erreurs associs un test
Exemple (Importance du choix des hypothses). Considrons le test des hypothses suivantes :
hypothse H
0
: le patient doit tre hospitalis,
hypothse alternative H
1
: le patient ne doit pas tre hospitalis.
Lerreur de premire espce consiste ne pas hospitaliser un patient qui en avait besoin. Cette erreur est trs grave,
puisquelle peut conduire au dcs du patient. Le risque de deuxime espce, qui consiste hospitaliser un patient
qui nen avait pas besoin peut savrer moins grave.
Pour lexemple du mdicament, lerreur de premire espce consiste mettre sur le march un mdicament qui na
pas deffet.
3.1.3 Probabilit derreur et risque, puissance de test
On associe aux erreurs de premire et deuxime espces les probabilits (risques) associes (tableau 3.2). Le
niveau de conance du test est la probabilit 1 de ne pas rejeter raison H
0
. Le risque de premire espce
est le risque de rejeter H
0
tort. Le risque de deuxime espce est le risque de conserver H
0
tort.

Dcision
Vrit
H
0
H
1
H
0
niveau de conance 1 risque
H
1
risque 1
TAB. 3.2 Risques associs un test
En pratique il est dusage de xer le risque : 5%, 1%, 10%. Ainsi, on contrle le risque associ lerreur de
premire espce, qui nous lavons vu est lerreur la plus grave. Choisir un risque trop petit va conduire ne rejeter
que trs rarement H
0
(si on ne la rejette pas on ne risque pas de la rejeter tort !). Au contraire, choisir un risque
trop grand va conduire naccepter que trs rarement .
Le risque se dduit alors par le calcul, si la loi sous H
1
est connue. Il varie en sens contraire de . Ainsi, en
diminuant le risque , on augmente le risque . On dnit alors la puissance du test par 1 , qui correspond la
probabilit de rejeter H
0
raison.
Le choix dun test sera donc le rsultat dun compromis entre risque de premier espce et puissance du test.
3.1. THORIE DES TESTS PARAMTRIQUES 35
Une fois que lon a x raisonnablement , il faut choisir une variable de dcision, qui doit apport le maximum
dinformation sur le problme pos, et dont la loi sera diffrente selon que H
0
ou H
1
est vraie. La loi sous H
0
doit
tre connue. On dnit alors la rgion critique W qui est lensemble des valeurs de la variable de dcision qui
conduisent rejeter H
0
au prot de H
1
. Sa forme est dtermine par la nature de H
1
, et sa dtermination exacte est
donne par p(W|H
0
) = . La rgion dacceptation est son complmentaire

W.
3.1.4 Choix optimal de la statistique de test et de la rgion de rejet
Le choix de la statistique de test et de la rgion de rejet est fait de sorte maximiser la puissance du test 1
pour un risque de premire espce x.
Plaons nous dans le cadre dun test entre hypothses simples :
H
0
: =
0
contre H
1
: =
1
Neyman et Pearson (1933) ont montr que le test du rapport de vraisemblance est le test le plus puissant au
niveau de conance .
Thorme 3.1.1 (Neyman et Pearson). La rgion critique optimale est dnie par les points x = (x
1
, . . . , x
n
)
vriant
W = {x :
L(x,
1
)
L(x,
0
)
> c

}
La constante c

, qui dpend de , est dtermine par = IP


0
(x W).
10 5 0 5 10
0
0.05
0.1
0.15
0.2
0.25
k
m
0
m
1



FIG. 3.1 illustration de la rgle de dcision
Exemple. Reprenons le test dintroduction, o (X
1
, ..., X
n
) est de loi normale de variance
2
connue et desprance
inconnue, avec cette fois une hypothse alternative simple :
H
0
: =
0
contre H
1
: =
1
.
On suppose
0
<
1
. La vraisemblance de lchantillon gaussien scrit
L(x, ) =
1
(

2)
n
e

1
2
2
P
n
i=1
(xi)
2
do le rapport de vraisemblance
L(x,
1
)
L(x,
0
)
= exp
_
1
2
2
n

i=1
2(
1

0
)x
i

n
2
2
(
2
1

2
0
)
_
Ainsi,
L(x,1)
L(x,0)
> c

est quivalent x > log(c

)

2
n(10)
+
1+0
2
= C, o la constante C est dtermine
IP
0
(x W) = IP
0
( x > C) = . La rgion critique optimale du test de Neyman-Pearson est donc
W = {x : x >
0
+u
1

n
}
et on retombe bien sur le test intuitif de lintroduction.
36 CHAPITRE 3. TESTS STATISTIQUES
Dans le cas o lhypothse alternative est composite (
1
), la puissance du test est fonction de : 1 ()
est appele la fonction puissance du test.
Un test est dit uniformment le plus puissant (UPP) si quelque soit la valeur de appartenant lhypothse
alternative, sa puissance est suprieure celle de tout autre test.
Exemple. On a vu prcdemment pour le test H
0
: =
0
contre H
1
: =
1
>
0
que la rgion critique ne
dpend pas de
1
, et quelle est donc la mme pour tout
1
>
0
. Le test est donc UPP pour H
0
: =
0
contre
H
1
: >
0
.
Si cette fois
1
<
0
, on obtient encore un test UPP H
0
: =
0
contre H
1
: <
0
, mais diffrent du prcdent.
Il nexiste donc pas de test UPP pour H
0
: =
0
contre H
1
: =
0
.
3.1.5 Utilisation de la puissance de test
Dans le cas dun test entre deux hypothses simples avec variance
2
connue
H
0
: =
0
contre H
1
: =
0
+,
nous avons vu que la rgion critique avait la forme
W = {x : x >
0
+u
1

n
}.
On peut calculer le risque de second espce :
= p(dcider H
0
|H
1
) = (u
1

).
La puissance du test, 1, est donc fonction de , n et . En considrant et n xs, on peut reprsenter la courbe
de puissance du test par la Figure (3.2).
FIG. 3.2 Courbe de puissance dun test
La courbe de puissance peut donc permettre
de choisir entre plusieurs tests en fonction de leur courbes de puissance (que lon veut la plus forte possible,
i.e. proche de la droite dordonne 1),
pour un problme donn, dans lequel et sont xs, on pourra choisir le nombre de sujets ncessaire n
pour atteindre une puissance donne laide de lquation (3.1).
3.1.6 Rsum
La dmarche de construction dun test est la suivante :
choix de H
0
et H
1
,
dtermination de la variable de dcision,
3.2. TESTS SUR UNE POPULATION 37
allure de la rgion critique en fonction de H
1
,
calcul de la rgion critique en fonction de ,
calcul de la valeur exprimentale de la variable de dcision,
conclusion : rejet ou acceptation de H
0
.
3.1.7 p-value
En pratique, plutt que de calculer la rgion critique en fonction de , on prfre donner un seuil critique

,
appele p-value, qui est la plus grande valeur de conduisant ne pas rejeter H
0
. Cette information permet au
lecteur de conclure lacceptation de H
0
pour tout risque de premire espce

, et son rejet pour tout


>

.
3.2 Tests sur une population
Nous pouvons maintenant prsenter les diffrents tests statistiques classiques, obtenus par la mthode de Neyman-
Pearson lorsque les chantillons sont gaussiens (voir de grandes tailles). Dans le cas de petits chantillons non
gaussiens, des alternatives non paramtriques seront prsentes.
3.2.1 Test sur le caractre central dune population
3.2.1.1 Cas dun chantillon grand ou gaussien
Soit un n-chantillon (X
1
, ..., X
n
) issu dune population de moyenne et de variance
2
. Nous supposons que
au moins lune des deux conditions suivantes est satisfaite :
la population est de loi normale,
lchantillon est de taille n sufsamment grande (n 30).
Test H
0
: =
0
contre H
1
: =
0
lorsque
2
est connue La statistique de test est
U =

X
0

n
.
Sous H
0
, cette statistique suit une loi normale centre rduite daprs les conditions prcdentes (via le thorme
centrale limite si seule la seconde condition est satisfaite).
La rgion critique, dnie par |U| > k, se traduit par |

X
0
| > u

n
, o u

2
est le quantile de la loi normale
centre rduite dordre

2
.
Ainsi,
on rejette H
0
si | x
0
| > u

n
.
Remarque 3.2.1 (Calcul de la p-value). Pour ce test, on rejette H
0
ds que
| x0|

n
> u

2
. La p-value est la
valeur critique

de telle que
| x0|

n
= u

2
, do

= 2
_

| x0|

n
_
avec la fonction de rpartition de
la loi normale centre rduite. Ainsi, ds que lon choisi un risque plus grand que

, on a u

2
> u

2
et donc
on rejette H
0
. Au contraire, si le risque est plus petit, on aura cette fois
| x0|

n
= u

2
< u

2
et on conserve
H
0
.
Remarque 3.2.2 (Tests unilatraux). Si le test est unilatral, H
0
: =
0
contre H
1
: <
0
, on rejette H
0
si la
vraie valeur de est trop loigne infrieurement de
0
, ce qui se traduit par x <
0
+u

n
.
Si le test est H
0
: =
0
contre H
1
: >
0
, on rejette H
0
si x >
0
u

n
.
38 CHAPITRE 3. TESTS STATISTIQUES
Test H
0
: =
0
contre H
1
: =
0
lorsque
2
est inconnue Ce test est gnralement connu sous le nom de
test de Student.
Dans ce cas la variance
2
est estime par son estimateur S
2
. La statistique de test est
T =

X
0
S

n
qui suit une loi de Student n 1 degr de libert.
La conclusion du test devient alors
on rejette H
0
si | x
0
| > t
n1,

2
s

n
,
o t
n1,

2
est le quantile dordre

2
de la loi de Student n 1 degrs de libert, et s
2
=
P
n
i=1
(xi x)
2
n1
.
Logiciel R : les tests sur la moyenne seffectuent laide de la fonction t.test.
Logiciel SAS : proc ttest ou proc univariate.
Attention : seul des test bilatraux sont possibles sous SAS. Dans le cas dun test unilatral, il conviendra donc
dajuster la p-value (en la divisant par deux), et de sassurer avant de rejeter H
0
que la statistique de test est bien
du bon cot de lhypothse nulle.
3.2.1.2 Cas dun petit chantillon non gaussien
Le caractre central de la population sera test cette fois, non plus en travaillant sur lesprance de la loi comme
prcdemment, mais en testant la symtrie de la distribution par rapport une valeur
0
dintrt. Nous supposons,
sans perte de gnralit, que
0
= 0.
Les hypothses que nous testons sont donc :
H
0
: F(x) = 1 F(x) la distribution est symtrique par rapport 0
contre H
1
: F(x +) = 1 F( x) la distribution est symtrique par rapport
o F est la fonction de rpartition de la variable alatoire teste.
Les tests que nous allons prsenter dans cette section seront bass sur les rangs des observations et ncessitent
quelques notions introduites dans le paragraphe suivant.
Statistique de rang
Rang et anti-rang. Soit X = (X
1
, . . . , X
n
) un chantillon. Soit R
i
la variable alatoire gale au rang de la va-
riable X
i
dans le classement dans lordre croissant des variables X
1
, . . . , X
n
(on ne suppose pas dex-quo).
On appelle anti-rang, D
i
lindice de la la variable classe en ime position.
Exemple : pour X = (3.2, 6.4, 2.1, 4.5) on a R = (2, 4, 1, 3) et D = (3, 1, 4, 2).
Remarque : les vecteurs des rangs R et des anti-rangs D sont tous deux des permutations des n premiers entiers.
De plus, R et D sont des permutations inverses : R = D
1
.
La suite des rangs R = (R
1
, . . . , R
n
) est donc une suite de variable alatoire identiquement distribues mais
non indpendantes. On a pour tout 1 i n :
E[R
i
] =
n + 1
2
V (R
i
) =
n
2
1
12
Cas des ex-quo : lorsque plusieurs variables sont ex-quo, on leur associe gnralement le rang moyen des
rangs partags par ces variables. Par exemple, si on a 4 variables ex-quo avec 5 autres variables plus petites et 4
plus grandes, elles partageront les rangs 6, 7, 8 et 9 et on leur associera donc le rang moyen 7.5.
Tous les test bass sur les statistiques de rangs prsents dans ce cours supposent labsence dex-quo. Dans le cas
contraire, les tests doivent subir des modications, qui ne seront pas abordes dans ce cours, sauf pour le test de
Wilcoxon de comparaison de deux chantillons (cf. section 3.3.2.1).
Statistique de rangs signs. On appelle rang sign R
+
i
de la variable X
i
le rang de |X
i
| dans le classement
des |X
1
|, . . . , |X
n
| par ordre croissant.
3.2. TESTS SUR UNE POPULATION 39
Nous serons par la suite amens travailler avec diffrentes statistiques de test associes aux rangs signs, dnie
par
S =
n

i=1
a(R
+
i
)1I
Xi0
o a est une fonction de {1, 2, . . . , n} dans R.
Dnition 3.2.1. Une variable alatoire a une distribution symtrique par rapport
0
si pour tout x R :
p(X
0
+x) = p(X
0
x)
Sous lhypothse dune distribution symtrique par rapport 0, on a
E[S] =
n

i=1
a(i)/2 V (S) =
n

i=1
a
2
(i)/4.
Lorsque n est grand le thorme central limite nous permet de considrer que S est distribu suivant une loi nor-
male.
Lorsque n est petit, la statistique S a t tabule pour diffrentes fonctions a.
Nous prsentons ci-aprs trois tests bass sur trois choix de la fonction a.
Test des rangs signs (Wilcoxon un chantillon) Pour le test des rangs signs, il faut supprimer de lchantillon
les valeurs nulles. On choisit ensuite a(i) = i et la statistique de test devient
W
+
=
n

i=1
R
+
i
1I
Xi0
ou n

est le nombre de valeurs non nulles de lchantillon. Cette statistique admet comme esprance et variance
sous H
0
:
E
H0
[W
+
] = n(n + 1)/4 V
H0
(W
+
) = n(n + 1)(2n + 1)/24.
A noter quen prsence dex-quo, lesprance est identique mais la variance est diffrente.
Si la taille dchantillon n est sufsamment grande, on rejetera H
0
si
|W
+
EH
0
[W
+
]|

VH
0
(W
+
)
> u
1

2
.
Si n est petit, on utilisera les tables statistiques ddies ce test (Annexe 4.2.1). Ces tables donne, pour un risque
de 5% et 1%, les quantiles de la statistique de Wilcoxon dordre /2 et 1 /2. Ces tables sont toujours valables
en prsence dex-quo.
La mme dmarche sera applique pour les deux tests suivants.
Logiciel R : fonction wilcox.test.
Logiciel SAS : proc univariate. Attention, SAS utilise une statistique de test W
+
centre.
Test du signe Pour le test du signe, il faut supprimer de lchantillon les valeurs nulles. On choisit ensuite a(i) = 1
et la statistique de test devient
S
+
=
n

i=1
1I
Xi>0
ou n

est le nombre de valeurs non nulles de lchantillon. La statistique S


+
, qui est le nombre de valeurs positives
dans lchantillon, suit, sous lhypothse H
0
de symtrie par rapport 0, une loi binomiale de paramtre n et 1/2.
On peut donc facilement dduire la p-value correspondant la valeur observe sur lchantillon de la statistique
S
+
. Ces p-values ont t tabule et gurent en Annexe 4.2.2.
En outre, lesprance et la variance de S
+
sous H
0
sont :
E
H0
[S
+
] = n/2 V
H0
(S
+
) = n/4.
40 CHAPITRE 3. TESTS STATISTIQUES
Ce test est plus puissant que le test de Wilcoxon lorsque les queues de distributions sont trs diffuses.
Remarquons enn que la prsence dex-quo ne pose aucun problme pour ce test.
Logiciel R : fonction SIGN.test du package BSDA.
Logiciel SAS : proc univariate. Attention, SAS utilise une statistique de test S
+
centre.
Test des scores normaux En choisissant a(i) =
1
_
i
n+1
_
la statistique de test devient
SN
+
=
n

i=1

1
_
R
+
i
/(n + 1)
_
1I
Xi0
qui admet comme esprance et variance sous H
0
:
E
H0
[SN
+
] =
n

i=1

1
(i/(n + 1)) /2 V
H0
(SN
+
) =
n

i=1
_

1
(i/(n + 1))
_
2
/4.
Ce test est particulirement intressant pour les distributions trs concentres.
Logiciel R : test implmenter.
3.2.2 Test sur la variance dune population gaussienne
Soit un n-chantillon (X
1
, ..., X
n
) issu dune population de loi normale, de moyenne et de variance
2
. La
normalit est indispensable pour ce test sur la variance.
3.2.2.1 Test H
0
:
2
=
2
0
contre H
1
:
2
=
2
0
, moyenne connue
Lorsque la moyenne est connue, la statistique V
2

est la meilleure estimation de la variance (cf. exercice en TD) :


V
2

=
1
n
n

i=1
(X
i
)
2
.
Sous lhypothse H
0
, comme lchantillon est gaussien,
n

2
0
V
2

suit une loi du


2
n
(en tant que somme de carrs de
N(0, 1)). Ainsi,
on rejette H
0
si V
2

=
1
n

n
i=1
(x
i
)
2
<

2
0
n

2
n,

2
o si V
2

>

2
0
n

2
n,1

2
,
o
2
n,

2
et
2
n,1

2
sont les quantiles dordre

2
et 1

2
de la loi de
2
n degrs de libert. Attention, contrairement
la loi de Student et la loi normale, la loi du
2
nest pas symtrique.
3.2.2.2 Test H
0
:
2
=
2
0
contre H
1
:
2
=
2
0
, moyenne inconnue
Lorsque la moyenne est inconnue, on la remplace par son estimateur

X. La variance est alors estime par
S
2
=
1
n 1
n

i=1
(X
i


X)
2
et la statistique du test
n 1

2
0
S
2
suit sous H
0
une loi du
2
n 1 degrs de libert.
La conclusion du test est alors la suivante :
on rejette H
0
si S
2
=
1
n1

n
i=1
(x
i
x)
2
<

2
0
n1

2
n1,

2
ou si S
2
>

2
0
n1

2
n1,1

2
.
3.2. TESTS SUR UNE POPULATION 41
3.2.2.3 Tests unilatraux sur la variance
Test H
0
:
2
=
2
0
contre H
1
:
2
>
2
0
si la moyenne est connue, on rejette H
0
si
2
>

2
0
n

2
n,1
.
si la moyenne est inconnue, on rejette H
0
si S
2
>

2
0
n1

2
n1,1
.
Test H
0
:
2
=
2
0
contre H
1
:
2
<
2
0
si la moyenne est connue, on rejette H
0
si
2
<

2
0
n

2
n,
.
si la moyenne est inconnue, on rejette H
0
si S
2
<

2
0
n1

2
n1,
.
3.2.3 Test sur une proportion pour un grand chantillon
Dans la population tudie, une proportion p des individus possdent un certain caractre C. On se propose de
comparer cette proportion p une valeur de rfrence p
0
.
On considre un chantillon dindividus de taille n de cette population. La variable alatoire X
i
gale 1 si lin-
dividu i possde le caractre C suit une loi de Bernoulli B(p), et le nombre dindividus

n
i=1
X
i
possdant ce
caractre suit une loi binomiale B(n, p).
Si n est sufsamment grand, de sorte que np > 5 et n(1 p) > 5, on peut considrer (loi des grands nombres)
que

n
i=1
X
i
suit une loi normale N(np, np(1 p)), do la frquence empirique F =
1
n

n
i=1
X
i
suit une loi
normale N(p,
p(1p)
n
). Si n est trop petit, le test est construit sur la loi binomiale, et on peut utiliser les abaques.
3.2.3.1 Test H
0
: p = p
0
contre H
1
: p = p
0
La statistique du test est donc la frquence empirique F qui suit sous H
0
une loi N(p
0
,
p0(1p0)
n
).
on rejette H
0
si |f p
0
| > u
1

2
_
p0(1p0)
n
.
3.2.3.2 Tests unilatraux sur une proportion
Test H
0
: p = p
0
contre H
1
: p > p
0
On rejette H
0
si f > u

_
p0(1p0)
n
+p
0
.
Test H
0
: p = p
0
contre H
1
: p < p
0
On rejette H
0
si f < u

_
p0(1p0)
n
+p
0
.
Exemple. Sur un chantillon de 200 individus dune commune, 45% sont favorables limplantation dun centre
commercial. Ceci contredit-il lhypothse quun habitant sur deux y est favorable ?
On test H
0
: p = 0.5 contre H
1
: p = 0.5 avec un risque = 0.05, do u
1

2
= 1.96. On rejette H
0
si
|f 0.5| > 1.96
_
0.5
2
200
0.07, or ici |f 0.5| = 0.05 donc on ne rejette pas H
0
, un habitant sur deux est bien
favorable limplantation du centre commercial.
3.2.4 Test de lalatoire dun chantillon
tant donn une suite de variables alatoires X
1
, . . . , X
n
nous cherchons dterminer si cette suite est un
chantillon indpendant et identiquement distribu. Nous testons pour cela
H
0
: X
1
, . . . , X
n
indpendant et identiquement distribu,
contre H
1
: X
i
= f(i) +
i
avec f une tendance monotone,
i
i.i.d centres.
3.2.4.1 Test de corrlation des rangs de Spearman
Une premire faon de tester les hypothses prcdentes est de tester sil existe une corrlation signicative
entre les rangs R
1
, . . . , R
n
associs lchantillon et la suite 1, . . . , n. La statistique de test est le coefcient de
corrlation des rangs de Spearman
R
S
=

n
i=1
(R
i


R)(i

i)
_

n
i=1
(R
i


R)
2

n
i=1
(i

i)
2
42 CHAPITRE 3. TESTS STATISTIQUES
avec

R =

i = (n + 1)/2 et

n
i=1
(i

i)
2
= n(n
2
1)/12.
En remarquant que
R
S
= 1
6

n
i=1
(R
i
i)
2
n(n
2
1)
on voit que la statistique de test R
S
sera gale 1 dans le cas dune tendance dcroissante (R
i
= n + 1 i) et
1 pour une tendance croissante (R
i
= i).
On peut montrer que cette statistique admet les moments suivant :
E[R
S
] = 0 V (R
S
) =
1
n 1
.
Sous lhypothse H
0
si n 30, on utilise la statistique R
S

n 1 qui suit une N(0, 1),


si 10 < n < 30, on utilise la statistique R
S
_
n2
1R
2
S
qui est approximativement distribue selon une t
n2
.
Logiciel R : fonction cor.test avec option spearman.
3.2.4.2 Test des changements de signes
Dans le cas o lon veut tester plus quune dpendance monotone (par exemple croissance puis dcroissance),
on peut utiliser la statistique de test :
S = #{i : R
i
> R
i+1
, 1 i < n}
qui suit une loi normale desprance
n1
2
et de variance
n+1
12
.
3.2.5 Tests dajustement une loi de probabilit spcie
Les tests dajustement ont pour but de vrier si un chantillon provient ou non dune certaine loi de probabilit
spcie. Nous allons dans un premier temps prsenter quelques mthodes empiriques qui permettent de sorienter
vers une distribution, puis nous prsenterons deux tests : le test du
2
et le test de Kolmogorov-Smirnov.
3.2.5.1 Quelques mthodes empiriques
La forme de lhistogramme La forme de lhistogramme construit sur lchantillon de donnes peut nous aider
avoir une ide de la distribution de la variable alatoire dont il est issu. Par exemple, un histogramme symtrique
nous orientera par exemple vers une loi normale, de Cauchy, de Student...
La nature du phnomne Suivant le phnomne tudi, il sera possible dorienter son choix. Si on sintresse
une variable de comptage, on pourra penser une loi de Poisson, pour une dure de vie on pensera une loi
exponentielle ou une loi de Weibull... .
Utilisation des moments On sait que pour une loi de Poisson, la moyenne est gale la variance. Pour une loi
exponentielle la moyenne est gale lcart-type. Pour une loi normale le coefcient daplatissement (kurtosis) est
gal 3 et le coefcient dasymtrie (skewness) est nul.
3.2.5.2 Ajustement graphiques
Pour un certain nombre de lois de probabilit, une transformation fonctionnelle permet de reprsenter la courbe
de la fonction de rpartition par une droite :
Loi exponentielle Pour X E(), on a p(X > x) = exp(x) do ln(1 F(x)) = x. En rangeant
dans lordre croissant les donnes x
i
de lchantillon, lestimation de la fonction de rpartition quest la fonction
de rpartition empirique scrit F
e
(x) =
effectif xi
n
=
i1
n
pour x
i
x x
i+1
. Ainsi, les points de coordon-
nes
_
x
i
; log(1
i1
n
)
_
sont approximativement aligns le long dune droite dont la pente fournit une estimation
graphique de .
3.2. TESTS SUR UNE POPULATION 43
Loi normale Si X est une variable gaussienne de moyenne et de variance
2
:
IP(X x) = (
x

)
o est la fonction de rpartition de la loi normale centre rduite.
Pour chaque valeur x
i
de la variable X, on peut approcher IP(X x
i
) empiriquement par
i1
n
(en ayant class
lchantillon par ordre croissant), et en dduire le quantile u
i
dordre IP(X x
i
) tel que (u
i
) = IP(X x
i
).
Si la variable est gaussienne, les points de coordonnes (x
i
, u
i
) sont aligns sur la droite dquation u =
x

,
appele droite de Henry. On compare donc les valeurs des quantiles de la loi empirique x
i
aux quantiles de la loi
normale centre rduite u
i
.
Logiciel R : la fonction qqnorm permet de reprsenter la droite de Henry, et qqplot gnralise dautres lois que
la loi normale.
3.2.5.3 Test dajustement du
2
Soit une variable alatoire X discrte ou discrtise, cest dire divise en K classes de probabilits p
1
, p
2
, ..., p
K
sous une certaine loi L().
Soit un chantillon de cette variable fournissant les effectifs empiriques alatoires N
1
, N
2
, ..., N
K
dans chacune
de ces classes. Ces effectifs empiriques N
i
sont des variables alatoires desprance np
i
. Nous appellerons effectifs
thoriques les quantits np
i
.
Le test du
2
a pour but de tester :
H
0
: X suit la loi de probabilit L(),
et consiste comparer les effectifs thoriques et empiriques.
Pour cela on introduit la variable D
2
dnie par :
D
2
=
K

i=1
(N
i
np
i
)
2
np
i
,
et qui est asymptotiquement distribu, lorsque n , comme une loi du
2
K 1 degrs de libert.
La variable D
2
pouvant tre interprte comme une mesure de lcart alatoire entre les effectifs empirique et
thorique, le test du
2
consiste rejeter H
0
si la valeur d
2
de D
2
sur lchantillon est trop grande :
on rejette H
0
si d
2
>
2
K1,1
.
Si des estimations sont ncessaires
Pour faire le test du
2
, il est ncessaire de savoir quelle est la loi tester, cest--dire quelle est sa nature (normale,
Poisson...), mais aussi quels sont ses paramtres. Il est donc souvent ncessaire destimer ces paramtres.
Par exemple, pour tester une hypothse de normalit, on teste la loi N( x, s
2
), o x et s
2
sont les estimations des
paramtres de la loi. Soit l le nombre destimations indpendantes effectues.
Le nombre de degrs de libert du
2
utilis dans le test devra alors tre K l 1.
Effectif minimal dune classe
La proprit qui assure que D
2
suit une loi du
2
suppose que chaque classe a un effectif thorique np
i
suprieur
5. Lors de la construction du test, cette proprit sera vrier. Souvent lorsque lexprience conduit la cration
des classes, certaines classes "extrmes" ne vrient pas cette proprit. On regroupera alors les classes entre elles
an de crer des classes plus importantes qui vrient cette proprit (en regroupant la classe extrme avec celle
qui lui est contige, et ainsi de suite... ).
Il ne faudra pas oublier alors daffecter au nombre de classes K sa nouvelle valeur dans la dtermination du nombre
de degrs de libert du
2
.
Logiciel R : le test du
2
peut tre ralis laide de la fonction chisq.test.
44 CHAPITRE 3. TESTS STATISTIQUES
3.2.5.4 Test de Kolmogorov-Smirnov
Le test du
2
convient trs bien aux variables discrtes, qui ne ncessitent aucune discrtisation. Par contre,
lorsque les variables sont continues, on prfre gnralement utiliser le test de Kolmogorov-Smirnov.
Ladquation une loi donne porte cette fois sur les fonctions de rpartition :
H
0
: F(x) = F
0
(x) pour tout x R
contre H
1
: x R, F(x) = F
0
(x)
La statistique de test utilise est
KS = max
xR
|

F
n
(x) F
0
(x)|
o

F
n
(x) = #{X
i
: X
i
x}/n est la fonction de rpartition empirique estime partir de lchantillon
X
1
, . . . , X
n
.
Il existe alors des tables de cette statistique KS sur lesquelles se baser pour conduire rejeter ou non H
0
.
Logiciel R : le test de Kolmogorov-Smirnov peut tre ralis laide de la fonction ks.test.
3.2.5.5 Test de Shapiro-Wilk (normalit)
Le test de Shapiro-Wilk est le test le plus recommand pour tester la normalit dune srie de donnes. Il est
particulirement puissant pour les petits effectifs.
Supposons les X
i
rangs par ordre croissant.La statistique du test scrit :
W =
(

n
i=1
a
i
X
i
)
2

n
i=1
(X
i

(X))
2
=
_

[
n
2
]
i=1
a
n+1i
(X
n+1i
X
i
)
_
2

n
i=1
(X
i

(X))
2
o

_
n
2

est la partie entire de


n
2
,
a
i
sont des constantes fournies dans des tables spciques (Annexe 4.2.4),
(a
1
, . . . , a
n
) =
m
t
V
1
(m
t
V
1
V
1
n)
2
o m = (m
1
, . . . , m
n
)
t
sont les esprances des statistiques dordre dun chantillon de variables indpen-
dantes et identiquement distribue suivant une loi normale, et V est la matrice de variance-covariance de ces
statistiques dordre.
La statistique W peut donc tre interprte comme le coefcient de dtermination entre la srie des quantiles
gnrs partir de la loi normale et les quantiles empiriques obtenus partir des donnes. Plus W est lev, plus la
compatibilit avec la loi normale est crdible. La rgion critique, rejet de la normalit, scrit :
on rejette la normalit si W < w
,n
,
la valeur critique w
,n
tant lue dans les tables de Shapiro-Wilk (Annexe 4.2.4) en fonction du risque de premire
espce et de la taille dchantillon n.
Logiciel R : le test de Shapiro-Wilk peut tre ralis laide de la fonction shapiro.test.
3.2.6 Test dindpendance entre deux variables alatoires
3.2.6.1 Cas de deux variables alatoires quantitatives
Test de corrlation linaire Le coefcient de corrlation linaire
XY
entre deux variables continues X et Y ,
introduit au chapitre 1, est dni par :

XY
=
Cov(X, Y )
_
V ar(X)V ar(Y )
.
Son estimateur est
R
XY
=

n
i=1
(X
i


X)(Y
i


Y )
_

n
i=1
(X
i


X)
2

n
i=1
(Y
i


Y )
2
.
3.2. TESTS SUR UNE POPULATION 45
La statistique suivante
T =

n 2
R
XY
_
1 R
2
XY
qui suit une loi de Student t
n2
permet de tester la nullit du coefcient de corrlation linaire, en rejetant lhypo-
thse nulle
XY
= 0 si la valeur t de cette statistique est trop grande ou trop petite, autrement dit si elle vrie :
t > t
n2,1

2
ou t < t
n2,

2
.
Il conviendra donc de tester la nullit de ce coefcient de corrlation linaire avant de tenter de modliser Y en
fonction de X par une relation linaire (cours de Modlisation GIS4).
Logiciel R : fonction cor.test.
Test de corrlation des rangs de Spearman Un indicateur de corrlation entre deux variables quantitatives plus
robuste aux valeurs extrmes, est le coefcient de corrlation des rangs de Spearman, dni comme le coefcient
de corrlation linaire entre les rangs associs aux variables testes. Ce test, dj prsent dans la section 3.2.4.1,
permet galement de tester la corrlation entre des variables ordinales.
3.2.6.2 Cas de deux variables alatoires qualitatives : Test du
2
Ce test dcoule du test dajustement du
2
. Soient X et Y deux variables alatoires qualitatives pouvant prendre
respectivement k et r modalits. Les donnes sont prsentes dans un tableau de contingence :
X Y modalit 1 modalit 2 . . . modalit r total
modalit 1 n
11
n
12
n
1r
n
1.
modalit 2 n
21
n
22
n
2r
n
2.
.
.
.
modalit k n
11
n
12
n
1r
n
1.
total n
.1
n
.2
n
.r
n
o
n
ij
est le nombre dindividus ayant la modalit i de X et la modalit j de Y ,
n
i.
=

r
j=1
n
ij
est le nombre total dindividus ayant la modalit i de X ,
n
.j
=

k
i=1
n
ij
est le nombre total dindividus ayant la modalit j de Y ,
n =

k
i=1

r
j=1
n
ij
est le nombre dindividus total.
Le test consiste tester H
0
: les deux variables sont indpendantes .
Si H
0
est vrai, cela a un sens de considrer les probabilits p
X
1
, . . . , p
X
k
davoir les modalits 1, . . . , k de la variable
X et les probabilits p
Y
1
, . . . , p
Y
r
davoir les modalits 1, . . . , r de la variable Y .
Le test consiste, comme pour le test dajustement, comparer les effectifs empiriques n
ij
aux effectifs thoriques
p
X
i
p
Y
j
que lon devrait observer si X et Y taient indpendantes. Les p
X
i
et p
Y
j
tant inconnues, on les estime par
p
X
i
=
ni.
n
et p
Y
j
=
n.j
n
.
On construit alors la mesure dcart suivante :
d
2
=
k

i=1
r

j=1
(n
ij

ni.n.j
n
)
2
ni.n.j
n
= n
_
_
k

i=1
r

j=1
n
2
ij
n
i.
n
.j
1
_
_
qui est la ralisation dune statistique dont la loi peut tre approxime par une loi de
2
(k 1)(r 1) degrs de
libert, lorsque les effectifs sont de tailles sufsantes (
ni.n.j
n
> 5 pour tout i, j).
Le test consiste donc rejeter H
0
si d
2
est trop grand, comme pour un test dajustement du
2
.
3.2.6.3 Cas de deux variables alatoires binaires et de petits chantillons : Test exact de Fisher
Dans le cas dchantillons de petites tailles (effectifs thoriques infrieurs 5 par croisement de variables), une
alternative consiste utiliser le test exact de Fisher.
46 CHAPITRE 3. TESTS STATISTIQUES
Lorsque les variables sont binaires, sous lhypothse H
0
dindpendance de X et Y , la probabilit dobserver
leffectif n
11
est donne :
IP(N
11
= n
11
|n
1.
, n
2.
, n
.1
, n
.2
) =
n
1.
!n
2.
!n
.1
!n
.2
!
n!n
11
!n
21
!n
21
!n
22
!
=
C
n11
n1.
C
n21
n2.
C
n.1
n
.
On reconnait une variable alatoire de loi Hypergomtrique (tirage de n individus parmi n dont ). Le test peut donc
tre construit de faon exacte en utilisant cette loi.
Ce test est gnralisable plus de deux modalits par variable.
Logiciel R : fonction fisher.test.
3.2.6.4 Cas dune variable qualitative et dune variable quantitative : ANOVA 1 facteur
Soient X une variable quantitative que lon observe pour diffrentes modalits (niveaux) dune variable quali-
tative A (facteur). On dispose de K chantillons indpendants de X de tailles n
1
n
K
correspondant chacun un
niveau diffrent du facteur A :
X
1
1
, X
2
1
, . . . , X
n1
1
correspondant au niveau A
1
du facteur A,
X
1
2
, X
2
2
, . . . , X
n2
2
correspondant au niveau A
2
du facteur A,
. . .
X
1
K
, X
2
K
, . . . , X
nK
K
correspondant au niveau A
K
du facteur A.
On suppose que le facteur A inue uniquement sur la moyenne des chantillons et non sur leur dispersion. Ainsi,
chaque chantillon est suppos suivre une loi normale N(
k
,
2
).
Le problme est donc de tester
H
0
:
1
= . . . =
K
= contre H
1
: 1 i, j K t.q.
i
=
j
.
Pour cela on appelle

X
k
la moyenne empirique de lchantillon k et

X la moyenne empirique globale :

X
k
=
1
n
k
n
k

i=1
X
i
k
et

X =
1
n
K

k=1
n
k

i=1
X
i
k
,
o n =

K
k=1
n
k
.
En remarquant que X
i
k


X = X
i
k


X
k
+

X
k


X, on montre facilement la formule danalyse de variance :
1
n
K

k=1
n
k

i=1
(X
i
k


X)
2
. .
V
2
T
=
1
n
K

k=1
n
k
(

X
k


X)
2
. .
V
2
A
+
1
n
K

k=1
n
k

i=1
(X
i
k


X
k
)
2
. .
V
2
R
qui reprsente la dcomposition de la variance totale V
2
T
en la variance V
2
A
due au facteur A (variance inter-
groupe) plus la variance rsiduelle V
2
R
(ou variance intra-groupe).
Remarque 3.2.3. Cette formule est lquivalente empirique de la formule vue en cours de probabilit :
V (X) = E[V (X|A)] +V (E[X|A]).
En remarquant que V
2
R
=
1
n

K
k=1
n
k
V
2
k
o V
2
k
=
1
n
k

n
k
i=1
(X
i
k


X
k
)
2
, on montre que
n

2
V
2
R
=

K
k=1
n
k
V
2
k

2
suit une loi du
2
n K degrs de libert, car chaque
n
k
V
2
k

2
suit une loi du
2
n
k
1 degrs de libert.
De mme, sous H
0
cette fois,
nV
2
T

2
suit une loi du
2
n 1 degrs de libert (car V
2
T
est la variance dun n-
chantillon de loi N(,
2
)) et
nV
2
A

2
suit une loi du
2
K 1 degrs de libert (car V
2
A
peut tre vue comme la
variance du K-chantillon (

X
1
, . . . ,

X
K
)).
Lquation de lanalyse de variance revient alors
2
n1
=
2
K1
+
2
nK
, ce qui permet en outre de conclure via
le thorme de Cochran que V
2
A
et V
2
R
sont indpendantes.
La statistique du test est donc
F =
V
2
A
K1
V
2
R
nK
3.3. TESTS DE COMPARAISON DE DEUX POPULATIONS INDPENDANTES 47
qui suit sous H
0
une loi de Fisher-Snedecor F
K1,nK
, et on rejette lhypothse H
0
si la statistique F est sup-
rieure au quantile de la loi F
K1,nK
dordre 1 .
Logiciel R : fonction aov.
Test de lhomognit des variances : test de Levene. En plus de la normalit des chantillons, dont on peut
se passer si les chantillons sont de tailles sufsantes, nous avons suppos que les variances taient homognes
(
1
= . . . =
K
).
Le test de Levene permet de tester cette hypothse. La statistique de ce test est la suivante :
L =
n K
K 1

K
k=1
(

Z
k


Z)
2

K
k=1

n
k
i=1
(Z
i
k


Z
k
)
2
,
o
Z
i
k
= |X
i
k


X
k
|,

Z
k
=
1
n
k
n
k

i=1
Z
i
k
et

Z =
1
n
K

k=1
n
k

i=1
Z
i
k
.
Sous lhypothse H
0
:
1
= . . . =
K
, cette statistique suit une loi de Fisher-Snedecor F
K1,nK
. Nous rejetons
donc lhypothse H
0
si la statistique F est suprieure au quantile de la loi F
K1,nK
dordre 1 .
Logiciel R : fonction levene.test du package lawstat.
Comparaison des moyennes deux deux
Rejeter H
0
permet de dire que toutes les moyennes ne sont pas gales. Il peut cependant tre intressant de tester
lgalit des moyennes deux deux.
Pour cela, on effectue un test de comparaison multiple des moyennes (pour 1 k, k

K) :
H
0
:
k
=
k
.
Un rsultat d Scheff montre que
p
_
|

X
k


X
k
(
k

k
)| S
R
_
(K 1)f
K1,nK,1
_
1
n
k
+
1
n
k

_
= 1
o f
K1,nK,1
est le quantile de la loi de Fisher de paramtres K 1 et n K dordre 1 .
On rejette donc lhypothse dgalit des moyennes
k
et
k
si
|

X
k


X
k
| > S
R
_
(K 1)f
K1,nK,1
_
1
n
k
+
1
n
k

.
Remarque. Attention, lgalit des moyennes nest pas transitive.
3.3 Tests de comparaison de deux populations indpendantes
Lobjectif de cette section est de dire si deux chantillons indpendants sont issus dune mme population ou
non. Voici quelques exemples dapplication :
les rendements journaliers de deux usines dun mme groupe sont-ils semblables ?
les ventes par semaine de deux actions sont-elles similaires ?
On formule le problme de la faon suivante : on observe deux chantillons (X
1,1
, ..., X
1,n1
) et (X
2,1
, ..., X
2,n2
),
indpendants et de fonctions de rpartition F
1
(x) et F
2
(x). Le test exact revient tester lgalit de ces fonctions
de rpartitions :
H
0
: F
1
(x) = F
2
(x) contre H
1
: F
1
(x) = F
2
(x).
Nous verrons dans un premier temps des tests paramtriques qui, sous lhypothse de normalit des chantillons
(ou de grandes tailles), consistent tester lgalit des variances et des esprances des deux populations. Dans un
second temps, lorsque les chantillons sont de petites tailles nous prsenterons des alternatives non paramtriques.
48 CHAPITRE 3. TESTS STATISTIQUES
3.3.1 Cas de deux chantillons gaussiens ou de grandes tailles
Supposons dans un premier temps que les deux chantillons sont gaussiens.
Si les variances sont connues, ce qui narrive que rarement en pratique, la statistique de test utilise pour tester
H
0
:
1
=
2
contre H
1
:
1
=
2
repose sur la diffrence entre les estimateurs des moyennes des deux
chantillons :
T =

X
1


X
2
(
1

2
)
_

2
1
n1
+

2
2
n2
,
qui suit, sous H
0
, une loi normale centre rduite.
Ainsi, on rejettera H
0
si
| x
1
x
2
| > u

2
1
n
1
+

2
2
n
2
.
Dans le cas le plus courant, les variances sont inconnues. On doit alors tester dans un premier temps si elles sont
gales ou non (test de Fisher) avant de pouvoir effectuer le test de comparaison des moyennes (test de Student).
3.3.1.1 Test de comparaison des variances de Fisher
Nous testons
H
0
:
2
1
=
2
2
contre H
1
:
2
1
=
2
2
.
Daprs les rsultats de la thorie de lchantillonnage :
n
1
V
2
1

2
1

2
n11
et
n
2
V
2
2

2
2

2
n21
.
Ainsi, sous lhypothse H
0
que
2
1
=
2
2
, la statistique du test F suivante suit une loi de Fisher F
n11,n21
:
F =
n1V
2
1
n11
n2V
2
2
n21
=
S
2
1
S
2
2
(3.1)
Cette variable de dcision sinterprte comme le rapport des estimateurs de
2
1
et
2
2
. Elle doit donc ne pas tre trop
diffrentes de 1 si H
0
est vrie. En pratique on met toujours au numrateur la plus grande des deux quantits, ou
autrement dit on suppose que S
2
1
> S
2
2
(sinon on permute les indices).
La rgion de rejet sera donc de la forme F > k avec k plus grand que 1 :
on rejette H
0
si
n
1
V
2
1
n
1
1
n
2
V
2
2
n
2
1
> f
n11,n21,1
,
o f
n11,n21,1
est le quantile de la loi de Fisher-Snedecor F
n11,n21
dordre 1 .
3.3.1.2 Test de comparaison des moyennes de Student avec variances gales
Nous testons
H
0
:
1
=
2
contre H
1
:
1
=
2
,
en supposant les variances gales
2
1
=
2
2
=
2
.
On a pour i = 1, 2 :
n
i
V
2
i

2

2
ni1
et

X
i
N(
i
,

2
n
i
).
Ainsi, la statistique
T =

X
1


X
2
(
1

2
)
_
n1V
2
1
+n2V
2
2
n1+n22
_
1
n1
+
1
n2
_
,
suit une loi de Student n
1
+n
2
2 degrs de libert. Do la conclusion :
3.3. TESTS DE COMPARAISON DE DEUX POPULATIONS INDPENDANTES 49
on rejette H
0
si | x
1
x
2
| > t
n1+n22,

2
_
n1v
2
1
+n2v
2
2
n1+n22
_
1
n1
+
1
n2
_
.
Remarque 3.3.1 (Tests unilatraux de comparaison de moyennes). Le test unilatral H
0
:
1
=
2
contre H
1
:

1
<
2
, conduit au rejet de H
0
si x
1
x
2
< t
n1+n22,
_
n1v
2
1
+n2v
2
2
n1+n22
_
1
n1
+
1
n2
_
3.3.1.3 Test de comparaison des moyennes avec variances diffrentes
Lorsque les chantillons sont de grandes tailles (> 30), le test de Student reste encore approximativement
valable.
Pour de petits chantillons gaussiens, lapproximation dAspin-Welch consiste utiliser le test de Student avec un
degr de libert non plus gal n
1
+n
2
2 mais gal lentier le plus proche de :
n =
1
c
2
n11
+
(1c)
2
n21
o c =
v
2
1
n11
v
2
1
n11
+
v
2
2
n21
3.3.1.4 chantillons non gaussiens
Thoriquement, le test de la variance de Fisher nest plus valable car la statistique
nV
2

2
ne suit plus une loi
du
2
. Nanmoins, le test de comparaison de moyennes de Student tant relativement robuste un changement
dans la loi des chantillons, il est possible de lutiliser pour comparer les moyennes des deux chantillons, que les
variances soit gales ou non, si les tailles dchantillons sont sufsamment grandes (au minimum 30 observations
par chantillon).
3.3.2 chantillons de petites tailles
Lorsque les chantillons ne sont pas sufsamment grands pour permettre une utilisation du test de Student, on
utilise des alternatives non paramtriques, qui ont pour but de tester :
H
0
: F
1
(x) = F
2
(x) contre H
1
: F
1
(x) = F
2
(x)
o F
1
(x) et F
2
(x) sont les fonctions de rpartition de deux chantillons (X
1,1
, . . . , X
1,n1
) et (X
2,1
, . . . , X
2,n2
).
Dans cette section nous concatnons les deux chantillons en un seul (X
1
, . . . , X
n1
, X
n1+1
, . . . , X
n1+n2
), et nous
allons travailler avec les rangs (R
1
, . . . , R
n1+n2
) associs cet chantillon global.
Les statistiques de test utilises seront de la forme
S =
n1

i=1
a(R
i
)
o a est une fonction de {1, . . . , n
1
+ n
2
} dans R. A noter que seuls les rangs du premier chantillon sont utiliss
dans la statistique S puisque la somme sarrte n
1
.
Lorsque les tailles dchantillons n
1
et n
2
sont petites (< 30), il existe des tables suivant la fonction a choisie
(Wilcoxon, mdiane, scores normaux). Lorsque les tailles sont plus grandes (cas dans lequel les tests paramtriques
sont galement utilisables), la statistique S est approximativement distribue suivant une loi normale.
Les moments de S sont :
E[S] =
n
1
n
1
+n
2
n1+n2

i=1
a(i) V (S) =
n
1
n
2
(n
1
+n
2
)(n
1
+n
2
1)
n1+n2

i=1
(a(i) a)
2
o a =
1
n1+n2

n1+n2
i=1
a(i)
50 CHAPITRE 3. TESTS STATISTIQUES
3.3.2.1 Test de Wilcoxon
On supposera ici que n
1
n
2
. En choisissant a(i) = i la statistique de test devient
W =
n1

i=1
R
i
et correspond la somme des rangs du premier chantillon (le plus petit en nombre dobservations).
E
H0
[W] =
n
1
(n
1
+n
2
+ 1)
2
V
H0
(W) =
n
1
n
2
(n
1
+n
2
+ 1)
12
La loi de cette statistique a t tabule pour de petites tailles dchantillons (moins de 10), et la table en Annexe
4.2.3 donne les bornes critiques de W pour des risques de premire espce de 5% et 1%.
Pour de plus grandes tailles dchantillons, la loi de W peut tre approche par une loi normale.
Cas des ex-quo Nous avons vu section 3.2.1.2 quen prsence dex-quo nous remplacions les rangs des ex-
quo par le rang moyen des rangs quils devraient occuper. Si les tailles dchantillons sont infrieures 10, les
tables sont toujours utilisable. Pour de plus grandes tailles, lapproximation gaussienne est toujours valable mais la
variance de W nest plus identique celle donne prcdemment.
Soit e le nombre de valeurs distinctes dans lchantillon (X
1
, . . . , X
n1+n2
), et soit V
1
, . . . , V
e
ces valeurs distinctes.
Soit D
j
le nombre dapparitions de la valeur V
j
dans lchantillon (1 j e). La statistique W a alors pour
variance :
V
H0
(W

) = V (W)
n
1
n
2

e
j=1
(D
3
j
D
j
)
12(n
1
+n
2
)(n
1
+n
2
+ 1)
.
Logiciel R : fonction wilcox.test.
3.3.2.2 Test U de Mann-Whitney
Le test U de Mann-Whitney est bas sur la statistique U gale au nombre de paires (X
i
, X
j
) avec X
i
dans le
premier chantillon (1 i n
1
) et X
j
dans le second (n
1
+ 1 j n
2
) telle que X
i
> X
j
.
Ce test est identique au test de Wilcoxon puisque U = W
n1(n1+1)
2
.
3.3.2.3 Test de la mdiane
En choisissant a(i) = 1I
](n1+n2+1)/2,+]
(i), o (n
1
+n
2
+1)/2 est le rang moyen des observations, la statistique
de test est
M =
n1

i=1
1I
](n1+n2+1)/2,+]
(R
i
)
et correspond au nombre dlments du premier chantillon suprieur la mdiane de lchantillon total. La loi de
M correspond une loi hypergomtrique (on tire n
1
individus parmi n
1
+n
2
avec sous H
0
probabilit 1/2 dtre
suprieur la mdiane de lchantillon total).
Ce test est performant uniquement lorsque les distributions des deux chantillons sont trs diffuses.
Logiciel R : test implmenter
3.3.2.4 Test des scores normaux
En choisissant a(i) =
1
_
i
n1+n2+1
_
la statistique de test devient
SN =
n1

i=1

1
(R
i
/(n
1
+n
2
+ 1)) .
Logiciel R : test implmenter
3.4. TESTS DE COMPARAISON DE K POPULATIONS 51
3.3.2.5 Test de Kolmogorov-Smirnov
Le test est le mme que dans le cas de ladquation dune distribution empirique une distribution thorique,
en remplaant la fonction de rpartition thorique par la version empirique du second chantillon :
KS =
_
n
1
n
2
n
1
+n
2
max
xR
|

F
1
n1
(x)

F
2
n2
(x)|
o

F
1
n
et

F
2
n
sont les fonctions de rpartitions empiriques des deux chantillons.
3.3.3 Cas de deux chantillons dpendants
Lorsque les deux chantillons ne sont pas indpendants, et quil sagit par exemple dune mesure sur les mme
individus statistiques dans deux conditions diffrentes (avant et aprs la prise un mdicament par exemple), la
solution est alors de travailler sur la diffrence des deux chantillons, que lon comparera la valeur centrale 0.
3.3.4 Tests de comparaison de deux proportions, pour de grands chantillons
Deux populations possdent des individus ayant un certain caractre, en proportion p
1
et p
2
. Lobjet du prsent
test est de tester :
H
0
: p
1
= p
2
= p contre H
1
: p
1
= p
2
On relve dans deux chantillons de tailles n
1
et n
2
les proportions f
1
et f
2
dindividus ayant ce caractre. Les
tailles sont supposes sufsamment grandes (n
i
p
i
> 5 et n
i
(1 p
i
) > 5 pour i = 1, 2).
Ainsi les lois des frquences empiriques F
1
et F
2
peuvent tre approximes par des lois normales, do la statistique
du test
U =
F
1
F
2
_
p(1 p)(
1
n1
+
1
n2
)
,
qui suit une loi normale centre rduite sous H
0
.
Si p est inconnue on la remplace par son estimation
p =
n
1
f
1
+n
2
f
2
n
1
+n
2
,
o f
1
et f
2
sont les estimations de p
1
et p
2
.
La rgion critique sera alors dtermine par |U| > u
1

2
= u

2
, do
on rejette H
0
si |f
1
f
2
| > u
1

2
_
p(1 p)(
1
n1
+
1
n2
).
3.4 Tests de comparaison de K populations
Soit X une variable alatoire quantitative, que lon a observe pour K populations (ou de faon quivalente
dans K conditions diffrentes). On dispose des K chantillons suivants :
population P
1
: X
11
, . . . , X
n11
,
population P
2
: X
12
, . . . , X
n22
,
. . .
population P
K
: X
1K
, . . . , X
nKK
.
On note n =

K
k=1
n
k
est le nombre total dobservations.
Le test que lon cherche dnir est le suivant :
H
0
: les K populations P
k
sont identiquement distribues,
H
1
: i, j telle que les populations P
i
et P
j
soient diffrentes.
Lhypothse primordiale dnissant le type de tests effectuer est lindpendance des populations entre elles. Nous
prsentons ci-aprs des tests paramtriques et non paramtriques dans le cas de populations indpendantes, puis
nous examinerons le cas dune dpendance particulire, celle des mesures rptes.
52 CHAPITRE 3. TESTS STATISTIQUES
3.4.1 Tests de comparaison de K populations indpendantes
Exemple. On cherche tester leffet de K traitements mdicamenteux, et pour cela on donne ces traitements K
groupes diffrents dindividus. Les K populations correspondent aux K groupes dindividus ayant reu respecti-
vement un des K traitements possibles. X
1k
, . . . , X
n
k
k
sont les mesures de la rponse au traitement pour les n
k
individus ayant reus le traitement k.
3.4.1.1 chantillons gaussiens ou de grandes tailles : ANOVA 1 facteur
Sous lhypothse que les populations sont de variances identiques (homoscedasticit), nous sommes en prsence
dun problme danalyse de variance (ANOVA) un facteur (ici le facteur population), qui a dj t prsent dans
la section 3.2.6.4.
3.4.1.2 chantillons de petites tailles : test de Kruskal-Wallis
La version non-paramtrique de lANOVA un facteur est le test de Kruskal-Wallis, bass sur les rangs.
Soit R
jk
le rang de la variable X
jk
dans le classement dans lordre croissant de toutes les observations des K
chantillons (suppos sans ex-quo).
Soit R
.k
=
1
n
k

n
k
j=1
R
jk
le rang moyen dans lchantillon de la population P
k
.
Sous lhypothse H
0
dgalit des fonctions de rpartitions F
k
de chaque population
H
0
: F
1
= . . . = F
K
,
le rang moyen R
.k
de chaque population doit tre proche de E[R
jk
] =
n+1
2
.
La statistique du test de Kruskal-Wallis est
KW =
12
n(n + 1)
K

k=1
_
R
.k

n + 1
2
_
2
qui suit sous H
0
, lorsque les tailles n
k
des chantillons tendent vers linni, approximativement une loi du
2

K 1 degrs de libert. Cette approximation est valable lorsque K > 3 et min(n


1
, . . . , n
K
) > 5, et des tables
existent lorsque ce nest pas le cas.
Remarque. On retrouve le test de Wilcoxon lorsque K = 2.
Logiciel R : fonction kruskal.test
3.4.2 Tests de comparaison de K populations dpendantes (cas des mesures rptes)
Supposons maintenant que les K populations consistent en les mesures des mmes individus statistiques dans K
conditions diffrentes. On est alors dans une problmatique de mesures rptes puisque les mesures sont rptes
sur les mme individus. De fait, on perd lindpendance entre les populations puisquen particulier X
j1
, . . . , X
jK
sont lies en tant que mesures dun mme individu. A noter que comme on suppose que ce sont les mmes individus
qui sont mesurs, le nombre n
k
est constant (n
k
= n).
Exemple. On mesure le taux de diabte de n patients K diffrents instants aprs lingestion dun mdicament.
3.4.2.1 chantillons gaussiens ou de grandes tailles : ANOVA 2 facteurs
Dans le cas dchantillons gaussiens ou de grandes tailles, une solution classique est de raliser un analyse de va-
riance 2 facteurs : 1 facteur pour la population/condition/traitement, comme prcdemment, et un facteur individu.
Nous prsentons ci-aprs lANOVA 2 facteurs gnriques A et B, dans le cas lgrement plus gnral dun
plan quilibr ou quirpt, cest--dire o le nombre de mesures pour chaque croisement des facteurs des deux
niveaux est constant gal r (et non plus gal 1 comme prcdemment).
Lobjectif de lanalyse de variance deux facteurs consiste tudier les liens ventuels entre une variable
continue X et deux facteurs A et B J et K niveaux.
On note :
3.4. TESTS DE COMPARAISON DE K POPULATIONS 53
X
jk
la variable X observe pour les j-me et k-me valeurs respectives des facteurs A et B,
X
ijk
la variable alatoire correspondant la i-me observation de X
jk
,
n
jk
le nombre dobservations X
ijk
,
n
j.
=

K
k=1
n
jk
, n
.k
=

J
j=1
n
jk
et n =

J
j=1

K
k=1
n
jk
.
On suppose que X
jk
N(
jk
,
2
) et que les n
jk
sont constants (n
jk
= r plan quilibr ou quirpt).
Dans le modle le plus gnral pour la moyenne
jk
, on suppose quelle peut scrire comme une somme dun
terme constant et de termes dpendants du facteur A, du facteur B et de linteraction entre les facteurs A et B :

jk
= +
j
+
k
+
jk
, (3.2)
avec les contraintes dunicit

j

j
=

k

k
=

k

jk
=

j

jk
= 0.
On considre les moyennes suivantes :

X
.jk
=
1
n
jk
n
jk

i=1
X
ijk
,

X
..k
=
1
n
.k
J

j=1

X
.jk
,

X
.j.
=
1
n
j.
K

k=1

X
.jk
et

X
...
=
1
n
J

j=1
K

k=1
n
jk

i=1
X
ijk
.
ainsi que les sommes des carrs suivantes :
SST =
J

j=1
K

k=1
n
jk

i=1
(X
ijk


X
...
)
2
, SSA =
J

j=1
n
j.
(

X
.j.


X
...
)
2
, SSB =
K

k=1
n
.k
(

X
..k


X
...
)
2
,
SSAB =
J

j=1
K

k=1
n
jk
(

X
.jk


X
.j.


X
..k
+

X
...
)
2
, et SSR =
J

j=1
K

k=1
n
jk

i=1
(X
ijk


X
.jk
)
2
,
o SST est la somme des carrs totale, SSA est la somme des carrs relatifs au facteur A, SSB est la somme des
carrs relatifs au facteur B, SSAB est la somme des carrs relatifs linteraction entre les facteurs A et B et SSR
est la somme des carrs rsiduels.
En remarquant que que lon peut crire SST =
J

j=1
K

k=1
n
jk

i=1
X
2
ijk
n

X
2
...
, on obtient lquation danalyse de la
variance deux facteurs :
SST = SSA+SSB +SSAB +SSR
Comme en analyse de variance un facteur, sous lhypothse H
0
:
j
= 0, les quantits SSA et SSR suivent
2
prs des lois du
2
indpendantes J 1 et n JK degrs de libert. La statistique suivante est donc de loi de
Fisher de paramtres J 1 et n JK :
F
A
=
SSA/(J 1)
SSR/(n JK)
.
De mme, sous les hypothses respectives H
0
:
k
= 0 et H
0
:
jk
= 0, les statistiques
F
B
=
SSB/(K 1)
SSR/(n JK)
et F
AB
=
SSAB/(K 1)(J 1)
SSR/(n JK)
suivent des lois de Fisher de paramtres K 1 et n JK pour F
B
, (K 1)(J 1) et n JK pour F
AB
.
Ainsi, on peut donc tester lexistence des effets principaux des deux facteurs et de leur interaction en comparant ces
statistiques aux quantiles de la loi de Fisher : si les valeurs observes de ces statistiques sont suprieures au quantile
de la loi de Fisher dordre 1 on conclura un effet signicatif.
On prsente usuellement lanalyse de variance sous la forme du tableau suivant
Estimation des effets Sous les hypothses de contraintes

k

k
=

j

j
=

jk
=

j

jk
= 0, les
paramtres
j
,
k
et
jk
de la dcomposition (3.2) de
jk
peuvent tre estims par les relations suivantes :

j
= x
.j.
x
...
,
k
= x
..k
x
...
et
jk
= x
.jk
x
.j.
x
..k
+ x
...
54 CHAPITRE 3. TESTS STATISTIQUES
Facteur Somme degrs de carr F
des carrs libert moyen
A SSA J 1 SSA/(J 1) F
A
=
SSA/(J1)
SSR/(nJK)
B SSB K 1 SSB/(K 1) F
B
=
SSB/(K1)
SSR/(nJK)
Interaction AB SSAB (J 1)(K 1) SSAB/(K 1)(J 1) F
AB
=
SSAB/(K1)(J1)
SSR/(nJK)
Rsidu SSR n JK SSR/(n JK)
Total SST n 1
3.4.2.2 chantillons de petites tailles
Nous revenons au cas dans lequel on dispose des K chantillons :
X
11
, . . . , X
n1
: mesure des n individus dans la conditions 1,
X
12
, . . . , X
n2
: mesure des n individus dans la conditions 2,
. . .
X
1K
, . . . , X
nK
: mesure des n individus dans la conditions K,
Puisque les observations X
j1
, . . . , X
jK
sont les mesures dun mme individu, elles sont dpendantes entre elles.
On ne peut donc comparer ces valeurs avec les valeurs des mesures des autres individus.
Nous nous intressons donc aux rangs intra-individu R
jk
des variables X
jk
dans le classement dans lordre croissant
de X
j1
, . . . , X
jK
, qui correspond aux mesures de lindividu j pour chaque condition (suppos sans ex-quo).
Exemple. Revenons lexemple dans lequel X
jk
est la mesure du diabte de lindividu j au temps k. Comme
X
j1
, . . . , X
jK
sont les mesures du diabte dune mme personne diffrents instants, ces mesures peuvent par
exemple tre toute extrmement leves en comparaison des autres valeurs, uniquement parce que la personne
est la seule diabtique de ltude. An de prendre en compte cet effet individu, nous nous intressons aux rangs
intra-individu des mesures X
j1
, . . . , X
jK
.
Test de Friedman On teste lhypothse H
0
dgalit des fonctions de rpartitions F
k
de chaque population
H
0
: F
1
= . . . = F
K
.
Soit R
.k
=
1
n

n
j=1
R
jk
le rang moyen de la condition/population k. Sous lhypothse H
0
, on doit avoir E[R
.k
] =
(K + 1)/2.
La statistique de Friedman est alors
F =
12n
K(K + 1)
K

k=1
_
R
.k

K + 1
2
_
2
=
12
nK(K + 1)
K

k=1
R
2
.k
3n(K + 1)
qui suit asymptotiquement sous H
0
une loi du
2
K 1 degrs de libert. Puisquon sintresse gnralement
des chantillons de petites tailles, la distribution asymptotique de F nest rarement utilisable et on se rfrera
gnralement la table statistique tabulant ses valeurs (Annexe 4.2.5). A noter que dans ces tables,
En prsence dex-quo, il faut corriger la statistique F en la divisant par
C = 1

s
i=1
(t
3
i
t
i
)
n(K
3
K)
Logiciel R : fonction friedman.test
Test de Quade Le test de Friedman peut tre amlior en prenant en compte les diffrences de valeurs X
jk
pour
un mme individu. Pour cela, on introduit ltendue E
j
= max
k
(X
jk
) min
k
(X
jk
) qui est la diffrence entre la
valeur maximale et la valeur minimale pour un individu.
Soit S
j
le rang de ltendue E
j
dans le classement des tendues intra-individu E
1
, . . . , E
n
(rang moyen en prsence
dex-quo).
On remplace chaque observation X
jk
par
Q
jk
= S
j
(R
jk

K + 1
2
)
3.4. TESTS DE COMPARAISON DE K POPULATIONS 55
et soit Q
k
=

n
j=1
Q
jk
.
Les statistiques T =

n
j=1

K
k=1
Q
2
jk
et B =

K
k=1
Q
2
k
peuvent tre interprtes comme reprsentant respective-
ment les variations intra-individu et inter-individus.
La statistique du test de Quade est
Q =
(n 1)B
T B
qui suit approximativement sous H
0
une loi de Fisher K 1 et (n 1)(K 1) degrs de liberts.
Logiciel R : fonction quade.test
Remarque. Le test de Quade est plus puissant que le test de Friedman.
Test de Page Le test de Page est une variante du test de Friedman dans le cas o un ordre est impos dans
lhypothse alternative :
H
0
: F
1
= . . . = F
K
,
contre
H
1
: F
1
> . . . > F
K
.
Ce type de test peut tre intressant pour tester une volution monotone de la variable X au sein des popula-
tions/conditions P
1
, . . . , P
K
(volution temporelle dans le cas o les populations/conditions sont indexes par le
temps).
La statistique du test de Page est
P =
K

k=1
kR
.k
qui suit sous H
0
, lorsque n > 12, une loi normale de moments :
E[P] =
K(K + 1)
2
4
et V (P) =
144(K 1)n
(K
3
K)
2
.
Logiciel R : test implmenter.
56 CHAPITRE 3. TESTS STATISTIQUES
Chapitre 4
Annexes
4.1 Rappel sur les convergences des suites de variables alatoires
Soit (X
n
) une suite de variables alatoires relles.
Dnition 1. La suite (X
n
) converge en probabilit vers une variables alatoire X si , positifs, il existe n
0
tel
que
n > n
0
, P(|X
n
X| > ) <
Dnition 2. La suite (X
n
) converge presque srement vers la variable alatoire X si
P({| lim
n
X
n
() = X()}) = 0
Dnition 3. La suite (X
n
) converge en moyenne dordre p vers la variable alatoire X si
E[|X
n
X|
p
] 0
Dnition 4. La suite (X
n
) converge en loi vers la variable alatoire X de fonction de rpartition F si en tout
point de continuit de F, la suite F
n
des fonctions de rpartition de X
n
converge vers F
Proprit 1.
(X
n
)
p.s.
X
(X
n
)
P
X (X
n
)
L
X
(X
n
)
moyenne ordre p
X
4.1.0.3 Loi faible des grands nombres
Soit (X
1
, . . . , X
n
) un chantillon indpendant et identiquement distribu, avec E[X
i
] = et V (X
i
) =
2
<
. On a alors

X
P

4.1.0.4 Loi forte des grands nombres


Soit (X
1
, . . . , X
n
) un chantillon indpendant et identiquement distribu, avec E[X
i
] = < et V (X
i
) =
2

X
p.s.

4.1.0.5 Thorme centrale limite


Soit (X
1
, . . . , X
n
) un chantillon indpendant et identiquement distribu, avec E[X
i
] = et V (X
i
) =
2
<
. On a alors

X
L
N(,

2
n
)
57
58 CHAPITRE 4. ANNEXES
4.2 Tables statistiques pour test
4.2.1 Test des rangs signs
4.2. TABLES STATISTIQUES POUR TEST 59
4.2.2 Test du signe
60 CHAPITRE 4. ANNEXES
4.2.3 Test de Wilcoxon (2 populations)
4.2. TABLES STATISTIQUES POUR TEST 61
4.2.4 Test de Shapiro-Wilk (normalit)
Ces tables sont dues Christophe Chesneau http ://www.math.unicaen.fr/chesneau/.
(Table 9) Coecients de Shapiro-Wilk
Les colonnes des tableaux ci-dessous donnent les coecients de Shapiro-Wilk (a
1
, . . . , a

) o` u est lentier tel que n = 2


ou n = 2 + 1 selon la parite de n.

i
n
2 3 4 5 6 7 8 9 10
1 0,7071 0,7071 0,6872 0,6646 0,6431 0,6233 0,6052 0,5888 0,5739
2 0,1677 0,2413 0,2806 0,3031 0,3164 0,3244 0,3291
3 0,0875 0,1401 0,1743 0,1976 0,2141
4 0,0561 0,0947 0,1224
5 0,0399

i
n
11 12 13 14 15 16 17 18 19 20
1 0,5601 0,5475 0,5359 0,5251 0,5150 0,5056 0,4963 0,4886 0,4808 0,4734
2 0,3315 0,3325 0,3325 0,3318 0,3306 0,3290 0,3273 0,3253 0,3232 0,3211
3 0,2260 0,2347 0,2412 0,2460 0,2495 0,2521 0,2540 0,2553 0,2561 0,2565
4 0,1429 0,1586 0,1707 0,1802 0,1878 0,1939 0,1988 0,2027 0,2059 0,2085
5 0,0695 0,0922 0,1099 0,1240 0,1353 0,1447 0,1524 0,1587 0,1641 0,1686
6 0,0303 0,0539 0,0727 0,0880 0,1005 0,1109 0,1197 0,1271 0,1334
7 0,0240 0,0433 0,0593 0,0725 0,0837 0,0932 0,1013
8 0,0196 0,0359 0,0496 0,0612 0,0711
9 0,0163 0,0303 0,0422
10 0,0140

i
n
21 22 23 24 25 26 27 28 29 30
1 0,4643 0,4590 0,4542 0,4493 0,4450 0,4407 0,4366 0,4328 0,4291 0,4254
2 0,3185 0,3156 0,3126 0,3098 0,3069 0,3043 0,3018 0,2992 0,2968 0,2944
3 0,2578 0,2571 0,2563 0,2554 0,2543 0,2533 0,2522 0,2510 0,2499 0,2487
4 0,2119 0,2131 0,2139 0,2145 0,2148 0,2151 0,2152 0,2151 0,2150 0,2148
5 0,1736 0,1764 0,1787 0,1807 0,1822 0,1836 0,1848 0,1857 0,1064 0,1870
6 0,1399 0,1443 0,1480 0,1512 0,1539 0,1563 0,1584 0,1601 0,1616 0,1630
7 0,1092 0,1150 0,1201 0,1245 0,1283 0,1316 0,1346 0,1372 0,1395 0,1415
8 0,0804 0,0878 0,0941 0,0997 0,1046 0,1089 0,1128 0,1162 0,1192 0,1219
9 0,0530 0,0618 0,0696 0,0764 0,0823 0,0876 0,0923 0,0965 0,1002 0,1036
10 0,0263 0,0368 0,0459 0,0539 0,0610 0,0672 0,0728 0,0778 0,0822 0,0862
11 0,0122 0,0228 0,0321 0,0403 0,0476 0,0540 0,0598 0,0650 0,0697
12 0,0107 0,0200 0,0284 0,0358 0,0424 0,0483 0,0537
13 0,0094 0,0178 0,0253 0,0320 0,0381
14 0,0084 0,0159 0,0227
15 0,0076
C. Chesneau 9
62 CHAPITRE 4. ANNEXES
(Table 10) Valeurs de Shapiro-Wilk
Les valeurs interieures du tableau ci-dessous donnent les coecient w
,n
utilise dans le test de Shapiro-Wilk. Ici, n est la
taille de lechantillon et est la valeur du risque.

0, 05 0, 01
3 0,767 0,753
4 0,748 0,687
5 0,762 0,686
6 0,788 0,713
7 0,803 0,730
8 0,818 0,749
9 0,829 0,764
10 0,842 0,781
11 0,850 0,792
12 0,859 0,805
13 0,856 0,814
14 0,874 0,825
15 0,881 0,835
16 0,837 0,844
17 0,892 0,851
18 0,897 0,858
19 0,901 0,863
20 0,905 0,868
21 0,908 0,873
22 0,911 0,878
23 0,914 0,881
24 0,916 0,884
25 0,918 0,888
26 0,920 0,891

0, 05 0, 01
27 0,923 0,894
28 0,924 0,896
29 0,926 0,898
30 0,927 0,900
31 0,929 0,902
32 0,930 0,904
33 0,931 0,906
34 0,933 0,908
35 0,934 0,910
36 0,935 0,912
37 0,936 0,914
38 0,938 0,916
39 0,939 0,917
40 0,940 0,919
41 0,941 0,920
42 0,942 0,922
43 0,943 0,923
44 0,944 0,924
45 0,945 0,926
46 0,945 0,927
47 0,946 0,928
48 0,947 0,929
49 0,947 0,929
50 0,947 0,930
C. Chesneau 10
4.2. TABLES STATISTIQUES POUR TEST 63
4.2.5 Test de Friedman
Critical values for the Friedman Test
( )
( ) 1 3
1
12
2
+
+
=

k n R
k nk
M
j
k=3 k=4 k=5 k=6
n =5% =1% =5% =1% =5% =1% =5% =1%
2 6.000 7.600 8.000 9.143 9.714
3 6.000 7.400 9.000 8.533 10.130 9.857 11.760
4 6.500 8.000 7.800 9.600 8.800 11.200 10.290 12.710
5 6.400 8.400 7.800 9.960 8.960 11.680 10.490 13.230
6 7.000 9.000 7.600 10.200 9.067 11.870 10.570 13.620
7 7.143 8.857 7.800 10.540 9.143 12.110 10.670 13.860
8 6.250 9.000 7.650 10.500 9.200 13.200 10.710 14.000
9 6.222 9.556 7.667 10.730 9.244 12.440 10.780 14.140
10 6.200 9.600 7.680 10.680 9.280 12.480 10.800 14.230
11 6.545 9.455 7.691 10.750 9.309 12.580 10.840 14.320
12 6.500 9.500 7.700 10.800 9.333 12.600 10.860 14.380
13 6.615 9.385 7.800 10.850 9.354 12.680 10.890 14.450
14 6.143 9.143 7.714 10.890 9.371 12.740 10.900 14.490
15 6.400 8.933 7.720 10.920 9.387 12.800 10.920 14.540
16 6.500 9.375 7.800 10.950 9.400 12.800 10.960 14.570
17 6.118 9.294 7.800 10.050 9.412 12.850 10.950 14.610
18 6.333 9.000 7.733 10.930 9.422 12.890 10.950 14.630
19 6.421 9.579 7.863 11.020 9.432 12.880 11.000 14.670
20 6.300 9.300 7.800 11.100 9.400 12.920 11.000 14.660
5.991 9.210 7.815 11.340 9.488 13.280 11.070 15.090
For values of n greater than 20 and/or values of k greater than 6, use
2
tables with k-1 degrees
of freedom
64 CHAPITRE 4. ANNEXES
Bibliographie
[1] M. Carbon, C. Franck. Estimation non paramtrique de la densit et de la rgression - Prvision non param-
trique. La revue MODULAD, numro 15, juin 1995.
[2] G. Saporta. Probabilits, analyse de donnes et statistique. 2me dition, Editions Technip, 2006.
[3] D.J. Sheskin. Handbook of parametric and nonparametric statistical procedures. Fifth edition. Chapman &
Hall/CRC, 2011.
65