Vous êtes sur la page 1sur 274

ECOLE NATIONALE

DES PONTS ET CHAUSS

EES
Annee universitaire 2006 2007
COURS DE STATISTIQUE
et ANALYSE des DONN

EES
12 juin 2007
ii
Preambule
Le mot Statistique vient de lallemand Statistik, qui designe des donnees utiles `a l

Etat,
der Staat (dix-huiti`eme si`ecle). Ce premier sens renvoie donc `a ce que nous appelons aujour-
dhui, au pluriel, des statistiques, cest-` a-dire des donnees chirees, generalement de
grande ampleur, avec un accent sur le fait que ces donnees ne sont pas `a transmettre brutes
`a lutilisateur (le prince dans le sens initial) mais doivent etre triees, clariees et organisees
en fonction dusages bien precis.
On peut se mettre `a parler, historiquement de Statistique(au singulier) en tant que
science quand, dans le courant du dix-neuvi`eme si`ecle, on prend en compte le fait que ces
donnees sont entachees daleatoire (en particulier en recourant au tirage dechantillons) et
que donc on modelise leur recueil par lusage des methodes mathematiques du calcul des
probabilites. Ce point de vue connat un grand essor dans la premi`ere moitie du vingti`eme
si`ecle.
Dans la deuxi`eme moite du vingti`eme si`ecle le progr`es des moyens de calcul permet de
faire subir des traitements simplicateurs `a des masses de donnees de plus en plus grandes,
et ce eventuellement prealablement `a la mise en place de mod`eles probabilistes ; cest alors
quemerge la terminologie Analyse des donnees, qui ne doit pas etre vue comme sop-
posant `a Statistique mais complementaire, les deux points de vue setant largement in-
terpenetres dans leur progression commune jusquen ce debut du vingt-et-uni`eme si`ecle.
Dans tout ce cours nous designerons du vocable statisticien le praticien dont nous
decrirons et justierons les techniques quil emploie face aux donnees qui lui sont fournies.
iii
iv PR

EAMBULE
Table des mati`eres
Preambule iii
A Introduction 1
I Lactivite du statisticien 3
I.1 Le contexte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
I.2 La demarche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
I.3 Le mod`ele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
B Statistique decisionnelle 7
II Rappels sur le mod`ele parametrique 9
II.1 Un exemple introductif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
II.1.1 Presentation dun jeu de donnees . . . . . . . . . . . . . . . . . . . . 9
II.1.2 Remarques sur la modelisation . . . . . . . . . . . . . . . . . . . . . 9
II.1.3 Quels questionnements peut-on soulever ? . . . . . . . . . . . . . . . 11
II.2 Denitions et rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
II.2.1 Les mod`eles parametriques . . . . . . . . . . . . . . . . . . . . . . . . 12
II.2.2 Rappels sur la LFGN et le TCL . . . . . . . . . . . . . . . . . . . . . 13
II.3 Estimation ponctuelle : les estimateurs . . . . . . . . . . . . . . . . . . . . 13
II.3.1 Proprietes des estimateurs . . . . . . . . . . . . . . . . . . . . . . . . 14
II.3.2 Lestimateur du maximum de vraisemblance . . . . . . . . . . . . . . 16
II.4 Resume des donnees : les statistiques exhaustives . . . . . . . . . . . . . . 18
II.5 Precision de lestimation : lintervalle de conance . . . . . . . . . . . . . . 19
II.6 Procedure de decision : les tests . . . . . . . . . . . . . . . . . . . . . . . . 23
II.7 Utiliser des donnees exterieures : lapproche bayesienne . . . . . . . . . . . 29
II.8 Resume des procedures de test . . . . . . . . . . . . . . . . . . . . . . . . . 31
II.8.1 Le mod`ele de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . 31
III Mod`ele lineaire gaussien 33
III.1 Generalites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
III.1.1 Plans dexperiences . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
III.1.2 Le mod`ele general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
III.1.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
v
vi TABLE DES MATI
`
ERES
III.2 Lois associees aux echantillons gaussiens . . . . . . . . . . . . . . . . . . . 37
III.2.1 Theor`eme de Cochran . . . . . . . . . . . . . . . . . . . . . . . . . . 37
III.2.2 Statistiques fondamentales . . . . . . . . . . . . . . . . . . . . . . . . 38
III.3 Le mod`ele gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
III.3.1 Un exemple de donnees reelles `a loi gaussienne . . . . . . . . . . . . 39
III.3.2

Etude du mod`ele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
III.3.3 Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
III.3.4 Intervalle de conance et tests pour la moyenne . . . . . . . . . . . . 41
III.3.5 Intervalle de conance pour la moyenne . . . . . . . . . . . . . . . . 41
III.3.6 Intervalles de conance et tests pour la variance . . . . . . . . . . . . 43
III.3.7 Analyse des donnees reelles . . . . . . . . . . . . . . . . . . . . . . . 44
III.3.8 Approche bayesienne . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
III.4 Comparaison de moyennes de deux echantillons gaussiens . . . . . . . . . . 45
III.5 Analyse de la variance `a un facteur . . . . . . . . . . . . . . . . . . . . . . 46
III.5.1 Comparaison de plusieurs echantillons gaussiens . . . . . . . . . . . . 46
III.5.2 Cadre general du mod`ele lineaire gaussien . . . . . . . . . . . . . . . 48
III.5.3 Repartition de la variation . . . . . . . . . . . . . . . . . . . . . . . . 48
III.5.4 Test pour legalite des moyennes de k echantillons gaussiens . . . . . 49
III.6 Regression lineaire multiple . . . . . . . . . . . . . . . . . . . . . . . . . . 52
III.6.1 Denition du mod`ele . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
III.6.2 Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
III.6.3 Test de lutilite des regresseurs . . . . . . . . . . . . . . . . . . . . . 55
III.6.4 Analyse des residus et des observations . . . . . . . . . . . . . . . . . 57
III.7 Resume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
III.7.1 Le mod`ele gaussien `a variance connue . . . . . . . . . . . . . . . . . 60
III.7.2 Le mod`ele gaussien `a variance inconnue . . . . . . . . . . . . . . . . 60
III.7.3 Comparaison de moyennes de deux echantillons gaussiens . . . . . . 61
III.7.4 Analyse de la variance `a un facteur . . . . . . . . . . . . . . . . . . . 61
III.7.5 Regression multiple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
IV Mod`eles discrets 63
IV.1 Problematique des mod`eles discrets . . . . . . . . . . . . . . . . . . . . . . 63
IV.2 Tests du
2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
IV.2.1 Test dadequation `a une loi discr`ete . . . . . . . . . . . . . . . . . . . 64
IV.2.2 Test dadequation `a une famille de lois discr`etes . . . . . . . . . . . . 67
IV.3 La regression logistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
IV.3.1 Exemple introductif . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
IV.3.2 Une solution raisonnable : la regression logistique . . . . . . . . . . . 71
IV.3.3 Comment tester linuence de la variable explicative ? . . . . . . . . 73
IV.4 Comparaison de proportions . . . . . . . . . . . . . . . . . . . . . . . . . . 75
IV.4.1 Presentation de la problematique sur un exemple . . . . . . . . . . . 75
IV.4.2

Echantillons non apparies . . . . . . . . . . . . . . . . . . . . . . . . 75
IV.4.3

Echantillons apparies . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
IV.5 Resume des tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
IV.5.1 Test dadequation `a une loi discr`ete : le test du
2
. . . . . . . . . . 80
IV.5.2 Test dindependance entre deux variables qualitatives . . . . . . . . . 81
TABLE DES MATI
`
ERES vii
IV.5.3 Regression logistique . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
IV.5.4 Comparaison de deux proportions sur echantillons non apparies . . . 82
IV.5.5 Comparaison de deux proportions sur echantillons apparies . . . . . 83
V Tests non parametriques 85
V.1 Pourquoi la statistique non parametrique ? . . . . . . . . . . . . . . . . . . 85
V.1.1 Se liberer du mod`ele parametrique . . . . . . . . . . . . . . . . . . . 85
V.1.2 Quand faut-il utiliser du non parametrique ? . . . . . . . . . . . . . . 85
V.1.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
V.2 Les outils statistiques du non parametrique . . . . . . . . . . . . . . . . . 88
V.3 Probl`emes `a un seul echantillon . . . . . . . . . . . . . . . . . . . . . . . . 90
V.3.1 Ajustement `a une loi : le test de Kolmogorov . . . . . . . . . . . . . 90
V.3.2 Un exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
V.3.3 Test de normalite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
V.4 Probl`emes `a deux echantillons . . . . . . . . . . . . . . . . . . . . . . . . . 93
V.4.1 Que signie echantillon apparie, non apparie ? . . . . . . . . . . . . . 93
V.4.2 Deux echantillons apparies : le test de Wilcoxon . . . . . . . . . . . . 94
V.4.3 Deux echantillons non apparies . . . . . . . . . . . . . . . . . . . . . 97
V.4.4 Tests parametriques ou tests non parametriques ? . . . . . . . . . . . 102
V.5 Conclusions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
V.6 Annexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
V.7 Resume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
V.7.1 Test de Kolmogorov . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
V.7.2 Test de Wilcoxon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
V.7.3 Test de Kolmogorov-Smirnov . . . . . . . . . . . . . . . . . . . . . . 104
V.7.4 Test de Mann et Whitney . . . . . . . . . . . . . . . . . . . . . . . . 105
VI Modelisation statistique des valeurs extremes 107
VI.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
VI.2 Mod`eles de valeurs extremes . . . . . . . . . . . . . . . . . . . . . . . . . . 110
VI.2.1 La loi generalisee des extremes (la loi du maximum par blocs) . . . . 111
VI.2.2 La loi des depassements (mod`ele POT) . . . . . . . . . . . . . . . . . 114
VI.3 Inference . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
VI.3.1 Inference du mod`ele GEV . . . . . . . . . . . . . . . . . . . . . . . . 117
VI.3.2 Inference du mod`ele POT . . . . . . . . . . . . . . . . . . . . . . . . 122
VI.4 Traitement decisionnel de la construction dune digue . . . . . . . . . . . . 123
VI.5 Conclusions et perspectives . . . . . . . . . . . . . . . . . . . . . . . . . . 125
VI.6 Sur la periode de retour et la loi de Poisson . . . . . . . . . . . . . . . . . 125
VI.6.1 Periode de retour . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
VI.6.2 La loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
VII Series chronologiques 131
VII.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
VII.1.1 Motivations et objectifs . . . . . . . . . . . . . . . . . . . . . . . . . 131
VII.1.2 Exemples de series temporelles . . . . . . . . . . . . . . . . . . . . . 132
VII.1.3 Rep`eres historiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
viii TABLE DES MATI
`
ERES
VII.1.4 Principaux mod`eles statistiques pour letude des series temporelles . 135
VII.2 Processus univaries `a temps discret . . . . . . . . . . . . . . . . . . . . . . 137
VII.2.1 Processus stochastique du second ordre . . . . . . . . . . . . . . . . . 137
VII.2.2 Processus stationnaire . . . . . . . . . . . . . . . . . . . . . . . . . . 138
VII.2.3 Autocovariance et autocorrelations . . . . . . . . . . . . . . . . . . . 139
VII.2.4 Estimation des moments pour les processus stationnaires . . . . . . . 141
VII.2.5 Tests de blancheur . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
VII.2.6 Densite spectrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
VII.3 Decomposition saisonni`ere . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
VII.3.1 Principe de la decomposition saisonni`ere . . . . . . . . . . . . . . . . 145
VII.3.2 Decomposition saisonni`ere `a laide de la regression lineaire . . . . . . 145
VII.4 Prevision et processus des innovations . . . . . . . . . . . . . . . . . . . . 148
VII.5

Etude des processus AR . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
VII.5.1 Denition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
VII.5.2 Processus AR canonique et ecriture MA() . . . . . . . . . . . . . . 150
VII.5.3 Autocorrelations simples dun processus AR . . . . . . . . . . . . . . 151
VII.5.4 Autocorrelations partielle dun processus AR . . . . . . . . . . . . . 152
VII.5.5 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
VII.6 Processus MA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
VII.6.1 Processus MA canonique et ecriture AR() . . . . . . . . . . . . . . 154
VII.6.2 Autocorrelations simples dun processus MA . . . . . . . . . . . . . . 154
VII.6.3 Autocorrelations partielles dun processus MA . . . . . . . . . . . . . 155
VII.7 Processus ARMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
VII.7.1 Processus ARMA canonique et ecritures MA() et AR() . . . . . 157
VII.7.2 Autocorrelations dun processus ARMA . . . . . . . . . . . . . . . . 158
VII.7.3 Densite spectrale dun processus ARMA . . . . . . . . . . . . . . . . 159
VII.7.4 Estimation des processus ARMA . . . . . . . . . . . . . . . . . . . . 159
VII.7.5 Choix de mod`ele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
VII.8 Pratique des mod`eles SARIMA . . . . . . . . . . . . . . . . . . . . . . . . 163
VII.8.1 Methodologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
VII.8.2 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
VIII Apprentissage Statistique 173
VIII.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
VIII.2 Description formelle et exemples . . . . . . . . . . . . . . . . . . . . . . . . 173
VIII.2.1 Problematique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
VIII.2.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
VIII.2.3 Lien entre classement binaire et regression aux moindres carres . . . 176
VIII.2.4 Consistance universelle . . . . . . . . . . . . . . . . . . . . . . . . . . 177
VIII.3 Les algorithmes dapprentissage et leur consistance . . . . . . . . . . . . . 177
VIII.3.1 Algorithmes par moyennage locale . . . . . . . . . . . . . . . . . . . 177
VIII.3.2 Algorithmes par minimisation du risque empirique . . . . . . . . . . 180
VIII.4 Au del` a de la consistance universelle . . . . . . . . . . . . . . . . . . . . . 186
TABLE DES MATI
`
ERES ix
C Analyse exploratoire 193
IX Analyse des donnees 195
IX.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
IX.1.1 Objectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
IX.1.2 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
IX.1.3 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
IX.2 LAnalyse en Composantes Principales . . . . . . . . . . . . . . . . . . . . 201
IX.2.1 Problematique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
IX.2.2 Choix de la metrique . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
IX.2.3 Moindre deformation du nuage . . . . . . . . . . . . . . . . . . . . . 202
IX.2.4 Principales relations entre variables . . . . . . . . . . . . . . . . . . . 207
IX.2.5 Dualite : imbrication des deux objectifs . . . . . . . . . . . . . . . . . 208
IX.2.6 Nombre daxes (ou de composantes) `a analyser . . . . . . . . . . . . 209
IX.2.7 Elements supplementaires . . . . . . . . . . . . . . . . . . . . . . . . 209
IX.2.8 Aides `a linterpretation . . . . . . . . . . . . . . . . . . . . . . . . . . 210
IX.3 Classication automatique . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
IX.3.1 Problematique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
IX.3.2 Mesure de dissimilarite . . . . . . . . . . . . . . . . . . . . . . . . . . 211
IX.3.3 Inerties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
IX.3.4 Algorithmes de partitionnement : les centres mobiles . . . . . . . . 213
IX.3.5 Classication ascendante hierarchique (CAH) . . . . . . . . . . . . . 214
IX.3.6 Methodes mixtes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
IX.3.7 Caracterisation des classes . . . . . . . . . . . . . . . . . . . . . . . . 216
IX.4 Complementarite des deux techniques . . . . . . . . . . . . . . . . . . . . . 217
IX.5 Limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
D Annexe 221
X Rappels et complements de probabilites 223
X.1 Denitions et rappels generaux . . . . . . . . . . . . . . . . . . . . . . . . 223
X.1.1 Probabilite et loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
X.1.2 Variables aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
X.1.3 Esperance-Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
X.1.4 Conditionnement, independance . . . . . . . . . . . . . . . . . . . . . 236
X.2 Lois de variables aleatoires remarquables . . . . . . . . . . . . . . . . . . . 242
X.2.1 Variables aleatoires discr`etes . . . . . . . . . . . . . . . . . . . . . . . 242
X.2.2 Variables aleatoires absolument continues . . . . . . . . . . . . . . . 244
X.3 Theor`emes limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
X.3.1 Convergences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
X.3.2 Theor`eme central limite . . . . . . . . . . . . . . . . . . . . . . . . . 250
X.3.3 Convergences en loi remarquables . . . . . . . . . . . . . . . . . . . . 251
x TABLE DES MATI
`
ERES
XI Tables statistiques 253
XI.1 Quantiles de la loi ^(0, 1) . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
XI.2 Fonction de repartition de la loi ^(0, 1) . . . . . . . . . . . . . . . . . . . 254
XI.3 Quantiles de la loi du
2
. . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
XI.4 Quantiles de la loi de Student . . . . . . . . . . . . . . . . . . . . . . . . . 256
XI.5 Quantiles de la loi de Fisher-Snedecor . . . . . . . . . . . . . . . . . . . . . 257
Bibliographie et logiciels 259
Premi`ere partie
Introduction
1
Chapitre I
Comment caracteriser lactivite du
statisticien?
I.1 Le contexte
a. Le statisticien ninvente pas son domaine dinvestigation, mais se trouve
confronte `a des donnees, qui peuvent etre de plusieurs natures :
donnees brutes telles que des enregistrements de qualite de pi`eces produites, de pheno-
m`enes meteorologiques, dobservations demographiques, de cours de bourse ...
donnees issues de protocoles experimentaux, tels que des experiences biologiques, agro-
nomiques ...
Dans tous les cas, de mani`ere plus ou moins explicite selon la connaissance des conditions
de recueil, et meme si ces donnees sont tr`es vastes, on peut considerer quil ne sagit que dune
connaissance imparfaite dune realite sous-jacente (en ceci la statistique ne di`ere pas
dautres activites scientiques experimentales).
b. Le statisticien ninvente pas sa problematique, mais il a un interlocuteur,
qui lui exprime, de mani`ere plus ou moins confuse, des attentes face `a ces donnees :
Clarier les donnees pour en extraire des resumes pertinents.
Modeliser la part dalea qui intervient dans le phenom`ene qui a conduit `a
ces donnees ; insistons sur le fait quil ne sagit pas ici de modeliser la structure
(physique, biologique, economique . . . ) de ce phenom`ene. Dans la plupart des cas
cette modelisation prendra la forme dhypoth`eses sur une loi de probabilite
regissant le phenom`ene qui a conduit aux observations : le mod`ele prend en
compte une plus ou moins vaste famille de lois de probabilite et le statisticien doit, au
vu des donnees, degager une sous-famille dans laquelle il conseillera de considerer
que se situe la loi du phenom`ene ; le type de sous-famille `a mettre en evidence depend
des besoins exprimes par linterlocuteur, et le conseil du statisticien ne pourra jamais
etre considere comme premuni contre tout risque derreur.
Prendre une decision, celle-ci pouvant etre operationnelle (interruption dune pro-
duction defectueuse, acceptation dun medicament, publication dun sondage ...) ou de
nature scientique, typiquement le choix dune certaine modelisation (le mot etant pris
ici dans un sens tr`es large, et pas seulement statistique) dont on fera ulterieurement
usage si se represente un contexte analogue.
3
4 CHAPITRE I. LACTIVIT

E DU STATISTICIEN
Eectuer une certaine prevision de lavenir si se poursuit le phenom`ene enregistre
(ceci etant un cas particulier du point precedent dans le cas de series chronologiques,
mis en evidence en raison de son caract`ere important pratiquement).
Bien s ur les distinctions faites ci-dessus ne sont pas aussi tranchees dans la pratique ;
donnons quelques exemples :
Le statisticien peut avoir participe ` a lelaboration du protocole de recueil des donnees :
une meilleure education `a la statistique de la population, en particulier chez les cher-
cheurs, les ingenieurs, les nanciers . . . doit en particulier conduire `a inciter les utili-
sateurs `a associer le plus en amont possible le statisticien `a lelaboration des conditions
de recueil des donnees sur lesquelles il doit travailler.
Le statisticien doit respecter les besoins de son interlocuteur, mais il peut laider `a les
formaliser et le renseigner sur la possibilite de les satisfaire ou non au vu des donnees dis-
ponibles ; en particulier les demandes de son interlocuteur ont souvent une presentation
qualitative (qui sera marquee par des guillements dans les exemples donnes ci-dessous) ;
le statisticien doit lui rendre sensible la necessite de quantier le contexte de travail
pour le rendre sujet `a un traitement scientique.
Le choix des resumes interessants des donnees est souvent lie `a la fois au questionne-
ment de linterlocuteur et au choix du mod`ele.
Enn, evidemment, le mot interlocuteur est `a prendre dans un sens tr`es large, celui-ci
pouvant etre eectivement une personne physique mais aussi un concept abstrait tel
quune theorie scientique soumise au feu de lexperimentation et dont v le statisticien
doit assimiler les problematiques propres.
Il nen reste pas moins que cette presentation du travail du statisticien permet (meme si
les personnalites `a casquettes multiples sont souvent les plus productives) de distinguer son
metier de ceux :
du mathematicien; mais la caracterisation des mod`eles et des qualites des outils uti-
lises pour resoudre les questions degagees passe par lintermediaire des mathematiques
et de lidealisation quelles permettent : on verra par exemple limportance des theor`e-
mes asymptotiques du calcul des probabilites qui, en renseignant sur ce qui se passe
quand la taille dun echantillon tend vers linni, justient les techniques employees
pour des echantillons nis (ils le sont par essence meme) mais de taille assez grande ;
de linformaticien; mais la cooperation est indispensable pour elaborer les outils de
calcul degageant les caracteristiques pertinentes des grandes masses de donnees (cas de
beaucoup dobservations appartenant chacune `a un espace de taille assez importante) ;
il y a lieu ici de se meer de la mise sur le marche doutils purement informatiques
pretendant au traitement automatique de donnees en faisant leconomie dhypoth`eses
modelisatrices des phenom`enes sous-jacents, ce que recouvre parfois le vocable nouveau
et tr`es en vogue de fouille des donnees (en anglais data mining) ;
du chercheur implique dans un domaine dapplication donne ; mais chaque
branche scientique a suscite des problematiques statistiques qui lui sont particuli`e-
rement utiles (et qui ont souvent migre ensuite vers dautres branches) et a donc
developpe des corps de specialistes dont la qualite tient `a leur double competence :
econom`etres, biom`etres, demographes, abilistes industriels . . .
I.2. LA D

EMARCHE 5
I.2 La demarche
Les considerations ci-dessus justient le plan des chapitres qui suivent. On procedera `a la
consideration des points suivants :
a. formalisation dun mod`ele,
b. reexion sur les questionnements envisageables dans ce mod`ele,
c. elaboration doutils associes aux questionnements degages et exploration des qualites quon
peut en attendre.
Ces dierents points se retrouveront `a la fois dans la pratique de la resolution dun
probl`eme concret de statistique, une fois son contexte bien analyse, et dans les exercices
qui pourront etre proposes `a des etudiants dans le cadre de ce cours.
Dans le chapitre II, nous nous eorcerons aussi de degager lenvironnement de telles
etudes, ce qui peut comporter :
a. une reexion sur lorigine de ces donnees (nous pourrons par exemple fournir ici une
liste non limitative de conditions de recueil envisageables ; dautres peuvent etre imaginees en
cours),
b. une reexion sur les resumes de ces donnees qui paraissent pertinents,
c. une interrogation sur la possibilite de prendre en compte des informations exterieures aux
donnees.
I.3 Le mod`ele
Comme dans toute activite scientique, lelement central dans cette demarche est celui
de la formalisation dun mod`ele. Nous devons insister ici sur cinq points :
a. La premi`ere etape dune modelisation en statistique consiste en le choix de lensemble
de toutes les realisations possibles du phenom`ene etudie (ensemble souvent note ) ;
lobservation eective dont dispose le statisticien est donc vue comme un element de ce ,
ensemble qui peut etre tr`es gros et dont le choix fait intervenir `a la fois des considerations
realistes et des considerations mathematiques : par exemple pour 1000 observations prenant
des valeurs enti`eres entre 0 et 120 (ages detres humains en annees) on poura prendre =
0, . . . , 120
1000
, mais il pourra etre utile pour le traitement mathematique de plonger cet
espace dans R
1000
.
b. Une fois adopte un tel mod`ele, les resumes des donnees auxquels on sinteresse se
formalisent comme des applications de , dans un autre espace

. De telles applications
sont aussi appelees des statistiques. Le choix des resumes juges pertinents peut etre fonde
sur des considerations propres au observe (on est alors, comme ce sera le cas dans le cadre de
lanalyse des donnees, jadis appelee statistique descriptive) ou sur des considerations portant
sur le phenom`ene qui a donne naissance `a ce (on est alors, comme ce sera le cas en II.1.1
et III.3.1, dans le cadre de la statistique inferentielle, quon aborde au point c qui suit).
c. Dans le cadre de la statistique inferentielle, le caract`ere fortuit de lobservation eective,
parmi toutes les realisations auxquelles aurait pu donner naissance le phenom`ene observe (et
dont lensemble a ete modelise par ), se traduit mathematiquement en completant le mod`ele
par le choix dune famille de probabilites ; en ce sens, adopter un mod`ele statistique
consiste `a admettre (au moins jusqu`a revision de ce point de vue) que la vraie probabilite
qui regit le phenom`ene appartient `a cette famille, classiquement notee { = P

; ;
6 CHAPITRE I. LACTIVIT

E DU STATISTICIEN
on parlera donc du mod`ele statistique (, {). Il est souvent possible de donner un sens
concret, dans le mod`ele, `a ce param`etre (sinon, il est toujours possible mathematiquement
de prendre pour ensemble lensemble de celles des probabilites sur que lon consid`ere
susceptibles de regir le phenom`ene et decrire que P

= ).
Pour des raisons dordre mathematique (voir X.1.1), il peut etre necessaire de preciser la
tribu T de parties de (appelees ev`enements dans ce mod`ele) sur laquelle sont denies
les probabilites P

(mais nous omettrons la reference `a T quand cela ne pretera pas `a confu-


sion). Dans le cadre dun tel mod`ele, les statistiques (voir b. ci-dessus) ont la structure
mathematique de variables aleatoires (v.a., voir X.1.1) de (, T) dans un autre espace
(

, T

).
d. La succession des points evoques en I.2 ci-dessus ne doit pas etre consideree comme
rigide. Par exemple la formalisation du probl`eme permet de guider des choix de resumes, ou
bien les questionnements ont ete presentes par linterlocuteur du statisticien prealablement
au choix du mod`ele (mais il importe de les interpreter dans ce cadre).
e. Un mod`ele est certes un carcan dans lequel on senferme pour pouvoir mener une
etude rigoureuse (en particulier mathematique) an daner, au vu des donnees, notre
connaissance de l`a o` u se situent, dans le cadre de ce mod`ele, les caracteristiques essentielles
des observations ou bien la probabilite qui regit le phenom`ene (autrement dit, en general, o` u
se situe la vraie valeur du param`etre). Ceci ne doit pas bannir tout esprit critique sur
le choix du mod`ele, et, en avan cant dans letude, on peut mettre en evidence des anomalies
qui conduisent `a reprendre le travail `a partir dun mod`ele dierent.
Deuxi`eme partie
Statistique d

ecisionnelle
7
Chapitre II
Rappels sur le mod`ele parametrique
II.1 Un exemple introductif
II.1.1 Presentation dun jeu de donnees
Linterlocuteur du statisticien est ici un industriel, responsable dune machine qui produit
des pi`eces classees soit bonnes (ce qui est note 0), soit defectueuses (ce qui est note 1).
Il a observe un lot de n pi`eces ; voici la suite des observations, pour n = 100 :
00010 10100 00000 00000 00000 01000 00100 00100 01000 00010
10100 01000 00000 10100 00001 00101 00100 11010 00101 00000
On notera x = (x
1
, . . . , x
100
) la suite de 0 et de 1 observee. Le mod`ele le plus simple que
lon puisse proposer ici consiste `a supposer que chaque x
i
A = 0, 1 est la realisation
dune variable aleatoire (v.a.) X
i
de loi de Bernoulli (voir X.2.1), ces v.a. etant supposees
independantes et identiquement distribuees (i.i.d.) (on a de la chance : les initiales
sont les memes en fran cais et en anglais !). Lensemble des lois pour X
i
est lensemble des lois
de Bernoulli : { = B(p), p [0, 1]. Bien s ur, quand on fera linference `a partir des donnees,
la vraie valeur du param`etre sera inconnue. Lespace des observations est A
n
= 0, 1
n
(avec
n = 100), et on a, pour x A
n
,
P(X
1
= x
1
, . . . , X
n
= x
n
) = p
y
(1 p)
ny
,
o` u y =

n
i=1
x
i
est le nombre de pi`eces defectueuses.
Il est important de justier le mod`ele et de sassurer quil traduit bien les conditions
dobtention des observations.
II.1.2 Remarques sur la modelisation
Pour comprendre comment on peut justier un tel mod`ele, remarquons que, comme dans
la plupart des probl`emes statistiques, linformation sur les conditions de recueil des observa-
tions debouche immediatement sur le questionnement suivant : Y a-t-il lieu de considerer
quest intervenue une part daleatoire ? si oui, o` u se situe cette intervention du
hasard ?
Tr`es grossi`erement, on peut considerer que laleatoire peut en general avoir deux types de
provenance :
9
10 CHAPITRE II. RAPPELS SUR LE MOD
`
ELE PARAM

ETRIQUE
A. Variabilite intrins`eque du phenom`ene etudie. On peut imaginer, ici, que de
petites variations dans la fabrication (par exemple dans la position de la pi`ece dans la
machine qui la fa conne) inuent sur la qualite ; ces variations ne sont ni matrisables ni
descriptibles en detail, et seule la notion de probabilite de sortie dune pi`ece defectueuse
peut en rendre compte ; les param`etres de reglage de la machine pouvant evoluer au cours
du fonctionnement, il peut etre necessaire de ne pas considerer cette probabilite comme
constante ; une information, meme imparfaite, sur cette probabilite peut deboucher sur des
decisions de reglage de la machine.
B.

Echantillonnage. Ici on ne se situe plus pendant le phenom`ene, mais apr`es celui-ci :
dans notre exemple, la masse de la production durant une certaine periode est consideree dans
son ensemble et on sinteresse `a la proportion de pi`eces defectueuses dans cette production;
un echantillon est tire au hasard dans cette population et on observe les qualites des pi`eces
ainsi extraites ; en deduire une information, meme imparfaite, sur la proportion de pi`eces
defectueuses dans la production totale peut deboucher sur des decisions consistant `a refuser
de mettre la production en vente telle quelle ou `a arreter la production; nous reviendrons en
II.1.3 ci-dessous sur de telles considerations de decision.
Plus precisement, dans notre exemple, le mod`ele i.i.d. propose peut se justier dans
les conditions experimentales suivantes, qui correspondent chacune `a lun des deux types
daleatoire que nous venons devoquer ; le lecteur remarquera que linterpretation du
param`etre p de la loi de Bernoulli est dierente dans les deux cas, mais que
celui-ci nest jamais connu du statisticien.
A. On a pris chronologiquement 100 pi`eces produites pendant un certain laps de temps ; on
admet que la production a ete stable durant cette periode, cette stabilite etant caracterisee
par la constance de la probabilite p pour chaque pi`ece produite detre defectueuses ; on ad-
met aussi que les petites variations aleatoires pouvant inuer sur la qualite des pi`eces ne
se repercutent pas dune pi`ece `a celles qui suivent ; le fait dintroduire des trous entre les
interventions sur la chane pour extraire les pi`eces `a observer peut favoriser la satisfaction de
lexigence dindependance (voir X.1.4), mais, en allongeant le temps global de recueil, il peut
deteriorer lexigence de conservation de la loi. Le param`etre p a ici un caract`ere theorique
qui explique quil ne puisse pas etre directement observable.
B. On dispose dune masse de N pi`eces produites, dans laquelle p est la proportion
de pi`eces defectueuses et on admet que, dans la procedure de tirage de lechantillon, le
melange des pi`eces a ete bien eectue : ou bien chaque pi`ece tiree est remise dans la masse
(qui est `a nouveau bien melangee), ou bien elle nest pas remise mais alors N est suf-
samment grand devant 100 pour quon puisse approximativement considerer que les 100
observations sont independantes (en eet, en toute rigueur, chaque fois quon tire une pi`ece,
la proportion de pi`eces defectueuses dans la population restante est inuencee par la qualite
de la pi`ece tiree, mais cette inuence est tr`es faible si N est tr`es grand). Le param`etre p ici a
une situation concr`ete et serait atteignable si on voulait faire un recensement complet de la
production consideree ; mais le fait dextraire un echantillon est justement d u `a la volonte de
ne pas faire un tel recensement (trop long, ou trop co uteux, ou parfois meme irrealisable si il
se trouve que toute observation deteriore la pi`ece). Il est clair que, dans cette situation B, la
masse de pi`eces produites ayant ete brassee, on a perdu toute possibilite de sinterroger sur
la stabilite de la production au cours de la periode de recueil.
Ces considerations montrent que lhypoth`ese di.i.d., pourtant fort simplicatrice mathe-
II.1. UN EXEMPLE INTRODUCTIF 11
matiquement, est souvent sujette `a caution dans les applications. Par exemple elle ne serait
sans doute pas utilisable dans les situations experimentales (realistes) suivantes :
C. 100 pi`eces extraites sans replacement dune masse de 500 pi`eces ;
D. 100 pi`eces extraites au hasard `a des instants repartis sur un long laps de temps ;
E. succession de m sous-echantillons de taille k chacun (avec k.m = 100), extraits
chacun dune certaine masse de pi`eces produites dans un laps de temps o` u on peut considerer
la production comme stable (par exemple m = 2, k = 50, ou bien m = k = 10).
II.1.3 Quels questionnements peut-on soulever ?
On consid`ere le mod`ele des v.a. i.i.d. introduit dans II.1.1.
a. Le statisticien peut avoir `a proposer `a son interlocuteur une valeur pour p, quon appellera
lestimation ponctuelle de p. Lestimation ponctuelle sera presentee au paragraphe II.3
Mais une telle information parat souvent un peu sommaire pour etre vraiment operation-
nelle pour lindustriel ; il sait en eet que, partant dune realite oue car aleatoire, il ne
peut pas esperer une reponse exacte ; il aura donc souvent besoin davoir un ordre de grandeur
de limprecision de la reponse.
b. Cet ordre de grandeur est fourni par un intervalle de conance (famili`erement une
fourchette) sur p : [p

, p
+
]. Il faut alors considerer (sans que, ici encore, ce puisse etre une
certitude) que cet intervalle, calcule `a partir des observations, contient la valeur inconnue de
p. La construction des intervalles de conance sera traitee au paragraphe II.5. Cet intervalle
de conance peut servir `a etayer une decision (par exemple arreter la production si linter-
valle de conance a une intersection non vide avec lintervalle [p
0
, 1] des valeurs de p jugees
inadmissibles).
c. Les procedures de decisions dependent des questions posees. Le statisticien peut avoir `a
expliciter en quoi consiste le renseignement le plus utile pour linterlocuteur (ici lindustriel)
en vue dune decision que ce dernier a `a prendre (mettre en vente ou non la production,
reparer ou non la machine ...) ; par exemple, lindustriel, pour des raisons de qualite, devrait
arreter la production sil apparaissait que la probabilite p de produire des pi`eces defectueuses
etait montee au dessus dun certain seuil p
0
(par exemple 0.2) ; mais un arret co ute cher, et il
ne le fera que si le statisticien arrive `a le convaincre de la necessite dy proceder ; tout ce qui
interesse lindustriel, au vu des donnees, cest donc de savoir sil doit considerer que p p
0
(et
continuer `a produire) ou que p > p
0
(et se resoudre `a arreter). Une technique pour repondre `a
cette question sera appelee test de lhypoth`ese nulle H
0
= p p
0
contre lhypoth`ese
alternative (ou contre-hypoth`ese) H
1
= p > p
0
. Il sagit donc dassocier `a la partition
(H
0
, H
1
), donnee dans lespace des param`etres = [0, 1], une partition (A
0
, A
1
), fabriquee
dans lespace des observations A
n
= 0, 1
n
, de telle sorte que lon conclue en faveur de
H
0
si x A
0
et en faveur de H
1
si x A
1
. Lensemble A
1
, o` u on rejette H
0
, est dite region
critique du test (ou zone de rejet). Les procedures de test seront traitees au paragraphe
II.6.
Remarque II.1. De meme, dans le cadre du mod`ele E (avec 2 tranches de taille 50) on peut,
par exemple :
chercher `a proposer une estimation pour les param`etres p
a
et pour p
b
, correspondant
chacun `a un des deux echantillons ;
chercher `a elaborer deux intervalles de conance, respectivement pour p
a
et pour p
b
.
12 CHAPITRE II. RAPPELS SUR LE MOD
`
ELE PARAM

ETRIQUE
sinterroger sur lapparition dune degradation entre la premi`ere periode et la seconde ;
tout ce qui interesse lindustriel, au vu des donnees, cest de savoir sil doit considerer
que p
b
p
a
(et etre serein car il ny aurait pas de degradation) ou que p
b
> p
a
(et
prendre des mesures car il y aurait degradation) ;

II.2 Denitions et rappels


II.2.1 Les mod`eles parametriques
On dit que la suite de variables aleatoires (v.a.) X = (X
1
, . . . , X
n
) forme un echantillon
(ou n-echantillon si on veut insister sur la taille de lechantillon) si les v.a. X
1
, . . . , X
n
sont
independantes et identiquement distribuees (i.i.d.) On note P la loi de X
i
, et par
convention la loi de X = (X
1
, . . . , X
n
) est notee P
n
. Il sagit de la loi produit. On suppose
que la loi inconnue P appartient `a une famille de probabilites { = P

, , o` u est
un param`etre d-dimensionnel et un sous-ensemble de R
d
. On dit que le mod`ele est pa-
rametrique. Par exemple les familles { = B(p); p [0, 1], o` u B(p) est la loi de Bernoulli
(cf. paragraphe II.1.1), et { =

^(,
2
); R, > 0

, o` u ^(,
2
) est la loi gaussienne de
moyenne et de variance
2
, correspondent `a des mod`eles parametriques. Dans le deuxi`eme
cas le param`etre = (, ) est bi-dimensionnel.
Nous etudierons dans ce chapitre des mod`eles parametriques domines , cest-` a-dire quil
existe une mesure -nie, , par rapport `a laquelle toute les probabilites de { sont absolument
continues (i.e. poss`edent une densite). On note p(; ) la densite de P

par rapport `a . En
particulier la densite de lechantillon X = (X
1
, . . . , X
n
), o` u X
i
, `a valeur dans A, est de loi
P

, est donnee par la densite produit :


p
n
(x; ) = p(x
1
; ) p(x
n
; ), o` u x = (x
1
, . . . , x
n
) A
n
.
Cette denition tr`es generale recouvre les deux cas particuliers que nous considererons
essentiellement, `a savoir :
Les lois discr`etes o` u la densite de lechantillon est la probabilite dobserver (x
1
, . . . , x
n
)
(ici la mesure est la mesure de comptage sur A). Plus particuli`erement, pour le mod`ele
de Bernoulli, { = B(p); p [0, 1], on a
p
n
(x; p) = p
y
(1 p)
ny
, o` u y =
n

i=1
x
i
et x = (x
1
, . . . , x
n
) 0, 1
n
.
Les lois `a densite o` u la densite de lechantillon correspond `a la densite usuelle (ici la
mesure est la mesure de Lebesgue sur A = R ou A = R
n
). Plus particuli`erement,
pour le mod`ele gaussien { =

^(,
2
); R, > 0

, on a
p
n
(x; ,
2
) =
1
(2
2
)
n/2
e

P
n
i=1
(x
i
)
2
/2
2
, o` u x = (x
1
, . . . , x
n
) R
n
.
La fonction reelle p
n
(x; ) `a x xe est appelee la vraisemblance (likelihood en anglais)
de lechantillon ou de la realisation x = (x
1
, . . . , x
n
). (On utilise parfois la notation L
n
(x; )
pour la vraisemblance.) Elle est denie sur . Cette fonction est dune grande importance
pour les mod`eles parametriques, comme nous le verrons par la suite.
II.3. ESTIMATION PONCTUELLE : LES ESTIMATEURS 13
Une statistique S est une fonction de lechantillon X = (X
1
, . . . , X
n
) reelle ou vectorielle.
Cette fonction est independante de P {.
Exemple II.2. Les fonctions S(X) =

n
i=1
X
i
, S(X) = X
1
, S(X) = (X
1
X
2
, X
3
) sont des
statistiques de lechantillon (X
1
, . . . , X
n
).
II.2.2 Rappels sur la LFGN et le TCL
Nous rappelons les deux theor`emes fondamentaux des probabilites. Le premier indique
que pour un echantillon X
1
, . . . , X
n
, la moyenne empirique

X
n
=
1
n

n
i=1
X
i
converge vers
la moyenne = E[X
1
], pourvu que cette derni`ere existe. Le second precise quelle est la
repartition, i.e. la loi, asymptotique de la moyenne empirique autour de la moyenne (voir
X.3.1 pour les dierentes notions de convergence de suites de v.a.).
Theor`eme II.3 (Loi forte des grands nombres (LFGN)). Soit (X
n
, n N

) une suite
de v.a. reelles ou vectorielles independantes, et identiquement distribuees (i.i.d.) et
integrables (E[[X
n
[] < ). Alors la moyenne empirique

X
n
=
1
n

n
k=1
X
k
converge presque
s urement (p.s.) vers la moyenne = E[X
1
]. Ainsi on a

X
n
=
1
n
n

k=1
X
k
p.s.

n
.
Theor`eme II.4 (Theor`eme central limite (TCL)). Soit (X
n
, n N

) une suite de v.a. reelles


independantes et identiquement distribuees (i.i.d.). On suppose quelles sont de carre
integrable (E[X
2
n
] < ). On pose = E[X
n
],
2
= Var(X
n
) et la moyenne empirique

X
n
=
1
n
n

k=1
X
k
. La suite de v.a.

n(

X
n
) =

n
k=1
X
k
n

n
converge en loi vers la loi
gaussienne ^(0,
2
) :

n(

X
n
) =

n
k=1
X
k
n

n
en loi

n
^(0,
2
).
Ce theor`eme peut se generaliser au cas de v.a. vectorielles, voir le paragraphe X.3.2.
Nous utiliserons egalement le resultat suivant qui est une consequence du theor`eme de
Slutsky.
Theor`eme II.5. Soit (Y
n
, n 1) une suite de v.a. reelles qui converge en loi vers la loi
gaussienne ^(0,
2
), o` u
2
> 0. Soit (Z
n
, n 1) une suite de v.a. positives qui converge p.s.
ou en loi vers la constante
2
. Alors la suite (Y
n
/

Z
n
, n 1) converge en loi vers la loi
gaussienne centree reduite ^(0, 1).
II.3 Estimation ponctuelle : les estimateurs
On consid`ere un mod`ele parametrique { = P

; , et un echantillon (X
1
, . . . , X
n
),
o` u X
i
est de loi P { inconnue. On notera E

[f(X
1
, . . . , X
n
)] lesperance de f(X
1
, . . . , X
n
)
et P

(A) la probabilite de lev`enement A, quand P = P

.
14 CHAPITRE II. RAPPELS SUR LE MOD
`
ELE PARAM

ETRIQUE
Nous avons vu dans lexemple introductif (paragraphe II.1.3) que le premier objectif est
destimer le param`etre inconnu. Plus generalement on peut chercher `a estimer une fonction
de ce param`etre g().
Denition II.6. Un estimateur, Z, de g() est une statistique construite ` a partir de
lechantillon (X
1
, . . . , X
n
), ` a valeurs dans g().
Exemple II.7. Pour le mod`ele de Bernoulli (cf. paragraphe II.1.1), 1/2, X
1
et

X
n
=
1
n

i=1
X
i
sont des estimateurs de p.

Evidemment ils ont des proprietes dierentes.
Dans le paragraphe qui suit nous donnons des proprietes que lon peut attendre dun
estimateur, et qui permettent de mesurer dune certaine mani`ere sa qualite dapproximation
de la vraie valeur inconnue du param`etre. Le paragraphe II.3.2 sera consacree `a la construction
de lestimateur du maximum de vraisemblance qui poss`ede en general de tr`es bonnes qualites.
II.3.1 Proprietes des estimateurs
Estimateur sans biais
Le biais est lecart entre la moyenne de lestimateur et ce que lon cherche `a estimer. Le
biais dun estimateur, Z, integrable (i.e. E

[[Z[] < pour tout ) de g() est donne par


E

[Z] g(). Lestimateur est dit sans biais si E

[Z] = g() pour tout .


Exemple II.8. Pour le mod`ele de Bernoulli, X
1
et

X
n
=
1
n

i=1
X
i
sont des estimateurs
sans biais de p. En eet, comme les v.a. X
i
sont des variables de Bernoulli de param`etre p,
on a E
p
[X
1
] = p et E
p
[

X
n
] = p. En revanche 1/2 est un estimateur biaise de p.
Labsence de biais est une propriete interessante, mais elle nest pas conservee par trans-
formation non ane. Ainsi dans lexemple precedent

X
n
est un estimateur sans biais de p,
mais

X
n
(1

X
n
) nest pas un estimateur sans biais de la variance
2
= p(1 p). En eet,
on a E
p
[

X
n
(1

X
n
)] = p(1 p) n
1
p(1 p).
Risque
On peut egalement mesurer la precision dun estimateur, Z, de g() en regardant son
ecart moyen avec g(). Une quantite traditionnellement utilisee est le risque quadratique
1
deni, si g() est reel, par R(Z; ) = E

[(Z g())
2
]. Bien s ur cette quantite na de sens que
si Z est de carre integrable (i.e. E

[Z
2
] < pour tout ).
On dit que Z
1
est un estimateur preferable `a Z
2
si son risque quadratique est plus faible :
pour tout , on a
R(Z
1
, ) R(Z
2
, ).
Nous verrons au paragraphe II.4 une methode generale pour ameliorer les estimateurs, au
sens du risque quadratique.
Remarque II.9. Sauf dans des cas triviaux il nexiste pas destimateur preferable `a tous
les autres. En eet supposons que Z soit un estimateur de preferable `a tous les autres
estimateurs. Entre autres Z est preferable `a Z

0
=
0
. Donc on a
R(Z;
0
) R(Z

0
;
0
) = 0.
1
On peut considerer dautres risques du type E

[(Z g())], o` u est une fonction convexe.


II.3. ESTIMATION PONCTUELLE : LES ESTIMATEURS 15
On en deduit donc que Z = P

-p.s ! Cela implique que les densites p(; ) ont des supports
disjoints pour tout . Ainsi d`es que lon dispose dune seule observation, on peut en deduire
le vrai param`etre p.s. Cela correspond aux cas triviaux de lestimation ponctuelle.
Exemple II.10. Pour le mod`ele de Bernoulli, lestimateur

X
n
=
1
n

i=1
X
i
est preferable `a
lestimateur X
1
pour lestimation de p. En eet, on a
R(X
1
; p) = E
p
[(X
1
p)
2
] = Var
p
(X
1
) = p(1 p)
et
R(

X
n
; p) = E
p
[(

X
n
p)
2
] = Var
p
(

X
n
) = p(1 p)/n.

Estimateurs convergents
En general, on desire que lestimation soit dautant plus precise que la taille de lechantillon
est grande. Contrairement aux deux notions precedentes, on regarde maintenant le compor-
tement asymptotique dune famille destimateurs construits `a partir dechantillons de plus en
plus grands.
Soit (Z
n
, n 1) une suite destimateurs de g(), o` u Z
n
est construit `a partir du n-
echantillon (X
1
, . . . , X
n
). On dit que la suite (Z
n
, n 1), ou plus succintement Z
n
, est un
estimateur fortement convergent de g(), si pour tout , on a P

-p.s.
lim
n
Z
n
= g().
Si la convergence precedente `a lieu seulement en probabilite, on parle destimateur faiblement
convergent. En fait, dans ce cours nous considererons essentiellement que des estimateurs
fortement convergent, et par souci de simplicite on dira convergent pour fortement convergent.
(De nombreux auteurs utilisent le mot anglais consistant `a la place de convergent.)
En general les resultats de convergence decoulent de resultats du type loi forte des grands
nombres. Remarquons de plus que cette propriete est conservee quand on consid`ere une
fonction de la suite destimateur (qui converge alors vers la fonction de la quantite estimee),
pourvu que la fonction soit continue.
Exemple II.11. Pour le mod`ele de Bernoulli, la moyenne empirique

X
n
=
1
n

i=1
X
i
est un
estimateur convergent de p. Ceci decoule de la loi forte des grands nombres (voir theor`eme
II.3). Par continuite de la fonction u u(1u), on a egalement que lestimateur

X
n
(1

X
n
)
est un estimateur convergent de la variance p(1 p).
Normalite asymptotique
Enn, pour des estimateurs convergents, il est interessant de preciser la vitesse de conver-
gence. Cela nous permettra de construire des intervalles de conance asymptotiques (voir le
paragraphe II.5).
Soit (Z
n
, n 1) une suite destimateurs de g(), o` u Z
n
est construit `a partir du n-
echantillon (X
1
, . . . , X
n
). On dit que la suite (Z
n
, n 1), ou plus succintement Z
n
, est un
estimateur asymptotiquement normal de g(), si pour tout , on a sous P

n(Z
n
g())
en loi

n
^(0, ()),
16 CHAPITRE II. RAPPELS SUR LE MOD
`
ELE PARAM

ETRIQUE
o` u () est la variance de la loi limite, appelee variance asymptotique (ou matrice de
covariance asymptotique si g() est multidimensionnel).
Les resultats de normalite asymptotique decoulent souvent de resultats du type theor`eme
central limite. (Cette propriete est egalement conservee quand on consid`ere une fonction de
la suite destimateur pourvu que la fonction soit derivable.)
Exemple II.12. Pour le mod`ele de Bernoulli, lestimateur

X
n
=
1
n

i=1
X
i
est un estimateur
asymptotiquement normal de p de variance asymptotique (p)
2
= p(1 p). Ceci decoule du
TCL (voir theor`eme II.4) et du fait que Var
p
(X
1
) = p(1 p).
II.3.2 Lestimateur du maximum de vraisemblance
Exemple II.13. Au cours dune enquete, on recherche un suspect dont la taille est denviron
1m80. An dorienter rapidement les recherches doit-on interroger plut ot un suspect masculin
ou feminin ?
On peut au vue des donnees (cf National Center for Health Statistics (1988-1994)) dire
que la taille dun homme (aux U.S.A.) a pour loi une loi gaussienne de moyenne
H
=1m76
et decart type
H
=0m073, alors que la taille dune femme a pour loi une loi gaussienne
de moyenne
F
=1m62 et decart type
F
=0m069. On note p(x; ,
2
) la densite de la loi
gaussienne ^(,
2
).
Si la taille du suspect est 1m80, alors on se concentre sur la recherche dun suspect
masculin. Le choix est en fait guide par lallure de la densite. Et plus particuli`erement ayant
observe la taille x
0
=1m80, il est raisonnable de supposer que le suspect est un homme
car p(x
0
;
H
,
2
H
) p(x
0
;
F
,
2
F
). On a choisit le param`etre (
H
,
2
H
), (
F
,
2
F
) qui
maximise la vraisemblance p(x
0
; ).
140 150 160 170 180 190 200
0.00
0.07
Homme
Femme
Fig. II.1 Densites gaussiennes pour la taille dun homme et dune femme.

II.3. ESTIMATION PONCTUELLE : LES ESTIMATEURS 17


Denition II.14. Supposons que pour tout x = (x
1
, . . . , x
n
), il existe une et une seule
valeur de telle que la vraisemblance soit maximale. On note cette valeur

n
(x
1
, . . . , x
n
).
La variable aleatoire

n
=

n
(X
1
, . . . , X
n
), ` a valeurs dans , est appelee estimateur du
maximum de vraisemblance (EMV) de .
On denit egalement la log-vraisemblance du mod`ele comme le logarithme de la vrai-
semblance : cest la fonction

n
(x; ) = log(p
n
(x; )) =
n

i=1
log(p(x
i
; )).
Comme la fonction log est croissante, maximiser la vraisemblance ou la log-vraisemblance re-
vient au meme. Maximiser la log-vraisemblance donne lieu souvent `a des calculs plus simples.
Remarque II.15. Sous des hypoth`eses de regularite assez generale, les EMV sont conver-
gents et asymptotiquement normaux. (Dans la plupart des exemples du cours, on pourra
verier directement ces deux proprietes.) En revanche les EMV sont en general biaises. En-
n, quitte `a reparametriser la famille de loi par g(), quand g est une bijection, il est clair
que si

n
est lEMV de , alors g(

n
) est lEMV de g().
Ainsi, dans les mod`eles parametriques reguliers, si

n
est lEMV de pour n observa-
tions independantes de meme loi, associe au vrai param`etre
0
inconnu, alors on peut montrer
que si g est une fonction reguli`ere, g(

n
) est un estimateur de g(
0
) convergent et asymp-
totiquement normal. Supposons que le param`etre, , est vectoriel de dimension d 1. La
variance asymptotique est donnee par (g(
0
))

V (
0
) (g(
0
)), o` u I = V
1
est, au signe
pr`es, la matrice hessienne de la log-vraisemblance evaluee en
0
:
I =

n
(X; )

, 1 i, j d

.
La matrice I est aussi appelee matrice dinformation de Fisher.
Exemple II.16. Pour le mod`ele de Bernoulli, la vraisemblance est denie par
p
n
(x; p) = P
p
(X
1
= x
1
, . . . , X
n
= x
n
) = p
y
(1 p)
ny
,
o` u x = (x
1
, . . . , x
n
) 0, 1
n
et y =

n
i=1
x
i
. La log-vraisemblance est denie par

n
(x; p) = y log(p) + (n y) log(1 p).
On a
n
(x; p)/p = y/p(ny)/(1p). La derivee de la log-vraisemblance est decroissante
sur [0, 1] et sannule en p = y/n. On en deduit donc que la log-vraisemblance atteint son
maximum pour p =

n
i=1
x
i
/n. Lestimateur du maximum de vraisemblance est donc la
moyenne empirique : p
n
=

X
n
= n
1

n
i=1
X
i
. Nous avons dej`a vu que cet estimateur est
sans biais, convergent et asymptotiquement normal. Pour les donnees du paragraphe II.1.1,
on a n = 100,

n
i=1
x
i
= 22 et lEMV de p est p
n
= 0.22.
18 CHAPITRE II. RAPPELS SUR LE MOD
`
ELE PARAM

ETRIQUE
II.4 Resume des donnees : les statistiques exhaustives
Exemple II.17. Pour lexemple propose dans le paragraphe II.1.1, il semble naturel de
supposer que lordre dans lequel sont observees les pi`eces bonnes ou defectueuses napporte
aucune information pertinente sur le param`etre inconnu, p. Et donc, on peut resumer la
suite observees (x
1
, . . . , x
n
) par le nombre total y
n
=

n
i=1
x
i
de pi`eces defectueuse. Pour
etayer cette intuition, on calcule la loi de lechantillon, (X
1
, . . . , X
n
), conditionnellement `a
Y
n
=

n
i=1
X
i
. On a pour y 0, . . . , n et x
1
, . . . , x
n
0, 1 tel que

n
i=1
x
i
= y,
P
p
(X
1
= x
1
, . . . , X
n
= x
n
[Y
n
= y) =
P
p
(X
1
= x
1
, . . . , X
n
= x
n
)
P
p
(Y
n
= y)
=
p
y
(1 p)
ny
C
y
n
p
y
(1 p)
ny
=
1
C
y
n
.
Si

n
i=1
x
i
= y, on a P
p
(X
1
= x
1
, . . . , X
n
= x
n
[Y
n
= y) = 0. En conclusion, on en deduit
que la loi de (X
1
, . . . , X
n
) sachant

n
i=1
X
i
= y est la loi uniforme sur (x
1
, . . . , x
n
)
0, 1
n
;

n
i=1
x
i
= y. En particulier cette loi ne depend pas du param`etre p. Ainsi toute
linformation sur p de lechantillon (X
1
, . . . , X
n
) est contenue dans la statistique Y
n
. Pour
toute etude sur p, on peut resumer lechantillon `a Y
n
.
Denition II.18. Une statistique S est exhaustive si la loi conditionnelle de lechantillon
(X
1
, . . . , X
n
) sachant S est independante du param`etre .
Le theor`eme (admis) suivant permet dexhiber aisement des statistiques exhaustives.
Theor`eme II.19 (de Halmos-Savage ou theor`eme de factorisation). La statistique S =
S(X
1
, . . . , X
n
) est exhaustive si et seulement si la densite p
n
(x
1
, . . . , x
n
; ) de la loi de lechantillon
(X
1
, . . . , X
n
) se factorise de la facon suivante : il existe des fonctions et l telles que pour
tout x = (x
1
, . . . , x
n
) A
n
, ,
p
n
(x; ) = (S(x), )l(x).
En particulier, sil existe une statistique exhaustive donnee par le theor`eme de factori-
sation, alors lestimateur du maximum de vraisemblance est une fonction de la statistique
exhaustive.
Soit Z = Z(X
1
, . . . , X
n
) un estimateur de g(). La loi de (X
1
, . . . , X
n
) sachant une sta-
tistique exhaustive S est independante de . En particulier lesperance conditionnelle, voir
p. 238, E

[Z[S] = E

[Z(X
1
, . . . , X
n
)[S] est une fonction de S qui ne depend plus de . Cest
donc un estimateur, et on le note E[Z[S], en supprimant lindice . Le theor`eme suivant assure
que cette procedure permet dameliorer les estimateurs.
Theor`eme II.20 (de Rao-Blackwell). Soit Z un estimateur de g() que lon suppose de
carre integrable. Si S est une statistique exhaustive, alors lestimateur Z
S
= E[Z[S] est un
estimateur preferable ` a Z.
Nous retiendrons donc de ce theor`eme quil est utile de construire des estimateurs `a laide
de la statistique exhaustive.
Demonstration. On admet que si Z est de carre integrable alors Z
S
est aussi de carre
integrable. On a
R(Z; ) = E

[Z
2
] 2g()E

[Z] +g()
2
,
II.5. PR

ECISION DE LESTIMATION : LINTERVALLE DE CONFIANCE 19


et
R(Z
S
; ) = E

[Z
2
S
] 2g()E

[Z
S
] +g()
2
.
Les proprietes de lesperance conditionnelle impliquent que E

[Z
S
] = E

[Z] et que E

[ZZ
S
] =
E

[Z
2
S
], voir p. 238. On en deduit donc que
R(Z; ) R(Z
S
; ) = E

[Z
2
] E

[Z
2
S
] = E

[(Z Z
S
)
2
].
En particulier, R(Z; ) R(Z
S
; ) pour tout . Lestimateur Z
S
est donc preferable `a
Z.
Exemple II.21. Dans le mod`ele de Bernoulli, on a vu que X
1
etait egalement un estimateur
sans biais du param`etre p. On desire ameliorer cet estimateur avec le theor`eme de Rao-
Blackwell. On a vu dans lexemple II.17 que Y
n
= n

X
n
est une statistique exhaustive. Pour
calculer E[X
1
[Y
n
], on rappelle que la loi conditionnelle de (X
1
, . . . , X
n
) sachant Y
n
est la loi
uniforme sur (x
1
, . . . , x
n
) 0, 1
n
;

n
i=1
x
i
= Y
n
. Un calcul de denombrement elementaire,
permet de verier que la loi conditionnelle marginale de X
1
est la loi de Bernoulli de param`etre
Y
n
/n =

X
n
. En particulier, on a E[X
1
[Y
n
] =

X
n
. Sur cet exemple precis, la procedure
damelioration permet de retrouver lEMV.

II.5 Precision de lestimation : lintervalle de conance


Reprenons lexemple du paragraphe II.1.1. Il sagit dassocier `a lobservation (x
1
, . . . , x
n
)
un intervalle dans lequel on consid`ere que se trouve p. Ici encore les qualites de la moyenne
empirique, x
n
= n
1

n
i=1
x
i
, en tant questimation ponctuelle de p, incitent `a prendre un
intervalle [I

n
, I
+
n
] auquel appartient x
n
. Comme toujours en contexte aleatoire, on ne peut
esperer armer avec certitude que p sera dans cet intervalle (`a moins de prendre [0, 1], ce qui
est sans interet !). On choisit donc un niveau de conance, proche de 1, note 1, tel que
la probabilite quil contienne le param`etre soit au moins egale au niveau de conance : pour
tout p [0, 1],
P
p
(p [I

n
, I
+
n
]) 1 .
On se trouve ici face `a un dilemme : pour garantir le niveau de conance, lintervalle ne doit
pas etre trop court mais, pour etre interessant, il ne doit pas etre trop long. On doit donc
chercher des intervalles aussi courts que possible, au niveau de conance 1 impose, et ce
uniformement en p, do` u la diculte du probl`eme.
On denit lintervalle de conance pour lestimation dun param`etre reel ou dune fonction
reelle dun param`etre.
Denition II.22. Soit x = (x
1
, . . . , x
n
) I(x) une application de lensemble des observa-
tions ` a valeurs dans les intervalles.
On dit que I est un intervalle de conance par exc`es pour g() de niveau 1 si pour
tout , on a
P

(g() I(X
1
, . . . , X
n
)) 1 .
On dit que lintervalle aleatoire I est un intervalle de conance de niveau 1 pour g()
si linegalite ci-dessus est une egalite (pour tout ).
20 CHAPITRE II. RAPPELS SUR LE MOD
`
ELE PARAM

ETRIQUE
Si la taille de lechantillon est faible, une etude detaillee du mod`ele permet dexhiber les
intervalles de conance, voir lexemple ci-dessous sur le mod`ele de Bernoulli. (Il existe des
techniques speciques pour etablir des intervalles de conance, mais nous ne les detaillons
pas ici.) En revanche, dans le cas o` u la taille de lechantillon est grande, on peut utiliser des
intervalles de conance asymptotiques construits `a partir des comportements asymptotiques
des estimateurs.
Denition II.23. Soit x = (x
1
, . . . , x
n
) I
n
(x), o` u n N

, une suite dapplications ` a


valeurs intervalles. On dit que la suite (I
n
, n 1) est un intervalle de conance asymp-
totique pour g() de niveau asymptotique 1 , si pour tout , on a
lim
n
P

(g() I
n
(X
1
, . . . , X
n
)) = 1 .
Nous aurons besoin de la notion de quantile dune loi.
Denition II.24. Soit Y une variable aleatoire reelle de fonction de repartition F(x) =
P(Y x). Le quantile (on parle aussi de fractile), q
r
R, dordre r ]0, 1[ de la loi de Y
est deni par
q
r
= infx; F(x) r,
et on a F(q
r
) r. Si la fonction de repartition de Y est continue, alors F(q
r
) = r. Si la
fonction de repartition est de plus strictement croissante au point q
r
, alors q
r
est lunique
solution de lequation F(x) = r.
Exemple II.25. Suite du paragraphe II.1.1 sur le mod`ele de Bernoulli. Rappelons que la loi
de Y
n
= n

X
n
=

n
i=1
X
i
est la loi binomiale de param`etre (n, p).
Pour construire des intervalles de conance sur p de niveau 1 , on peut par exemple
denir

I

n
(p) (resp.

I
+
n
(p)) comme etant le quantile dordre /2 (resp. 1 /2) de la loi
binomiale B(n, p). Ainsi, pour tout p [0, 1], on a
P
p
(Y
n
[

n
(p),

I
+
n
(p)]) 1 .
Les fonctions p

I

n
(p) et p

I
+
n
(p) sont croissantes. En eet, soit U
1
, . . . , U
n
des
v.a. independantes de loi uniforme sur [0, 1]. Pour p [0, 1], la v.a. 1
{U
i
p}
est une v.a. de
Bernoulli de param`etre p. Ainsi

n
i=1
1
{U
i
p}
est une variable aleatoire de loi binomiale de
param`etre (n, p). Ainsi si p p

, on a 1
P
n
i=1
{U
i
p}

n
i=1
1
{U
i
p

}
, et on en deduit
F
B(n,p)
(x) = P(
n

i=1
1
{U
i
p}
x) P(
n

i=1
1
{U
i
p

}
x) = F
B(n,p

)
(x). (II.1)
Ainsi la fonction de repartition de la loi binomiale de param`etre (n, p), F
B(n,p)
, minore celle
de la loi binomiale de param`etre (n, p

), F
B(n,p

)
. On deduit alors que pour tout r [0, 1], le
quantile dordre r de la loi binomiale de param`etre (n, p) est superieur au quantile dordre
r de la loi binomiale de param`etre (n, p

). (On dit que B(n, p) majore B(n, p

) pour lordre
stochastique, voir aussi p. 228.) On a ainsi verie que les fonctions

I

n
et

I
+
n
sont croissantes
en p (voir le graphique II.2).
Il est maintenant facile de construire un intervalle de conance (par exc`es) pour p de
niveau . En eet, on deduit de la croissance des fonctions

I

n
et

I
+
n
, que

X
n
=
1
n
Y
n
[
1
n

n
(p),
1
n

I
+
n
(p)] p [I

n
(

X
n
), I
+
n
(

X
n
)],
II.5. PR

ECISION DE LESTIMATION : LINTERVALLE DE CONFIANCE 21


2 0 2 4 6 8 10 12
1

F
B(n,p

)
F
B(n,p)
q

(p

) q

(p)
Fig. II.2 Fonctions repartitions de B(n, p) et B(n, p

), avec n = 10 et p p

, ainsi que les


quantiles dordre correspondants : q

(p) et q

(p

).
o` u I

n
et I
+
n
sont les inverses des fonctions n
1

I
+
n
et n
1

n
(au sens o` u I

n
(z) p z
n
1

I
+
n
(p) et I
+
n
(z) p z n
1

n
(p)). Donc pour tout p [0, 1], on a
P
p
(p [I

n
(

X
n
), I
+
n
(

X
n
)]) 1 .
Lintervalle aleatoire [I

n
(

X
n
), I
+
n
(

X
n
)] est donc un intervalle de conance par exc`es de niveau
1 . (Le fait que lintervalle de conance soit par exc`es est d u au fait que

X
n
est une
variable discr`ete.) Le calcul numerique des courbes I
+
et I

repose simplement sur le calcul


des quantiles de la loi binomiale. Les logiciels scientiques proposent des algorithmes pour
le calcul des quantiles. Cela permet de construire des abaques qui ont lavantage dapporter
une information visuelle (voir le graphique II.3).
En conclusion, si lon observe les donnees (x
1
, . . . , x
n
) qui proviennent de la realisation
dun echantillon de Bernoulli, on estime le param`etre inconnu p par x
n
=
1
n

n
i=1
x
i
et on
fournit lintervalle de conance (par exc`es) de niveau 1 :
I
1
= [I

n
( x
n
), I
+
n
( x
n
)]. (II.2)
Bien que les intervalles ci-dessus soient numeriquement calculables pour tout n, il est
interessant dutiliser une approche asymptotique si n est grand. En particulier, cela permet
davoir des ordres de grandeurs et de se forger une intuition. Pour cela, on utilise le fait que

X
n
est un estimateur asymptotiquement normal de p de variance asymptotique
2
= p(1p)
(voir le paragraphe II.3). Remarquons que

X
n
(1

X
n
) est un estimateur convergent de
2
(cest en fait lEMV de p(1 p)). On deduit du theor`eme II.5, que la suite (Z
n
, n 1), o` u
Z
n
=

X
n
p

X
n
(1

X
n
)
,
22 CHAPITRE II. RAPPELS SUR LE MOD
`
ELE PARAM

ETRIQUE
0 1
0
1
0 1
0
1
Moyenne empirique
Param`etre
I
+
n
( x
n
) I

n
( x
n
)
1
n

I
+
n
(p)
1
n

n
(p)
p
x
n
Intervalle de conance
Fig. II.3 Construction des intervalles de conance, [I

n
( x
n
), I
+
n
( x
n
)], de niveau de conance
95% (par exc`es) pour la loi de Bernoulli avec n = 10.
converge en loi vers la loi gaussienne centree reduite ^(0, 1). En particulier, on a pour tout
a R,
P
p
(Z
n
[a, a])
n
P(G [a, a]),
o` u G est de loi ^(0, 1). Remarquons que
Z
n
[a, a] p

X
n

X
n
(1

X
n
)

.
On deduit donc de ce qui prec`ede que si
1/2
est le quantile dordre 1

2
de la loi ^(0, 1)
(voir les tables du chapitre XI), alors

X
n


1/2

Xn(1

Xn)

est un intervalle de conance


asymptotique de niveau 1 .
En conclusion, on fournit lintervalle de conance asymptotique de niveau 1 pour p :
I
2
=

x
n

1/2

x
n
(1 x
n
)

. (II.3)
En fait cet intervalle de conance est de bonne qualite pour np(1p) grand (par exemple
np(1 p) 5), voir le graphique II.4. La mauvaise qualite de lintervalle de conance, pour
p 0 et p 1, est due `a la mauvaise estimation de
2
= p(1p) par

X
n
(1

X
n
). Remarquons
que la convergence de

n(

X
n
p)/

p(1 p) vers la loi gaussienne centree, permet dassurer


que
lim
n
P
p

X
n
[p

1/2

p(1 p)

n
]

= P(G [
1/2
, a
1/2
]) = 1 .
En calcul elementaire permet dobtenir que

X
n
[p

1/2

p(1 p)

n
] p [J

(

X
n
), J
+
(

X
n
)],
II.6. PROC

EDURE DE D

ECISION : LES TESTS 23


o` u, pour r [0, 1],
J

(r) =
r + (2n)
1

2
1/2
1 +
2
1/2
/n

1

n

1/2

r(1 r) +
2
1/2
/4n
1 +
2
1/2
/n
.
On peut donc fournir lintervalle de conance asymptotique suivant de niveau 1 pour p :
I
3
= [J

( x
n
), J
+
( x
n
)]. (II.4)
Le comportement des intervalles de conance I
1
I
2
et I
3
est presente au graphique II.4.
On remarque que lapproximation gaussienne est mediocre pour n petit. Et que lintervalle
de conance asymptotique I
3
est meilleur, en particulier pour les valeurs extremes de p, que
lintervalle de conance asymptotique I
2
.
0.0 0.5 1.0
0.0
0.5
1.0
0.0 0.5 1.0
0.0
0.5
1.0
0.0 0.5 1.0
0.0
0.5
1.0
0.0 0.5 1.0
0.0
0.5
1.0
p p
p p
x
n
x
n
x
n
x
n
Fig. II.4 Intervalles de conance de niveau 95% pour p dans un mod`ele de Bernoulli,
avec n = 10 (en haut) et n = 100 (en bas) observations. La moyenne empirique est lue
en ordonnee. En coupant au niveau de la moyenne empirique on obtient un intervalle de
conance par exc`es (formule (II.2)) delimites par les courbes en trait plein, et un intervalle
de conance asymptotique (formule (II.3) `a gauche, formule (II.4) `a droite) delimites par les
courbes en pointillees.
Si on fait lapplication numerique du paragraphe II.1.1, on obtient n = 100, x
n
= 0.22, et
pour = 5%, il vient
I
1
[0.152, 0.314], I
2
[0.139, 0.301], I
3
[0.150, 0.311].

II.6 Procedure de decision : les tests


Exemple II.26. Comme nous lavons vu au paragraphe II.1.3, il est naturel pour lindustriel,
plut ot que destimer la vrai valeur du param`etre p, de repondre `a la question suivante : est-ce
24 CHAPITRE II. RAPPELS SUR LE MOD
`
ELE PARAM

ETRIQUE
que p [0, p
0
] (i.e. la production continue), ou bien est-ce que p ]p
0
, 1] (i.e. il faut arreter
la production pour regler ou changer la machine). Ici p
0
est un seuil que lindustriel sest
xe pour le taux maximal de pi`eces defectueuses quil peut se permettre avant de devoir
interrompre la production pour regler ou changer la machine.
Les tests dhypoth`eses sont des r`egles de decisions qui `a partir des observations per-
mettent de considerer que le param`etre inconnu appartient `a H
0
= p p
0
(hypoth`ese
nulle ) ou H
1
= p > p
0
(hypoth`ese alternative), (H
0
, H
1
) formant une partition de len-
semble des param`etres . Plus precisement, un test est deni par sa region critique (appele
aussi zone de rejet), notee ici W, qui est un sous ensemble de lensemble des observations
possibles : si on observe x = (x
1
, . . . , x
n
), alors
soit x nest pas dans la region critique, on accepte alors H
0
et on rejette H
1
(i.e. on
dit que H
0
).
soit x est dans la region critique, on rejette alors H
0
et on accepte H
1
(i.e. on dit
que H
1
).
Bien s ur, les donnees etant aleatoires, la decision peut etre erronee. Il convient de distinguer
deux types derreurs. Lerreur de 1
`ere
esp`ece consiste `a rejeter H
0
`a tort : elle est denie
par
P

(W), H
0
,
o` u par denition P

(W) = P

((X
1
, . . . , X
n
) W). Dans lexemple ci-dessus, lerreur de 1
`ere
esp`ece revient `a arreter la production alors que le taux de pi`eces defectueuses est encore
acceptable.
Lerreur de 2
`eme
esp`ece consiste `a accepter H
0
`a tort (i.e. rejet H
1
`a tort) : elle est
denie par
1 P

(W), H
1
.
Dans lexemple ci-dessus, lerreur de 2
`eme
esp`ece consiste `a continuer la production alors que
le taux de defaillance est superieur au seuil p
0
xe par lindustriel.
On denit la puissance dun test de region critique W comme la probabilite de rejeter
H
0
`a raison : cest la fonction denie sur H
1
par
W
() = P

(W). (La quantite 1


W
()
represente lerreur de 2
`eme
esp`ece.)
Generalement les erreurs de 1
`ere
et 2
`eme
esp`ece nont pas la meme importance. Par conven-
tion, on choisit H
0
de sorte que lon desire minimiser en priorite lerreur de 1
`ere
esp`ece.
Ceci traduit le fait que rejeter H
0
`a tort est plus prejudiciable que rejeter H
1
`a tort. Cette
raison entrane une dissymetrie entre lhypoth`ese nulle et lhypoth`ese alternative. Le statis-
ticien doit bien comprendre le contexte, pour choisir correctement lhypoth`ese
nulle et lhypoth`ese alternative ! (En general, le but dun test est de rejeter H
0
. Quand
on ne peut pas rejeter H
0
, car lerreur de 1
`ere
esp`ece est trop importante, on peut utiliser un
autre test ou augmenter le nombre de mesures.)
Le niveau du test de region critique W est deni par

W
= sup
H
0
P

(W).
Il sagit du maximum de lerreur de 1
`ere
esp`ece quand parcours H
0
. On cherche donc en
priorite des tests de niveau faible. Ceci se traduit par le principe de Neyman qui consiste
II.6. PROC

EDURE DE D

ECISION : LES TESTS 25


`a ne retenir que les tests dont le niveau est inferieur `a un seuil xe a priori. La valeur
de est faible ; les valeurs typiques sont 10%, 5%, 1%,... Ensuite, parmi les tests de niveau
inferieur `a , on cherche `a minimiser lerreur de 2
`eme
esp`ece. On recherche donc les tests de
niveau inferieur `a et de puissance maximale.
Remarque II.27. Il est clair que le choix de H
0
et de H
1
dependent de la problematique.
Dans le cas du mod`ele du paragraphe II.1.1, repris dans lexemple II.26, le choix de H
0
=
p p
0
et H
1
= p > p
0
implique que lon arrete la production (i.e. on rejette H
0
) si lon
est vraiment convaincu (avec une marge derreur au plus egale au seuil du test) que le seuil,
p
0
, de taux de pi`eces defectueuses est depasse. Ce choix correspond au cas o` u larret de la
production `a un co ut tr`es important.
Si en revanche on choisit H
0
= p p
0
et H
1
= p < p
0
, cela signie que lon accepte de
continuer la production que si lon est vraiment convaincu (toujours avec une marge derreur
au plus egale au seuil du test) que le seuil, p
0
, de taux de pi`eces defectueuses nest pas
encore atteint. Cest par exemple le point de vue dun acheteur ou dun organisme de contr ole
de la qualite (dans ce cas la qualite de la production est un enjeu qui prime sur le co ut darret
de la production).
En particulier, le choix de H
0
et H
1
depend directement des preoccupations de linterlo-
cuteur !
Une bonne idee pour construire un test concernant g() consiste `a utiliser lEMV de g(),
comme lillustre lexemple qui suit.
Exemple II.28. Nous poursuivons letude de lexemple II.26 concernant le mod`ele de Ber-
noulli.
On suppose que pour lindustriel, il est tr`es co uteux darreter la production pour reparer
ou changer la machine. Dans ce cas, on ne veut absolument pas commettre (traduire par
on veut minimiser) lerreur suivante : arreter la production (i.e. rejeter p p
0
et accepter
p > p
0
) si p p
0
. On en deduit donc que lerreur de 1
`ere
esp`ece consiste `a rejeter p p
0

`a tort. Donc lhypoth`ese nulle est H


0
= p p
0
et lhypoth`ese alternative H
1
= p > p
0
.
On consid`ere lEMV de p,

X
n
. On a vu que

X
n
est un estimateur convergent de p. En
particulier, sous H
0
,

X
n
prend des valeurs proches de p dans [0, p
0
], et sous H
1
des valeurs
proches de p dans ]p
0
, 1, ]. Il est naturel de choisir la region critique suivante construite `a
partir de lEMV :
W
n
= (x
1
, . . . , x
n
); x
n
> a
o` u n est la taille de lechantillon, et a une constante `a determiner.
Il faut maintenant calculer le niveau du test :
Wn
= sup
pp
0
P
p
(

X
n
> a). Intuitivement la
moyenne empirique a tendance `a augmenter avec p. On sattend donc `a ce que le supremum
soit atteint en p
0
. Cest eectivement le cas, comme le demontre linegalite (II.1) (rappelons
que sous P
p
, la loi de n

X
n
est la loi binomiale de param`etre (n, p)). On en deduit donc que

Wn
= P
p
0
(

X
n
> a) = P(Z > na) = 1 P(Z na),
o` u Z est de loi binomiale de param`etre (n, p
0
). En particulier si on se xe un seuil , alors
il faut choisir a superieur ou egal `a q
1
/n, o` u q
1
est le quantile dordre 1 de la loi
binomiale de param`etre (n, p
0
). Parmi tous les tests construits pour a q
1
/n, on recherche
maintenant celui de puissance maximale. La puissance est donnee par la fonction denie sur
26 CHAPITRE II. RAPPELS SUR LE MOD
`
ELE PARAM

ETRIQUE
]p
0
, 1] par p P
p
(

X
n
> a). Il est clair que la puissance est maximale pour a le plus petit
possible, `a savoir a = q
1
/n. On en deduit donc que le test de seuil retenu est
W
n
= (x
1
, . . . , x
n
); x
n
> q
1
/n = (x
1
, . . . , x
n
);
n

i=1
x
i
> q
1
. (II.5)
Si on fait lapplication numerique du paragraphe II.1.1 avec p
0
= 0.2, on obtient n = 100,

n
i=1
x
i
= 22, x
n
p
0
et pour = 5%, on a q
1
= 27. Il vient W
n
= x
n
> 0.27 et

Wn
= P
p
0
(W
n
) = 0.03 (le fait que
Wn
soit strictement inferieur `a est d u au fait que

X
n
est une v.a. discr`ete). La valeur observee nest pas dans la region critique. On accepte donc
H
0
au niveau de 5% (en fait au niveau de 3%).
Remarquons que plus p est proche de 0 (i.e. plus on est loin de H
1
), plus lerreur de 1
`ere
esp`ece est faible. De meme, plus p est proche de 1 (i.e. plus on est loin de H
0
), plus lerreur de
2
`eme
esp`ece est faible et la puissance elevee. Enn quand p H
1
se rapproche de p
0
(i.e. de
H
0
), on remarque que lerreur de 2
`eme
esp`ece crot vers 1
Wn
. Lerreur de 2
`eme
esp`ece est
loin detre negligeable. (On pourra verier que les tests presentes dans les dierents chapitres
poss`edent ce comportement).
0.0 0.2 0.4 0.6 0.8 1.0
0.0
0.2
0.4
0.6
0.8
1.0
H
0
= p p
0
H
1
= p > p
0

Region critique W
n

p
P
p
(W
n
) = P
p
(

X
n
> a)
Fig. II.5 Fonction p P
p
(W
n
) (erreur de 1
`ere
sur H
0
et puissance sur H
1
) et region critique
du test (II.5), avec = 5%, p
0
= 0.2 et a = 0.27.
Il est interessant de remarquer qui si lon adopte le point de vue dun acheteur ou dun
organisme de contr ole de la production, alors il est preferable de minimiser lerreur suivante :
continuer la production (i.e. rejeter p p
0
et accepter p < p
0
) si p p
0
. Dans ce cas
on choisit H
0
= p p
0
et H
1
= p < p
0
. Des calculs similaires `a ceux qui precedent
permettent detablir que le test de seuil et de puissance maximale construit `a laide de
lEMV de p a pour region critique
W

n
= (x
1
, . . . , x
n
);
n

i=1
x
i
< q

,
II.6. PROC

EDURE DE D

ECISION : LES TESTS 27


o` u q

est le quantile dordre de la loi binomiale de param`etre (n, p


0
). En particulier on
remarquera que le complementaire de W

n
W
n
dans [0, 1] represente la zone o` u lon accepte
H
0
que lon ait choisi H
0
= p p
0
ou H
0
= p p
0
.
Si lon peut ecrire la region critique, construite pour un echantillon de taille n, sous
la forme W = (x
1
, . . . , x
n
); S(x
1
, . . . , x
n
) a, abrege par W = S a (ou sous la
forme W = (x
1
, . . . , x
n
); S(x
1
, . . . , x
n
) a = S a abrege par W = S a), o` u
S = S(X
1
, . . . , X
n
) est une statistique, alors on dit que S est une statistique de test et que
W est la region critique associee `a la statistique de test S.
Dans ce cas, pour une observation x
obs
= (x
obs
1
, . . . , x
obs
n
), on denit la p-valeur du test
de region critique W = S a par
p-valeur = sup
H
0
P

(S S
obs
),
o` u S
obs
= S(x
obs
). Bien s ur la p-valeur du test de region critique W = S a est donnee
par sup
H
0
P

(S S
obs
). La p-valeur traduit la probabilite, sous H
0
, dobserver pire que les
observations dont on dispose. Si la p-valeur est tr`es faible, cela signie que ce que lon observe
est tr`es rare (sous H
0
). En particulier cela remet en cause lhypoth`ese H
0
. Suivant la valeur
de la p-valeur et le contexte qui permet dapprecier le niveau de risque retenu, on pourra
alors rejeter H
0
. En revanche si la p-valeur nest pas faible, cela signie quil est raisonnable
dobserver cette valeur sous H
0
. On acceptera alors H
0
. La p-valeur est un indicateur de la
conance que lon accorde `a H
0
, on peut egalement la voir comme linverse dune distance
`a H
0
. Il est plus precis que la reaction binaire du rejet ou acceptation dependant dun niveau
parfois arbitraire ! Remarquons que si H
0
est simple, alors la p-valeur est sous H
0
la realisation
dune variable aleatoire uniforme sur [0, 1].
Enn la construction des tests et des regions critiques est souvent facilitee quand on
regarde le comportement asymptotique des statistiques de test lorsque la taille de lechantillon
tend vers linni.
Si (W
n
, n 1) est une suite de regions critiques o` u W
n
correspond aux echantillons de
taille n, on dit que le test W
n
est de niveau asymptotique , si
limsup
n
sup
H
0
P

(W
n
) = .
Le test est dit convergent si pour tout H
1
, on a
lim
n
P

(W
n
) = 1.
Un test convergent assure que quand n , si on est sous H
1
, alors les observations sont
p.s. dans la region critique.
Exemple II.29. Suite de lexemple II.28. On peut verier que les tests W
n
et W

n
sont
des tests convergents de niveau asymptotique . Plutot que de faire cette demonstration
academique, on construit naturellement un test asymptotique `a partir de la normalite asymp-
totique de

X
n
, lEMV de p.
On peut structurer la modelisation et la reponse du statisticien de la mani`ere suivante.
28 CHAPITRE II. RAPPELS SUR LE MOD
`
ELE PARAM

ETRIQUE
1. Choix dun mod`ele (issu de la discussion entre le statisticien et son interlocuteur) : le
mod`ele parametrique de Bernoulli : (X
n
, n 1) suite de v.a. i.i.d. de loi de Bernoulli
p [0, 1].
2. Choix des hypoth`eses (issues des preoccupations de linterlocuteur du statisticien) :
H
0
= p p
0
, H
1
= p > p
0
, avec p
0
]0, 1[.
3. Choix de la statistique de test

n
=

X
n
p
0

p
0
(1 p
0
)
.
4. Comportement asymptotique sous H
0
. On deduit de la loi forte des grands nombres
que pour p < p
0
,

X
n
p
0
converge p.s. vers p p
0
< 0. On en deduit donc que pour
p < p
0
, on a p.s.
lim
n

n
= .
Pour p = p
0
, on deduit du TCL la convergence en loi de (
n
, n 1) vers ^(0, 1).
5. Comportement asymptotique sous H
1
. On deduit de la loi forte des grands nombres
que (

X
n
p
0
, n 1) converge p.s. vers p p
0
> 0. On en deduit donc que sous H
0
, p.s.
lim
n

n
= +.
6. Region critique du test. Vu le comportement asymptotique de la statistique de test sous
H
0
et H
1
, on consid`ere la region critique
W
n
=
n
a. (II.6)
7. Le test est de niveau asymptotique , si a =
1
, o` u
1
est le quantile dordre 1
de la loi ^(0, 1). En eet, gr ace `a (II.1), on deduit que pour p H
0
, on a
P
p
(
n
a) P
p
0
(
n
a).
On deduit du TCL que lim
n
P
p
0
(
n
a) = P(G a), o` u G est de loi ^(0, 1). En
particulier, on a
lim
n
sup
pH
0
P
p
(
n

1
) = lim
n
P
p
0
(
n

1
) = .
8. Le test est convergent. (Cela decoule du fait que la statistique de test converge vers
+ sous H
1
.)
9. La p-valeur du test est donnee par
p-valeur = P(G
obs
n
),
o` u
obs
n
est la valeur de la statistique de test
n
evaluee en les observations (i.e. on
remplace

X
n
dans la denition de
n
par x
obs
n
=
1
n

n
i=1
x
obs
i
).
II.7. UTILISER DES DONN

EES EXT

ERIEURES : LAPPROCHE BAYESIENNE 29


Le statisticien peut alors fournir la p-valeur `a son interlocuteur, et laider `a conclure. Si on fait
lapplication numerique du paragraphe II.1.1, on obtient pour p
0
= 0.2, n = 100, x
n
= 0.22,

n
= 0.5, et la p-valeur asymptotique de 0.31. (La p-valeur associee au test (II.5) est de 0.26.)
En particulier on ne rejette pas H
0
au seuil de 5% ni au seuil de 10%. On voit ici que le
calcul de la p-valeur donne une information plus compl`ete que la simple acceptation de H
0
au niveau de 5%.

Comme dans lexemple precedent, nous ferons ressortir pour chaque test les 9 points
suivants :
1. Description du mod`ele (guide par le contexte).
2. Les hypoth`eses (guidees par le contexte).
3. La statistique de test (utilisant lEMV ou les statistiques exhaustives dans les mod`eles
parametriques).
4. Loi ou comportement (en general asymptotique) sous H
0
.
5. Loi ou comportement (en general asymptotique) sous H
1
.
6. Region critique du test.
7. Niveau (exact, par exc`es ou asymptotique) du test.
8. Puissance ou convergence du test.
9. Calcul de la p-valeur du test.
`
A lissu de ce travail, il faut conclure : si la p-valeur est faible, on rejette H
0
, sinon on
accepte H
0
. La notion de p-valeur faible depend du contexte, elle nest pas la meme suivant
quil sagit dun risque nucleaire, de la mise sur le marche dun medicament ou dune nouvelle
lessive. Enn, si on rejette H
0
, il faut aussi se poser des questions sur la pertinence du mod`ele
choisi.
Exercice II.30. Reprendre lexemple II.29 avec H
0
= p p
0
et H
1
= p < p
0
. (Bien
s ur, comme p
n
H
0
, il est inutile de faire le test, car il nest pas raisonnable de rejeter H
0
.)
On veriera que la p-valeur asymptotique est egale `a 0.69.
Exercice II.31. On reprend le mod`ele decrit dans lexemple II.29 ainsi que les notations.
En considerant la statistique de test [
n
[, donner un test asymptotique pour H
0
= p = p
0

et H
1
= p = p
0
.
Exemple II.32. On consid`ere le probl`eme E pose au paragraphe II.1.1 : deux sous-echantil-
lons chacun i.i.d., lun de param`etre p
a
, lautre de param`etre p
b
. Si on veut tester lhypoth`ese
H
0
= p
b
p
a
, des considerations de bon sens analogues aux precedentes conduisent `a
un rejet si x
(a)
n
, proportion observee sur le premier sous-echantillon, est signicativement
plus elevee que x
b
n
, proportion observee sur le second sous-echantillon. Les calculs, exacts ou
approches, en fonction du choix de seront presentes au chapitre IV.
II.7 Utiliser des donnees exterieures : lapproche bayesienne
Suite du paragraphe II.1.1 sur le mod`ele de Bernoulli.
30 CHAPITRE II. RAPPELS SUR LE MOD
`
ELE PARAM

ETRIQUE
Une critique qui est souvent faite `a lensemble des traitements des observations issues
du paragraphe II.1.1, est que toutes les valeurs de p appartenant `a [0, 1] y soient traitees de
mani`ere indierente ; or il en est rarement ainsi dans la pratique. Certes on peut decider de
restreindre lespace du param`etre, , `a un sous-intervalle de [0, 1], mais cela ne sut pas :
souvent on a de bonnes raisons de penser que certaines zones de valeurs, pour p sont plus
credibles que dautres. Ceci conduit naturellement `a munir lensemble [0, 1] dune probabilite
qui traduit cette credibilite ; notons la Q. Elle est appelee la probabilite a priori (ou en
bref la priori). Cette demarche est dite bayesienne.
Lespace produit 0, 1
n
est donc muni dune probabilite, soit R, relativement `a
laquelle Q apparat comme une probabilite marginale (projection sur lensemble des
param`etres) et P
p
apparat comme une probabilite conditionnelle : loi de lobservation,
conditionnellement au param`etre. On peut donc donner, inversement, dans ce cadre, un sens `a
la loi du param`etre conditionnellement `a lobservation. Cette probabilite est dite probabilite
a posteriori (ou en bref la posteriori) . Cest cette demarche que, au dix-huiti`eme si`ecle,
T. Bayes avait qualiee de recherche de la probabilite des causes. Elle peut etre vue comme
une revision, `a la lumi`ere des observations, de la credibilite qui avait ete choisie initialement
sur . Dans cette logique, cest sur elle que vont reposer alors toutes les methodes statistiques.
La critique que lon peut faire `a cette demarche est le caract`ere relativement arbitraire
du choix de la probabilite a priori : le statisticien devrait en principe la faire exprimer par
son interlocuteur, mais ceci est souvent dicile `a expliciter. De plus les calculs auxquels on
est conduit sont souvent diciles (`a telle enseigne que cest pour les resoudre quont ete
eectuees certaines des avancees les plus notables du calcul statistique sur ordinateur ces
derni`eres annees). On est donc souvent amene `a faire jouer, pour le choix de la probabilite a
priori, des considerations de nature mathematique visant `a faciliter les calculs.
Dans lexemple considere, on choisit volontiers pour loi a priori une loi Beta (voir p. 249),
de param`etre (a, b) R

+
. En particulier, si a = b = 1, il sagit de la loi uniforme sur [0, 1], qui
traduit une information a priori dite par antiphrase non informative. Sil en est ainsi, la loi
du couple (p, (x
1
, . . . , x
n
)) admet pour densite, par rapport `a la mesure produit
[0,1]

{0,1}
n
(o` u
[0,1]
est la restriction `a lintervalle [0, 1] de la mesure de Lebesgue sur R (voir X.1.2) et

{0,1}
n est la mesure de comptage sur 0, 1
n
) lapplication :
(p, (x
1
, . . . , x
n
))
p
a1
(1 p)
b1
B(a, b)
p
y
(1 p)
ny
,
o` u B(a, b) =

1
0
p
a1
(1 p)
b1
dp et y =

n
i=1
x
i
= n x
n
. Un calcul elementaire permet den
deduire que la loi a posteriori est la loi Beta de param`etre (a +y, b +n y).
On prend alors pour estimation ponctuelle de p (estimation dite bayesienne) lespe-
rance mathematique de la loi a posteriori, cest-` a-dire apr`es un calcul elementaire
p
n
= E[p[X
1
, . . . , X
n
] =
a +

n
i=1
X
i
a +b +n
.
Si on observe y =

n
i=1
x
i
, lestimation de p est donc
a +y
a +b +n
. Dans le cas particulier de
la priori uniforme, on trouve pour estimation
1+y
2+n
. Dans tous les cas, `a a et b xes, cette
estimation, quand n augmente, seloigne de
a
a+b
(esperance de la probabilite a priori) pour
tendre vers x
n
. On retrouve donc asymptotiquement lEMV de p. Ceci exprime que, plus la
II.8. R

ESUM

E DES PROC

EDURES DE TEST 31
taille de lechantillon est elevee, plus forte est linuence des observations par rapport `a lidee
a priori que lon se faisait sur le param`etre.
La recherche dun intervalle de conance au niveau de conance 1 se resout ici
en fournissant un intervalle qui, pour la loi a posteriori, a une probabilite egale `a 1 ; ceci
laissant une certaine faculte de choix, on le prendra en general symetrique en probabilite,
cest-` a-dire laissant au dessus et au dessous des intervalles de probabilite a posteriori egale `a

2
. Autrement dit lintervalle de conance a pour extremites les quantiles a posteriori dordres

2
et 1

2
.
Le probl`eme de test est aborde ici de mani`ere tout `a fait dierente de ce que lon avait
fait en II.6. Puisque linterlocuteur sinterroge sur lappartenance de p `a lintervalle [0, p
0
],
et quil avait ete capable de donner une valeur a priori (avant toute experimentation) `a
une probabilite de cet intervalle, on va lui fournir comme reponse `a ses preoccupations la
valeur de la probabilite a posteriori de [0, p
0
].
`
A lui den tirer prot ! Il peut en particulier,
sil doit absolument trancher entre lhypoth`ese nulle H
0
et la contre-hypoth`ese H
1
, opter pour
celle des deux qui a la plus forte probabilite a posteriori. Cette attitude semble necessiter
chez linterlocuteur du statisticien une meilleure familiarite avec les notions probabilistes que
lattitude classique vue ci-dessus ; mais cette derni`ere, si elle semble moins exigeante, est
souvent source de malentendus.
II.8 Resume des procedures de test
Nous resumons les tests vus pour les exemples presentes au paragraphe II.1.1 et III.3.1.
II.8.1 Le mod`ele de Bernoulli
1. Mod`ele : (X
k
, 1 k n) suite de v.a. i.i.d. de loi de Bernoulli : { = B(p), [0, 1].
2. H
0
= p p
0
, H
1
= p > p
0
, avec p
0
]0, 1[.
3. Statistique de test :

X
n
.
4. Comportement sous H
0
:

X
n
proche de [0, p
0
].
5. Comportement sous H
1
:

X
n
proche de ]p
0
, 1].
6. Region critique : W
n
=

X
n
> a.
7. Niveau par exc`es : a = q
1
/n, o` u q
1
est le quantile dordre 1 de B(n, p).
8. Puissance du test P
p
(

X
n
> a), p ]0, 1].
9. p-valeur : P
p
0
(

X
n
x
obs
n
).
10. Variante : test asymptotique (n grand), statistique de test :
n
=

X
n
p
0

p
0
(1 p
0
)
. Sous
H
0
,
n
converge p.s. vers ou en loi vers ^(0, 1). Sous H
1
,
n
converge p.s. vers
+. Region critique W
n
=
n
a. Niveau asympotique : a =
1
, o` u
1
est
le quantile dordre 1 de ^(0, 1). Le test est convergent. p-valeur : P(G
obs
n
) o` u
G de loi ^(0, 1).
32 CHAPITRE II. RAPPELS SUR LE MOD
`
ELE PARAM

ETRIQUE
Chapitre III
Mod`ele lineaire gaussien
III.1 Generalites
III.1.1 Plans dexperiences
Le statisticien planie une experience statistique en fonction dun objectif qui est sou-
vent letude de leet de certains facteurs de variabilite dun phenom`ene. Ces facteurs sont
presents sous plusieurs modalites.
La technique de bon sens lorsque plusieurs facteurs sont `a etudier est de ne modier
quun facteur `a la fois. Par exemple, si on dispose de 3 facteurs presents chacun sous p
modalites, cette technique conduirait `a xer 2 facteurs puis etudier dans chacun des cas leet
du troisi`eme facteur, soit 3p
2
experiences. Dans beaucoup de cas le co ut, lecacite, ou les
possibilites eectives dexperimentation, recommandent de minimiser le nombre dexperiences
tout en conservant un cadre experimental rigoureux. En repondant `a ces crit`eres, la methode
des plans dexperience initiee au debut du XX
`eme
si`ecle par Ronald A.Fisher sest imposee
dans le cadre industriel pour tester des medicaments, des varietes de plantes, des procedes
de fabrication, etc...
Lobjectif de la construction de plans dexperience est de mettre en place un dispositif
experimental permettant daboutir `a une interpretation statistique des resultats notamment `a
laide de tests dhypoth`eses. Pour cela il faut construire un mod`ele statistique qui distinguera
parmi les facteurs de variabilite les facteurs controles et les facteurs aleatoires.
Les facteurs contr oles sont :
quantitatifs : on parle alors de facteurs explicatifs.
qualitatifs : ils sont distingues dans ce cas par leur position dans le dispositif experi-
mental.
Les facteurs aleatoires, ou erreur experimentale, representent la part de variabilite
non associee `a un facteur contr ole de lexperience : erreurs de mesures, variabilite due
`a un tirage aleatoire, etc...
III.1.2 Le mod`ele general
Ce type dexperience statistique peut etre decrit avec le mod`ele general suivant :
X = f() +,
33
34 CHAPITRE III. MOD
`
ELE LIN

EAIRE GAUSSIEN
o` u
X = (X
i
)
i=1,...,n
designe les observations eectuees.
= (
1
, . . . ,
p
) est un vecteur de param`etres inconnu caracterisant les facteurs contr oles
que lon souhaite etudier `a laide de ces observations.
= (
i
)
i=1,...,n
sont des variables aleatoires independantes et centrees, representant
lerreur experimentale. Le mod`ele est gaussien si est un vecteur gaussien centre (voir
X.2.2).
f() est une application connue qui xe le mod`ele. Ce mod`ele est lineaire si f() est
une application R o` u R est une matrice. Le mod`ele secrit alors matriciellement :
X = R +.
Dans la suite nous considererons des mod`eles lineaires gaussiens. Ces deux hypoth`eses
(linearite et caract`ere gaussien de lerreur) doivent etre validees. Pour les verier on peut,
soit utiliser la connaissance a priori que lon a du mod`ele, soit construire des tests.
Dans certains cas, lorsquil y a plusieurs observations, le caract`ere gaussien peut etre une
consequence du theor`eme de la limite centrale (voir X.3.2). Enn, dans de nombreux cas,
on peut rendre le mod`ele gaussien et lineaire en modiant le mod`ele, ou en eectuant des
transformations sur les observations.
III.1.3 Exemples
Dans ce paragraphe nous proposons des exemples illustrant la problematique precedente.
Dans les sections suivantes, nous donnerons les elements permettant de resoudre ce type de
probl`emes.
Exemple III.1. Le tableau ci-dessous represente des mesures de hauteurs darbres en m`etres
eectuees dans 3 forets distinctes. On rassemble dans un meme tableau les mesures eectuees
dans les 3 forets dans le but de les comparer.
Le facteur etudie est ici linuence de la foret sur la hauteur de ces arbres. La variabilite
de la hauteur due ici au tirage dun echantillon aleatoire dans chaque foret se decompose donc
naturellement en une partie controlee, le facteur (foret), et une partie aleatoire, la variabilite
intrins`eque `a la pousse des arbres due au terrain, `a la lumi`ere, `a la presence ou non dun
autre arbre `a proximite...
On peut supposer que les hauteurs des dierents arbres sont independantes (ce qui exige
que lon ne mesure pas des arbres trop rapproches les uns des autres), et que, pour la foret
numero k, la mesure dun arbre suit une loi gaussienne de moyenne m
k
et de variance
2
k
;
on peut alors comparer les 3 echantillons 2 `a 2. Mais si la variabilite des hauteurs des arbres
peut etre consideree comme identique dune foret `a lautre (
2
1
=
2
2
=
2
3
=
2
) on observe
trois echantillons gaussiens de meme variance
2
et de moyennes dierentes qui representent
leet de chaque foret (les modalites du facteur foret) sur la pousse des arbres. Lhypoth`ese
degalite des variances est appelee homoscedasticite. Avec ces hypoth`eses on peut alors
ecrire :
X
i,j
= m
i
+
i,j
pour la j-i`eme mesure de la foret i, j = 1, . . . , n
i
, i = 1, 2, 3,
o` u ^(0,
2
). Ceci secrit avec une notation matricielle :
X = R +,
III.1. G

EN

ERALIT

ES 35
Foret 1 Foret 2 Foret 3
n
1
= 13 arbres n
2
= 14 n
3
= 10
23.4 22.5 18.9
24.4 22.9 21.1
24.6 23.7 21.2
24.9 24.0 22.1
25.0 24.4 22.5
26.2 24.5 23.5
26.3 25.3 24.5
26.8 26.0 24.6
26.8 26.2 26.2
26.9 26.4 26.7
27.0 26.7
27.6 26.9
27.7 27.4
28.5
Tab. III.1 Hauteurs darbres dans 3 forets
o` u est un vecteur aleatoire gaussien, et
X = (X
1,1
, . . . , X
1,n
1
, X
2,1
, . . . , X
2,n
2
, X
3,1
, . . . , X
3,n
3
)
t
,
R =

1 0 0
.
.
.
.
.
.
.
.
.
1 0 0

0 1 0
.
.
.
.
.
.
.
.
.
0 1 0

0 0 1
.
.
.
.
.
.
.
.
.
0 0 1

, =

m
1
m
2
m
3

Ce probl`eme est un probl`eme danalyse de la variance `a un facteur. Il sera etudie en III.5.


Pour repondre `a la question existe-t-il un eet foret, on construira un test statistique dont
lhypoth`ese nulle est :
H
0
= m
1
= m
2
= m
3
.

Exemple III.2. Le tableau suivant donne le nombre de jours de pluie et la hauteur de pluie
en mm, observes pendant toute lannee `a Paris de 1956 `a 1995.
36 CHAPITRE III. MOD
`
ELE LIN

EAIRE GAUSSIEN
Annees 1956 1957 1958 1959 1960 1961 1962 1963 1964 1965
Jours 154 161 193 131 198 152 159 159 146 196
Hauteur 545 536 783 453 739 541 528 559 521 880
Annees 1966 1967 1968 1969 1970 1971 1972 1973 1974 1975
Jours 192 161 176 173 199 141 170 156 198 164
Hauteur 834 592 634 618 631 508 740 576 668 658
Annees 1976 1977 1978 1979 1980 1981 1982 1983 1984 1985
Jours 135 179 171 172 170 197 173 177 177 163
Hauteur 417 717 743 729 690 746 700 623 745 501
Annees 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995
Jours 176 180 167 140 149 140 154 155 192 162
Hauteur 611 707 734 573 501 472 645 663 699 670
Tab. III.2 Jour et quantite de pluie par annees
Une representation sur un graphique (g. III.1) des donnees avec en abscisse le nombre
de jours de pluie et en ordonnee la hauteur de pluie permet de constater que lensemble des
points forme un nuage allonge et que la quantite de pluie augmente lorsque le nombre de
jours de pluie augmente.
Le facteur hauteur de pluie est alors un facteur `a expliquer par le facteur explicatif contr ole
nombre de jours de pluie.
120 130 140 150 160 170 180 190 200 210
400
450
500
550
600
650
700
750
800
850
900
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
Fig. III.1 Representation des donnees
La question que lon se pose est de savoir si ces deux quantites sont liees par une relation
ane, de calculer les param`etres de cette relation et davoir une indication sur le caract`ere
predictif de ce mod`ele (autrement dit, peut-on deduire de fa con satisfaisante la hauteur de
pluie `a partir du nombre de jours de pluie ?).
III.2. LOIS ASSOCI

EES AUX

ECHANTILLONS GAUSSIENS 37
Le mod`ele statistique que lon propose est le suivant :
X
i
= + r
i
+
i
o` u :
X = (X
i
)
i=1,...,n
designe la hauteur de pluie.
(r
i
)
i=1,...,n
designe le nombre de jours de pluie
la droite dequation
x = r +
est appelee droite de regression ; et sont `a estimer `a partir des observations.
= (
i
)
i=1,...,n
represente les ecarts aleatoires entre les observations et la droite. On
supposera que cest une suite de variables aleatoires independantes de loi ^(0,
2
).
Le mod`ele peut alors secrire :
X = R +
en notant :
R =

1 r
1
1 r
2
.
.
.
.
.
.
1 r
n

, et =

Cest un mod`ele de regression lineaire simple qui sera etudie en III.6.

III.2 Lois associees aux echantillons gaussiens


Rappelons pour commencer les denitions des lois associees aux echantillons gaussiens
qui, comme la loi de Student, nous serons utiles dans la suite (voir X.2.2).
Denition III.3. Si (X
1
, . . . , X
n
) est un echantillon de loi normale ^(0, 1), alors la loi de
la v.a.

n
i=1
X
2
i
est la loi du chi-deux ` a n degres de liberte, notee
2
(n).
Denition III.4. Si X ^(0, 1), Y
2
(n) et que X et Y sont independantes, alors
X

Y/n
t(n), loi de Student ` a n degres de liberte.
Denition III.5. Si X
2
(n), Y
2
(m) et que X et Y sont independantes, alors
X/n
Y/m
T(n, m), loi de Fisher (ou de Fisher-Snedecor) ` a n et m degres de liberte.
Enn, on utilise souvent la convention pratique suivante : si une v.a. X a pour loi F, on
note aF la loi de aX. Ainsi, on notera
2

2
(n) la loi de

n
i=1
X
2
i
dans le cas o` u (X
1
, . . . , X
n
)
forment un n-echantillon de la loi ^(0,
2
).
III.2.1 Theor`eme de Cochran
Cest loutil fondamental pour letude des echantillons gaussiens et du mod`ele lineaire
gaussien (la notation [[ [[ designe la norme euclidienne dans R
n
).
38 CHAPITRE III. MOD
`
ELE LIN

EAIRE GAUSSIEN
Theor`eme III.6. Soit X = (X
1
, . . . , X
n
) un n-echantillon de ^(0, 1), et E
1
, . . . , E
p
une
decomposition de R
n
en p sous-espaces deux-` a-deux orthogonaux, avec dim(E
j
) = d
j
, j =
1, . . . , p. Alors on a :
(i) Les composantes de X dans toute base orthonormale de R
n
forment encore un n-
echantillon de ^(0, 1).
(ii) Les vecteurs aleatoires X
E
1
, . . . , X
Ep
, qui sont les projections de X sur E
1
, . . . , E
p
, sont
independants.
(iii) Les variables aleatoires [[X
E
1
[[, . . . , [[X
Ep
[[ sont independantes, et
[[X
E
j
[[
2

2
(d
j
), j = 1, . . . , p.
Une formulation equivalente consiste `a dire (par exemple avec p = 2), que si P
1
et P
2
sont deux projecteurs orthogonaux de R
n
sur deux sous-espaces orthogonaux E
1
et E
2
de
dimensions d
1
et d
2
, alors P
1
X = X
E
1
et P
2
X = X
E
2
sont independants, et [[P
1
X[[
2
et
[[P
2
X[[
2
sont independants et ont pour lois respectivement
2
(d
1
) et
2
(d
2
).
III.2.2 Statistiques fondamentales
Pla cons-nous donc dans le cas o` u (X
1
, . . . , X
n
) est un n-echantillon de la loi ^(,
2
). Les
statistiques utiles pour les probl`emes de test ou dintervalle de conance sur les param`etres
et
2
sont fonction de la moyenne empirique, que nous notons

X =
1
n
n

i=1
X
i
,
et de la variance empirique, dont nous choisissons ici la version sans biais (voir III.3.1) :
S
2
=
1
n 1
n

i=1
(X
i


X)
2
=
n
n 1

1
n
n

i=1
X
2
i

.
Utilisons le theor`eme III.6 dans le cas o` u p = 2 et o` u on projette X sur le sous-espace E de
dimension 1 engendre par le vecteur (norme) de R
n
, e
1
=
1

n
1
n
(o` u on note 1
n
le vecteur
de dimension n ayant toute ses coordonnees egales `a 1). On obtient X
E
=

n

X
1

n
1
n
. La
norme de la projection de X sur lorthogonal de E (de dimension n 1) est
[[X X
E
[[
2
=
n

i=1
(X
i


X)
2
qui suit la loi
2

2
(n 1) (cest le point (iii) du theor`eme de Cochran `a ceci pr`es quil faut
tenir compte de la variance
2
). On en deduit les resultats suivants, utiles pour le statisticien :
Proposition III.7. Soit X = (X
1
, . . . , X
n
) un n-echantillon de ^(,
2
). Alors on a :
(i) Les v.a.

X et S
2
sont independantes.
(ii) (n 1)S
2

2

2
(n 1).
(iii)

n(

X )
S
t(n 1).
III.3. LE MOD
`
ELE GAUSSIEN 39
Remarquons que la v.a.

n
i=1
(X
i
)
2
suit elle-meme la loi
2

2
(n) mais, si est inconnu,
son calcul nest pas accessible. Le point (ii) exprime intuitivement le fait que lon perd un
degre de liberte en raison du remplacement de , inconnu, par son estimateur

X. De meme
la v.a.

n(

X )/ ^(0, 1), autrement dit le point (iii) signie que la loi de Student
remplace la loi normale comme loi de la moyenne empirique normalisee dans le cas o` u est
inconnu et doit etre remplace par son estimateur S.
III.3 Le mod`ele gaussien
Nous illustrons dans un premier temps les concepts du mod`ele param`etrique sur le mod`ele
gaussien. Ce mod`ele est tr`es (trop ?) couramment utilise pour analyser des donnees continues.
Cet usage frequent est d u `a la simplicite des calculs et `a la generalite du TCL (sous des
hypoth`eses tr`es faibles, la somme de nombreux petits bruits suit asymptotiquement une loi
gaussienne).
III.3.1 Un exemple de donnees reelles `a loi gaussienne
On a enregistre le taux dalcool dans le sang (en dg/l) de n sujets : voici le tableau des
observations, avec n = 30 (extrait de louvrage de D. Schwartz, Methodes statistiques ` a lusage
des medecins et des biologistes, Flammarion).
27 , 26 , 26 , 29 , 10 , 28 , 26 , 23 , 14 , 37
16 , 18 , 26 , 27 , 24 , 19 , 11 , 19 , 16 , 18
27 , 10 , 37 , 24 , 18 , 26 , 23 , 26 , 19 , 37
On notera (x
1
, . . . , x
30
) cette suite de resultats observee. Les valeurs sechelonnant entre
10 et 37, la precision etant lunite, il serait maladroit de modeliser ceci comme les realisations
de v.a. discr`etes : le nombre de valeurs distinctes envisageables devrait etre grand, de lordre
de la quarantaine, car rien ninterdit de penser quauraient pu etre observees des valeurs en
dehors de lintervalle ici present. Il est plus raisonnable de considerer quil y a, sous-jacent
`a ces observations, un phenom`ene `a valeurs reelles, dont les observations recueillies sont une
discretisation, larrondi se faisant `a la precision du decigramme par litre.
Les mod`eles les plus simples que lon puisse envisager ici sont des mod`eles dechantillonna-
ge : on admet que lon a observe les realisations de n v.a. X
i
independantes et identiquement
distribuees.
Pour voir si un tel mod`ele est approprie, il faut dabord se demander comment a ete
constitue cet echantillon.
Le probl`eme essentiel est, comme dans le premier paragraphe, celui de la source de va-
riabilite (cause de laleatoire). Celle-ci a en fait ici plusieurs origines simultanees : variation
dindividu `a individu et, pour chaque individu, imprecision de lappareil de mesure et eet de
lerreur darrondi. On peut esperer que la premi`ere cause est dominante, mais alors il reste
`a sinterroger sur les conditions de choix des individus sur lesquels a ete eectuee la prise de
sang. Voici quelques situations possibles :
Experience scientique contr olee, par exemple faisant intervenir 30 sujets en bonne sante,
ayant bu tous la meme quantite dalcool, dans des conditions dalimentation identiques, et
testes dans un temps determine apr`es labsorption : on jauge alors la variabilite des reactions
individuelles des organismes.
40 CHAPITRE III. MOD
`
ELE LIN

EAIRE GAUSSIEN
Contr ole systematique apr`es un bon repas ou au sortir dun bote de nuit : on jauge alors
la variabilite de consommation de gens places dans un meme contexte social, mele `a leet
individuel de cette consommation sur le sang.
Rapport de police : on jauge alors la variabilite du taux parmi des analyses sur des conduc-
teurs que la police a juge utile de citer, par exemple apr`es un premier ltrage `a lalcootest.
Revenant `a louvrage do` u ont ete extraites ces donnees, nous lisons : 30 sujets en etat
debriete. Nous savons donc que nous nous limitons `a une categorie dont il faut donner la
denition exacte (non fournie dans le texte) : celle-ci est-elle externe `a lenregistrement (par
exemple determination sur le comportement ou sur lalcootest) ou interne `a lenregistre-
ment (on aurait procede `a des observations sur une plus grande masse de sujets et retenu
uniquement ceux pour lesquels le taux etait superieur ou egal `a 10 dg/l, procedure dite de
censure des donnees) ?
Il est assez evident que, quelles que soient les conditions de recueil, elles ont d u assurer
lindependance des n v.a. X
i
dont les observations resultent. Le probl`eme de lidentite
de leurs lois et du choix de la famille `a laquelle serait supposee appartenir cette
loi commune est plus delicat.
En tout etat de cause, si lon pose (comme nous allons le faire) un mod`ele i.i.d., il faudra
retenir que la loi commune traduit une variabilite intrins`eque et de mesure dans lensemble
des individus satisfaisant aux crit`eres retenus pour la population que les sujets testes sont
censes representer, et celle-l`a seule (ici une certaine notion de letat debriete).
Nous lavons dit, les praticiens utilisent souvent dans un tel contexte une modelisation
avec pour loi commune une loi normale, de moyenne et variance
2
(non nulle) inconnues,
^(,
2
). Le param`etre est donc bi-dimensionnel = (,
2
) R R

+
. La probabilite
^(,
2
) a pour support R tout entier, alors quici (comme presque toujours dans la pratique)
les donnees sont fondamentalement bornees ; cet usage suppose donc que, pour la zone de
valeurs de et envisageables, la probabilite du complementaire de lintervalle des valeurs
eectivement atteignables par les taux dalcool soit negligeable. Cette condition de validite
serait incontestablement mise en defaut dans le cas de valeurs censurees evoque ci-dessus.
III.3.2

Etude du mod`ele
On consid`ere donc un echantillon (X
1
, . . . , X
n
) de v.a. independantes et de meme loi
gaussienne : { = ^(,
2
), = (,
2
) R]0, [. La densite de la loi ^(,
2
) est
p(x
1
; ,
2
) =
1

2
2
e
(x
1
)
2
/2
2
.
La vraisemblance du mod`ele est pour x = (x
1
, . . . , x
n
) R
n
,
p
n
(x; ,
2
) = (2
2
)
n/2
e

P
n
i=1
(x
i
)
2
/2
2
= (2
2
)
n/2
e
n
( xn)
2
+vn
2
2
,
o` u x
n
=
1
n

n
i=1
x
i
et v
n
=
1
n

n
i=1
(x
i
x
n
)
2
. On deduit du theor`eme de factorisation II.19
que

X
n
=
1
n
n

i=1
X
i
, et V
n
=
1
n
n

i=1
(X
i


X
n
)
2
=
1
n
n

i=1
X
2
i
(

X
n
)
2
.
III.3. LE MOD
`
ELE GAUSSIEN 41
sont des statistiques exhaustives (i.e. elles contiennent toute linformation sur le param`etre
(, )). Traditionnellement, on consid`ere
S
2
n
=
1
n 1
n

i=1
(X
i


X
n
)
2
=
1
n 1
n

i=1
X
2
i

n
n 1
(

X
n
)
2
,
au lieu de V
n
(car S
2
n
est un estimateur sans biais de
2
), cf la proposition III.7. Bien s ur
la statistique (

X
n
, S
2
n
) est une statistique exhaustive ; sa loi est donnee dans la proposition
III.7.
III.3.3 Estimation
Pour calculer lestimateur du maximum de vraisemblance de (,
2
), on consid`ere la log-
vraisemblance

n
(x; ,
2
) =
n
2
log(2)
n
2
log(
2
) n
( x
n
)
2
+v
n
2
2
.
En calculant les derivees partielles, il vient

n
(x; ,
2
) = n
x
n

2
,
et

n
(x; ,
2
) =
n
2
2
+n
( x
n
)
2
+v
n
2
4
.
En particulier, les derivees de la log-vraisemblance sannulent pour = x
n
et
2
= v
n
.
Ensuite, on verie sans diculte que la log-vraisemblance atteint son maximum pour (,
2
) =
( x
n
, v
n
). On en deduit donc que lEMV de = (,
2
) est (

X
n
, V
n
). On deduit de la proposition
III.7 que E

[

X
n
] = et que E

[S
2
n
] =
2
. (En revanche V
n
est un estimateur biaise de
2
,
do` u le choix traditionnel de S
2
n
). Ainsi lestimateur

n
= (

X
n
, S
2
n
) est un estimateur sans
biais de .
On peut demontrer quil nexiste pas destimateur sans biais de preferable (au sens du
risque quadratique) `a

X
n
autre que lui meme. Et que parmi les estimateurs de la forme aS
2
n
,
a > 0, de
2
,
n 1
n + 1
S
2
n
=
1
n + 1
n

i=1
(X
i


X
n
)
2
est lestimateur de risque quadratique le plus
faible.
Par la loi forte des grands nombre

X
n
et S
2
n
sont des estimateurs convergents. Ainsi

n
est un estimateur convergent de . (On peut egalement verier quil est asymptotiquement
normal, mais cela ne nous sera pas utile par la suite).
III.3.4 Intervalle de conance et tests pour la moyenne
III.3.5 Intervalle de conance pour la moyenne
On deduit de la proposition III.7, que la loi de

X
n

S
n
est la loi t(n 1). La loi de
Student est symetrique, ainsi si t
n1,1/2
est le quantile dordre 1 /2 de la loi t(n 1),
42 CHAPITRE III. MOD
`
ELE LIN

EAIRE GAUSSIEN
alors t
n1,1/2
est le quantile dordre /2. En particulier, une v.a. de loi t(n1) appartient
`a [t
n1,1/2
, t
n1,1/2
] avec probabilite 1 . Comme

X
n

S
n
[t
n1,1/2
, t
n1,1/2
] [

X
n
t
n1,1/2
S
n

n
],
on en deduit que [

X
n
t
n1,1/2
S
n

n
] est un intervalle de conance de niveau 1 pour .
On remarque que la longueur de lintervalle de conance [ x
n
t
n1,1/2
s
n

n
], o` u s
2
n
=
1
n1

n
i=1
(x
i
x
n
)
2
tend bien vers 0 quand la taille de lechantillon tend vers linni (`a x
n
et
s
n
xe). Il est aussi dautant plus long que s
n
est plus eleve (ceci est naturel : la uctuation des
donnees contrarie la conance que lon a en elles, conance qui se traduirait par un intervalle
de conance assez court).
Exercice III.8. Si la variance est connue et egale `a
2
0
, cest-` a-dire si lon consid`ere le mod`ele
{ = ^(,
2
0
), R, verier que lintervalle de conance de de niveau 1 est alors
[

X
n

1/2

n
], o` u
1/2
est le quantile dordre 1 /2 de la loi ^(0, 1).
Tests pour la moyenne
On consid`ere les hypoth`eses H
0
= =
0
et H
1
= =
0
, o` u
0
est donne. (On parle
dhypoth`ese bilaterale, par opposition `a lexercice III.10, o` u parle dhypoth`ese unilaterale).
Il est naturel de comparer la moyenne empirique avec moyenne proposee,
0
. Toutefois, sous
H
0
, la loi de

X
n

0
est la loi ^(0,
2
/n), qui depend du param`etre inconnu
2
. On consid`ere
donc la statistique de test

n
=

X
n

0
S
n
.
La loi de la statistique de test sous H
0
est la loi de Student de param`etre n 1. La loi de

n
sous H
1
est la loi de Student decentree, mais nous ne lexpliciterons pas ici. On remarque
que sous H
1
,

X
n

0
converge p.s. vers
0
= 0 quand n . On a toujours que S
n
converge p.s. vers
2
. On en deduit donc que sous H
1
, p.s.
lim
n
[
n
[ = +.
Il est donc naturel de considerer la region critique
W
n
= (x
1
, . . . , x
n
); [
n
(x)[ a, (III.1)
o` u
n
(x) =

n
xn
0
sn
, avec x
n
=
1
n

n
i=1
x
i
et s
n
=
1
n1

n
i=1
(x
i
x
n
)
2
. Dapr`es le compor-
tement de la statistique de test sous H
1
, on en deduit que le test W
n
est convergent. (En fait
la statistique telle quelle a ete denie au paragraphe II.6 serait plut ot [
n
[.)
Comme sous H
0
, la loi de
n
est la loi de Student de param`etre n 1, on en deduit que
le niveau du test W
n
est
sup
H
0
P

(W
n
) = P([Z[ a),
o` u Z est de loi t(n1). Pour obtenir un test de niveau , on choisit a = t
n1,1/2
, le quantile
dordre 1 /2 de loi de Student de param`etre n 1.
III.3. LE MOD
`
ELE GAUSSIEN 43
La p-valeur du test est donnee par
p-valeur = P([Z[ [
obs
n
[), (III.2)
o` u
obs
n
est la statistique de test evaluee en les observations.
Remarque III.9. On peut etudier la reponse du test en fonction de n, x
n
et s
n
.
`a n et s
n
xes, si x
n
seloigne de
0
, alors [
n
[ augmente et on a tendance `a rejeter le
test.
`a n et x
n
xes, si s
n
diminue, alors [
n
[ augmente et on a tendance `a rejeter le test. Cela
traduit le fait que si s
n
est petit alors la variabilite des donnees est petite et x
n
donne
une estimation precise du vrai param`etre . Des petits ecarts entre x
n
et
0
deviennent
signicatifs.
`a x
n
et s
n
xes, si n augmente, alors [
n
[ augmente et on a tendance `a rejeter le test. En
eet, plus la taille de lechantillon est grande est plus x
n
donne une estimation precise
du vrai param`etre .

Exercice III.10.

Ecrire le test pour les hypoth`eses unilaterales H
0
=
0
et H
1
=
>
0
.
Exercice III.11. Tester les hypoth`eses H
0
= =
0
et H
1
= =
0
, o` u
0
est donne
dans le mod`ele gaussien `a variance connue : { = ^(,
2
0
), R.
III.3.6 Intervalles de conance et tests pour la variance
Le raisonnement est identique dans le cas de la variance : la construction dintervalles de
conance ou de tests se fait `a partir de la connaissance de la loi, sous lhypoth`ese nulle ou `a
la fronti`ere de celle-ci, de lestimateur du param`etre dinteret.
Intervalles de conance pour la variance
Lestimateur (sans biais) de
2
est la variance empirique sans biais S
2
, et le point (ii) de
la proposition III.7 permet decrire par exemple que, si
2
n,1
est le quantile dordre (1 )
de la loi
2
(n),
P

2
n1,/2
<
(n 1)S
2

2
<
2
n1,1/2

= 1 ,
do` u lon deduit un intervalle de conance pour la variance (bilateral dans cet exemple) de
niveau de conance (1 ) :

(n 1)S
2

2
n1,1/2
;
(n 1)S
2

2
n1,/2

.
Tests pour la variance
On peut aussi, en suivant la demarche introduite au chapitre II, construire des tests pour
des hypoth`eses relatives au param`etre
2
. Considerons par exemple le test de
H
0
=
2

2
0
contre H
1
=
2
>
2
0
.
44 CHAPITRE III. MOD
`
ELE LIN

EAIRE GAUSSIEN
`a la fronti`ere de H
0
, i.e. lorsque la valeur du param`etre est
2
0
, la statistique
Z =
(n 1)S
2

2
0

2
(n 1).
Cette statistique aura tendance `a crotre avec sous lhypoth`ese alternative (et de plus
S
2

2
p.s. en vertu de la loi forte des grands nombres), do` u le choix dune region de rejet
de la forme ]c, +[, o` u c est calibre (le plus petit possible) de sorte que P

0
(Z > c) = .
Ceci am`ene donc `a choisir pour c le quantile dordre (1 ) de la loi
2
(n 1), autrement
dit `a conclure
Rejet de H
0
si
(n 1)S
2

2
0
>
2
n1,1
.
Le lecteur pourra construire les tests relatifs aux situations suivantes :
H
0
=
2

2
0
contre H
1
=
2
<
2
0
,
H
0
=
2
=
2
0
contre H
1
=
2
=
2
0
.
III.3.7 Analyse des donnees reelles
On choisit le mod`ele { = ^(,
2
), R, > 0. On obtient lestimation de (,
2
) `a
laide de ( x
n
, s
2
n
) :
x
n
=
1
n
n

i=1
x
i
= 22.9 et s
2
n
=
1
n 1
n

i=1
(x
i
x
n
)
2
= 53.0.
Lintervalle de conance de niveau 95% de est donne par
[ x
n
t
n1,1/2
s
n

n
] = [20.2, 25.6].
La p-valeur associee au test de region critique (III.1), denie par (III.2), est pour
0
= 20,
p-valeur = P([Z[
obs
n
) = 0.037, o` u
n
=

n
x
n

0
s
n
= 2.18.
En particulier on rejette H
0
= =
0
au niveau de 5%.
III.3.8 Approche bayesienne
Comme pour le cas discret (voir le paragraphe II.7), relevons que le fait davoir traite
indieremment toutes les valeurs possibles de R et, sil y a lieu, de ]0, +[ est peu
conforme `a la realite experimentale. On peut donc, ici aussi, envisager de munir lespace des
valeurs du param`etre dune probabilite a priori.
Nous nous limitons ici au cas o` u la variance
0
est connue (mod`ele { = ^(,
2
0
),
R) et o` u on adopte pour loi a priori sur une loi normale ^(,
2
) (avec, bien s ur, le
probl`eme pratique du choix de ces param`etres et
2
de la loi a priori, qui sont qualies
dhyperparam`etres). On peut alors calculer la loi a posteriori, une fois observee une suite
(x
1
, . . . , x
n
) de moyenne empirique x
n
; cest la loi ^(

2
0
+n
2
x
n

2
0
+n
2
,

2
0

2
0
+n
2
).
III.4. COMPARAISON DE MOYENNES DE DEUX

ECHANTILLONS GAUSSIENS 45
Toutes les techniques statistiques en decoulent selon les principes vus au paragraphe II.7.
En particulier lestimation bayesienne de est lesperance de la loi a posteriori, cest-` a-dire

2
0
+n
2
x
n

2
0
+n
2
. On constate que, quand n augmente, lestimation seloigne de lesperance de
la loi a priori, , pour converger vers la moyenne empirique x
n
. Ceci sinterpr`ete aisement :
plus on a de donnees, plus leur poids est predominant par rapport `a lidee que lon se faisait
a priori de la valeur de .
III.4 Comparaison de moyennes de deux echantillons gaus-
siens
Nous considerons ici le probl`eme de la comparaison de param`etres relatifs `a deux popula-
tions, au vu de deux echantillons. Nous supposons disposer dobservations reelles, gaussiennes,
de meme variance inconnue, et de moyennes eventuellement dierentes, sur lesquelles vont
porter les hypoth`eses nulles `a tester. Cette situation peut etre vue comme un cas simple de
lanalyse de la variance traitee en III.5, et on peut se reporter en III.1 et `a la section suivante
pour un exemple de problematique.
Lobservation consiste en deux echantillons independants entre eux (non apparies)
(X
1,1
, . . . , X
1,n
1
) i.i.d. ^(
1
,
2
)
(X
2,1
, . . . , X
2,n
2
) i.i.d. ^(
2
,
2
),
et on souhaite tester, par exemple,
H
0
=
1
=
2
contre H
1
=
1
=
2
.
Comme dans le cas de la comparaison de proportions fondee sur des echantillons non apparies
(voir IV.4.2), il est pratique de faire porter le test sur lhypoth`ese nulle equivalente
H
0
=
1

2
= 0.
Puisque lon a fait lhypoth`ese de modelisation que les deux populations sont de meme va-
riance
2
(hypoth`ese simplicatrice, mais qui sera egalement celle de lanalyse de la variance),
la loi de la statistique dinteret, dierence des moyennes empiriques des deux populations,
est donc

X
1


X
2
^

2
,
2

1
n
1
+
1
n
2

,
o` u

X
i
=

n
i
j=1
X
i,j
/n
i
, i = 1, 2. Notons alors S
2
1
et S
2
2
les variances empiriques sans biais des
deux populations, autrement dit (n
i
1)S
2
i
=

n
i
j=1
(X
i,j


X
i
)
2
, i = 1, 2. En appliquant le
resultat de la proposition III.7 (ii) `a chaque echantillon on obtient leurs lois : (n
i
1)S
2
i

2
(n
i
1), i = 1, 2. Les statistiques S
1
et S
2
etant independantes, on en deduit (voir X.2.2,
p. 246) que
U
2
= (n
1
1)S
2
1
+ (n
2
1)S
2
2

2

2
(n
1
+n
2
2),
autrement dit U
2
/
2

2
(n
1
+n
2
2) et donc U
2
/(n
1
+n
2
2) est un estimateur sans biais
de
2
. La loi de (

X
1


X
2
) centree reduite est
Z =
(

X
1


X
2
) (
1

2
)

1/n
1
+ 1/n
2
^(0, 1),
46 CHAPITRE III. MOD
`
ELE LIN

EAIRE GAUSSIEN
et elle est independante de U
2
(puisque

X
i
est independante de S
2
i
, i = 1, 2 par le theor`eme
de Cochran). Le rapport de ces deux v.a. convenablement normalise, voir la denition III.4,
suit donc une loi de Student. Or dans ce rapport le param`etre de nuisance
2
selimine :
Z

n
1
+n
2
2
U/
=
(

X
1


X
2
(
1

2
))

n
1
+n
2
2
U

1/n
1
+ 1/n
2
t(n
1
+n
2
2).
Cette statistique est utilisable pour construire des intervalles de conance pour
1

2
,
selon la procedure decrite au chapitre I. Elle sert egalement `a construire selon la procedure
habituelle des tests relatifs `a des hypoth`eses portant sur
1

2
. Par exemple, le test de
legalite des moyennes utilise la statistique de test
T =
(

X
1


X
2
)

n
1
+n
2
2
U

1/n
1
+ 1/n
2
.
Sous H
0
, T suit la loi de Student `a n
1
+n
2
2 degre de liberte, t(n
1
+n
2
2). Cette statistique
a tendance `a seloigner de 0 lorsque [
1

2
[ crot. Le test de niveau rejette donc H
0
lorsque [T[ > t
n
1
+n
2
2,1/2
. Si lon observe la valeur t pour la v.a. T, la p-valeur pour ce
test est donnee par P([T[ > t), o` u T t(n
1
+n
2
2).
Exemple III.12. Reprenons lexemple III.1, et supposons que lon ne dispose que des
donnees relatives aux forets 1 et 2. Le test de legalite des moyennes de ces forets donne :

X
1
= 25.97, S
1
= 1.36,

X
2
= 25.38, S
2
= 1.77, et t = 0.9542.
Cela correspond `a la p-valeur
p
= 0.3491. On ne peut pas rejeter H
0
(egalite des deux
moyennes) `a tous les niveaux usuels (1%, 5%, 10%).

III.5 Analyse de la variance `a un facteur


III.5.1 Comparaison de plusieurs echantillons gaussiens
La problematique qui conduit au mod`ele lineaire gaussien, et plus precisement `a lanalyse
de variance a dej`a ete introduite sur lexemple III.1 des forets. Voici un autre contexte donnant
lieu `a la meme modelisation.
Une situation classique, par exemple en agronomie, consiste en levaluation du rendement
de plusieurs varietes de ble et en la comparaison de ces rendements. Si lon souhaite comparer k
varietes de ble (V
1
, . . . , V
k
), et que lon dispose de n parcelles identiques sur lesquelles on
peut planter les dierentes varietes, on peut realiser lexperience suivante :
1. regrouper au hasard les n parcelles en k groupes, deectifs n
1
, n
2
, . . . , n
k
, de sorte que

k
i=1
n
i
= n, les n
i
, i = 1, . . . , k netant pas necessairement egaux ;
2. sur les n
i
parcelles du i-`eme groupe, planter la variete V
i
et observer les rendements
X
i,1
, . . . , X
i,n
i
.
Il est alors raisonnable de supposer que le rendement observe sur une parcelle sur laquelle
a ete plantee la variete V
i
est la somme dun eet moyen d u `a la variete de ble, et dun
ensemble de facteurs imprevisibles, les perturbations, que lon modelise par les realisations
III.5. ANALYSE DE LA VARIANCE
`
A UN FACTEUR 47
dune v.a. centree. Dans cet exemple, les perturbations aleatoires representent les variations
entre parcelles dues au sol, au climat, `a la mani`ere de semer. . . On admet frequemment que
ces perturbations sont convenablement modelisees par une loi gaussienne (car resultant de
laddition de nombreux eets), et que lamplitude de ces perturbations est la meme pour
toutes les experiences (hypoth`ese dite dhomoscedasticite).
Ces considerations conduisent `a poser
X
i,j
= m
i
+
i,j
, i = 1, . . . , k, j = 1, . . . , n
i
,
o` u m
i
est le rendement moyen de la variete V
i
, qui est inconnu, et les
i,j
sont des v.a.
independantes de loi ^(0,
2
), o` u
2
> 0 est inconnu egalement. Autrement dit, les (
i,j
)
forment un n-echantillon de la loi ^(0,
2
).
Notation vectorielle
Rangeons les
i,j
en colonne par groupes, et notons le vecteur de R
n
obtenu. Ce vecteur
aleatoire
=

1,1
, . . . ,
1,n
1
,
2,1
, . . . ,
2,n
2
, . . . . . . ,
k,1
, . . . ,
k,n
k

t
est un vecteur gaussien de loi ^(0,
2
I
n
) (o` u I
n
est la matrice identite `a n lignes et n colonnes,
voir X.2.2, p.245). De meme, on note X le vecteur des n observations rangees dans le meme
ordre :
X =

X
1,1
, . . . , X
1,n
1
, X
2,1
, . . . , X
2,n
2
, . . . . . . , X
k,1
, . . . , X
k,n
k

t
,
et le vecteur des eets moyens associes aux observations :
=

m
1
, . . . , m
1
. .. .
n
1
, m
2
, . . . , m
2
. .. .
n
2
, . . . . . . , m
k
, . . . , m
k
. .. .
n
k

t
,
(on rappelle que
t
designe la transposition, de sorte que X et sont des matrices `a n lignes
et 1 colonne). Le mod`ele secrit alors vectoriellement sous la forme observation = moyenne
+ bruit :
X = +, R
n
, ^(0,
2
I
n
),
autrement dit X ^(,
2
I
n
), et le vecteur se trouve ici appartenir `a un sous-espace
vectoriel de R
n
de dimension k < n, si bien que le param`etre inconnu du mod`ele, (,
2
),
consiste en k + 1 param`etres reels (avec
2
> 0).
Test
Plus que lestimation de ces param`etres inconnus, le probl`eme qui se pose souvent `a
lagronome est celui du test de lhypoth`ese nulle H
0
: le facteur variete de ble na pas
deet, aussi appele test dhomogeneite des moyennes :
H
0
: m
1
= m
2
= = m
k
contre H
1
:cest faux.
Lagronome choisit cette hypoth`ese nulle car les donnees lui font penser quil y a au contraire
une dierence entre les varietes de ble. Il envisage donc de rejeter H
0
an de seorcer den
deduire ensuite la (les) variete(s) signicativement la (les) meilleure(s), et ce rejet de H
0
a des
consequences importantes puisquil lui faudra ensuite, par exemple, distribuer `a ses clients la
variete jugee meilleure et retirer les autres. Le niveau du test borne ainsi la probabilite que
cette decision co uteuse soit prise `a mauvais escient.
48 CHAPITRE III. MOD
`
ELE LIN

EAIRE GAUSSIEN
III.5.2 Cadre general du mod`ele lineaire gaussien
Lintroduction generale et lexemple precedent permettent de degager le cadre formel ci-
dessous. On eectue n observations X = (X
1
, . . . , X
n
), et chaque observation est laddition
dun eet moyen et dun bruit. Si on consid`ere le vecteur des observations X R
n
, le
mod`ele secrit
X = +,
et on fait les hypoth`eses (de mod`ele) suivantes :
M1 leet moyen est inconnu et non observable, mais E, sous espace vectoriel de R
n
,
xe et de dimension k ;
M2 le vecteur aleatoire (non observable) a pour loi ^(0,
2
I
n
) et le param`etre
2
> 0 est
inconnu.
Estimation
Ayant observe X, le point de E le plus proche de X est sa projection sur E, X
E
= +
E
,
qui est lestimateur intuitif de . La projection sur lorthogonal de E, X X
E
=
E
ne contient pas dinformation sur (elle est centree) : cest un indicateur de la dispersion
des observations, quil est naturel dutiliser pour estimer
2
. On precise ceci dans le resultat
suivant, consequence directe du theor`eme III.6.
Proposition III.13. On observe X = + avec les hypoth`eses M1 et M2. Alors on a :
(i) X
E
est un estimateur sans biais de .
(ii) [[X X
E
[[
2
/(n k) est un estimateur sans biais de
2
.
(iii) X
E
et X X
E
sont independants.
(iv) [[X
E
[[
2

2

2
(k) et [[X X
E
[[
2

2

2
(n k).
On peut montrer egalement que, pour tout vecteur u R
n
, le produit scalaire 'u, X
E
`
est lestimateur de 'u, ` sans biais de variance minimum.
III.5.3 Repartition de la variation
On peut avoir une idee intuitive des quantites (ou resumes) issues des donnees qui sont
pertinentes au regard de la decision `a prendre (existe-t-il une dierence entre les varietes de
ble ?). Il est ainsi naturel de calculer les moyennes empiriques par groupe et de regarder
si celles-ci sont assez dierentes pour justier le rejet de H
0
. Cette dierence est `a apprecier
relativement `a la dispersion des donnees dans chaque groupe, cest-` a-dire (avec les hypoth`eses
faites sur le mod`ele) relativement au param`etre
2
ou plut ot `a son estimation.
Il est dusage de noter les dierentes moyennes empiriques intervenant en rempla cant par
un point lindice de sommation sur lequel se fait la moyenne. Les moyennes empiriques de
chaque sous-echantillon (groupe) sont donc
X
i,
=
1
n
i
n
i

j=1
X
i,j
, i = 1, . . . , k
III.5. ANALYSE DE LA VARIANCE
`
A UN FACTEUR 49
et la moyenne empirique de toutes les observations (la moyenne generale) est
X
,
=
1
n
k

i=1
n
i

j=1
X
i,j
.
La variation totale des observations est
SST =
k

i=1
n
i

j=1
(X
i,j
X
,
)
2
,
o` u SST est lacronyme utilise par les logiciels de statistique anglo-saxons pour Total Sum of
Squares. Cette variation totale est la somme de la variation interclasses, ecarts entre les
moyennes des groupes et la moyenne generale ponderes par les eectifs des groupes,
SSM =
k

i=1
n
i
(X
i,
X
,
)
2
,
et de la variation intraclasses, donc `a linterieur des groupes,
SSE =
k

i=1
n
i

j=1
(X
i,j
X
i,
)
2
.
Il est intuitivement clair que la variation interclasses sera dautant plus grande que les
moyennes empiriques des groupes seront eloignees les unes des autres. Cette variation in-
terclasses est pour cette raison souvent appelee variation expliquee par le mod`ele, ce
qui justie lacronyme SSM (Sum of Squares for the Model) souvent utilise. De meme, la va-
riation intraclasses mesure sur chaque groupe les ecarts entre les individus et la moyenne de
leur groupe dappartenance. Sous lhypoth`ese dhomoscedasticite, il sagit donc, `a n
i
1 pr`es,
de lestimateur de la variance
2
calcule sur le groupe i, puis somme sur tous les groupes.
Remarquons que dans le cas k = 2 on retrouve la statistique U
2
utilisee en III.4 pour le cas
de deux echantillons. Cette variation intraclasses est pour cette raison souvent appelee va-
riation residuelle, ou encore chez les anglo-saxons SSE pour Sum of Squares of the Error.
Par rapport `a ce que lon a dit plus haut, on voit que plus la quantite SSM sera grande,
plus on aura tendance `a rejeter H
0
, et ceci est `a moduler avec la quantite SSE qui est
liee `a la dispersion. Nous verrons que ces quantites apparaissent dans la statistique du test
dhomogeneite.
III.5.4 Test pour legalite des moyennes de k echantillons gaussiens
Le test de H
0
: le facteur variete de ble na pas deet, que nous avions dej`a exprime
comme le test de legalite des k moyennes des groupes, peut encore sexprimer comme
H
0
= H contre H
1
= E ` H,
o` u H est le sous-espace vectoriel de E auquel appartient sous lhypoth`ese nulle, cest-` a-
dire lorsque nest constitue que dune seule valeur moyenne commune `a tous les groupes ;
50 CHAPITRE III. MOD
`
ELE LIN

EAIRE GAUSSIEN
autrement dit, si on note 1
n
le vecteur dont toutes les composantes valent 1, H = 1
n
, R
qui est de dimension 1.
Sous H
0
, la projection de X sur H est X
H
= +
H
, et donc la projection sur lorthogonal
de H dans E est X
E
X
H
=
E

H
, projection du vecteur gaussien centre , do` u [[X
E

X
H
[[
2

2

2
(k1). Si au contraire on se place dans lhypoth`ese alternative, il se produit un
decentrage puisque X
E
X
H
= (
H
)+(
E

H
). Il est donc naturel dutiliser [[X
E
X
H
[[
2
comme statistique de test puisquelle a tendance `a crotre avec [[
H
[[
2
.
Malheureusement la loi de [[X
E
X
H
[[
2
nest connue sous H
0
qu`a
2
pr`es. On proc`ede
donc comme pour le test de Student, en rempla cant
2
par son estimateur
[[X X
E
[[
2
n k
qui est sans biais quelle que soit la localisation de dans E. Techniquement, ceci revient `a
utiliser la loi dun rapport de v.a. convenablement normalise et dans lequel le param`etre
disparat : les v.a. [[X X
E
[[
2
/
2
et [[X
E
X
H
[[
2
/
2
sont independantes et suivent cha-
cune une loi du chi-deux centree (sous H
0
seulement pour [[X
E
X
H
[[
2
/
2
), donc (voir la
denition III.5)
F =
[[X
E
X
H
[[
2
/k 1
[[X X
E
[[
2
/n k
T(k 1, n k) sous H
0
.
Sous lhypoth`ese alternative [[X
E
X
H
[[
2
/
2
suit une loi du chi-deux decentree, de decentrage
[[
H
[[
2
/
2
. Le numerateur [[X
E
X
H
[[
2
/k 1, comme F, ont tendance `a crotre quand le
param`etre de decentrage augmente (voir X.2.2, p. 246) : F suit une loi de Fisher decentree.
On verie que le decentrage, et donc cette statistique de test, tend vers + lorsque n .
Le test de niveau conduit ainsi `a
rejeter H
0
d`es que F > T
k1,nk,1
,
o` u T
k1,nk,1
est le quantile dordre (1 ) de la loi de Fisher T(k 1, n k).
Pour appliquer ce test, calculons la projection de X sur E. Considerons la base de E
donnee par (1
n
1
, . . . , 1
n
k
), o` u 1
n
i
est le vecteur de R
n
ayant n
i
coordonnees egales `a 1 et
toutes les autres nulles, celles egales `a 1 correspondant au groupe i dans la notation vectorielle
du mod`ele danalyse de la variance, autrement dit :
1
n
1
= (1, . . . , 1
. .. .
n
1
, 0, . . . . . . , 0)
t
,
1
n
2
= (0, . . . , 0
. .. .
n
1
, 1, . . . , 1
. .. .
n
2
, 0, . . . . . . , 0)
t
,
. . .
1
n
k
= (0, . . . . . . , 0, 1, . . . , 1
. .. .
n
k
)
t
,
de sorte que =

k
i=1
m
i
1
n
i
, et X
E
=

k
i=1
X
i,
1
n
i
. On deduit du point (i) de la proposi-
tion III.13 que X
i,
est un estimateur sans biais de m
i
pour i = 1, . . . , k (remarquons que lon
pouvait deduire ce resultat directement de letude faite au chapitre II sur le mod`ele gaussien
III.5. ANALYSE DE LA VARIANCE
`
A UN FACTEUR 51
en raisonnant sous-echantillon par sous-echantillon). Il sensuit que la norme de la projection
sur lorthogonal de E est la residuelle :
[[X X
E
[[
2
=
k

i=1
n
i

j=1
(X
i,j
X
i,
)
2
= SSE.
Dautre part, X
H
= X
,
1
n
, do` u
[[X
E
X
H
[[
2
=
k

i=1
n
i
(X
i,
X
,
)
2
= SSM.
Remarquons enn que SST = [[X X
H
[[
2
, et que SST = SSM +SSE est une consequence
du theor`eme de Pythagore.
Table danalyse de la variance
Les resultats du test de lappartenance de `a H, quand le mod`ele stipule son appartenance
`a E, sont habituellement resumes dans une table danalyse de la variance, dont le format est
`a peu de choses pr`es toujours le meme quel que soit le logiciel de statistique utilise. Dans le
cas du test dhomogeneite, cette table contient les elements suivants :
Variabilite SS DF MS Fisher p-valeur
Interclasse [[X
E
X
H
[[
2
k 1 MSM =
[[X
E
X
H
[[
2
k 1
f =
MSM
MSE
P(F > f)
Intraclasse [[X X
E
[[
2
n k MSE =
[[X X
E
[[
2
n k
Totale [[X X
H
[[
2
n 1
Les acronymes utilises ici sont encore une fois ceux des logiciels de statistique anglo-
saxons : SS pour Sum of Squares, DF pour Degrees of Freedom et MS pour Mean Squares
(MS of the Model pour le carre moyen associe `a la variation interclasses et ME of the Error
pour celui associe `a la variation intraclasses). La p-valeur est P(F > f), calculee lorsque F
suit la loi sous lhypoth`ese nulle T(k 1, n k).
Exemple III.14. Si on reprend lexemple III.1, on obtient la table suivante pour lanalyse
de la variance des hauteurs darbre dans les 3 forets :
Variabilite SS DF MS Fisher p-valeur
Interclasse 49.25 2 24.62 7.18 0.0025
Intraclasse 116.566 34 3.43
Totale 165.82 36
On rejette donc H
0
au niveau usuel de 5%, ainsi que pour tout niveau 0.0025. Leet
du facteur foret est signicatif.
52 CHAPITRE III. MOD
`
ELE LIN

EAIRE GAUSSIEN
Generalisation
Cette technique se generalise `a tous les mod`eles du type
X = +, R
n
, ^(0,
2
I
n
)
o` u il est stipule que E (sous-espace vectoriel de R
n
, de dimension k < n) et o` u lhypoth`ese
nulle est H (sous-espace vectoriel de E, de dimension h < k) ; il sut de remplacer, dans
la table danalyse de la variance ci-dessus, k 1 par k h et alors F suit, sous lhypoth`ese
nulle, la loi T(k h, n k).
III.6 Regression lineaire multiple
Rappel de la problematique
La problematique a ete introduite sur un exemple en III.1. Reprenons-la avec une autre
situation. Il sagit ici de modeliser un phenom`ene aleatoire observe par une combinaison
lineaire ou ane de variables explicatives, dont les valeurs sont deterministes et connues pour
chaque experience (ou observation) realisee. Par exemple, si lon souhaite expliquer la duree
dune certaine maladie (en jours) apr`es ladmission de patients `a lh opital, on peut penser que
cette duree est liee `a certaines variables quantitatives (i.e., `a valeur numeriques). On rel`evera
par exemple les nombres de bacteries de certains types presentes dans lorganisme du patient
`a son arrivee, ainsi que des indicateurs de son etat general (poids, temperature,. . . ).
Si lon dispose de n observations de ces variables explicatives ainsi que de la variable `a
expliquer (lobservation de la variable `a expliquer est donc faite a posteriori dans cet exemple,
lorsque les n patients ont quitte lhopital) on peut etudier la pertinence de cette modelisation
lineaire. Il est possible de tester la signicativite du mod`ele, et celle de certaines variables
explicatives. Il est possible aussi destimer les liens entre variables explicatives et variable `a
expliquer et eventuellement de faire ensuite de la prediction, cest `a dire ici destimer la duree
dhospitalisation dun nouveau patient `a partir de la connaissance des valeurs des variables
explicatives dans son cas.
III.6.1 Denition du mod`ele
On observe un phenom`ene aleatoire X et lon suppose ce phenom`ene inuence par p
variables explicatives ou regresseurs, R
1
, . . . , R
p
. Parfois, X est aussi appelee la variable
dependante, et R
1
, . . . , R
p
les variables independantes (o` u encore, en

Econometrie, X est
appelee la variable exog`ene et les R
j
les variables endog`enes).
On realise n observations, autrement dit X = (X
1
, . . . , X
n
), et on note R
1
i
, . . . , R
p
i
les
conditions experimentales pour la i-`eme observation X
i
, cest `a dire les valeurs (deterministes)
des p regresseurs lors de lexperience i. On fait comme on la dit lhypoth`ese dune relation
lineaire ou ane entre les regresseurs et la variable `a expliquer X et, comme en analyse de
la variance, on suppose observer la somme de leet de ces regresseurs et dun ensemble de
perturbations non observables, que lon resume par un bruit gaussien centre. Ce mod`ele
secrit ainsi
X
i
=
p

j=1

j
R
j
i
+
i
, ou bien X
i
= +
p

j=1

j
R
j
i
+
i
, i = 1, . . . , n,
III.6. R

EGRESSION LIN

EAIRE MULTIPLE 53
o` u = (
1
, . . . ,
n
) est un n-echantillon de la loi ^(0,
2
) (lhypoth`ese dhomoscedasticite est
presente ici aussi, puisque
2
ne depend pas de i). Les param`etres inconnus `a estimer sont
(,
1
, . . . ,
p
,
2
) dans le cas ane (on retire dans le cas lineaire sans constante).
Notation vectorielle
Considerons par exemple le cas ane, et posons
M =

1 R
1
1
R
p
1
.
.
.
.
.
.
.
.
.
1 R
1
n
R
p
n

1
n
R
1
R
p

,
la matrice n(p+1) des regresseurs (la colonne de 1, 1
n
, etant consideree comme un regresseur
particulier lorsquelle gure dans le mod`ele). Posons aussi R
p+1
le param`etre du mod`ele,
o` u = (,
1
, . . . ,
p
)
t
. Le mod`ele secrit vectoriellement :
X = M +, avec M E et ^(0,
2
I
n
),
o` u E = Mu, u R
p+1
est le sous-espace vectoriel de R
n
engendre par les colonnes de M.
Ce mod`ele sinscrit ainsi dans le cadre general du mod`ele lineaire gaussien decrit en III.5.2,
avec adoption des hypoth`eses M1 et M2 qui y ont ete faites.
On suppose que la dimension de E est p + 1, cest `a dire que les p regresseurs et 1
n
sont
lineairement independants, ou ce qui revient au meme que rang(M) = p+1, ou encore que la
matrice symetrique M
T
M est elle-meme de rang p + 1. Cette hypoth`ese nest pas une reelle
perte de generalite puisque, si elle nest pas veriee, cela signie que lun des regresseurs est
combinaison lineaire des autres ; il napporte alors pas dexplication supplementaire et il sut
de le retirer.
Exemple III.15. La regression simple. Cest la situation o` u lon dispose dun seul
regresseur (p = 1) que nous notons simplement R. Le mod`ele secrit
X
i
= +R
i
+
i
, i = 1, . . . , n,
ce qui revient `a dire que X
i
^( + R
i
,
2
). On visualise ce mod`ele dans lespace des
variables (R, X) par le fait que les observations tombent dans un tunnel gaussien dam-
plitude le long de la droite dequation x = +r. Lexemple III.2 des donnees de pluie est
de ce type.

III.6.2 Estimation
On applique dans ce cadre les resultats de la proposition III.13. La projection de X sur E
est lestimateur sans biais de M. Il secrit X
E
= M

, o` u

R
p+1
est lestimateur sans
biais de . Il est tel que XM

est orthogonal `a tout vecteur de E, autrement dit pour tout


vecteur u R
p+1
, 'Mu, X M

` = 0, ce qui donne

= (M
t
M)
1
M
t
X.
54 CHAPITRE III. MOD
`
ELE LIN

EAIRE GAUSSIEN
Remarquons que, si lon note P le projecteur sur E (donc tel que X
E
= PX), celui-ci secrit
P = M(M
t
M)
1
M
t
. La residuelle est [[X X
E
[[
2
= 'X, X X
E
` = X
t
(I P)X, soit
[[X X
E
[[
2
= X
t

I M(M
t
M)
1
M
t

X.
Dapr`es le point (iv) de la proposition III.13, [[X X
E
[[
2

2

n(p +1)

, et lon estime
(sans biais) la variance par

2
=
[[X X
E
[[
2
n (p + 1)
.
Remarque : dans le cas de la regression sans constante, il sut de retirer la colonne 1
n
de M
et de remplacer p + 1 par p.
Variances des estimateurs
On deduit immediatement de lexpression de

que sa matrice de variances-covariances
(voir X.1.3) est
Var(

) =
2
(M
t
M)
1
.
Exemple III.16. La regression simple (suite de lexemple III.15).
Il est facile de mener les calculs `a la main dans le cas de la regression simple. La matrice
des regresseurs est M = [1
n
R], do` u
(M
t
M)
1
=
1
n

n
i=1
(R
i


R)
2

n
i=1
R
2
i

n
i=1
R
i

n
i=1
R
i
n

,
et le calcul de

donne
=
Cov(R, X)
Var(R)
,

=

X

R,
o` u

R =

n
i=1
R
i
/n est la moyenne empirique de R, et
Var(R) =
1
n
n

i=1
(R
i


R)
2
, Cov(R, X) =
1
n
n

i=1
(R
i


R)(X
i


X) =
1
n
n

i=1
R
i
X
i


R

X,
sont les variances et covariances empiriques (qui ont le sens de mesures descriptives ici puisque
R nest pas aleatoire). On peut remarquer que ces estimateurs concident avec les estima-
teurs des moindres carres de la droite de regression de X sur R, cest `a dire la pente
et la constante de la droite dequation X = b + aR qui minimisent les carres des ecarts

n
i=1
(X
i
b aR
i
)
2
.
On deduit immediatement de lexpression de Var(

) lexpression des variances de et



,
ainsi que la covariance entre les deux estimateurs (ils ne sont pas independants). Comme ils
sont des estimateurs sans biais des param`etres quils estiment, et suivent des lois gaussiennes
(car combinaisons lineaires de X), on a nalement :
^

,

2

n
i=1
(R
i


R)
2

,

^

,

2

n
i=1
R
2
i
n

n
i=1
(R
i


R)
2

.
III.6. R

EGRESSION LIN

EAIRE MULTIPLE 55
Le projete est X
E
=

1
n
+ R, et on peut ecrire directement la residuelle
SSE = [[X X
E
[[
2
=
n

i=1
(X
i


R
i
)
2
,
ecarts entre les valeurs observees et les valeurs ajustees par le mod`ele. Elle suit la loi
2

2
(n
2), et lestimateur sans biais de la variance est [[X X
E
[[
2
/(n 2) qui est independant de

.
La connaissance des lois des estimateurs de (, ), qui dependent de
2
, ainsi que de la loi de
lestimateur de
2
et cette propriete dindependance permet de construire des intervalles de
conance ou des tests pour et analogues aux intervalles de conance et tests de Student
construits en III.3.6.

III.6.3 Test de lutilite des regresseurs


Dans le mod`ele X = M + avec p regresseurs et la constante (cas ane), on souhaite
souvent tester lutilite dune partie des regresseurs, autrement dit une hypoth`ese nulle de la
forme
H
0
= R
q+1
, . . . , R
p
sont inutiles contre H
1
= cest faux,
o` u 1 q < p, et o` u on a eventuellement eectue une permutation de lordre des regresseurs.
La contre-hypoth`ese se comprend comme H
1
: lun des R
j
, q +1 j p au moins est utile.
Lhypoth`ese nulle, si elle nest pas rejetee, permet alors de simplier le mod`ele de regression,
en ne conservant quune partie des variables qui etaient a priori explicatives. Les hypoth`eses
peuvent se reformuler comme
H
0
=
j
= 0, j = q + 1, . . . , p contre H
1
= il existe au moins un
j
= 0,
autrement dit comme lappartenance, sous H
0
, de leet moyen `a un sous-espace vectoriel
de E de dimension plus petite, ce qui nous ram`ene `a la methode employee pour le test
dhomogeneite en analyse de la variance (voir le passage Generalisation en III.5.4, p. 49).
En eet, le sous-mod`ele associe `a H
0
secrit X
i
= +

q
j=1

j
R
j
i
+
i
, i = 1, . . . , n, ou
vectoriellement (en indi cant par 0 les quantites qui di`erent sous lhypoth`ese nulle)
X = M
0

0
+, M
0
= [1
n
R
1
R
q
],
0
= (,
1
, . . . ,
q
)
t
,
et donc M
0

0
H = M
0
w : w R
q+1
, o` u H est de dimension q + 1. On teste ainsi
H
0
= M H contre H
1
= M E ` H.
Sous H
0
, on estime leet moyen par la projection de X sur H cest `a dire X
H
= M
0

0
avec

0
= (M
t
0
M
0
)
1
M
t
0
X. On proc`ede ensuite comme pour le test dhomogeneite : sous
H
0
, [[X
E
X
H
[[
2

2

2
(p q) mais est inconnu. On prend le rapport avec la residuelle
normalisee qui, elle, suit toujours la loi
2
(n p 1), pour construire la statistique de test
F =
[[X
E
X
H
[[
2
/(p q)
[[X X
E
[[
2
/(n p 1)
T(p q, n p 1) sous H
0
.
La loi du
2
du numerateur (normalise convenablement) se decentre sous lhypoth`ese alter-
native, do` u le test au niveau qui conduit `a
rejeter H
0
d`es que F > T
pq,np1,1
.
56 CHAPITRE III. MOD
`
ELE LIN

EAIRE GAUSSIEN
Table danalyse de la variance pour le mod`ele de regression
Lorsquils traitent un mod`ele de regression, la plupart des logiciels de statistique calculent
les estimateurs des param`etres et eectuent des tests individuels de nullite de ces param`etres
(p tests de Student de H
0
:
j
= 0, j = 1, . . . , p, fondes sur les lois que nous avons donne
plus haut). Ils fournissent egalement une table danalyse de variance associee au mod`ele de
regression. Il sagit du resultat du test de Fisher pour lhypoth`ese nulle pas de mod`ele de
regression, autrement dit aucun regresseur nest signicatif. Cest la realisation du test
ci-dessus pour H = 1
n
, R.
Coecient de determination
Lorsque il y a une constante dans la regression, on appelle coecient de determination,
ou R
2
, le nombre
R
2
=
[[X
E


X1
n
[[
2
[[X

X1
n
[[
2
[0, 1].
Cest un indicateur de la qualite de la regression : plus le R
2
est proche de 1, meilleure est
ladequation du mod`ele aux donnees (on parle aussi de pourcentage de la variabilite expliquee
par le mod`ele de regression).
Remarquons que pour le test de Fisher associe `a lhypoth`ese nulle aucun regresseur
nest signicatif, le sous-espace vectoriel H est celui engendre par 1
n
ce qui entrane que
X
H
=

X1
n
. Dans ce cas il existe un lien simple entre le R
2
et la statistique du test de Fisher :
F =
(n (p + 1))
p
R
2
1 R
2
.
Exemple III.17. La regression simple, (suite et n de lexemple III.16).
Nous terminons letude detaillee de la regression simple avec le test de non eet du seul
regresseur present dans le mod`ele :
H
0
= = 0 contre H
1
= = 0.
Remarquons que, ici, il est possible de construire ce test de deux mani`eres : `a partir de la loi
de en utilisant la loi de Student (qui provient, rappelons-le, de lobligation destimer
2
par
la residuelle), ou bien `a partir du test de Fisher. On verie que les statistiques de ces deux
tests sont liees par la relation F = T
2
, et ils donnent la meme p-valeur. Nous allons utiliser
ici la seconde methode.
Sous H
0
, le mod`ele est simplement X = 1
n
+ (il sagit donc dun n-echantillon de
^(,
2
)), et X
H
=

X1
n
. Nous avons dej`a precise lexpression de la residuelle dans ce cas.
La somme des carres du mod`ele est
SSM = [[X
E
X
H
[[
2
=
n

i=1
(

+ R
i


X)
2
,
et la statistique de test
F =
[[X
E
X
H
[[
2
[[X X
E
[[
2
/(n 2)
T(1, n 2) sous H
0
.
III.6. R

EGRESSION LIN

EAIRE MULTIPLE 57
On rejette donc H
0
au niveau si F > T
1,n2,1
. Enn, si on a observe la valeur f de la
statistique F, la p-valeur de ce test est P(F > f), o` u F T(1, n 2).
Dans le cas de la regression simple, le coecient de determination R
2
= SSM/SST est
aussi le carre du coecient de correlation entre X et R.

Exemple III.18. Si on reprend lexemple III.2, on obtient les resultats suivants :


Les estimations des param`etres valent : = 4.55 et

= 128.07. Sur le graphique
(g. III.2) on a represente la droite de regression.
120 130 140 150 160 170 180 190 200 210
400
450
500
550
600
650
700
750
800
850
900
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
Fig. III.2 Droite de regression sur le nuage de points
Les intervalles de conance de Student sont : I
0.05
() = [3.40; 5.70] et I
0.05
() =
[322; 66]
Le calcul du R
2
et du test de H
0
= = 0 donnent :
R
2
Fisher p-valeur
0.6294 64.52 < 10
4
donc on rejette clairement H
0
.

III.6.4 Analyse des residus et des observations


Il peut arriver que le mod`ele soit inuence par des observations atypiques ou suspectes.
Cela peut entrainer des interpretations et des conclusions erronees. Un moyen raisonnable
pour se premunir de ce type de probl`emes est de realiser une analyse des residus et des
observations.
Un residu e
i
correspond `a lecart entre lobservation X
i
et son estimation

X
i
(avec

X = M

= M(M
t
M)
1
M
t
X) : e
i
= X
i


X
i
. Cependant, la valeur de ces residus simples
dependent de lechelle des valeurs prises par la variable `a expliquer. Pour y remedier, il sut
de reduire chaque residu par lecart-type des residus : (il ny a pas besoin de les centrer, car
58 CHAPITRE III. MOD
`
ELE LIN

EAIRE GAUSSIEN
leur moyenne est nulle par construction du crit`ere des moindres carres). Ce nouveau residu
(nomme residu reduit ou standardise) vaut : e
si
= e
i
/ .
Cependant ces residus reduits nous renseignent seulement au niveau individuel. En dautres
termes, ils ne nous permettent pas de les comparer entre eux. Pour cela, il faudrait obtenir
un autre residu eliminant leet individuel. La reponse est donnee par une mesure nommee
levier (leverage en anglais) qui permet didentier des observations inuentes dans le sens
des variables candidates `a lexplication, alors leet de levier peut avoir une forte inuence
sur les resultats. Pour une observation particuli`ere (R
i
, X
i
), limpact de celle-ci sur la droite
des moindres carres peut etre determine gr ace `a la formule de prediction de X
i
par R
i
:

X = M

= M(M
t
M)
1
M
t
X. On note H = M(M
t
M)
1
M
t
la matrice destimation (ap-
pelee aussi matrice hat). On pose H = (H
i,j
; 1 i, j n). De cette expression, on peut
constater que chaque valeur

X
i
correspond `a une combinaison lineaire ponderee des observa-
tions X = (X
1
, ..., X
n
), o` u chaque H
ij
est le poids attribue `a chaque X
i
.
Exemple III.19. La regression simple (suite de lexemple III.16). On a
H
ij
= 1/n +
(R
i


R)(R
j


R)
n

j=1
(R
j


R)
2
. (III.3)
En particulier, on voit que plus un point R
i
est loin du centre de gravite des variables
explicatives (la moyenne

R), plus le poids correspondant `a X
j
est eleve, et inuence donc la
determination de

X
i
. Par contre, les estimations des Xs seront dautant moins inuencees
que leur R associe sera proche de

R. Il est clair egalement que chaque X
j
a un impact sur

X
i
, cest-` a-dire quune valeur extreme de R
j
inuencera tous les

X
i
.
La droite des moindres carres est tr`es sensible aux points extremes. On dit quelle nest
pas robuste. Il sut de le verier en dimension un, pour sen convaincre.
En pratique, il est plut ot interessant de considerer H
ii
(elements de la diagonale de la
matrice H) qui traduit linuence de X
i
sur

X
i
.
On se place `a partir de maintenant dans le cas de la regression simple, cf les exemples
III.15, III.16 et III.19. On a
H
ij
=
1
n
+
(R
i


R)
2
n

j=1
(R
j


R)
2
.
Quand le levier H
ii
est eleve,

X
i
est plus sensible `a des changements en X
i
que lorsque H
ii
est
relativement petit (R
i
est proche de

R). En eet, ceci se concretise en recrivant le coecient
de la pente sous la forme suivante :
=
n

i=1
(R
i


R)(X
i


X)
n

i=1
(R
i


R)
2
=
n

i=1
(R
i


R)
2
n

j=1
(R
j


R)
2
(X
i


X)
(R
i


R)
=
n

i=1
(H
ii

1
n
)
(X
i


X)
(R
i


R)
.
Par consequent revient `a une moyenne ponderee des pentes individuelles :
(X
i


X)
(R
i


R)
par
le levier H
ii

1
n
.
III.6. R

EGRESSION LIN

EAIRE MULTIPLE 59
Ce levier va nous permettre de construire un residu dans lequel leet individuel a ete
retire. Comme nous lavons vu precedemment, nous pouvons ecrire matriciellement

X = HX.
Par consequent, le vecteur des residus e
i
peut etre reecrit comme suit : XHX = (I H)X
o` u I est la matrice identite. On peut montrer que la variance des e
i
(on a E(e
i
) = 0, par
construction des moindres carres) : Var(e
i
) =
2
(1 H
ii
). Par consequent, le nouveau residu
reduit estime, nomme residu approxime (ou residu studentise), vaut :
e
si
=
e
i

1 H
ii
.
Une observation i sera mal reconstituee par le mod`ele, si le residu approxime est trop grand
en valeur absolue. En identiant la loi des e
si
`a une loi Normale centree reduite, on choisit
couramment un seuil critique de 2 ecarts-types, mais on peut prendre aussi 2,5 ou 3 ecarts-
types.
Bien que plus correct que les deux precedents residus, le residu approxime ne tient pas
compte du fait que chaque e
i
nest pas independant de
2
. Dailleurs, les residus approximes
sont parfois appeles : residus studentises internes. Pour pallier cet inconvenient, un autre
residu a ete introduit et est nomme residu studentise ou Rstudent (parfois residu studen-
tise externe, car leet de la dependance discutee plus haut est gomme). Pour cela, il sut
deliminer le residu e
i
correspondant `a lobservation i, mais pas nimporte comment. En eet,
on calcule tout dabord une nouvelle regression sans lobservation i, alors on obtient une
nouvelle variance corrigee des residus (independante de lobservation i) :

2
(i)
= ((n 2)
2
e
2
i
/(1 H
ii
))/(n 3).
En fait, cette formule permet de ne pas recalculer autant de regressions quil y a dobservations
dans notre echantillon, et de tenir compte sur les n couples estimes des coecients (

, ), de
lelimination individuelle dun couple dobservations (X
i
, R
i
). Enn, on divise par (n3), car
on a enleve une observation. Le Rstudent, pour chaque individu i, prend la forme suivante :
e
ti
=
e
i

(i)

1 H
ii
.
Lavantage de cette nouvelle mesure est lon peut eectuer un test statistique sur chaque
RStudent. En eet, si lanalyste veut verier que lobservation i est un point non inuent,
alors sous cette hypoth`ese, la realisation dun Rstudent doit etre issue dune loi de Student
`a (n 3) degres de liberte : H
0
: i nest pas atypique contre H
1
: i est atypique.
On choisit alors un risque derreur de rejeter H
0
, alors quelle est vraie. Par exemple,
pour = 0.05, si t
n3
(0.975) est le quantile dordre 1/2 de la loi de student de param`etre
n 3, alors la r`egle de decision est la suivante : si [e
ti
[ > [t
n3
(0.975)[ alors `a un seuil 5%,
lobservation i peut etre considerer comme inuen cant fortement la droite des moindres carres.
Cela permet aussi de construire un intervalle, hors duquel, les observations sont atypiques au
mod`ele : [t
n3
(0.975), t
n3
(0.975)].
Un autre indicateur nomme DFts permet aussi de mesurer linuence globale de chaque
observation (X
i
, R
i
) sur le mod`ele car ils sont plus riches que le levier qui ne permet que de
detecter linuence des X
i
. Il est deni par
DFts
i
=

X
i


X
i(i)

(i)

H
ii
,
60 CHAPITRE III. MOD
`
ELE LIN

EAIRE GAUSSIEN
o` u

X
i(i)
correspond `a lestimation de la reponse X
i
avec les coecients de la regression calcules
sans le point i. Celle-ci peut etre reecrite de la fa con suivante :
DFts
i
=

h
i
(1 h
i
)
e
ti
.
Plusieurs r`egles empiriques sont egalement proposees pour determiner les observations in-
uentes : si un DFts est eleve alors lobservation i sera juge inuen cant la pente de la droite
des moindres carres.
Ces indicateurs doivent etre utilises avec prudence. Ils representent seulement des aides `a
la decision.
III.7 Resume
III.7.1 Le mod`ele gaussien `a variance connue
1. Mod`ele : (X
k
, 1 k n) suite de v.a. i.i.d. de loi gaussienne `a variance,
2
0
, connue :
{ = ^(,
2
0
), R.
2. H
0
= =
0
, H
1
= =
0
, avec
0
R.
3. Statistique de test :
n
=

X
n

0
.
4. Loi sous H
0
: ^(0, 1).
5. Loi sous H
1
: gaussienne reduite decentree.
6. Region critique : W
n
= [
n
[ a.
7. Niveau exact : a =
1/2
, o` u
1/2
est le quantile dordre 1 /2 de ^(0, 1).
8. Test convergent.
9. p-valeur : P([G[ [
obs
n
[) o` u G de loi ^(0, 1).
10. Variante : H
0
=
0
, H
1
= >
0
. Meme statistique de test. Region critique :
W
n
=
n
a. Niveau exact : a =
1
. Test convergent. p-valeur : P(G
obs
n
).
III.7.2 Le mod`ele gaussien `a variance inconnue
1. Mod`ele : (X
k
, 1 k n) suite de v.a. i.i.d. de loi gaussienne : { = ^(,
2
),
R, > 0.
2. H
0
= =
0
, H
1
= =
0
, avec
0
R.
3. Statistique de test :
n
=

X
n

0
S
n
.
4. Loi sous H
0
: Student de param`etre n 1.
5. Comportement asymptotique sous H
1
:
n
converge p.s. vers ou +.
6. Region critique : W
n
= [
n
[ a.
7. Niveau exact : a = t
n1,1/2
, o` u t
n1,1/2
est le quantile dordre 1 /2 de la loi
de Student de param`etre n 1.
8. Test convergent.
III.7. R

ESUM

E 61
9. p-valeur : P([T[
obs
n
) o` u T de loi de Student de param`etre n 1.
10. Variante : H
0
=
0
, H
1
= >
0
. Region critique : W
n
=
n
a. Niveau
exact : a = t
n1,1
. Test convergent. p-valeur : P(T
obs
n
).
III.7.3 Comparaison de moyennes de deux echantillons gaussiens
1. Mod`ele : deux suites independantes de v.a. independantes (X
1,1
, . . . , X
1,n
1
), de meme
loi ^(
1
,
2
), et (X
2,1
, . . . , X
2,n
2
), de meme loi ^(
2
,
2
), avec
1
,
2
R et > 0.
2. H
0
=
1
=
2
, H
1
=
1
=
2
.
3. Statistique de test : T
n
1
,n
2
=
(

X
1


X
2
)

n
1
+n
2
2
U
n
1
,n
2

1/n
1
+ 1/n
2
, avec U
2
n
1
,n
2
=

n
1
j=1
(X
1,j

X
1
)
2
+

n
2
j=1
(X
2,j


X
2
)
2
et

X
i
=
1
n
i
n
i

j=1
X
i,j
pour i 1, 2.
4. Loi sous H
0
: Student de param`etre n
1
+n
2
2.
5. Comportement asymptotique sous H
1
quand min(n
1
, n
2
) tend vers linni : T
n
1
,n
2
converge p.s. vers ou +.
6. Region critique : W
n
1
,n
2
= [T
n
1
,n
2
[ a.
7. Niveau exact : a = t
n
1
+n
2
2,1/2
, o` u t
n,1/2
est le quantile dordre 1 /2 de la
loi de Student de param`etre n.
8. Test convergent.
9. p-valeur : P([T[ [T
obs
n
1
,n
2
[) o` u T de loi de Student de param`etre n
1
+n
2
2.
III.7.4 Analyse de la variance `a un facteur
1. Mod`ele : pour i = 1 . . . k, j = 1 . . . n
i
,
X
ij
= m
i
+
i,j
,
et les n =

k
i=1
n
i
v.a.
i,j
sont i.i.d. de loi ^(0,
2
). Les niveaux du facteur dinteret
m
1
, . . . , m
k
R, et la variance
2
]0, +[ sont inconnues.
2. H
0
= m
1
= . . . = m
k
(le facteur na pas dinuence),
H
1
= i = j; m
i
= m
j
, (au moins un des niveaux du facteur a de linuence).
3. Statistique de test : F =
[[X
E
X
H
[[
2
/k 1
[[X X
E
[[
2
/n k
, o` u
[[X
E
X
H
[[
2
=
k

i=1
n
i
(X
i,
X
,
)
2
= SSM,
[[X X
E
[[
2
=
k

i=1
n
i

j=1
(X
i,j
X
i,
)
2
= SSE.
4. Comportement sous H
0
: F suit une loi de Fischer : T(k 1, n k).
5. Comportement sous H
1
: F quand n
i
pour i = 1 . . . k.
62 CHAPITRE III. MOD
`
ELE LIN

EAIRE GAUSSIEN
6. Region critique : W
n
= F > a.
7. Niveau : a = T
k1,nk,1
, o` u T
k1,nk,1
est le quantile dordre 1 de la loi de
Fisher T(k 1, n k).
8. Le test est convergent.
9. p-valeur : P(F f
obs
).
10. Le test est resume par la table danalyse de la variance :
Variabilite SS DF MS Fisher p-valeur
Interclasse [[X
E
X
H
[[
2
k 1 MSM =
[[X
E
X
H
[[
2
k 1
f =
MSM
MSE
P(F > f
obs
)
Intraclasse [[X X
E
[[
2
n k MSE =
[[X X
E
[[
2
n k
Totale [[X X
H
[[
2
n 1
III.7.5 Regression multiple
1. Mod`ele : pour i = 1 . . . n
X
i
= +
p

j=1

j
R
j
i
+
i
.
Les v.a.
i
, i = 1 . . . n sont i.i.d. de loi ^(0,
2
). Les coecients de la regression
,
1
, . . . ,
p
et la variance
2
sont inconnues.
2. H
0
=
q+1
= . . . =
p
= 0 (les p q regresseurs R
q+1
, . . . , R
p
sont inutiles),
H
1
= j q +1, . . . , p,
j
= 0 (un au moins des p q regresseurs R
q+1
, . . . , R
p
est
utile).
3. Statistique de test :
F =
[[X
E
X
H
[[
2
/(p q)
[[X X
E
[[
2
/(n p 1)
,
o` u X
E
est la projection orthogonale de X sur lespace vectoriel, E, engendre par
1, R
1
, . . . , R
p
, et X
H
est la projection orthogonale de X sur lespace vectoriel, H, en-
gendre par 1, R
1
, . . . , R
q
.
4. Comportement sous H
0
: F suit une loi de Fischer : T(p q, n p 1).
5. Comportement sous H
1
: F quand n .
6. Region critique : W
n
= F > a.
7. Niveau : a = T
pq,np1,1
, o` u T
pq,np1,1
est le quantile dordre 1 de la loi
de Fisher T(p q, n p 1).
8. Le test est convergent.
9. p-valeur : P(F f
obs
).
Chapitre IV
Mod`eles discrets
IV.1 Problematique des mod`eles discrets
Est-ce que ce de est pipe ?
Est-ce que les etudes des enfants dependent de la categorie socioprofessionnelle du p`ere ?
Est-ce que lage inuence la presence de maladie cardiaque ?
Est-ce que le nouveau traitement medical est plus ecace que le precedent ?
Pour repondre `a ces quatre probl`emes bien reels, il est non seulement necessaire de disposer
de donnees, mais aussi de mod`eles statistiques adequats et de tests statistiques associes. Ici,
les donnees sont discr`etes. Elles sont egalement nommees qualitatives ou encore categorielles.
Dans le premier probl`eme, il y a six modalites (les six faces numerotees, mais il pourrait
tr`es bien sagir de couleurs). Si le de nest pas pipe, la probabilite dapparition de chaque face
doit etre proche de 1/6, ce sera notre hypoth`ese nulle. Lexperience consistera `a lancer ce
de un certain nombre de fois, et `a evaluer la proportion observee dapparition de chaque face.
On comparera alors la distribution observee (les six proportions observees) `a la distribution
theorique (les probabilites egales ` a 1/6). Pour cela, nous utiliserons un test dadequation `a une
loi discr`ete, o` u la statistique du
2
associee mesure la distance entre ces deux distributions.
Dans le deuxi`eme exemple, les categories socioprofessionnelles (CSP) et les types detude
correspondent `a des noms. Les donnees sont generalement presentees sous forme dun tableau
`a double entrees croisant ces deux variables. Les marges horizontale et verticale representent
respectivement les distributions des proportions observees des CSP et des types detude, alors
qu`a linterieur du tableau les cases sont relatives `a la distribution croisee observee. Pour
tester lindependance de ces deux variables (ce sera notre hypoth`ese nulle), on peut utiliser la
statistique du
2
dindependance qui mesure la distance entre la distribution croisee observee
et le produit des deux distributions marginales.
Dans le troisi`eme exemple, la maladie cardiaque est soit presente, soit absente (type
booleen), par contre lage est exprime numeriquement en annee. Pour chaque age, on consid`ere
quil y a une probabilite davoir une maladie cardiaque. Lobjectif est alors de rechercher si
cette probabilite crot ou decrot signicativement avec lage. Notre hypoth`ese nulle corres-
pondra `a labsence dune liaison. Cette analyse suit la meme demarche vue au chapitre III
dans le cadre du mod`ele lineaire gaussien, la seule dierence est que la variable `a expliquer
est booleenne, `a la place detre numerique. La methode est nommee regression logistique.
63
64 CHAPITRE IV. MOD
`
ELES DISCRETS
Dans le dernier probl`eme, leet du nouveau traitement peut sexprimer en terme de
succ`es ou dechec. Pour realiser le test, une solution raisonnable est de mesurer la proportion
de succ`es (ou dechecs) dans deux echantillons (apparies ou non apparies comme nous le
verrons par la suite). Lhypoth`ese nulle sera relative `a labsence deet du traitement, cest-
`a-dire `a legalite statistique des deux proportions. Ce test est nomme : comparaison de deux
proportions.
IV.2 Tests du
2
IV.2.1 Test dadequation `a une loi discr`ete
Le probl`eme
On observe n v.a. (X
i
)
1in
, independantes et de meme loi, `a valeurs dans un espace
ni A = a
1
, . . . , a
k
. Cette loi, inconnue, est caracterisee par la suite p = (p
1
, . . . p
k
) (avec

k
j=1
p
j
= 1), o` u pour tout j = 1, . . . , k, la quantite p
j
designe la probabilite dobserver a
j
(independante de i en raison de lidentique distribution des X
i
) ; soit p
j
= P(X
i
= a
j
). La loi
jointe du n-uplet X = (X
i
)
1in
est : pour tout (x
1
, , x
n
) A
n
,
P
p
(X
i
= x
i
, 1 i n) =
n

i=1
P
p
(X
i
= x
i
) =
k

j=1
p
card({i ; x
i
=a
j
})
j
.
Remarque IV.1. Il en est ainsi, par exemple, si on proc`ede `a un sondage dans une po-
pulation divisee en k categories, les tirages des n individus pouvant etre consideres comme
independants, et, `a chaque fois, la probabilite detre dans une categorie donnee etant egale `a
la proportion (inconnue) dindividus de cette categorie dans la population totale. Cest bien
le cas si on eectue des tirages avec remises et brassage de la population, mais un tel
mod`ele durne, quoique traditionnel, nest pas tr`es realiste. Cependant, on peut considerer
quon est approximativement dans le mod`ele propose si on fait porter le tirage sur des indivi-
dus distincts (tirage sans remise) mais dans un contexte o` u la taille totale de la population
est tr`es grande par rapport `a celle de lechantillon.

On avance lhypoth`ese que le param`etre est p


0
= (p
0
1
, . . . , p
0
k
), o` u p
0
j
> 0, pour tout
j = 1, . . . , k. Le but est de tester, `a un niveau donne , cette hypoth`ese nulle
simple, H
0
= p = p
0
, contre lhypoth`ese alternative H
1
= p = p
0
.
Intuitions
Pour tout j = 1, . . . , k on note N
j
= card(i : X
i
= a
j
) =

n
i=1
1
{X
i
=a
j
}
la variable
aleatoire de comptage du nombres de fois o` u letat a
j
est visite par les v.a. X
i
, i = 1, . . . , n.
La v.a. N
j
suit une loi binomiale (voir X.2.1, p. 242) de param`etres (n, p
j
). On rappelle que
E[N
j
] = np
j
, que la v.a.

P
j
=
N
j
n
est un estimateur convergent sans biais de p
j
(voir le
chapitre II).
Il y a donc lieu de penser que, sil est vrai que p = p
0
, la suite des eectifs observes
n
j
= card(i : x
i
= a
j
) sera telle que la suite des frequences observees, p = ( p
1
, . . . , p
k
) =
IV.2. TESTS DU
2
65
(
n
1
n
, . . . ,
n
k
n
), sera proche (en raison de la loi forte des grands nombres citee prec`edemment)
de la suite mise en test p
0
= (p
0
1
, . . . , p
0
k
).
Avec cette notation, il vient que P
p
(X
i
= x
i
, 1 i n) =

k
j=1
p
n
j
j
, ce qui met
en evidence, par la methode de Halmos-Savage (voir le theor`eme II.19), que la v.a. k-
dimensionnelle N = (N
j
)
1jk
est exhaustive, ce qui justie que nous fassions porter
notre test sur cette suite des eectifs observes, ou, ce qui revient au meme, sur la suite
des frequences observees

P = (

P
j
)
1jk
. La loi de N est la loi multinomiale de param`etres n
et p = (p
1
, . . . , p
k
), notee (n, p) (voir X.2.1, p. 243). On peut verier que

P est lestimation
par maximum de vraisemblance de p.
On souhaite donc pouvoir caracteriser une distance entre la suite des frequences ob-
servees p et la suite des frequences theoriques p
0
, de mani`ere `a rejeter lhypoth`ese nulle
si cette distance est superieure ` a une certaine valeur fronti`ere. Pour realiser ce programme,
il faut que :
la loi, sous lhypoth`ese nulle, de cette distance soit (au moins approximati-
vement) connue de sorte que la fronti`ere sera le quantile dordre 1 de cette loi (le
rejet `a tort de lhypoth`ese nulle sera bien alors de probabilite approximativement egale
`a ),
si lhypoth`ese nulle nest pas satisfaite, cette distance ait tendance `a prendre des
valeurs dautant plus grandes que la vraie valeur du param`etre p est plus eloignee de
p
0
(ce qui, l`a aussi, conduit `a souhaiter disposer dune distance entre p et p
0
, gouvernant
la loi de la distance entre la v.a.

P et p
0
).
Outils
On denit la distance du
2
(ou distance du chi-deux) , entre deux probabilites sur
un ensemble ni `a k elements, p = (p
j
)
1jk
et q = (q
j
)
1jk
, par :
D(p, q) =
k

j=1
(p
j
q
j
)
2
q
j
.
Remarquons que, faute de symetrie entre p et q, cet objet nest pas une distance au sens
mathematique traditionnel du terme (on parle parfois de pseudo-distance du
2
).
On demontre (nous ladmettrons) que, si lhypoth`ese nulle est satisfaite, la loi de
la v.a. n.D(

P, p
0
) tend, quand n tend vers linni, vers la loi du chi-deux `a k 1 degres
de liberte (voir X.2.2, p. 246). Ceci conduit, pour n assez grand (notion qui sera precisee
empiriquement dans la suite), `a fonder sur n.D(

P, p
0
) le test, au niveau , de lhypoth`ese
H
0
= p = p
0
, le rejet ayant lieu si
n
k

j=1
( p
j
p
0
j
)
2
p
0
j

2
k1,1
,
o` u
2
k1,1
designe le quantile dordre 1 de la loi du chi-deux `a k 1 degres de liberte,
disponible dans des tables ou via les ordinateurs. Cest ce que lon appelle le test du
2
.
Crit`ere pratique.On consid`ere souvent que lapproximation fournie par la loi du
2
` a k 1
degres de liberte pour la loi de n.D(

P, p
0
) est valide si tous les produits np
0
j
(1 p
0
j
) sont
superieurs ou egaux ` a 5.
66 CHAPITRE IV. MOD
`
ELES DISCRETS
Interessons nous maintenant `a la puissance de ce test, cest-` a-dire considerons les si-
tuations o` u p = p
0
. On demontre (nous ladmettrons ) que, si la loi commune des v.a. X
i
est caracterisee par la valeur p du param`etre, alors la loi de n.D(

P, p
0
) est bien approchee,
quand n tend vers linni, par la loi dite du
2
decentre `a k 1 degres de liberte,
2
k1,
(voir X.2.2, p. 246), avec pour coecient dexcentricite = n.D(p, p
0
).
Il se produit alors une circonstance heureuse concernant la famille des lois
2
k1,
: elle
est, `a nombre de degres de liberte xe (ici k 1) stochastiquement croissante avec le
coecient dexcentricite , cest-` a-dire que, pour tout t > 0, la probabilite quune v.a. suivant
la loi
2
k1,
depasse t est fonction croissante de .
10 20 30 40
0.025
0.05
0.075
0.1
0.125
0.15
Fig. IV.1 Densite du chi-2 `a 5 degres de liberte avec decentrage de 0, 3 et 6.
An dillustrer davantage le phenom`ene dexcentricite engendre par nous pouvons rap-
peler que E[
2
k,
] = k + et Var(
2
k,
) = 2(k + 2).
Generalisation `a ladequation dune loi quelconque
Soient n v.a. (X

i
)
1jn
independantes, de meme loi inconnue Q, et `a valeurs dans un
espace mesurable (E

, c

). On veut tester lhypoth`ese que cette loi coincide avec une loi
proposee Q
0
.
On suppose que lensemble E

est inni, ou bien ni mais `a cardinal trop eleve pour


quon puisse lui appliquer raisonnablement le test du
2
. Un artice parfois pratique est
de considerer une partition nie de E

, soit (A
1
, . . . , A
k
), et de se contenter de tester si les
valeurs des P
Q
(X

1
A
j
) sont egales aux P
Q
0(X

1
A
j
). Il sut donc de relever, pour chaque
observation x

i
, `a quelle partie A
j
elle appartient, ce qui revient `a considerer des v.a. X
i
=
j1
{X

i
A
j
}
`a valeurs dans lensemble 1, . . . , k. On se trouve ramene au probl`eme precedent,
mais au prix dune certaine tricherie sur le probl`eme pose : on ne sait plus distinguer entre
deux lois dierentes, mais identiques sur la partition choisie. En dautres termes, on teste
en fait lhypoth`ese nulle selon laquelle la loi inconnue Q appartient `a lensemble des lois qui
aectent `a chacune des parties A
j
la meme probabilite que Q
0
; lhypoth`ese alternative est
alors le complementaire de cet ensemble dans lensemble de toutes les probabilites sur (E

, c

).
Si malgre cet inconvenient on decide de proceder ainsi, il reste `a choisir la partition. Si
son eectif k est xe, on constate que lapproximation par la loi asymptotique de
2
sera
dautant meilleure que la suite des P
Q
0(A
j
) sera plus proche de la suite constante dont tous
les elements valent
1
k
; en eet cest ainsi que la plus forte des valeurs nP
Q
0(A
j
)(1P
Q
0 (A
j
))
sera la plus faible possible ; or ces valeurs sont les variances des eectifs N
j
et, pour chaque
IV.2. TESTS DU
2
67
j, plus cette variance est elevee, plus lestimation de p
j
par la frequence observee n
j
/n (qui
nous a servi `a justier heuristiquement le test) est mauvaise.
Quant au choix de k, il sera lobjet dun compromis entre le desir delever k (pour ne pas
trop denaturer le probl`eme initial) et le desir delever n
1
k
(1
1
k
) (`a rendre au moins egal `a 5)
pour valider au mieux lapproximation par la loi du chi-deux.
Dans le cas particulier dune loi Q
0
sur R admettant une densite et donc (voir X.1.2) `a
fonction de repartition, soit F
0
, continue, on prendra generalement une partition (A
1
, . . . , A
k
)
en intervalles (bornes ou non) tous de probabilite
1
k
, donc delimites par les points s
j
(o` u
1 j k 1) veriant F
0
(s
j
) =
j
k
. Mais cette methode reste mediocre et les methodes de
type non-parametrique, qui seront vues au chapitre V, sont en general meilleures.
IV.2.2 Test dadequation `a une famille de lois discr`etes
Presentation generale
Le mod`ele est ici le meme quen IV.2.1 : on observe n v.a. X
i
, independantes et de meme
loi, `a valeurs dans un espace ni, soit A = a
1
, . . . , a
k
. Cette loi, inconnue, est caracterisee
par la suite p = (p
1
, . . . p
k
), o` u, pour tout j (avec 1 j k), p
j
designe la probabilite
dobserver a
j
.
Ici lhypoth`ese `a tester nest plus reduite `a une valeur bien determinee p
0
, mais elle exprime
que le param`etre appartient `a une famille (p

, ), o` u lon note p

= (p
1,
, . . . , p
k,
)
un vecteur de poids de probabilite indexe par un param`etre . Attention : nest pas ici
lensemble des param`etres du mod`ele tout entier mais parametrise seulement lhypoth`ese
nulle.
Une idee naturelle est de reprendre la methode du test dadequation vue en IV.2.1 en y
rempla cant p
0
par p

, o` u

est une estimation de . Cest ce que lon appelle un test du
2
adaptatif. On demontre alors que si lensemble des valeurs possibles pour est
une partie ouverte dinterieur non vide de R
h
(avec h < k1) la loi de nD(

P, p

) tend,
sous lhypoth`ese nulle, vers la loi du
2
`a k h 1 degres de liberte, sous des conditions
de regularite que nous ne preciserons pas ici, mais qui sont satisfaites si

est une
estimation par maximum de vraisemblance. Donc on proc`ede comme dans le test du
2
dadequation, en rempla cant seulement le nombre de degres de liberte k 1 par
k h 1.
Exemple : test du
2
dindependance
Les v.a. i.i.d. X
i
sont ici de la forme (Y
i
, Z
i
), o` u les premi`eres composantes Y
i
sont `a
valeurs dans A = a
1
, . . . , a
k
, et les secondes composantes Z
i
sont `a valeurs dans B =
b
1
, . . . , b
m
.
On note, pour tout j = 1, . . . , k, et tout = 1, . . . , m, p
j,
= P((Y
i
, Z
i
) = (a
j
, b

)). Le
param`etre est donc p = (p
j,
)
1jk,1m
.
On veut tester lhypoth`ese que les 2 composantes sont independantes, autrement dit que
la loi commune des couples (Y
i
, Z
i
) est une loi produit, cest-` a-dire encore que tous les p
j,
sont de la forme :
(j, ) AB, p
j,
= P(Y
i
= a
j
, Z
i
= b

) = P(Y
i
= a
j
)P(Z
i
= b

) = q
j
r

,
68 CHAPITRE IV. MOD
`
ELES DISCRETS
o` u necessairement, pour tout j, q
j
=

m
=1
p
j,
et, pour tout , r

k
j=1
p
j,
. Les q
j
ca-
racterisent la loi commune des v.a. Y
i
et les r

caracterisent la loi commune des v.a. Z


i
; ces
lois sont appelees aussi premi`ere et seconde lois marginales des X
i
(voir X.1.1, p. 225).
Ainsi, sous lhypoth`ese nulle, le param`etre, caracterise dune part par les k valeurs
q
j
(de somme egale `a 1) et dautre part par les m valeurs r

(aussi de somme egale `a 1),


appartient `a un espace de dimension h = k + m 2. On supposera que les q
j
et les r

sont
tous non nuls, ce qui assure que, sous lhypoth`ese nulle, lensemble de parametrage est une
partie ouverte de R
k+m2

Etant observe un echantillon de taille n, soit (y


i
, z
i
)
1in
, notons, pour tout couple
(j, ), n
j,
leectif des observations egales `a (a
j
, b

) et p
j,
leur frequence ( p
j,
=
n
j,
n
).
On estime alors chaque q
j
de la premi`ere marge par la frequence marginale correspondante
q
j
=
1
n

m
=1
n
j,
et de meme, pour la seconde marge, chaque r

par la frequence marginale


correspondante r

=
1
n

k
j=1
n
j,
.
Alors, si lhypoth`ese nulle est satisfaite, on estime, pour tout couple (j, ), p
j,
, par
le produit des frequences marginales q
j
r

(pour mimer la formule dindependance citee plus


haut).
Nous admettons que les conditions de validite de la methode sont satisfaites, q
j
et r

etant
respectivement des estimateurs par maximum de vraisemblance de q
j
et r

. Le test, au seuil
, consiste donc `a rejeter lhypoth`ese dindependance si :
n
k

j=1
m

=1
( p
j,
q
j
r

)
2
q
j
r


2
(k1)(m1),1
,
autrement dit
n
k

j=1
m

=1
(
n
j,
n

n

j
.n

n
2
)
2
n

j
.n

n
2

2
(k1)(m1),1
,
o` u :
n
j,
est le nombre dobservations egales `a (a
j
, b

),
n

j
=

m
=1
n
j,
est le nombre dobservations dont la premi`ere composante est egale `a
a
j
,
n

k
j=1
n
j,
est le nombre dobservations dont la seconde composante est egale `a b

,

2
(k1)(m1),1
est le quantile dordre 1 de la loi du
2
`a (k 1)(m1) degres de
liberte (en eet km(k +m2) 1 = (k 1)(m1)).
IV.3 La regression logistique
Au chapitre III le paragraphe III.6, portant sur la regression lineaire etait consacre `a
un mod`ele dans lequel une variable aleatoire absolument continue, de loi gaussienne, etait
expliquee par une ou plusieurs variables. Nous allons maintenant nous interesser `a des
situations o` u la variable `a expliquer est discr`ete, et meme, plus precisement ici (quoique ce
soit generalisable), dichotomique (aussi dite booleenne : elle ne peut prendre que deux valeurs,
notees conventionnellement 0 et 1).
IV.3. LA R

EGRESSION LOGISTIQUE 69
i Age CHD i Age CHD i Age CHD i Age CHD
1 20 0 26 35 0 51 44 1 76 55 1
2 23 0 27 35 0 52 44 1 77 56 1
3 24 0 28 36 0 53 45 0 78 56 1
4 25 0 29 36 1 54 45 1 79 56 1
5 25 1 30 36 0 55 46 0 80 57 0
6 26 0 31 37 0 56 46 1 81 57 0
7 26 0 32 37 1 57 47 0 82 57 1
8 28 0 33 37 0 58 47 0 83 57 1
9 28 0 34 38 0 59 47 1 84 57 1
10 29 0 35 38 0 60 48 0 85 57 1
11 30 0 36 39 0 61 48 1 86 58 0
12 30 0 37 39 1 62 48 1 87 58 1
13 30 0 38 40 0 63 49 0 88 58 1
14 30 0 39 40 1 64 49 0 89 59 1
15 30 0 40 41 0 65 49 1 90 59 1
16 30 1 41 41 0 66 50 0 91 60 0
17 32 0 42 42 0 67 50 1 92 60 1
18 32 0 43 42 0 68 51 0 93 61 1
19 33 0 44 42 0 69 52 0 94 62 1
20 33 0 45 42 1 70 52 1 95 62 1
21 34 0 46 43 0 71 53 1 96 63 1
22 34 0 47 43 0 72 53 1 97 64 0
23 34 1 48 43 1 73 54 1 98 64 1
24 34 0 49 44 0 74 55 0 99 65 1
25 34 0 50 44 0 75 55 1 100 69 1
Tab. IV.1 Les donnees CHD
IV.3.1 Exemple introductif
On dispose dun echantillon de 100 personnes sur lequel on a mesure deux variables (voir
tableau IV.1), lage du patient, X (note AGE dans le tableau et les graphiques ci-dessous) et
la presence (1) ou labsence (0) dune maladie cardiaque, Y (notee CHD dans le tableau et
les graphiques ci-dessous).
Lobjectif de letude est de savoir si lage a un eet sur la presence de la maladie cardiaque.
Sur le graphique suivant, on observe deux bandes parall`eles de points, o` u chacun represente
lage de lindividu avec la presence (Y = 1) ou labsence (Y = 0) de la maladie. On peut no-
tamment constater quil y a plus de points rassembles vers les jeunes pour Y = 0, alors quun
regroupement se materialise plut ot vers les plus ages pour Y = 1. Cependant, cette consta-
tation nest pas susante pour en deduire une relation signicative entre la predisposition `a
une maladie cardiaque et lage.
70 CHAPITRE IV. MOD
`
ELES DISCRETS
Considerons tout dabord ce `a quoi conduirait lapplication (evidemment maladroite) `a
cette situation dune regression lineaire simple usuelle, cest-` a-dire posons une relation ane
du type :
Y =
0
+
1
X +,
o` u suivrait la loi normale ^(0,
2
). On supposerait de plus que les v.a. `a expliquer Y
i
(o` u
1 i 100) sont independantes. Notons que les observations explicatives x
i
nintervenant
qu`a titre de conditionnements dans le mod`ele, il nest pas besoin de faire dhypoth`ese de
nature probabiliste les concernant ; en fait elles peuvent etre selon les protocoles de recueil
des donnees aussi bien aleatoires (cas de sujets admis dans letude sans consideration prealable
de leur age) que deterministes (cas dun panel de sujets compose an dequilibrer les ages).
On pourrait etre tente destimer ce mod`ele `a laide de la methode des moindres carres
comme dans le chapitre III ; alors on obtiendrait :

Y =

0
+

1
X = 0.5380 + 0.0218X.
Fig. IV.2 Regression lineaire de CHD avec lage
Cette regression signierait que le fait davoir une annee de plus produirait un accroisse-
ment de 0,02 en terme de predisposition `a avoir la maladie cardiaque (predisposition assimilee
`a la probabilite davoir cette maladie cardiaque). On poserait par consequent, en termes de
probabilite conditionnele (voir X.1.4, p. 238),
p(x) = P(Y = 1[X = x).
On voit alors, sur le graphique precedent, les inconvenients de ce mod`ele lineaire en
probabilite. Un accroissement constant de lage produit egalement un accroissement constant
de p(x). De plus, p(x) peut tr`es bien alors sortir de lintervalle [0, 1], ce qui est logiquement
impossible pour une probabilite. En eet, dans notre exemple, nous voyons que la probabilite
estimee p(x) serait negative pour les patients ages de 25 ans et moins ; par exemple, pour une
personne ayant 23 ans, lestimation de la probabilite davoir une maladie cardiaque serait :
p(23) = 0.5380 + 0.0218 23 = 0.036.
IV.3. LA R

EGRESSION LOGISTIQUE 71
De meme, si lon voulait prevoir la probabilite davoir une maladie cardiaque pour une per-
sonne de plus de 70 ans, alors les valeurs estimees seraient superieures `a lunite.
De plus les residus pour un age xe ne peuvent prendre que deux valeurs possibles : si
Y = 0, alors (x) = p(x) et si Y = 1, alors (x) = 1p(x), ce qui est contraire `a lhypoth`ese
de normalite (loi continue) des residus, introduite dans le cadre du mod`ele lineaire gaussien.
Par consequent, la loi de nest pas continue, mais discr`ete : si Y = 1, alors = 1 p(x)
avec une probabilite p(x) et si Y = 0, alors = p(x) avec une probabilite 1 p(x). Comme
a une distribution desperance nulle, la variance de est egale `a p(x)(1 p(x)). Ce resultat
est `a nouveau en contradiction avec lhypoth`ese de variance constante des residus du mod`ele
lineaire gaussien usuel, car ici la variance depend de l age.
En fait, `a la lumi`ere de ces constatations, la distribution conditionnelle de Y suit une loi
de Bernoulli avec une probabilite detre malade fournie par lesperance conditionnelle (voir
X.1.4, p. 238) :
p(x) = E[Y [X = x].
On peut donc conclure, comme on pouvait sen douter, que la regression lineaire simple
usuelle nest pas une bonne solution pour resoudre notre probl`eme.
IV.3.2 Une solution raisonnable : la regression logistique
Le mod`ele
Soit Y une v.a. (dite `a expliquer) dont la distribution conditionnelle est une loi de
Bernoulli dont le param`etre, note p(x), depend de la valeur x dune variable reelle X dite
explicative : B(p(x)). On rappelle que son esperance mathematique est egale `a p(x) et sa
variance egale `a p(x)(1 p(x)). Avec une notation du type probabilite conditionnelle (voir
X.1.4) et avec la convention 0
0
= 1, on pourra noter ceci :
P(Y = y[X = x) = p(x)
y
(1 p(x))
1y
.
Pour preciser le mod`ele, il faut maintenant xer une classe de fonctions `a laquelle est
supposee appartenir lapplication x p(x) (ce r ole etait joue, dans la tentative de mod`ele
lineaire ci-dessus, par les fonctions anes).
Une classe L de telles fonctions raisonnable pour modeliser p(x) doit satisfaire les
conditions suivantes :
valeurs dans lintervalle [0, 1],
monotonie en x,
stabilite par changement dorigine et dechelle sur la variable explicative (comme en
regression lineaire) : si la fonction p appartient `a L, il en est de meme des fonctions
x p(b
0
+b
1
x).
La regression logistique consiste en lemploi des fonctions du type
p(x) = g(
0
+
1
x)
avec
g(t) =
exp(t)
1 + exp(t)
.
72 CHAPITRE IV. MOD
`
ELES DISCRETS
On voit que ces fonctions ont toutes une meme forme, et que donc, comme en regression
lineaire simple, tout ce quil y a `a estimer consiste en un param`etre de position (
0
) et un
param`etre dechelle (
1
) ; on notera le couple (
0
,
1
).
Ce mod`ele poss`ede de plus les proprietes suivantes :
Variation : Si
1
= 0, la loi de la variable `a expliquer ne depend pas de la variable
explicative (la fonction p est constante) ; sinon, p est strictement croissante (resp.
decroissante) si
1
> 0 (resp.
1
< 0).
Limites : Si
1
= 0, et si x parcourait tout R (ce qui est en general impossible dans un
mod`ele realiste), alors p(x) parcourrait tout lintervalle ]0, 1[ ; si
1
> 0 (resp.
1
< 0), on
a lim
x
p(x) = 0 et lim
x+
p(x) = 1 (resp. lim
x
p(x) = 1 et lim
x+
p(x) =
0).
Symetrie par rapport au point (

1
, 1/2) : si x +x

= 2

1
, alors p(x) +p(x

) = 1.
La terminologie logistique vient de langlais LOGIT (LOGarithm of Inverse Transfor-
mation) qui designe la fonction inverse de g, cest-` a-dire h denie par h(u) = ln(
u
1u
).
Les estimateurs
Procedons maintenant `a lestimation par maximum de vraisemblance dans ce mod`ele du
param`etre = (
0
,
1
) ; on note desormais p

(x) = g(
0
+
1
x) =
exp(
0
+
1
x)
1 + exp(
0
+
1
x)
.
Les v.a. Y
i
etant independantes et de lois de Bernoulli, calculons la vraisemblance (relati-
vement `a la mesure de comptage sur 0, 1
n
, comme en II.2), associee `a la suite dobservations
y = (y
1
, . . . , y
n
), pour la suite de valeurs explicatives x = (x
1
, . . . , x
n
) :
L(y[x; ) =
n

i=1
(p

(x
i
))
y
i
(1 p

(x
i
))
1y
i
.
Alors lestimateur du maximum de vraisemblance est la valeur (ici unique) de en laquelle
prend son maximum la fonction L(y[x; ) ou, ce qui est plus pratique pour la resolution,
(y[x; ), o` u la log-vraisemblance est denie ici par :
(y[x; ) =
n

i=1
y
i
ln(p

(x
i
)) + (1 y
i
) ln(1 p

(x
i
))
(avec la convention 0 ln(0) = 0).
Cest la solution du syst`eme de deux equations `a deux inconnues :
(y[x;
0
,
1
)

0
=
n

i=1

y
i

exp(
0
+
1
x
i
)
1 + exp(
0
+
1
x
i
)

= 0,
(y[x;
0
,
1
)

1
=
n

i=1
x
i

y
i

exp(
0
+
1
x
i
)
1 + exp(
0
+
1
x
i
)

= 0.
Ces expressions sont non lineaires en
0
et
1
(contrairement `a la situation correspondante
en regression lineaire), ce qui demande de faire appel `a des methodes speciques de resolution.
Il sagit generalement de methodes de resolution numerique iterative (Newton-Raphson, Score
de Fisher et de Rao, moindres carres reponderes iteratifs). Nous ne detaillerons pas ces
IV.3. LA R

EGRESSION LOGISTIQUE 73
methodes dans le present cours ; les logiciels statistiques standards orent ce type dalgo-
rithme.
Quand la taille de lechantillon tend vers linni, ces estimateurs sont convergents et
asymptotiquement normaux. Leurs variances asymptotiques sont theoriquement connues en
fonction de . Des approximations de ces variances sont donc obtenues, pour n assez grand,
en rempla cant dans les formules donnant ces variances asymptotiques, par son estimation.
Retour `a lexemple
Dans notre exemple, lestimateur du maximum de vraisemblance donne :

0
= 5.3095 ,

1
= 0.1109 et (y;

0
,

1
) = 53.677.
Le mod`ele estime est :
p(x) =
exp(5.3095 + 0.1109x)
1 + exp(5.3095 + 0.1109x)
.
Les estimations des variances sont Var(

0
) = 1.2856 et Var(

1
) = 0.0005.
Cela nous permet de tracer la courbe logistique estimee de la presence de maladie car-
diaque en fonction de lage des patients. On voit nettement sur le graphique ci-dessous com-
ment, dans ce mod`ele, lestimation de la probabilite davoir une maladie cardiaque augmente
avec lage. Elle est, par exemple, de 0.073 `a 25 ans, 0.194 `a 35 ans, 0.421 `a 45 ans, 0.688 `a
55 ans et 0.870 `a 65 ans.
Fig. IV.3 Regression logistique de CHD avec lage
Cependant cela ne nous permet pas darmer que la presence dune maladie cardiaque
augmente statistiquement (signicativement) avec lage. Pour repondre `a cette question (et
preciser le sens de signicativement) il convient davoir recours `a des tests statistiques,
comme dans le cadre du mod`ele lineaire gaussien.
IV.3.3 Comment tester linuence de la variable explicative ?
Dans lexemple introductif, il sagit de savoir si statistiquement lage inue sur la presence
de maladie cardiaque. La demarche classique des tests, utilisee dans le cadre du mod`ele
lineaire gaussien au chapitre III, est la meme pour le mod`ele logit. Lhypoth`ese nulle a la
74 CHAPITRE IV. MOD
`
ELES DISCRETS
forme suivante : H
0
=
1
= 0 (pas dinuence de la variable X sur Y ) et lhypoth`ese
alternative est : H
1
=
1
= 0 (inuence eective de la variable X sur Y ).
Plusieurs tests ont ete proposes pour ce test, tous fondes sur une meme idee tr`es generale
(qui valait dej`a pour le mod`ele lineaire gaussien) et qui est la suivante : estimons par maximum
de vraisemblance le param`etre dune part dans le mod`ele general (ici le mod`ele logistique),
do` u lestimation

= (

0
,

1
), et dautre part dans le mod`ele restreint `a lhypoth`ese nulle,
do` u lestimation

H
0
= (

0
, 0) ; alors ces deux estimations ont tendance `a etre proches si
lhypoth`ese nulle est satisfaite et eloignees si elle ne lest pas. (On aurait pu aussi utiliser
un test construit sur la normalite asymptotique de

1
sous H
0
.)
Les dierentes techniques de test di`erent par le choix de loutil statistique caracterisant
cette proximite. Nous detaillons ici seulement le test du rapport de vraisemblances,
qui consiste `a considerer la dierence des log-vraisemblances (ou plut ot, pour des raisons de
calcul precisees ensuite, son double), cest-` a-dire :
(y[x) = 2((y[x;

) (y[x;

H
0
)).
Remarquons que (y[x) est necessairement positif ou nul, car (y[x,

) est le maximum
de (y[x; ) pris sur un ensemble qui contient celui utilise pour la recherche de

H
0
.
Il est clair alors que lon aura dautant plus tendance `a rejeter lhypoth`ese nulle que (y)
sera plus grand. Ce test peut etre mis en uvre car (nous ladmettrons), sous lhypoth`ese
nulle, la v.a. suit asymptotiquement (quand la taille de lechantillon, n, tend vers linni)
une loi du
2
`a 1 degre de liberte (autrement dit la loi du carre dune v.a. de loi normale
centree reduite).
Il reste `a expliciter (y[x). Notons n
1
(resp. n
0
) le nombre dobservations de la variable
`a expliquer egales `a 1 (resp. 0) ; autrement dit soit n
1
=

n
i=1
y
i
et n
0
=

n
i=1
(1 y
i
) =
n n
1
. Alors, rappelant que sous H
0
, p est constant estime par n
1
/n, et que sous H
1
,
p(x) =
exp(

0
+

1
x)
1 + exp(

0
+

1
x)
, il vient :
(y[x) = 2[
n

i=1
(y
i
ln( p(x
i
)) + (1 y
i
) ln(1 p(x
i
)) (n
0
ln(n
0
) +n
1
ln(n
1
) nln(n))].
Pour notre exemple, nous obtenons n
0
= 57, n
1
= 43 et
(y[x) = 2[53, 677 (57 ln(57) + 43 ln(43) 100 ln(100))] = 29.31
alors la p-valeur associee `a ces donnees est egale `a 1 F

2
(1)
(29.31), o` u F

2
(1)
designe la
fonction de repartition de la loi du
2
`a un degre de liberte. On constate que
1 F

2
(1)
(29.31) < 10
4
,
de sorte que lhypoth`ese nulle (non inuence de lage sur la maladie cardiaque) serait rejetee
(` a condition quon accepte le mod`ele de regression logistique comme mod`ele general) meme `a
un niveau de signication aussi sev`ere que 10
4
.
IV.4. COMPARAISON DE PROPORTIONS 75
IV.4 Comparaison de proportions
IV.4.1 Presentation de la problematique sur un exemple
Une situation classique, en statistique medicale, consiste en lappreciation des eets com-
pares de 2 traitements (ou lappreciation des eets dun traitement face `a labsence dadminis-
tration de traitement) ; nous nous pla cons ici dans la situation la plus elementaire, o` u les eets
des traitements sont simplement resumes en succ`es ou echec. Des equivalents peuvent
etre bien s ur proposes pour des applications en sciences humaines, en agronomie, industrielles
etc...
On se trouve ici typiquement en presence de deux echantillons de suites de 0 (echec) et de
1 (succ`es), et nous supposerons que les v.a. observees, que nous noterons X
1,i
(o` u 1 i n
1
)
et X
2,j
(o` u 1 j n
2
) sont independantes. Pour aller plus loin dans lelaboration du mod`ele,
il faut distinguer deux types de protocoles experimentaux, selon que les echantillons sont dits
apparies ou non apparies.
Dans le cas dechantillons non apparies, on a pris independamment deux groupes
de sujets et on a applique le premier traitement `a lun et le second traitement `a lautre ; le
mod`ele associe sera tr`es simple, mais on sinterdit alors toute prise en compte dinuences
sur les sujets autres que la seule administration des traitements, et on risque ainsi de passer
`a cote de facteurs importants.
Dans le cas dechantillons apparies, necessairement de meme taille n, le protocole
a consiste en la selection prealable de n situations comparables, dans chacune desquelles
on a administre chacun des deux traitements ; un tel cas serait, si ceci est techniquement
realisable, celui o` u un meme individu a ete observe successivement sous le premier et sous le
second traitement, en admettant quil y ait eu un intervalle de temps susant pour que leet
du premier se soit estompe lors de ladministation du second, ceci etant en particulier le cas
si en fait le premier traitement consistait en labsence de traitement ; ou, plus simplement,
on peut considerer que des sujets sont reunis par couples de mani`ere quils aient dans chaque
couple des caracteristiques communes susceptibles dagir sur la receptivite aux traitements
(par ex. lage, certains elements du dossier medical . . . ) et que dans chaque couple les deux
sujets re coivent des traitements dierents.
IV.4.2

Echantillons non apparies
Le mod`ele naturel ici est de considerer que les v.a. X
1,i
, pour 1 i n
1
, sont i.i.d., la
loi commune etant de Bernoulli avec param`etre p
1
, et les v.a. X
2,j
, pour 1 j n
2
, sont
i.i.d., la loi commune etant de Bernoulli avec param`etre p
2
. Le param`etre du mod`ele est donc
= (p
1
, p
2
), qui appartient `a = [0, 1]
2
( peut aussi, si on est susamment renseigne, etre
modelise comme une partie stricte de [0, 1]
2
).
On sait (voir lexemple II.17) que les proportions de 1 observees dans chacun des echantil-
lons fournissent un resume exhaustif des donnees. Nous travaillerons donc systematiquement
sur ces proportions x
1
et x
2
(ou, ce qui revient au meme, sur les eectifs y
1
= n
1
. x
1
et
y
2
= n
2
. x
2
).
Si on consid`ere separement les deux echantillons, on se trouve dans la situation dej`a
etudiee au II.1.1 pour ce qui est destimations, tests, intervalles de conance sur p
1
et p
2
.
Nous allons ici nous interesser aux tests des hypoth`eses nulles suivantes :
76 CHAPITRE IV. MOD
`
ELES DISCRETS
H
0
= p
1
= p
2
: identite des eets des deux traitements ; autrement dit on
cherchera `a repondre `a la question : les proportions de succ`es observees dierent-elles
signicativement, ` a un niveau de signication choisi au prealable ?
H
1
= p
1
> p
2
: le traitement 1 est plus ecace que le traitement 2 (en
dautres termes il a une plus forte probabilite de succ`es) ; autrement dit on cherchera `a
repondre `a la question : la proportion de succ`es observees avec le traitement 2 est-elle
signicativement plus forte que celle du traitement 1, ce qui conduirait ` a refuter lhy-
poth`ese que le premier etait meilleur, ` a un niveau de signication choisi au prealable ;
cest ainsi en particulier que lon proc`ede si le traitement 1 etait dej`a en usage et que
lon se demande si cela vaut vraiment la peine de mettre en usage le nouveau trai-
tement 2. (En fait, on pourra verier que les tests mis en place pour cette hypoth`ese
alternative correspond egalement `a lhypoth`ese nulle H
0
= p
1
p
2
: le traitement 1
nest pas meilleur que le traitement 2.)
Nous serons amenes, comme au paragraphe II.6, `a distinguer selon que les echantillons
sont petits (et nous nous heurterons `a des probl`emes de calculs de nature combinatoire)
ou grands (et nous aurons recours `a lapproximation normale).
Petits echantillons non apparies : test bilateral
Considerons tout dabord le test de lhypoth`ese nulle H
0
= p
1
= p
2
, situation de test
dite bilaterale car on inclut dans la contre-hypoth`ese, H
1
, aussi bien le cas p
1
< p
2
que
le cas p
1
> p
2
.
Le bon sens est que la refutation de lhypoth`ese se fera si les proportions observees x
1
et x
2
sont susamment eloignees, cest-` a-dire intuitivement si, dans le cas o` u p
1
= p
2
, la
probabilite dobtenir un eloignement des deux proportions au moins aussi important que
celui enregistre est inferieure ou egale au seuil de signication choisi, ; la diculte pour
donner un sens `a cette intuition est double :
lhypoth`ese nulle nest pas simple, cest-` a-dire ne se reduit pas `a une seule loi, mais se
compose de tous les couples (p, p) o` u p [0, 1] (eventuellement p appartient `a un inter-
valle plus petit delimite au prealable lors de la constitution du mod`ele) ; en particulier
la loi de

X
1


X
2
depend de cette valeur commune inconnue p ;
il faut donner un sens `a la notion deloignement des deux proportions au moins aussi
important que celui enregistre ; ne disposant pas de la loi de la dierence x
1
x
2
, il
nous est dicile de donner `a ceci un sens symetrique, mais ce nest pas trop genant :
nous nous contenterons de preciser la notion dev`enement consistant en un eloignement
au moins aussi important que celui observe et dans le meme sens, et proc`ederons
au rejet de lhypoth`ese si les probabilites de cet ev`enement sont, sous lhypoth`ese `a
tester, inferieures ou egales `a

2
.
La premi`ere diculte se resout gr ace `a la remarque suivante : introduisons la variable
aleatoire Y = Y
1
+ Y
2
(on rappelle que Y
1
= n
1
.

X
1
et Y
2
= n
2
.

X
2
). Le nombre y est le
total de succ`es observes dans la reunion des deux echantillons. On constate alors que, sous
lhypoth`ese nulle, la loi du couple (Y
1
, Y
2
), conditionnellement `a Y , ne depend
plus de p (= p
1
= p
2
) ; un calcul elementaire montre en eet que, pour y
1
+y
2
= y, on a :
P
p,p
((Y
1
, Y
2
) = (y
1
, y
2
)[Y = y) =
y!(n
1
+n
2
y)!n
1
!n
2
!
y
1
!(n
1
y
1
)!y
2
!(n
2
y
2
)!(n
1
+n
2
)!
,
IV.4. COMPARAISON DE PROPORTIONS 77
cette probabilite conditionnelle etant evidemment nulle si y
1
+y
2
= y.
(Attention : il ne sagit pas dexhaustivite de Y dans le mod`ele statistique considere, mais
dune exhaustivite dans un mod`ele qui serait restreint `a lhypoth`ese nulle.)
Cette remarque conduit `a une technique dite de test conditionnel. On consid`ere la
partition de lensemble de tous les couples (y
1
, y
2
) observables en les tranches
y
=
(y
1
, y
2
); y
1
+ y
2
= y (y parcourant lensemble des valeurs pouvant etre prises par la v.a.
Y
1
+ Y
2
, donc comprises entre 0 et n
1
+ n
2
) . On fabrique separement sur chaque
y
une
region de rejet C
y
dont, si lhypoth`ese nulle est satisfaite, la probabilite, conditionnellement `a
lev`enement Y = y, est inferieure ou egale `a (le singulier la probabilite se justiant ici en
vertu de la remarque precedente). La region de rejet globale du test est alors C =

n
1
+n
2
y=0
C
y
et on a bien :
p ]0, 1[, P
p,p
(C) =
n
1
+n
2

y=0
P
p,p
(Y = y)P
p,p
(C
y
[Y = y)
n
1
+n
2

y=0
P
p,p
(Y = y) = .
Reperer si une observation deectifs (y
1
, y
2
) conduit au rejet, cest-` a-dire appartient `a
C
y
, o` u y = y
1
+y
2
, est alors elementaire :
si x
1
= x
2
(autrement dit
y
1
n
1
=
y
2
n
2
), il ny a evidemment pas rejet ;
si x
1
= x
2
, on rep`ere quel est le sens de cette dierence ; soit par exemple x
1
< x
2
,
autrement dit
y
1
n
1
<
y
2
n
2
) ; on fait la liste de tous les couples pires (au sens large)
que (y
1
, y
2
), `a nombre total de succ`es, y, xe, autrement dit tous les couples de la
forme (y

1
, y

2
) = (y
1
j, y
2
+ j), o` u j 0, avec bien s ur y
1
j 0 et y
2
+ j n
2
;
les probabilites conditionnelles de ces couples, sous lhypoth`ese nulle, sont connues :
elles valent
y!(n
1
+n
2
y)!n
1
!n
2
!
y

1
!(n
1
y

1
)!y

2
!(n
2
y

2
)!(n
1
+n
2
)!
(il sagit des poids de probabilite dune
loi hypergeometrique H(n
1
+ n
2
, y
1
+ y
2
,
n
1
n
1
+n
2
), voir X.2.1, p. 243) ; il y a rejet si et
seulement si la somme de ces probabilites (qui est la p-valeur de ce test) est inferieure
ou egale `a

2
.
Petits echantillons non apparies : test unilateral
Considerons maintenant le test de lhypoth`ese nulle H
0
= p
1
p
2
(situation de test
dite unilaterale car la contre-hypoth`ese est H
1
= p
1
< p
2
).
Il ny aura evidemment pas rejet si les proportions observees vont dans le sens de
lhypoth`ese nulle, cest-` a-dire si x
1
x
2
. En revanche, il y aura rejet si on a une inegalite
x
1
< x
2
signicativement nette, cest-` a-dire, suivant la meme ligne que dans le cas du test
bilateral, si, quand on est `a la situation fronti`ere p
1
= p
2
, la probabilite, conditionnellement
au nombre total y de succ`es observes, dobtenir une situation pire que celle observee, est
inferieure ou egale `a ; cette inegalite serait encore satisfaite, a fortiori, si on senfon cait dans
la contre-hypoth`ese, cest-` a-dire si on considerait des couples (p
1
, p
2
) tels que p
1
< p
2
.
La technique est donc la meme que dans le cas bilateral, `a ceci pr`es que la
comparaison de la somme de probabilites calculee se fait avec et non avec

2
.
Grands echantillons non apparies
On consid`ere que chacun des deux echantillons est assez grand pour quon applique `a
la v.a. proportion de succ`es, dans chacun de ces echantillons, lapproximation normale.
78 CHAPITRE IV. MOD
`
ELES DISCRETS
Pratiquement, aux degres de precision couramment exiges par les praticiens, cela suppose
que n
1
p
1
(1 p
1
) 5 et n
2
p
2
(1 p
2
) 5, ou bien que lon dispose de renseignements
prealables sur des ordres de grandeur de p
1
et p
2
qui permettent darmer quil en est bien
ainsi, ou bien on fait une verication approchee de ces conditions en y rempla cant p
1
et p
2
par leurs estimations respectives x
1
et x
2
.
On deduit du TCL que les suites independantes

n
1
(

X
1
p
1
) et

n
2
(

X
2
p
2
) convergent
respectivement en loi vers la loi ^(0, p
1
(1 p
1
)) et ^(0, p
2
(1 p
2
)). Si p
1
et p
2
sont egaux
de valeur commune p, il est alors facile de verier que si (n
1
(k), n
2
(k))
kN
est une suite qui
diverge vers linni, telle que lim
k
n
1
(k)/n
2
(k) existe, et cette limite est nie et non nulle,
alors la suite de v.a.

n
1
(k)n
2
(k)
n
1
(k) +n
2
(k)
(

X
1


X
2
) converge en loi vers ^(0, p(1p)). De plus, on
a la convergence p.s. de

X = (n
1

X
1
+n
2

X
2
)/(n
1
+n
2
) vers p. On en deduit que la statistique
de test

n
1
,n
2
=

n
1
(k)n
2
(k)
n
1
(k) +n
2
(k)

X
1


X
2

X(1

X)
converge en loi vers la loi ^(0, 1).
Considerons tout dabord le test bilateral, dont lhypoth`ese nulle est H
0
= p
1
=
p
2
et lhypoth`ese alternative H
1
= p
1
= p
2
.
Le rejet se fera alors si la distance [ x
1
x
2
[ entre les proportions observees est assez elevee.
En eet, sous H
1
, la statistique de test diverge p.s. vers + ou , car

X
1


X
2
converge
vers p
1
p
2
= 0 et

X(1

X) a une limite nie. On en deduit la region critique de la forme
] , a] [a, [ pour a > 0. Le test est de niveau asympotique pour a =
1/2
, le
quantile dordre 1 /2 de la loi ^(0, 1).
On rejette lhypoth`ese si et seulement si

obs
n
1
,n
2

n
1
n
2
n
1
+n
2
[ x
1
x
2
[

x(1 x)
>
1/2
, o` u
x = (n
1
x
1
+ n
2
x
2
)/(n
1
+ n
2
). La p-valeur est donnee par P([G[

obs
n
1
,n
2

), o` u G est de loi
^(0, 1). En dautres termes, designant la fonction de repartition de la loi normale centree
reduite ^(0, 1), il y a rejet si la p-valeur 2(1 (

obs
n
1
,n
2

) est plus petite que ; on rappelle


que la p-valeur dune observation, pour une technique de test donnee, est le plus petit choix
du niveau de signication pour lequel lobservation eectuee conduise au rejet.
Passons au cas du test unilateral, dont lhypoth`ese nulle est H
0
= p
1
p
2
et
lhypoth`ese alternative H
1
= p
1
< p
2
.
Ici on rejette lhypoth`ese nulle si x
2
est, au niveau de signication xe, signicativement
plus grand que x
1
. On est donc conduit `a la technique suivante, qui assure (aux approxima-
tions faites pr`es) une probabilite de rejet de si on est sur la fronti`ere entre hypoth`ese nulle
et hypoth`ese alternative, cest-` a-dire si p
1
= p
2
, et une probabilite de rejet inferieure `a si
on est au sein de lhypoth`ese alternative, cest-` a-dire si p
1
< p
2
: on rejette lhypoth`ese si et
seulement si
obs
n
1
,n
2
=

n
1
n
2
n
1
+n
2
x
2
x
1

x(1 x)
>
1
.
En dautres termes il y a rejet si la p-valeur 1 (
obs
n
1
,n
2
) est plus petite que .
IV.4. COMPARAISON DE PROPORTIONS 79
IV.4.3

Echantillons apparies
Rappelons quil sagit de prendre en compte le fait que des facteurs variant de couple `a
couple peuvent inuer sur lecacite de chacun des traitements, cest-` a-dire quil y a en fait
autant de valeurs du param`etre que de variables aleatoires. Nous modelisons donc n v.a. X
1,i
et n v.a. X
2,i
, supposees comme precedemment toutes independantes, la loi de X
1,i
(resp.
X
2,i
) etant de Bernoulli avec param`etre p
1,i
(resp. p
2,i
) : X
1,i
(resp. X
2,i
) est le resultat obtenu
par application du traitement 1 (resp. 2) dans la paire i (ces v.a. valant 1 en cas decacite,
0 dans le cas contraire).
Petits echantillons apparies
Nous presentons dabord le test bilateral de lhypoth`ese de non inuence dun
changement de traitement, lexperimentation se faisant sur des couples de sujets. Lhy-
poth`ese nulle est donc composee des n egalites p
1,i
= p
2,i
(o` u 1 i n). Lhypoth`ese alter-
native est tr`es vaste, puisquelle comporte tous les couples de suites ((p
1,i
)
1in
, (p
2,i
)
1in
)
ne veriant pas ces n egalites (mais dans la pratique le test ne detectera bien, notion que lon
pourrait traduire par la convergence du test, pour proceder `a un rejet, que les situations o` u
il existe un susamment grand nombre dinegalites bien marquees). La diculte technique,
dans la fabrication du test, vient du fait que lhypoth`ese nulle elle-meme est complexe, de
dimension n car le param`etre sy compose de n couples (p
i
, p
i
).
Il est intuitif que lon aura tendance `a rejeter lhypoth`ese nulle si on observe un susam-
ment grand nombre de couples o` u les 2 traitements ne donnent pas le meme resultat, avec
parmi eux une tendance susamment nette en faveur de lun des deux traitements. Cette
intuition nous conduit `a negliger, dans la fabrication du test, les couples `a resultats iden-
tiques (0, 0) ou (1, 1) et `a recourir, comme dans le cas des echantillons non apparies, `a une
technique de test conditionnel, le conditionnement se faisant cette fois relativement `a la v.a.
Z = Z
0,1
+Z
1,0
, o` u Z
0,1
(resp. Z
1,0
) designe le nombre de couples pour lesquels a ete observe
(0, 1) (resp. (1, 0) ) ; en dautres termes, Z est la v.a. : nombre de couples pour lesquels les
deux resultats di`erent.
Un calcul elementaire etablit alors que, conditionnellement `a lev`enement Z = z, et si
lhypoth`ese nulle est satisfaite, la loi de Z
0,1
est la loi binomiale de param`etres z et
1
2
(ce
qui equivaut au fait que la loi de Z
1,0
est aussi la loi binomiale de param`etres z et
1
2
). Cest
naturel, puisque ceci traduit une situation dequilibre. Le rejet de lhypoth`ese nulle, au seuil
, seectuera alors si la valeur observee z
0,1
est en dehors de lintervalle des quantiles dordre

2
et 1

2
de la loi B(z,
1
2
) ou, ce qui revient au meme, si inf(z
0,1
, z
1,0
) est inferieur au quantile
dordre

2
de la loi B(z,
1
2
).
Ce test est appele test des signes, car souvent on marque du signe + les couples (0, 1),
du signe - les couples (1, 0) et du signe 0 les couples (0, 0) ou (1, 1), et on est donc amene `a
considerer la proportion de lun des signes + ou - sur lensemble des signes autres que 0.
On peut aussi, de mani`ere equivalente, proceder en utilisant la p-valeur du test qui est ici
le double de la valeur en inf(z
0,1
, z
1,0
) de la fonction de repartition de B(z,
1
2
) : il y a rejet si
elle est inferieure ou egale `a .
Si on consid`ere maintenant pour hypoth`ese nulle la famille des inegalites
p
1,i
p
2,i
, le rejet se fera evidemment si le nombre de couples (1, 0) est signicativement
faible devant le nombre de couples (0, 1) ; le principe du test est donc le meme que dans
80 CHAPITRE IV. MOD
`
ELES DISCRETS
le cas bilateral quon vient detudier, mais cette fois le rejet se fait quand z
1,0
(et non plus
inf(z
0,1
, z
1,0
)) est inferieur au quantile dordre (et non plus

2
) de la loi B(z,
1
2
).
Grands echantillons apparies
Si la valeur observee de z est assez grande (en pratique, comme dhabitude, si z
1
2
(1
1
2
)
5, cest-` a-dire z 20), on approxime la loi B(z,
1
2
) par la loi normale ^(
z
2
,
z
4
) ; autrement dit,
pour z grand, on approxime la loi, conditionnellement `a Z = Z
0,1
+Z
1,0
, de
Z
0,1
Z
1,0

Z
0,1
+Z
1,0
par
la loi ^(0, 1) (en eet Z
0,1
Z
1,0
= 2Z
0,1
Z).
Le test en resulte immediatement, qui consiste, dans le cas bilateral, `a rejeter lhy-
poth`ese nulle si
[z
0,1
z
1,0
[

z
0,1
+z
1,0

1/2
, o` u
1/2
est le quantile dordre 1

2
de ^(0, 1).
Nous laissons au lecteur le soin deectuer ladaptation au cas unilateral.
IV.5 Resume des tests
IV.5.1 Test dadequation `a une loi discr`ete : le test du
2
Lobjectif est de determiner si les donnees discr`etes observees proviennent dune loi donnee
ou non.
1. Description du mod`ele : (X
j
, 1 j n) est une suite de v.a. i.i.d. `a valeurs dans
A = a
1
, . . . , a
k
. Une loi P
p
sur A est decrite par le param`etre p = (p
1
, . . . , p
k
), o` u
p
i
= P
p
(X
1
= a
i
).
2. Les hypoth`eses : H
0
= p = p
0
et H
1
= p = p
0
, o` u p
0
est donne.
3. La statistique de test :

n
= n
k

i=1
( p
i
p
0
i
)
2
p
0
i
,
o` u p
i
est le nombre doccurrence de a
i
divise par n.
4. Sous H
0
, (
n
, n 1) converge en loi vers
2
(k 1).
5. Sous H
1
, (
n
, n 1) diverge vers +.
6. Region de critique du test asymptotique : [a, +[.
7. Niveau asymptotique du test egal `a : a est le quantile dordre 1 de la loi
2
(k1).
8. Le test est convergent.
9. La p-valeur asymptotique est donnee par
p-valeur = P(Z
obs
n
),
o` u Z est de loi
2
(k 1), et
obs
n
est la statistique de test calculee avec les observations.
Le test asymptotique est considere valide si np
0
i
(1 p
0
i
) 5 pour tout i.
IV.5. R

ESUM

E DES TESTS 81
IV.5.2 Test dindependance entre deux variables qualitatives
Lobjectif est de verier si deux variables categorielles sont independantes ou non.
1. Description du mod`ele : ((Y
i
, Z
i
), 1 i n) est une suite de v.a. i.i.d. respective-
ment `a valeurs dans A = a
1
, . . . , a
k
et B = b
1
, . . . , b
m
. Une loi commune P
p
des couples (Y
i
, Z
i
) sur (A, B) est decrite par le param`etre p = (p
j,h
)
1jk,1lm
o` u
p
j,l
= P
p
((Y
i
, Z
i
) = (a
j
, b
l
)).
2. Les hypoth`eses : H
0
= p
j,l
= q
j
r
l

1jk,1lm
et H
1
= j, l; p
j,l
= q
j
r
l
, o` u q
j
=

m
l=1
p
j,l
et r
l
=

k
j=1
p
j,l
.
3. La statistique de test :

n
= n
k

j=1
m

l=1
( p
j,l
q
j
r
l
)
2
q
j
r
l
,
o` u p
j,l
, q
j
et r
l
sont respectivement les nombres doccurrence de (a
j
, b
l
), de a
j
et de b
l
divise par n.
4. Sous H
0
, (
n
, n 1) converge en loi vers
2
((k 1)(m1)).
5. Sous H
1
, (
n
, n 1) diverge vers +.
6. Region de critique du test asymptotique : [a, +[.
7. Niveau asymptotique du test egal `a : a est le quantile dordre 1 de la loi
2
((k
1)(m1)).
8. Le test est convergent.
9. La p-valeur asymptotique est donnee par
p-valeur = P(Z
obs
n
),
o` u Z est de loi
2
((k 1)(m 1)), et
obs
n
est la statistique de test calculee avec les
observations.
Le test asymptotique est considere valide si n q
j
r
l
(1 q
j
r
l
) 5 pour tout (j, l).
IV.5.3 Regression logistique
Lobjectif est de savoir si une variable explique signicativement ou non une variable
reponse booleenne.
1. Description du mod`ele : ((X
i
, Y
i
), 1 i n) est une suite de v.a. i.i.d. respectivement
`a valeurs dans R et dans 0 ;1. La liason entre les deux variables est decrite par le
mod`ele logit : P(Y
i
= 1[X
i
= x) = p

(x) =
exp(
0
+
1
x)
1 + exp(
0
+
1
x)
, o` u = (
0
,
1
) R
2
.
2. Les hypoth`eses : H
0
=
1
= 0 et H
1
=
1
= 0.
3. La statistique de test :

n
(Y [X) = 2(
n
(Y [X;

)
n
(Y [X;

H
0
))
o` u Y = (Y
1
, . . . , Y
n
), X = (X
1
, . . . , X
n
),

= (

0
,

1
) et

H
0
= (

0
, 0) sont respec-
tivement les param`etres estimes sous le mod`ele complet et sous le mod`ele restreint `a
lhypoth`ese nulle, et
n
(Y [X; ) =

n
i=1
Y
i
ln p

(X
i
) (1 Y
i
) ln(1 p

(X
i
)).
82 CHAPITRE IV. MOD
`
ELES DISCRETS
4. Sous H
0
,
n
(Y [X) converge en loi vers
2
(1).
5. Sous H
1
,
n
(Y [X) diverge vers +.
6. Region de critique du test asymptotique : [a, +[.
7. Niveau asymptotique du test egal `a : a est le quantile dordre 1 de la loi
2
(1).
8. Le test est convergent.
9. La p-valeur asymptotique est donnee par
p-valeur = P(Z
n
(y
obs
[x
obs
),
o` u Z est de loi
2
(1), et
n
(y
obs
[x
obs
) est la statistique de test calculee avec les obser-
vations.
IV.5.4 Comparaison de deux proportions sur echantillons non apparies
1. Description du mod`ele : (X
1,k
, 1 k n
1
) et (X
2,j
, 1 j n
2
) sont deux suites
independantes de v.a. i.i.d., de loi de Bernoulli de param`etres respectifs p
1
et p
2
.
2. Les hypoth`eses : H
0
= p
1
= p
2
et H
1
= p
1
= p
2
.
3. La statistique de test : Y
1
conditionnellement `a Y = y o` u Y
1
=

n
1
k=1
X
1,k
, Y
2
=

n
2
j=1
X
2,j
et Y = Y
1
+Y
2
.
4. Sous H
0
, la loi de Y
1
conditionnellement `a Y = y est la loi hypergeometrique H(n
1
+
n
2
, y, p) o` u p = n
1
/(n
1
+n
2
).
5. Sous H
1
, Y
1
conditionnellement `a Y = y a tendance `a prendre de tr`es petites valeurs
ou de tr`es grandes valeurs.
6. Region de critique du test : y n
2
, . . . , y

1 y
+
, . . . , n
1
.
7. Niveau du test par exc`es egal `a : y

, resp. y
+
, est le quantile dordre /2, resp.
1 /2, de la loi H(n
1
+n
2
, y, p).
8. Puissance du test : non crucial.
9. p-valeur : si y
1
/n
1
< y
2
/n
2
(correspondant `a H
0
= p
1
p
2
et H
1
= p
1
< p
2
), elle
est donnee par
y
1

r=max(yn
2
,0)
C
r
n
1
C
yr
n
2
C
r
y
,
si y
1
/n
1
> y
2
/n
2
(correspondant `a H
0
= p
1
p
2
et H
1
= p
1
> p
2
), elle est donnee
par
min(n
1
,y)

r=y
1
C
r
n
1
C
yr
n
2
C
r
y
.
10. Variante pour grands echantillons : statistique de test

n
1
,n
2
=

n
1
n
2
n
1
+n
2

X
1


X
2

X(1

X)
,
o` u

X
1
= Y
1
/n
1
,

X
2
= Y
2
/n
2
et

X = (Y
1
+ Y
2
)/(n
1
+ n
2
) ; sous H
0
,
n
1
,n
2
converge
en loi (n
1
, n
2
) vers la loi ^(0, 1) ; sous H
1
,
n
1
,n
2
diverge vers + ou
; region critique ] , a] [a, +[ ; niveau asymptotique pour a =
1/2
,
le quantile dordre 1 /2 de la loi ^(0, 1) ; le test est convergent ; p-valeur egale `a
P([G[

obs
n
1
,n
2

), o` u G de loi ^(0, 1).


IV.5. R

ESUM

E DES TESTS 83
IV.5.5 Comparaison de deux proportions sur echantillons apparies
1. Description du mod`ele : ((X
1,i
, X
2,i
), 1 i n) suite de v.a. independantes, X
1,i
de loi
de Bernoulli de param`etre p
1,i
, independante de X
2,i
, de loi de Bernoulli de param`etre
p
2,i
.
2. Les hypoth`eses : H
0
= p
1,i
= p
2,i
; 1 i n et H
1
= p
1,i
signicativement plus
grand (ou plus petit) que p
2,i
pour un nombre signicatif dindices i.
3. La statistique de test : Z
0,1
conditionnellement `a Z = z, o` u Z
0,1
=

n
i=1
1
{X
1,i
=0,X
2,i
=1}
,
Z
1,0
=

n
i=1
1
{X
1,i
=1,X
2,i
=0}
et Z = Z
0,1
+Z
1,0
(Z represente le nombre de couples pour
lesquels les resultats dierent).
4. Sous H
0
, la loi de Z
0,1
conditionnellement `a Z = z est la loi B(z, 1/2).
5. Sous H
1
, conditionnellement `a Z = z, Z
0,1
a tendance `a prendre de tr`es petites valeurs
ou de tr`es grandes valeurs.
6. Region de critique du test : 0, . . . , z

1 z
+
, . . . , n.
7. Niveau du test par exc`es egal `a : z

(resp. z
+
) est le quantile dordre /2 (resp.
1 /2) de la loi B(z, 1/2).
8. Puissance du test : non crucial.
9. La p-valeur est 2P(W min(z
obs
0,1
, z z
obs
0,1
)), o` u W est de loi B(z, 1/2) et z
obs
0,1
est la
statistique de test calculee avec les observations.
10. Variante pour grands echantillons, sous des hypoth`eses raisonnables sur les p
j,i
sous H
0
et H
1
: statistique de test

n
=
Z
1,0
Z
0,1

Z
1,0
+Z
0,1
;
sous H
0
,
n
converge en loi vers la loi ^(0, 1) ; sous H
1
,
n
diverge vers + ou ;
region critique ], a][a, +[ ; niveau asymptotique pour a =
1/2
, le quantile
dordre 1/2 de la loi ^(0, 1) ; le test est convergent ; p-valeur egale `a P([G[

obs
n
1
,n
2

),
o` u G de loi ^(0, 1).
Le test asymptotique est considere valide si z > 20.
84 CHAPITRE IV. MOD
`
ELES DISCRETS
Chapitre V
Tests non parametriques
V.1 Pourquoi la statistique non parametrique ?
V.1.1 Se liberer du mod`ele parametrique
La statistique non parametrique cherche `a faire le moins dhypoth`eses possible sur la forme
eventuelle du mod`ele qui a donne naissance aux donnees observees. Elle se distingue donc
de la statistique dite parametrique declinee jusquici, qui etait caracterisee, dans le contexte
general des mod`eles statistiques par une famille parametree de probabilites { = P

, ,
o` u lensemble de param`etres etait contenu dans R
k
, et on dit souvent dans un tel cas quil
sagit dun mod`ele `a k param`etres (en sous-entendant ladjectif reels). En statistique non
parametrique, cette inclusion dans R
k
nest plus stipulee. La loi de probabilite des observations
appartient `a un ensemble plus vaste, par exemple lensemble des lois absolument continues sur
R. Les buts restent neanmoins les memes : construire des tests. Pour cela, elle utilise des outils
speciques : essentiellement les rangs, les signes et les statistiques dordre des observations.
Les calculs impliques sont souvent bien plus simples que dans le cas parametrique.
Dans ce cours, nous insisterons sur les tests non parametriques. La grande die-
rence avec les tests parametriques precedents tient `a la taille des hypoth`eses H
0
et H
1
. Dans
le mod`ele normal lineaire, par exemple, ces hypoth`eses sont decrites par un (petit) nombre
de param`etres reels comme les moyennes dans les cas simples. Dans le cas non parametrique,
par contre, la description des hypoth`eses nulles H
0
du type ces deux echantillons sont tires
dune meme loi ne peut pas se ramener `a un nombre ni de param`etres reels. Quant aux
hypoth`eses alternatives H
1
, elles sont souvent tellement vastes quelles echappent `a toute
tentative de description. Nous essaierons neanmoins de preciser dans certains cas la forme
possible dhypoth`eses alternatives an de justier la construction des tests.
V.1.2 Quand faut-il utiliser du non parametrique ?
Le non parametrique (expression famili`ere pour mod`ele non parametrique) permet
daborder des probl`emes complexes quil est dicile de modeliser correctement en utilisant un
mod`ele o` u les relations doivent etre explicitees `a laide de param`etres reels : notations donnees
par des examinateurs ayant des bar`emes dierents, petits echantillons quand on na aucun
moyen de justier lhypoth`ese gaussienne, donnees quantitatives avec variance heterog`enes.
Il existe 2 situations : la premi`ere situation est celle o` u la question posee entraine natu-
85
86 CHAPITRE V. TESTS NON PARAM

ETRIQUES
rellement le choix dun mod`ele non parametrique (par exemple les donnees sont-elles gaus-
siennes ?) et une seconde situation dans laquelle on peut hesiter entre un mod`ele parametrique
et un mod`ele non parametrique (par exemple ces 2 series de donnees ont-elles la meme loi de
probabilite ?)
Dans ce dernier cas la diculte est quil nexiste pas systematiquement un test non pa-
rametrique adapte `a une situation donnee. Pour mettre en evidence cette diculte, precisons
que le mod`ele lineaire gaussien (voir chapitre 2) permet de traiter un nombre arbitraire de
facteurs explicatifs et de regresser sur un nombre quelconque de variables (la limite infor-
matique du nombre de variables sur un gros syst`eme est de lordre de 1 000). A contrario,
les methodes non parametriques danalyse de la variance ne permettent que de traiter deux
facteurs au plus (avec des contraintes dequilibre) et celles de regression non parametrique
ne peuvent etre mises en uvre que sur une seule variable ! On observe aussi que les tests
parametriques sont souvent plus puissants que les tests non parametriques equivalents mais
les tests non parametriques sont plus simples `a mettre en uvre. La strategie `a adopter est
donc un compromis entre un mod`ele avec de nombreux param`etres mais un test plus puissant,
et un mod`ele avec une variabilite plus grande mais un test plus simple.
V.1.3 Exemples
Exemple V.1. Revenons sur lexemple III.3.1 concernant la mesure de taux dalcool dans le
sang. (en dg/l) de n sujets : voici le tableau des observations, avec n = 30 (extrait de louvrage
de D. Schwartz, Methodes statistiques ` a lusage des medecins et des biologistes, Flammarion).
27 26 26 29 10 28 26 23 14 37 16 18 26 27 24
19 11 19 16 18 27 10 37 24 18 26 23 26 19 37
Tab. V.1 Taux dalcool dans le sang. (en dg/l) de n = 30 sujets
Nous avons etudie ces donnees en supposant quelles etaient gaussiennes : gr ace aux tests
non parametriques et en particulier au test de Kolmogorov on peut valider cette hypoth`ese.
Mais construire un test pour justier du caract`ere gaussien des donnees ne peut se faire que
dans le cadre non-parametrique car lhypoth`ese alternative est naturellement lensemble de
toutes les autres lois de probabilite.
Exemple V.2. Des sociologues sinteressent `a la maladie et `a lanxiete qui en decoule. Des
societes o` u il existe une explication orale de la maladie (cest parce quon a mange du poison
quon est malade, cest parce quon a re cu un sort, etc...) sont-elles dierentes de celles
o` u aucune explication orale nexiste ? Des juges dierents ont donne une note danxiete
`a chacune de ces societes ; elles sont consignees dans le tableau ci-apr`es, o` u les eectifs des
deux echantillons sont respectivement m = 16 (societes sans explications orales) et n = 23
(societes avec explications orales).
Dans cet exemple les notes nont pas une valeur intrins`eque de mesure et il y a de plus
beaucoup dex-aequo rendant dicile lassimilation de cette loi `a une loi gaussienne. En
revanche le classement des societes les unes par rapport aux autres est signicatif. Or nous
verrons que par leur construction les tests non-parametriques sont particuli`erement adaptes
`a la comparaison de deux echantillons par lintermediaire de leurs statistiques dordre.
V.1. POURQUOI LA STATISTIQUE NON PARAM

ETRIQUE? 87
Societes sans Notes Societes avec Notes
expl. orales danxiete expl. orales danxiete
Lapp 13 Marquesans 17
Chamorro 12 Dobuans 16
Samoans 12 Baiga 15
Arapesh 10 Kwoma 15
Balinese 10 Thonga 15
Hopi 10 Alorese 14
Tanala 10 Chagga 14
Paiute 9 Navaho 14
Chenchu 8 Dahomeans 13
Teton 8 Lesu 13
Flathead 7 Masai 13
Papago 7 Lepeha 12
Wenda 7 Maori 12
Warrau 7 Pukapukans 12
Wogeo 7 Trobianders 12
Ontong 6 Kwakiull 11
Manus 11
Chiricahua 10
Comanche 10
Siriono 10
Bena 8
Slave 8
Kurtatchi 6
Tab. V.2 Tableau extrait de Siegel, 1956 : Angoisse dans les societes primitives.

Exemple V.3. On cherche `a etudier leet dune certaine drogue sur la pression arterielle.
Huit personnes sourant dhypertension sont tirees au hasard dans une population dhyper-
tendus. On mesure la pression arterielle de chacune delle, immediatement avant puis 2 heures
apr`es ladministration de cette drogue. Les resultats sont les suivants :
N

du patient 1 2 3 4 5 6 7 8
avant traitement X 192 169 187 160 167 176 185 179
apr`es traitement Y 196 165 166 157 170 145 168 177
Dans cet exemple, on a 2 petits echantillons apparies (c.f. paragraphe IV.4) : la statistique
non-parametrique permet de construire des tests simples (par exemple le test de Wilcoxon)
fondes sur le signe des dierences entre les echantillons et le rang des dierences, permettant
de tester que les 2 distributions suivent la meme loi de probabilite.

88 CHAPITRE V. TESTS NON PARAM

ETRIQUES
V.2 Les outils statistiques du non parametrique
Les probl`emes de test, en statistique non-parametrique, conduisent souvent `a ce que, sous
lhypoth`ese nulle, les observations soient i.i.d. alors que sous lhypoth`ese alternative, lune
au moins des hypoth`eses dindependance ou didentite des distributions est mise en defaut.
Ainsi, sous H
0
, il est possible de contruire des statistiques de test dont la loi est calculable.
Les tests interessants seront ceux bases sur les statistiques dites libres :
Denition V.4. Une statistique est dite libre, pour des observations i.i.d., si sa loi ne depend
que de la taille de lechantillon (et non de la loi commune des observations composant cet
echantillon).
Pour de petits echantillons, on peut alors construire des tables et en deduire la construction
de tests. Pour les grandes valeurs, on montre en general que la statistique etudiee converge
en loi (souvent vers une loi gaussienne ou la loi dune fonction simple dun vecteur gaussien).
Ces statistiques sont souvent calculees `a partir des signes et des rangs dun echantillon.
Considerons 3 observations x
1
, x
2
et x
3
veriant : x
3
< x
1
< x
2
; il est naturel de dire
que, en croissant, le premier est 3, le second est 1 et le troisi`eme est 2 ; en dautres
termes, le rang de 1 est r
1
= 2, celui de 2 est r
2
= 3 et celui de 3 est r
3
= 1. Ceci nous
conduit `a la notion generale de suite des rangs (r
1
, . . . r
n
) associee `a une suite dobservations
reelles toutes distinctes (x
1
, . . . , x
n
) ; cest la permutation (application bijective de 1, . . . , n
dans lui-meme) dont la reciproque, soit (s
1
, . . . , s
n
), verie : x
s
1
< x
s
2
< . . . < x
sn
.
Cette denition est bien etablie si les x
i
sont tous distincts. Sil nen est pas ainsi, il
faut remplacer les inegalites strictes dans la denition precedente par des inegalites larges, et
plusieurs permutations y satisfont en cas dex-aequo. Nous ne consid`ererons que des situations
o` u les observations i.i.d. sont de loi commune `a fonction de repartition continue de sorte que
les variables aleatoires de rangs, R
1
, . . . , R
n
seront uniquement denies sauf sur une partie
de probabilite nulle de R
n
; cest pourquoi nous naurons aucun probl`eme pour le calcul de
la loi de statistiques dans la denition desquelles interviendront les rangs des observations.
Dans ce contexte, on a :
Proposition V.5. Soit (X
1
, . . . , X
n
) est un n-echantillon dune loi de fonction de repartition
F continue, de mediane
1
. Alors les v.a.
2
(signe (X
1
), . . . , signe(X
n
)) sont i.i.d. avec
P(signe (X
i
) = +) = P(signe (X
i
) = ) =
1
2
.
En outre les rangs R
1
, . . . , R
n
des X
i
(1 i n) dans lordre croissant verient que pour
toute permutation de 1, . . . , n,
P(R
1
= (1), ..., R
n
= (n)) =
1
n!
Demonstration. Le premier resultat est une simple consequence de lindependance et de la
denition de la mediane.
1
La mediane dune v.a. X est le nombre tel que P(X ) = P(X ), ou lun de ces nombres sil
ny a pas unicite, ce qui se produit sil existe un intervalle non reduit `a un point sur lequel la fonction de
repartition de X prend la valeur 1/2.
2
signe (t) prend ses valeurs dans lensemble {, +}, en convenant que signe (0) = +; cette convention nest
pas genante quand F est continue car alors P(X = 0) = 0.
V.2. LES OUTILS STATISTIQUES DU NON PARAM

ETRIQUE 89
Soit une permutation de 1, ..., n, alors X
(1)
, ..., X

(n)
est encore un nechantillon de la
loi F. Donc pour une permutation , on a
P(R
1
= (1), ..., R
n
= (n)) = P(R
(1)
= (1), ..., R
(n)
= (n)).
En prenant = on trouve que cette probabilite est egale `a : P(R
1
= 1, ..., R
n
= n). En
conclusion, tous les classements ont la meme probabilite, comme il y en a n!, cette probabilite
vaut
1
n!
.
De ce theor`eme on deduit le resultat fondamental suivant : Toute fonction g des rangs
g(R
1
, ..., R
n
) a une loi qui ne depend pas de la fonction de repartition F mais
seulement de n. Ainsi g(R
1
, ..., R
n
) est une statistique libre. Remarquons aussi que les
rangs sont invariants par transformation strictement croissante. Le resultat suivant
tr`es important permet de ramener le cas o` u F est une fonction de repartition quelconque `a
celui de la loi uniforme sur [0, 1].
Proposition V.6. Soit (X
1
, . . . , X
n
) un n-echantillon suivant la loi de fonction de reparti-
tion F continue. Alors (F(X
1
), . . . , F(X
n
)) est un n-echantillon suivant la loi uniforme sur
[0, 1] et les rangs des F(X
i
) sont p.s. les memes que ceux des X
i
. Enn p.s., t R,

n
i=1
1
{X
i
t}
=

n
i=1
1
{F(X
i
)F(t)}
.
Demonstration. Nous allons eectuer la demonstration dans le cas o` u F est strictement crois-
sante de R dans ]0, 1[, ce qui assure que cette fonction continue admet un inverse strictement
croissant et continu F
1
. Pour u ]0, 1[,
P(F(X
i
) u) = P(X
i
F
1
(u)) = F(F
1
(u)) = u,
ce qui assure que les variables aleatoires F(X
i
) sont i.i.d. suivant la loi uniforme sur [0, 1].
Les deux autres assertions decoulent facilement de la croissance stricte de F.
Dans le cas general o` u F nest pas strictement croissante, la preuve est donnee en annexe
en n de chapitre.
Denition V.7. Soit X = (X
1
, X
2
, ..., X
n
) un n-echantillon suivant la loi de fonction de
repartition continue F. Le vecteur aleatoire

X
(1)
, X
(2)
, ..., X
(n)

obtenu en ordonnant les


valeurs des X
i
par ordre croissant est appele statistique dordre de X. La variable X
(k)
est la
k
i`eme
statistique dordre.
Proposition V.8. La fonction de repartition de la k
i`eme
statistique dordre est
P

X
(k)
x

=
n

j=k
C
j
n
(F (x))
j
(1 F (x))
nj
.
Demonstration. Par denition X
(k)
x signie il y a au moins k valeurs dans X qui sont
inferieures `a x. Soit j le nombre de valeurs eectivement inferieures `a x; il y a C
j
n
fa cons
de choisir les X
i
correspondants et la probabilite que ces X
i
soient inferieurs `a x est bien :
F (x)
j
(1 F (x))
nj
. En combinant tous ces elements, on trouve le resultat.
90 CHAPITRE V. TESTS NON PARAM

ETRIQUES
Un avantage inconteste du non parametrique est de permettre de travailler sur des don-
nees ordinales, cest-` a-dire qui expriment lordre et ainsi de saranchir de la quantication
absolue, car les echelles de quantications et les procedures dattributions de mesures sont
souvent peu robustes. Par exemple, dans des tests de degustation, on demande simplement
aux juges de classer les divers produits. Enn, des notes, attribuees par dierents notateurs
nayant pas les memes bar`emes, `a la fois en niveau moyen et en dispersion, posent dimportants
probl`emes statistiques pour les ramener ` a un bar`eme commun. Il est tr`es souvent preferable
de considerer que la note en elle-meme na aucune valeur, mais quelle exprime seulement
les preferences du notateur : la note est consideree comme une donnee ordinale et le non
parametrique permet de saranchir de nombreuses dicultes provenant de lechelle utilisee
pour la notation.
V.3 Probl`emes `a un seul echantillon
V.3.1 Ajustement `a une loi : le test de Kolmogorov
Cest un test dajustement `a une loi, comme le test du
2
(voir X.1.3), mais qui sapplique
`a une variable quantitative. On veut tester lhypoth`ese selon laquelle les donnees observees
sont tirees dune loi dont la fonction de repartition est F
0
. Dans toute cette section, on
consid`ere que la vraie fonction de repartion inconnue F et F
0
sont continues. Le test est
base sur la dierence entre la fonction de repartition F
0
de cette loi theorique et la fonction
de repartition empirique

F dont on rappelle la denition (voir X.1.3, p. 236) :
Denition V.9. On denit la fonction de repartition empirique du n-echantillon X =
(X
1
, ..., X
n
), par la fonction en escalier suivante :

F
X
(t) =
Card (1 i n : X
i
t)
n
=
1
n
n

i=1
1
{X
i
t}
.
Remarque V.10. Notons que

F
X
est continue `a droite.
Le test de Kolmogorov permet de tester lhypoth`ese H
0
: Les observations sont un
echantillon de la loi F
0
contre sa negation. La statistique D
X
de ce test est alors basee sur
la distance maximale entre F
0
et

F, cest `a dire :
D
X
= sup
tR

F
0
(t)

F
X
(t)

.
Il sagit dun choix de distance raisonnable, car dapr`es le theor`eme de Glivenko-Cantelli (voir
X.3.3, p. 251), sous H
0
, D
X
converge p.s. vers 0 lorsque n tend vers linni. La zone de rejet
est alors de la forme :

D
X
> a

. Notons que comme



F
X
est constante et egale `a i/n sur
lintervalle [X
(i)
, X
(i+1)
[ tandis que F
0
est croissante sur cet intervalle,
sup
t[X
(i)
,X
(i+1)
[

F
0
(t)

F
X
(t)

= max([F
0
(X
(i)
)
i
n
[, [F
0
(X
(i+1)
)
i
n
[).
On en deduit lexpression suivante tr`es utile en pratique
D
X
= max
1in
max([F
0
(X
(i)
)
i 1
n
[, [F
0
(X
(i)
)
i
n
[).
V.3. PROBL
`
EMES
`
A UN SEUL

ECHANTILLON 91
La legitimite du choix de D
X
comme statistique de test repose sur la proposition suivante :
Proposition V.11. Sous H
0
, D
X
est une statistique libre.
Demonstration. Dapr`es la proposition V.6, presque s urement
D
X
= sup
tR

F
0
(t)
1
n
n

i=1
1
{U
i
F
0
(t)}

o` u les variables U
i
= F
0
(X
i
) sont i.i.d. suivant la loi uniforme sur [0, 1]. Il sut ensuite de
faire le changement de variable u = F
0
(t) pour conclure.
La loi de D
X
sous H
0
a ete tabulee, ce qui donne des valeurs seuils a

`a ne pas depasser
pour que H
0
soit acceptable au niveau . Les moyens actuels de calcul informatique per-
mettent egalement dapprocher la loi de D
X
`a laide de simulations. Pour n grand, il existe
une approximation decrite par la proposition suivante :
Proposition V.12. Sous H
0
, en posant
n
=

nD
X
, on dispose du resultat asymptotique
suivant : la suite (
n
, n 1) converge en loi et pour tout y > 0, on a
P(
n
y)
n

k=
(1)
k
exp

2k
2
y
2

.
Demonstration. Comme pour t R,

F
X
(t) =
1
n

n
i=1
1
{X
i
t}
o` u les variables 1
{X
i
t}
sont
i.i.d. suivant la loi de Bernoulli B(F
0
(t)), le TCL entrane que

n(F
0
(t)

F
X
(t)) converge en
loi vers Y
t
de loi normale centree ^ (0, F
0
(t)(1 F
0
(t))). Plus generalement, le theor`eme de
la limite centrale multidimensionnel (voir X.3.2) assure que

n(F
0
(t
1
)

F
X
(t
1
), . . . , F
0
(t
k
)

F
X
(t
k
)) converge en loi vers un vecteur gaussien centre (Y
t
1
, . . . , Y
t
k
) de covariance donnee par
Cov(Y
t
i
, Y
t
j
) = F
0
(min(t
i
, t
j
)) F
0
(t
i
)F
0
(t
j
). En fait on montre que le processus

n(F
0
(t)

F
X
(t))
tR
converge en loi vers un processus gaussien centre tel que Cov(Y
s
, Y
t
) = F
0
(min(s, t))
F
0
(s)F
0
(t) et on montre que pour tout y > 0,
P

sup
tR
[Y
t
[ y

=
+

(1)
k
exp

2k
2
y
2

.
Proposition V.13. Sous H
1
,
n
=

nD
X
tend p.s. vers + avec n.
Le test est donc necessairement unilateral `a droite (rejet des valeurs trop grandes).
Demonstration. Sous H
1
la fonction de repartition commune des X
i
, notee F est dierente
de F
0
. Soit t
1
R tel que F
0
(t
1
) = F(t
1
). Dapr`es la loi forte des grands nombres

F
X
(t
1
) =
1
n

n
i=1
1
{X
i
t
1
}
converge p.s. vers E

1
{X
i
t
1
}

= F(t
1
). Donc

n[F
0
(t
1
)

F
X
(t
1
)[ tend p.s.
vers + de meme pour

nD
X
.
Remarque V.14. Si F
0
est non continue (par exemple lorsquil sagit dune loi discr`ete), le
test de Kolmogorov sous sa forme classique nest pas valide (la proposition V.12 nest valable
que si F
0
est continue) : on peut montrer que D
X
est alors plus concentree `a proximite de
zero que quand F est continue.
92 CHAPITRE V. TESTS NON PARAM

ETRIQUES
Remarque V.15. On peut aussi envisager des contre-hypoth`eses plus nes, du type uni-
lateral : la loi des donnees a une fontion de repartition F telle que F F
0
au sens o` u t R,
F(t) F
0
(t) et t
0
R, F(t
0
) < F
0
(t
0
). Dans ce cas, la statistique de test secrit sans la
valeur absolue (et sa loi est dierente).
V.3.2 Un exemple
On dispose des 10 donnees suivantes :
x = (2.2 , 3.3 , 5.3 , 1.8 , 4.3 , 6.3 , 4.5 , 3.8 , 6.4 , 5.5)
La question nave ces observations proviennent-elles dune loi normale de moyenne 4 et
de variance 4 ? va etre formalisee sous lenonce : tester, au niveau de signication 0.05,
lhypoth`ese nulle selon laquelle ces observations, supposees independantes et identiquement
distribuees, ont pour loi commune la loi normale de moyenne 4 et variance 4 .
1 2 3 4 5 6 7
0
0.2
0.4
0.6
0.8
1
t
F
o
n
c
t
io
n
s

d
e

r

p
a
r
t
it
io
n
s

e
m
p
ir
iq
u
e

e
t

t
h

o
r
iq
u
e
Fonction de rpartion empirique
Fonction de rpartion thorique
Lcart Maximun entre
les deux courbes vaut
0.163 en t=3.3
Fig. V.1 Le test de Kolmogorov sappuie sur la distance entre fonction de repartition
empirique et theorique.
On calcule la fonction empirique dessinee sur la gure V.1. Elle montre que D
x
= 0.163,
ecart maximal obtenu en t = 3.3. Cette valeur est-elle plausible, au niveau 0.05, sous lhy-
poth`ese H
0
? Les praticiens ont lhabitude de faire la transformation de laxe des abscisses
u = F(t). Cette transformation permet de travailler dans le carre [0, 1] [0, 1] (cf gure V.2)
o` u D
X
mesure alors lecart de la fonction de repartition empirique par rapport `a la premi`ere
bissectrice.
V.4. PROBL
`
EMES
`
A DEUX

ECHANTILLONS 93
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
u=F(t)
F
o
n
c
t
io
n
s

d
e

r

p
a
r
t
it
io
n
s

e
m
p
ir
iq
u
e

e
t

t
h

o
r
iq
u
e
Fig. V.2 Presentation usuelle de la distance de Kolmogorov.
En utilisant une table ou bien en approchant les quantiles de la loi de D
X
sous H
0
par
simulation dun grand nombre de realisations suivant cette loi, on remarque que la valeur
observee D
x
= 0.163 est inferieure au quantile dordre 0.95 de la loi de D
X
: 0.410. (La
p-valeur est de 0.963.)
Lhypoth`ese de reference H
0
est acceptee.
V.3.3 Test de normalite
Revenons `a lexemple V.1 des mesures de taux dalcoolemie. On peut de la meme mani`ere
tester H
0
: Les donnees suivent une loi gaussienne de moyenne 23 et de variance 49 contre
lalternative : cest faux. On trouve D
x
= 0.132 donc on ne rejette pas H
0
pour les niveaux
habituellement utilises (quantile asymptotique dordre 0.95 egal `a 0.242, et p-valeur asymp-
totique egale `a 0.637). Dans ce probl`eme on pourrait tester H
0
: Les donnees suivent une
loi gaussienne contre lalternative : cest faux, `a laide du test de normalite de Lilliefors :
ce test utilise la statistique de Kolmogorov determinee par la distance entre la loi empirique
et la loi gaussienne dont lesperance est la moyenne empirique et la variance, la variance
empirique. Les quantiles sont dierents des quantiles du test de Kolmogorov et peuvent etre
calcules par simulation. Il existe de nombreux tests de normalite (test de Pearson construit
avec une approche de discretisation et un test du
2
, test de Shapiro-Wilk, . . . ).
V.4 Probl`emes `a deux echantillons
V.4.1 Que signie echantillon apparie, non apparie ?
La distinction entre echantillon apparie et echantillon non-apparie a dej`a ete faite dans
IV.4 ; reprenons la avec un autre exemple. Deux correcteurs doivent corriger 400 copies et on
souhaite savoir sils ont ou non le meme comportement (on dira aussi : le meme bar`eme) ;
deux modes de repartition des copies entre les correcteurs sont consideres.
Dans un premier cas, chacune des 400 copies est corrigee par les deux correcteurs, en
aveugle, cest-` a-dire que chaque correcteur ignore la note mise par son coll`egue. On enregistre
ensuite pour chaque copie ses deux notes, ce qui justie la terminologie : les echantillons de
notes sont apparies ; en dautres termes, il y a deux facteurs identies dans lelaboration de
94 CHAPITRE V. TESTS NON PARAM

ETRIQUES
la note : la copie et le correcteur. Pour donner un sens `a la problematique qui nous interesse
ici (comparaison des deux correcteurs), il faut donc modeliser la situation en introduisant
pour chaque copie une notion de valeur intrins`eque, de sorte que ce sont les variations
de chaque correcteur autour de cette valeur qui caracterisent ces correcteurs et dont il faut
comparer les lois (et non les lois des notes elles-memes, qui varient de copie `a copie pour
chaque correcteur). Dans cette situation, la comparaison des bar`emes peut se faire par un
test de Wilcoxon.
Dans un second cas, les deux correcteurs se partagent le paquet et chaque copie nest
corrigee quune fois ; les deux paquets se composent respectivement de m et 400 m copies.
Le seul facteur identiable est donc le correcteur et il ny a plus de notion dappariement
qui ait un sens : on dit donc que les echantillons de notes sont non apparies. On suppose
implicitement que, globalement, ces deux paquets sont de meme valeur (un exemple cel`ebre
de non respect de cette clause sest presente en France lors dun examen national dallemand
o` u la repartition des copies etait faite par ordre alphabetique ; le rapport sur cet examen
setonnait ensuite que les zones de la n de lalphabet, plus frequentes comme premi`ere lettre
du nom de famille dans les regions frontali`eres de lAllemagne que dans le reste de la France,
recueillent signicativement de meilleurs notes !). Ici, cest sur lensemble des notes de lun et
lautre paquets que lon fondera la comparaison des deux correcteurs. Dans cette situation,
la comparaison des bar`emes peut par exemple se faire par un test de Mann et Whitney.
V.4.2 Deux echantillons apparies : le test de Wilcoxon
Principe
Dans lexemple V.3 de letude dune drogue sur la pression arterielle, on desire savoir si
ladministration de cette drogue diminue la pression. On peut reformuler cette question de la
fa con suivante : la loi de la pression arterielle des patients a-t-elle ete decalee vers les valeurs
inferieures apr`es ladministration de la drogue ?
Pour y repondre, on se place dans le mod`ele non parametrique de decalage suivant : on
suppose que les variables (X
1
, . . . , X
n
) (pressions avant administration de la drogue) sont i.i.d.
de fonction de repartition F continue et independantes des variables (Y
1
, . . . , Y
n
) (pressions
apr`es administration) i.i.d. de fonction de repartition F

(t) = F(t ) o` u R. Dans ce


mod`ele, les variables Y
i
ont meme loi que les variables X
i
+. En eet,
P(Y
1
t) = F(t ) = P(X
1
t ) = P(X
1
+ t).
On souhaite tester H
0
= = 0 contre H
1
= < 0 (cela revient au meme de choisir
H
0
= 0 contre H
1
= < 0).
Pour repondre `a cette question, on presente le test de Wilcoxon
3
construit `a partir de la
statistique de Wilcoxon. On ordonne les variables Z
i
= X
i
Y
i
suivant lordre croissant des
valeurs absolues pour obtenir la suite Z
(1)
, . . . , Z
(n)
avec [Z
(1)
[ [Z
(2)
[ . . . [Z
(n)
[. On
calcule ensuite
T
+
=
n

k=1
k1
{Z
(k)
>0}
.
3
Ce test est egalement appele test des signes et rangs.
V.4. PROBL
`
EMES
`
A DEUX

ECHANTILLONS 95
Lexpression de T
+
mele donc les rangs des valeurs absolues des dierences Z
i
= X
i
Y
i
et leur signes. Sous H
0
, ces dierences ont une loi symetrique autour de 0 : en eet, comme
X
i
et Y
i
sont independantes et de meme loi, X
i
Y
i
a meme loi que Y
i
X
i
. En outre comme
F est continue, P(Z
i
= 0) = 0.
La proposition suivante (assez intuitive), permet alors de determiner la loi de T
+
sous H
0
puisquelle assure que les variables aleatoires (1
{Z
(k)
>0}
, 1 k n) sont alors i.i.d. suivant
la loi de Bernoulli B(
1
2
) :
Proposition V.16. Si Z suit une loi symetrique autour de zero telle que P(Z = 0) = 0,
alors sa valeur absolue et son signe sont independants.
Demonstration. La symetrie de la loi de Z, jointe au fait que P(Z = 0) = 0, exprime que si B
est une partie borelienne de R
+
et quon note B sa symetrique (B = x 0 : x B),
on a :
P([Z[ B) = P(Z B B) = 2 P(Z B).
Il en resulte pour le choix B = R
+
que :
P(signe(Z) = +) = P(signe(Z) = ) =
1
2
donc :
P(signe(Z) = +, [Z[ B) = P(Z B) =
1
2
P([Z[ B) = P(signe(Z) = +) P([Z[ B).
De meme, on a P(signe(Z) = , [Z[ B) = P(signe(Z) = ) P([Z[ B). La denition de
lindependance entre signe(Z) et [Z[ est ainsi veriee (voir X.1.4, p. 239).
On deduit de la proposition precedente que, sous H
0
, les variables aleatoires 1
{Z
(k)
>0}
sont i.i.d. de loi de Bernoulli B(
1
2
). On a ainsi
E[T
+
] =
n(n + 1)
4
Var

T
+

=
1
4

k
2
=
n(n + 1) (2n + 1)
24
.
Et meme si les dierents termes de T
+
nont pas meme variance `a cause du coecient k,
on peut neanmoins montrer la normalite asymptotique de T
+
. On consid`ere la statistique de
test

n
=
T
+

n(n+1)
4

n(n+1)(2n+1)
24
.
Proposition V.17. Sous H
0
, la suite (
n
, n 1) converge en loi vers la loi normale centree
reduite ^(0, 1).
96 CHAPITRE V. TESTS NON PARAM

ETRIQUES
La preuve de cette proposition est donnee en annexe en n de chapitre.
On etudie maintenant le comportement de la statistique de test sous H
1
. Comme [Z
(1)
[
[Z
(2)
[ . . . [Z
(n)
[, pour 1 j k n, Z
(k)
+ Z
(j)
est positif si et seulement si Z
(k)
lest.
Donc k1
{Z
(k)
>0}
=

k
j=1
1
{Z
(j)
+Z
(k)
>0}
et
T
+
=

1jkn
1
{Z
(j)
+Z
(k)
>0}
.
Mais les doubletons Z
(j)
, Z
(k)
avec j k sont en bijection avec les doubletons Z
i
, Z
j
avec
i j. Do` u
T
+
=

1ijn
1
{Z
i
+Z
j
>0}
=

1ijn
1
{X
i
(Y
i
)+X
j
(Y
j
)>2}
,
o` u les variables aleatoires Y
i
ont meme loi que les X
i
. En utilisant cette expression, on
peut demontrer que lorsque n tend vers linni,
n
tend p.s. vers ou + suivant que
> 0 ou < 0.
Ainsi pour lexemple de letude de leet dune drogue (H
1
= < 0), la zone critique
est de la forme [a, +[.
Remarque V.18. Si on choisit comme hypoth`ese alternative :
H
1
= > 0, la zone critique est de la forme ] , a],
H
1
= = 0 alors la zone critique est de la forme ] , a] [a, +[.

Pour les petits echantillons (n < 20), on consultera les tables pour trouver les valeurs
seuils de T
+
ou on ecrira quelques lignes de programmation an de simuler un grand nombre
de realisations de T
+
sous lhypoth`ese nulle. Pour les grands echantillons (n 20), on utilisera
lapproximation gaussienne. Ce resultat reste approximativement valable quand les donnees
comportent des ex-aequo. Voyons plus precisement comment traiter ces cas en pratique.
Traitement des ex-aequo
Cest un des probl`emes permanents de la statistique non parametrique. En theorie, on
sait pourtant que si on travaille avec des lois F continues, il ne devrait pas apparatre dex-
aequo (probabilite doccurrence nulle !). En pratique, on en trouve souvent et surtout quand
on travaille sur des notes. Par exemple, si un ou plusieurs examinateurs notent 200 individus
de 1 `a 20, on est assure de trouver des ex-aequo en grand nombre. Ce probl`eme est donc
incontournable en pratique. Nous donnons ci-dessous les trois principales reponses possibles
et qui sappliquent `a lensemble des tests de ce chapitre.
Randomisation : on departage tous les ex-aequo par un tirage au sort auxiliaire : on
jette une pi`ece en lair... Cette methode est la plus seduisante sur le plan theorique,
cependant elle a linconvenient dintroduire un hasard exog`ene qui peut brouiller les
resultats pour les petits echantillons.
Suppression : dans un test de signe, si on a deux donnees appariees egales, on supprime
la paire correspondante.
V.4. PROBL
`
EMES
`
A DEUX

ECHANTILLONS 97
Rang moyen : dans les tests de rangs, quand plusieurs valeurs sont egales, on leur
donne la moyenne des rangs quelles auraient si elles etaient dierentes. Cest la
methode la plus employee dans les tests de rangs, et cest celle que nous
conseillons, et que nous utiliserons dans les exemples `a venir. Elle nest pas parfai-
tement rigoureuse sur le plan theorique, mais pour la plupart des tests, il existe des
corrections pour tenir compte des egalisations.
Exemple V.19. Revenons sur lexemple V.3 concernant letude de leet dune certaine
drogue.
(X Y ) -4 +4 +21 +3 -3 +31 +17 +2
rang([X Y [) 4.5 4.5 7 2.5 2.5 8 6 1
rang des dif. 0 4.5 7 2.5 8 6 1
On en deduit t
+
= 29. Des simulations ou une table de Wilcoxon donne la p-valeur
sous H
0
: P(T
+
29) = 0.074. Au niveau de signication de 0.05 (comme pour tout niveau
inferieur `a 0.074), t
+
= 29 tombe dans la region dacceptation de H
0
; la drogue na pas deet
signicatif sur la tension.

V.4.3 Deux echantillons non apparies


On dispose de deux echantillons X
1
, ..., X
m
et Y
1
, ..., Y
n
, issus de variables aleatoires toutes
independantes, de fonctions de repartition continues, notees respectivement F pour le premier,
et G pour le second. On veut tester lhypoth`ese H
0
: F = G Nous allons pour cela decrire
deux tests. Dans le test de Kolmogorov-Smirnov, lalternative est F = G. Pour le test de
Mann et Whitney, lalternative, un peu plus restrictive, sera precisee ulterieurement.
Test de Kolmogorov-Smirnov pour deux echantillons
On decrit dabord le test de Kolmogorov-Smirnov qui generalise le test de Kolmogorov
(voir ci-dessus V.3.1) au cas de deux echantillons. Ce test tr`es utilise vise donc `a repondre `a
la question ces deux echantillons sont ils issus dune meme loi ?.
Comme dans le cas `a un seul echantillon, ce test de Kolmogorov-Smirnov est base sur la
distance entre deux fonctions de repartition ; il sagit ici des fonctions de repartition empirique

F
X
associee `a X et

G
Y
associee `a Y :
D
X,Y
= sup
tR

F
X
(t)

G
Y
(t)

De meme, la zone de rejet de niveau est prise de la forme D


X,Y
> a, o` u a est encore
independant de F sous H
0
gr ace au resultat suivant.
Proposition V.20. Sous H
0
, la statistique D
X,Y
est libre. On notera sa loi T(m, n).
Demonstration. Dapr`es la proposition V.6,
D
X,Y
= sup
tR

1
m
m

i=1
1
{U
i
F(t)}

1
n
n

j=1
1
{V
j
F(t)}

98 CHAPITRE V. TESTS NON PARAM

ETRIQUES
o` u U
1
= F(X
1
), ..., U
m
= F(X
m
) et V
1
= F(Y
1
), ..., V
n
= F(Y
n
) sont deux echantillons
independants de la loi uniforme sur [0, 1]. On conclut en eectuant le changement de variable
u = F(t).
Remarque V.21. En pratique, pour calculer D
x,y
on trie globalement les x
i
et les y
j
par
ordre croissant pour obtenir z = (z
1
, . . . , z
n+m
). En notant s
k
= 1/m si z
k
provient de x et
s
k
= 1/n si z
k
provient de y, on a
D
x,y
= max
1kn+m

l=1
s
l

La loi de Kolmogorov-Smirnov T(m, n) est tabulee pour des petites valeurs de m et n,


elle est aussi accessible facilement par simulation. Pour le cas m = n, et si D
n,n
designe une
v.a. de loi T(n, n), on dispose aussi de la formule (pour tout entier strictement positif k) :
P(nD
n,n
> k) = 2
[n/k]

j=1
(1)
j+1
(n!)
2
(njk)!(n+jk)!
.
Pour les echantillons de grande taille, lorsque m et n tendent vers linni, on a le com-
portement asymptotique suivant.
Proposition V.22. Si on pose
m,n
=

mn
m+n
D
X,Y
, lorsque min(m, n) , on a
sous H
0
, y > 0, P(
m,n
y)
+

(1)
k
exp (2k
2
y
2
),
sous H
1
, p.s.
m,n
tend vers +.
Lexpression asymptotique de la fonction de repartition sous H
0
ne peut etre utilisee en
pratique que pour des valeurs assez elevees de m et n (de lordre de 40 au moins) car la
convergence annoncee est lente.
Ce test de Kolmogorov-Smirnov est interessant dans le cas tr`es general o` u lon ne connat
aucun lien entre les deux echantillons. On propose maintenant un autre test, tr`es simple `a
mettre en uvre.
Test de Mann et Whitney
Le test de Mann et Whitney est base sur lenchevetrement des observations des deux
echantillons. On note 1
{Y
j
>X
i
}
la v.a. qui vaut 1 si Y
j
> X
i
et 0 sinon. La statistique U
Y ,X
du test secrit comme la somme des 1
{Y
j
>X
i
}
.
U
Y ,X
=

i=1..m
j=1..n
1
{Y
j
>X
i
}
Dans ces conditions, on a :
V.4. PROBL
`
EMES
`
A DEUX

ECHANTILLONS 99
Proposition V.23. Sous H
0
, la statistique U
Y ,X
est libre. On notera sa loi |(m, n). En
outre, P(Y
j
> X
i
) =
1
2
.
Demonstration. Si H
0
est vraie, on dispose dun (m+n)-echantillon de la loi de fonction de
repartition F : (X
1
, . . . , X
m
, Y
1
, . . . , Y
n
). Dapr`es la proposition V.6, (F (X
1
) , . . . , F (X
m
) ,
F (Y
1
) , . . . , F (Y
n
)) est un (m +n)-echantillon de la loi uniforme et p.s.,

i=1..m
j=1..n
1
{Y
j
>X
i
}
=

i=1..m
j=1..n
1
{F(Y
j
)>F(X
i
)}
,
ce qui assure que la statitisque U
Y ,X
est libre. Comme P(Y
j
> X
i
) = P(F(Y
j
) > F(X
i
)) et
que F(Y
j
) et F(X
i
) sont des v.a. independantes de loi uniforme sur [0, 1], on en deduit que
P(Y
j
> X
i
) = P(F(Y
j
) > F(X
i
)) =

[0,1]
2
1
{u>v}
dudv =
1
2
.
Si P(Y
j
> X
i
) <
1
2
, U
Y ,X
va avoir tendance `a etre plus petit que sous H
0
tandis que si
P(Y
j
> X
i
) >
1
2
, U
Y ,X
va avoir tendance `a etre plus grand que sous H
0
. Cela se voit au
niveau de lesperance car E[U
Y ,X
] = mnP(Y
j
> X
i
).
On choisit comme hypoth`ese alternative H
1
= P(Y
j
> X
i
) =
1
2
. La region de rejet de
H
0
= F = G contre H
1
au niveau est de la forme :
U
Y ,X
nappartient pas `a [u

m,n,/2
, u
+
m,n,/2
].
Les valeurs de u

m,n,/2
et u
+
m,n,/2
(quantiles dordre /2 et 1 /2 de la loi |(m, n))
ont ete calculees et tabulees pour les petites valeurs `a partir de la loi uniforme.
Lesperance mathematique et la variance dune v.a. U
m,n
de loi |(m, n) valent respective-
ment E[U
m,n
] =
mn
2
et Var(U
m,n
) =
mn(m+n+1)
12
. Pour m et n superieurs `a 10, lapproximation
de la loi |(m, n) par la loi normale desperance mathematique
mn
2
et variance
mn(m+n + 1)
12
est justiee par la proposition suivante :
Proposition V.24. Lorsque min(m, n) tend vers linni, les v.a. denies par

m,n
=
U
m,n

mn
2

mn(m+n+1)
12
,
o` u U
m,n
est une v.a. de loi |(m, n), convergent en loi vers la loi normale centree reduite
^(0, 1).
On peut montrer que sous H
1
= P(Y
j
> X
i
) =
1
2
, la statistique de test
m,n
tend p.s.
vers + ou lorsque m et n tendent vers linni de telle sorte que le rapport
m
n
ait une
limite dans ]0, [. La region critique est donc de la forme ] , a] [a, +[, et le test
de Mann et Whithney est convergent. Pour un test de niveau asymptotique , on choisit
a =
1/2
, le quantile dordre 1

2
de la loi ^(0, 1).
100 CHAPITRE V. TESTS NON PARAM

ETRIQUES
Remarque V.25. On peut expliciter des sous ensembles remarquables de lhypoth`ese alter-
native du test de Mann et Whitney.
Soit W une v.a. de fonction de repartion F
W
et Z une v.a. de fonction repartition
F
Z
. On dit que la loi de W majore strictement pour lordre stochastique la loi Z, si
F
W
(t) F
Z
(t) pour tout t R avec inegalite stricte pour au moins une valeur de t.
On le note alors Z W. Si de plus Z et W sont independantes, on a P(W > Z) >
1
2
.
Pour le test de Mann et Whitney, on peut donc considerer comme hypoth`ese alternative
H
1
= X
i
Y
j
Y
j
X
i
sans changer la region critique.
On peut se placer dans un mod`ele de decalage en supposant que la fonction de reparti-
tion commune des Y
j
est de la forme F

(t) = F(t ) o` u R, ce qui signie que Y


j
a meme loi que X
i
+ . Alors pour > 0, X
i
Y
j
tandis que pour < 0, Y
j
X
i
.
On peut alors tester lhypoth`ese H
0
= = 0 contre lhypoth`ese H
1
= = 0 sans
changer la region critique.
Enn si on prend comme hypoth`ese alternative H
1
= P(Y
j
> X
i
) <
1
2
ou H
1
= Y
j

X
i
ou H
1
= < 0, la region critique est de la forme ] , a] tandis que si on prend
H
1
= P(Y
j
> X
i
) >
1
2
ou H
1
= X
i
Y
j
ou H
1
= > 0, la region critique est de la
forme [a, +[.

D`es que m et n sont grands, le calcul de U sous la forme donnee ci-dessus devient fasti-
dieux. Dans ce cas, on utilise la methode suivante :
on classe globalement les X
i
et Y
j
, do` u une suite Z = (Z
1
, . . . , Z
n+m
),
pour tout j (o` u 1 j n) on rep`ere, et on note S
j
, le rang de Y
j
dans la suite Z,
on calcule R
Y
=

n
j=1
S
j
. On verie elementairement que les v.a. U
Y ,X
et R
Y
sont
liees par :
U
Y ,X
= R
Y

n(n + 1)
2
.
Le traitement des ex-aequo se fait par les memes methodes que pour les tests `a un
echantillon.
Remarque V.26. On peut evidemment echanger le r oles des deux echantillons. On consid`ere
alors les statistiques U
X,Y
, calculee `a partir du nombre de couples (i, j) tels que X
i
> Y
j
et
R
X
, calculee `a partir de la somme des rangs des X
i
dans la suite Z ; elles verient U
X,Y
=
R
X

m(m+1)
2
. Dautre part on a : R
X
+R
Y
=
(n+m)(n+m+1)
2
.

Exemple V.27. Revenons sur lexemple V.2 de langoisse dans les societes primitives. Pour
tester lhypoth`ese H
0
: les deux types de societe sont dierentes contre sa negation, nous
allons utiliser les deux tests precedents. Le tableau des rangs est le suivant :
V.4. PROBL
`
EMES
`
A DEUX

ECHANTILLONS 101
Societes sans Notes Rangs Societes avec Notes Rangs
expl. orales danxiete expl. orales danxiete
Lapp 13 20.5 Marquesans 17 39
Chamorro 12 24.5 Dobuans 16 38
Samoans 12 24.5 Baiga 15 36
Arapesh 10 16 Kwoma 15 36
Balinese 10 16 Thonga 15 36
Hopi 10 16 Alorese 14 33
Tanala 10 16 Chagga 14 33
Paiute 9 12 Navaho 14 33
Chenchu 8 9.5 Dahomeans 13 29.5
Teton 8 9.5 Lesu 13 29.5
Flathead 7 5 Masai 13 29.5
Papago 7 5 Lepeha 12 24.5
Wenda 7 5 Maori 12 24.5
Warrau 7 5 Pukapukans 12 24.5
Wogeo 7 5 Trobianders 12 24.5
Ontong 6 1.5 Kwakiull 11 20.5
Manus 11 20.5
Chiricahua 10 16
Comanche 10 16
Siriono 10 16
Bena 8 9.5
Slave 8 9.5
Kurtatchi 6 1.5
R
x
= 200 R
y
= 580
m = 16 n = 23
Application du test de Kolmogorov-Smirnov. On calcule les fonctions de repartition
empiriques des deux echantillons, puis on trouve D
x,y
= 0.5516. Or dapr`es les tables de ce
test au niveau 0.01 (ou dapr`es les resultats fournis par les logiciels), on a : P(D
x,y
> 0.5045) =
0.01. On peut donc rejeter, au seuil 0.01, lhypoth`ese nulle et armer la dierence entre les
deux societes.
A-t-on le meme resultat en utilisant le test de Mann et Whitney ?
Application du test de Mann et Whitney. On trouve : U
y,x
= 580 12 23 =
580 276 = 304 de meme que U
x,y
=

des rangs des X


m(m+1)
2
= 200 8 17 = 64.
Lapproximation gaussienne a pour moyenne 16 23 = 184 et pour variance 35.02
2
. La
v.a. centree et reduite
U
y,x
184
35.02
prend pour valeur 3.43 ce qui est tr`es grand pour une
loi normale centree reduite, dont la fonction de repartition vaut 1 3.10
4
en 3.43. Par
consequent on met en evidence une dierence, signicative `a tout niveau 3.10
4
, entre
les deux types de societes, de la meme mani`ere quavec le test de Kolmogorov.
102 CHAPITRE V. TESTS NON PARAM

ETRIQUES
V.4.4 Tests parametriques ou tests non parametriques ?
Les tests de Kolmogorov-Smirnov ou de Mann et Whitney sont le pendant non pa-
rametrique du test parametrique de Student. Ces trois tests travaillent tous sur deux echan-
tillons mutuellement independants. Dans le cas o` u toutes les hypoth`eses du test de Student
sont veriees (meme variance, normalite...) on demontre quil est optimal. Dans ce cas precis,
lecacite du test de Mann et Whitney par rapport au test de Student est de 96%; cest
`a dire quil a une precision comparable. D`es que lon a le moindre doute sur la validite des
hypoth`eses du test de Student, il vaut mieux faire un test non parametrique.
Un des avantages du test de Student est de fournir un estimateur de la dierence entre
les deux populations ainsi quun intervalle de conance.
V.5 Conclusions
Ces notes de cours sont loin detre exhaustives et pretendent simplement montrer quelques
methodes. Laranchissement des hypoth`eses contraignantes des tests parametriques evite
beaucoup dhypoth`eses que lon sait rarement justier mais se paye par labsence de methodes
generales. Chaque probl`eme donne lieu `a une statistique particuli`ere, `a des tables dierentes.
Notons quavec les ordinateurs personnels, il est desormais tr`es facile de reconstruire les tables
en approchant par simulation les distributions des statistiques de test sous lhypoth`ese nulle
et den evaluer les valeurs critiques selon le niveau desire.
Pour donner des recommandations generales demploi de la statistique non parametrique,
on peut dire que, sil existe un test non parametrique qui repond au probl`eme que lon se pose
et que lon connat ce test, ce nest pas une mauvaise strategie que de lutiliser. Cependant,
ce serait une erreur deliminer sciemment un facteur ou un regresseur pertinent dans un
probl`eme pour rentrer dans le moule non parametrique.
V.6 Annexe
Preuve de la proposition V.6. On introduit le pseudo-inverse F
1
(u) = infx; F(x) u.
Avec cette denition, on verie facilement que pour F continue, on a
(x, u) R]0, 1[, F(x) < u x < F
1
(u) et F(F
1
(u)) = u. (V.1)
Soit u ]0, 1[. Lensemble t R : F(t) = u est ferme non vide par continuite de F et cest
un intervalle par croissance de F. On le note [t
u
,

t
u
]. Comme pour tout x R, P(X
i
= x) = 0,
on a alors
P(F(X
i
) = u) = P(X
i
= t
u
) +P(X
i
]t
u
,

t
u
]) = 0 +F(

t
u
) F(t
u
) = 0. (V.2)
Cette propriete implique que les variables F(X
i
) sont presque s urement distinctes ; leurs rangs
sont alors identiques `a ceux des X
i
. On en deduit egalement en utilisant les proprietes (V.1)
que
P(F(X
i
) u) = P(F(X
i
) < u) +P(F(X
i
) = u) = P(X
i
< F
1
(u)) + 0
= P(X
i
F
1
(u)) P(X
i
= F
1
(u)) = F(F
1
(u)) 0 = u.
V.7. R

ESUM

E 103
Ainsi les variables F(X
i
) sont uniformement reparties sur [0, 1].
On note | = u ]0, 1[:

t
u
t
u
> 0, ensemble qui est au plus denombrable puisque pour
n N

, u [F(n), F(n)] :

t
u
t
u
> 1/n comporte au plus 2n
2
+ 2 elements. On a donc
en utilisant (V.2),
P

X
i

uU
[t
u
,

t
u
]

uU
P(F(X
i
) = u) = 0.
Comme pour x en dehors de lunion

uU
[t
u
,

t
u
] des intervalles de constance de F, t R,
x t F(x) F(t), on conclut que p.s. t R,

n
i=1
1
{X
i
t}
=

n
i=1
1
{F(X
i
)F(t)}
.
Preuve de la proposition V.17. Il sut dapr`es le paragraphe X.3.1 de verier la convergence
de la fonction caracteristique
n
(u) = E[e
iun
] vers la fonction caracteristique de la loi
^(0, 1) :
N(0,1)
(u) = e
u
2
/2
, o` u

n
=
1
2

v
n
n

k=1
k(1
{Z
(k)
>0}
1
{Z
(k)
0}
) et v
n
=
n(n + 1)(2n + 1)
24
.
Comme les variables aleatoires Z
(k)
sont i.i.d. de loi B(1/2), on a

n
(u) =
n

k=1
E

e
i
uk
2

vn
(1
{Z
(k)
>0}
1
{Z
(k)
0}
)

=
n

k=1
cos

uk
2

v
n

.
Comme en 0, ln(cos(x)) +
x
2
2
= O(x
4
), il existe une constante C > 0 telle que

ln(
n
(u)) +
n

k=1
u
2
k
2
8v
n

C
n

k=1
u
4
k
4
16v
2
n
.
En remarquant que
1
8vn

n
k=1
k
2
=
1
2
et que
1
v
2
n

n
k=1
k
4

n
5
v
2
n
tend vers 0 avec n, on conclut
que ln(
n
(u)) converge vers u
2
/2.
V.7 Resume
V.7.1 Test de Kolmogorov
1. Mod`ele non parametrique : X = (X
i
, 1 i n) i.i.d. de fonction de repartition F
continue.
2. Hypoth`eses : H
0
= F = F
0
et H
1
= F = F
0

3. Statistique de Kolmogorov
D
X
= max
1in
max

[F
0
(X
(i)
)
i 1
n
[, [F
0
(X
(i)
)
i
n
[

o` u X
(1)
X
(2)
. . . X
(n)
est le reordonnement croissant des X
i
.
Statistique de test :
n
=

nD
X
.
4. Sous H
0
, lorsque n tend vers linni,
n
converge en loi vers la loi de fonction de
repartition 1
{y>0}

+
k=
(1)
k
exp(2k
2
y
2
).
104 CHAPITRE V. TESTS NON PARAM

ETRIQUES
5. Sous H
1
,
n
tend p.s. vers +.
6. Region critique : [a, +[, avec a > 0.
7. Test convergent pour n +.
8. Pour un niveau asymptotique , a est donne par

+
k=
(1)
k
exp(2k
2
a
2
) = 1 .
9. La p-valeur asymptotique du test est donnee par 1

+
k=
(1)
k
exp

2k
2

obs
n
2

.
V.7.2 Test de Wilcoxon
1. Mod`ele non parametrique de decalage : X = (X
i
, 1 i n) i.i.d. de fonction de
repartition F(t) continue independants de Y = (Y
i
, 1 i n) i.i.d. de fonction de
repartition F

(t) = F(t ) o` u R (Y
i
a meme loi que X
i
+).
2. Hypoth`eses : H
0
= = 0 et H
1
= = 0.
3. Statistique de Wilcoxon : On classe les variables Z
i
= X
i
Y
i
suivant lordre croissant
des valeurs absolues et on note Z
(1)
, . . . , Z
(n)
les variables ainsi obtenues ([Z
(1)
[
[Z
(2)
[ . . . [Z
(n)
[) ; la statistique de Wilcoxon est T
+
=
n

k=1
k1
{Z
(k)
>0}
.
Statistique de test :

n
=
T
+

n(n+1)
4

n(n+1)(2n+1)
24
.
4. Sous H
0
, lorsque n tend vers linni,
n
converge en loi vers la loi ^(0, 1).
5. Sous H
1
,
n
tend p.s. vers si > 0 ou vers + si < 0.
6. Region critique : ] , a] [a, +[, avec a > 0.
7. Test convergent pour n +.
8. Pour un niveau asymptotique (on recommande n > 20), a est donne par le quantile
dordre 1 /2 de la loi normale centree reduite.
9. La p-valeur asymptotique du test est donnee par P

[G[ [
obs
n
[

o` u G de loi ^(0, 1).


10. Variantes : H
0
inchange,
H
1
= > 0, region critique ] , a] o` u a est le quantile dordre 1 de la loi
normale centree reduite,
H
1
= < 0, region critique [a, +[ o` u a est le quantile dordre 1 de la loi
normale centree reduite.
V.7.3 Test de Kolmogorov-Smirnov
1. Mod`ele non parametrique : X = (X
i
, 1 i m) i.i.d. de fonction de repartition
F continue independants de Y = (Y
j
, 1 j n) i.i.d. de fonction de repartition G
continue
2. Hypoth`eses : H
0
= G = F et H
1
= G = F.
V.7. R

ESUM

E 105
3. Statistique de Kolmogorov-Smirnov :
D
X,Y
= max
1kn+m

l=1
S
l

o` u pour 1 l m+n, S
l
= 1/m si dans le reordonnement croissant des X
i
et des Y
j
,
le l-i`eme element provient de X et S
l
= 1/n sinon.
Statistique de test :

m,n
=

mn
m+n
D
X,Y
.
4. Sous H
0
, lorsque min(m, n) tend vers linni,
m,n
converge en loi vers la loi de fonction
de repartition 1
{y>0}

+
k=
(1)
k
exp(2k
2
y
2
).
5. Sous H
1
,
m,n
tend p.s. vers +.
6. Region critique : [a, +[, avec a > 0.
7. Test convergent pour min(m, n) +.
8. Pour un niveau asymptotique , a est donne par

+
k=
(1)
k
exp(2k
2
a
2
) = 1 .
9. La p-valeur asymptotique du test est donnee par 1

+
k=
(1)
k
exp

2k
2

obs
m,n
2

.
V.7.4 Test de Mann et Whitney
1. Mod`ele non parametrique : X = (X
i
, 1 i m) i.i.d. de fonction de repartition
F continue independants de Y = (Y
j
, 1 j n) i.i.d. de fonction de repartition G
continue.
2. Hypoth`eses : H
0
= F = G et H
1
= P(Y
j
> X
i
) =
1
2
.
3. Statistique de Mann et Whitney :
U
Y ,X
=
n

j=1
S
j

n(n + 1)
2
,
o` u S
j
designe le rang de Y
j
dans le classement des X
i
et Y
k
par ordre croissant.
Statistique de test :

m,n
=
U
Y ,X

mn
2

mn(m+n+1)
12
.
4. Sous H
0
, lorsque min(m, n) tend vers linni,
m,n
converge en loi vers la loi ^(0, 1).
5. Sous H
1
,
m,n
tend p.s. vers si P(Y
j
> X
i
) <
1
2
, ou vers + si P(Y
j
> X
i
) >
1
2
.
6. Region critique : ] , a] [a, +[, avec a > 0.
7. Test convergent pour m, n + avec
m
n
admettant une limite dans ]0, +[.
8. Pour un niveau asymptotique , a est donne par le quantile dordre 1 /2 de la loi
^(0, 1).
9. La p-valeur asymptotique du test est donnee par P

[G[ [
obs
m,n
[

o` u G de loi ^(0, 1).


10. Variantes : H
0
inchange
106 CHAPITRE V. TESTS NON PARAM

ETRIQUES
H
1
= P(Y
1
> X
1
) <
1
2
, region critique ] , a] o` u a est le quantile dordre 1
de la loi ^(0, 1).
H
1
= P(Y
1
> X
1
) >
1
2
, region critique [a, +[ o` u a est le quantile dordre 1
de la loi ^(0, 1).
Chapitre VI
Modelisation statistique des valeurs
extremes
VI.1 Introduction
Comme le relate le journal La Petite Gironde du 7 mars 1930, les debits dune rivi`ere
comme la Garonne (voir aussi gure VI.1) sont tr`es variables : A Cadillac, la plus grosse
Fig. VI.1 La Garonne en col`ere
inondation du si`ecle : Jeudi matin, les eaux ont atteint 11 m . 77, ` a 10 heures, soit 30
107
108 CHAPITRE VI. MOD

ELISATION STATISTIQUE DES VALEURS EXTR

EMES
centim`etres de plus quen 1875. Le sol de la halle est recouvert par les eaux. La place du
Ch ateaux, sur laquelle notre depositaire avait installe un magasin de vente en plein vent
ressemble ` a sy meprendre au Marche neuf ou ` a la place Meriadeck, tant les inondes ont
transporte de meubles, ustensiles et objets de toutes sortes. Le courant est dune telle violence
que, seule, la vedette des Ponts et Chaussees traverse le euve dont la berge gauche se situe
maintenant ` a dix-sept kilom`etres ` a louest. La route de Saint Macaire est submergee au point
que les eaux ont penetre dans la chapelle des alienes. Dans cet etablissement aux quartiers tr`es
eleves, tous les pensionnaires sont en lieu s ur et largement ravitailles. La decrue commencee
` a midi aujourdhui semble devoir etre lente . (...)
Faut- il construire une digue de protection contre les crues ou considerer que le risque
de debordement est acceptable ? Si lingenieur decide de se proteger par un ouvrage de genie
civil, jusqu`a quelle hauteur h construire la digue ? En termes dingenierie hydraulique, h
est souvent denomme crue de projet (on conviendra que h = 0 represente lalternative ne
pas proteger) et sera exprime dans la meme unite que les debits de la rivi`ere (puisquen une
section donnee de la rivi`ere, il y a une correspondance biunivoque entre la hauteur et le
debit).
Decider de construire ou de ne pas construire un ouvrage destine `a proteger un site contre
le debordement dune rivi`ere repose sur la connaissance de la probabilite dapparition dune
crue dommageable. Pour levaluer, on dispose generalement de quelques enregistrements des
debits passes de la rivi`ere. Dans le tableau VI.1 par exemple, on a enregistre le maximum de
debit journalier qui sest ecoule au cours de chacune des annees de 1913 `a 1977. Les donnees
x sont formees de la collection (jour de la mesure j, x
j
= debit enregistre en m
3
/s).
annee Max annee Max annee Max annee Max annee Max
1913 4579 1926 3200 1939 2800 1952 6721 1965 4968
1914 4774 1927 6332 1940 5553 1953 2700 1966 5163
1915 4968 1928 4968 1941 5163 1954 3000 1967 2600
1916 4774 1929 1950 1942 3100 1955 5747 1968 2530
1917 3400 1930 7500 1943 3600 1956 2300 1969 4073
1918 6137 1931 3700 1944 4579 1957 3200 1970 3120
1919 4189 1932 3600 1945 3200 1958 2900 1971 4696
1920 4579 1933 2500 1946 950 1959 4968 1972 5377
1921 2800 1934 3700 1947 1850 1960 3400 1973 3956
1922 4384 1935 6137 1948 2000 1961 4774 1974 4228
1923 5747 1936 4189 1949 1900 1962 2300 1975 3200
1924 3200 1937 5747 1950 2600 1963 2700 1976 4209
1925 3100 1938 3200 1951 2900 1964 3300 1977 4482
Tab. VI.1 Debits annuels maximaux (en m
3
/s) de la Garonne `a Mas dAgenais sur la
periode 1913-1977
Mais dautres types de donnees auraient pu etre collectees. La gure VI.2 presente ainsi la
serie des debits de crue de la Garonne `a Mas dAgenais qui ont depasse le seuil de 2500m
3
/s
sur la periode 1913-1977.
Avec cette autre campagne de collecte dinformations, plusieurs debits de pointe peuvent
apparatre une meme annee, tandis que certaines annees ne feront pas partie des valeurs
VI.1. INTRODUCTION 109
Fig. VI.2 151 depassement des pointes de crue au del` a de 2500m
3
/s de la Garonne `a Mas
dAgenais durant la periode 1913-1977
extremes.
Au vu de ces donnees, lingenieur doit prendre la decision h. Imaginons quil y ait n
mesures de debit x
j
depassant 2500m3/s. Une recommandation courante de lingenierie est
la decision :
h = k max
i=1...n
(x
1
, ..., x
i
, ...x
n
)
o` u k est un coecient de securite valant par exemple 3. Est-ce que cette strategie denit
toujours un pari interessant ? Que se passe-t-il quand lechantillon de donnees saccrot avec
le temps ? Que faire lorsque lon ne dispose pas dune serie de debits, au site o` u lon envisage
de construire louvrage (site non jauge) ? Peut-on justier la decision de fa con plus formelle,
et montrer par exemple que cette fa con de proceder realise un arbitrage rationnel entre les
investissements de genie civil consentis et les dommages evites ? Ici entre en sc`ene le statis-
ticien. Sappuyer sur un mod`ele probabiliste permet danalyser le bon fonctionnement et/ou
lintegrite dune protection menacee par un evenement externe dommageable. Cet evenement
dommageable apparat comme une variable aleatoire reelle Z (e.g. debit du euve) dont la
fonction de repartition G(z[) est caracterisee par un vecteur de param`etres inconnus . Le
plus souvent, les dommages `a assumer en cas de defaillance de la protection sont une fonction
croissante de Z : le co ut des dommages augmente avec les surfaces inondees.
On propose alors de choisir une valeur de projet h gr ace `a un quantile, z
p
, xant le niveau
de protection qui a la probabilite p (faible !) detre depasse :
110 CHAPITRE VI. MOD

ELISATION STATISTIQUE DES VALEURS EXTR

EMES
p = P(Z > z
p
) = 1 G(z
p
[)
La probabilite de defaillance p est xee par le decideur, dapr`es une norme nationale ou
internationale. Le travail de lanalyste est
de choisir un mod`ele G(z[) realiste pour representer les valeurs extremes, den discuter
les proprietes et den connatre les limites,
destimer la valeur de projet via une inference statistique sur ,
detudier la sensibilite du resultat fournit aux hypoth`eses de modelisation et de fournir
une fourchettes dincertitudes sur la recommandation.
Le but de ce paragraphe est de mettre la theorie des valeurs extremes, et plus specique-
ment les mod`eles GEV (Generalized Extreme Values) et POT (Peak Over Threshold) `a la
portee des el`eves. Une excellente introduction `a la theorie des valeurs extremes est disponible
dans [3]. Pour des applications en ingenierie hydraulique, le manuel [6], se lit facilement.
VI.2 Mod`eles de valeurs extremes
La premi`ere idee dun modelisateur pour choisir un mod`ele G(z[) realiste est de sap-
puyer sur une verite mathematique. Si les hypoth`eses sur lesquelles il appuie sa reexion se
rapprochent de circonstances idealisees particuli`eres o` u a ete demontre un theor`eme du calcul
des probabilites, il pourra etre tente dutiliser comme mod`ele la structure particuli`ere des lois
du hasard issue de ce theor`eme.
Mais cette idee doit etre examinee avec soin. Dabord la construction dun mod`ele est
toujours en soi une succession de verites mathematiques `a linterieur dun corps dhypoth`eses
(cest son support rationnel). Cest dans la transposition concr`ete des hypoth`eses que reside
linterpretation et celle-ci ne peut prendre la forme dune deduction mathematique absolue.
Le prototype de theor`eme justicatif concerne la loi normale. On ne peut mieux faire que
rappeler ici la boutade de H. Poincare : Tout le monde croit ` a la loi normale : les physiciens
parce quils pensent que les mathematiciens lont demontree et les mathematiciens parce quils
croient quelle a ete veriee par les physiciens.
En fait, lhypoth`ese deet additif dun grand nombre de causes justiant mathemati-
quement la loi normale, nest quune aide `a linterpretation physique qualitative de certaines
variables particuli`eres. Le mod`ele resultant nest pas justie de fa con absolue mais sil est
valide par des donnees, il peut etre privilegie (vis-` a-vis dautres mod`eles equivalents) pour
autant que ladditivite ait reellement un sens.
Les valeurs extremes dun signal quelconque peuvent etre denies de deux fa cons dieren-
tes. La premi`ere consid`ere le maximum des observations reguli`erement espacees sur une
periode xe ou bloc (e.g. le maximum annuel des observations journali`eres). Pourvu que
la taille du bloc soit assez grande, les maxima peuvent etre consideres comme des tirages
independants dans une loi generalisee des valeurs extremes ou mod`ele GEV. La seconde
mani`ere consid`ere que les observations qui exc`edent un seuil xe constituent un processus
ponctuel de Poisson et, pourvu que ce seuil soit assez haut, les depassements du seuil xe ont
une distribution de Pareto generalisee : cest le mod`ele POT. Les deux mod`eles presentent
trois param`etres formant un vecteur tridimensionnel, que nous noterons , prenant ses va-
leurs dans qui represente lensemble des etats de la nature (i.e. lensemble des valeurs
possibles de ). Lavantage du mod`ele GEV est quil donne directement la valeur de projet,
VI.2. MOD
`
ELES DE VALEURS EXTR

EMES 111
i.e. levenement extreme associe `a une periode de retour xee (decennale, centennale, etc.).
Or, on peut montrer que cette valeur de projet peut aussi etre determinee `a partir dun
mod`ele POT. Lavantage du mod`ele POT est quen choisissant judicieusement le seuil on
peut augmenter les donnees et donc reduire lincertitude sur la valeur de projet.
Toutefois, insistons sur le fait que pour lestimation des quantiles eleves, il nexiste pas
de recette miracle, mais plut ot de nombreuses techniques qui ensemble permettent den avoir
un ordre de grandeur.
VI.2.1 La loi generalisee des extremes (la loi du maximum par blocs)
Considerons un ensemble de variables aleatoires independantes X
1
, X
2
...X
n
ayant en com-
mun la meme fonction de repartition F (hypoth`ese iid pour independantes et identiquement
distribuees) et considerons le maximum M
n
= max (X
1
, X
2
...X
n
). Dans les applications, les
X
i
sont souvent enregistres `a intervalle de temps regulier : par exemple les pluies moyennes
de la journee ou les debits journaliers dune rivi`ere si bien que M
n
correspondra au record
sur une periode de temps n. Ainsi, si n est le nombre de jours dun mois donne, M
n
pourra
designer la pluie de la journee la plus humide du mois en question.
On verie facilement que la fonction de repartition de M
n
est F
n
. Passer `a la limite quand
n tend vers linni na pas de sens, car tous les points x du domaine de denition plus petits
que le supremum de ce domaine sont tels que F(x) < 1, et, formule ainsi, la limite de F
n
(x)
est 0 (sauf pour le supremum o` u elle vaut 1).
Pour eviter cette diculte, on se donne le droit de renormaliser M
n
avec deux suites
n
(translation) et
n
(echelle) en Y
n
=
Mnn
n
. La question devient : existe-t-il de telles suites
de constantes qui permettent de stabiliser la repartition de Y
n
quand n tend vers linni vers
une fonction de repartition G non degeneree ? (On dit que la fonction de repartition dune
variable aleatoire X est degeneree ou triviale si p.s. X est egal `a une constante.)
La loi du maximum renormalise
Si X est une variable aleatoire, et > 0, R deux constantes, la transformation X
est appele translation et
X

changement dechelle. On dit quune fonction de repartition est


max-stable si pour tout n 1, la loi de M
n
= max
1in
X
i
, o` u les v.a. (X
i
, i 1) sont
iid de fonction de repartition G, est `a une translation et un changement dechelle constante.
Autrement dit, G est max-stable si pour tout n 1, sil existe des constantes
n
> 0
(changement dechelle) et
n
(translation) telles que :
G
n
(
n
z +
n
) = G(z)
Theor`eme VI.1 (Loi du maximum renormalise). Soit (X
i
, i = 1..n) une suite de variables
aleatoires iid. Supposons quil existe deux suites de translations/changements dechelle
n
et

n
tels que Y
n
=
Mnn
n
converge en loi vers une distribution non triviale de fonction de
repartition G.
Alors G est max-stable et est de la forme GEV (generalized extreme value) ` a trois pa-
ram`etres = ( R, > 0, R) :
G(y) = exp

1 +

, avec y tel que

1 +

> 0, (VI.1)
112 CHAPITRE VI. MOD

ELISATION STATISTIQUE DES VALEURS EXTR

EMES
et par continuite quand = 0
G(y) = exp

exp

, y R.
Trois cas remarquables apparaissent :
Pour < 0, on parle de loi de Weibull. Le support de G, i.e. x; G(x) < 1, est borne
`a droite. Autrement dit x
M
, le quantile dordre 1 de G, est ni.
Pour = 0, on parle de loi de Gumbel. G tend vers 1 `a linni `a vitesse exponentielle.
Pour > 0, on parle de loi de Frechet. G tend vers 1 `a linni `a vitesse polynomiale.
La condition susante de ce theor`eme est facile `a montrer avec un peu dalg`ebre `a partir
de lequation (VI.1) . La condition necessaire, montrer que si une telle limite existe, alors G
est de la forme (VI.1), fait appel `a la theorie des fonctions `a variation lente qui depasse le
cadre de ce cours. Pour la demonstration on pourra consulter [4], page 322.
La loi GEV a lavantage detre explicite, de ne dependre que de 3 param`etres : dans la
pratique cest une loi quon pourra utiliser pour modeliser la pluie maximale, la crue maximale
annuelle dune rivi`ere (voir par exemple le tableau VI.1, bien que les debits successifs dune
rivi`ere ne soient pas independants), la vitesse maximale du vent durant lannee en un lieu
donne ou la plus grande intensite de secousses sismiques dune region durant une annee. Dans
ces mod`eles, les param`etres (translation) et (echelle) sont speciques des dimensions
auxquelles on etudie le phenom`ene (la taille des donnees elementaires dont on prendrait le
maximum ) tandis que le param`etre r`egle le comportement des queues de distributions.
Intuitivement, plus est grand, plus la distribution est concentree `a linni. La structure
initiale de la loi du phenom`ene elementaire F oriente donc le signe et la valeur de .
Exemple VI.2. On peut facilement demontrer la loi du maximum renormalise pour des
queues de distribution typiques. A cet eet, distinguons trois cas :
-i) Supposons que la fonction de repartition F ait un support borne `a droite, i.e. x
M
=
infx; F(x) = 1 < , et un comportement polynomial en ce point. Plus precisement,
on suppose que pour un certain < 0 et > 0 :
1 F(x)
xx

M
(
x
M
x

)
1/
.
Ceci est par exemple le cas pour les lois uniformes (pour lesquelles = 1). Des lors,la
fonction de repartition de
M
n
x
M
n

est (pour x < 0)


P

M
n
x
M
n

= P(M
n
n

x +x
M
) = F(n

x +x
M
)
n
,
et on a
F(n

x +x
M
)
n
= e
nlog

1
1
n
(
x

)
1/
+o(1/n)


n
e
(
x

)
1/
.
Le maximum renormalise
M
n
x
M
n

(echelle grossissante) converge eectivement vers


une distribution de Weibull.
VI.2. MOD
`
ELES DE VALEURS EXTR

EMES 113
-ii) Supposons que F ait un comportement polynomial `a linni (queue dite lourde).
Plus precisement, on suppose que pour un certain > 0 et > 0 :
1 F(x)
x+
(
x

)
1/
.
Ceci est le cas pour les lois de Cauchy. La fonction de repartition de
M
n
n

est (pour
x < 0) F(n

x)
n
. Et on a
F(n

x)
n
= e
nlog

1
1
n
(
x

)
1/
+o(1/n)


n
e
(
x

)
1/
.
Donc le maximum renormalise
M
n
n

(echelle retrecissante) converge eectivement vers


une distribution de Frechet.
-iii) Supposons enn que F ait un comportement exponentiel `a linni. Plus precisement,
soit > 0 et on suppose que
1 F(x)
x+
e

.
On a donc que F(x + log(n))
n

n
exp(exp(
x

)) et le maximum translate
M
n
log(n) converge eectivement vers une distribution de Gumbel.
On peut egalement montrer que le maximum renormalise dun echantillon de v.a. de loi
gaussienne converge vers une loi de Gumbel. En revanche, pour les lois discr`etes prenant un
nombre ni de valeurs (x
1
< ... < x
d
) avec probabilite positive (comme par exemple la loi
Bernoulli), le maximum converge en loi vers la distribution triviale de la v.a. constante egale
`a x
d
.
La valeur de projet du mod`ele GEV
La valeur de projet ou niveau de retour, z
p
, (quantile dordre 1 p) associe `a la periode
de retour T(z
p
) = 1/p est deni `a lannexe A. Il est obtenu en posant
1 p G(z
p
[, , ) .
Apr`es quelques manipulations elementaires, on trouve, avec x
p
= log (1 p),
z
p
=

1 x

si = 0,
log x
p
si = 0.
Remarquons que x
p
peut etre interprete comme linverse de la periode de retour pour les
petites valeurs de p. En eet quand p est petit
x
p
p =
1
1 G(z
p
)
=
1
T(z
p
)
Ainsi, le maximum annuel dune annee quelconque a la probabilite p de depasser la hauteur
z
p
et, dans un rep`ere cartesien, les couples (log x
p
, z
p
) dessinent une droite si = 0 (Gumbel),
une courbe concave si < 0 (Weibull) ou convexe si > 0 (Frechet).
Si laxe des abscisses est en coordonnee logarithmique, on arrive aux memes conclusions
avec les couples (x
p
, z
p
).
114 CHAPITRE VI. MOD

ELISATION STATISTIQUE DES VALEURS EXTR

EMES
VI.2.2 La loi des depassements (mod`ele POT)
Lautre mod`ele caracteristique des extremes est celui des depassements encore appele POT
pour Peaks over Threshold . Considerons un ensemble de variables aleatoires independantes
(X
n
, n 1) de meme loi de fonction de repartition F. Appelons u un niveau seuil et etudions
la loi des depassements au-del` a de ce seuil. Le theor`eme de Pickands stipule que lorsque u
crot vers linni, on sait caracteriser `a la fois lintensite et la frequence des depassements.
Denition VI.3. La fonction de repartition de la loi de Pareto generalisee de param`etre
( > 0, R) est, si = 0,
1

1 +
y

, pour 0 y si > 0 ou 0 y /() si < 0,


et (par continuite) si = 0
1 exp(y/) pour y > 0.
Theor`eme VI.4 (Loi des depassements). Soient (X
n
, n 1) une suite de variables aleatoires
iid de fonction de repartition F veriant la loi du maximum renormalisee. On note x
M
=
infx; F(x) = 1 ] , ] le maximum du support de F. On se donne un seuil de
depassement u qui crot vers x
M
et tel que lim
ux

M
,n
n(1 F(u)) = ]0, +[. Des lors,
asymptotiquement quand u x

M
et n ,
- le nombre de depassements de lechantillon de taille n, K = Card i 1, . . . , n; X
i
>
u, suit une loi de Poisson de param`etre .
- Conditionnellement aux nombres de depassements, les intensites des depassements for-
ment des variables aleatoires independantes de loi de Pareto generalisee : pour u+y <
x
M
,
P(X u +y[X > u) 1

1 +
y
(u)

, (VI.2)
o` u est lindice de la loi limite du maximum renormalise.
Remarque VI.5. Pour = 0, il est possible de choisir lechelle (u) > 0 telle que :
(u)
ux

(u x
M
) si < 0 (et x
M
< +),
u si > 0 (et x
M
= +).

Rappelons que la distribution de Poisson de param`etre secrit :


P(K = k) = exp ()

k
k!
, k N,
o` u est la valeur moyenne du nombre de depassements du seuil u. Le paragraphe VI.6.2 sur
la loi de Poisson permet de comprendre pourquoi cest ici un cas limite de tirage binomial
de param`etre 1 F(u). On utilisera ainsi ce resultat theorique comme mod`ele pour decrire
les temperatures dune saison superieures `a un seuil ou les debits dune rivi`ere depassant un
niveau de reference (voir lexemple la gure VI.2). Il y a une liaison etroite entre la GEV du pa-
ragraphe precedent et ce mod`ele de depassement (POT). La loi du maximum sur une periode
VI.2. MOD
`
ELES DE VALEURS EXTR

EMES 115
de temps donnee dun mod`ele POT est la loi GEV. La loi conditionnelle du depassement
dun seuil quand on sait que lobservation issue dun mod`ele GEV depasse ce seuil est la loi
de Pareto generalisee. On peut fortement justier les hypoth`eses du mod`ele utilise : pour
peu que lon travaille avec un seuil susamment eleve et que lhypoth`ese dindependance
soit acceptable pour les crues de ce niveau, les conditions asymptotiques sappliquent et en-
tranent la validite progressive de la representation mathematique (VI.2). Dun autre cote, il
a ete simplie pour les besoins du calcul (tout en restant realiste pour certains cas) en posant
= 0 auquel cas lequation (VI.2) devient par continuite la loi exponentielle :
P(X u +y [X > u) 1

exp

y
(u)

Le mod`ele POT pour lequel le nombre de depassements suit une loi de Poisson avec
lintensite du depassement exponentielle ( = 0) est encore appele mod`ele de renouvellement-
depassement.
Exemple VI.6. On peut aussi verier la loi des depassements pour les trois distributions
typiques de lexemple VI.2. En eet, la fonction de repartition des depassements secrit :
P(X u +y[X > u) = 1
1 F(u +y)
1 F(u)
.
-i) Loi limite de Weibull ( < 0). On consid`ere le cas 1 F(x)
xx

M
(
x
M
x

)
1/
. On
prend comme echelle (u) = (u x
M
) et on verie que
P(X u (u)y[X u > 0)
ux

M
1 (1 +y)
1/
,
qui est bien la fonction de repartition de la loi de Pareto generalisee avec < 0.
-ii) Loi limite de Frechet ( > 0). On consid`ere le cas 1 F(x)
x+
(
x

)
1/
. On prend
comme echelle (u) = u et on verie que
P(X u (u)y[X u > 0)
u+
1 (1 +y)
1/
,
qui est bien la fonction de repartition de la loi de Pareto generalisee avec > 0.
-iii) Loi limite de Gumbel ( = 0). On consid`ere le cas 1 F(x)
x+
e

. On prend
comme echelle (u) = et on verie que
P(X u y[X u > 0)
u+
1 e
y
,
qui est bien la fonction de repartition de la loi de Pareto generalisee avec = 0.

Du mod`ele GEV au mod`ele POT


Donnons une idee heuristique de comment passer du mod`ele GEV au mod`ele POT. Soit
une suite de variables iid `a temps discret de fonction de repartition F . Sous lhypoth`ese iid,
116 CHAPITRE VI. MOD

ELISATION STATISTIQUE DES VALEURS EXTR

EMES
les extremes sont les observations elementaires qui depassent un seuil u > 0 xe (cf. gure
VI.3). On sinteresse alors `a la probabilite quune variable aleatoire elementaire quelconque
depasse un certain niveau y > 0 quand on sait quelle depasse le seuil xe :
P(X > y +u[X > u) =
1 F (y +u)
1 F (u)
(VI.3)
Seuil u>0
Fentre de longueur T
Temps
Y X
Fig. VI.3 Au depassement Y du seuil u > 0 correspond lintensite X = Y +u
On sait que la distribution du maximum des observations elementaires tend asymptoti-
quement vers la distribution GEV. A u xe, il existe donc pour un n susamment grand,
deux constantes
n
et
n
,telles que la loi du maximum de n variables aleatoires iid de loi F
realise lapproximation :
P(M
n
u) = P

M
n

u
n

u
n

.
Comme P(M
n
u) = F(u)
n
, on en deduit que
nlog F (u)

1 +

u
n

1/
Si u est susamment proche de x
M
, on utilise un developpement au premier ordre du loga-
rithme autour de 0 :
log F (u) = log(1 (1 F(u)) 1 F (u)
VI.3. INF

ERENCE 117
pour obtenir
1 F (u)
1
n

1 +

u
n

1/
Si cette relation tient pour un seuil u > 0, elle tiendra aussi pour tout niveau qui le depasse,
par exemple le niveau y+u. D`es lors, en substituant dans (VI.3) on trouve que la distribution
de Pareto generalisee est candidate `a la loi des depassements quand u est susamment eleve,
puisque :
P(X > y +u[X > u)

1 +
y
(u)

1/
o` u (u) =
n
+ (u
n
) > 0.
Du mod`ele POT au mod`ele GEV
On consid`ere M, le maximum dun grand nombre de variables aleatoires iid. Pour un
seuil u (grand), M u, qui represente les depassements au dessus du seuil u, se comporte
asymptotiquement comme le maximum de K variables aleatoires (Y
i
, i 1, . . . , K), o` u les
variables aleatoires (Y
i
, i 1) sont independantes de loi de Pareto generalisee de param`etre
((u), ), et independantes de K de loi de Poisson de param`etre > 0. On a donc
P(M u y) P( max
1iK
Y
i
y).
La fonction de repartition du maximum est obtenue en sommant la repartition conjointe sur
toutes les valeurs possibles de K :
P

max
1iK
Y
i
y

k=0
P

max
1iK
Y
i
y[K = k

P(K = k)
= exp

1 +

(u)
y

1/

,
o` u lon a tenu compte de la loi de Poisson et de la loi de Pareto generalisee. Il vient donc
P(M x) exp

1 +

(u)
(x u)

1/

.
Il est facile de montrer gr ace `a un simple reparametrage que cette distribution limite est une
GEV.
VI.3 Inference
VI.3.1 Inference du mod`ele GEV
Le mod`ele GEV nest pas regulier : le support de la distribution depend de la valeur
des param`etres : / est une borne superieure de la distribution si < 0 et une borne
inferieure si > 0. Du fait de cette violation des conditions de regularite, les proprietes des
estimateurs du maximum de vraisemblance (existence, convergence, normalite asymptotique)
ne sont pas automatiquement garanties. Smith [9] a etudie ce probl`eme de theorie en detail
et formule les conclusions suivantes :
118 CHAPITRE VI. MOD

ELISATION STATISTIQUE DES VALEURS EXTR

EMES
si > 0.5, alors les estimateurs du maximum de vraisemblance poss`edent les proprietes
asymptotiques ordinaires,
si 1 < < 0.5, alors on peut generalement calculer les estimateurs du maximum de
vraisemblance, mais ils ne poss`edent pas les proprietes asymptotiques classiques,
si < 1, il peut meme etre impossible de calculer les estimateurs du maximum de
vraisemblance.
Les cas ennuyeux, < 0.5, correspondent en pratique `a des distributions avec une
queue tr`es courte bornee `a droite qui ne sont que rarement rencontrees dans la pratique,
ce qui fait que ces limites theoriques sont moins strictes quelles ne le paraissent de prime
abord. Par contre la normalite des estimateurs est une propriete asymptotique, qui peut
netre obtenue que pour un nombre tr`es important de donnees, condition irrealiste quand on
travaille avec des evenements rares. De ce fait la theorie proposera souvent des intervalles
de conance symetriques (alors que lon sattend `a plus dincertitudes `a droite qu`a gauche)
et trop optimistes (le theor`eme de Cramer-Rao donne la borne inferieure theoriquement
atteignable en situation asymptotique).
Le mod`ele de GEV par maximum de vraisemblance
Rappelons que la vraisemblance dun mod`ele aleatoire est la densite de sa loi de proba-
bilite. La vraisemblance du mod`ele generalise des extremes, pour j = 1...m annees denregis-
trements y = (y
1
, ...y
j
, ...y
m
) supposees independantes secrit donc :
l(y; , , ) =

m m

j=1
exp

1 +

y
j

1 +

y
j

1
.
On travaille generalement avec la log-vraisemblance, souvent plus maniable, L(y; , , ) =
log(l(y; , , )), notee abusivement par la suite L(, , ) :
L(, , ) = mlog()

+ 1

j=1
log

1 +

y
j

j=1

1 +

y
j

.
Un algorithme doptimisation numerique est indispensable pour trouver le maximum de
L(, , ) sous les m contraintes 1 +

y
j

> 0.
Le cas = 0 requiert un traitement separe. En posant = 1/ et log() = /, la
vraisemblance se presente sous la forme
L(, , ) = mlog ()

j=1
y
j

j=1
exp(y
j
)

Exemple VI.7. Prenons comme exemple illustratif le niveau journalier de la mer `a Port
Pirie (Australie). Cet exemple est tire de [3]. Les donnees couvrent la periode 1923-1987 et
peuvent etre obtenues sur le site :
http ://www.maths.bris.ac.uk/~masgc/ismev/summary.html.
La gure VI.4 montre le prol du maximum annuel et le graphe des niveaux de retour. La
variabilite du signal semble stationnaire et il est donc raisonnable de postuler que les maxima
sont iid.
VI.3. INF

ERENCE 119
1920 1930 1940 1950 1960 1970 1980 1990
3.5
4
4.5
5
H
a
u
t
e
u
r

(
m
)
Maximum annuel du niveau journalier de la mer Port Pirie
10
-2
10
-1
10
0
3.8
4
4.2
4.4
4.6
4.8
5
x
p
z
p
(
m
)
Fig. VI.4 Chronique des maxima annuels et graphe des niveaux de retour
Appelons ( , ,

) lestimateur du maximum de vraisemblance trouve par evaluation
numerique. On trouve ici ( 3.9, 0.2,

0.05). La theorie fournit aussi les in-
tervalles de credibilite apr`es calcul de la matrice de variance-covariance V (inverse de la
matrice dinformation de Fisher), voir la remarque II.15.
V =

2
L

2


2
L



2
L


2
L

2
L

2


2
L


2
L



2
L

2
L

1
soit
V

0.00078 0.000197 0.00107


0.000197 0.00041 0.00078
0.00107 0.00078 0.00965

Prenant la racine carree de la diagonale, on obtient que les ecart-types pour , et



sont
respectivement sont 0.028, 0.020 et 0.098. Lapproximation normale fournit les intervalles de
conance correspondants pour , , (pour un niveau de 95% approximativement 2 ecart-
types autour de lestimation). On constate en particulier que celui correspondant `a est
[0.24, 0.14] , ce qui contient la valeur 0 et nexclut pas le mod`ele plus simple de Gumbel. Le
choix dune distribution `a support borne pour representer les donnees ne va donc pas de soi.

120 CHAPITRE VI. MOD

ELISATION STATISTIQUE DES VALEURS EXTR

EMES
Inference des quantiles de la GEV par maximum de vraisemblance
Rappelons que le quantile associe `a la periode de retour T =
1
p
est , en posant x
p
=
log (1 p),
z
p
=

1 x

si = 0,
log x
p
si = 0.
Avec T = 100 ans (p = 0.01), la hauteur centennale est obtenue en injectant ( = 3.9, =
0.2,

= 0.05) dans ces formules, z
0.01
= 4.69. On peut aussi y associer un intervalle de
conance, car la variance de z
p
peut se calculer par :
Var(z
p
) (z
p
)

V (z
p
) ,
avec
(z
p
)

z
p

,
z
p

,
z
p

1,
1 x

1 x

p
log x
p

2
/

(voir la remarque II.15), que lon evalue avec 3.9, 0.2,



0.05. Numeriquement,
lintervalle de conance `a 95% ainsi calcule est [4.38, 5].
On peut reprendre ces memes calculs avec un mod`ele de Gumbel `a deux param`etres
(puisque = 0). On trouve 3.87, 0.195 avec des ecart-types associes 0.03 et 0.019.
Lestimation de la hauteur centennale est leg`erement plus forte que precedemment, z
0.01

4.77, mais lintervalle de conance beaucoup plus etroit, ce qui represente le fait quune grosse
part de lincertitude est portee par , qui traduit le comportement des queues de distribution.
Verication du mod`ele
En rangeant les donnees y
j
, j = 1..m par ordre croissant on obtient un echantillon
ordonne y
(i)
, i = 1..m. La distribution empirique evaluee en y
(i)
peut etre evaluee par un
estimateur non-parametrique :

G
e
(y
(i)
) =
i
m+ 1
(on notera la presence de m + 1 et non m au denominateur pour autoriser la possibilite de
depasser la plus grande donnee enregistree).
En rempla cant les valeurs inconnues par leur estimation dans la distribution theorique, il
vient :

G
mv
(z
(i)
) = exp

1 +

y
(i)

Si le mod`ele GEV marche bien G est proche de



G et le graphe (

G
mv
(y
(i)
),

G
e
(y
(i)
), i =
1..m. ) des probabilites (probability plot) ne doit pas seloigner de la premi`ere diagonale.
Il en va de meme si on regarde le graphe des quantiles (qq plot) , cest-` a-dire le graphe
(

G
1
mv

i
m+1

, y
(i)

, i = 1..m).
VI.3. INF

ERENCE 121
Le mod`ele de Gumbel ( = 0) par ajustement lineaire
La technique du qq plot precedent sugg`ere une heuristique destimation des param`etres
dun mod`ele de Gumbel fondee sur la repartition empirique : en eet, en papier de Gumbel,
cest `a dire apr`es avoir eectue la transformation y log(log(y)) , les quantiles empiriques

G
1
mv

i
m+1

et les donnees associees salignent sur une droite de pente


1

et dordonnee `a
lorigine

.
Sur lexemple des niveaux de la mer `a Port-Pirie, on obtient les estimateurs = 3.9, =
0.2, z
0.01
= 4.8. Malheureusement cette technique simple ne fournit pas dintervalle de con-
ance des resultats quelle produit (il faut avoir recours ` a des methodes plus elaborees de type
bootstrap), mais ce calcul peut etre utile pour procurer des valeurs initiales interessantes en
entree dun algorithme de recherche du maximum de vraisemblance de la GEV.
Autres estimateurs que ceux du maximum de vraisemblance
Dans la litterature des extremes, dautres estimateurs que ceux du maximum de vrai-
semblance ont ete proposes pour evaluer les param`etres inconnus (, , ). En particulier,
lestimation du coecient qui gouverne la forme de la queue de distribution est cruciale.
Ces estimateurs sont tous bases sur la statistique dordre Y
(1)
< Y
(2)
< ...Y
(k)
< ...Y
(n)
, et
on montre leur convergence en considerant les ecarts de k(n) valeurs ordonnees consecutives.
Pour montrer la convergence en probabilite de ces estimateurs vers quand k(n) tend vers
linni avec n, on se place dans les circonstances o` u
k(n)
n

n
0 pour que la proportion du
nombre de termes consideres dans lestimateur nexplose pas de fa con asymptotique.
Estimateur de Pickands Lestimateur de Pickands ([8]) sexprime comme :

k
=
1
log(2)
log

Y
(nk)
Y
(n2k)
Y
(n2k)
Y
(n4k)

.
Il est valable quelque soit le signe de . La preuve de la convergence est donnee `a la page
332 de [4]. En pratique on est `a n xe et on trace le graphique de cet estimateur en fonction
du nombre k dobservations considerees, mais le comportement est tr`es volatil au depart, ce
qui nuit `a la lisibilite du graphique. De plus, lestimateur est mecaniquement tr`es sensible `a
la taille de lechantillon sur lequel on travaille, ce qui le rend peu robuste.
Estimateur de Hill Lestimateur de Hill ([5]) ne fonctionne que pour le domaine dattrac-
tion de Frechet ( > 0). Il est donne par

k
=
1
k
k

j=1
log

Y
(nj+1)

log(Y
(nk)
).
Il sinterpr`ete comme la pente dun qqplot sur une zone de fortes valeurs (recherche de la
pente `a linni). Ses conditions dapplications sont sujettes `a de nombreuses discussions dans
la communaute statistique. Pour la preuve de la convergence, on consultera [4], page 334.
122 CHAPITRE VI. MOD

ELISATION STATISTIQUE DES VALEURS EXTR

EMES
VI.3.2 Inference du mod`ele POT
Le mod`ele POT soure des memes dicultes destimation que le mod`ele GEV.
Choix du seuil
Quand on a aaire `a un jeu reel de donnees, comme des debits journaliers, il faut choisir
le seuil au del` a duquel la modelisation POT est realiste.
Dans le cas des debits par exemple, il faut discuter la notion dindependance : deux
evenements de crues peuvent etre consideres comme independants sil sont separes par un
intervalle de temps susamment long (vis `a vis des temps de reaction de la rivi`ere pour
concentrer les pluies dorage) et une seule valeur (le maximum de debit) doit etre retenue sur
un intervalle de crue. Le seuil ne doit donc pas etre choisi trop bas (de plus lapproximation
asymptotique ne tiendrait pas). Le choisir trop haut reduit drastiquement le nombre de
donnees. Lidee est donc de choisir le seuil le plus bas qui rencontre ces deux exigences.
Du point de vue de la theorie statistique, si Y suit une loi de Pareto generalisee de
param`etres et < 1 son esperance est
E(Y ) =

1
et on a
E(Y u[Y > u) =
u +
1
.
Si dans un mod`ele POT , X u
0
denote le depassement au del` a dun niveau u
0
, on a de
meme
E(X u
0
[X > u
0
)

u
0
1
En passant du niveau u
0
au niveau u, on change le param`etre dechelle de
u
0
`a (u) =

u
0
+u, par consequent lesperance des depassements est une fonction lineaire du seuil :
E(X u[X > u)
u +
u
0
1
En considerant lechantillon ordonne, x
(1)
x
(n)
, et en appelant n
u
le nombre de
points qui depassent le seuil u, la courbe (u,
1
nu
nu

i=1
(x
(i)
u)) doit etre approximativement
lineaire dans la zone des seuils ou le mod`ele de Pareto est valide. La gure VI.5 donne un
exemple type de courbe pour laquelle on voit que la courbe peut etre consideree lineaire
uniquement qu`a partir de la seconde graduation en u. Pour les fortes valeurs de u, il ne reste
que peut de donnees donc une grande variabilite de lestimation de lesperance destimation.
Estimation des param`etres du mod`ele POT
Lestimation peut se faire de fa con separee pour lestimation du param`etre de la loi de
Poisson reglant loccurrence des evenements (le maximum de vraisemblance ou la methode
des moments fournissent le meme resultat) et les param`etres et de la Pareto qui dirigent
la valeur observee. Pour cette derni`ere la log-vraisemblance secrit :
VI.4. TRAITEMENT D

ECISIONNEL DE LA CONSTRUCTION DUNE DIGUE 123


20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35
6
6.5
7
7.5
8
8.5
9
9.5
10
10.5
11
Seuil u (mm)
M
o
y
e
n
n
e

d
e
s
d

p
a
s
.
(
m
m
)
Fig. VI.5 Exemple de choix du seuil : prendre u = 22 unites au moins
L(, ) = k log

1 +
1

i=1
log(1 +
y
i

)
On doit alors avoir recours `a des methodes numeriques pour en rechercher le maximum .
Dans le cas Gumbel ( = 0), les choses sont plus simple car il sagit destimer le param`etre
dune loi exponentielle. On prend alors =
1
k

k
i=1
y
i
.
VI.4 Traitement decisionnel de la construction dune digue
Posons le probl`eme decisionnel complet pour la construction dune digue. La notion de
periode de retour devenements decrite `a lannexe 1 de ce chapitre est essentielle pour com-
prendre la pratique traditionnelle dingenierie. On suppose ici que les crues de la rivi`ere au
del` a dun seuil u sont regies par un mod`ele POT avec = 0. On consid`ere que toutes les
valeurs sont exprimes `a partir du seuil u , pris comme niveau de reference. Si on construit une
digue de hauteur h on investit C (h), co ut damortissement annuel de louvrage de protection
eleve jusqu`a la hauteur h. Si une crue X exc`ede la valeur h, on subit un dommage D(X, h),
nul quand X < h. Le nombre moyen de crue depassant le seuil u est donne par le param`etre
de la loi de Poisson du nombre de depassement, > 0, est suppose connu. Le dommage
moyen est donc
+

x=h
kD(x, h)
1
e

1
x
dx o` u k est un facteur lie `a lactualisation, suppose
124 CHAPITRE VI. MOD

ELISATION STATISTIQUE DES VALEURS EXTR

EMES
xe et connu dans cet exemple. La depense moyenne totale vaut alors :
W (h, , ) = C (h) +
+

x=h
kD(x, h)
1
e
x/
dx.
Pla cons-nous dans le cadre dune demarche economique classique, fondee sur lhypoth`ese
que et
1
sont connus. En supposant C et D approximativement lineaires, respectivement
C(h) C
0
h et D(x, h) D
0
(x h), au voisinage de la hauteur de digue ideale, lequation
precedente donne une hauteur de digue ideale h

,
1

telle que :
W (h, , )
h

h=h

= 0. (VI.4)
Comme
W (h, , )
h
=
C (h)
h
+
+

x=h
k
D(x, h)
h

1
e
x/
dx kD(h, h)
1
e
h/
,
il vient 0 = C
0
kD
0
(1 G(h

)) avec G(y) =

1
y

x=0

1
e
x/
dx

. On en deduit que
h

(, ) = log (kD
0
/C
0
) . (VI.5)
La periode de retour T(h

) denie par (VI.6) est egale `a


T(h

) =
1
(1 G(h

))
=
kD
0
C
0
.
En dautres termes, si on est sans incertitude sur les caracteristiques des aleas hydrologiques
et avec ce mod`ele hydrologique de renouvellement-depassement, la digue ideale est telle que
la periode de retour de la crue maximale annuelle de projet est egale au rapport de la valeur
marginale du co ut dinvestissement sur la valeur marginale du co ut des dommages. Ce court
developpement mathematique justie donc une pratique courante dingenierie hydraulique
qui op`ere de la fa con suivante :
- Selectionner une periode de retour de la crue de projet vingtennale, centennale ou
millennale selon limportance des enjeux economiques associes `a louvrage. Lequation
(VI.5) montre le lien T (D, C) entre T et les composantes des fonctions de co ut.
- Estimer et `a partir des donnees statistiques (n crues x
i
, i = 1..n, se sont produites
sur r annees). Les estimateurs classiques sont, en notant S (n) le debordement cumule
sur n annees :

=
n
r
, =
n

i=1
x
i
n
=
S(n)
n
.
- Estimer la hauteur de la digue ideale par :
h

=
S (n) log

n
r
T (D, C)

n
VI.5. CONCLUSIONS ET PERSPECTIVES 125
En supposant T (D, C) = 100 ans, on trouve avec les donnees de lexemple de la Garonne :

1
= 0.9810
3
,

= 2.385 do` u une hauteur de digue equivalente `a log

= 5586 m
3
/s
au-dessus du seuil de 2500m
3
/s pris comme reference pour les depassements, soit nalement
une digue dune hauteur contenant un debit de 8086 m
3
/s pour se premunir contre la crue
centennale.
Pour des fonctions de co uts plus compliquees ou si on travaille avec un mod`ele plus general
`a trois param`etres, la resolution de (VI.4) ne se fait plus de fa con analytique et on a recours
`a la simulation numerique pour le calcul de lintegrale et la recherche de loptimum.
VI.5 Conclusions et perspectives
Les mod`eles GEV et POT sont relativement faciles `a mettre en uvre. Sur une meme
chronique compl`ete de donnees, le mod`ele POT exploite generalement mieux linformation.
On peut dailleurs comparer la valeur de projet ainsi obtenue avec celle deduite dun mod`ele
GEV sur la meme periode. Un simple graphique seuil vs moyenne des depassements permet
dorienter le choix du seuil qui reste malgre tout une operation delicate. Dans le doute,
remonter un peu le seuil est certainement une bonne idee.
Enn, les mod`eles GEV et POT sont fondes sur lhypoth`ese que le processus stochas-
tique `a temps discret sous-jacent est constitue de populations independantes et de meme loi.
Cest une hypoth`ese forte et critiquable dans bon nombre de situations reelles o` u les eets
saisonniers sont dicilement contestables (sans meme considerer le changement climatique).
Ainsi, la lame deau journali`ere depend de la carte du temps et, en situation cyclonique, les
jours pluvieux se suivent. Tant que le processus stochastique sous-jacent est stationnaire,
les mod`eles GEV et POT sont relativement peu sensibles `a la dependance des populations
elementaires. Pour les processus non stationnaires, des modelisations plus elaborees sont
necessaires. En situation stationnaire, une analyse de sensibilite (hauteur du seuil, prediction
de records historiques enregistres sur site) constitue souvent le meilleur test de la pertinence
du mod`ele.
La rarete de donnees (par la denition meme de loccurrence de situations dextremes)
rend generalement lextrapolation des quantiles eleves perilleuse, dautant plus que les inter-
valles de conance (calcule en situation asymptotique dabondance de donnees) sous-estiment
generalement lincertitude des valeurs de projet. Le recours au paradigme Bayesien ([1],[2])
peut etre une fa con de proposer des estimations avec des fourchettes dincertitudes plus
realistes et dincorporer lexpertise en plus de linformation apportee par les donnees ([7]).
VI.6 Sur la periode de retour et la loi de Poisson
VI.6.1 Periode de retour
Periode de retour du mod`ele GEV
La periode de retour T (y) dun phenom`ene recurrent associe `a une variable aleatoire X
de fonction de repartition F est la duree moyenne qui separe deux evenements du phenom`ene
de valeur depassant un seuil y . Soit une sequence X
1
, X
2
, X
3
, ...X
n
, X
n+1
de realisations
iid (independantes et identiquement distribuees) de meme loi F. Pour la calculer, xons un
126 CHAPITRE VI. MOD

ELISATION STATISTIQUE DES VALEURS EXTR

EMES
seuil y et appelons Z
y
la variable aleatoire enti`ere longueur de lintervalle de temps separant
deux realisations du phenom`ene X depassant le seuil y. Levenement Z
y
= n, pour n
1, concide avec levenement realise par X
2
< y; X
3
< y; ...X
n
< y; X
n+1
> y[X
1
> y ; la
probabilite dun tel evenement est donc :
P(Z
y
= n) = (F (y))
n1
(1 F (y)) , n 1.
La variable Z
y
suit la loi geometrique de param`etre 1 F(y). En particulier son esperance
est E[Z
y
] = 1/(1 F(y)). Par denition la periode de retour associee `a la valeur y, T(y), est
la valeur moyenne de Z
y
:
T(y) = 1/(1 F(y)). (VI.6)
Periode de retour du mod`ele POT
Reprenons maintenant le mod`ele de depassement-renouvellement, pour lequel cette for-
mule nest pas directement applicable puisquil peut se produire plus dune crue dommageable
par annee. Supposons dabord quil se produise exactement r crues sur une annee : la proba-
bilite pour que la plus grande des crues soit inferieure `a x vaut (G(x))
r
. Si le nombre de crue
suit une de loi de Poisson de param`etre , et que ce nombre est independant de la hauteur
de la crue, la fonction de repartition, F, de la crue maximale annuelle est :
F(x) =
+

r=0

r
e

r!
G(x)
r
= e
(1G(x))
.
La periode de retour correspondante est
T(y) =
1
1 F(y)
=
1
1 e
(1G(y))
.
Quand T est grand (i.e. y grand et G(y) proche de 1), on a
T(y)
1
(1 G(y))
.
VI.6.2 La loi de Poisson
Le mod`ele de Poisson permet de representer loccurrence devenements rares. Elle sobtient
par passage `a la limite de la loi binomiale. Soit X
n
une variable aleatoire suivant une loi
binomiale de param`etres (n, p
n
), avec n 1 et p
n
]0, [1. La variable X
n
represente le
nombre doccurrences dun ev`enement de probabilite p
n
lors de n observations. On a pour
0 k n,
P(X
n
= k) =
n!
k!(n k)!
p
k
n
(1 p
n
)
nk
.
La loi de Poisson est la loi limite de X
n
, quand on dispose de beaucoup dobservations (n
grand), mais que lon consid`ere un ev`enement tr`es rare (p
n
petit), et que lon dispose de
quelques occurrences en moyenne (np
n
1). Un calcul elementaire assure que si n ,
VI.6. SUR LA P

ERIODE DE RETOUR ET LA LOI DE POISSON 127


p
n
0 et np
n
> 0, alors P(X
n
= k)

k
k!
e

. On retrouve ainsi comme limite la


probabilite pour quune variable de loi de Poisson de param`etre soit egale `a k.
La loi de Poisson est tr`es employee dans le cas devenements rares, par exemple pour le
nombre de bacteries que lon va pouvoir decompter lorsquon eectue un prel`evement dans
un milieu o` u elles se repartissent de fa con homog`ene. Elle a lavantage de ne dependre que
dun seul param`etre qui xe lesperance dune variable aleatoire de Poisson. Cest en meme
temps un manque de souplesse, puisque ce param`etre xe aussi la variance, ce qui restreint
la portee du mod`ele `a des phenom`enes o` u moyenne et variance seront egales.
128 CHAPITRE VI. MOD

ELISATION STATISTIQUE DES VALEURS EXTR

EMES
Bibliographie
[1] J. O. Berger and D. Rios Insua. Recent developments in bayesian inference with applica-
tions in hydrology. In E. Parent, P. Hubert, B. Bobee, and J. Miquel, editors, Bayesian
Methods in Hydrological Sciences, pages 4362. UNESCO Publishing, 1998.
[2] J. Bernier, E. Parent, and J-J. Boreux. Statistique de lEnvironnement. Traitement
Bayesien de lIncertitude. Lavoisier, Paris, 2000.
[3] S. Coles. An Introduction to Statistical Modelling of Extremes Values. Springer-Verlag,
Londres, 2001.
[4] J.F. Delmas and B. Jourdain. Mod`eles Aleatoires. Springer, 2006.
[5] B.M. Hill. A simple general approach about the tail of a distribution. Ann. Stat., 3 :1163
1174, 1975.
[6] Jacques Miquel. Guide Pratique Destimation Des Probabilites de Crues. Eyrolles, Paris,
1984.
[7] E. Parent and J. Bernier. Bayesian POT modeling for historical data. Journal of Hydro-
logy, 274 :95108, 2003.
[8] J. Pickands. Statistical inference using extreme order statistics. Ann. Stat., 3 :11130,
1975.
[9] R. L. Smith. Maximum likelihood estimation in a class of non regular cases. Biometrika,
72 :6790, 1985.
129
130 BIBLIOGRAPHIE
Chapitre VII
Series chronologiques
VII.1 Introduction
VII.1.1 Motivations et objectifs
Une serie temporelle , ou serie chronologique, est un ensemble dobservations qui se
distinguent par le r ole important que joue lordre dans lequel elles ont ete recueillies. Les
objectifs du cours sont les suivants :
1. Comprendre les problematiques posees par le lien temporel.
2. Etre capable de mettre en oeuvre des techniques de base (statistiques) sur des series
temporelles.
Limportance de ce domaine est illustree par les nombreux domaines dapplication :
Economie : prevision dindices economiques. . .
Finance : evolution des cours de la bourse. . .
Demographie : analyse de levolution dune population. . .
Meteorologie : analyse de donnees climatiques. . .
Medecine : analyse delectrocardiogrammes. . .
Geophysique : analyse de donnees sismiques. . .
Theorie du signal : transmission de signaux bruites. . .
Traitement dimages : analyse dimages satellites, medicales. . .
Energie : prevision de la consommation delectricite. . .
Les buts poursuivis sont multiples :
Description : determination de composantes. . .
Filtrage : transformation de la serie dans le but deliminer certaines caracteristiques ou
des valeurs aberrantes. . .
Modelisation : recherche de causalite. . .
Prevision.
Il existe evidemment des interactions entre ces dierents objectifs. An de mener letude
pratique dune serie temporelle, on ne doit pas negliger la phase descriptive, pour envisager
eventuellement un ltrage de la serie. La modelisation, qui sav`ere souvent plus facile sur une
serie ltree, fournit les outils pour eectuer des previsions.
131
132 CHAPITRE VII. S

ERIES CHRONOLOGIQUES
VII.1.2 Exemples de series temporelles
Dans ce document, les exemples, les traitements et donc les graphiques sont obtenus `a
laide du logiciel SAS.
1. La partition de musique est un exemple de serie temporelle, meme sil est rare de la
modeliser mathematiquement (si on excepte la musique serielle : Cf. Arnold Sch onberg) :
modier lemplacement dune note a des consequences musicales evidentes.
2. Un bruit blanc fort est constitue de variables aleatoires independantes et identiquement
distribuees (i.i.d.), desperance nulle. Voici un exemple simule `a partir dune loi normale
^ (0, 0.25).
3. La serie suivante represente la population des Etats Unis de 1790 `a 1990. On peut
observer une tendance de type exponentiel puis lineaire, ainsi quun point dinexion
dont il faudrait determiner la cause si on veut modeliser le plus correctement possible
cette serie.
VII.1. INTRODUCTION 133
4. Le graphique ci-dessous represente le nombre mensuel de passagers aeriens de janvier
1949 `a decembre 1960. Cest une des series les plus utilisees comme exemple dapplica-
tion et elle gurera abondamment dans ce document sous la denomination Nombre de
passagers aeriens.
On observe une tendance de type exponentiel ainsi quune saisonnalite de periode 12
(saisonnalite annuelle) qui saccentue avec le temps. Si on eectue une transformation
logarithmique de cette serie, on se ram`ene `a une tendance lineaire et `a une saisonnalite
non volatile :
134 CHAPITRE VII. S

ERIES CHRONOLOGIQUES
VII.1.3 Rep`eres historiques
On peut distinguer trois phases dans lhistoire de lanalyse des series temporelles :
1. Les series temporelles apparaissent avec lutilisation de la representation graphique, en
astronomie.
Le plus ancien diagramme connu gure ci-dessous ; il represente linclinaison des plan-
`etes en fonction du temps (illustration dun commentaire du Songe de Scipion de
Ciceron, extrait des Saturnales de Macrobius, en 395 apr`es J.C).
2. A partir des 18`eme et 19`eme si`ecles, on passe de la visualisation graphique aux premi`eres
techniques temporelles (deterministes). Citons deux voies tr`es importantes :
les travaux de Schuster (1898, 1906) `a partir de ceux de Fourier (1807) et Stokes
(1879), sur lanalyse frequentielle dune serie temporelle (un signal est approche par
une somme de sinusodales) ;
les travaux de Pearson (1916) sur la decomposition dune serie temporelle en termes
de composantes tendantielle, cyclique, saisonni`ere et accidentelle.
VII.1. INTRODUCTION 135
3. A partir du 20`eme si`ecle, laleatoire est pris en compte, notamment `a laide des travaux
de Yule (1927). Ces travaux sont issus de lobservation du mouvement oscillatoire dun
pendule bombarde de petits pois lances par un enfant !
Il y a ensuite de nombreux contributeurs aux methodes aleatoires : Cramer (1937, 1951),
Wold (1938), Kolmogorov (1939)...
VII.1.4 Principaux mod`eles statistiques pour letude des series tempo-
relles
On presente ici les principales familles de mod`eles utilises pour traiter les series tempo-
relles.
Mod`eles autoregressifs (Auto-Regressive)
Ils ont ete introduits par Yule en 1927. On prend en compte une dependance lineaire du
processus `a son propre passe :
AR(p) : X
t
=
1
X
t1
+ +
p
X
tp
+
t
,
o` u p N

est lordre du processus,


1
, . . . ,
p
sont des constantes reelles et (
t
)
tZ
est un
bruit blanc (cf. denition VII.3).
Mod`eles moyennes mobiles (Moving Average)
Ils ont egalement ete introduits en 1927, par Slutsky. Un processus moyenne mobile est
la somme dun bruit blanc et des ses retards :
MA(q) : X
t
=
t
+
1

t1
+ +
q

tq
,
o` u q N

est xe et
1
, . . . ,
q
sont des constantes reelles.
Mod`eles ARMA (Auto-Regressive Moving Average)
Developpes par Box & Jenkins en 1970, les mod`eles ARMA sont une combinaison des
mod`eles autoregressif et moyenne mobile :
ARMA(p, q) : X
t

1
X
t1
...
p
X
tp
=
t
+
1

t1
+... +
q

tq
.
Les mod`eles ARIMA (AutoRegressive Integrated Moving Average) et SARIMA (Seasonnal
AutoRegressive Integrated Moving Average) (un processus SARIMA est un processus ARMA
integre avec une composante saisonni`ere) ont ensuite ete developpes an de pouvoir modeliser
un grand nombre de phenom`enes reels qui presentent des tendances et/ou des saisonnalites.
On applique en fait des mod`eles ARMA `a des series dites dierenciees ; par exemple, pour un
ARIMA dordre 1, on suppose que X
t
X
t1
est un ARMA (on note en general X
t
= X
t

X
t1
ou encore (I B) X
t
en utilisant les operateurs identite I et retrograde (backward)
BX
t
= X
t1
).
136 CHAPITRE VII. S

ERIES CHRONOLOGIQUES
Mod`eles ARCH (Auto-Regressive Conditional Heteroskedasticity)
En 1982, Engle a propose des mod`eles autoregressifs prenant en compte une volatilite
stochastique :
ARCH(p) : X
t
=
t

h
t
avec h
t
=
0
+
1
X
2
t1
+... +
p
X
2
tp
,
o` u p 1 est xe et
0
, . . . ,
p
sont des constantes positives.
Mod`eles `a memoire longue
Les mod`eles envisages la plupart du temps sont des mod`eles dits `a memoire courte : deux
instants eloignes du processus nont que tr`es peu dinteraction entre eux. Il existe dautres
modelisations pour les processus `a memoire longue, tels que les processus FARIMA (fractional
ARIMA) introduits en 1980 par Granger.
Mod`eles multivaries (Vector Auto-Regressive)
On est parfois contraints de modeliser un phenom`ene multiple, ou plusieurs series ayant
de fortes relations entre elles. Les mod`eles autoregressifs vectoriels sont un exemple dune
modelisation multivariee :
V AR : X
t
= AX
t1
+E
t
o` u X
t
=

X
1
t
, X
2
t

,
o` u A est une matrice carree constante et (E
t
)
tZ
est un bruit blanc multidimensionnel.
Mod`eles non-parametriques
Tous les mod`eles envisages precedemment sont parametriques : lestimation dun ou plu-
sieurs param`etres sut pour determiner les relations temporelles dun processus. On peut ce-
pendant considerer que la fonction de lien nest pas parametree ; on cherche alors `a determiner
une fonction f dans des classes de fonctions adaptees traduisant la relation temporelle, par
exemple :
X
t
= f (X
t1
, ..., X
tp
) +
t
.
La fonction f peut etre estimee `a laide de la methode des noyaux, des series de Fourier, des
ondelettes...
Mod`eles semi-parametriques
Les mod`eles non-parametriques sourent du eau de la dimension. On utilise alors une
modelisation non-parametrique sur une ou plusieurs combinaison de variables, par exemple
X
t
= f (
1
X
t1
+... +
p
X
tp
) +
t
,
o` u p 1 est xe et
1
, . . . ,
p
sont des constantes.
VII.2. PROCESSUS UNIVARI

ES
`
A TEMPS DISCRET 137
VII.2 Processus univaries `a temps discret
Cette section pose les bases de la modelisation probabiliste des series temporelles. Il denit
les notions de processus stochastique et de stationnarite, ainsi que des outils danalyse comme
les autocorrelogrammes et le periodogramme.
Soit (x
t
)
tT
une famille dobservations dun phenom`ene qui peut etre physique, econo-
mique, biologique... Chaque observation x
t
R
d
a ete enregistree `a un temps specique t T
et on appelle serie temporelle cet ensemble dobservations.
Si T est denombrable (en general T Z), on parle de serie temporelle `a temps discret
. Si T nest pas denombrable (en general un intervalle de R), on parle de serie temporelle
`a temps continu .
On consid`ere des series temporelles `a valeur dans R
d
. Si d = 1, on parle de serie univariee
. Si d > 1, on parle de serie multivariee .
On designera dans la suite par serie temporelle une serie temporelle univariee `a temps
discret.
On consid`ere en Statistique que lobservation x est la realisation dune variable aleatoire
X. De mani`ere analogue, une serie temporelle (x
t
)
tT
est consideree comme la realisation
dun processus stochastique (dune suite de variables aleatoires) (X
t
)
tT
.
VII.2.1 Processus stochastique du second ordre
Denition VII.1. Soit X := (X
t
)
tT
un processus stochastique (i.e. une suite de variables
aleatoires). Le processus X est dit du second ordre si pour tout t T, X
t
est une variable
aleatoire de carre integrable i.e. E([X
t
[
2
) < +.
Voici deux exemples de processus du second ordre qui sont fondamentaux dans la suite.
Denition VII.2. (
t
)
tZ
est un bruit blanc fort si :
(
t
)
tZ
est une suite de variables aleatoires reelles independantes et identiquement dis-
tribuees (i.i.d.),
t Z : E(
t
) = 0 et E

2
t

=
2
.
Denition VII.3. (
t
)
tZ
est un bruit blanc faible si :
(
t
)
tZ
est une suite de variables aleatoires reelles identiquement distribuees,
(t, t

) Z
2
, t = t

: Cov (
t
,
t
) = 0,
t Z : E(
t
) = 0 et E

2
t

=
2
.
On rappelle maintenant un resultat important pour letude de processus du second ordre.
Proposition VII.4. Soient (X
n
)
nZ
et (Y
n
)
nZ
deux processus tels que
lim
n+
E

i=n
X
i

2
+

i=
X
i

= 0 et lim
n+
E

i=n
Y
i

2
+

i=
Y
i

= 0.
Alors, on a
Cov

i=
X
i
,
+

j=
Y
j

=
+

i=
+

j=
Cov (X
i
, Y
j
)
138 CHAPITRE VII. S

ERIES CHRONOLOGIQUES
VII.2.2 Processus stationnaire
Dans de tr`es nombreux cas, on ne peut pas renouveler la suite de mesures dans des
conditions identiques (par exemple le taux de ch omage mensuel). Alors pour que le mod`ele
deduit `a partir dune suite dobservations ait un sens, il faut que toute portion de la trajectoire
observee fournisse des informations sur la loi du processus et que des portions dierentes,
mais de meme longueur, fournissent les memes indications. Do` u la notion de stationnarite.
Denition VII.5. Un processus (X
t
)
tT
est fortement stationnaire ou strictement sta-
tionnaire si, pour tous k 1, (t
1
, ..., t
k
) T
k
, h tel que (t
1
+h, . . . , t
k
+h) T
k
, les vecteurs
(X
t
1
, ..., X
t
k
) et (X
t
1
+h
, ..., X
t
k
+h
) ont meme loi.
Cette propriete tr`es forte est tr`es dicile `a verier, do` u la notion de stationnarite faible.
Denition VII.6. Un processus (X
t
)
tT
du second ordre est faiblement stationnaire ou
stationnaire ` a lordre 2, si son esperance E(X
t
) et ses autocovariances Cov (X
s
, X
t
) sont
invariantes par translation dans le temps :
t T, E(X
t
) = E(X
0
),
(s, t) T
2
, h

(s +h, t +h) T
2
, Cov (X
s
, X
t
) = Cov (X
s+h
, X
t+h
).
Dans la suite, on notera
X
= E(X
0
) et
X
(h) = Cov (X
0
, X
h
).
Remarque VII.7.
La stationnarite faible est bien plus facile `a etudier et `a verier que la stationnarite
stricte.
Un processus stationnaire nest pas obligatoirement borne ou sympathique (par
exemple, un bruit blanc).
Pour un processus du second ordre, la stationnarite stricte implique la stationnarite
faible. La reciproque est fausse (elle nest vraie que pour les processus gaussiens).

Exemple VII.8. 1. Un bruit blanc fort est fortement stationnaire.


2. Un bruit blanc faible est faiblement stationnaire.
3. Un processus presentant une tendance et/ou une saisonnalite nest pas faiblement sta-
tionnaire.

On designera dans la suite par processus stationnaire, un processus faiblement stationnaire


(donc du second ordre). De plus, on supposera que le processus est `a temps discret et plus
precisement que T = Z.
Proposition VII.9. Soit (X
t
)
tZ
un processus stationnaire (au sens faible). Soit une suite
(a
i
)
iZ
telle que

iZ
[a
i
[ < +. Le processus (Y
t
)
tZ
o` u Y
t
=

iZ
a
i
X
ti
, est stationnaire et

Y
=
X

iZ
a
i
o` u
X
= E(X),

Y
(h) =

iZ

jZ
a
i
a
j

X
(h +j i).
Cela implique notamment quune somme de v.a.r dun processus stationnaire est station-
naire.
Notons que la somme de deux processus stationnaires nest pas forcement stationnaire.
Il existe des non-stationnarites particuli`eres dont :
VII.2. PROCESSUS UNIVARI

ES
`
A TEMPS DISCRET 139
(X
t
)
tZ
est un processus non-stationnaire TS (Trend Stationary) sil peut secrire
sous la forme :X
t
= f (t)+Y
t
, o` u f est une fonction deterministe et (Y
t
)
tZ
un processus
stationnaire.
(X
t
)
tZ
est un processus non-stationnaire DS (Dierence Stationary) sil est sta-
tionnaire apr`es d dierenciations :
d
X
t
= (I B)
d
X
t
o` u BX
t
= X
t1
. Si d = 2, cela
signie que le processus deni pour tout t Z par
2
X
t
= X
t
2X
t1
+ X
t2
est
stationnaire.
Ces processus peuvent neanmoins etre rendus stationnaires par une suite de transforma-
tions usuelles (desaisonnalisation, dierenciation, transformation non lineaire...). Une metho-
dologie classique est celle de Box-Jenkins que nous etudierons par la suite et en TP.
VII.2.3 Autocovariance et autocorrelations
Lautocovariance (resp. lautocorrelation) dun processus stochastique est la covariance
(resp. la correlation) de ce processus avec une version decale dans le temps de lui meme. Ces
fonctions sont bien denies pour un processus stationnaire. Dans la suite on consid`ere un
processus stationnaire (X
t
)
tZ
.
Fonction dautocovariance
Denition VII.10. On appelle fonction dautocovariance du processus X la fonction
suivante :
h Z : (h) = Cov (X
t
, X
th
)
Proposition VII.11. La fonction dautocovariance verie les proprietes suivantes :
(0) 0,
[ (h)[ (0),
est une fonction symetrique : pour tout h N, (h) = (h),
est une fonction semi-denie positive :
n N

, (a
i
)
i{1,...,n}
R
n
:
n

i=1
n

j=1
a
i
a
j
(i j) 0.
Comme la fonction est symetrique, on calculera la fonction dautocovariance pour h N.
Reciproquement, si une fonction verie :
(h) = (h), h N

,
n N

, (a
i
)
i{1,...,n}
R
n
:
n

i=1
n

j=1
a
i
a
j
(i j) 0,
alors cest une fonction dautocovariance.
Autocorrelogramme simple
Denition VII.12. On appelle autocorrelogramme simple du processus X la fonction
suivante :
h Z : (h) = Corr (X
t
, X
th
) =
(h)
(0)
140 CHAPITRE VII. S

ERIES CHRONOLOGIQUES
Lautocorrelogramme simple est donc la fonction dautocovariance renormalisee. Il verie
des proprietes similaires.
Proposition VII.13. On a :
(0) = 1,
[ (h)[ 1,
est une fonction symetrique : h N : (h) = (h),
est une fonction denie positive :
n 0, (a
i
)
i{1,...,n}
:
n

i=1
n

j=1
a
i
a
j
(i j) 0.
Denition VII.14. On appelle matrice dautocorrelation de (X
t
, ..., X
th+1
) avec h
N

la matrice suivante :
R
h
=

1 (1) (2) ... (h 1)


(1) 1 (1) ... ...
... ... ... ... (1)
(h 1) ... ... (1) 1

(VII.1)
Proposition VII.15. La fonction est une fonction denie positive si et seulement si h
N

: det R
h
0.
La seconde condition xe de nombreuses contraintes aux correlations, par exemple :
det R
3
0 [1 (2)]

1 + (2) 2
2
(1)

0.
Autocorrelogramme partiel
Une seconde fa con de mesurer linuence entre le processus et son decale dans le temps
est de calculer la correlation entre deux instants en enlevant une partie de linformation
contenue entre ces deux instants. Plus precisement, on calcule la correlation entre le terme
X
t
EL(X
t
[X
t1
, ..., X
th+1
) et le terme X
th
EL(X
th
[X
t1
, ..., X
th+1
), o` u la quantite
EL(X
t
[X
t1
, ..., X
th+1
) (resp. EL(X
th
[X
t1
, ..., X
th+1
)) designe la regression lineaire de
X
t
(resp. X
th
) sur X
t1
, ...,X
th+1
.
On rappelle que la regression lineaire dune variable aleatoire Z sur n variables aleatoires
Y
1
, . . . , Y
n
est la variable aleatoire, notee EL(Z[Y
1
, ..., Y
n
), est la combinaison lineaire des
Y
1
, . . . , Y
n
qui minimise

Z Var(Z

Z). Plus precisement, on a
EL(Z[Y
1
, ..., Y
n
) =
n

i=1
a
i
Y
i
avec (a
1
, . . . , a
n
) = argmin
(x
1
,...,xn)R
n
Var

Z
n

i=1
x
i
Y
i

.
Denition VII.16. On appelle autocorrelogramme partiel du processus X la fonction r
suivante : r (1) = (1) et pour tout h N

,
r (h) = Corr (X
t
, X
th
[X
t1
, ..., X
th+1
)
=
Cov (X
t
EL(X
t
[X
t1
, ..., X
th+1
) , X
th
EL(X
th
[X
t1
, ..., X
th+1
))
Var (X
t
EL(X
t
[X
t1
, ..., X
th+1
))
.
VII.2. PROCESSUS UNIVARI

ES
`
A TEMPS DISCRET 141
Theor`eme VII.17. Soit (X
t
)
tZ
un processus stationnaire. On consid`ere la regression lineaire
de X
t
sur X
t1
, ..., X
th
:
EL(X
t
[X
t1
, ..., X
th
) =
h

i=1
a
i
(h) X
ti
,
et
t
= X
t
EL(X
t
[X
t1
, ..., X
th
). Alors on a
E(
t
) = 0 et il existe > 0 tel que pour tout t Z, E

2
t

=
2
i 1, ..., h : E(
t
X
ti
) = 0
Et on a a
h
(h) = r (h) ainsi que

(1)
(2)
...
(h)

= R
h

a
1
(h)
a
2
(h)
...
a
h
(h)

.
Dapr`es cette proposition, si on a une estimation de ( (1) , ..., (h)) et donc de la matrice
dautocorrelation R
h
denie par (VII.1), alors on est capable destimer (a
1
(h) , ..., a
h
(h)) (en
inversant la matrice R
h
). On obtient aussi, dapr`es le theor`eme precedent, une estimation de
lautocorrelogramme partiel r(h).
Une fa con moins co uteuse dinverser la matrice R
h
pour determiner les autocorrelations
partielles est dutiliser lalgorithme de Durbin-Levinson.
Algorithme VII.18. Algorithme de Durbin-Levinson :
a
1
(1) = (1)
h 2, i 1, ..., h 1 : a
i
(h) = a
i
(h 1) a
h
(h) a
hi
(h 1),
h 2 : a
h
(h) =
(h)
h1

i=1
(h i) a
i
(h 1)
1
h1

i=1
(i) a
i
(h 1)
.
VII.2.4 Estimation des moments pour les processus stationnaires
Soit (X
t
)
tZ
un processus stationnaire.
Esperance
Lestimateur naturel (sans biais) de E(X) = `a partir de (X
1
, ..., X
T
) est la moyenne
empirique X
T
:X
T
=
1
T
T

i=1
X
i
. Cest un estimateur convergent vers lorsque T tend vers
linni.
Autocovariance et autocorrelation
Si on dispose de (X
1
, ..., X
T
) alors on peut considerer les deux estimateurs suivants de la
fonction dautocorrelation (h) : pour tout h 1, . . . , T 1
(h) =
1
T
T

t=h+1

X
t
X
T

X
th
X
T

,
142 CHAPITRE VII. S

ERIES CHRONOLOGIQUES
et
(h) =
1
T h
T

t=h+1

X
t
X
T

X
th
X
T

.
Ils sont tous les deux convergents et asymptotiquement sans biais mais le biais de (h) est
plus petit que celui de (h). Par contre le premier est deni positif tandis que le second ne
lest pas en general.
On en deduit lestimateur suivant de lautocorrelogramme simple (h) :
h 1, ..., T 1 : (h) =
T

t=h+1

X
t
X
T

X
th
X
T

t=1

X
t
X
T

2
Remarque VII.19. On peut noter que :
Appliquer ces estimateurs avec h = T 1 pose probl`eme.
On peut faire les calculs meme lorsque le processus nest pas stationnaire !
Les estimations des autocorrelations partielles se deduisent des estimations des auto-
correlations simples gr ace `a lalgorithme de Durbin-Levinson.

VII.2.5 Tests de blancheur


Il existe dierents tests de blancheur necessaires notamment pour valider les modelisations
SARIMA (Seasonal ARIMA), notamment le test de Portmanteau .
On consid`ere le test suivant (de Portmanteau ou de Ljung-Box) :

H
0
: (X
t
)
tZ
est un bruit blanc
H
1
: (X
t
)
tZ
nest pas un bruit blanc
Si on dispose de (X
1
, ..., X
T
), on consid`ere la statistique suivante (calculee sur les k
premi`eres estimations des autocorrelations) :

Q
k
= T
k

h=1

2
(h)
Une trop grande valeur de

Q
k
indique que les autocorrelations sont trop importantes pour
etre celles dun bruit blanc. On peut egalement considerer la statistique (qui converge plus
vite) :
Q
k
= T (T + 2)
k

h=1

2
(h)
T h
Sous H
1
, Q
k
diverge vers linni quand T tend vers linni. Asymptotiquement, sous H
0
, Q
k
suit une loi du
2
`a k degres de liberte. On rejette donc lhypoth`ese H
0
au niveau si :
Q
k
>
2
k
(1 )
VII.2. PROCESSUS UNIVARI

ES
`
A TEMPS DISCRET 143
o` u
2
k
(1 ) designe le quantile dordre 1 dune loi du
2
`a k degres de liberte. En
general on pref`ere travailler sur la p-valeur :
p-valeur = P

2
k
Q
k

On rejette lhypoth`ese H
0
au niveau si : p-valeur < .
Exemple VII.20. Le logiciel SAS permet deectuer le test de blancheur. La sortie suivante
correspond au test de blancheur appliquee `a un bruit blanc simule :

Dans cet exemple, on a choisit k = 6, 12, 18 et 24. On peut lire par exemple :
q
18
= 13.96 o` u q
18
est la realisation de Q
18
,
p-valeur = 0.7320.
On ne rejette donc pas (fort heureusement) lhypoth`ese de blancheur de cette serie.
VII.2.6 Densite spectrale
Denition VII.21. Soit (X
t
)
tZ
un processus stationnaire de fonction dautocovariance .
On appelle densite spectrale de X la transformee de Fourier discr`ete, f, de la suite des
autocovariances (lorsquelle existe) :
f () =
1
2
+

h=
(h) e
ih
Cette densite spectrale existe lorsque :
+

h=
[ (h)[ < +
Si elle existe elle est continue, positive, paire et 2-periodique (ce qui permet de letudier
uniquement sur [0, ]).
Theor`eme VII.22 (Theor`eme spectral). Si f est la densite spectrale de X alors :
(h) =

f () e
ih
d.
Exemple VII.23. Soit (
t
)
tZ
un bruit blanc faible de variance
2
. On a : (h) =
2
si
h = 0 et (h) = 0 sinon. On en deduit donc :
f () =

2
2
Reciproquement, si la densite spectrale est constante, alors le processus correspondant est
un bruit blanc faible.
144 CHAPITRE VII. S

ERIES CHRONOLOGIQUES
Denition VII.24. Soit (X
t
)
tZ
un processus stationnaire.
Si on dispose de (X
1
, ..., X
T
), on appelle periodogramme la fonction I
T
suivante :
I
T
() =
1
T

t=1
X
t
e
it

2
Si le processus (X
t
)
tZ
admet une densite spectrale, alors
1
2
I
T
() est un estimateur
sans biais de la densite spectrale (mais non-convergent !). On peut resoudre le probl`eme de
convergence en lissant le periodogramme et en considerant lestimateur suivant :

f() =
1
2

|j|m
T
W
T
(j)I
T

g(T, ) +
2j
T

,
o` u
g(T, ) est le multiple de 2/T le plus proche de ,
m
T
+ et
m
T
T
0 quand T +,
j Z, W
T
(j) 0, W
T
(j) = W
t
(j),

|j|m
T
W
T
(j) = 1 et

|j|m
T
W
2
T
(j) 0.
Par exemple les poids constants W
T
(j) = 1/(2m
T
+ 1) conviennent, mais il existe dautres
choix avec de meilleures proprietes.
Une grande valeur du periodogramme sugg`ere que la serie a une composante saisonni`ere
`a la frequence correspondante.
Exemple VII.25. Le graphique ci-dessous represente le periodogramme lisse du nombre de
passagers aeriens, dans le domaine frequentiel :
Le graphique ci-dessous represente le periodogramme du nombre de passagers aeriens,
dans le domaine temporel
1
:
1
On passe du domaine frequentiel au domaine temporel `a laide de la relation : T =
2

.
VII.3. D

ECOMPOSITION SAISONNI
`
ERE 145

VII.3 Decomposition saisonni`ere


Cette partie presente la decomposition saisonni`ere, `a laide de la regression et des moyen-
nes mobiles.
VII.3.1 Principe de la decomposition saisonni`ere
Il est courant de decomposer un processus (X
t
)
t{1,...,T}
en dierents termes :
Une tendance : T
t
Une composante saisonni`ere : S
t
(de periode p)
Un residu aleatoire :
t
Et eventuellement une composante cyclique (de long terme) : C
t
Il existe dierentes mod`eles possibles dont :
Le mod`ele additif : X
t
= T
t
+S
t
+
t
, o` u E(
t
) = 0 et V(
t
) =
2
.
Le mod`ele multiplicatif : X
t
= T
t
S
t
(1 +
t
), o` u E(
t
) = 0 et V(
t
) =
2
.
VII.3.2 Decomposition saisonni`ere `a laide de la regression lineaire
Principe
On suppose que les composantes tendantielles et saisonni`eres sont des combinaisons
lineaires de fonctions connues dans le temps :
T
t
=
n

i=1

i
T
i
t
, S
t
=
p

j=1

j
S
j
t
,
o` u :
S
j
t
=

1 si t = j [p],
0 sinon.
146 CHAPITRE VII. S

ERIES CHRONOLOGIQUES
Exemple VII.26. On peut considerer les tendances suivantes :
1. Tendance lineaire : T
t
=
0
+
1
t
2. Tendance quadratique : T
t
=
0
+
1
t +
2
t
2
3. Tendance exponentielle : T
t
= c
t
4. Tendance de Gomperz : T
t
= exp

c
1

t
+c
2

Les deux premiers cas peuvent se resoudre `a laide de la regression lineaire. Les deux
suivants se resolvent par optimisation (en minimisant par exemple lerreur quadratique).
Estimation dans le cas dun mod`ele additif
Le mod`ele considere est le suivant :
t 1, ..., T : X
t
=
n

i=1

i
T
i
t
+
p

j=1

j
S
j
t
+
t
,
o` u (
t
)
tZ
est un bruit blanc. On cherche `a minimiser lerreur quadratique
T

t=1
(X
t

i=1

i
T
i
t

p

j=1

j
S
j
t
)
2
en les param`etre
1
, . . . ,
n
et
1
, . . . ,
p
, o` u n et p sont xes. On utilise les notations sui-
vantes :
D =

T
1
1
... T
n
1
... ... ...
T
1
T
... T
n
T

S =

S
1
1
... S
p
1
... ... ...
S
1
T
... S
p
T

.
Avec ces notations, le syst`eme secrit sous la forme vectorielle suivante :
X = D +S + = Y b +,
o` u :
X =

X
1
...
X
T

; =

1
...

; =

1
...

; =

1
...

; Y = [D, S]; b =

.
Un estimateur de b dans X = Y b + par les moindres carres ordinaires (MCO) est :

b =

1
Y

X.
Ainsi on obtient les estimateurs de et :

D D

S
S

D S

X
S

De plus, ce sont des estimateurs sans biais


E

,
VII.3. D

ECOMPOSITION SAISONNI
`
ERE 147
et de variance
V

= s
2

D D

S
S

D S

1
o` u s
2
=
1
T n p
T

t=1

2
t
est un estimateur convergent (lorsque T tend vers linni) et sans
biais de la variance de
t
.
Resultats
Une fois les estimations eectuees, on peut obtenir la serie ajustee

X
t
et la serie corrigee
des variations saisonni`eres X
CV S
t
:


X
t
=
n

i=1

i
T
i
t
+
p

j=1

j
S
j
t
X
CV S
t
= X
t


X
t
Prevision
Si on desire prevoir X
T+h
, on peut supposer que le mod`ele est toujours valable `a cet
horizon, ce qui donne :
X
T+h
=
n

i=1

i
T
i
T+h
+
p

j=1

j
S
j
T+h
+
T+h
.
La meilleure prevision au sens de lerreur quadratique moyenne est lesperance de X
T+h
notee X
T
(h) avec
X
T
(h) = E(X
T+h
) =
n

i=1

i
T
i
T+h
+
p

j=1

j
S
j
T+h
,
dont lestimateur

X
T
(h) est

X
T
(h) =

X
T+h
=
n

i=1

i
T
i
T+h
+
p

j=1

j
S
j
T+h
.
La notation

X
T
(h) est utilise pour signier que lon predit `a lhorizon h connaissant les
donnees jusqu`a T. On peut egalement estimer des intervalles de conance (asymptotiques).
Exemple
Considerons le nombre de passagers aeriens. La croissance du nombre de passagers aerien
est exponentielle. On eectue donc une transformation logarithmique sur les donnees. Et on
consid`ere le mod`ele suivant :
t 1, ..., 144 : X
t
= at +b +
12

j=1
c
j
S
j
t
+
t
148 CHAPITRE VII. S

ERIES CHRONOLOGIQUES
o` u on a tenu compte dune saisonalite annuelle :
S
j
t
=

1 si t = j [12],
0 sinon.
Ce mod`ele est lanalogue du premier mod`ele historique de Buys-Ballot (1847).
Comme
12

j=1
S
j
t
= 1, le mod`ele indetermine. Pour resoudre ce probl`eme on peut soit poser
c
12
= 0 soit contraindre
12

j=1
c
j
= 0.
Le graphique suivant represente les resultats obtenus : serie brute et serie corrigee des
variations saisonni`eres (on a eectue une transformation logarithmique aux donnees avant
traitement, puis une transformation exponentielle apres traitement).
Remarque VII.27. Il est aussi possible dutiliser des moyennes mobiles (ou glissantes) pour
eectuer les decompositions saisonni`eres. Une moyenne mobile est une combinaison lineaire
doperateurs retard :
M =
m
2

i=m
1

i
B
i
o` u (m
1
, m
2
) N
2
, (
m
1
,
m
2
) R
2
et B est loperateur retard : BX
t
= X
t1
et plus
generalement B
i
X
t
= X
ti
. Un algorithme classique de desaisonnalisation utilisant les moyen-
nes mobiles est lalgorithme X11 mis au point par le Bureau of Census.
VII.4 Prevision et processus des innovations
On consid`ere un processus stationnaire (X
t
)
tZ
. Soit t xe. La prevision lineaire optimale
de X
t
sachant son passe est denie comme la regression lineaire de X
t
sur lespace ferme
engendre par les combinaisons lineaires des (X
i
)
it1
. On la note

X
t
,

X
t
= c
0
+
t1

i=
a
i
X
i
, (VII.2)
VII.5.

ETUDE DES PROCESSUS AR 149
o` u (c
0
, (a
i
)
1it1
) = argmin
c

0
,(a

i
)
1it1
E[(X
t
c

0
+

t1
i=
a

i
X
i
)
2
]. Les erreurs de prevision
successives
t
= X
t


X
t
forment un processus appele processus des innovations.
Proposition VII.28. Le processus des innovations, ou plus simplement innovations, est un
bruit blanc.
Remarque VII.29. On utilise souvent des algorithmes iteratifs an de determiner les
previsions basees sur (X
1
, ..., X
T+1
), `a partir de celles basees sur (X
1
, ..., X
T
). Lalgorithme
de Durbin-Levinson et lalgorithme des innovations sont couramment utilises.
VII.5

Etude des processus AR
Cette partie ainsi que les suivantes presentent les mod`eles proposes par Box et Jenkins.
Ils sont utilises pour traiter de nombreuses series temporelles.
Sauf mention contraire, on consid`ere dans ce chapitre des processus centres. Si le processus
(X
t
)
tZ
nest pas centre, on obtient les memes resultats mais sur le processus (Y
t
)
tZ
tel que
Y
t
= X
t

X
.
VII.5.1 Denition
Denition VII.30. Soit (
t
)
tZ
un bruit blanc (faible) de variance
2
et p 1.
On dit quun processus (X
t
)
tZ
est un processus autoregressif ou encore processus AR
(AutoRegressive) dordre p, note AR(p), si :
(X
t
)
tZ
est stationnaire,
t Z : X
t
=
p

i=1

i
X
ti
+
t
o` u (
1
, ...,
p
) R
p
sont des constantes et
p
= 0.
On utilise generalement la notation suivante :
(B) X
t
=
t
, (VII.3)
o` u (B) = I
p

i=1

i
B
i
.
Exemple VII.31. Soit (
t
)
tZ
un bruit blanc faible de variance
2
. Soit le processus (X
t
)
tZ
suivant :
X
t
= X
t1
+
t
.
On a, pour h N

: X
t
X
th
=
t
+... +
th+1
, do` u :
E

(X
t
X
th
)
2

= h
2
Si le processus (X
t
)
tZ
etait stationnaire, on aurait :
E

(X
t
X
th
)
2

= E

X
2
t

+E

X
2
th

2E(X
t
X
th
)
= E

X
2
t

+E

X
2
th

+E

X
2
t

+E

X
2
th

(X
t
+X
th
)
2

= 4V(X
t
) E

(X
t
+X
th
)
2

4V(X
t
) .
150 CHAPITRE VII. S

ERIES CHRONOLOGIQUES
Or il est impossible davoir, pour tout h N

: h
2
4V(X
t
). Le processus (X
t
)
tZ
nest
donc pas stationnaire.
Dans lexemple precedent, on a (x) = 1 x, et poss`ede une racine (ici egale `a 1) de
module egal `a 1. Plus generalement, on peut montrer que si (B) a une racine de module
egal `a 1 (sur le cercle unite) alors le processus (X
t
)
tZ
nest pas stationnaire, et il ne peut
donc pas sagir dun processus AR.
VII.5.2 Processus AR canonique et ecriture MA()
Denition VII.32. Soit (X
t
)
tZ
un processus AR(p) associe ` a par VII.3. Si les racines
de sont toutes ` a lexterieur du cercle unite alors on a sa representation canonique .
Proposition VII.33. Si X est sous sa forme canonique, alors le bruit blanc associe est le
processus des innovations :
t
= X
t


X
t
o` u

X
t
est donne par (VII.2).
Si le polynome (B), que lon suppose inversible, a des racines `a linterieur du cercle
unite, alors le processus (
t
)
tZ
nest pas le processus des innovations. Pour se ramener `a une
ecriture canonique (cest `a dire une ecriture o` u les residus sont linnovation) on transforme
loperateur (B).
Soient z
i
=
1

i
, i 1, ..., p, les racines de (z).
Supposons que les (z
i
)
i{1,...,r}
soient toutes de module inferieur `a 1 (`a lexterieur du cercle
unite) et que les (z
i
)
i{r+1,...,p}
soient toutes de module superieur `a 1 (`a linterieur du cercle
unite). On peut ecrire :
(B) =
p

i=1
(I
i
B)
On construit alors un nouveau polynome

(B) qui a toutes ses racines `a lexterieur du cercle


unite :

(B) =
r

i=1

I
1

i
B

i=r+1
(I
i
B) ,
et on obtient lecriture canonique du processus.
Proposition VII.34. On denit le processus (
t
)
tZ
par
t
=

(B)X
t
. Alors (
t
)
tZ
est un
bruit blanc faible et cest le processus des innovations du processus AR (X
t
)
tZ
.
On pref`ere travailler avec la representation canonique car la representation inverse ne fera
apparatre que les instants passes du processus. Dans la suite, on consid`ere des processus AR
canoniques.
Proposition VII.35. Soit (
t
)
tZ
un bruit blanc faible de variance
2
.
Soit (X
t
)
tZ
un processus AR(p) canonique : (B) X
t
=
t
. Il admet alors une ecriture
MA() :
X
t
=
1
(B)
t
=
t
+
+

i=1

ti
,
o` u (
i
)
iN
est une suite reelle.
VII.5.

ETUDE DES PROCESSUS AR 151
VII.5.3 Autocorrelations simples dun processus AR
Soit (
t
)
tZ
un bruit blanc faible de variance
2
et (X
t
)
tZ
un processus AR(p) canonique :
X
t
=
p

i=1

i
X
ti
+
t
pour t Z et = (
1
, . . . ,
p
) R
p
.
Lemma VII.36. On a (0) =

2
1
p

i=1

i
(i)
et (h) =
p

i=1

i
(h i) pour tout h N

.
Demonstration. On a :
(0) = Cov (X
t
, X
t
)
= Cov

X
t
,
p

i=1

i
X
ti
+
t

=
p

i=1

i
Cov (X
t
, X
ti
) +Cov (X
t
,
t
)
=
p

i=1

i
(i) +Cov

i=1

i
X
ti
+
t
,
t

=
p

i=1

i
(i) +Cov (
t
,
t
) car
t
H
t1

(X)
=
p

i=1

i
(0) (i) +
2
.
On a de meme :
h N

: (h) = Cov (X
t
, X
th
)
= Cov

i=1

i
X
ti
+
t
, X
th

=
p

i=1

i
Cov (X
ti
, X
th
) +Cov (
t
, X
th
)
=
p

i=1

i
(h i) car
t
H
t1

(X) .
On obtient nalement le syst`eme suivant, appele equations de Yule-Walker :

(0) =

2
1
p

i=1

i
(i)

(1)
(2)
...
(p)

1 (1) ... (p 1)
(1) 1 ... ...
... ... ... (1) ...
(p 1) ... (1) 1

2
...

= R
p
.
152 CHAPITRE VII. S

ERIES CHRONOLOGIQUES
Les autocorrelations simples sont solution dune equation de recurrence lineaire simple
dordre p.
Remarque VII.37. Si les racines de (z) : z
i
=
1

i
, i 1, ..., p, sont reelles et distinctes
alors on obtient :
(h) =
p

i=1
c
i

h
i
Comme les racines sont de modules strictement plus grand que 1, les autocorrelations simples
decroissent exponentiellement vites des vers 0.
Dans le cas general, on obtient une decroissance des autocorrelations simples vers 0, de
type exponentiel ou sinusodal amorti.
VII.5.4 Autocorrelations partielle dun processus AR
Si (X
t
)
tZ
est un processus AR(p) alors ses autocorrelations partielles sannulent `a partir
du rang p + 1 : r(p) = et pour h p + 1 on a r(h) = 0.
Reciproquement, il sagit dune condition necessaire et susante pour quun processus
(X
t
)
tZ
soit un AR(p).
De plus, si le processus est sous sa forme canonique, on a r (p) =
p
. On ne peut rien dire
a priori sur r (h) pour h 1, ..., p 1 (on sait simplement que r (1) = (1), ce qui est vrai
pour tous les processus stationnaires).
VII.5.5 Exemples
On presente dans les gures VII.1, VII.2 et VII.3 les autocorrelogrammes de trois processus
AR(1) pour lesquels on a simule 5000 valeurs.
Fig. VII.1 X
t
= 0.3X
t1
+
t
VII.6. PROCESSUS MA 153
Fig. VII.2 X
t
= 0.5X
t1
+
t
Fig. VII.3 X
t
= 0.8X
t1
+
t
VII.6 Processus MA
Denition VII.38. Soit (
t
)
tZ
un bruit blanc faible de variance
2
.
On dit quun processus (X
t
)
tZ
est un processus processus MA (Moving Average) ou
154 CHAPITRE VII. S

ERIES CHRONOLOGIQUES
encore ` a moyenne mobile dordre q, note MA(q), si :
t Z : X
t
=
t
+
q

i=1

ti
o` u (
1
, ...,
q
) R
q
et
q
= 0.
On utilise generalement la notation suivante : X
t
= (B)
t
, o` u (B) = I +
q

i=1

i
B
i
.
Un processus MA est toujours stationnaire.
VII.6.1 Processus MA canonique et ecriture AR()
Si les racines de sont toutes `a lexterieur du cercle unite alors on a sa representation
canonique. Le bruit blanc associe est alors linnovation.
On pref`ere travailler avec la representation canonique car la representation inverse ne fera
apparatre que les instants passes du bruit blanc. On peut passer dune representation non
canonique `a une representation canonique en inversant les racines qui sont `a linterieur du
cercle unite (cf. la transformation similaire eectuee sur les processus AR). Dans la suite, on
consid`ere des processus MA canoniques.
Proposition VII.39. Soit (X
t
)
tZ
un processus MA(q). Si X est sous forme canonique,
alors il admet alors une ecriture AR() :

t
=
1
(B) X
t
= X
t
+
+

i=1

i
X
ti
cest-` a-dire X
t
=
+

i=1

i
X
ti
+
t
,
o` u (
i
)
iN
est une suite reelle.
VII.6.2 Autocorrelations simples dun processus MA
Soit (X
t
)
tZ
un processus MA(q) canonique : pour tout t Z, X
t
=
t
+
q

i=1

ti
.
Comme (
t
)
tZ
est un bruit blanc, on a :
(0) = V

t
+
q

i=1

ti

=
2

1 +
q

i=1

2
i

.
On a de meme :
h N

: (h) = Cov (X
t
, X
th
)
= Cov

t
+
q

i=1

ti
,
th
+
q

j=1

thj

h
+
q

i=h+1

ih
si h 1, ..., q,
0 si h > q.
VII.6. PROCESSUS MA 155
Proposition VII.40. Si (X
t
)
tZ
est un processus MA(q) alors ses autocorrelations simples
sannulent ` a partir du rang q + 1 :

(q) = 0,
h q + 1 : (h) = 0.
Il sagit dune condition necessaire et susante pour quun processus (X
t
)
tZ
soit un
MA(q).
VII.6.3 Autocorrelations partielles dun processus MA
Les autocorrelations partielles sont solution dune equation de recurrence lineaire simple
dordre q. Elles decroissent vers 0 de mani`ere exponentielle ou sinusodale amortie.
Exemples
On presente dans les gures VII.4, VII.5 et VII.6 les autocorrelogrammes de trois processus
MA(1) pour lesquels on a simule 5000 valeurs.
Fig. VII.4 X
t
=
t
0.3
t1
156 CHAPITRE VII. S

ERIES CHRONOLOGIQUES
Fig. VII.5 X
t
=
t
+ 0.5
t1
Fig. VII.6 X
t
=
t
0.8
t1
VII.7 Processus ARMA
Soit (
t
)
tZ
un bruit blanc faible de variance
2
.
VII.7. PROCESSUS ARMA 157
Denition VII.41. On dit quun processus (X
t
)
tZ
est un processus ARMA (AutoRe-
gressive Moving Average) dordre (p, q), note ARMA(p, q), si :
(X
t
)
tZ
est stationnaire.
il existe = (
1
, . . . ,
p
) R
p
avec
p
= 0 et = (
1
, . . . ,
q
) R
q
avec
q
= 0 tel que
pour tout t Z,
X
t

i=1

i
X
ti
=
t
+
q

i=1

ti
.
On utilise generalement la notation suivante :
(B) X
t
= (B)
t
o` u (B) = I
p

i=1

i
B
i
et (B) = I +
q

i=1

i
B
i
.
Un procesus AR(p) est un processus ARMA(p, 0) ; un procesus MA(q) est un processus
ARMA(0, q).
VII.7.1 Processus ARMA canonique et ecritures MA() et AR()
Denition VII.42. Soit (X
t
)
tZ
un processus ARMA(p, q) :
(B) X
t
= (B)
t
La representation est :
minimale si et nont pas de facteurs communs.
causale si a toutes ses racines ` a lexterieur du cercle unite.
inversible
2
si a toutes ses racines ` a lexterieur du cercle unite.
canonique si la representation est causale et inversible.
Proposition VII.43. Le bruit blanc associe ` a un processus ARMA sous sa forme canonique
est le processus dinnovation.
Proposition VII.44. Soit (X
t
)
tZ
un processus ARMA(p, q) canonique : (B) X
t
= (B)
t
.
Si de plus il est minimal alors :
1. Il admet une ecriture MA() :
X
t
=
1
(B) (B)
t
=
t
+
+

i=1

ti
o` u (
i
)
iN
est une suite reelle.
En posant
i
= 0 pour i < 0,
0
= 1 et
i
= 0 pour i > q, on a :
i N :
i

j=1

ij
=
i
2
Le terme inversible est un point de terminologie ici. Pour un processus ARMA, est toujours inversible
(au sens stationnaire) et est inversible (au sens stationnaire) si aucune de ses racines nest sur le cercle
unite.
158 CHAPITRE VII. S

ERIES CHRONOLOGIQUES
2. Il admet une ecriture AR() :

t
=
1
(B) (B) X
t
= X
t
+
+

i=1

i
X
ti
X
t
=
+

i=1

i
X
ti
+
t
o` u (
i
)
iN
est une suite reelle.
En posant
i
= 0 pour i < 0,
0
= 1 et
i
= 0 pour i > p, on a :
i N :
i
+
q

j=1

ij
=
i
VII.7.2 Autocorrelations dun processus ARMA
On peut determiner les autocorrelations simples `a laide deux calculs dierents
On obtient `a laide de la representation MA() :
(h) = Cov (X
t
, X
th
)
= Cov

t
+
+

i=1

ti
,
th
+
+

i=1

thi

=
2
+

i=0

i+h
o` u
0
= 1
On a :
X
t

1
X
t1
...
p
X
tp
=
t
+
1

t1
+... +
q

tq
Do` u :
(h)
1
(h 1) ...
p
(h p) = Cov (
t
+
1

t1
+... +
q

tq
, X
th
)
= Cov

t
+
1

t1
+... +
q

tq
,
+

i=0

thi

2
+

i=0

h+i

i
si h 0, ..., q
0 si h > q
Les autocorrelations simples decroissent vers 0.
Si p > q la decroissance est de type exponentiel ou sinusodal amorti.
Si q p, les qp1 premi`eres valeurs ont un comportement quelconque et les suivantes
decroissent.
Il existe des proprietes similaires sur les autocorrelations partielles.
Methode du coin
Il nexiste pas de caracterisation simple des processus ARMA, basee sur les autocorre-
lations simples ou partielles. La methode du coin repose sur des proprietes des matrices
dautocorrelation.
VII.7. PROCESSUS ARMA 159
Soient les matrices suivantes et leurs determinants respectifs :

i,j
=

(i) (i 1) ... (i j + 1)
(i 1) (i) ... ...
... ... ... (i 1)
(i j + 1) ... (i 1) (i)

i,j
= det (
i,j
)
Soit (X
t
)
tZ
un processus ARMA(p, q) canonique minimal :
(B) X
t
= (B)
t
On a alors :
(i, j) /i > q, j > p :
i,j
= 0
(i, j) /i q :
i,p
= 0
(i, j) /j p :
q,j
= 0
On peut visualiser ce resultat sous forme matricielle en representant la matrice M =
(
i,j
)
(i,j){1,...,k}
2 (pour k assez grand) et faire ainsi apparatre un coin :
M =

1,1
...
1,p

1,p+1
...
1,k
... ... ... ...

q,1
...
q,p

q,p+1
...
q,k

q+1,1
...
q+1,p
... ... 0

k,1
...
k,p

VII.7.3 Densite spectrale dun processus ARMA


Proposition VII.45. Soit (X
t
)
tZ
un processus ARMA(p, q) (pas forcement sous sa forme
canonique), (B) X
t
= (B)
t
. Sa densite spectrale vaut :
f () =

2
2

e
i

2
[(e
i
)[
2
VII.7.4 Estimation des processus ARMA
Soit (
t
)
tZ
un bruit blanc faible de variance
2
et (X
t
)
tZ
un processus ARMA(p, q)
canonique minimal : (B) X
t
= (B)
t
.
Principe
Le but est destimer les coecients des polynomes et , ainsi que
2
.
Une premi`ere approche consiste `a determiner ces valeurs `a partir des autocorrelations.
En general, ces estimateurs ne sont pas ecaces
3
. Cest pourquoi, on utilise des estimations
preliminaires comme premi`ere etape dans des methodes iteratives, du type maximum de
vraisemblance ou moindres carres.
Estimation preliminaire
Cas des processus AR
3
Un estimateur ecace est un estimateur sans biais atteignant la borne FDCR (donc de variance minimale).
160 CHAPITRE VII. S

ERIES CHRONOLOGIQUES
Dans le cas dun processus AR(p) canonique, on peut utiliser les equations de Yule-
Walker :

(0) =

2
1
p

i=1

i
(i)

(1)
(2)
...
(p)

1 (1) ... (p 1)
(1) 1 ... ...
... ... ... (1) ...
(p 1) ... (1) 1

2
...

= R
p
.
On en deduit :


2
= (0)

1
p

i=1

i
(i)


1

2
...

p

1 (1) ... (p 1)
(1) 1 ... ...
... ... ... (1) ...
(p 1) ... (1) 1

(1)
(2)
...
(p)

En notant = (
1
, ...,
p
) et = (
1
, ...,
p
), on a les resultats suivants :

n( )
L
^

0,
2

1
p


2
P

2
o` u :

p
=

(0) (1) ... (p 1)


(1) (0) ... ...
... ... ... (1) ...
(p 1) ... (1) (0)

= (0)R
h
.
Cas des processus MA et ARMA
Si on a une partie moyenne mobile, on utilise plut ot lalgorithme des innovations. On
consid`ere ici le cas dun processus ARMA(p, q) canonique minimal. Le cas dun processus
MA(q) nest quun cas particulier.
Considerons lecriture MA() du processus :
X
t
=
t
+
+

i=1

ti
On peut estimer les coecients (
i
)
i{1,...,n}
par

1
(n) , ...,

p+q
(n)

`a laide de lalgo-
rithme des innovations. On se xe n a priori ; on le prend susamment grand pour avoir assez
dequations necessaires `a la resolution du probl`eme, sachant que
i

i+
0.
En posant
i
= 0 pour i < 0,
0
= 1 et
i
= 0 pour i > q, on a :
i N :
i

j=1

ij
=
i
VII.7. PROCESSUS ARMA 161
On utilise ces relations pour obtenir une premi`ere estimation de (
1
, ...,
p
) et (
1
, ...,
q
)
`a partir de

1
(n) , ...,

p+q
(n)

.
Estimation par la methode du maximum de vraisemblance
En general, on ajoute une hypoth`ese sur la loi des residus. On suppose ici que les residus
sont distribues selon une loi normale ^

0,
2

, hypoth`ese quil faudrait verier `a laide dun


test (Kolmogorov par exemple).
Si lhypoth`ese de normalite nest pas veriee, on peut tout de meme considerer que la
vraisemblance normale est un crit`ere dajustement qui peut convenir.
Si on dispose dun echantillon (X
1
, ..., X
T
), la vraisemblance secrit :
V

x
1
, ..., x
T
;
1
, ...,
p
,
1
, ...,
q
,
2

=
1
(2)
T
2
1

det
T
exp

1
2
x

1
T
x

o` u x = (x
1
, ..., x
T
) et
T
est la matrice de variance-covariance de (X
1
, ..., X
T
).
Remarquons que (X
1
, ..., X
T
) est un vecteur gaussien, en tant que transformation lineaire
du vecteur gaussien (
1
, ...,
T
).
La maximisation de cette vraisemblance nest pas simple et necessite lutilisation dalgo-
rithmes doptimisation.
Notons pour tout i 2, ..., T,

X
i
= EL(X
i
[X
i1
, ..., X
1
).
On peut utiliser lalgorithme des innovations pour calculer les erreurs de prevision au pas
1,
i
= X
i


X
i
, ainsi que leur variance v
i
. On evite ainsi le calcul direct de
1
T
et de det
T
.
On a :

X
1
X
2
...
X
T

= C
T

2
...

avec la matrice C
T
(estimee par lalgorithme des innovations) denie par
C
T
=

1 0 ... ... 0

1
(1) 1 0 ... 0
... ... ... ... ...

T1
(T 1)
T2
(T 1) ...
1
(T 1) 1

Les (
i
)
i{1,...,T}
=

X
i


X
i

i{1,...,T}
ne sont pas correles, la matrice de covariance de
(
i
)
i{1,...,T}
vaut :
V
T
=

v
0
0 ... 0
0 v
1
... ...
... ... ... 0
0 ... 0 v
T1

On a
T
= C
T
V
T
C

T
et det
T
= (det C
T
)
2
det V
T
= v
0
...v
T1
, et donc
x

1
T
x =
T

i=1
(x
i
x
i
)
2
v
i1
,
o` u les previsions x
i
sont donnees par lalgorithme des innovations.
162 CHAPITRE VII. S

ERIES CHRONOLOGIQUES
La vraisemblance secrit donc :
V

x
1
, ..., x
T
;
1
, ...,
p
,
1
, ...,
q
,
2

=
1
(2)
T
2
1

v
0
...v
T1
exp

1
2
T

i=1
(x
i
x
i
)
2
v
i1

Lalgorithme des innovations nous indique que :

X
i+1
=

j=1

j
(i)

X
i+1j


X
i+1j

si 1 i max (p, q)

1
X
i
+... +
p
X
i+1p
+
q

j=1

j
(i)

X
i+1j


X
i+1j

si i > max (p, q).


On denit r
i
= v
i
/
2
. On peut reecrire la vraisemblance comme suit :
V

x
1
, ..., x
T
;
1
, ...,
p
,
1
, ...,
q
,
2

=
1
(2
2
)
T
2
1

r
0
...r
T1
exp

1
2
2
T

i=1
(x
i
x
i
)
2
r
i1

On utilise la log-vraisemblance. Lestimateur du maximum de vraisemblance verie :


1
, ...,
p
,

1
, ...,

= arg min
(
1
,...,p,
1
,...,q)

log

1
T
S (
1
, ...,
p
,
1
, ...,
q
)

+
1
T
T

i=1
log r
i1


2
=
1
T
S


1
, ...,
p
,

1
, ...,

o` u S


1
, ...,
p
,

1
, ...,

=
T

i=1
(x
i
x
i
)
2
r
i1
La maximisation seectue de mani`ere iterative, et lestimation preliminaire fournit des
valeurs initiales. Les estimateurs obtenus sont ecaces.
Estimation par la methode des moindres carres
On cherche cette fois `a minimiser la quantite suivante :
S (
1
, ...,
p
,
1
, ...,
q
) =
T

i=1
(x
i
x
i
)
2
r
i1
Lestimateur des moindres carres verie :


1
, ...,
p
,

1
, ...,

= arg min
(
1
,...,p,
1
,...,q)
S (
1
, ...,
p
,
1
, ...,
q
)

2
=
1
T p q
S


1
, ...,
p
,

1
, ...,

Les estimateurs obtenus sont ecaces.


Remarque VII.46. Il existe dautres methodes destimation quon ne presente pas ici, no-
tamment la methode du maximum de vraisemblance conditionnel et la methode des moindres
carres conditionnels.
VII.7.5 Choix de mod`ele
Les crit`eres de choix de mod`eles sont un compromis entre lajustement de la serie modelisee
(on cherche `a minimiser la variance residuelle non expliquee :
2
), et la r`egle de parcimonie
(on cherche `a minimiser le nombre de param`etre p +q), ces deux crit`eres etant antagonistes.
Ces crit`eres sont etablis en calculant une distance, appelee distance de Kullback, entre la loi
inconnue et lensemble des lois proposees par le mod`ele.
VII.8. PRATIQUE DES MOD
`
ELES SARIMA 163
Crit`ere dAkake. La fonction que lon desire minimiser est
AIC (p, q) = log

+ 2
p +q
T
Crit`ere de Schwarz. La fonction que lon desire minimiser est
BIC (p, q) = log

+ (p +q)
log (T)
T
VII.8 Pratique des mod`eles SARIMA
Cette partie presente la mise en oeuvre pratique des mod`eles SARIMA.
VII.8.1 Methodologie
Synth`ese
La demarche adoptee par Box et Jenkins est la suivante :
1. Stationnarisation
2. Identication a priori de mod`eles potentiels
3. Estimation des mod`eles potentiels
4. Verication des mod`eles potentiels
5. Choix denitif dun mod`ele
6. Prevision `a laide du mod`ele choisi
7. Analyse a posteriori
Stationnarisation
Methodes
La plupart des series temporelles presentent une tendance et/ou une saisonnalite, et ne
sont donc pas modelisables par un processus stationnaire. An de se ramener `a un processus
ARMA, il faut stationnariser la serie
4
et dierentes methodes sont envisageables :
Decomposition saisonni`ere
Cette methode permet deliminer tendance et saisonnalite, sources evidentes de non-
stationnarite ; il se peut neanmoins que la serie resultant de la decomposition ne soit
toujours pas stationnaire.
Dierenciation
Cest la methode employee par les mod`eles ARIMA et SARIMA. On ne modelise pas
la serie brute mais la serie dierenciee, en tendance `a laide de
d
= (I B)
d
, ou la
serie dierenciee en saisonnalite `a laide de
D
s
= (I B
s
)
D
. De mani`ere generale,

d
permet de stationnariser des series possedant une tendance polynomiale de degre
d, et
D
s
des series possedant une composante saisonni`ere de periode s.
Si les processus stationnaires peuvent etre approches par des mod`eles ARMA, il nest
pas certain que la dierenciation permette de stationnariser tous les processus.
4
En toute rigueur, on devrait parler de stationnariser un processus et non une serie temporelle.
164 CHAPITRE VII. S

ERIES CHRONOLOGIQUES
Methode de Box-Cox
Elle permet une stationnarisation en variance (ou encore de stationnariser des series
presentant une tendance exponentielle). On utilise la transformation suivante :
X

t
1

avec R. Il existe des methodes alternatives si X


t
nest pas une serie positive.
Remarquons que :
X

t
1

0
log (X
t
)
Il existe des tests de stationnarite, mais aucun nest universel. Citons tout de meme le
test de Dickey-Fuller.
Pratique de la dierenciation dans les mod`eles SARIMA
On utilise tr`es souvent une methode empirique basee sur lautocorrelogramme simple.
On eectue une dierenciation en tendance si :
Les autocorrelations (h)
5
sont proches de 1 pour un grand nombre de retards.
Les premi`eres autocorrelations (h) sont proches les unes des autres (meme si elles
ne sont pas forcement proches de 1).
On parle souvent de decroissance lente des autocorrelations simples.
On eectue une dierenciation en saisonnalite si des comportements similaires sont
observes de mani`ere periodique. Par exemple, si (12), (24), ... sont proches de 1, on
utilise une dierenciation en saisonnalite avec s = 12.
Remarques
1. Quelle que soit la methode, on proc`ede de mani`ere iterative : on eectue une premi`ere
dierenciation ; si celle-ci nest pas susante, on en eectue une seconde...
2. En pratique, on a souvent d 2 et D 2.
On travaille dorenavant sur une suite stationnarisee.
Identication a priori de mod`eles potentiels (Ordre de grandeur de p et q
Une fois la stationnarisation eectuee, on peut se consacrer aux choix potentiels des
polynomes AR et MA.
Il existe dierentes methodes pour identier un mod`ele ARMA(p, q) :
Methode de Box et Jenkins
Il sagit dune methode heuristique pour majorer p et q.
Pour un processus AR(p) :
On peut montrer que :
h > p :

n r (h)
L
^ (0, 1)
On peut denir un intervalle de conance `a 95% et on recherche `a partir de quelle
valeur, 95% des r (h) sont dans lintervalle

1.96

n
,
1.96

.
5
Il sagit ici dun abus de langage car si la sortie nommee autocorrelations simples nous permet de douter
de la stationnarite du processus sous-jacent, nous ne devrions pas parler alors dautocorrelations simples.
VII.8. PRATIQUE DES MOD
`
ELES SARIMA 165
Pour un processus MA(q) :
On peut montrer que :
h > q :

n (h)
L
^

0, 1 + 2
q

k=1

2
(k)

On peut denir un intervalle de conance `a 95% et on recherche `a partir de quelle


valeur, 95% des (h) sont dans lintervalle suivant :

1.96

1 + 2
q

k=1

2
(k)
1
2
,
1.96

1 + 2
q

k=1

2
(k)
1
2

Methode du coin
On utilise la methode du coin avec les estimations de (h). Cette methode ne permet
pas toujours daboutir, surtout si on a des eets saisonniers.
Methode empirique
En pratique (surtout pour les mod`eles SARIMA), on essaye didentier les autocorrela-
tions simples et partielles signicatives pour caler ensuite des polynomes AR et MA
qui reettent ces liens temporels.
An dobtenir des mod`eles potentiels, lideal est de regarder lautocorrelogramme par-
tiel an demettre une hypoth`ese sur la partie autoregressive (simple et saisonni`ere),
la tester puis regarder lautocorrelogramme simple (et partiel) du residu an didenti-
er compl`etement un mod`ele. Cette demarche par etape permet en general dobtenir
plusieurs mod`eles potentiels.
Estimation des mod`eles potentiels
On estime les mod`eles potentiels `a laide des methodes classiques : maximum de vraisem-
blance ou moindres carres.
Verication des mod`eles potentiels
An de verier la validite des mod`eles estimes, on doit verier :
Signicativite des param`etres
Par exemple, pour le coecient AR dordre p, on eectue le test suivant :

H
0
: le processus est un ARMA(p, q)
H
1
: le processus est un ARMA(p 1, q)
On utilise pour cela la statistique de test suivante :
t =
[
p
[
V(
p
)
,
o` u V(
p
) est la variance (que nous ne precisons pas ici) de
p
.
Le test de Student permet de rejeter H
0
au niveau 5% si [t[ est superieur `a 1.96.
Il existe des resultats similaire pour les coecients MA.
Blancheur du residu
On verie que le residu est bien un bruit blanc, `a laide du test de Portmanteau par
exemple.
166 CHAPITRE VII. S

ERIES CHRONOLOGIQUES
Remarque VII.47. Les logiciels fournissent generalement la valeur de la statistique de test,
ainsi que la p-valeur. On rejette H
0
si la p-valeur est inferieure au niveau du test .
Choix denitif dun mod`ele
Ce choix sop`ere entre les mod`eles potentiels retenus. Il y a plusieurs crit`eres possibles :
Des crit`eres dinformation bases sur linformation de Kullback (par exemple, les crit`eres
dAkaike et de Schwartz).
Des crit`eres bases sur le pouvoir predictif.
Une fois ce choix eectue, le mod`ele retenu est utilise `a des ns de prevision.
Prevision `a laide du mod`ele choisi
La fonction de prevision sobtient assez facilement `a partir des ecritures autoregressive ou
moyenne mobile.
Analyse a posteriori
Lanalyse a posteriori permet de voir les ecarts entre les previsions et les realisations, en
tronquant la serie dun certain nombre de points ; le mod`ele doit etre correctement estime
sur la serie tronquee, et les ecarts entre previsions et realisations doivent etre faibles. On
utilise des crit`eres derreur comme lerreur quadratique moyenne (Root Mean Square Error :
RMSE) ou lerreur relative absolue moyenne (Mean Average Percentage Error : MAPE) :
RMSE =

1
n
n

i=1

X
i


X
i

2
MAPE =
1
n
n

i=1

X
i


X
i
X
i

VII.8.2 Exemple
On consid`ere le nombre de passagers aeriens quon cherche `a modeliser `a laide la methode
de Box et Jenkins.
VII.8. PRATIQUE DES MOD
`
ELES SARIMA 167
Le graphique de la serie brute, gure VII.8.2, montre une serie avec une tendance (de
type parabolique ou exponentielle), ainsi quune saisonnalite (de periode 12). On constate
egalement un accroissement de la variabilite, ce qui explique la transformation logarithmique
operee par la suite.
On voit que la serie transformee, gure VII.8.2, presente une tendance (quasiment lineaire)
et conserve une saisonnalite (de periode 12) ; cest cette derni`ere serie qui est modelisee par
la suite (pour revenir `a la serie de base, il sut deectuer une transformation exponentielle).
168 CHAPITRE VII. S

ERIES CHRONOLOGIQUES
Lautocorrelogramme simple, gure VII.8.2, de la serie montre que les autocorrelations
simples decroissent lentement vers 0, ce qui indique un probl`eme de non-stationnarite. On
eectue donc une dierenciation (I B). Remarquons quil est inutile de commenter lauto-
correlogramme partiel pour linstant.
Lautocorrelogramme simple, gure VII.8.2, de la serie ainsi dierenciee montre encore
que les correlations multiples de 12 decroissent lentement vers 0. On applique cette fois la
dierenciation (I B
12
).
VII.8. PRATIQUE DES MOD
`
ELES SARIMA 169
Lautocorrelogramme simple, gure VII.8.2, de la serie doublement dierenciee ne semble
pas poser de probl`eme de stationnarite. La serie sur laquelle on travaille est donc :
Y
t
= (I B)

I B
12

log (X
t
)
On constate que certaines autocorrelations simples et partielles de cette serie sont signi-
cativement dierentes de 0 ; voici trois mod`eles qui sont testes, et les resultats obtenus pour
chacun de ces mod`eles, voir gures VII.8.2, VII.8.2 et VII.8.2.
Fig. VII.7 Mod`ele 1 :

I
1
B
12
B
12

Y
t
=

I +
1
B +
12
B
12

t
170 CHAPITRE VII. S

ERIES CHRONOLOGIQUES
Fig. VII.8 Mod`ele 2 :(I
1
B) Y
t
=

I +
12
B
12

t
Fig. VII.9 Mod`ele 3 : Y
t
= (I +
1
B)

I +
12
B
12

t
An de lire quel est le mod`ele teste sous SAS, il faut regarder la n du listing dans lequel
apparaissent les polynomes moyenne mobile et autoregressif.
On constate que seuls les mod`eles 2 et 3 conviennent. En eet les coecients estimes
dans le mod`ele 1 ne sont pas tous signicatifs (MA1, 1 =
1
et AR1, 2 =
12
). On
peut egalement remarquer que le test de Portmanteau nest pas valide sur les 6 premi`eres
autocorrelations, ce qui nest pas forcement trop grave car les resultats sont toujours plus
incertains sur six autocorrelations. Ces lectures de tests sont eectuees avec un niveau de test
de 5%.
Le mod`ele 3 presente un AIC plus faible que le mod`ele 2 ; on choisit donc le mod`ele 3
pour eectuer la prevision. On pourrait egalement prendre comme crit`eres le BIC ou encore
lecart-type du residu.
VII.8. PRATIQUE DES MOD
`
ELES SARIMA 171
Fig. VII.10 Prevision par le mod`ele 3
La prevision eectuee, cf. gure VII.8.2, par le mod`ele 3 semble raisonnable vu le passe
de la serie.
On eectue une analyse a posteriori, cf. gure VII.8.2 et VII.8.2, en :
tronquant la serie de 12 points ;
estimant le mod`ele 3 sur la serie tronquee (on constate que le mod`ele est correctement
estime) ;
prevoyant les douze points manquants `a laide du mod`ele SARIMA ainsi estime.
Fig. VII.11 Analyse a posteriori
On obtient les resultats suivants :
RMSE = 18, 5
MAPE = 2, 9
172 CHAPITRE VII. S

ERIES CHRONOLOGIQUES
Fig. VII.12 Linterpretation des crit`eres derreur depend de la serie et de la qualite de
prevision exigee. Dans le cas present, un MAPE de 2.9% semble satisfaisant a priori.
Chapitre VIII
Apprentissage Statistique
VIII.1 Introduction
Nous avons vu en introduction de ce cours que la statistique comprend deux pans :
la statistique decisionnelle (ou inferencielle) qui utilise les bases de donnees pour predire
la valeur de variables non observees
la statistique descriptive qui a pour but de decrire les liens existant entre les dierentes
variables observees.
En statistique decisionnelle, les deux types de mod`eles consideres sont les mod`eles parame-
triques (qui basent leur prediction sur un nombre de param`etres ni independant de la taille
de la base de donnees) et les mod`eles non parametriques.
Lapprentissage statistique est la branche non parametique de la statistique decisionnelle
qui sinteresse aux bases de donnees composees de n couples, souvent appeles couples entree-
sortie, supposes independants et identiquement distribues. Le but dun algorithme dappren-
tissage statistique est de proposer pour toute nouvelle entree une prediction de la sortie
associee `a cette entree.
Les procedures dapprentissage statistique sont utiles lorsquune modelisation param`e-
trique de la loi generant les donnees nest pas accessible ou lorsque la complexite du mod`ele
est telle quelle empeche son utilisation pour la prediction.
Ces methodes sont devenues incontournables dans de nombreuses applications pratiques
(classement et analyse dimages, reconnaissance dobjets, classement de documents textuels
(par exemple : pourriel vs non pourriel), diagnostic medical, analyse de sequences genetiques
ou de proteines, prediction du rendement dactifs nanciers, interface cerveau-machine, ...).
VIII.2 Description formelle et exemples
VIII.2.1 Problematique
Nous observons une base de donnees composee de n couples Z
1
= (X
1
, Y
1
), . . . , Z
n
=
(X
n
, Y
n
) que nous supposons etre des realisations independantes dune meme loi P inconnue.
Les X
1
, . . . , X
n
appartiennent `a un espace A et sappellent les entrees. Typiquement, A = R
d
pour un grand entier d. Les Y
1
, . . . , Y
n
appartiennent `a un espace \, et sappellent les sorties.
Typiquement, \ est ni ou \ est un sous-ensemble de R.
173
174 CHAPITRE VIII. APPRENTISSAGE STATISTIQUE
But de lapprentissage statistique : predire la sortie Y associee `a toute nouvelle entree X,
o` u il est sous-entendu que la paire (X, Y ) est une nouvelle realisation de la loi P, cette
realisation etant independante des realisations precedemment observees.
Une fonction de prediction est une fonction (mesurable) de A dans \. Dans ce chapitre,
nous supposons que toutes les quantites que nous manipulons sont mesurables. Lensemble
de toutes les fonctions de prediction est note T(A, \). La base de donnees Z
1
, . . . , Z
n
est
appelee ensemble dapprentissage, et sera parfois notee Z
n
1
. Un algorithme dapprentissage
est une fonction qui `a tout ensemble dapprentissage renvoie une fonction de prediction, i.e.
une fonction de lunion
n1
Z
n
dans lensemble T(A, \), o` u Z = A \. Cest un estimateur
de la meilleure fonction de prediction, o` u le terme meilleure sera precise ulterieurement.
Soit (y, y

) la perte encourue lorsque la sortie reelle est y et la sortie predite est y

. La
fonction : \ \ R est appelee fonction de perte.
Exemple du classement : (y, y

) = 1
y=y
(i.e. (y, y

) = 1 si y = y

et (y, y

) = 0 sinon).
Un probl`eme dapprentissage pour lequel cette fonction de perte est utilisee est appele
probl`eme de classement (ou plus couramment par anglicisme classication). Lensemble
\ considere en classement est le plus souvent ni, voire meme de cardinal deux en
classement binaire.
Exemple de la regression L
p
: \ = R et (y, y

) = [y y

[
p
o` u p 1 est un reel xe.
Dans ce cas, on parle de regression L
p
. La tache dapprentissage lorsque p = 2 est aussi
appelee regression aux moindres carres.
La qualite dune fonction de prediction g : A \ est mesuree par son risque (ou erreur de
generalisation) :
R(g) = E

Y, g(X)

. (VIII.1)
Le risque est donc lesperance par rapport `a loi P de la perte encourue sur la donnee (X, Y )
par la fonction de prediction g. La qualite dun algorithme dapprentissage g
n
, construit `a
partir de Z
n
1
, peut etre mesuree par son risque moyen ER[ g
n
], o` u il est sous-entendu que
lesperance est prise par rapport `a la loi de lensemble dapprentissage.
La meilleure fonction de prediction est la (ou plus rigoureusement une) fonction de
T(A, \) minimisant R. Une telle fonction nexiste pas necessairement mais existe pour les
fonctions de pertes usuelles (notamment celles que nous considererons par la suite). Cette
meilleure fonction sera appelee fonction cible ou fonction oracle.
Exemple du classement : (y, y

) = 1
y=y
. La fonction qui `a une entree x renvoie la sortie
la plus probable (au sens de la distribution conditionnelle de Y sachant X = x :
L(Y [X = x)) est la fonction cible en classement.
Exemple de la regression aux moindres carres : \ = R et (y, y

) = [y y

[
2
. La fonction
qui `a une entree x renvoie la sortie moyenne E(Y [X = x) est la fonction cible en
regression aux moindres carres.
VIII.2.2 Exemples
Dans ce paragraphe, nous proposons des exemples illustrant la problematique precedente.
Exemple VIII.1. La reconnaissance de caract`eres manuscrits est un des probl`emes sur
lequel les methodes dapprentissage ont permis des avancees fulgurantes. Le contexte est
VIII.2. DESCRIPTION FORMELLE ET EXEMPLES 175
le suivant : nous disposons dune image numerisee dun caract`ere manuscrit. Cette image
est essentiellement un tableau de nombre reels indiquant lintensite lumineuse en chacun des
pixels. Nous souhaitons trouver la fonction qui `a ce tableau de reels renvoie le caract`ere present
dans limage. A lheure actuelle, les meilleures methodes pour trouver une telle fonction sont
de nature statistique : elles reposent donc sur
Fig. VIII.1 Reconnaissance de chires manuscrits. Les 56 erreurs sur les 10 000 caract`eres de
la base de test (MNIST/VSV2) dun des meilleurs algorithmes de reconnaissance de caract`eres
manuscrits [2, 7]. Le premier nombre en haut `a droite indique la valeur predite et le second
indique la vraie valeur. Le nombre en bas `a gauche est le numero de limage (de 1 `a 10 000).
1. la constitution dune base dimages de caract`eres o` u les images sont etiquetees par le
caract`ere quelle contient. Un X
i
correspond donc `a une de ces images et un Y
i
designe
le caract`ere que X
i
contient.
2. lutilisation de cette base pour proposer une estimation non parametrique de la fonction
cible.
Le taux derreur sur la reconnaissance de chires manuscrits (probl`eme interessant notam-
ment les centres de tri postaux) sont de lordre de 0.5% pour les meilleurs algorithmes (voir
gure VIII.1).
Exemple VIII.2. Ces derni`eres annees ont vu un essor de la recherche sur la mani`ere
dinterfacer le cerveau humain avec un ordinateur. Un des enjeux fondamentaux de ce domaine
est de permettre aux personnes ayant perdu lusage de leurs mains de communiquer avec un
ordinateur.
176 CHAPITRE VIII. APPRENTISSAGE STATISTIQUE
Une des methodes dinterface cerveau-machine consiste `a placer des electrodes `a la surface
de leur cerveau (methode non invasive) ou `a linterieur (methode invasive). Le but est de
deduire de lobservation des signaux electriques les pensees et/ou volontes du sujet. A lheure
actuelle, ces methodes reposent sur
la constitution dune base dapprentissage : il est demande `a un (ou des) sujet(s) sous
observation `a penser `a quelque chose de precis (par exemple, bouger la souris vers le
haut, le bas, la gauche ou la droite ; autre exemple : `a une des lettres de lalphabet). La
nature de cette pensee est une sortie Y
i
associee `a lentree X
i
qui est le signal electrique
observe pendant la seconde suivant la requete.
lapprentissage de la fonction cible `a partir de cette base de signaux electriques etiquetes.

Exemple VIII.3. Pour faire face aux uctuations incontr olees du marche, les banques pro-
posent aujourdhui des produits dont les uctuations sont independantes de la tendance
(baissi`ere ou haussi`ere) du marche. Ces placements, dits de gestion alternative, reposent sur
lachat des actions qui vont crotre le plus (ou du moins baisser le moins) et la vente pour
le meme montant des actions qui vont baisser le plus (ou crotre le moins). La diculte
pour mettre en place ce type de produit est didentier ces actions sur-performantes et
sous-performantes.
Une methode utilisee par les banques est
de recenser un ensemble de param`etres caracterisant laction. Ces param`etres pro-
viennent autant des analystes techniques (qui etudie les courbes `a travers des pa-
ram`etres tels que la moyenne mobile, les seuils de resistance, ...) que des analystes
nanciers (qui etudie les param`etres de la societe : chire daaires, beneces, indices
de rentabilite, ...).
de constituer une base de donnees o` u une entree X
i
est un vecteur des param`etres decrits
ci-dessus et la sortie Y
i
associee evalue la sur/sous-performance de laction sur la periode
suivant lobservation de ces param`etres (typiquement de lordre dune semaine)
lapprentissage de la fonction cible qui, `a une date donnee, pour chaque action du
marche, associe aux param`etres observes lindice de sur/sous-performance de laction.

VIII.2.3 Lien entre classement binaire et regression aux moindres carres


Dans cette section, nous considerons le probl`eme de prediction binaire, cest-` a-dire o` u la
sortie ne peut prendre que deux valeurs. Cest en particulier la problematique des logiciels
de lutte contre les pourriels (ou, par anglicisme, spam). Sans perte de generalite, nous pou-
vons considerer : \ = 0; 1. Le theor`eme suivant precise le lien entre classement binaire et
regression aux moindres carres dans le contexte de la prediction binaire.
Considerons \ = 0; 1. Soit

la fonction cible en regression aux moindres carres denie


par

(x) = E(Y [X = x) = P(Y = 1[X = x). Soit g

la fonction cible en classement denie


par
g

(x) = 1

(x)1/2
=

1 si P(Y = 1[X = x) 1/2


0 sinon
Pour toute fonction de regression : A R, on denit la fonction de classement g

1
1/2
.
VIII.3. LES ALGORITHMES DAPPRENTISSAGE ET LEUR CONSISTANCE 177
Theor`eme VIII.4. Nous avons
R
cla
(g

) R
cla
(g

) 2

R
reg
() R
reg
(

),
o` u R
cla
et R
reg
designent respectivement les risques en classement et en regression aux
moindres carres : precisement R
cla
(g

) = P[Y = g

(X)] et R
reg
() = E

Y (X)

.
Autrement dit, si est une bonne fonction de regression, alors sa version seuillee g

est
une bonne fonction de classement.
VIII.2.4 Consistance universelle
Denition VIII.5. Un algorithme dapprentissage est dit consistant par rapport `a la loi de
(X, Y ) si et seulement si
ER( g
n
)
n+
R(g

).
Un algorithme dapprentissage est dit universellement consistant si et seulement si il est
consistant par rapport ` a toute loi possible du couple (X, Y ).
Theor`eme VIII.6. Si un algorithme est universellement consistant pour la regression aux
moindres carres ` a sorties dans [0; 1]

i.e. \ = [0; 1], (y, y

) = (y y

)
2

, alors lalgorithme
g = 1
1/2
est universellement consistant pour le probl`eme de classement binaire ` a sorties
dans 0; 1

i.e. \ = 0; 1, (y, y

) = 1
y=y

.
Demonstration. Le point de depart consiste `a remarquer que si est universellement consis-
tant pour la regression aux moindres carres `a sorties dans [0; 1], alors est en particulier
consistant par rapport `a toute distribution telle que les sorties sont dans 0; 1 avec probabi-
lite un (i.e. presque s urement). Le resultat annonce est une consequence directe du theor`eme
VIII.4 et du theor`eme de Jensen.
VIII.3 Les algorithmes dapprentissage et leur consistance
Dans ce paragraphe
1
, nous considerons (sauf mention contraire) le probl`eme de regression
aux moindres carres deni par A = R
d
, \ = [B; B] pour B > 0 et (y, y

) = (y y

)
2
. Une
fonction cible est alors

: x E(Y [X = x).
VIII.3.1 Algorithmes par moyennage locale
Idee principale : Pour estimer E(Y [X = x), moyenner les Y
i
des X
i
proches de x.
Cette idee nous am`ene `a nous interesser aux algorithmes dapprentissage de la forme
: x

n
i=1
W
i
(x)Y
i
,
o` u les poids reels W
i
(x) vont etre des fonctions bien choisies de x, n, X
1
, . . . , X
n
.
1
Ce paragraphe sinspire largement des six premiers chapitres du livre [4].
178 CHAPITRE VIII. APPRENTISSAGE STATISTIQUE
Exemple 1 : Algorithme par partition : soit A
1
, A
2
, . . . une partition nie ou denombra-
ble de A (i.e.
j
A
j
= A et A
j
A
k
= pour j = k). Soit A(x) lelement de la partition
qui contient x. Lalgorithme par partition consid`ere les poids
W
i
(x) =
1
X
i
A(x)
P
n
l=1
1
X
l
A(x)
, (VIII.2)
o` u nous utilisons la convention
0
0
= 0.
Exemple 2 : Algorithme par noyau (ou estimateur de Nadaraya-Watson) : Soient K :
R
d
R
+
et h > 0 un param`etre (dit de largeur du noyau). Lalgorithme par noyau
consid`ere les poids
W
i
(x) =
K(
xX
i
h
)
P
n
l=1
K(
xX
l
h
)
, (VIII.3)
o` u nous utilisons toujours la convention
0
0
= 0. Les deux noyaux les plus courants
sont le noyau fenetre K(x) = 1
x1
et le noyau gaussien e
x
2
, avec | | la norme
euclidienne.
Exemple 3 : Lalgorithme des k-plus proches voisins (k-p.p.v.) consid`ere les poids
W
i
(x) =

1
k
si X
i
fait partie des k-p.p.v. de x dans X
1
, . . . , X
n
0 sinon
.
(VIII.4)
Lalgorithme des k-plus proches voisins
Pour denir parfaitement lalgorithme des k-p.p.v., il faut preciser ce qui se passe lorsque
le point x `a classer est `a egale distance de plusieurs points de lensemble dapprentissage. La
r`egle la plus simple consiste `a traiter ces probl`emes degalite de distances par tirage au sort :
pour une distance d et x R
d
, si lensemble E =

i 1, . . . , n : |X
i
x| = d

est de
cardinal [E[ 2, alors les points (X
i
)
iE
sont ordonnes en tirant une permutation aleatoire
(suivant la loi uniforme sur lensemble des [E[! permutations de E).
Pour cette gestion des egalites eventuelles de distances, nous avons
Theor`eme VIII.7. Si k
n

n+
+ et k
n
/n
n+
0, lalgorithme des k
n
-p.p.v. est
universellement consistant.
Lalgorithme des k-p.p.v. necessite de conserver en memoire tous les points de la base
dapprentissage, do` u un stockage co uteux (en O(n)).
Une implementation nave de lalgorithme repose sur le calcul des distances entre le
point pour lequel la prediction est recherchee et les points de lensemble dapprentissage,
do` u un algorithme en O(n). Des methodes basees sur la construction dun arbre associe
`a lensemble dapprentissage ont un co ut moyen en O(log n). Cela necessite neanmoins
la construction de larbre, ce qui a en general un co ut en O(nlog n) (voir par exemple
kd-tree sur en.wikipedia.org). Une implementation de cette methode est accessible
en ligne sous le nom dapproximate nearest neighbour (www.cs.umd.edu/

mount/
ANN/) qui permet egalement de rechercher les plus proches voisins de mani`ere approchee
(ce qui m`ene `a un gain de temps considerable). Une astuce pour ameliorer la recherche
approchee des plus proches voisins est de construire plusieurs arbres de recherche (si
possible les plus dierents possibles).
VIII.3. LES ALGORITHMES DAPPRENTISSAGE ET LEUR CONSISTANCE 179
Le choix du param`etre k peut etre eectue par une methode dite de validation croisee
que nous decrivons ci-dessous. Cette methode, couramment utilisee pour trouver les 1
ou 2 param`etres de reglage dun algorithme dapprentissage, repose sur lestimation du
risque moyen ER( g) dun algorithme par
1
n

p
j=1

(x,y)B
j

y, g(
k=j
B
k
)(x)

(VIII.5)
o` u p est lordre de la validation croisee et B
1
,. . .,B
p
est une partition equilibree (i.e.
n/p 1 < [B
j
[ < n/p + 1) de lensemble dapprentissage. Moins formellement, il faut
couper lensemble dapprentissage en p parties, entraner lalgorithme sur p 1 de ces
parties, regarder la perte quencourt cet algorithme sur les donnees de la p-`eme partie,
et faire cela p fois (correspondant aux p parties pouvant etre laissees de cote lors de
lapprentissage). Pour p = n, lestimateur du risque est appele erreur laisser-un-de-
c ote.
Pour les k-p.p.v., chaque k denit un algorithme. Choisir k par validation croisee dordre
p signie choisir le k qui minimise lerreur de validation croisee donnee par (VIII.5). En
pratique, on prend k dordre 5 `a 10 suivant les contraintes de temps de calcul.
Algorithme par noyau
Le theor`eme suivant donne un resultat de consistance universelle pour lalgorithme par
noyau.
Theor`eme VIII.8. On note par B(0, u) la boule euclidienne de R
d
de centre 0 et de rayon
u > 0. Si il existe 0 < r R et b > 0 tels que
u R
d
b1
B(0,r)
K(u) 1
B(0,R)
et si h
n

n+
0 et nh
d
n

n+
+, alors lalgorithme par noyau deni par
g(x) =

n
i=1

K(
xX
i
h
)
P
n
l=1
K(
xX
l
h
)

Y
i
(avec la convention
0
0
= 0) est universellement consistant.
Remarque VIII.9. Cest un algorithme tr`es employe par les praticiens, notamment avec le
noyau gaussien. Il est neanmoins `a utiliser avec precaution pour des dimensions de lespace
dentrees superieures `a 10.
Algorithme par partition
Tout dabord, rappelons que cet lalgorithme repose sur une partition de R
d
A
1
, A
2
, . . .
nie ou denombrable et que pour tout x R
d
, nous notons A(x) lelement de la partition
qui contient le point x. En pratique, cette partition est prise dautant plus ne que la taille
n de lnesemble dapprentissage est grande. Le theor`eme suivant indique une bonne mani`ere
de choisir la partition en fonction de n.
180 CHAPITRE VIII. APPRENTISSAGE STATISTIQUE
Theor`eme VIII.10. On note encore par B(0, u) la boule euclidienne de R
d
de centre 0 et de
rayon u > 0. Le diam`etre de A
j
est note Diam(A
j
) = sup
x
1
,x
2
A
j
|x
1
x
2
|. Si pour tout R > 0

max
j:A
j
B(0,R)=
Diam(A
j
)
n+
0
|{j:A
j
B(0,R)=}|
n

n+
0
alors lalgorithme par partition denie par pour tout x R
d
g(x) =

n
i=1

1
X
i
A(x)
P
n
l=1
1
X
l
A(x)

Y
i
(avec la convention
0
0
= 0) est universellement consistant.
Remarque VIII.11. Pour une grille (reguli`ere) de R
d
de pas H
n
, les hypoth`eses du theor`eme
sont simplement H
n

n+
0 et nH
d
n

n+
+. En pratique, contrairement `a lalgorithme
par noyau gaussien, il y a un eet escalier (bien souvent non desire) au bord des elements
de la partition, puisque la sortie predite pour une entree x change brusquement lorsque x
change delement de la partition.
Remarque VIII.12. Dans les arbres de decision, les elements de la partition sont denis
par les reponses `a un ensemble de questions, ces questions etant eventuellement choisies
en fonction de lensemble dapprentissage observe. Chaque noeud dun arbre de decision
correspond `a un ensemble de lespace R
d
des entrees. Les contraintes sur les parties de R
d
associees aux noeuds sont les suivantes :
la racine est associee `a R
d
si A R
d
est lensemble associe `a un noeud et si A
(1)
, . . . , A
(k)
sont les parties associees
aux ls de ce noeud, alors
A
(1)
A
(k)
= A et 1 i < j k A
(i)
A
(j)
= ,
autrement dit A
(1)
, . . . , A
(k)
est une partition de A.
Dans un arbre de decision binaire, tout noeud poss`ede zero ou deux ls. Donc tout noeud
peut etre vu comme une question sur lentree x dont la reponse est oui ou non. Les
questions typiques sur x sont : la i-`eme composante de x est elle plus grande quun certain
seuil (cf. gure VIII.3) ? De quel cote x est-il par rapport `a un certain hyperplan de R
d
? x
appartient-il `a un certain hyperrectangle ?
Larbre de decision est une variante de lalgorithme par partition qui est tr`es utilisee
notamment en raison de sa simplicite dinterpretation, de la rapidite de lalgorithme et de
sa capacite `a etre mis `a jour de mani`ere dynamique (les branches de larbre peuvent etre
developpees au fur et `a mesure que de nouvelles donnees viennent completer lensemble dap-
prentissage).
VIII.3.2 Algorithmes par minimisation du risque empirique
Principe de la minimisation du risque empirique
Rappelons tout dabord que le risque dune fonction de prediction g : A \ est deni
par
R(g) = E[Y, g(X)].
VIII.3. LES ALGORITHMES DAPPRENTISSAGE ET LEUR CONSISTANCE 181
Le but dun algorithme dapprentissage est de trouver une fonction de prediction dont le
risque est aussi faible que possible (autrement dit aussi proche que possible du risque des
fonctions cibles).
La distribution P generant les donnees etant inconnue, le risque R et les fonctions cibles
sont inconnus. Neanmoins, le risque R(g) peut etre estime par son equivalent empirique
r(g) =
1
n

n
i=1
[Y
i
, g(X
i
)].
Si nous supposons E

[Y, g(X)]

2
< +, alors la L.F.G.N. et le T.C.L. permettent
darmer
r(g)
p.s.

n+
R(g)

r(g) R(g)

n+
^

0, Var [Y, g(X)]

.
Pour toute fonction de prediction g, la variable aleatoire r(g) eectue donc des deviations en
O(1/

n) autour de sa moyenne R(g).


Puisque nous cherchons une fonction qui minimise le risque R et puisque ce risque est
approche par le risque empirique r, il est naturel de considerer lalgorithme dapprentissage,
dit de minimisation du risque empirique, deni par
g
MRE
argmin
gG
r(g),
(VIII.6)
o` u ( est un sous-ensemble de T(A, \).
Prendre ( = T(A, \) nest pas une bonne idee. Tout dabord, cela entrane un probl`eme
de choix puisquen general, pour tout ensemble dapprentissage, il existe une innite de fonc-
tions de prediction minimisant le risque empirique (voir gure VIII.4). Par ailleurs et surtout,
si on prend lalgorithme du plus proche voisin comme minimiseur du risque empirique (en
regression aux moindres carres ou en classement), alors on peut montrer que cet algorithme
est loin detre universellement consistant.
Prendre ( = T(A, \) m`ene en general `a un surapprentissage dans la mesure o` u lalgo-
rithme resultant a un risque empirique qui peut etre tr`es inferieure `a son risque reel (meme
lorsque la taille de lensemble dapprentissage tend vers linni).
En pratique, il faut prendre ( susamment grand pour pouvoir raisonnablement ap-
procher toute fonction tout en ne le prenant pas trop grand pour eviter que lalgorithme
surapprenne. La grandeur de lensemble ( est appelee capacite ou complexite. Un
autre point de vue consiste `a rajouter `a r(g) une penalisation, quand par exemple, la fonction
g est trop irreguli`ere. Ces deux approches sont en fait proches lune de lautre. Lapproche
par penalisation sera adoptee pour les S.V.M. (Section VIII.3.2).
Soit g une fonction minimisant le risque sur ( :
g argmin
gG
R(g).
(VIII.7)
On suppose le minimum atteint pour simplier lexpose. Dapr`es linegalite
R( g
MRE
) R( g) R(g

),
182 CHAPITRE VIII. APPRENTISSAGE STATISTIQUE
Lexc`es de risque de g
MRE
se decompose en deux termes positifs, appeles erreur destimation
et erreur dapproximation (ou biais) :
R( g
MRE
) R(g

) = R( g
MRE
) R( g)
. .. .
erreur destimation
+ R( g) R(g

)
. .. .
erreur dapproximation
,
Plus ( est grand, plus lerreur dapproximation est faible mais plus lerreur destimation est
en general grande. Il y a donc un compromis `a trouver dans le choix de (. Ce compromis
est souvent appele dilemme biais-variance , o` u le terme variance provient du lien entre
lerreur destimation et la variabilite de lensemble dapprentissage que nous avons suppose
dans notre formalisme etre une realisation de variables aleatoires i.i.d..
Reseaux de neurones
Les reseaux de neurones sont nes de la volonte de modeliser le fonctionnement du cerveau.
Un neurone biologique re coit des stimuli de ses voisins, et produit un signal lorsque son seuil
dactivation est depasse. La modelisation de Mc Culloch et Pitts (1943) consid`ere que le
neurone fait une combinaison lineaire de ses entrees, do` u la fonction dactivation
g(x) = 1
P
d
j=1
a
j
x
(j)
+a
0
>0
,
o` u les x
j
sont les stimuli envoyes par les neurones voisins et a
0
est le seuil dactivation.
Denition VIII.13. Une sigmode est une fonction croissante telle que

(x)
x
0
(x)
x+
1
Voici des exemples de sigmodes.
1. (x) = 1
x0
2. (x) =
1
1+exp(x)
3. (x) =
1
2
+
1

arctan x
Denition VIII.14. Un neurone (articiel) est une fonction denie sur R
d
par
g(x) =

d
j=1
a
j
x
(j)
+a
0

= (a x)
o` u a = (a
0
, , a
d
)
t
, x = (1, x
(1)
, , x
(d)
)
t
et est une sigmode.
Un reseau de neurones `a une couche cachee est une fonction f : R
d
R denie par
f(x) =

k
j=1
c
j
(a
j
x) +c
0
o` u x = (1, x
(1)
, , x
(d)
)
t
. La sigmode , le nombre de neurones k et les param`etres
a
1
, . . . , a
k
R
d+1
, c
0
, c
1
, . . . , c
k
R caracterisent le reseau.
Le theor`eme suivant donne un resultat de consistance universelle pour lalgorithme de
minimisation du risque empirique sur un ensemble de reseaux de neurones `a une couche
cachee.
VIII.3. LES ALGORITHMES DAPPRENTISSAGE ET LEUR CONSISTANCE 183
Theor`eme VIII.15. Soient (k
n
) une suite dentiers et (
n
) une suite de reels. Soit T
n
lensemble des reseaux de neurones ` a une couche cachee tels que k k
n
et

k
i=0
[c
i
[
n
.
Lalgorithme

f qui produit pour lensemble dapprentissage Z
n
1
la fonction de prediction de
T
n
minimisant lerreur quadratique empirique, i.e.

f argmin
fFn

n
i=1
[Y
i
f(X
i
)]
2
,
est universellement consistant si k
n
+,
n
+ et
kn
4
n
log(kn
2
n
)
n

n+
0.
La minimisation de lerreur quadratique empirique est un probl`eme doptimisation non
convexe en raison de la sigmode. Par consequent, il nexiste pas en general dalgorithme
permettant dobtenir systematique le minimum global. Il faut donc avoir recours `a des heu-
ristiques pour trouver les meilleurs minima locaux (et eventuellement) un minimum global.
Lalgorithme des reseaux de neurones est une methode dapprentissage puissante ayant
notamment donne dexcellents resultats sur les probl`emes de reconnaissance de visages ([3])
et de reconnaissance de chires manuscrits ([9]). Des conseils sur la mani`ere dimplementer
cet algorithme sont donnes dans [6, 5, 9].
Machines `a Vecteurs Supports ou Separateurs `a Vastes Marges (S.V.M.)
Pour simplier lexpose, nous presentons cet algorithme dans le cadre du classement bi-
naire avec A = R
d
, \ = 1; +1 et (y, y

) = 1
y=y
. Une fonction cible est alors
g

: x

+1 si P(Y = +1[X = x) 1/2


1 sinon
Soit k : A A R une fonction symetrique. Soit H lespace vectoriel engendre par les
fonctions
k(x, ) : x

k(x, x

).
On suppose que
'

1jJ

j
k(x
j
, ),

1kK

k
k(x

k
, )`
H
=

j,k

k
k(x
j
, x

k
) (VIII.8)
denit un produit scalaire sur H, o` u J, K N, ,

sont des vecteurs quelconques de R


J
, et
x
1
, . . . , x
J
et x

1
, . . . , x

K
sont respectivement des J-uplet et K-uplet delements de A.
Cest en particulier le cas pour les trois exemples suivants
le noyau lineaire k(x, x

) = 'x, x

`
R
d,
les noyaux polynomiaux k(x, x

) =

1 +'x, x

`
R
d

p
pour p N

,
les noyaux gaussiens k(x, x

) = e
xx

2
/(2
2
)
pour > 0.
Plus generalement, (VIII.8) denit un produit scalaire d`es que k est semi-denie positive (i.e.
pour tout J N, R
J
et tout J-uplet x
1
, . . . , x
J
de A,

1j,kJ

j

k
k(x
j
, x
k
) 0 ).
Lespace H muni du produit scalaire ' , `
H
est dit `a noyau reproduisant car pour tout
f H, nous avons 'f, k(x, )`
H
= f(x). La fonction k est appelee fonction noyau.
Denition VIII.16. Soit sgn la fonction signe : sgn(x) = 1
x0
1
x<0
. Notons u
+
la
partie positive dun reel u : u
+
= max(u, 0). Une machine ` a vecteur support de noyau k et
184 CHAPITRE VIII. APPRENTISSAGE STATISTIQUE
de param`etre C > 0 est un algorithme dapprentissage qui produit la fonction de prediction
x sgn

h(x) +

, o` u (

h,

b) est une solution du probl`eme


min
bR,hH
C

n
i=1

1 Y
i
[h(X
i
) +b]

+
+
1
2
|h|
2
H ({)
Si on impose b = 0 (et on ne minimise donc que sur H), on parle de S.V.M. sans terme
constant.
Remarque VIII.17. La machine `a vecteur support de noyau lineaire k(x, x

) = 'x, x

` et
de param`etre C > 0 est un algorithme dapprentissage qui produit la fonction de prediction
x sgn

'w, x`
R
d +b

, o` u w R
d
et b R minimisent
C

n
i=1

1 Y
i
['w, X
i
`
R
d +b]

+
+
1
2
|w|
2
R
d
.

Le theor`eme suivant donne un resultat de consistance universelle pour les S.V.M. `a noyau
gaussien.
Theor`eme VIII.18. Soit A un compact de R
d
et soit > 0. La S.V.M. (avec ou sans
terme constant) de noyau gaussien k : (x, x

) e
xx

2
/(2
2
)
et de param`etre C = n
1
avec 0 < < 1/d est universellement consistante.
Concentrons-nous `a present sur la resolution du probl`eme doptimisation ({) et sur lin-
terpretation de la solution proposee. Des techniques doptimisation classiques montrent que
le probl`eme doptimisation ({) sur un e.v. de dimension innie se ram`ene (par passage `a son
probl`eme dual) `a un probl`eme doptimisation sur un e.v. de dimension n qui est quadratique
et avec des contraintes lineaires simples.
Le theor`eme suivant explique comment calculer la solution de ({) en pratique.
Theor`eme VIII.19. Il existe (h, b) solution de ({). De plus, h est unique et secrit
h =

n
j=1

j
Y
j
k(X
j
, ), (VIII.9)
o` u est un vecteur de R
n
qui maximise

n
i=1

1
2

1i,jn

j
Y
i
Y
j
k(X
i
, X
j
) (T)
sous les contraintes :

n
i=1

i
Y
i
= 0 et i, 0
i
C. Par ailleurs, si il existe une compo-
sante de telle que 0 <
i
< C, alors Y
i
h(X
i
) est constant sur lensemble des i tel que
0 <
i
< C. Soit b la valeur commune. Le couple (h, b) est solution de ({).
Idees de la preuve. Pour lunicite du h solution de ({), il faut montrer tout dabord que h
appartient necessairement lespace vectoriel engendree par k(X
1
, ), . . . , k(X
n
, ), puis utiliser
la stricte convexite de h |h|
2
H
. (Attention, lunicite de h nimplique pas en general celle
des
i
.)
Pour obtenir (T), la premi`ere etape consiste `a remarquer que ({) est egal `a
min
bR,hH

i
0

i
1Y
i
[h(X
i
)+b]
C

n
i=1

i
+
1
2
|h|
2
H
,
ce qui ram`ene le probl`eme convexe ({) `a un probl`eme quadratique avec contraintes lineaires.
La suite de la preuve consiste `a ecrire le dual de ce probl`eme et `a utiliser les conditions de
Karush-Kuhn-Tucker.
VIII.3. LES ALGORITHMES DAPPRENTISSAGE ET LEUR CONSISTANCE 185
Remarque VIII.20. La fonction de prediction produite par une S.V.M. de noyau k peut
donc secrire x sgn

n
i=1

i
k(X
i
, x) +b

o` u

1
, . . . ,

n
et b sont des param`etres judicieu-
sement choisis. Une S.V.M. de noyau k realise donc une (eventuellement partielle) separation
lineaire des donnees X
1
, . . . , X
n
representees respectivement par k(X
1
, ), . . . , k(X
n
, ) dans
lespace vectoriel H. Les
i
utilises dans (VIII.9) et obtenus par resolution de (T) sont in-
trins`equement lies `a la position de k(X
i
, ) par rapport `a lhyperplan h(x) + b = 0 (voir
gure VIII.5). Connatre
i
et Y
i
permet de situer k(X
i
, ) par rapport `a la fronti`ere de
decision (dequation h(x) + b = 0) sans avoir besoin de calculer h(X
i
) + b. Cela permet une
interpretation rapide des resultats dune S.V.M.. Notons en particulier que
1. tout point mal classe X
i
verie necessairement
i
= C (reciproque fausse),
2. tout point X
i
tel que 0 <
i
< C se trouve sur les courbes dequations respectives
h(x) +b = 1 et h(x) +b = +1,
3. tout point X
i
tel que
i
= 0 ninue pas sur la fonction de prediction produite par une
S.V.M. au sens o` u en retirant ces points de lensemble dapprentissage et en recalculant
la solution de (T) pour ce nouvel ensemble dapprentissage, nous retrouvons la meme
fonction de prediction : x sgn[h(x) +b].

Dans le contexte du classement binaire, lalgorithme des reseaux de neurones decrits dans
le Theor`eme VIII.15 peut etre egalement utilise (par exemple en seuillant `a 0 la fonction obte-
nue par minimisation du risque empirique quadratique : g(x) = +1 si

f(x) 0 et g(x) = 1
sinon). Linconvenient de cet algorithme dapprentissage est quil doit resoudre un probl`eme
doptimisation non convexe. Rien nempeche en pratique lalgorithme de minimisation de
tomber dans un minimum local. En consequence, suivant limplementation et les heuristiques
utilisees pour minimiser le risque empirique, des resultats tr`es inegaux peuvent etre observes.
Lalgorithme des S.V.M. est en general privilegie par les praticiens car il poss`ede les memes
proprietes theoriques que lalgorithme des reseaux de neurones sans en avoir les inconvenients
pratiques : les S.V.M. resolvent un probl`eme doptimisation convexe dont la solution est le
plus souvent unique et facile `a obtenir. De nombreux logiciels implementant les S.V.M. dans
dierents langages informatiques sont accessibles en ligne.
Choix du param`etre C et du noyau k. Pour A = R
d
, les noyaux les plus populaires sont
le noyau lineaire (x, x

) 'x, x

`
R
d,
les noyaux polynomiaux (x, x

1 +'x, x

`
R
d

p
pour p N

,
les noyaux gaussiens (x, x

) e
xx

2
/(2
2
)
pour > 0.
Attention, seul le noyau gaussien peut mener `a un algorithme universellement consistant. Il
doit donc etre en general prefere en pratique.
Pour choisir C, la methode la plus employee est de faire une validation croisee. Pour
limiter le temps de calcul, il faut prendre tout dabord une grille geometrique grossi`ere (par
exemple, 10
5
/n, 10
4
/n, 10
3
/n, 10
2
/n, 10/n), puis prendre une grille geometrique plus ne
autour du C ayant donne la plus faible erreur de validation croisee (cf. (VIII.5)), `a condition
que ce C ne soit pas sur les bords de la grille grossi`ere.
Pour choisir la largeur du noyau gaussien, le principe est le meme que pour choisir C
sauf que lintervalle de recherche est [
min
;
max
], o` u
min
est la mediane de lensemble des
distances dun point de lensemble dapprentissage `a son plus proche voisin et
max
est le
diam`etre de X
1
, . . . , X
n
pour la norme euclidienne sur R
d
, i.e.
max
= max
i,j
|X
i
X
j
|
R
d.
186 CHAPITRE VIII. APPRENTISSAGE STATISTIQUE
VIII.4 Au del`a de la consistance universelle
Les resultats de consistance universelle sont des resultats asymptotiques. Ils disent juste
que si nous avons susamment de donnees (et un ordinateur susamment puissant pour les
traiter) alors tout algorithme universellement consistant produira une prediction tr`es proche
de la meilleure prediction possible.
Les resultats de consistance universelle ne disent pas le nombre de donnees necessaires
pour avoir une garantie du type ER( g) R(g

) + pour > 0 xe. Pour que ce nombre


existe, il faudrait avoir un resultat de consistance universelle uniforme, i.e.
lim
n+
sup
P

ER( g) R(g

= 0,
la consistance universelle narmant que
sup
P
lim
n+

ER( g) R(g

= 0.
En general, ce nombre nexiste pas dapr`es le theor`eme suivant.
Theor`eme VIII.21. Si [A[ = +, il nexiste pas dalgorithme dapprentissage uniformement
universellement consistant ni en regression aux moindres carres ( (y, y

) = (y y

)
2
) ni en
classement ((y, y

) = 1
y=y
).
Labsence dalgorithme universellement uniformement consistant nous am`ene `a denir un
bon algorithme dapprentissage comme etant un algorithme universellement consistant
et ayant une propriete de convergence uniforme sur une classe de probabilites paraissant
pertinente pour le probl`eme `a traiter. Plus precisement, si { est un ensemble de probabilites
sur Z dans laquelle nous pensons que P est, nous souhaitons que le bon algorithme satisfasse
lim
n+
sup
PP

ER( g) R(g

= 0
et egalement avoir une suite sup
PP

ER( g)R(g

decroissant le plus vite possible vers 0 pour


que peu de donnees soient necessaires `a lalgorithme pour predire ecacement. Lensemble
{ doit etre pense comme une modelisation de notre a priori, et il en resulte un a priori
implicite sur la fonction cible. Lobtention dalgorithmes incorporant un a priori et etant
ecace lorsque la priori est correct est au coeur de la recherche actuelle en apprentissage
statistique.
VIII.4. AU DEL
`
A DE LA CONSISTANCE UNIVERSELLE 187
Fig. VIII.2 En haut ` a gauche : exemple demplacement delectrodes sur la surface du
cerveau du sujet vu de haut. En haut ` a droite : exemple de signal electrique observe `a une
electrode durant les 700 ms suivant le stimulus. Lactivite observee environ 300 ms apr`es le
stimulus est caracteristique de la reaction du sujet au stimulus. En bas ` a gauche : topographie
(vue de haut) de la variance du signal due `a la presence ou non de stimuli. Cette topographie
montre que le signal est relativement peu localise en un point precis de la surface du cerveau.
En bas ` a droite : signaux electriques moyens observes `a une electrode pour dierents stimuli
[1, 8].
188 CHAPITRE VIII. APPRENTISSAGE STATISTIQUE
s0 s4 s3
s5
s1
s2
x
(2)
>s
1
oui non
oui
oui
oui
non
non
non
non
non
oui
oui
x
(1)
>s
0
x
(1)
>s
4
x
(2)
<s
2
x
(1)
>s
3
x
(2)
>s
5
Fig. VIII.3 A gauche : Exemple de partition provenant dun arbre de decision. A droite :
Arbre de decision correspond `a cette partition.
X
i
Y
i
Fig. VIII.4 Surapprentissage en regression aux moindres carres : les couples entrees-sorties
sont representes par des croix. Les deux courbes minimisent le risque empirique
1
n

n
i=1
[Y
i

g(X
i
)]
2
(puisquelles ont toutes les deux un risque empirique nulle). La courbe ne semble
apprendre par coeur la valeur des sorties associees aux entrees de lensemble dapprentissage.
On dit quelle surapprend. Au contraire, la courbe epaisse explique plus simplement les
donnees.
VIII.4. AU DEL
`
A DE LA CONSISTANCE UNIVERSELLE 189
(
i
=0 et Y
i
=+1 ) ou (
i
=C et Y
i
=1 )
h(x)+b<0
h(x)+b>0
h(x)+b=0
0<
i
<C Y
i
=+1
h(x)+b=+1
h(x)+b=1
0<
i
<C

Y
i
=1
(
i
=0 et Y
i
=1 ) ou (
i
=C et Y
i
=+1 )

i
=C
Fig. VIII.5 Interpretation geometrique des S.V.M.. Le plan du dessin represente lespace
vectoriel (de fonctions de A dans R) engendre par les fonctions k(X
1
, ), . . . , k(X
n
, ). Les
coecients
i
sont ceux obtenues par resolution de (T) et le couple (h, b) est la solution
presentee dans le Theor`eme VIII.19 : h =

n
j=1

j
Y
j
k(X
j
, ). Les points ronds et carres
representent les points de lensemble dapprentissage (par le biais des fonctions k(X
i
, ) qui
leur sont associees).
190 CHAPITRE VIII. APPRENTISSAGE STATISTIQUE
Bibliographie
[1] B. Blankertz, K.-R. Mller, G. Curio, T. Vaughan, G. Schalk, J. Wolpaw, A. Schlgl, C. Neu-
per, G. Pfurtscheller, T. Hinterberger, M. Schrder, and N. Birbaumer. Bci competition
2003 : Progress and perspectives in detection and discrimination of eeg single trials. IEEE
Transactions on Biomedical Engineering, 51(6) :10441051, 2004.
[2] D. DeCoste and B. Sch olkopf. Training invariant support vector machines. Machine
Learning, 46 :161190, 2002.
[3] C. Garcia and M. Delakis. Convolutional face nder : A neural architecture for fast and
robust face detection. IEEE Transactions on Pattern Analysis and Machine Intelligence,
26(11) :14081423, 2004. article non accessible en ligne, me le demander.
[4] L. Gyor, M. Kohler, A. Krzy zak, and H. Walk. A Distribution-Free Theory of Nonpara-
metric Regression. Springer, 2004.
[5] Y. LeCun, 2005. http://www.cs.nyu.edu/

yann/2005f-G22-2565-001/diglib/lec
ture09-optim.djvu, requires the djvu viewer http://djvu.org/download/.
[6] Y. LeCun, L. Bottou, G. Orr, and K. Muller. Ecient backprop, http://yann.lecun.
com/exdb/publis/pdf/lecun-98b.pdf. In G. Orr and M. K., editors, Neural Networks :
Tricks of the trade. Springer, 1998.
[7] Y. LeCun and C. Cortes. MNIST page. http://yann.lecun.com/exdb/mnist/.
[8] G. Schalk, D. McFarland, T. Hinterberger, N. Birbaumer, and J. Wolpaw. BCI2000 :
a general-purpose brain-computer interface system. IEEE Transactions on Biomedical
Engineering, 51(6) :10341043, 2004.
[9] P. Simard, D. Steinkraus, and J. Platt. Best practice for convolutional neural networks
applied to visual document analysis, http://research.microsoft.com/

patrice/PDF/
fugu9.pdf. International Conference on Document Analysis and Recogntion (ICDAR),
IEEE Computer Society, pages 958962, 2003.
191
192 BIBLIOGRAPHIE
Troisi`eme partie
Analyse exploratoire
193
Chapitre IX
Analyse des donnees
IX.1 Introduction
IX.1.1 Objectif
Dans toute etude appliquee, la demarche premi`ere du statisticien est de decrire et dex-
plorer les donnees dont il dispose, avant den tirer de quelconques lois ou mod`eles predictifs.
Or la statistique traite generalement du grand nombre et, les outils informatiques aidant, les
bases de donnees deviennent de plus en plus volumineuses, tant en largeur (quantite din-
formations recueillies) quen hauteur (nombre dunites sur lesquelles ces informations sont
recueillies).
Cette phase dexploration descriptive des donnees nest en consequence pas aisee : si le
statisticien est dej`a outille pour analyser la distribution, sur la population detude, dune va-
riable quelconque, ou la relation entre deux variables quelles quelles soient - et quil peut donc
developper sequentiellement cette demarche `a lensemble des informations presentes dans ses
donnees -, ces outils basiques ne permettent pas dapprehender ce vaste ensemble informatif
dans sa globalite. Il ne sagit naturellement pas den donner alors une vision exhaustive, mais
bien de repondre `a lune des principales missions du statisticien : extraire dune masse de
donnees ce quil faut en retenir, en la synthetisant ou en simpliant les structures - le tout
avec un souci de neutralite objective qui en garantit la credibilite.
Les techniques danalyse de donnees repondent `a ce besoin, et en particulier les deux
presentees ici :
lAnalyse en Composantes Principales (ACP), anee des methodes danalyse factorielle
qui sappuient sur la reduction de rang decoulant des travaux de decomposition ma-
tricielle dEckart et Young (1936), determine les principales relations lineaires dans un
ensemble de variables numeriques ;
les methodes de classication automatique permettent de resoudre le probl`eme de
lapprehension des individus, en les regroupant au sein de classes homog`enes, sur
la base dinformations communes.
Dans chaque cas, il sagit bien de reduire un ensemble complexe et de grande dimension
`a ses principaux elements, de fa con `a en mieux comprendre les structures sous-jacentes.
195
196 CHAPITRE IX. ANALYSE DES DONN

EES
IX.1.2 Notations
On dispose de p variables ou caract`eres X
1
, . . . ,X
j
, . . . , X
p
, que lon observe sur n unites
statistiques - ou individus : on note X
j
i
la valeur de la variable X
j
observee sur le i-i`eme
individu. Cet ensemble de donnees dit actif peut donc etre mis sous la forme dun tableau X
`a n lignes et p colonnes, et de terme courant X
j
i
.
Dans la suite - et cest tr`es generalement le cas en analyse des donnees, contrairement
aux autres domaines de la statistique - on confondra la notion de variable avec le vecteur de
dimension n qui la denit sur notre population active : X
j
; de meme, chaque individu sera
assimile au vecteur de dimension p qui compile ses valeurs sur les variables actives : X
i
.
Chaque individu est aecte dun poids m
i
(tel que m
i
> 0 et

n
i=1
m
i
= 1). Ces
poids peuvent resulter dun plan de sondage, ou bien traduire une taille necessaire `a la
problematique (nombre dhabitants dune ville, chire daaire dune entreprise, etc.).
IX.1.3 Exemple
Nous choisirons ici un exemple emprunte `a Michel Tenenhaus
1
, decrivant les caracteristi-
ques techniques de 24 mod`eles de voitures de lannee 1989.
Cet exemple comporte volontairement un nombre reduit dindividus (voitures) et de va-
riables (caracteristiques), pour en faciliter la comprehension.
Pour comprendre ce quapportent les methodes danalyse de donnees, menons au prealable
une br`eve analyse descriptive de ce tableau, tant du point de vue des individus que des
variables.
1
Tenenhaus M. (1994), Methodes statistiques en gestion, Dunod
IX.1. INTRODUCTION 197
Mod`ele Cylindre Puissance Vitesse Poids Longueur Largeur
(cm3) (ch) (km/h) (kg) (cm) (cm)
Honda Civic 1396 90 174 850 369 166
Renault 19 1721 92 180 965 415 169
Fiat Tipo 1580 83 170 970 395 170
Peugeot 405 1769 90 180 1080 440 169
Renault 21 2068 88 180 1135 446 170
Citroen BX 1769 90 182 1060 424 168
Bmw 530i 2986 188 226 1510 472 175
Rover 827i 2675 177 222 1365 469 175
Renault 25 2548 182 226 1350 471 180
Opel Omega 1998 122 190 1255 473 177
Peugeot 405 Break 1905 125 194 1120 439 171
Ford Sierra 1993 115 185 1190 451 172
Bmw 325iX 2494 171 208 1300 432 164
Audi 90 Quattro 1994 160 214 1220 439 169
Ford Scorpio 2933 150 200 1345 466 176
Renault Espace 1995 120 177 1265 436 177
Nissan Vanette 1952 87 144 1430 436 169
VW Caravelle 2109 112 149 1320 457 184
Ford Fiesta 1117 50 135 810 371 162
Fiat Uno 1116 58 145 780 364 155
Peugeot 205 1580 80 159 880 370 156
Peugeot 205 Rallye 1294 103 189 805 370 157
Seat Ibiza SX I 1461 100 181 925 363 161
Citroen AX Sport 1294 95 184 730 350 160
Etude descriptive des individus
Vu le faible nombre de variables (qui seront souvent plus nombreuses, dans les problemati-
ques relevant de lanalyse des donnees), on peut representer chaque individu par un graphique
en etoile (cf. Fig.IX.1, Fig.IX.2), chaque valeur etant reportee sur la branche correspondante
(qui va de la valeur minimale `a la valeur maximale observee).
Fig. IX.1 Graphique en etoile
198 CHAPITRE IX. ANALYSE DES DONN

EES
Fig. IX.2 Graphiques en etoile des dierents mod`eles
On constate que les etoiles sont plus ou moins grosses, mais generalement harmonieuses :
toutes les caracteristiques evoluent globalement dans le meme sens.
On peut cependant distinguer certains mod`eles, dont letoile a une forme particuli`ere :
les petites voitures sportives (en bas `a droite), qui sont particuli`erement rapides par
rapport `a leur gabarit ;
les vans (Nissan Vanette, VW Caravelle), qui sont particuli`erement lents pour le leur.
Etude descriptive des variables
Classiquement, on peut se livrer `a une analyse de la distribution de chaque variable :
IX.1. INTRODUCTION 199
Cylindree Puissance Vitesse Poids Longueur Largeur
(cm3) (ch) (km/h) (kg) (cm) (cm)
Minimum 1116 50 135 730 350 155
1er quartile 1550 90 173 914 371 164
Mediane 1929 102 182 1128 436 169
3`eme quartile 2078 131 196 1305 453 175
Maximum 2986 188 226 1510 473 184
Moyenne 1906 114 183 1111 422 169
Ecart-type 517 38 25 225 40 7
Ce tableau est cependant relativement peu parlant pour le non-specialiste, `a cause notam-
ment de lheterogeneite des variables. Plus visuellement, pour mieux apprehender la forme
de ces distributions, on peut tracer des histogrammes (cf. Fig.IX.3).
Fig. IX.3 Histogramme des dierentes variables
Plus interessant est sans doute letude de la relation entre ces dierentes variables. Des
outils danalyse connus peuvent ainsi etre mis en uvre pour apprehender les distribu-
tions bivariees, comme le scatter plot (cf. Fig.IX.4), ou encore le calcul des coecients
de correlation lineaire (Bravais-Pearson), apr`es avoir verie que la forme lineaire des nuages
les legitimait. La correlation lineaire de deux variables dinteret Y = (Y
i
, 1 i n) et
Z = (Z
i
, 1 i n) est donnee par
Corr (Y, Z) =
Cov (Y, Z)

Z
=

n
i=1
m
i

Y
i


Y

Z
i

n
i=1
m
i

Y
i

n
i=1
m
i

Z
i

2
,
o` u

Y =

n
i=1
m
i
Y
i
et

Z =

n
i=1
m
i
Z
i
.
Voici le tableau des correlations lineaires :
200 CHAPITRE IX. ANALYSE DES DONN

EES
Fig. IX.4 Scatter plot des dierentes variables
Cylindree Puissance Vitesse Poids Longueur Largeur
Cylindree 1 0,86 0,69 0,90 0,86 0,71
Puissance 0,86 1 0,89 0,75 0,69 0,55
Vitesse 0,69 0,89 1 0,49 0,53 0,36
Poids 0,90 0,75 0,49 1 0,92 0,79
Longueur 0,86 0,69 0,53 0,92 1 0,86
Largeur 0,71 0,55 0,36 0,79 0,86 1
Toutes les correlations calculees sont positives, ce qui indique que les 6 variables sont
globalement correlees - lharmonie des etoiles le laissait dej`a presager...
Ce tableau peut etre assimile `a un tableau de proximites entre variables :
cylindree, poids et longueur sont particuli`erement proches ;
vitesse et puissance sont proches ;
longueur et largeur le sont aussi.
Manquent cependant des outils de synth`ese, qui permettraient de degager la structure
essentielle de ces donnees : nous allons en developper deux, parmi les plus puissants.
IX.2. LANALYSE EN COMPOSANTES PRINCIPALES 201
IX.2 LAnalyse en Composantes Principales
IX.2.1 Problematique
On se place ici dans la situation o` u les p variables dinteret X
1
, . . . , X
j
, . . . , X
p
, sont
numeriques. Pour apprehender linformation contenue dans le tableau numerique X, on peut
tenter de visualiser lun ou lautre des nuages de points qui en decoulent : les p variables,
dans R
n
; ou, plus classiquement
2
, les n individus, dans R
p
. Mais tr`es souvent, le nombre
dindividus n est grand (plusieurs centaines, voire plusieurs milliers), et le nombre de variables
p peut atteindre quelques dizaines. Quoiquil en soit, meme avec des outils de visualisation
performants, X ne peut etre apprehende de fa con simple dans sa globalite, ni les relations
entre les variables.
La problematique est alors double :
Comment visualiser la forme du nuage des individus ?
Comment synthetiser les relations entre variables ?
LACP permet justement de repondre `a ce type de besoin.
IX.2.2 Choix de la metrique
La methode dAnalyse en Composantes Principales requiert un espace vectoriel muni
dun produit scalaire. Dans ce chapitre, nous considererons lespace euclidien R
p
muni de son
produit scalaire canonique. La metrique associee est donnee par
|X
i
X
i
|
2
=
p

j=1

X
j
i
X
j
i

2
.
Denition IX.1. Soient

X
j
=

n
i=1
m
i
X
j
i
et
2
j
=

n
i=1
m
i

X
j
i


X
j

2
la moyenne et la
variance de la variable dinteret X
j
. La representation reduite de lindividu i est donnee
par

X
j
1
, . . . ,

X
j
p
, o` u pour tout 1 j p,

X
j
i
=
X
j
i


X
j

j
.
Une ACP normee est une ACP menee sur la representation reduite.
Les dierentes variables X
j
pouvant etre heterog`enes, et correspondre `a des echelles de
mesure disparates, la representation reduite est utilisee pour eviter que le choix de ces unites
ait une inuence dans le calcul des distances. Cette representation rend les variables centrees
et de variance 1, et egale donc leur contribution au calcul des distances
3
|

X
i


X
i
|
2
=
p

j=1

X
j
i

X
j
i

2
=
p

j=1

X
j
i
X
j
i

2
j
Pour simplier la presentation, on considerera dans la suite que les variables ont ete dej`a
reduites.
2
Cest en eet lextension de la demarche naturellement adoptee lors des analyses bivariees, o` u la forme
des nuages-individus dans une base de variables est la traduction geometrique des liaisons entre ces variables.
3
La metrique associee pour la representation initiale est dite inverse des variances.
202 CHAPITRE IX. ANALYSE DES DONN

EES
IX.2.3 Moindre deformation du nuage
Pour visualiser le nuage des individus (et donc en connatre la forme, pour savoir comment
sont liees nos p variables), il est necessaire de reduire la dimension de lespace qui le porte.
Les methodes danalyse factorielle (dont lACP fait partie) reduisent cette dimension par
projection orthogonale sur des sous-espaces anes.
Inerties dun nuage de points
Denition IX.2. Soit G le barycentre dun nuage de points X
1
, . . . , X
n
ponderes par les
poids m
1
, . . . , m
n
. L inertie du nuage X
1
, . . . , X
n
est donnee par
I =
n

i=1
m
i
|X
i
G|
2
.
L inertie J
H
du nuage autour du sous-espace ane H est donnee par
J
H
=
n

i=1
m
i
|X
i
X

i
|
2
,
o` u X

i
le projete orthogonal de X
i
sur H.
Linertie J
H
autour de H mesure la deformation du nuage lorsque celui-ci est projete
orthogonalement sur H. Pour que la representation des donnees par leur projection sur un
sous-espace ane ait un sens, il faut quelle modie peu la forme du nuage de points, donc
quelle minimise linertie J
H
.
Theor`eme IX.3. Soit H une famille de sous-espaces anes invariante par translation (au-
trement dit, si H H, alors tout sous-espace ane parall`ele ` a H appartient ` a H). Soit H
opt
un sous-espace ane minimisant la deformation du nuage projete orthogonalement sur un
element de H, au sens o` u J
Hopt
= min
HH
J
H
. Alors :
Le centre de gravite
4
G du nuage de points appartient ` a H
opt
.
Le sous-espace ane H
opt
maximise linertie du nuage projete :
I
Hopt
= max
HH
I
H
,
o` u I
H
=

n
i=1
m
i
|X

i
G

|
2
est l inertie du nuage projete orthogonalement sur
H.
Pour H H, la moyenne ponderee des carres des distances entre les points du nuage
projete :

i=i
m
i
m
i
|X

i
X

|
2
, est maximale pour H = H
opt
.
Demonstration. Soit H H. Soit G

le projete orthogonal du barycentre G sur H, et H


G
le
sous-espace parall`ele `a H passant par G. Par hypoth`ese dinvariance par translation de H,
on a H
G
H. La projection orthogonale sur H
G
nest autre que celle sur H, translatee du
4
Dans la representation reduite, le centre de gravite est au centre du rep`ere : G(

X
1
, . . . ,

X
p
) = O(0, . . . , 0).
IX.2. LANALYSE EN COMPOSANTES PRINCIPALES 203
vecteur GG

. En consequence, on a
J
H
G
=
n

i=1
m
i
|X
i
(X

i
+GG

)|
2
=
n

i=1
m
i
|(X
i
X

i
) (GG

)|
2
=
n

i=1
m
i

|X
i
X

i
|
2
2'X
i
X

i
, GG

` +|GG

|
2

=
n

i=1
m
i

|X
i
X

i
|
2
|GG

|
2

,
do` u J
H
G
= J
H
|GG

|
2
. De cette egalite, constituant le theor`eme de Huyghens, decoule
la premi`ere assertion du theor`eme
5
.
Pour la deuxi`eme asssertion, considerons un sous-espace ane H passant par G. Par le
theor`eme de Pythagore, on a
J
H
=
n

i=1
m
i
|X
i
X

i
|
2
=
n

i=1
m
i

|X
i
G|
2
|X

i
G|
2

= I I
H
,
o` u I est linertie du nuage, et I
H
linertie du nuage projete orthogonalement sur H. Linertie
I etant independante du sous-espace ane considere, on obtient quelle est maximale pour
H = H
opt
.
Pour la derni`ere assertion, il sut de remarquer la relation suivante entre la moyenne
ponderee des carres des distances entre les points du nuage projete, et linertie du nuage
projete :

i=i

m
i
m
i
|X

i
X

i
|
2
=
n

i=1
n

=1
m
i
m
i
|(X

i
G

) (X

i
G

)|
2
=
n

=1
m
i

i=1
m
i
|X

i
G

|
2
+
n

i=1
m
i
n

=1
m
i
|X

i
G

|
2
2

i=1
m
i
(X

i
G

),
n

=1
m
i
(X

i
G

= I
H
+I
H
+ 0
= 2I
H
.
5
Puisque nous travaillons dans la representation reduite, nous aurions pu omettre G. Par souci dho-
mogeneite des formules, nous lavons conserve dans le calcul precedent.
204 CHAPITRE IX. ANALYSE DES DONN

EES
En resume, la moindre deformation dun nuage de points par projection orthogonale
sur un sous-espace ane est obtenue, de mani`ere equivalente, par minimisation de linertie
par rapport au sous-espace ane, par maximisation de linertie du nuage projete, ou par
maximisation de la somme des distances entre les points projetes
6
.
Resolution sequentielle et decomposition de linertie
Cette section montre que la recherche dun sous-espace ane de dimension xee maxi-
misant linertie du nuage projete peut etre menee de mani`ere sequentielle et que linertie
se decompose en la somme des inerties du nuage projete sur des droites orthogonales, dites
directions principales de lACP.
Puisque linertie du nuage projete sur un sous-espace ane est invariante par translation
de ce sous-espace, nous assimilerons dans cette section le sous-espace ane avec son sous-
espace vectoriel associe.
Designons par H
k
lensemble des sous-espaces vectoriels de dimension k avec par conven-
tion H
0
=

. Soit H
k
le sous-espace vectoriel de H
k
portant linertie maximale, au sens
o` u I
H
k
= max
HH
k
I
H
.
Lorthogonal dun sous-espace vectoriel H de R
p
est deni par H

= u R
p
: u H.
Theor`eme IX.4. Soit u
k+1
le vecteur de H

k
maximisant linertie du nuage projete sur la
droite (G, u
k+1
). On a
H
k+1
= H
k
u
k+1
,
do` u
H
k
= u
1
u
k
.
Ce theor`eme est base sur la propriete suivante des inerties.
Proposition IX.5. Si E et F sont deux sous-espaces vectoriels orthogonaux, i.e. pour tout
u E et v F on a 'u, v` = 0, alors :
I
EF
= I
E
+I
F
.
Preuve de la proposition. Soit O lorigine de notre espace R
p
. Soient M un point de R
p
et
M
E
, M
F
et M
EF
les projetes respectifs de M sur les sous-espaces anes (O, E), (O, F) et
(O, E F). Le resultat decoule de la relation

OM
EF
=

OM
E
+

OM
F
et du theor`eme de Pythagore.
Preuve du theor`eme IX.4. Soit E
k+1
R
p
un sous-espace vectoriel de dimension k + 1.
Comme dimE
k+1
= k + 1 et dimH

k
= p k, on a : dim(E
k+1
H

k
) 1. Il existe donc un
vecteur non nul u appartenant `a E
k+1
H

k
. Soit F le supplementaire orthogonal de u dans
E
k+1
: F u et E
k+1
= F u. Par la Proposition IX.5, on a
I
E
k+1
= I
F
+I
u
6
`a une dierence negligeable pr`es : pour les deux derniers crit`eres, lensemble des sous-espace anes solu-
tions est invariant par translation, tandis que pour le premier, le sous-espace ane passe necessairement par
le centre de gravite G.
IX.2. LANALYSE EN COMPOSANTES PRINCIPALES 205
et
I
H
k
u
= I
H
k
+I
u
. (IX.1)
Comme H
k
est par denition le sous-espace de dimension k portant linertie maximale, on
a I
H
k
I
F
, donc I
H
k
u
I
E
k+1
. Le resultat decoule alors de legalite (IX.1) et du fait que
u H

k
.
En consequence, toute solution au probl`eme de reduction de dimension sobtient de proche
en proche, par somme directe de droites portant des inerties maximales.
Soit la matrice de variance-covariance associee au nuage de points (dans la representa-
tion reduite, les moyennes

X
j
sont nulles) :
=
n

i=1
m
i
X
i
(X
i
)
t
,
autrement dit
j,j
=

n
i=1
m
i
X
j
i
X
j

i
est la covariance entre les variables dinteret X
j
et X
j

.
Theor`eme IX.6. Les assertions suivantes caracterisent la resolution sequentielle du probl`e-
me de reduction de dimension par moindre deformation.
Les vecteurs portant linertie maximale ` a chaque pas de la decomposition sont les vec-
teurs propres de la matrice de variance-covariance du nuage. Plus precisement, le vec-
teur u
k
, deni dans le Theor`eme IX.4, est un vecteur propre de associee ` a la k-i`eme
plus grande valeur propre.
La k-i`eme plus grande valeur propre
k
de vaut linertie du nuage projete sur le
k-i`eme axe propre u
k
:
I
u
k
=
k
.
linertie sur H
k
est la somme des inerties sur les k axes propres principaux :
I
H
k
=
k

l=1

l
.
Demonstration. Cherchons dabord le vecteur unitaire, i.e. de norme 1, u maximisant linertie
du nuage projete sur u. Considerons la projection du nuage sur la direction donnee par le
vecteur unitaire u. Le projete X

i
de lindividu i secrit
X

i
= 'u, X
i
`u
et linertie du nuage projete (nous nous pla cons toujours dans le cadre de la representation
reduite) est
I
u
=
n

i=1
m
i
|'u, X
i
`u|
2
=
n

i=1
m
i
'u, X
i
`
2
=
n

i=1
m
i
u
t
X
i
(X
i
)
t
u = u
t
u.
La matrice est symetrique, semi-denie positive ; elle est diagonalisable, a toutes ses valeurs
propres reelles, et il existe une base orthonormale de vecteurs propres de R
p
. Notons
1

206 CHAPITRE IX. ANALYSE DES DONN

EES
...
p
les valeurs propres triees par ordre decroissant, et u

1
, ..., u

p
les vecteurs propres
unitaires associes. Alors
I
u
=
p

j=1

u, u

2

1
p

j=1

u, u

2
=
1
[[u[[
2
=
1
.
Il sut alors de choisir u = u

1
pour maximiser I
u
.
La meilleure droite de projection du nuage est celle de vecteur directeur u
1
, associe `a la
plus grande valeur propre
1
de la matrice .
Pour les directions suivantes, on rep`ete le procede, en cherchant le vecteur directeur u
2
orthogonal `a u
1
portant linertie maximale. Pour tout vecteur u orthogonal `a u

1
, on a
I
u
=
p

j=2

u, u

2

2
.
Donc le maximum est atteint pour u = u

2
, et ainsi de suite.
Au passage, on a egalement prouve la deuxi`eme assertion du theor`eme : I
u
k
=
k
. La
troisi`eme assertion decoule alors de la Proposition IX.5 et du Theor`eme IX.4.
Linertie I du nuage de points est donc egale `a la trace de matrice de variance-covariance,
ce qui implique I = p, en ACP normee. (En ACP non normee, elle vaut la somme des
variances.) On denit la part dinertie expliquee sur le l-i`eme axe propre :
l
=
l
/I. Linertie
portee par un sous-espace de dimension k est donc au mieux

k
l=1

l
pour cent de linertie
totale I.
Retour `a lexemple
Sur notre exemple concernant les 24 mod`eles de voitures, on peut chercher `a visualiser les
proximites (en termes de distance normee sur les 6 caracteristiques techniques) entre mod`eles
sur le premier plan factoriel (u
1
horizontalement, u
2
verticalement) (cf. Fig.IX.5).
Fig. IX.5 Projection des individus sur le premier plan factoriel
IX.2. LANALYSE EN COMPOSANTES PRINCIPALES 207
Dans cet exemple, linertie I = 6 (nombre de variables) se decompose sur les premiers
axes ainsi : I
1
= 4, 66 (donc
1
= 78%), I
2
= 0, 92 (donc
2
= 15%). On visualise donc de
fa con simpliee, mais optimale (
12
= I
u
1
u
2
/I =93% de linertie representee sur ce plan),
les proximites entre mod`eles, selon la distance choisie.
Les vecteurs directeurs de ces deux premiers axes sexpriment ainsi, dans lancienne base :
Vecteur propre Cylindree Puissance Vitesse Poids Longueur Largeur
u
1
0,44 0,41 0,34 0,43 0,43 0,38
u
2
0,03 0,42 0,66 -0,26 -0,30 -0,48
Reste `a interpreter veritablement ces axes, et `a comprendre quels sont les principales
relations lineaires entre les caracteristiques techniques. . .
IX.2.4 Principales relations entre variables
Les composantes principales
La diagonalisation vue precedemment permet de denir p nouvelles variables
7
appelees
composantes principales :
C

=
p

j=1
u
j

X
j
= Xu

R
n
,
ou encore C

i
= 'X
i
, u

`. Elles sont donc combinaisons lineaires des variables dinteret X


j
initiales. Elles sont centrees puisque les X
j
le sont, et on a :
Cov

, C

=
p

j=1
p

=1
u
j

u
j

Cov

X
j
, X
j

= u
t

u
t

.
Donc Cov

, C

0 si = ,

si = .
On peut calculer la covariance entre les composantes principales et les variables initiales :
Cov

, X
j

=
p

=1
u
j

Cov

X
j

, X
j

=
p

=1
u
j

,j
=

u
j

.
Il sensuit que
Corr

, X
j

=
Cov

, X
j

Var(C

) Var(X
j
)
=

u
j

.
Donc

p
j=1
Corr
2

, X
j

.
Autrement dit, la premi`ere composante principale C
1
est la combinaison lineaire unitaire
des X
j
de variance maximale ; de meme, parmi les combinaisons lineaires des variables initiales
non correlees avec C
1
, C
2
est celle de variance maximale ; etc.
7
De meme que precedemment, on confondra sous le vocable variable la forme lineaire, et sa realisation sur
nos n individus, soit encore le vecteur de R
n
associe.
208 CHAPITRE IX. ANALYSE DES DONN

EES
Ces variables, dans lordre presente, sont donc celles qui resument le mieux les correlations
lineaires entre les X
j
.
Pour visualiser les correlations entre les composantes principales et les X
j
, on etablit des
representations planes o` u, en prenant par exemple

, C

comme base orthogonale de ce


plan, chaque X
j
est gure par un vecteur de coordonnees

Corr

, X
j

, Corr

, X
j

, `a
linterieur du cercle unite
8
, dit des correlations.
Retour `a lexemple
On voit, dans cet exemple (cf. Fig.IX.6), que C
1
est tr`es correlee avec tous les X
j
, et
peut etre consideree comme un resume de la taille de la voiture : C
1
est minimale pour les
voitures de faible cylindree, de faible poids, de faibles dimensions, de faible puissance. . . et
maximale pour les voitures grosses, grandes, puissantes, rapides.
Quant `a C
2
, non correlee `a C
1
, elle est maximale pour les voitures de petit gabarit mais
rapides et puissantes ; minimale pour celles qui sont imposantes, mais lentes.
Fig. IX.6 Cercle des correlations pour le premier plan factoriel
IX.2.5 Dualite : imbrication des deux objectifs
Ecrivons : C

i
= 'X
i
, u

`. Autrement dit, la valeur dun individu sur C

vaut la coor-
donnee de cet individu en projection sur laxe (O, u

).
8
Ce vecteur est dans le cercle unite car, dans R
n
muni du produit scalaire x, y =
P
n
i=1
mixiyi, cest le vec-
teur projete orthogonal du vecteur unitaire X
j
sur le plan engendre par les vecteurs orthonormes C

/ Var(C

)
et C

/ Var(C

).
IX.2. LANALYSE EN COMPOSANTES PRINCIPALES 209
Les deux objectifs de depart sont donc equivalents, la recherche daxes dinertie maximale
pour le nuage des individus revenant `a construire des combinaisons lineaires des variables de
variance maximale.
Pour ce qui concerne notre exemple, les deux representations planes precedentes doivent
etre considerees simultanement : plus une voiture se projette `a droite plus sa valeur sur C
1
est elevee, donc plus elle est grosse et puissante ; et plus un mod`ele se projette haut plus sa
vitesse est remarquable pour ses dimensions.
IX.2.6 Nombre daxes (ou de composantes) `a analyser
Combien daxes analyser ? Il existe plusieurs crit`eres de decision.
Le premier (Kaiser) veut quon ne sinteresse en general quaux axes dont les valeurs
propres sont superieures `a la moyenne (qui vaut 1 en ACP normee).
Un second (dit du coude, ou de Cattell) utilise le resultat suivant : lorsque des variables
sont peu correlees, les valeurs propres de la matrice dinertie decroissent reguli`erement - et
lACP presente alors peu dinteret. A linverse, lorsquil existe une structure sur les donnees,
on observe des ruptures dans la decroissance des valeurs propres (cf. Fig.IX.7). On cher-
chera donc `a ne retenir que les axes correspondant aux valeurs qui prec`edent la decroissance
reguli`ere. Analytiquement, cela revient `a chercher un point dinexion dans la decroissance
des valeurs propres, et de ne pas aller au-del` a dans lanalyse.
Ainsi, dans notre exemple, on ne sinteressera quaux 2 (voire 3) premiers axes.
Fig. IX.7 Representation des valeurs propres
En tout etat de cause, le crit`ere decisif est sans doute celui de linterpretabilite : inutile
de retenir un axe auquel on ne sait donner dinterpretation.
IX.2.7 Elements supplementaires
Toute lanalyse precedente sest fondee sur un tableau de donnees croisant individus et
variables numeriques, que lon appelle individus et variables actives, correspondant `a une
problematique clairement enoncee. On peut souhaiter, apr`es cette premi`ere analyse, y integrer
dautres informations : il sagit dinformation auxiliaire, ou delements supplementaires, qui
peuvent revetir plusieurs formes.
210 CHAPITRE IX. ANALYSE DES DONN

EES
Individus : apr`es avoir transforme leurs valeurs sur les variables actives par centrage
et, le cas echeant, reduction (avec les moyenne et ecart-type calcules sur les individus
actifs), on les projette sur les axes (O, u

).
Variables numeriques : on calcule leurs correlations avec les composantes principales,
et on les projette `a linterieur du cercle des correlations.
Variables nominales : on represente chaque modalite par le barycentre des individus qui
la prennent, dans lespace des individus.
IX.2.8 Aides `a linterpretation
Si, pour les variables numeriques (actives comme supplementaires), la visualisation des
vecteurs `a linterieur du cercle des correlations donne toute linformation necessaire `a lana-
lyse, il peut etre utile de denir, pour chaque individu, les aides suivantes :
La contribution `a linertie du nuage, qui crot avec le poids et lexcentricite de lindividu :
CTR(X
i
) =
m
i
|X
i
G|
2
I
La contribution `a linertie portee par un axe (O, u

) :
CTR

(X
i
) =
m
i
(C

i
)
2

Par construction :

n
i=1
CTR(X
i
) = 1, et

n
i=1
CTR

(X
i
) = 1. La valeur de ces
contributions depend donc fortement du nombre dindividus actifs : une contribution
de 5% sera consideree comme forte si lon manipule les donnees de milliers dindividus,
nettement moins si lon nen a quune vingtaine (de fa con generale, on consid`erera que
lindividu i a une contribution importante si elle depasse son poids m
i
).
La qualite de projection sur laxe (O, u

) est donnee par le carre du cosinus de langle :


CO2

(X
i
) =
(C

i
)
2
|X
i
G|
2
.
Par orthogonalite des u

, la qualite de projection dun individu sur un sous-espace


principal est additive : CO2
+
(X
i
) = CO2

(X
i
) + CO2

(X
i
). Dautre part, on re-
marque que

p
=1
CO2

(X
i
) = 1 ; de meme que precedemment, cette qualite depend
fortement du nombre initial de variables : on pourra etre exigeant si lon nen manipule
quune poignee, on le sera moins sil y en a davantage.
Pour un axe donne, lexamen parall`ele des CTR et des CO2 des individus qui sy pro-
jettent peut donner lieu `a quatre cas de gure, dont un pose probl`eme (CO2 faible-CTR
forte), qui apparat lorsquun individu a un poids m
i
trop fort par rapport aux autres :
CTR faible CTR forte
CO2 faible Element peu contributif Element tr`es contributif
quasi independant de laxe mais peu illustratif de laxe
CO2 forte Element peu contributif Element particuli`erement
mais bien illustratif de laxe caracteristique de laxe
IX.3. CLASSIFICATION AUTOMATIQUE 211
IX.3 Classication automatique
IX.3.1 Problematique
Lobjectif est `a present doperer des regroupements homog`enes au sein de notre population
de n individus, sur la base de lobservation des p descripteurs X
1
, . . . , X
j
, . . . , X
p
, `a present
quelconques.
Malheureusement, le nombre de partitions augmente tr`es rapidement avec le nombre
dindividus n. Par exemple, pour n = 4 (A,B,C et D), il existe 15 partitions possibles :
ABCD ABC D ABD C ACD B BCD A
AB CD AC BD AD BC AB C D AC B D
AD B C BC A D BD A C CD A B A B C D
Plus generalement, les quantites cherchees sont donnees par les nombres de Bell, dont
voici quelques valeurs, qui montrent bien que leur croissance est explosive :
n 4 6 10
P
n
15 203 115 975
Or, en analyse des donnees, on a generalement `a traiter des ensembles de plusieurs milliers
dindividus ! On con coit bien que, meme avec les outils de calcul modernes, il serait impossible
de comparer toutes les partitions possibles an de choisir la meilleure, selon un crit`ere quon
se serait xe. . .
Cest la raison pour laquelle ont ete developpees des methodes algorithmiques variees
repondant `a cette problematique. Nous en presentons ici quelques unes
9
parmi les plus uti-
lisees, et indiquons comment les faire fonctionner au mieux.
IX.3.2 Mesure de dissimilarite
La premi`ere etape, pour un tel probl`eme, est de denir une mesure de dissimilarite d :
E E R
+
, o` u E est lensemble des individus. Diverses proprietes sont souhaitables pour
une telle mesure, et notamment, (i, j, k) E E E :
1. d (i, i) = 0,
2. d (i, j) = d (j, i),
3. d (i, j) = 0 i = j,
4. d (i, j) d (i, k) +d (k, j),
5. d (i, j) max (d (i, k) , d (k, j)).
Selon les proprietes veriees par d, la terminologie di`ere. On parle ainsi de :
9
Les methodes derivees des reseaux de neurones et developpees par Kohonen, souvent appreciees pour
laspect visuel de leurs resultats, ne seront ainsi pas abordees ici.
212 CHAPITRE IX. ANALYSE DES DONN

EES
Indice de dissimilarite (1) (2)
Indice de distance (1) (2) (3)
Ecart (1) (2) (4)
Distance (1) (2) (3) (4)
Ecart ultrametrique (1) (2) (4) (5)
Distance ultrametrique (1) (2) (3) (4) (5)
De nombreuses mesures sont ainsi proposees dans la litterature, dont les plus anciennes
(comme lindice de distance de Jaccard, 1908) se fondaient sur le nombre de caracteristiques
(qualitatives) que i et j partagent ou non.
Le choix dune mesure depend essentiellement de la nature des descripteurs ; le plus sou-
vent, le choix se porte sur une distance euclidienne appropriee. Ainsi, si le tableau X est
numerique, on pourra utiliser la distance canonique M = I si lensemble des variables est
homog`ene, la distance inverse des variances M = diag

1/
2
j

si lensemble est heterog`ene,


ou la distance de Mahalanobis (M = V
1
, o` u V est la matrice de variance-covariance) si lon
veut sphericiser le nuage.
Dans la suite, on utilisera des distances classiques quon notera |.|.
IX.3.3 Inerties
Au centre des methodes les plus utilisees - car ayant de bonnes proprietes generalistes,
et coherentes avec les methodes danalyse factorielle notamment -, on retrouve la notion
dinertie : si lon a dej`a deni dans le cadre de lACP linertie totale I du nuage de points, et
G son centre dinertie, on va ici denir de nouvelles notions.
Si lensemble de nos points est regroupe en K classes (i.e. K sous-nuages N
k
), de poids

M
k
=

iN
k
m
i

1kK
, de centre dinertie (G
k
)
1kK
, et dinertie (I
k
)
1kK
, on denit :
linertie intraclasse : I
W
=

K
k=1
I
k
,
linertie interclasse : I
B
=

K
k=1
M
k
|G
k
G|
2
.
Or on a (theor`eme de Huyghens) :
I =
n

i=1
m
i
|X
i
G|
2
=
K

k=1

iN
k
m
i

|X
i
G
k
|
2
+|G
k
G|
2
+ 2 'X
i
G
k
, G
k
G`

=
K

k=1
I
k
+
K

k=1
M
k
|G
k
G|
2
= I
W
+I
B
.
Un crit`ere usuel de classication sera alors, `a K xe, de minimiser linertie intraclasse
(i.e. rendre les classes les plus homog`enes possible) - ce qui revient donc `a maximiser linertie
interclasse (i.e. separer le plus possible les classes).
La qualite dune classication pourra alors etre evaluee par le ratio I
B
/I, interpretable
comme une part dinertie des n points expliquee par leur synth`ese en K barycentres.
IX.3. CLASSIFICATION AUTOMATIQUE 213
IX.3.4 Algorithmes de partitionnement : les centres mobiles
Plusieurs algorithmes de classication sont dinspiration geometrique : ils sont connus
sous le nom de methodes de partitionnement, et leur principe est de partir dune partition
arbitraire, amelioree iterativement jusqu`a convergence. Tous necessitent de choisir un nombre
de classes a priori.
La plus connue de ces methodes est celle des centres mobiles, due principalement `a Forgy
(1965). Son principe est le suivant : si lon veut K classes, on choisit K points dans lespace
des individus ; on aecte ensuite chacun des n individus `a celui de ces K points qui lui est le
plus proche (au sens de la distance d choisie au depart) ; les K points de depart sont remplaces
par les K (ou moins, si un point na attire personne. . . ) barycentres des individus aectes `a
chacun ; puis on reit`ere laectation, jusqu`a convergence.
Proposition IX.7. Cet algorithme fait diminuer ` a chaque iteration la variance intraclasse.
Demonstration. Soient N
t
k
les sous-nuages constitues et C
t
k
les points auxquels ils se rat-
tachent (barycentres des N
t1
k
), `a la t-i`eme iteration. Considerons le crit`ere suivant :
v (t) =
K

k=1

iN
t
k
m
i

X
i
C
t
k

2
.
Linertie intraclasse secrit :
I
W
(t) =
K

k=1

iN
t
k
m
i

X
i
C
t+1
k

2
.
Dapr`es le theor`eme de Huyghens, on a :
v (t) = I
W
(t) +
K

k=1
M
k

C
t
k
C
t+1
k

2
.
Par minimisation des distances pour chaque individu, on a egalement : I
W
(t) v (t + 1).
On obtient ainsi v (t + 1) I
W
(t) v (t), et donc I
W
(t + 1) I
W
(t).
Cet algorithme a ete leg`erement sophistique dans deux autres methodes : les k-means
(les barycentres ne sont pas recalcules `a la n des aectations, mais apr`es chacune : lordre
dapparition des individus nest donc pas neutre), et les nuees dynamiques (o` u ce nest plus
un seul point qui represente une classe).
Toutes ces methodes ont pour avantage de converger rapidement vers un minimum local
de linertie intraclasse. En revanche, leurs deux defauts principaux sont de devoir xer K, et
surtout de converger vers un resultat qui depend des K points choisis initialement, souvent
de fa con arbitraire.
214 CHAPITRE IX. ANALYSE DES DONN

EES
IX.3.5 Classication ascendante hierarchique (CAH)
Ce type dalgorithme produit des suites de partitions embotees, `a n, n1, . . . , 1 classes,
par regroupements successifs
10
. La partition en k classes est ainsi obtenue en agregeant les
deux classes les plus proches (eventuellement reduites `a un seul individu), au sens dune
nouvelle distance ultrametrique `a denir, parmi celles en k + 1 classes.
Une fois cet algorithme termine, on ne recup`ere donc pas directement une partition, mais
une hierarchie de partitions, indicee par la distance entre elements agreges, et que lon
peut presenter sous formes de dendogrammes, ou mobiles de Calder. En analysant les indices
correspondant aux derni`eres iterations, on decide de retenir la partition qui semble la meilleure
- generalement celle qui prec`ede une valeur de lindice brutalement plus elevee. Comme
en analyse factorielle, lanalyse visuelle de lhistorique des indices a pour but de detecter une
structure dans les donnees, autrement dit de choisir un K naturel.
Ce principe necessite donc que lon denisse au prealable une distance entre groupes
dindividus : cest ce quon appelle le choix dune strategie dagregation. De nombreuses ont
ete proposees dans la litterature, plus ou moins adaptees au type de donnees manipulees.
Lune des plus simples est ainsi la strategie du minimum, o` u on denit la distance entre
deux groupes A et B par : (A, B) = min
iA,jB
d (i, j). Elle a cependant linconvenient
de construire, par chanage, des classes liformes, qui peuvent ne pas bien repondre `a la
recherche achee dhomogeneite intraclasse.
Une autre strategie est tr`es frequemment adoptee en espace euclidien : il sagit de la
strategie moment-partition, encore appelee methode de Ward. Elle est denie par :
(A, B) =
m
A
m
B
m
A+
m
B
|G
A
G
B
|
2
o` u m
A
et m
B
sont les poids de A et B, et G
A
et G
B
leurs barycentres respectifs.
Or si lon agr`ege A et B, la perte dinertie interclasse due `a cette agregation vaut :
I
B
= m
A
|G
A
G|
2
+m
B
|G
B
G|
2
m
AB
|G
AB
G|
2
.
Par ailleurs, on sait que, dapr`es Huyghens :
m
A
|G
A
G|
2
+m
B
|G
B
G|
2
= m
A
|G
A
G
AB
|
2
+m
B
|G
B
G
AB
|
2
+ (m
A
+m
B
) |G
AB
G|
2
.
Donc on a
I
B
= m
A
|G
A
G
AB
|
2
+m
B
|G
B
G
AB
|
2
= m
A

G
A

m
A
G
A
+m
B
G
B
m
A+
m
B

2
+m
B

G
B

m
A
G
A
+m
B
G
B
m
A+
m
B

2
=
m
A
(m
A+
m
B
)
2
|m
B
G
A
m
B
G
B
|
2
+
m
B
(m
A+
m
B
)
2
|m
A
G
B
m
A
G
A
|
2
=
m
A
m
B
m
A+
m
B
|G
A
G
B
|
2
.
10
La classication descendante hierarchique, operant par dichotomies successives, nest que rarement utilisee,
car ses proprietes sont moins bonnes, et sa programmation plus hardue.
IX.3. CLASSIFICATION AUTOMATIQUE 215
Fig. IX.8 Methode de Ward appliquee `a lexemple
Autrement dit, avec la methode de Ward, on agr`ege `a chaque iteration les classes dont
lagregation fait perdre le moins dinertie interclasse : il sagit donc dune optimisation pas-
`a-pas, qui a lavantage de ne pas dependre dun choix initial arbitraire, mais linconvenient
- outre sa gourmandise en temps de calcul - detre vraisemblablement assez eloigne dun
optimum si le nombre de pas n K est trop eleve.
Si lon applique `a nos 24 mod`eles de voitures lalgorithme qui vient detre deni, avec
la meme distance que pour lACP - cest-` a-dire la distance inverse des variances - et la
methode de Ward, on obtient les regroupements successifs indiques Fig.IX.8.
On peut ainsi constater que la perte dinertie interclasse (representee par le ) augmente
lentement lors des premi`eres agregations ; le premier saut remarquable est situe au niveau
de la 17`eme iteration, et plus encore de la 18`eme. Les pertes dinertie forment alors un plateau,
pour augmenter fortement lors des deux derni`eres iterations.
Deux possibilites sorent alors :
si le besoin reside en une classication assez fruste, on peut pousser lalgorithme jusqu`a
la 21`eme iteration, et recuperer ainsi 3 classes. On conserve alors 1.429+3.072=4.501
dinertie interclasse, ce qui represente 75% de linertie totale ;
si lon souhaite une analyse un peu plus ne, on pourra par exemple sarreter apr`es la
17`eme iteration, et recuperer alors 7 classes. Linertie interclasse vaut alors 5.445, ce qui
represente 91% de linertie totale ; autrement dit, resumer un ensemble de 24 mod`eles
en 7 types ne fait perdre que 9% de linformation initiale
11
.
11
En analyse de donnees, le role pivot que joue linertie la rend pratiquement assimilable `a un niveau
dinformation, en langage courant.
216 CHAPITRE IX. ANALYSE DES DONN

EES
Les classes obtenues pour ces deux possibilites sont indiquees Fig.IX.9.
Fig. IX.9 Partitions en 3 et 7 classes
IX.3.6 Methodes mixtes
Les methodes mixtes, en cela quelles combinent ecacement les avantages des deux types
dalgorithmes vus precedemment et permettent den annuler les inconvenients, sont nalement
les plus ecaces.
Ces methodes ont pour cur algorithmique la CAH, suivie mais aussi parfois precedee
dune methode de type centres mobiles :
Si le nombre dindividus n est eleve (plusieurs milliers), on lance plusieurs fois un
algorithme de type centres mobiles, en faisant varier le choix des K points de depart : le
produit des partitions obtenues permet dobtenir les groupes - eventuellement reduits
`a un singleton - dindividus toujours classes ensemble : cest ce que lon appelle des
formes fortes. Leur nombre peut etre assez reduit (quelques dizaines, au plus quelques
centaines), et leur denition assez robuste si lespace de depart est bien balaye, et que
le nombre dessais est susant.
On lance une CAH sur ces formes fortes, avec la methode de Ward : on chemine ainsi
vers une partition en K classes, en minimisant `a chaque pas la perte dinertie interclasse.
On lance les centres mobiles sur la partition issue de la CAH, avec pour points de
depart les barycentres des K classes : on est ainsi assure daboutir `a un optimum local,
en autorisant quelques reaectations individuelles - ce que nautorisait pas la CAH.
IX.3.7 Caracterisation des classes
Une fois la classication aboutie, il faut linterpreter : pour cela, chaque classe est decrite
gr ace aux variables actives - celles sur lesquelles on a souhaite dierencier les classes ; mais
aussi avec toute autre variable supplementaire (quel quen soit le type) dont on connat les
valeurs sur notre population de n individus.
Generalement, on commence par calculer la distance entre le barycentre de chaque classe
et le barycentre global, an de connatre lexcentricite globale de chaque groupe.
IX.4. COMPL

EMENTARIT

E DES DEUX TECHNIQUES 217


Ensuite, on compare, pour chaque variable, sa distribution sur chaque classe et sur len-
semble de la population. Des tests probabilistes ont ete developpes (Lebart L., Morineau
A., Piron M., Statistique exploratoire multidimensionnelle, Dunod, 2000, 3`eme edition) dans
cette optique, qui di`erent selon la nature des variables :
Lorsque les variables sont numeriques, on compare leurs moyennes sur les dierents
groupes (en tenant compte des eectifs et des variances respectifs).
Lorsque les variables sont nominales, on compare, pour chaque modalite, sa proportion
dans la classe `a sa proportion dans la population, an de determiner les modalites
signicativement sur- (ou sous-) representees. Il est aussi possible de mesurer le pouvoir
caracteristique de la variable elle-meme (et non plus de chaque modalite) sur la classe.
Globalement, il est alors possible de quantier la force discriminante de chaque variable
sur la classication dans son ensemble, an de determiner quelles sont les caracteristiques
expliquant le plus les dierenciations construites. En n de course, il est alors frequent de
nommer chacune des classes obtenues par un qualicatif resumant la caracterisation.
Pour illustrer ce qui caracterise une classe, on peut aussi rechercher lindividu le plus
typique (ou central) de la classe, ou bien encore un noyau dindividus la representant bien.
Sur notre exemple, les tableaux ci-dessous montrent le pouvoir discriminant des dierentes
caracteristiques techniques ainsi que la caracterisation de chacune des 7 classes.
Caracteristique Valeur moyenne (rappel) Pouvoir discriminant F
Puissance 114 ch 48,8
Poids 1111 kg 36,3
Longueur 422 cm 33,6
Vitesse 183 km/h 32,9
Cylindree 1906 cm3 29,4
Largeur 169 cm 12,7
Tab. IX.1 Pouvoir discrimminant des caracteristiques techniques.
IX.4 Complementarite des deux techniques
LACP est un outil puissant pour analyser les correlations entre plusieurs variables ou,
ce qui revient nalement au meme, degager les axes dallongement maximal dun nuage de
points de grande dimension. Elle permet dobtenir des facteurs
12
orthonormes et hierarchises,
ainsi que de nouvelles variables non correlees `a forte variance (i.e. `a fort pouvoir informatif).
Elle poss`ede cependant quelques limites, quune classication automatique menee sur les
memes variables (ou sur une selection reduite de facteurs ) corrige avantageusement :
Du point de vue de linterpretation : si lACP permet de visualiser la structure des
correlations, ces visualisations ne sont realisables que sur des plans, ce qui limite la
perception precise des phenom`enes si les variables actives sont nombreuses et leurs
12
Cette facon de proceder, tr`es courante, a lavantage de gommer les residus non structurels representes par
les derniers axes factoriels, et rend generalement le travail de classication plus robuste, car lheterogeneite de
la population est reduite par cet artice.
218 CHAPITRE IX. ANALYSE DES DONN

EES
Classe Excentricite Caracteristiques Resume
signicatives moyennees generique
Honda Civic 6,07 Longueur = 363 cm Petites
Seat Ibiza SX I Poids = 827 kg sportives
Citroen AX Sport
Peugeot 205 Rallye
Fiat Uno 11,11 Largeur = 158 cm Petites
Peugeot 205 Vitesse = 146 km/h
Ford Fiesta
Fiat Tipo 0,63 Puissance = 89 ch Berlines
Renault 19 Poids = 1 042 kg moyennes
Peugeot 405
Renault 21
Citroen BX
Renault Espace 1,26 Largeur = 174 cm Volumineuses
Opel Omega Longueur = 450 cm
Ford Sierra
Peugeot 405 Break
Nissan Vanette 5,19 Vitesse = 146 km/h Vans
VW Caravelle Poids = 1 375 kg
Audi 90 Quattro 4,22 Puissance = 166 ch Routi`eres
Bmw 325iX Vitesse = 211 km/h
Ford Scorpio 11,51 Cylindree = 2 786 cm3 Grandes
Rover 827i Puissance = 174 ch routi`eres
Renault 25
Bmw 530i
Tab. IX.2 Caracterisation de chacune des 7 classes.
relations complexes. En outre, la contrainte dorthogonalite des axes rend souvent lin-
terpretation delicate au-del` a du premier plan factoriel, car les informations delivrees
sont alors residuelles, sachant les proximites dej`a observees sur les axes precedents.
Les methodes de classication, en revanche, prennent en compte lensemble des dimen-
sions actives du nuage, et corrigent donc les distorsions des projections factorielles.
Par l`a meme, elles compensent labstraction que lon peut reprocher `a lanalyse facto-
rielle - qui se concentre sur le lien entre les variables et la recherche de composantes
synthetiques - en apprehendant les individus tels quils sont en realite, et non tels quils
apparaissent en projection.
Dautre part, linterpretation dune ACP se heurte au probl`eme de lespace numerique,
dont le continuum nest pas altere par lobtention de la nouvelle base par diagonalisa-
tion ; tandis que la classication se traduit par une partition de cet espace en quelques
zones, ce qui peut etre plus aise `a decrire
13
.
13
Dailleurs, au-del`a de linterpretation des composantes principales, il est toujours utile dobserver la forme
du nuage dindividus projete sur le plan factoriel : on determine ainsi des zones de repartition plus ou moins
denses (qui sont `a lorigine des correlations), qui peuvent etre mises en relation avec les groupes obtenus par
IX.5. LIMITES 219
Du point de vue des representations :
En tant quaides `a linterpretation, les representations peuvent integrer la remarque
precedente, en faisant gurer sur les projections factorielles du nuage des individus la
partition obtenue par classication : il est ainsi possible de faire gurer ces classes par
leur barycentre, et/ou par leur enveloppe, voire en rempla cant chaque point projete
par le code de sa classe dappartenance, si le nombre de points est assez restreint.
Cest dailleurs bien souvent la seule fa con - avec les variables supplementaires quali-
tatives, dont les barycentres des modalites sont projetes - dinterpreter la projection
factorielle des individus, tant leur nombre rend parfois impossible toute analyse directe.
On peut ainsi, pour reprendre notre exemple, faire gurer sur le premier plan factoriel
agremente de la signication des axes les enveloppes correspondant aux deux classications
possibles, en sept ou trois classes, pour aboutir `a un schema (cf. Fig.IX.10) resumant au
mieux linformation contenue dans le tableau initial.
Fig. IX.10 ACP et classication
IX.5 Limites
Il convient de citer en conclusion les principales limites des methodes developpees.
Une des principales faiblesses de ces techniques est la forte sensibilite aux points extremes :
En ce qui concerne lACP, ce manque de robustesse est notamment lie au r ole cen-
tral quy joue la correlation de Bravais-Pearson : les points extremes, en perturbant
les moyennes et correlations, polluent alors fortement lanalyse
14
- on peut cependant
envisager de les deplacer en point supplementaire.
Cette sensibilite naturelle aux valeurs extremes perturbe egalement les methodes de
classication :
methode de classication.
14
Et ce dautant que d`es quun axe est perturbe, tous les suivants sont aectes, dapr`es la contrainte dor-
thogonalite des axes.
220 CHAPITRE IX. ANALYSE DES DONN

EES
Dans la methodes des centres mobiles
15
, le calcul des barycentres est directement
aecte, ce qui modie lensemble des aectations de la zone concernee
Lors dune CAH standard, un point extreme, par son eloignement, est bien souvent
isole, et ne sagr`ege aux autres que tr`es tardivement. Certes, les premiers regroupe-
ments ne sont pas perturbes par sa presence ; mais les classes nalement obtenues le
sont, si larret de la procedure est posterieur au premier rattachement de ce point
extreme.
Une solution ecace contre cette faiblesse est alors de modier d`es le depart la topologie
de lespace, de fa con `a attenuer les distances entre le(s) point(s) extreme(s) et les autres.
Dautre part, lACP est inadaptee aux phenom`enes non lineaires qui plus est en grande
dimension. Pour ce genre de probl`eme, dautres methodes ont ete developpees, comme lACPN
(Analyse en Composantes Principales par Noyau), (voir `a se sujet Kernel principal component
analysis, B. Sch olkopf, A. Smola, and K.-R. M uller, 199).
15
La methode parente des nuees dynamiques peut cependant evacuer ce probl`eme, car on ny calcule pas
necessairement de barycentre, mais on utilise un noyau representatif.
Quatri`eme partie
Annexe
221
Chapitre X
Rappels et complements de
probabilites
Ce chapitre est con cu comme une succession de NOTICES sur des notions et resultats
essentiels de Calcul des Probabilites, utiles pour le reste du cours.
X.1 Denitions et rappels generaux
Le lecteur est suppose connatre les denitions de base du calcul des probabilites : nous
rappelons ici la terminologie usuelle en langue fran caise, en insistant sur le fait (essentiel
pour leur usage en Statistique) quil sagit doutils de modelisation, ce qui implique que
leur usage suppose ` a chaque fois des choix, eectues au vu de la realite concr`ete dont on
veut rendre compte, choix eventuellement revisables au cours dune etude et que lhonnetete
scientique et statistique devrait contraindre ` a toujours bien expliciter.
X.1.1 Probabilite et loi
Espace mesurable, eventualites, ev`enements
On appelle espace mesurable tout couple (, T), o` u T est une tribu (autrement dit
une -alg`ebre) de parties de ; est parfois appele univers ou referentiel ; les elements
de sont appeles eventualites, ceux de T sont appeles ev`enements ; le fait que T est une
tribu signie que le complementaire de tout ev`enement est un ev`enement et que, pour toute
famille nie ou innie denombrable dev`enements, leur union et leur intersection sont encore
des ev`enements. Dans la pratique les eventualites correspondent `a la description la plus ne
possible, dans la modelisation choisie, de ce `a quoi lon sinteresse dans le phenom`ene etudie.
Les ev`enements sont des sous-ensembles deventualites dont la realisation est susceptible
dinteresser les usagers de cette modelisation (un ev`enement est realise si leventualite qui
survient lui appartient).
Mesure de probabilite
On appelle mesure de probabilite (ou loi de probabilite, ou encore en bref pro-
babilite), denie sur lespace mesurable (, T), toute application, soit P, de T dans [0, 1],
223
224 CHAPITRE X. RAPPELS ET COMPL

EMENTS DE PROBABILIT

ES
veriant P() = 1 et additive (cest-` a-dire telle que, pour toute famille nie ou innie
denombrable dev`enements disjoints, soit (A
i
)
iI
, on a P(

iI
A
i
) =

iI
P(A
i
)).
Dans la pratique de la modelisation, `a partir des hypoth`eses faites sur le phenom`ene etudie,
on choisit les probabilites de certains ev`enements remarquables (autrement dit la valeur de
P(A) pour certains elements A de T) ; le calcul des probabilites consiste `a en deduire les
probabilites de certains autres ev`enements `a la signication concr`ete jugee interessante.
Lexemple le plus elementaire de cette demarche est celui dun ensemble ni muni de
la tribu de toutes ses parties ; P est alors enti`erement determinee par les probabilites des
singletons (appeles en calcul des probabilites ev`enements elementaires) P() (souvent
note en bref P() et, pour tout ev`enement A, il vient
P(A) =

A
P() .
Un cas particulier de cette situation est celui o` u on consid`ere fondee lhypoth`ese dite dequi-
probabilite : cela signie que tout ev`enement elementaire verie P() = 1/card() (o` u
card() designe le nombre delements de ) ; alors on en deduit que, pour tout ev`enement
A, P(A) = card(A)/card().
Variable aleatoire (en bref v.a.)
Etant donnes deux espaces mesurables (, T) et (

, T

), une variable aleatoire (ou,


en termes generaux de theorie de la mesure, une application mesurable) du premier dans
le second est une application, soit X, de dans

, telle que limage reciproque de tout


ev`enement A

appartenant `a T

(cest-` a-dire : X() A

) appartienne `a T.
En calcul des probabilites, il est frequent dadopter pour cette image reciproque la nota-
tion X A

, qui est en soi monstrueuse (letre mathematique X ne peut etre un element


de letre mathematique A

) et qui se lit : X prend ses valeurs dans A

. Concr`etement, lusage
dune variable aleatoire X traduit un aaiblissement (on pourrait dire aussi un ltra-
ge) de linformation apportee par les eventualites de ; la condition de mesurabilite que
lon a imposee (X A

T) assure que tous les ev`enements auxquels on peut vouloir


sinteresser sur cette information aaiblie peuvent sanalyser en termes dev`enements relatifs
`a linformation compl`ete apportee par lespace (, T).
Une variante naturelle de la notation X A

est celle qui intervient si A

est un
ev`enement elementaire

; on note alors X =

pour : X() =

. Remarquons
que, si

est ni ou inni denombrable, il sut, pour demontrer la mesurabilite de X, de


sassurer que, pour tout

, X =

appartient bien `a T ; ceci nest pas vrai dans le cas


general.
Loi dune variable aleatoire (autrement dit probabilite image)
Reprenant les notations de la notice precedente, la loi de la v.a. X (relativement `a la
mesure de probabilite P) est la mesure de probabilite P
X
denie sur lespace darrivee de X,
(

, T

), par :
P
X
(A

) = P(X A

)
(on notera en bref P(X A

) pour P(X A

)). Concr`etement, A

et X A

representent
le meme ev`enement (au sens intuitif du terme), meme si, mathematiquement, il sagit de
X.1. D

EFINITIONS ET RAPPELS G

EN

ERAUX 225
sous-ensembles denis dans des espaces dierents. Il importe donc quils aient bien nume-
riquement la meme probabilite, que lon porte son attention sur lespace (

, T

) (interet
pour linformation ltree par X) ou sur lespace (
,
T) (information compl`ete). P
X
est aussi
appelee probabilite image (ou mesure image) de P par X (terminologie de la theorie de
la mesure et de lintegration) ; on la note alors aussi X(P).
Q etant une mesure de probabilite sur

, la propriete Q est la loi de la v.a. X (autrement


dit legalite P
X
= Q) se dit aussi : X suit la loi Q; on note ceci : X Q.
Dans la pratique, il arrive frequemment que lon consid`ere simultanement une famille de
variables aleatoires, (X
i
)
iI
, denies sur un meme espace mesurable. Il sera alors necessaire de
bien preciser les espaces (
i
, T
i
) darrivee de chacune de ces v.a. mais souvent leur espace de
depart commun, ainsi que la mesure de probabilite dont il est muni, pourront etre seulement
evoques, par exemple comme lieu o` u se formulent des hypoth`eses dindependance (voir ci-
dessous X.1.4), sans recevoir de notation particuli`ere ; sil en est ainsi, on trouvera des ecritures
du type P(X B) (avec le graphisme conventionnel P) pour traduire lexpression : probabilite
que X prenne ses valeurs dans B.
Espace mesurable produit, loi marginale
Il est frequent que la realisation dun phenom`ene observe se decompose sous forme dune
famille dobservations plus elementaires ; en dautres termes on doit modeliser leventualite
comme une famille (
i
)
iI
(souvent I = 1, . . . , n et = (
1
, . . . ,
n
)). On est donc amene
`a associer `a chaque observation elementaire un espace mesurable (
i
, T
i
) et les eventualites
compl`etes sont des elements de lespace produit
I
=

iI

i
; celui-ci peut etre muni
dune tribu, dite tribu produit, T
I
=

iI
T
i
qui est la plus petite tribu contenant tous les
paves nis, cest-` a-dire contenant toutes les parties de
I
de la forme

iI
A
i
, o` u pour tout
i, A
i
T
i
et A
i
=
i
sauf pour un nombre ni dindice.
Attention : En notation traditionnelle de theorie des ensembles,

iI
T
i
designerait
plut ot lensemble des familles (A
i
)
iI
o` u, pour tout i, A
i
T
i
; cest pourquoi certains
ouvrages notent

iI
T
i
ce que nous avons note

iI
T
i
et disent quil sagit du produit
tensoriel des tribus T
i
.
Dans le cas de deux espaces (o` u donc I = 1, 2), on note la tribu produit T
1
T
2
, ou
T
1
T
2
si on adopte la notation du type produit tensoriel.
Concr`etement, cette denition exprime que lon denit bien un ev`enement dans
I
en
speciant simultanement la realisation dev`enements relatifs `a chacune des composantes
i
.
Si on veut specier seulement la realisation devenements relatifs `a certaines composantes
(disons les
j
, o` u j J, avec J I), on consid`ere dans
I
des parties de la forme

iI
B
i
o` u, si i J, B
i
= A
i
et, si i J, B
i
=
i
. En particulier, dans
I
, un ev`enement relatif `a
une unique composante j sexprime

iI
B
i
o` u B
j
= A
j
et, si i = j, B
i
=
i
. ; en dautres
termes, cest limage reciproque de A
j
par lapplication projection de
I
sur
j
, soit
j
; la
denition de T
I
peut alors sinterpreter en disant que cest la plus petite tribu relativement
`a laquelle toutes les projections
j
(o` u j I) soient mesurables.
Il est essentiel de retenir que la donnee dune probabilite individuelle P
i
sur
chacun des espaces (
i
, T
i
) ne sut pas `a determiner une probabilite sur lespace
mesurable produit (
I
, T
I
) ; tout ce que lon sait cest que toute modelisation coherente
doit faire intervenir sur (
I
, T
I
) une probabilite P dont, pour tout i, limage par la projection

i
est P
i
; en dautres termes, P
i
= P

i
, puisque cest la loi, relativement `a P, de la variable
226 CHAPITRE X. RAPPELS ET COMPL

EMENTS DE PROBABILIT

ES
aleatoire projection,
i
. On dit aussi que P
i
est la loi marginale (ou en bref marge) de P
pour la composante dindice i .
Dans le cas particulier o` u tous les espaces mesurables (
i
, T
i
) sont identiques (soit ici
(, T) cet espace commun) et o` u I = 1, . . . , n, on emploie la notation de type puissance,
cest-` a-dire (
n
, T
n
) (ou bien, avec les notations du type produit tensoriel, (
n
, T
n
).
La construction ci-dessus (espace produit) intervient generalement dans des contextes o` u
on consid`ere une famille de v.a., X
I
= (X
i
)
iI
, implicitement toutes denies sur un meme
espace. Chaque X
i
est `a valeurs dans un espace (
i
, T
i
) et donc X
I
est `a valeurs dans lespace
(
I
, T
I
).
Absolue continuite dune probabilite par rapport `a une mesure -nie. Densite
Considerons sur (, T) `a la fois une probabilite P et une mesure (application -additive
de T dans [0, +]) qui est supposee de plus -nie, cest-` a-dire telle que ou bien () soit
ni, ou bien il existe une partition de en une suite (F
1
, . . . , F
n
, . . .) delements de T telle
que, pour tout n, (F
n
) soit ni. P est dite absolument continue par rapport `a si tout
ev`enement A veriant (A) = 0 verie aussi P(A) = 0. Ceci equivaut (theor`eme de Radon-
Nikodym) `a lexistence dune application mesurable, soit f, de (, T) dans ([0, +[, B), o` u
B est la tribu borelienne (voir si besoin X.1.2, p. 227 ci-dessous), appelee densite de P par
rapport `a , telle que
A T P(A) =

A
f()d() .
On retiendra quune densite nest denie qu`a une egalite presque partout pr`es, cest-
`a-dire que, si f est une densite de P par rapport `a , il en est de meme de toute application
mesurable, soit g, de (, T) dans ([0, +[, B) veriant : (; f() = g()) = 0. En dautres
termes, la bonne notion pour la densite serait plut ot celle dun element de L
1
+
(), ensemble
des classes dequivalence pour la relation degalite presque-partout sur lensemble L
1
+
()
des fonctions reelles positives ou nulles -integrables.
Un cas elementaire dabsolue continuite est celui o` u est ni ou inni denombrable,
muni, comme il est usuel alors, de la tribu de toutes ses parties. Alors on peut consid`erer sur
sa mesure de comptage (ou mesure de denombrement)

: pour tout A,

(A) est le
nombre delements de A; toute probabilite P est alors absolument continue par rapport

,
et la densite (unique ici) est lapplication : P() .
Par extension, si X est une v.a. `a valeurs dans un espace mesurable (

, T

) et

est une
mesure -nie sur cet espace, on dit que X est absolument continue par rapport `a

si sa loi
P
X
lest ; la densite de P
X
par rapport `a

est alors aussi appelee densite de X.


Absolue continuite entre deux mesures -nies
Les denitions dabsolue continuite et de densite dune probabilite par rapport `a une
mesure -nie setendent sans diculte `a celles dabsolue continuite et de densite dune
mesure -nie par rapport `a une autre mesure -nie. Etant donne 3 mesures -nies ,
et , la propriete de transitivite suivante est immediate : si est absolument continue par
rapport `a , avec f pour densite, et est absolument continue par rapport `a , avec g pour
densite, alors est absolument continue par rapport `a , avec le produit gf pour densite.
X.1. D

EFINITIONS ET RAPPELS G

EN

ERAUX 227
On emploie parfois une notation de type dierentielle, bien adaptee pour rendre compte
de cette propriete : notant
d(x)
d(x)
la valeur en x de la densite de par rapport `a , il vient :
d(x)
d(x)
=
d(x)
d(x)
d(x)
d(x)
.
Deux mesures -nies sont dites equivalentes si chacune est absolument continue par
rapport `a lautre. Si est absolument continue par rapport `a , avec f pour densite, il faut et
il sut, pour quinversement soit absolument continue par rapport `a , que f soit -presque
partout strictement positive, et alors 1/f denit une densite de par rapport `a , ce qui se
note aussi :
d(x)
d(x)
=
1
d(x)
d(x)
.
Calcul de la densite de la loi dune v.a.
Soit donne, sur un espace mesurable (, T), une mesure -nie et une probabilite P
absolument continue par rapport `a ; soit f une densite de P par rapport `a (voir p. 226).
Soit X une v.a. denie sur (, T), `a valeurs dans un espace (

, T

). Il nest pas toujours


facile de calculer la densite de la loi de X, soit P
X
(aussi appelee probabilite image de P par
X), relativement `a une mesure -nie

sur (

, T

) .
Un cas particulier o` u ce calcul est elementaire est celui o` u la densite f se factorise `a
travers X et o` u on prend pour mesure sur

la mesure image de par X, X(), qui est


denie par :
B T

(X())(B) = (X B) .
Cela signie quil existe g, application de

dans R
+
telle que : f() = g(X()). Il
resulte alors immediatement de la denition de la densite que g est une densite de P
X
(loi de
X) par rapport `a X().
Il en est en particulier ainsi dans la situation suivante, que nous allons decrire dans le
vocabulaire des applications mesurables plut ot que dans celui des variables aleatoires : soit
une application bijective et bimesurable (cest-` a-dire mesurable ainsi que sa reciproque
1
)
de dans

; alors les densites f de P par rapport `a et g de (P) par rapport `a () sont


liees par les relations :
f() = g(()) , g(

) = f(
1
(

)) .
Un defaut de cette propriete est que, si a ete introduite naturellement lors dune
modelisation, son image () peut netre pas tr`es maniable (voir en X.1.2 des situations
o` u cette diculte peut etre contournee).
X.1.2 Variables aleatoires
Tribu borelienne
Lensemble R des nombres reels est systematiquement muni de la tribu dite borelienne,
notee B, qui est la plus petite tribu contenant les demi-droites innies `a gauche et fermees
`a droite ( ] , x] ) ; elle contient alors aussi necessairement tous les intervalles, bornes ou
non, quelle que soit leur nature (ouvert ou ferme) en leurs extremites ; plus generalement, elle
228 CHAPITRE X. RAPPELS ET COMPL

EMENTS DE PROBABILIT

ES
contient toutes les parties ouvertes et fermees pour la topologie usuelle de la droite reelle.
Les elements de B sont appeles parties boreliennes (ou en bref boreliens).
Si A est une partie borelienne de R, on appelle encore tribu borelienne sur A, et on note
B
A
(ou simplement B sil ny a pas de risque de confusion sur A) la restriction `a A de la tribu
borelienne de R (nous lavons utilise ci-dessus, pour A = [0, +[, en X.1.1).
De nombreuses modelisations conduisent `a considerer des eventualites appartenant `a une
partie borelienne, soit A, de R, en particulier un intervalle ou un ensemble ni ou inni
denombrable : voir par exemple une duree exprimee en nombre entiers dunites de temps
(minutes, jours, coups dans un jeu ...) qui sexprime dans N; on peut indieremment, sans
que cela prete `a confusion, considerer que la probabilite P qui regit ce phenom`ene est denie
sur lespace mesurable (A, B
A
) ou sur (R, B), avec bien s ur dans ce dernier cas P(A) = 1 (et
donc P(

A) = 0, o` u

A designe le complementaire de A dans R) ; on dit que P est concentree
sur A, ou portee par A.
Fonction de repartition dune probabilite
Une probabilite P sur (R, B) est caracterisee par sa fonction de repartition, cest-` a-dire
lapplication, soit F
P
, de R dans [0, 1], denie par : F
P
(x) = P(] , x]) . Cette fonction
est croissante, c.`a.d.l.` a.g. (cest-` a-dire continue ` a droite et admettant une limite `a gauche en
tout point), sa limite en est 0 et sa limite en + est 1. Elle ne peut-etre discontinue
quau plus en une innite denombrable de points et, en tout point de discontinuite x, le saut
de F
P
vaut P(x).
Variable aleatoire reelle (v.a.r.), fonction de repartition dune v.a.r., ordre sto-
chastique
Une application de , muni de la tribu T, dans R, soit X, est une v.a.r. (variable aleatoire
reelle) si, pour tout B B, limage reciproque de B par X (dont on rappelle quon la note
X B ) appartient `a T ; il sut en fait quil en soit ainsi pour tout B qui est une
demi-droite innie `a gauche et fermee `a droite ( ] , x] ) et on note alors naturellement
X x pour X ], x] (on aura evidemment des notations analogues du type X > x,
x X x

...).
Si lespace mesurable (, T) est muni dune probabilite P, on appelle fonction de
repartition de X (relativement `a P, sil y a lieu de le preciser) la fonction de repartition
(voir X.1.2) de sa loi P
X
(voir X.1.1), cest-` a-dire lapplication F
X
de R dans [0, 1] denie
par :
F
X
(x) = F
P
X
(x) = P(X x) = P
X
(] , x]) .
La fonction de repartition sert `a denir sur les variables aleatoires lordre stochastique :
etant donne, sur un meme espace mesurable (, T) muni dune probabilite P, deux v.a. X
et Y , on dit que X est stochastiquement plus grande que Y (note Y _ X) si, quel que soit
t R, la probabilite que X depasse t est superieure `a celle que Y depasse t, autrement dit si
t R F
X
(t) F
Y
(t).
Cette propriete sexprime aussi couramment par la phrase : X a tendance `a prendre
de plus grandes valeurs que Y .
X.1. D

EFINITIONS ET RAPPELS G

EN

ERAUX 229
Cette expression tendance ` a prendre de plus grandes valeurs semploie aussi quand on
consid`ere une seule variable aleatoire X, mais deux probabilites, soit P
1
et P
2
, sur lespace
mesurable (, T) ; si on note F
P
i
,X
(o` u i vaut 1 ou 2) la fonction de repartition de X relative-
ment `a la probabilite P
i
, on dira que X a tendance `a prendre de plus grandes valeurs
sous P
1
que sous P
2
si
t R F
P
1
,X
(t) F
P
2
,X
(t).
Variable aleatoire reelle discr`ete
Une v.a.r. X est dite discr`ete si elle ne prend ses valeurs que dans une partie nie ou
une innie denombrable de R, soit B. Alors, pour tout t R, F
X
(t) =

xB;xt
P(X = x),
la notation

designant ici soit la sommation usuelle dun nombre ni de termes, soit la


somme dune serie `a termes positifs . Ce mode de calcul justie une autre appellation, un peu
demodee, de la fonction de repartition, `a savoir fonction de cumul (ou des probabilites
cumulees).
En particulier le calcul de P
X
(B) ne fait intervenir que des sommes nies si B est ni (no-
tons B = x
1
, . . . , x
k
, avec la suite (x
1
, . . . , x
k
) strictement croissante) ou inni denombrable,
`a condition dans ce dernier cas que les elements de B puissent etre ordonnes en croissant (no-
tons B = x
1
, . . . , x
k
, . . .). Il en est ainsi si X est `a valeurs enti`eres positives ou nulles,
non bornees, ce qui est frequent dans la modelisation de phenom`enes de duree. F
X
est alors
constante sur chacun des intervalles, fermes `a gauche, ouverts `a droite, [x
i1
, x
i
[, ainsi que
sur ] , x
1
[ (o` u elle vaut 0) et, sil y a lieu, sur [sup(B), +[ (o` u elle vaut 1). En chaque
x
i
, le saut de F
X
vaut p
i
= P(X = x
i
).
Tribu borelienne puissance
Etant donne un ensemble I, lensemble puissance R
I
(ensemble des familles (x
i
)
iI
o` u,
pour tout i, x
i
R ) est muni de la tribu puissance (voir X.1.1) B
I
(ou B
I
) qui est aussi la
plus petite tribu contenant toutes les parties de la forme

iI
] , x
i
[, o` u x
i
R +
et x
i
= + sauf pour un nombre ni dindice i I.
Variable aleatoire reelle multidimensionnelle ou vecteur aleatoire
La loi dune famille nie X = (X
i
)
iI
de v.a.r. reelles soit P
X
, est enti`erement caracterisee
par sa fonction de repartition (I-dimensionnelle), cest-` a-dire lapplication F
X
de R
I
dans
[0, 1] denie par :
F
X
((x
i
)
iI
) = P(i X
i
x
i
) = P(

iI
X
i
x
i
) = P
X
(

iI
] , x
i
])
Cette notion nous sert essentiellement dans le cas de variables n-dimensionnelles (cas o` u
I = 1, , n ). On dit alors quon a un vecteur aleatoire et on adopte souvent la notation
matricielle :
X =

X
1
.
.
.
X
n

.
230 CHAPITRE X. RAPPELS ET COMPL

EMENTS DE PROBABILIT

ES
Mesure de Lebesgue, densite par rapport `a la mesure de Lebesgue
Sauf mention contraire labsolue continuite (en bref a.c.) pour une probabilite P (ou
plus generalement une mesure -nie) sur R (ou sur un intervalle de R) sentend toujours
relativement `a la mesure de Lebesgue, cest-` a-dire la mesure, notee , qui `a tout intervalle
borne dextremites inferieure a et superieure b associe sa longueur b a, et donc `a tout
intervalle non borne (autrement dit toute droite ou demi-droite) associe la valeur +.
Si la probabilite P est a.c., sa fonction de repartition (voir p. 228) F
P
est continue (au-
trement dit, pour tout x, P(x) = 0) et est derivable sauf eventuellement aux points dun
ensemble N veriant (N) = 0 ; on dit quelle est presque partout derivable, et pour tout
choix realiste de P dans une modelisation, N est un ensemble ni, ou (plus rarement) inni
denombrable.
On obtient alors une densite de P (sous-entendu : par rapport `a ), soit f
P
, par
derivation : on prend, pour tout x / N, f
P
(x) = F

P
(x) et, sil y a lieu, on prolonge
arbitrairement `a N. On remarque que, sur tout intervalle ouvert ]a, b[ tel que P(]a, b[) = 0
(sil en existe), F
P
est constante et on prend f
P
nulle. On dispose alors, en tout point x en
lequel F
P
est derivable, dune interpretation `a la physicien de la densite : la probabilite
dun petit intervalle de longueur x centre en x vaut approximativement f
P
(x)x.
Lintegration par rapport `a la mesure de Lebesgue est lintegration usuelle et on a donc,
pour tout intervalle, borne ou non, dextremites inferieure a et superieure b :
P([a, b]) = P([a, b[) = P(]a, b]) = P(]a, b[) = F
P
(b) F
P
(a) =

b
a
f
P
(x)dx .
En particulier on reconstitue la fonction de repartition ` a partir de la densite :
F
P
(x) =

f
P
(t)dt .
On remarque que si, comme on le fait dans certains ouvrages, on identie la probabi-
lite P avec sa fonction de repartition F
P
, on obtient une grande similitude entre la nota-
tion dierentielle des densites (voir X.1.1),
dP(x)
d(x)
, et la notation dierentielle des deerivees
dF
P
(x)
dx
.
Une v.a.r. X est dite absolument continue (ou plus succintement continue) sil en est ainsi
de sa loi P
X
, et on appelle densite de X toute densite de P
X
(par rapport `a ) ; soit f
X
une
densite de X ; alors, P designant ici la mesure de probabilite adoptee sur lespace mesurable
sur lequel est denie la v.a. X, il vient :
P(a X b) = P(a X < b) = P(a < X b) = P(a < X < b) =

b
a
f
X
(x)dx
et
F
X
(x) =

f
X
(t)dt .
Image de la mesure de Lebesgue
Une situation techniquement importante est la suivante : soit un C
1
-dieomorphisme
(cest-` a-dire une application bijective, continuement dierentiable ainsi que sa reciproque

1
) dun intervalle ouvert U dans un intervalle ouvert V de R. Alors la mesure image de
U
X.1. D

EFINITIONS ET RAPPELS G

EN

ERAUX 231
(restriction de la mesure de Lebesgue `a U) par est absolument continue par rapport `a la
mesure de Lebesgue
V
et admet pour densite lapplication
d()
d
denie par :
d()
d
(y) = [(
1
)

(y)[ =
1
[

(
1
(y))[
.
Il en resulte (voir X.1.1) que, si P est une probabilite sur R, concentree sur U (voir p. 227)
et admettant f comme densite par rapport `a , son image (P) admet par rapport `a la
densite g denie par :
g(y) =
d(P)
d
(y) =
d(P)
d()
(y)
d()
d
(y)
cest-` a-dire
g(y) = f(
1
(y))[(
1
)

(y)[ =
f(
1
(y))
[

(
1
(y))[
.
Inversement, on a :
f(x) = g((x))[

(x)[ .
On fera le lien avec les calculs classiques par changement de variable en integration :
soit B un ev`enement contenu dans V ; alors
((P))(B) =

V
1
B
(y)g(y)dy
do` u, par le changement de variable y = (x),
((P))(B) =

U
1
B
((x))g((x))[

(x)[ dx =

1
(B)
g((x))[

(x)[ dx ;
or par denition de la probabilite image, (P))(B) = P(
1
(B))) et donc on a aussi :
((P))(B) =

1
(B)
f(x)dx ;
on a donc pour tout B

1
(B)
g((x))[

(x)[ dx =

1
(B)
f(x)dx ,
ce qui est bien coherent avec legalite
f(x) = g((x))[

(x)[ .
Mesure de Lebesgue multi-dimensionnelle
Sauf mention contraire labsolue continuite (en bref a.c.) pour une probabilite P sur
R
n
sentend toujours relativement `a la mesure de Lebesgue n-dimensionnelle, cest-
`a-dire la mesure, notee
n
(o` u simplement sil ny a pas de risque de confusion), qui `a
tout pave

n
i=1
[a
i
, b
i
[ (la nature des extremites etant en fait indierente) associe son volume

n
i=1
(b
i
a
i
) (et donc `a tout pave non borne associe la valeur +).
232 CHAPITRE X. RAPPELS ET COMPL

EMENTS DE PROBABILIT

ES
Si P est a.c., sa fonction de repartition (voir p. 229) F
P
est continue et est presque
partout dierentiable par rapport aux n variables. On obtient alors une densite de P (en
sous-entendant : p.r.p.
n
), soit f
P
, par derivation : on prend, pour tout (x
1
, . . . , x
n
) pour
lequel cela a un sens, f
P
(x
1
, . . . , x
n
) =

n
F
P
x
1
...xn
(x
1
, . . . , x
n
) et, sil y a lieu, on prolonge arbi-
trairement `a lensemble, de mesure nulle pour , pour lequel cette derivee nest pas denie. On
dispose alors, en tout point (x
1
, . . . , x
n
) en lequel F
P
est derivable par rapport aux n variables,
dune interpretation `a la physicien de la densite : la probabilite dun petit pave de volume
x
1
. . . x
n
centre en (x
1
, . . . , x
n
) vaut approximativement f
P
(x
1
, . . . , x
n
)x
1
. . . x
n
.
Lintegration par rapport `a la mesure de Lebesgue n-dimensionnelle est lintegration
usuelle des fonctions de n variables et on a donc, pour tout pave

n
i=1
[a
i
, b
i
[ :
P(
n

i=1
[a
i
, b
i
[) =

b
1
a
1
. . .

an
an
f
P
(x
1
, . . . , x
n
)dx
1
. . . dx
n
.
En particulier on reconstitue la fonction de repartition ` a partir de la densite :
F
P
(x
1
, . . . , x
n
) =

x
1

. . .

xn

f
P
(t
1
, . . . , t
n
)dt
1
. . . dt
n
.
Une v.a.r. n-dimensionnelle X = (X
1
, . . . , X
n
) est dite absolument continue sil en est
ainsi de sa loi P
X
, et on appelle densite de X toute densite de P
X
(par rapport `a ) ; soit f
X
une densite de X ; il vient :
P(i a
i
X
i
b
i
) =

b
1
a
1
. . .

an
an
f
X
(x
1
, . . . , x
n
)dx
1
, . . . , dx
n
(les inegalites larges etant rempla cables par des inegalites strictes) et
F
X
(x
1
, . . . , x
n
) =

x
1

. . .

xn

f
X
(t
1
, . . . , t
n
)dt
1
. . . dt
n
.
Image de la mesure de Lebesgue multidimensionnelle
Nous generalisons au cas multidimensionnel les resultats donnes en X.1.2 dans le cas
unidimensionnel : soit un C
1
-dieomorphisme dune partie ouverte U de R
n
dans une
partie ouverte V de R
n
. Alors la mesure image de
n
U
(restriction de la mesure de Lebesgue
n-dimensionnelle `a U) par est absolument continue par rapport `a la mesure de Lebesgue

n
V
et admet pour densite lapplication
d()
d
denie par :
d()
d
(y) = [det(J(
1
)(y))[ =
1
[det(J())(
1
(y))[
,
o` u det signie determinant et o` u J()(x) est le jacobien de en x, cest-` a-dire, si on note,
pour x = (x
1
, . . . , x
n
) R
n
, (x) = (
1
(x), . . . ,
n
(x)), la matrice, `a n lignes et n colonnes,
dont le terme general est

i
x
j
(x) (et de meme pour J(
1
)(y)).
Il en resulte (voir X.1.1) que, si P est une probabilite sur R
n
, concentree sur U (voir
p. 227) et admettant f comme densite par rapport `a
n
, son image (P) admet par rapport
`a
n
la densite g denie par :
g(y) =
d(P)
d
n
(y) =
d(P)
d(
n
)
(y)
d(
n
)
d
n
(y)
X.1. D

EFINITIONS ET RAPPELS G

EN

ERAUX 233
cest-` a-dire
g(y) = f(
1
(y))[det(J(
1
)(y))[ .
Inversement, on a :
f(x) = g((x))[det(J())(x)[ .
Comme dans le cas reel, voir p. 230, on peut faire le lien avec les calculs classiques par
changement de variable en integration `a plusieurs variables.
X.1.3 Esperance-Variance
Notion desperance mathematique, v.a.r. centree
Soit X une v.a.r. denie sur lespace mesurable (, T), de loi P
X
; on appelle esperance
mathematique (ou en bref esperance) de X par rapport `a P, et on note E(X) (ou E
P
(X)
sil est utile de preciser la probabilite P) lintegrale (si elle a un sens) de X par rapport `a P,
autrement dit (theor`eme dit de transfert) lintegrale de lidentite par rapport `a P
X
; ceci
sexprime avec dierentes notations (avec ou sans lettre muette) :
E(X) =

X dP =

X() dP() =

R
x dP
X
(x) .
E(X) est denie (valant eventuellement +ou ) comme dierence des esperances des
deux v.a. positives X
+
(= sup(X, 0)) et X

(= sup(X, 0)), sauf si E(X


+
) = E(X

) = +.
On a alors : E(X) = E(X
+
) E(X

).
X est dite integrable (par rapport `a P) si < E(X) < +, ce qui equivaut `a
E(X
+
) < +et E(X

) < +, autrement dit E([X[) < +. Lensemble des v.a. integrables


par rapport `a P est note L
1
(P).
E est, sur L
1
(P), un operateur lineaire (E(aX+bY ) = aE(X) +bE(Y )), positif (si X 0,
alors E(X) 0) et unitaire (E(1) = 1).
Lesperance est un indicateur de valeur centrale de la loi de X (usage justie en particulier
par la propriete E(Xa) = E(X) a). Si X est integrable, la v.a. XE(X) est dite deduite
de X par centrage (une v.a.r. centree est une v.a.r. desperance nulle).
Calcul de lesperance mathematique dune v.a.r.
Si la loi P
X
est absolument continue par rapport `a une mesure -nie (voir X.1.1) et
de densite f
X
relativement `a cette mesure, on a :
E(X) =

xf
X
(x)d(x) ,
qui a toujours un sens (eventuellement +ou ), sauf si `a la fois

+
0
xf
X
(x)d(x) = +
et

xf
X
(x)d(x) = ; alors :
E(X) =

+
0
xf
X
(x)d(x) +

xf
X
(x)d(x) .
Ceci conduit `a deux modes de calcul :
234 CHAPITRE X. RAPPELS ET COMPL

EMENTS DE PROBABILIT

ES
Calcul integral usuel si X est absolument continue p.r.p. la mesure de Le-
besgue.
On a dans ce cas :
E(X) =

+
0
xf
X
(x)dx +

xf
X
(x)dx ,
`a mener soit par calcul de primitives (`a condition que f
X
soit continue ou continue par
morceaux) soit par techniques de Monte-Carlo.
Calcul de sommes nies ou de sommes de series `a termes positifs si X est
discr`ete
Dans ce cas X est (voir X.1.1) absolument continue par rapport `a la mesure de comptage
sur lensemble B (contenu dans R) des valeurs que prend X, lapplication x P
X
(x)
sinterpretant comme une densite par rapport `a cette mesure ; si on note B
+
= x
B; x > 0 et B

= x B; x < 0, on a dans ce cas :


E(X) =

xB
+
xP
X
(x) +

xB

xP
X
(x) ,
sauf si on a `a la fois

xB
+ xP
X
(x) = + et

xB
xP
X
(x) = , ceci ne
pouvant se produire que si les ensembles B
+
et B

sont tous deux innis denombrables.


Dans le cas (tr`es frequent dans les modelisations usuelles ; voir X.1.2) o` u B est ni
(notons alors, en croissant, B = x
1
, , x
k
) ou bien inni denombrable et tel que ses
elements puissent etre ordonnes en croissant (notons de meme B = x
1
, , x
k
, ),
E(X) a necessairement un sens et, notant p
i
= P(X = x
i
) = P
X
(x
i
), il vient :
- si B est ni, E(X) =

k
i=1
x
i
p
i
,
- si B est inni denombrable, E(X) =

+
i=1
x
i
p
i
= x
1
+

+
i=1
(x
i
x
1
)p
i
(cette derni`ere
somme etant celle dune serie `a termes positifs).
Variance dune v.a. reelle
Si X est integrable, on denit la variance de X (relativement `a P) comme le nombre
positif ou nul (eventuellement +), note ici Var(X) (ou Var
P
(X) sil est utile de preciser la
probabilite P) deni par :
Var(X) = E((X E(X))
2
) = E(X
2
) (E(X))
2
.
La racine carree de la variance est appelee ecart-type de X (relativement `a P), note ici
(X) (ou
P
(X)).
Les proprietes et modes de calcul de la variance se deduisent de ceux des esperances.
Lensemble des v.a.r. de variance nie (autrement dit de second moment, E(X
2
), ni) est
note L
2
(P) (aussi dit : ensemble des v.a. de carre integrable).
La variance et lecart-type sont des indicateurs de dispersion de la loi de X (usage justie
en particulier par les proprietes (X a) = (X) et (bX) = [b[(X)). Si X est de variance
nie, la v.a. (X E(X))/(X) est dite deduite de X par centrage et reduction (une v.a.r.
reduite est une v.a.r. decart-type egal `a 1).
Une v.a.r. de variance nulle est p.s. constante : sa loi est la loi de Dirac en un point x
0
,
cest-` a-dire portee par ce seul point.
X.1. D

EFINITIONS ET RAPPELS G

EN

ERAUX 235
Covariance de deux v.a. reelles
Soit X
1
et X
2
deux v.a.r. denies sur lespace mesurable (, T). Si X
2
1
et X
2
2
sont
integrables, il en est ainsi (en vertu de linegalite de Holder) du produit X
1
X
2
et on denit
la covariance de X
1
et X
2
(relativement `a P) comme le nombre reel, note ici Cov(X
1
, X
2
)
(ou Cov
P
(X
1
, X
2
) si necessaire) deni par :
Cov(X
1
, X
2
) = E((X
1
E(X
1
)(X
2
E(X
2
)) = E(X
1
X
2
) E(X
1
)E(X
2
) .
Etant donne n v.a. (X
1
, . . . , X
n
), on a de mani`ere evidente legalite :
Var(
n

i=1
X
i
) =
n

i=1
Var(X
i
) + 2

1i<jn
Cov(X
i
, X
j
) .
Si X
1
et X
2
ne sont pas presque s urement constantes (et donc de variance non nulle), on
appelle correlation de X
1
et X
2
(relativement `a P) le nombre, appartenant `a lintervalle
[1, +1] (encore une consequence de linegalite de Holder), note ici Corr(X
1
, X
2
) (ou bien
Corr
P
(X
1
, X
2
) si necessaire) deni par :
Corr(X
1
, X
2
) =
Cov(X
1
, X
2
)

Var(X
1
) Var(X
2
)
.
La correlation est un indicateur de dependance entre X
1
et X
2
(ce mot de dependance
etant pris ici dans un sens intuitif). En particulier la valeur absolue de la correlation est
maximale si il y a une relation ane entre X
1
et X
2
, `a condition quaucune des ces deux v.a.
ne soit constante : si X
2
= aX
1
+b avec a > 0, il vient Corr(X
1
, X
2
) = +1 et, si X
2
= aX
2
+b
avec a < 0, il vient Corr(X
1
, X
2
) = 1.
Esperance mathematique dun vecteur aleatoire
Soit X =

X
1
.
.
.
X
n

un vecteur aleatoire (voir X.1.2). On appelle esperance mathematique


de X, le vecteur E(X) =

E(X
1
)
.
.
.
E(X
n
)

.
Il resulte de la linearite et de lunitarite de loperateur E pour les v.a.r. que, si A est une
matrice `a m lignes et n colonnes et B un vecteur de R
m
, alors E(AX +B) = AE(X) +B.
Variance dun vecteur aleatoire
On appelle matrice de variances et covariances de X, ou en bref variance de X, la
matrice `a n lignes et n colonnes Var(X) de terme general v
i,j
tel que :
- pour tout i, v
i,i
= Var(X
i
),
- pour tout (i, j) tel que i = j, v
i,j
= Cov(X
i
, X
j
).
Autrement dit, lesperance dune matrice aleatoire etant denie de mani`ere evidente dans
la ligne de lesperance dun vecteur aleatoire, on a Var(X) = E((X E(X))(X E(X))
t
), o` u
le symbole
t
designe la transposition des matrices.
236 CHAPITRE X. RAPPELS ET COMPL

EMENTS DE PROBABILIT

ES
Var(X) est une matrice symetrique ; elle est positive, cest-` a-dire que pour tout vecteur u
(element de R
n
, represente par une matrice unicolonne `a n lignes) elle verie u
t
Var(X)u 0
(o` u u
t
est donc une matrice uniligne `a n colonnes).
Var(X) nest pas necessairement de rang n (autrement dit elle nest pas necessairement
denie positive). Si elle est de rang k < n, le support de la loi de X est contenu dans
lhyperplan ane, de dimension k, passant par E(X) et parall`ele `a lhyperplan vectoriel
Im(Var(X)) (ensemble des vecteurs de la forme Var(X)u o` u u parcourt R
n
).
Si A est une matrice `a m lignes et n colonnes, la variance du vecteur aleatoire m-
dimensionnel AX est : Var(AX) = AVar(X)A
t
; en particulier, si m = 1, Y = AX est
une v.a. reelle admettant pour variance le nombre positif ou nul Var(Y ) = AVar(X)A
t
(ce
qui explique la positivite de Var(X) citee plus haut).
Emploi du terme empirique
A toute suite nie (x
1
, . . . , x
n
) delements de R on associe la probabilite empirique,
sur (R, B) denie par
B
Card(i : x
i
B)
n
(autrement dit, on aecte la masse
1
n
`a chaque x
i
, mais attention aux ex-aequo).
Tout objet relatif `a la probabilite empirique sera qualie dempirique ; en voici des exem-
ples usuels :
fonction de repartition empirique : t
1
n
card(i : x
i
t) =
1
n
n

i=1
1
{x
i
t}
,
esperance mathematique empirique : x
n
=
1
n
n

i=1
x
i
,
variance empirique : v
n
=
1
n
n

i=1
(x
i
x)
2
=
1
n
n

i=1
x
2
i
x
2
.
Inegalite de Jensen
Pour toute fonction convexe : R R et toute variable aleatoire X integrable `a valeurs
dans R :
(EX) E(X). (X.1)
X.1.4 Conditionnement, independance
Conditionnement par un ev`enement
Etant donne, sur un espace mesurable (, T), une mesure de probabilite P et un ev`enement
de probabilite non nulle B, la mesure de probabilite deduite de P par conditionnement
par B, notee P
B
, est denie, sur le meme espace (, T), par :
P
B
(A) =
P(A B)
P(B)
.
Elle est concentree sur B (cest-` a-dire que P
B
(B) = 1). P
B
(A) se lit, si on na pas besoin
de faire reference `a P, probabilite de A conditionnee par B, ou probabilite de A
X.1. D

EFINITIONS ET RAPPELS G

EN

ERAUX 237
conditionnellement `a B, ou encore probabilite de A sachant B, ou enn (avec un
pleonasme) probabilite conditionnelle de A sachant B .
On emploie aussi la notation P(A[B) (ou parfois P
B
(A)) l`a o` u nous venons de noter
P
B
(A).
Concr`etement, le remplacement de P par P
B
se presente quand un certain contexte din-
formations, relatif `a une situation aleatoire, a conduit `a la modelisation par (, T, P), puis que
lon fournit linformation supplementaire que B est realise. Ceci conduit `a aecter la valeur
1 `a la probabilite de B (autrement dit 0 `a son complementaire) et `a maintenir lequilibre
interne entre les valeurs des probabilites des evenements inclus dans B; cest bien ce que
fait P
B
.
Conditionnement par une v.a. discr`ete
Dans la pratique de la modelisation intervient souvent la demarche inverse de celle decrite
ci-dessus : lanalyse de la situation concr`ete justie de porter son attention sur une partition
nie ou innie denombrable de , soit (B
i
)
iI
et de choisir :
dune part les probabilites P(B
i
),
dautre part, pour tout i tel que P(B
i
) = 0, la probabilite conditionnelle sachant B
i
,
P
B
i
.
Alors, si on note J ( I) lensemble des j tels que P(B
j
) = 0, on obtient P par la formule
des probabilites conditionnelles
A T P(A) =

jJ
P
B
j
(A)P(B
j
) .
Remarquons que la donnee de la famille (P(B
i
))
iI
peut sinterpreter comme la donnee
de la loi, P
X
, dune variable aleatoire X, `a valeurs dans un espace (

, T

) et pour laquelle
lensemble des valeurs prises est indexe par I ; notons les x
i
, o` u i I, de telle sorte que, pour
tout i, B
i
= X = x
i
(notation introduite en X.1.1) ; toute application de

dans lensemble
des probabilites sur (, T) qui, ` a tout x
i
, o` u i J, associe P
[X=x
i
]
est appelee probabilite
conditionnelle relativement `a X ; notons la P
X
et remarquons que le fait que, pour tout

non egal `a lun des x


i
(o` u i J), P
[X=

]
soit arbitraire (et en particulier ne puisse pas
sinterpreter comme une probabilite conditionnelle usuelle) nest pas genant car lensemble
de ces

est de probabilite nulle (en eet

jJ
P(X = x
j
) =

jJ
P
X
(x
j
) = 1). Dans ce
contexte, la formule des probabilites conditionnelles secrit :
A T P(A) =

P
[X=

]
(A) dP
X
(

) ,
autrement dit :
A T P(A) = E
P
X
(P
X
(A)) .
Rappelons par ailleurs que, pour presque tout

, la probabilite P
[X=

]
est portee par
lev`enement X =

.
On emploie aussi la notation P(A[X =

) l`a o` u nous avons note P


[X=

]
(A).
238 CHAPITRE X. RAPPELS ET COMPL

EMENTS DE PROBABILIT

ES
Conditionnement par une variable aleatoire : cas general
Cette notice est assez dicile ; le lecteur peut se contenter de rechercher le calcul des lois
conditionnelles gurant en X.1.4.
Soit donne, sur un espace mesurable (, T), une mesure de probabilite P et soit X une
v.a. `a valeurs dans (

, T

). Alors on appelle probabilite conditionnelle relativement `a


X toute application de

dans lensemble des probabilites sur (, T) qui `a tout

associe
une probabilite, notee P
[X=

]
, qui verie les deux proprietes obtenues dans le cas des v.a.
discr`etes :
concentration : pour presque tout

, la probabilite P
[X=

]
est portee par lev`enement
X =

,
reconstitution :
A T P(A) =

P
[X=

]
(A) dP
X
(

) .
Comme dans le cas discret, on emploie aussi la notation P(A[X =

) l`a o` u nous venons


de noter P
[X=

]
(A).
On en deduit que pour toute v.a. Y , P-integrable,

Y ()dP() =

Y ()dP
[X=

]
())dP
X
(

) ,
autrement ecrit de mani`ere condensee :
E(Y ) = E
P
X
(E
X
(Y )) ;
E
X
(Y ) est appele esperance conditionnelle de Y relativement `a X. On emploie aussi la
notation E(Y [X =

) pour ce qui, dans la logique de la notation que nous venons dintroduire,


secrit E
[X=

]
(Y ).
Insistons sur le fait quil sagit dune denition descriptive et non constructive : en general,
P
[X=

]
ne peut pas etre obtenu de mani`ere elementaire car P(X =

) peut fort bien valoir 0


pour tout

(cest par exemple le cas si X est `a valeurs reelles et de fonction de repartition


continue). Comme toute denition descriptive, celle-ci pose des probl`emes dexistence ; en
fait, dans tous les cas qui nous seront necessaires, nous disposerons dun outil constructif en
termes de densites (voir X.1.4 ci-dessous) .
Un cas particulier utile est celui de la loi dun couple de v.a. (X
1
, X
2
), `a valeurs dans un
espace produit
1

2
, que lon veut conditionner par X
1
; la loi conditionnelle de (X
1
, X
2
)
est alors caracterisee par celle de X
2
, soit P
X
1
X
2
, qui verie
P
X
2
(A
2
) =

1
P
[X
1
=x
1
]
X
2
(A
2
)dP
X
1
(x
1
)
et bien s ur, sur lespace produit, P
[X
1
=x
1
]
est portee par le l x
1

2
.
Esperance conditionnelle
Nous donnons ici une autre interpretation pour lesperance conditionnelle dune v.a.r., Z,
de carre integrable par rapport `a une v.a. X, notee E[Z[X]. La v.a.r. E[Z[X] sinterpr`ete
comme la projection orthogonale, avec le produit scalaire deni sur lespace des v.a.r. de
X.1. D

EFINITIONS ET RAPPELS G

EN

ERAUX 239
carre integrable par (Y, Z) = E[Y Z], sur lensemble, H
X
, des fonctions reelles mesurables de
X de carre integrables. En particulier, la v.a.r. E[Z[X] est une fonction reelle mesurable de
X, et pour tout (X) H
X
, on a pour toute fonction reelle , telle que (X) est de carre
integrable,
E[Z(X)] = (Z, (X)) = (E[Z[X], (X)) = E[E[Z[X](X)],
En particulier, comme 1 H
X
et E[Z[X] H
X
, on a
E[E[Z[X]] = E[Z] et E[ZE[Z[X]] = E[E[Z[X]
2
].
Remarquons enn que E[(X)[X] = (X), que lon peut comprendre en remarquant que si
X est connu, alors (X) est aussi connu.
Independance de 2 ev`enements
Deux ev`enements A et B sont dits independants (relativement `a une probabilite P) si
P(A B) = P(A)P(B).
Si P(B) = 0, cette denition equivaut `a P
B
(A) = P(A), ce qui justie la terminologie
independants ; en eet alors une information sur la realisation de B na aucune inuence
sur la valeur de la probabilite aectee `a A.
Les ev`enements de probabilite 0 (dits presque impossibles) ou de probabilite 1 (dits
presque certains) sont independants de tout autre ev`enement.
Independance de 2 variables aleatoires
Deux v.a., denies sur un meme espace (, T), sont dites independantes (relativement
`a une probabilite P sur cet espace ) si tout ev`enement exprime en termes de realisation de
X
1
est independant de tout ev`enement exprime en termes de realisation de X
2
; autrement
dit, X
1
etant `a valeurs dans (
1
, T
1
) et X
2
etant `a valeurs dans (
2
, T
2
), on a, pour tout
couple (B
1
, B
2
), o` u B
1
T
1
et B
2
T
2
, legalite
P(X
1
B
1
X
2
B
2
) = P(X
1
B
1
)P(X
2
B
2
) .
Cette propriete peut se traduire aussi, `a laide des lois de X
1
, X
2
et de celle du couple
(X
1
, X
2
) (qui est denie sur lespace produit (
1

2
, T
1
T
2
) (voir X.1.1), par legalite :
P
(X
1
,X
2
)
(B
1
B
2
) = P
X
1
(B
1
)P
X
2
(B
2
). On dit que la loi du couple (X
1
, X
2
) est le produit des
lois de X
1
et X
2
. Cette notion de produit de probabilites setend immediatement au produit
des mesures -nies : si
1
(resp.
2
) est une mesure -nie sur
1
(resp.
2
) il existe sur

2
une unique mesure notee
1

2
veriant (
1

2
)(B
1
B
2
) =
1
(B
1
)
2
(B
2
) (ici
encore, si on adopte pour les tribus la notation tensorielle, on note
1

2
l`a o` u nous avons
note
1

2
).
Si X
1
et X
2
sont independantes, il en est de meme de tout couple de v.a. (X
1
) et (X
2
).
Si X
1
et X
2
sont independantes et integrables, on a E(X
1
X
2
) = E(X
1
)E(X
2
) (mais cette
egalite ne caracterise pas lindependance).
Si X
1
et X
2
sont independantes et de carres integrables, on a (voir X.1.3) Cov(X
1
, X
2
) = 0,
autrement dit, si de plus Var(X
1
) > 0 et Var(X
2
) > 0, Corr(X
1
, X
2
) = 0 ; ceci compl`ete
linterpretation dej`a donnee de la correlation comme indicateur de dependance entre les 2
v.a. (on dit aussi quelles sont non correlees) : mais cette propriete ne caracterise pas
240 CHAPITRE X. RAPPELS ET COMPL

EMENTS DE PROBABILIT

ES
lindependance. Il en resulte que Var(X
1
+ X
2
) = Var(X
1
) + Var(X
2
) (et cette egalite non
plus ne caracterise pas lindependance).
Si X
1
est absolument continue par rapport `a une mesure
1
sur (
1
, T
1
), relativement `a
laquelle elle admet une densite f
1
et X
2
est a.c. par rapport `a une mesure
2
sur (
2
, T
2
),
relativement `a laquelle elle admet une densite f
2
et si de plus X
1
et X
2
sont independantes,
alors le couple (X
1
, X
2
) de v.a. independantes est aussi absolument continu par rapport
`a la mesure produit
1

2
, relativement `a laquelle il admet pour densite lapplication :
(
1
,
2
) f
1
(
1
)f
2
(
2
).
Reciproquement, si la densite f de (X
1
, X
2
) par rapport `a la mesure produit
1

2
secrit
sous la forme f(
1
,
2
) = g
1
(
1
)g
2
(
2
), les v.a. X
1
et X
2
sont independantes et leurs densites,
par rapport respectivement `a
1
et
2
, sont proportionnelles `a g
1
(
1
) et `a g
2
(
2
). Cette
propriete setend aux mesures -nies : si une mesure sur
1

2
admet par rapport `a
1

2
une densite f de la forme f(
1
,
2
) = g
1
(
1
)g
2
(
2
), elle est elle-meme une mesure produit,
soit
1

2
, et les densites de
1
(resp.
2
) par rapport `a
1
(resp.
2
) sont proportionnelles
respectivement `a g
1
et g
2
.
Sil sagit de v.a. reelles, une condition necessaire et susante dindependance sexprime
`a laide des fonctions de repartition (voir X.1.2) : F
(X
1
,X
2
)
(x
1
, x
2
) = F
X
1
(x
1
)F
X
2
(x
2
).
Independance de n ev`enements
n (o` u n 2) ev`enements A
1
, . . . , A
n
sont dits independants (on precise parfois inde-
pendants dans leur ensemble) si, pour toute sous-famille (A
i
)
iI
, o` u I 1, . . . , n et
card(I) 2, on a : P(

iI
A
i
) =

iI
P(A
i
) .
Alors, si J et K sont deux parties disjointes de 1, . . . , n, tout ev`enement exprime `a
partir de (A
j
)
jJ
est independant de tout ev`enement exprime `a partir de (A
k
)
kK
.
Independance de n variables aleatoires
Soit n 2. n variables aleatoires X
i
(o` u 1 i n), denies sur un meme espace (, T),
sont dites independantes (relativement `a une probabilite P sur cet espace ) si toute suite
dev`enements (X
i
B
i
)
1in
est composee dev`enements independants, autrement dit si,
pour toute famille (B
i
)
1in
o` u, pour tout i, B
i
T
i
, on a : P(

n
i=1
X
i
B
i
) =

n
i=1
P(X
i

B
i
) .
En dautres termes, si on note P
i
la loi de X
i
, lindependance des n variables aleatoires
equivaut au fait que la loi P
X
de la variable aleatoire X = (X
i
)
1in
, `a valeurs dans les-
pace produit (voir X.1.1) (
I
, T
I
) = (

n
i=1

i
,

n
i=1
T
i
), verie les egalites : P
X
(

n
i=1
B
i
) =

n
i=1
P
i
(B
i
) . On dit que P
X
est le produit des probabilites P
i
et on la note donc aussi

n
i=1
P
i
(ou

n
i=1
P
i
). Dans le cas o` u les n v.a. independantes sont `a valeurs dans un meme
espace (, T) et de meme loi Q, on parlera de probabilite puissance Q
n
(ou Q
n
) sur
lespace puissance (
n
, T
n
).
Si, pour tout i, X
i
admet la densite f
i
par rapport `a une mesure -nie
i
sur
i
,
lindependance des n variables aleatoires equivaut au fait que la loi P
X
de la v.a. (X
i
)
1in
admet pour densite par rapport `a la mesure produit

n
i=1

i
, lapplication
(
1
, . . . ,
1
)
n

i=1
f
i
(
i
) .
X.1. D

EFINITIONS ET RAPPELS G

EN

ERAUX 241
Si X
1
, , X
n
sont independantes et J et K sont deux parties disjointes de 1, . . . , n, il
y a independance pour tout couple (((X
j
)
jJ
), ((X
k
)
kK
)) .
Les autres proprietes des familles de n v.a. (ou v.a.r.) independantes reproduisent celles
des couples ; nous ne les detaillons pas ici .
Calcul de la densite de la loi dune v.a. : cas dun espace produit
On sait (voir X.1.1) que la densite de la loi dune variable aleatoire est souvent delicate `a
calculer : un cas o` u on dispose dune methode simple est celui dun couple (X
1
, X
2
) de v.a.,
`a valeurs dans un espace produit (
1

1
, T
1
T
2
).
Soit sur cet espace une mesure produit =
1

2
(cest-` a-dire, comme pour les proba-
bilites produits, que, pour tout pave mesurable A
1
A
2
, on a (A
1
A
2
) =
1
(A
1
)
2
(A
2
)).
On suppose la loi P
(X
1
,X
2
)
de (X
1
, X
2
) absolument continue par rapport `a , et de densite f.
Alors il resulte du theor`eme de Fubini que la loi de X
1
admet pour densite par rapport `a
1
lapplication f
1
denie par : f
1
(x
1
) =

2
f(x
1
, x
2
)d
2
(x
2
) (on est bien dans le cas general
annonce, en prenant pour X
1
la projection de
1

1
sur
1
).
Cette situation intervient en particulier dans des situations o` u
1
= R
k
1
,
2
= R
k
2
et
1
et

2
sont les mesures de Lebesgue ; alors, si on note x
1
= (t
1
, . . . , t
k
1
) et x
2
= (t
k
1
+1
, . . . , t
k
1
+k
2
),
la densite de la loi de X
1
secrit :
f
1
(t
1
, . . . , t
k
1
) =

R
k
2
f(t
1
, . . . , t
k
1
, t
k
1
+1
, . . . , t
k
1
+k
2
)dt
k
1
+1
. . . dt
k
1
+k
2
.
Calcul de la densite dune loi conditionnelle
Les deux cas de calcul de densite degages en X.1.1 et p. 241 nous donnent des possibilites
de calcul de densite de probabilite conditionnelle relativement `a la v.a. X ; on rappelle que,
pour tout

appartenant `a lespace darrivee de X et tout ev`enement A dans lespace de


depart de X, on note P
[X=

]
(A) (ou P(A[X =

)) la probabilite de A sachant que X


prend la valeur

(voir p. 238 pour une denition rigoureuxe de cette notion).


a. Si la densite f se factorise `a travers X, cest-` a-dire que f() = g(X()), alors,
pour presque tout

, lapplication qui `a tout X =

associe le quotient f()/g(

)
est une densite de P
[X=

]
par rapport `a une mesure concentree sur X =

(dont nous ne
detaillerons pas ici la construction).
b. Soit un couple (X
1
, X
2
) de v.a. , `a valeurs dans un espace produit (
1

1
, T
1
T
2
).
La loi P
(X
1
,X
2
)
de (X
1
, X
2
) admet f pour densite par rapport `a
1

2
. Alors la loi de X
2
conditionnelle relativement `a X
1
, P
X
1
X
2
, est telle que, pour presque tout x
1
, P
[X
1
=x
1
]
X
2
admet
pour densite par rapport `a
2
lapplication f
[X
1
=x
1
]
2
denie par : f
[X
1
=x
1
]
2
(x
2
) =
f(x
1
,x
2
)
f
1
(x
1
)
.
N.B. Le presque tout x
1
qui gure dans cette propriete est destine ` a couvrir les cas o` u
il existe des valeurs x
1
telles que f
1
(x
1
) = 0 ; on na pas ` a en tenir compte sil ny pas de
telles valeurs x
1
.
On remarque que dans le cas o` u X
1
et X
2
sont independantes, et o` u donc (voir
X.1.4) on peut prendre f(x
1
, x
2
) = f
1
(x
1
).f
2
(x
2
), on obtient que f
[X
1
=x
1
]
2
(x
2
) = f
2
(x
2
), ce
qui est tr`es satisfaisant, car cela exprime que le conditionnement de X
2
par X
1
na pas deet
sur la densite de X
2
.
242 CHAPITRE X. RAPPELS ET COMPL

EMENTS DE PROBABILIT

ES
X.2 Lois de variables aleatoires remarquables
X.2.1 Variables aleatoires discr`etes
Lexpression variable aleatoire discr`ete a ete introduite en X.1.2 pour les v.a. reelles. On
lemploie pour toute v.a. X prenant ses valeurs dans un ensemble ni ou inni denombrable,
soit

. Sa loi P
X
est donc enti`erement determinee par ses valeurs pour les ev`enements
elementaires, P
X
(x) (= P(X = x)), o` u x

. Labus de notation consistant `a noter


P
X
(x) au lieu de P
X
(x) est frequent.
Nous pouvons (voir X.1.1) considerer lapplication x P
X
(x) comme une densite de X ;
il ne sagit pas ici de la densite usuelle (cest-` a-dire relativement `a la mesure de Lebesgue,
que nous utiliserons pour les lois etudiees en X.2.2 ci-dessous) mais de la densite relativement
`a la mesure de comptage sur .
Loi de Dirac
La loi dune variable aleatoire presque-s urement constante a (autrement dit une proba-
bilite concentree sur un ev`enement elementaire a) est appelee loi de Dirac en ce point et
notee T(a), ou (a) : (T(a))(a) = 1.
Si a R et X T(a), on a E(X) = a et Var(X) = 0 (les v.a. reelles p.s. constantes sont
les seules de variance nulle)
Loi de Bernoulli
Nous la noterons B(p), o` u p [0, 1] ; cest la loi de probabilite sur 0, 1 qui aecte la
valeur p `a 1 et donc la valeur 1 p `a 0 : (B(p))(1) = p et (B(p))(0) = 1 p.
Si X B(p), on a E(X) = p et Var(X) = p(1 p).
Dans le cas particulier o` u p = 0 (resp. p = 1), il sagit de la loi de Dirac en 0 (resp. 1)
T(0) (resp. T(1)).
Loi Binomiale
Nous la noterons B(n, p), o` u n est un entier strictement positif et p [0, 1] ; cest la
loi de la somme de n v.a. independantes suivant toutes la loi de Bernoulli B(p). En dautres
termes, cest la loi du nombre de succ`es dans une succession de n experiences independantes
resultant toutes en un succ`es, avec probabilite p, ou un echec.
Dans la terminologie du contr ole de qualite cest la loi du nombre de bonnes pi`eces
quand on observe successivement n pi`eces dune production supposee constante dans ses
performances (la probabilite de production dune bonne pi`ece est toujours p et celle dune
pi`ece defectueuse 1 p) et de telle sorte que la qualite de toute nouvelle pi`ece observee
ne soit pas aectee par celles des pi`eces observees anterieurement ; on parle aussi dans ce
cas de tirage avec remise car ceci est equivalent `a la situation o` u on tire successivement n
pi`eces dun lot comportant une proportion p de bonnes pi`eces, en remettant `a chaque fois
la pi`ece observee dans le lot et en brassant celui-ci de mani`ere `a se retrouver pour chaque
tirage dans la situation initiale (ceci est transposable evidemment en termes, historiquement
classiques, durnes contenant 2 types de boules).
On remarque que B(1, p) = B(p).
X.2. LOIS DE VARIABLES AL

EATOIRES REMARQUABLES 243


B(n, p) a pour support lensemble dentiers 0, . . . , n, et, pour tout k dans cet ensemble,
si X B(n, p), on a
P(X = k) =

n
k

p
k
(1 p)
nk
,
o` u

n
k

=
n!
k!(n k)!
(coecient binomial, aussi note C
k
n
). On a E(X) = np et Var(X) =
np(1 p).
Si p = 0 (resp. p = 1), il sagit de la loi de Dirac en 0 (resp. n), T(0) (resp. T(1)).
La somme de deux variables aleatoires independantes binomiales, de lois respectives
B(n
1
, p) et B(n
2
, p) (meme valeur de p), suit la loi B(n
1
+n
2
, p).
Loi Multinomiale
Nous la noterons (n, p) , o` u n est un entier strictement positif et p = (p
1
, . . . , p
m
) est
une probabilite sur un ensemble `a m elements, autrement dit est une suite de m nombres
positifs ou nuls de somme egale ` a 1.
Si on eectue n experiences independantes, `a valeurs dans un ensemble ` a m elements, note
par exemple a
1
, . . . , a
m
, de telle sorte qu`a chaque experience la probabilite dobtention de
a
j
(o` u 1 j m) soit p
j
, (n, p) est la loi de la suite des eectifs de resultats egaux
respectivement `a a
1
, . . . , a
m
.
(n, p) a pour support lensemble des suites de longueur m dentiers positifs ou nuls
de somme egale `a n. Pour toute telle suite x = (x
1
, . . . , x
m
), on a si X = (X
1
, . . . , X
m
)
(n, p
1
, . . . , p
m
),
P(X = (x
1
, . . . , x
m
)) =
n!

m
j=1
x
j
!
m

j=1
p
x
j
j
,
o` u
n!
Q
m
j=1
x
j
!
est appele coecient multinomial. Pour tout j tel que 1 j m, X
j
B(n, p
j
).
Loi Hypergeometrique
Nous la noterons H(N, n, p), o` u N est un entier strictement positif, n est un entier stric-
tement positif inferieur `a N et p [0, 1], de sorte que m = pN soit un entier strictment
positif.
Dans la terminologie du contr ole de qualite (transposable evidemment en termes durnes
contenant 2 types de boules) cest la loi du nombre de bonnes pi`eces quand on tire avec
equiprobabilite un sous-ensemble de n pi`eces dans un lot de N pi`eces dans lequel la proportion
de bonnes pi`eces est p et celle de pi`eces defectueuses est 1 p ; on parle aussi dans ce
cas de tirage sans remise car ceci est equivalent `a la situation o` u on tire successivement
n pi`eces distinctes, de telle sorte que `a chaque tirage toutes les pi`eces subsistantes aient la
meme probabilite detre tirees.
Si on note m = pN, cette probabilite est concentree sur lensemble des entiers k veriant
sup(0, n +mN) k inf(m, n) et , pour tout tel k, on a si X H(N, n, p),
P(X = k) =

m
k

N m
n k

N
n

244 CHAPITRE X. RAPPELS ET COMPL

EMENTS DE PROBABILIT

ES
(autrement note P(X = k) =
C
k
m
C
nk
Nm
C
k
N
)On a aussi E(X) = np (comme pour B(n, p) ) et
Var(X) =
N n
N 1
np(1 p) (plus petit que pour B(n, p)).
Si N , on a pour tout k N, P(X = k) P(S = k), o` u S B(n, p). Concr`etement,
pour le statisticien, ceci exprime quun tirage avec remise approxime dautant mieux un tirage
sans remise que leectif de la population est plus grand devant la taille n de lechantillon
tire.
Loi de Poisson
Nous la noterons {(), o` u R

+
(autrement dit est strictement positif).
Son support est lensemble des entiers naturels N et si X {(), on a pour k N,
P(X = k) = e


k
k!
,
ainsi que E(X) = et Var(X) = .
La somme de n v.a. independantes suivant des lois de Poisson de param`etres
1
. . . ,
n
suit la loi de Poisson de param`etre

n
i=1

i
.
X.2.2 Variables aleatoires absolument continues
Dans toute cette partie, labsolue continuite (a.c.) sentend par rapport `a la mesure de
Lebesgue sur R ou R
n
(voir X.1.2). Donc ici, si n = 1 (ce qui sera le cas sauf pour la loi
de Gauss multi-dimensionnelle), si on consid`ere une v.a. reelle X, elle admet une densite
(denie `a une egalite presque s ure pr`es), cest-` a-dire une fonction f de R dans R
+
liee `a sa
fonction repartition F par les relations F(x) = P(X x) =

f(t)dt et, pour presque tout


x, f(x) = F

(x) ; il en resulte que, pour tout couple (a, b) veriant a b, on a :


P(a X b) = F(b) F(a) =

b
a
f(t)dt
(les inegalites larges pouvant etre remplacees par des inegalites strictes) et en particulier,
pour tout x, P(X = x) = 0.
Loi normale (ou de Gauss) unidimensionnelle
Nous la noterons ^(,
2
), o` u R et R
+
; on distingue 2 cas dans sa denition :
si = 0, cest la loi de Dirac en , T() (et il ny a donc pas absolue continuite),
si = 0, elle admet pour densite lapplication denie sur R par :
x
1

2
exp(
(x )
2
2
2
).
Une caracterisation uniee (que soit nul ou non) peut-etre donnee par lutilisation de
la fonction caracteristique, application de R dans ( denie sur R par
t E[e
itX
] = exp(it

2
t
2
2
) ,
X.2. LOIS DE VARIABLES AL

EATOIRES REMARQUABLES 245


o` u X ^(,
2
). On a aussi E(X) = et Var(X) =
2
.
Un r ole central (voir ci-dessous X.3.2) est joue par la loi normale centree reduite
^(0, 1), que nous pourrons noter aussi plus simplement ^. Il est clair que la loi ^(,
2
)
est caracterisee par le fait quelle est limage de ^ par lapplication de R dans R, ane
croissante : x + x. Dans de nombreux ouvrages, la fonction de repartition de ^ est
notee et sa densite est notee : (x) =
1

2
exp(
x
2
2
) ; le graphe de est appele courbe en
cloche de Gauss.
La somme de n v.a. independantes suivant des lois normales de param`etres (
1
,
2
1
) . . .
(
n
,
2
n
) suit la loi normale de param`etre (

n
i=1

i
,

n
i=1

2
i
).
Loi normale (ou de Gauss) multidimensionnelle
Soit n un entier strictement positif ; on va considerer ici des probabilites sur R
n
, notees
^(, ), o` u R
n
et est une matrice nn symetrique positive, mais non necessairement
denie positive ; on rappelle (voir X.1.3) que cela signie que, pour tout u R
n
, u
t
u 0,
mais que u = 0 nimplique pas necessairement que u
t
u > 0 (la notation
t
designe la
transposition des matrices). Une v.a. X `a valeurs dans R
n
et suivant une loi de Gauss sera
appelee vecteur gaussien.
Cas particulier
Soit = 0
n
(vecteur nul de R
n
) et = I
n
(matrice identite). Alors ^(0
n
, I
n
) =
(^(0, 1))
n
, cest-` a-dire (voir X.1.4) la puissance n-i`eme de la loi normale unidimensionnelle
centree reduite ; autrement dit ^(0
n
, I
n
) est la la loi dun n-uple de v.a. reelles independantes
et de meme loi normale desperance 0 et variance 1.
^(0
n
, I
n
) est donc absolument continue et admet pour densite par rapport `a la mesure
de Lebesgue n-dimensionnelle lapplication
(x
1
. . . , x
n
)
n

i=1
1

2
exp(
x
2
i
2
),
autrement ecrite
x
1
(2)
n/2
exp(
1
2
(x
t
.x)) .
Cas general
etant symetrique positive, il existe A, matrice nn telle que AA
t
= . Alors ^(, ) est
la loi de probabilite image de ^(0
n
, I
n
) par lapplication ane de R
n
dans R
n
: x +Ax.
On remarque que ^(, ) est concentree sur limage de lapplication x + Ax, cest-
`a-dire le sous-espace ane passant par et parall`ele au sous-espace vectoriel Im(A). Ce
sous-espace est de dimension egale au rang de A, qui est aussi le rang de . ^(, ) nest
donc absolument continue par rapport `a la mesure de Lebesgue n-dimensionnelle
n
que si
est de rang n, autrement dit inversible (autrement dit encore ici denie positive). Elle admet
alors pour densite lapplication, de R
n
dans R

+
:
x
1
(2)
n/2

det()
exp(
1
2
(x )
t

1
(x )) ,
o` u det() designe le determinant de la matrice (non nul car celle-ci est ici inversible).
246 CHAPITRE X. RAPPELS ET COMPL

EMENTS DE PROBABILIT

ES
Si un vecteur aleatoire X suit la loi ^(, ), on a E(X) = et Var(X) = (on rappelle
(voir X.1.3) que Var(X) designe la matrice de variances et covariances du vecteur aleatoire
X).
Ces notations usuelles presentent une petite incoherence avec le cas unidimensionnel :
cest la matrice notee ci-dessus A qui generalise au cas n-dimensionnel lecart-type note par
la minuscule et cest la majuscule qui correspond ` a
2
.
Une caracterisation uniee (que soit ou non inversible ) peut-etre donnee par lutilisation
de la fonction caracteristique denie sur R
n
:
u E[e
i u
t
X
] = exp

i u
t

1
2
u
t
u

.
Limage de ^(, ) par une application ane, x C +Dx, est ^(C +D , DD
T
).
Soit X un vecteur aleatoire n-dimensionnel, de loi ^(, ) ; decomposons le sous la forme
X =

X
1
X
2

, o` u X
1
est n
1
-dimensionnel et X
2
est n
2
-dimensionnel (avec n
1
+ n
2
= n).
Soient M =

et =


11

12

21

22

(avec
21
=
t
12
) les decompositions correspon-
dantes de M et de . Alors X
1
suit la loi ^(
1
,
11
) et, si
11
est inversible, la loi de X
2
conditionnellement `a X
1
(voir X.1.4 pour la notion et pour le calcul) est :
x
1
^(
2
+
21

1
11
(x
1

1
) ,
22

21
.
1
11
.
12
) .
Loi du
2
(ou chi-deux ou khi-deux)
Nous noterons
2
(n) , et appellerons loi du
2
`a n degres de liberte la loi de la somme
des carres de n v.a. reelles independantes toutes de loi normale centree reduite.
Elle est concentree sur R
+
, absolument continue par rapport `a la mesure de Lebesgue, et
de densite :
x
1
2
n/2
(n/2)
e

x
2
x
n
2
1
1
R
+
(x),
o` u est la fonction eulerienne Gamma : (a) =

+
0
e
t
t
a1
dt.
Si X
2
(n), on a E(X) = n et Var(X) = 2n.
Il resulte de la denition que, si X
1
et X
2
sont independantes, X
1

2
(n
1
) et X
2

2
(n
2
), alors X
1
+X
2

2
(n
1
+n
2
).
Loi du
2
decentre
La loi de la somme des carres de n v.a. reelles independantes X
1
, . . . , X
n
, la
loi de X
i
etant ^(
i
, 1) (elles sont donc toutes reduites, mais pas de meme esperance)
ne depend des param`etres
i
quau travers du param`etre dexcentricite =

n
i=1

2
i
. Nous
noterons cette loi
2
(n, ), et lappellerons loi du
2
decentre `a n degres de liberte, et
de param`etre dexcentricite .
On retrouve
2
(n) =
2
(n, 0).
La loi
2
(n, ) est concentree sur R
+
, absolument continue par rapport `a la mesure de
Lebesgue, mais nous ne donnerons pas lexpression de sa densite qui est trop compliquee pour
etre utilisable.
X.2. LOIS DE VARIABLES AL

EATOIRES REMARQUABLES 247


Si X
2
(n, ), on a E(X) = n + et Var(X) = 2(n + 2).
`
A n xe, les lois
2
(n, ) forment une famille stochastiquement croissante en : on rappelle
(voir X.1.2) que cela signie que, pour tout x 0, lapplication (
2
(n, ))([x, +[) est
croissante : plus est grand, plus une v.a. qui suit la loi
2
(n, ) a tendance `a prendre de
fortes valeurs.
Il resulte de la denition que, si X
1
et X
2
sont independantes, X
1

2
(n
1
,
1
) et X
2

2
(n
2
,
2
), alors X
1
+X
2

2
(n
1
+n
2
,
1
+
2
).
Loi de Student
On appelle loi de Student `a n degres de liberte et on note T (n) la loi du quotient

nX

Y
, o` u X et Y sont deux variables aleatoires independantes, suivant respec-
tivement les lois ^(0, 1) et
2
(n) (dans cette notation, le T est traditionnel, et non pas
linitiale o, pour des raisons historiques : Student lui-meme notait t, et nous pourrons aussi
employer cette notation t dans ce cours).
Elle est absolument continue par rapport `a la mesure de Lebesgue, et de densite :
x
1

nB(
1
2
,
n
2
)
(1 +
x
2
n
)
(n+1)/2
,
o` u B est la fonction eulerienne Beta : B(a, b) =

1
0
x
a1
(1 x)
b1
dx.
Si X T (n), on a E(X) = 0 (`a condition que n > 1) et Var(X) =
n
n2
(`a condition que
n > 2).
Pour n = 1, on obtient la loi de Cauchy dont lesperance mathematique nest pas
denie : si X suit une loi de Cauchy, on a E(X
+
) = E(X

) = + (les notations X
+
et X

ont ete denies en X.1.3).


Loi de Fisher (ou de Fisher-Snedecor)
On appelle loi de Fisher `a n et m degres de liberte et on note T(n, m) la loi du quo-
tient
m
n
X
Y
, o` u X et Y sont deux variables aleatoires independantes, suivant respectivement
les lois
2
(n) et
2
(m).
Elle est concentree sur R
+
, absolument continue par rapport `a la mesure de Lebesgue, et
de densite :
x
1
B(n/2, m/2)
n
n/2
m
m/2
x
n/2 1
(m+nx)
(n+m)/2
1
R
+
(x),
o` u B est la fonction eulerienne Beta : B(a, b) =

1
0
x
a1
(1 x)
b1
dx.
Si X T(n, m), on a E(X) =
m
m2
(`a condition que m > 2) ainsi que Var(X) =
2m
2
(n +m2)
n(m4)(m2)
2
(`a condition que m > 4).
248 CHAPITRE X. RAPPELS ET COMPL

EMENTS DE PROBABILIT

ES
Loi uniforme
Etant donne un intervalle de longueur non nulle [a, b], on appelle loi uniforme sur [a, b],
et on note |([a, b]) la probabilite concentree sur [a, b] et de densite :
x
1
b a
1
[a,b]
(x).
On note en bref | pour |([0, 1]).
La fonction de repartition de |([a, b]) sexplicite elementairement : si a x b, elle vaut
F
U([a,b])
(x) =
x a
b a
.
Si X |([a, b]), on a E(X) =
a +b
2
et Var(X) =
(b a)
2
12
.
Loi exponentielle
Etant donne > 0, on appelle loi exponentielle de param`etre , et on note c() (ou
Exp()) la probabilite concentree sur R
+
et de densite :
x e
x
1
R
+
(x).
Si = 1, on note c pour c(1) (ou Exp pour Exp(1)) et on parle de loi exponentielle (tout
court).
La fonction de repartition de c() sexplicite elementairement : si x 0, elle vaut
F
E()
(x) = 1 e
x
.
Si X c(), on a E(X) =
1

et Var(X) =
1

2
.
Une propriete remarquable de la loi exponentielle est quelle modelise les durees de vie
sans vieillissement : si la loi de X est c(), il en est de meme, pour tout t > 0, de la loi de
X t conditionnellement `a lev`enement (de probabilite non nulle) X t.
Loi Gamma
Etant donne a > 0 et > 0, on appelle loi Gamma de param`etre (a, ), et on note
((a, ) (ou (a, )) la loi concentree sur R
+
et de densite :
x

a
(a)
e
x
x
a1
1
R
+
(x) ,
o` u est la fonction eulerienne Gamma : (a) =

+
0
e
t
t
a1
dt.
On retrouve en particulier la loi exponentielle : ((1, ) = c().
Si = 1, on note ((a) pour ((a, 1) et on parle de loi Gamma de param`etre (au singulier)
a (ou en bref loi Gamma a).
Si X ((a, ), on E(X) =
a

et Var(X) =
a

2
.
Si les v.a. X
1
et X
2
sont independantes et suivent respectivement les lois ((a
1
, ) et
((a
2
, ), la v.a. X
1
+X
2
suit la loi ((a
1
+a
2
, ) ; en particulier, si a est un entier n, ((n, )
est la loi de la somme de n v.a. independantes toutes de loi exponentielle de param`etre .
Il y a un lien entre les lois Gamma et du chi-deux : ((
n
2
,
1
2
) =
2
(n).
X.3. TH

EOR
`
EMES LIMITES 249
Loi Beta
Etant donne a > 0 et b > 0, on appelle loi Beta de seconde esp`ece (mais, nen
presentant pas ici dautre, nous dirons en bref loi Beta) de param`etre (a, b), et on note
B
(2)
(a, b) (ou (a, b)) la loi du quotient
X
X+Y
, o` u X et Y sont independantes et
suivent des lois Gamma, respectivement ((a) et((b).
Elle est concentree sur [0, 1] et de densite :
x
1
B(a, b)
x
a1
(1 x)
b1
1
[0,1]
,
o` u B est la fonction eulerienne Beta : B(a, b) =

1
0
x
a1
(1 x)
b1
dx.
Si a = b = 1, on retrouve la loi uniforme sur [0, 1] : B
(2)
(1, 1) = |.
Si X B
(2)
(a, b), on a E(X) =
a
a +b
et Var(X) =
ab
(a +b)
2
(a +b + 1)
.
Pour memoire : X et Y etant prises comme dans la denition precedente, la loi de
X
Y
est
dite loi Beta de premi`ere esp`ece de param`etre (a, b).
Loi de Weibull
Etant donne > 0 et > 0, on appelle loi de Weibull de param`etre de forme et de
param`etre dechelle et on note (, ) la probabilite concentree sur R
+
et de densite :
x x
1
exp(x

)1
R
+
(x).
Si = 1, on retrouve la loi exponentielle de param`etre ; si X (, ), X

suit la loi
exponentielle de param`etre .
Si X (, ), on a E(X) =
(1 +
1

et Var(X) =
(1 +
2

)
2
(1 +
2

.
Les lois de Weibull sont utilisees en abilite industrielle pour modeliser des lois de duree
de vie dappareils en raison de la propriete suivante : etant xe t > 0, la probabilite que
lappareil vive encore au moins pendant la duree t sachant quil a dej`a atteint lage x est :
fonction croissante de x si < 1,
fonction constante de x si = 1 (cas de la loi exponentielle),
fonction decroissante de x si > 1.
Elles sont donc utilisees pour modeliser des durees de vie dappareils en phase de jeunesse
si < 1 (lelimination des defauts de jeunesse ameliore la probabilite de vivre au moins un
certain temps), en phase de maturite si = 1 (pas de phenom`ene sensible damelioration ni
de vieillissement), en phase de vieillissement si > 1.
X.3 Theor`emes limites
X.3.1 Convergences
Il existe plusieurs modes de convergence de variables aleatoires : presque-s ure, en proba-
bilite, en loi, dans L
p
(quadratique si p = 2). Le statisticien a besoin essentiellement de la
convergence en loi, parfois de la convergence p.s., et nous ne traiterons pas ici des convergences
dans L
p
.
250 CHAPITRE X. RAPPELS ET COMPL

EMENTS DE PROBABILIT

ES
Rappelons quon dit quune suite (X
n
)
nN
de v.a. `a valeurs dans R
d
converge presque
s urement (p.s.) vers la v.a. Y aussi `a valeurs dans R
d
, si P(lim
n
X
n
= Y ) = 1.
Rappelons quon dit quune suite (X
n
)
nN
de v.a. `a valeurs dans R
d
converge en loi (ou
converge faiblement) vers la v.a. Y , aussi `a valeurs dans R
d
si, P
n
designant le loi de X
n
et
Q celle de Y , on a, pour toute fonction, f, continue bornee de R
d
dans R, lim
n+
E
Pn
(f) =
E
Q
(f). En particulier la convergence p.s. implique la convergence en loi.
La convergence en loi ne faisant intervenir que les lois des v.a., on dit aussi (un peu
improprement car il ne sagit pas dobjets de meme nature) que la suite (X
n
)
nN
converge
en loi vers Q, ou, plus correctement, que la suite des probabilites (P
n
)
nN
converge
etroitement vers Q.
Un resultat souvent utile est le suivant : si X
n
tend en loi vers Y et si est une application
continue de R
n
dans R
m
, alors (X
n
) tend en loi vers (Y ) ; en dautres termes, si P
n
tend
etroitement vers Q et si est une application continue de R
n
dans R
m
, alors (P
n
) (image
de P
n
par , autrement dit loi de relativement `a P
n
) tend etroitement vers (Q).
Une caracterisation pratique de cette convergence, pour des v.a. reelles, est la suivante,
`a laide de fonctions de repartition : P
n
tend etroitement vers Q si et seulement si, pour tout
point de continuite x de F
Q
, on a lim
n+
F
Pn
(x) = F
Q
(x).
Le cas de R
d
, avec d > 1, se ram`ene `a celui de R, par le resultat suivant : P
n
tend
etroitement vers Q si et seulement si, pour toute application lineaire v de R
d
dans R, on a
v(P
n
) qui tend etroitement vers v(Q).
Une autre caracterisation pratique de cette convergence, utilise la fonction caracteristique :
P
n
tend etroitement vers Q si et seulement si, pour u R
d
, on a la convergence de
Pn
(u) =
E[e
iu
t
Xn
] vers
P
(u) = E[e
iu
t
Y
].
X.3.2 Theor`eme central limite
Theor`eme central limite (ou de la limite centrale) unidimensionnel
Soit (X
n
)
nN
une suite de v.a. reelles independantes et de meme loi, de second ordre,
cest-` a-dire admettant une esperance mathematique et une variance nie
2
> 0 .
Alors, quand n tend vers +,

(
P
n
i=1
X
i
n
) tend en loi vers la loi normale centree
reduite ^(0, 1).
En dautres termes,

n(
P
n
i=1
X
i
n
) tend en loi, quand n tend vers +, vers la loi
normale centree ^(0,
2
).
Consequence elementaire (et historiquement premi`ere) : convergence des lois binomia-
les vers la loi normale . Si Y
n
suit une loi binomiale B(n, p),
Y
n
np

np(1 p)
tend en loi, quand
n tend vers +, vers la loi normale centree reduite ^.
Theor`eme central limite multidimensionnel
Soit (X
n
)
nN
une suite de v.a. `a valeurs dans R
m
, independantes et de meme loi, de second
ordre. Notons leur esperance mathematique et leur matrice de variances et covariances.
Alors, quand n tend vers +,

n(

n
i=1
X
i
n
) tend en loi vers la loi normale n-
dimensionnelle centree ^(0, ) (voir X.2.2).
X.3. TH

EOR
`
EMES LIMITES 251
X.3.3 Convergences en loi remarquables
Convergence des lois de Student
La suite des lois de Student `a n degres de liberte converge etroitement, quand n tend vers
linni, vers la loi normale centree reduite.
Convergence des lois binomiales vers la loi de Poisson
Si Y
n
suit la loi de Bernouilli B(n, p
n
) et lim
n
np
n
= > 0 alors Y
n
tend en loi vers la
loi de Poisson {() (voir X.2.1).
Ce theor`eme fournit une meilleure approximation que le theor`eme central limite pour les
lois binomiales ` a n grand et p petit.
Convergence des lois du chi-deux vers la loi normale
Si, pour tout n, X
n
suit la loi
2
(n), la suite des lois des v.a.r.

2X
n

2n 1 converge
en loi, quand le nombre de degres de liberte n tend vers linni, vers la loi normale centree
reduite.
Theor`eme de Glivenko-Cantelli
A toute suite nie (x
1
, . . . , x
n
) R
n
on associe la probabilite empirique
x
1
,...,xn
=
1
n

n
i=1
T(x
i
), o` u T(x
i
) est la mesure de Dirac en x
i
(voir X.1.3 et X.2.1). On note

F
x
1
,...,x
1
la
fonction de repartition empirique de la suite (x
1
, . . . , x
n
), cest-` a-dire la fonction de repartition
de la probabilite empirique :
t R

F
x
1
,...,xn
(t) =
1
n
Card(i : x
i
t).
Soit (X
n
)
nN
une suite innie de v.a. i.i.d., de fonction de repartition commune F. Alors,
pour tout n N et tout t R,

F
X
1
,...,Xn
(t) est une v.a. `a valeurs dans [0, 1]. Le theor`eme
de Glivenko-Cantelli enonce la convergence vers 0 (en loi, et meme presque s urement) de la
suite des v.a. ;S
n
= sup
tR
[

F
X
1
,...,Xn
(t) F(t)[.
252 CHAPITRE X. RAPPELS ET COMPL

EMENTS DE PROBABILIT

ES
Chapitre XI
Tables statistiques
Les tables qui suivent ont ete generees `a laide du logiciel Scilab.
XI.1 Quantiles de la loi ^(0, 1)
Soit X une v.a. de loi ^(0, 1), on pose
2


x
e
y
2
/2
dy

2
= P([X[ x) = .
La table donne les valeurs de x en fonction de
. Par exemple P([X[ 0.6280) 0.53.
/2 /2
+x x 0
0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 2.5758 2.3263 2.1701 2.0537 1.9600 1.8808 1.8119 1.7507 1.6954
0.1 1.6449 1.5982 1.5548 1.5141 1.4758 1.4395 1.4051 1.3722 1.3408 1.3106
0.2 1.2816 1.2536 1.2265 1.2004 1.1750 1.1503 1.1264 1.1031 1.0803 1.0581
0.3 1.0364 1.0152 0.9945 0.9741 0.9542 0.9346 0.9154 0.8965 0.8779 0.8596
0.4 0.8416 0.8239 0.8064 0.7892 0.7722 0.7554 0.7388 0.7225 0.7063 0.6903
0.5 0.6745 0.6588 0.6433 0.6280 0.6128 0.5978 0.5828 0.5681 0.5534 0.5388
0.6 0.5244 0.5101 0.4959 0.4817 0.4677 0.4538 0.4399 0.4261 0.4125 0.3989
0.7 0.3853 0.3719 0.3585 0.3451 0.3319 0.3186 0.3055 0.2924 0.2793 0.2663
0.8 0.2533 0.2404 0.2275 0.2147 0.2019 0.1891 0.1764 0.1637 0.1510 0.1383
0.9 0.1257 0.1130 0.1004 0.0878 0.0753 0.0627 0.0502 0.0376 0.0251 0.0125
253
254 CHAPITRE XI. TABLES STATISTIQUES
XI.2 Fonction de repartition de la loi ^(0, 1)
Soit X une v.a. de loi ^(0, 1), on pose

e
y
2
/2
dy

2
= P(X x) = .
La table donne les valeurs de en fonction de
x. Par exemple P(X 1.96) 0.97500.

x 0
0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.50000 0.50399 0.50798 0.51197 0.51595 0.51994 0.52392 0.52790 0.53188 0.53586
0.1 0.53983 0.54380 0.54776 0.55172 0.55567 0.55962 0.56356 0.56749 0.57142 0.57535
0.2 0.57926 0.58317 0.58706 0.59095 0.59483 0.59871 0.60257 0.60642 0.61026 0.61409
0.3 0.61791 0.62172 0.62552 0.62930 0.63307 0.63683 0.64058 0.64431 0.64803 0.65173
0.4 0.65542 0.65910 0.66276 0.66640 0.67003 0.67364 0.67724 0.68082 0.68439 0.68793
0.5 0.69146 0.69497 0.69847 0.70194 0.70540 0.70884 0.71226 0.71566 0.71904 0.72240
0.6 0.72575 0.72907 0.73237 0.73565 0.73891 0.74215 0.74537 0.74857 0.75175 0.75490
0.7 0.75804 0.76115 0.76424 0.76730 0.77035 0.77337 0.77637 0.77935 0.78230 0.78524
0.8 0.78814 0.79103 0.79389 0.79673 0.79955 0.80234 0.80511 0.80785 0.81057 0.81327
0.9 0.81594 0.81859 0.82121 0.82381 0.82639 0.82894 0.83147 0.83398 0.83646 0.83891
1.0 0.84134 0.84375 0.84614 0.84849 0.85083 0.85314 0.85543 0.85769 0.85993 0.86214
1.1 0.86433 0.86650 0.86864 0.87076 0.87286 0.87493 0.87698 0.87900 0.88100 0.88298
1.2 0.88493 0.88686 0.88877 0.89065 0.89251 0.89435 0.89617 0.89796 0.89973 0.90147
1.3 0.90320 0.90490 0.90658 0.90824 0.90988 0.91149 0.91309 0.91466 0.91621 0.91774
1.4 0.91924 0.92073 0.92220 0.92364 0.92507 0.92647 0.92785 0.92922 0.93056 0.93189
1.5 0.93319 0.93448 0.93574 0.93699 0.93822 0.93943 0.94062 0.94179 0.94295 0.94408
1.6 0.94520 0.94630 0.94738 0.94845 0.94950 0.95053 0.95154 0.95254 0.95352 0.95449
1.7 0.95543 0.95637 0.95728 0.95818 0.95907 0.95994 0.96080 0.96164 0.96246 0.96327
1.8 0.96407 0.96485 0.96562 0.96638 0.96712 0.96784 0.96856 0.96926 0.96995 0.97062
1.9 0.97128 0.97193 0.97257 0.97320 0.97381 0.97441 0.97500 0.97558 0.97615 0.97670
2.0 0.97725 0.97778 0.97831 0.97882 0.97932 0.97982 0.98030 0.98077 0.98124 0.98169
2.1 0.98214 0.98257 0.98300 0.98341 0.98382 0.98422 0.98461 0.98500 0.98537 0.98574
2.2 0.98610 0.98645 0.98679 0.98713 0.98745 0.98778 0.98809 0.98840 0.98870 0.98899
2.3 0.98928 0.98956 0.98983 0.99010 0.99036 0.99061 0.99086 0.99111 0.99134 0.99158
2.4 0.99180 0.99202 0.99224 0.99245 0.99266 0.99286 0.99305 0.99324 0.99343 0.99361
2.5 0.99379 0.99396 0.99413 0.99430 0.99446 0.99461 0.99477 0.99492 0.99506 0.99520
2.6 0.99534 0.99547 0.99560 0.99573 0.99585 0.99598 0.99609 0.99621 0.99632 0.99643
2.7 0.99653 0.99664 0.99674 0.99683 0.99693 0.99702 0.99711 0.99720 0.99728 0.99736
2.8 0.99744 0.99752 0.99760 0.99767 0.99774 0.99781 0.99788 0.99795 0.99801 0.99807
2.9 0.99813 0.99819 0.99825 0.99831 0.99836 0.99841 0.99846 0.99851 0.99856 0.99861
La table suivante donne les valeurs de 1 pour les grandes valeurs de x.
x 2 3 4 5 6 7 8 9 10
1 2.28e-02 1.35e-03 3.17e-05 2.87e-07 9.87e-10 1.28e-12 6.22e-16 1.13e-19 7.62e-24
XI.3. QUANTILES DE LA LOI DU
2
255
XI.3 Quantiles de la loi du
2
Soit X
n
une v.a. de loi
2
(n), on pose
Z

x
1
2
n/2
(n/2)
y
n
2
1
e
y/2
dy = P(Xn x) = .
La table donne les valeurs de x en fonction
de n et . Par exemple P(X
8
20.09) 0.01.

x 0
n\ 0.990 0.975 0.950 0.900 0.100 0.050 0.025 0.010 0.001
1 0.0002 0.0010 0.0039 0.0158 2.71 3.84 5.02 6.63 10.83
2 0.02 0.05 0.10 0.21 4.61 5.99 7.38 9.21 13.82
3 0.11 0.22 0.35 0.58 6.25 7.81 9.35 11.34 16.27
4 0.30 0.48 0.71 1.06 7.78 9.49 11.14 13.28 18.47
5 0.55 0.83 1.15 1.61 9.24 11.07 12.83 15.09 20.52
6 0.87 1.24 1.64 2.20 10.64 12.59 14.45 16.81 22.46
7 1.24 1.69 2.17 2.83 12.02 14.07 16.01 18.48 24.32
8 1.65 2.18 2.73 3.49 13.36 15.51 17.53 20.09 26.12
9 2.09 2.70 3.33 4.17 14.68 16.92 19.02 21.67 27.88
10 2.56 3.25 3.94 4.87 15.99 18.31 20.48 23.21 29.59
11 3.05 3.82 4.57 5.58 17.28 19.68 21.92 24.72 31.26
12 3.57 4.40 5.23 6.30 18.55 21.03 23.34 26.22 32.91
13 4.11 5.01 5.89 7.04 19.81 22.36 24.74 27.69 34.53
14 4.66 5.63 6.57 7.79 21.06 23.68 26.12 29.14 36.12
15 5.23 6.26 7.26 8.55 22.31 25.00 27.49 30.58 37.70
16 5.81 6.91 7.96 9.31 23.54 26.30 28.85 32.00 39.25
17 6.41 7.56 8.67 10.09 24.77 27.59 30.19 33.41 40.79
18 7.01 8.23 9.39 10.86 25.99 28.87 31.53 34.81 42.31
19 7.63 8.91 10.12 11.65 27.20 30.14 32.85 36.19 43.82
20 8.26 9.59 10.85 12.44 28.41 31.41 34.17 37.57 45.31
21 8.90 10.28 11.59 13.24 29.62 32.67 35.48 38.93 46.80
22 9.54 10.98 12.34 14.04 30.81 33.92 36.78 40.29 48.27
23 10.20 11.69 13.09 14.85 32.01 35.17 38.08 41.64 49.73
24 10.86 12.40 13.85 15.66 33.20 36.42 39.36 42.98 51.18
25 11.52 13.12 14.61 16.47 34.38 37.65 40.65 44.31 52.62
26 12.20 13.84 15.38 17.29 35.56 38.89 41.92 45.64 54.05
27 12.88 14.57 16.15 18.11 36.74 40.11 43.19 46.96 55.48
28 13.56 15.31 16.93 18.94 37.92 41.34 44.46 48.28 56.89
29 14.26 16.05 17.71 19.77 39.09 42.56 45.72 49.59 58.30
30 14.95 16.79 18.49 20.60 40.26 43.77 46.98 50.89 59.70
Lorsque n > 30, on peut utiliser lapproximation

2
2
(n)

2n 1
Loi
^(0, 1).
256 CHAPITRE XI. TABLES STATISTIQUES
XI.4 Quantiles de la loi de Student
Soit X
n
une variable aleatoire de loi de
Student de param`etre n. On pose
2
Z

t
((n + 1)/2)

n (n/2)
1

1 +
y
2
n

(n+1)/2
dy = P(|Xn| t) = .
La table donne les valeurs de t en fonction de n et .
Par exemple P(|X20| 2.086) 0.05.
/2 /2
t t 0
n\ 0.900 0.800 0.700 0.600 0.500 0.400 0.300 0.200 0.100 0.050 0.020 0.010 0.001
1 0.158 0.325 0.510 0.727 1.000 1.376 1.963 3.078 6.314 12.706 31.821 63.657 636.619
2 0.142 0.289 0.445 0.617 0.816 1.061 1.386 1.886 2.920 4.303 6.965 9.925 31.599
3 0.137 0.277 0.424 0.584 0.765 0.978 1.250 1.638 2.353 3.182 4.541 5.841 12.924
4 0.134 0.271 0.414 0.569 0.741 0.941 1.190 1.533 2.132 2.776 3.747 4.604 8.610
5 0.132 0.267 0.408 0.559 0.727 0.920 1.156 1.476 2.015 2.571 3.365 4.032 6.869
6 0.131 0.265 0.404 0.553 0.718 0.906 1.134 1.440 1.943 2.447 3.143 3.707 5.959
7 0.130 0.263 0.402 0.549 0.711 0.896 1.119 1.415 1.895 2.365 2.998 3.499 5.408
8 0.130 0.262 0.399 0.546 0.706 0.889 1.108 1.397 1.860 2.306 2.896 3.355 5.041
9 0.129 0.261 0.398 0.543 0.703 0.883 1.100 1.383 1.833 2.262 2.821 3.250 4.781
10 0.129 0.260 0.397 0.542 0.700 0.879 1.093 1.372 1.812 2.228 2.764 3.169 4.587
11 0.129 0.260 0.396 0.540 0.697 0.876 1.088 1.363 1.796 2.201 2.718 3.106 4.437
12 0.128 0.259 0.395 0.539 0.695 0.873 1.083 1.356 1.782 2.179 2.681 3.055 4.318
13 0.128 0.259 0.394 0.538 0.694 0.870 1.079 1.350 1.771 2.160 2.650 3.012 4.221
14 0.128 0.258 0.393 0.537 0.692 0.868 1.076 1.345 1.761 2.145 2.624 2.977 4.140
15 0.128 0.258 0.393 0.536 0.691 0.866 1.074 1.341 1.753 2.131 2.602 2.947 4.073
16 0.128 0.258 0.392 0.535 0.690 0.865 1.071 1.337 1.746 2.120 2.583 2.921 4.015
17 0.128 0.257 0.392 0.534 0.689 0.863 1.069 1.333 1.740 2.110 2.567 2.898 3.965
18 0.127 0.257 0.392 0.534 0.688 0.862 1.067 1.330 1.734 2.101 2.552 2.878 3.922
19 0.127 0.257 0.391 0.533 0.688 0.861 1.066 1.328 1.729 2.093 2.539 2.861 3.883
20 0.127 0.257 0.391 0.533 0.687 0.860 1.064 1.325 1.725 2.086 2.528 2.845 3.850
21 0.127 0.257 0.391 0.532 0.686 0.859 1.063 1.323 1.721 2.080 2.518 2.831 3.819
22 0.127 0.256 0.390 0.532 0.686 0.858 1.061 1.321 1.717 2.074 2.508 2.819 3.792
23 0.127 0.256 0.390 0.532 0.685 0.858 1.060 1.319 1.714 2.069 2.500 2.807 3.768
24 0.127 0.256 0.390 0.531 0.685 0.857 1.059 1.318 1.711 2.064 2.492 2.797 3.745
25 0.127 0.256 0.390 0.531 0.684 0.856 1.058 1.316 1.708 2.060 2.485 2.787 3.725
26 0.127 0.256 0.390 0.531 0.684 0.856 1.058 1.315 1.706 2.056 2.479 2.779 3.707
27 0.127 0.256 0.389 0.531 0.684 0.855 1.057 1.314 1.703 2.052 2.473 2.771 3.690
28 0.127 0.256 0.389 0.530 0.683 0.855 1.056 1.313 1.701 2.048 2.467 2.763 3.674
29 0.127 0.256 0.389 0.530 0.683 0.854 1.055 1.311 1.699 2.045 2.462 2.756 3.659
30 0.127 0.256 0.389 0.530 0.683 0.854 1.055 1.310 1.697 2.042 2.457 2.750 3.646
40 0.126 0.255 0.388 0.529 0.681 0.851 1.050 1.303 1.684 2.021 2.423 2.704 3.551
80 0.126 0.254 0.387 0.526 0.678 0.846 1.043 1.292 1.664 1.990 2.374 2.639 3.416
120 0.126 0.254 0.386 0.526 0.677 0.845 1.041 1.289 1.658 1.980 2.358 2.617 3.373
0.126 0.253 0.385 0.524 0.674 0.842 1.036 1.282 1.645 1.960 2.326 2.576 3.291
XI.5. QUANTILES DE LA LOI DE FISHER-SNEDECOR 257
XI.5 Quantiles de la loi de Fisher-Snedecor
Soit X
n,m
une v.a. de loi de Fisher-Snedecor
de param`etre (n, m). On pose
P(X
n,m
t) = .
La table donne les valeurs de t en fonction
de n, m et 0.05; 0.01. Par exemple
P(X
4,20
4.43) 0, 01.

t 0
n = 1 n = 2 n = 3 n = 4 n = 5
m =0.05 =0.01 =0.05 =0.01 =0.05 =0.01 =0.05 =0.01 =0.05 =0.01
1 161.45 4052.18 199.50 4999.50 215.71 5403.35 224.58 5624.58 230.16 5763.65
2 18.51 98.50 19.00 99.00 19.16 99.17 19.25 99.25 19.30 99.30
3 10.13 34.12 9.55 30.82 9.28 29.46 9.12 28.71 9.01 28.24
4 7.71 21.20 6.94 18.00 6.59 16.69 6.39 15.98 6.26 15.52
5 6.61 16.26 5.79 13.27 5.41 12.06 5.19 11.39 5.05 10.97
6 5.99 13.75 5.14 10.92 4.76 9.78 4.53 9.15 4.39 8.75
7 5.59 12.25 4.74 9.55 4.35 8.45 4.12 7.85 3.97 7.46
8 5.32 11.26 4.46 8.65 4.07 7.59 3.84 7.01 3.69 6.63
9 5.12 10.56 4.26 8.02 3.86 6.99 3.63 6.42 3.48 6.06
10 4.96 10.04 4.10 7.56 3.71 6.55 3.48 5.99 3.33 5.64
11 4.84 9.65 3.98 7.21 3.59 6.22 3.36 5.67 3.20 5.32
12 4.75 9.33 3.89 6.93 3.49 5.95 3.26 5.41 3.11 5.06
13 4.67 9.07 3.81 6.70 3.41 5.74 3.18 5.21 3.03 4.86
14 4.60 8.86 3.74 6.51 3.34 5.56 3.11 5.04 2.96 4.69
15 4.54 8.68 3.68 6.36 3.29 5.42 3.06 4.89 2.90 4.56
16 4.49 8.53 3.63 6.23 3.24 5.29 3.01 4.77 2.85 4.44
17 4.45 8.40 3.59 6.11 3.20 5.18 2.96 4.67 2.81 4.34
18 4.41 8.29 3.55 6.01 3.16 5.09 2.93 4.58 2.77 4.25
19 4.38 8.18 3.52 5.93 3.13 5.01 2.90 4.50 2.74 4.17
20 4.35 8.10 3.49 5.85 3.10 4.94 2.87 4.43 2.71 4.10
21 4.32 8.02 3.47 5.78 3.07 4.87 2.84 4.37 2.68 4.04
22 4.30 7.95 3.44 5.72 3.05 4.82 2.82 4.31 2.66 3.99
23 4.28 7.88 3.42 5.66 3.03 4.76 2.80 4.26 2.64 3.94
24 4.26 7.82 3.40 5.61 3.01 4.72 2.78 4.22 2.62 3.90
25 4.24 7.77 3.39 5.57 2.99 4.68 2.76 4.18 2.60 3.85
26 4.23 7.72 3.37 5.53 2.98 4.64 2.74 4.14 2.59 3.82
27 4.21 7.68 3.35 5.49 2.96 4.60 2.73 4.11 2.57 3.78
28 4.20 7.64 3.34 5.45 2.95 4.57 2.71 4.07 2.56 3.75
29 4.18 7.60 3.33 5.42 2.93 4.54 2.70 4.04 2.55 3.73
30 4.17 7.56 3.32 5.39 2.92 4.51 2.69 4.02 2.53 3.70
40 4.08 7.31 3.23 5.18 2.84 4.31 2.61 3.83 2.45 3.51
80 3.96 6.96 3.11 4.88 2.72 4.04 2.49 3.56 2.33 3.26
120 3.92 6.85 3.07 4.79 2.68 3.95 2.45 3.48 2.29 3.17
3.84 6.63 3.00 4.61 2.60 3.78 2.37 3.32 2.21 3.02
258 CHAPITRE XI. TABLES STATISTIQUES
n = 6 n = 8 n = 12 n = 24 n =
m =0.05 =0.01 =0.05 =0.01 =0.05 =0.01 =0.05 =0.01 =0.05 =0.01
1 233.99 5858.99 238.88 5981.07 243.91 6106.32 249.05 6234.63 254.31 6365.86
2 19.33 99.33 19.37 99.37 19.41 99.42 19.45 99.46 19.50 99.50
3 8.94 27.91 8.85 27.49 8.74 27.05 8.64 26.60 8.53 26.13
4 6.16 15.21 6.04 14.80 5.91 14.37 5.77 13.93 5.63 13.46
5 4.95 10.67 4.82 10.29 4.68 9.89 4.53 9.47 4.36 9.02
6 4.28 8.47 4.15 8.10 4.00 7.72 3.84 7.31 3.67 6.88
7 3.87 7.19 3.73 6.84 3.57 6.47 3.41 6.07 3.23 5.65
8 3.58 6.37 3.44 6.03 3.28 5.67 3.12 5.28 2.93 4.86
9 3.37 5.80 3.23 5.47 3.07 5.11 2.90 4.73 2.71 4.31
10 3.22 5.39 3.07 5.06 2.91 4.71 2.74 4.33 2.54 3.91
11 3.09 5.07 2.95 4.74 2.79 4.40 2.61 4.02 2.40 3.60
12 3.00 4.82 2.85 4.50 2.69 4.16 2.51 3.78 2.30 3.36
13 2.92 4.62 2.77 4.30 2.60 3.96 2.42 3.59 2.21 3.17
14 2.85 4.46 2.70 4.14 2.53 3.80 2.35 3.43 2.13 3.00
15 2.79 4.32 2.64 4.00 2.48 3.67 2.29 3.29 2.07 2.87
16 2.74 4.20 2.59 3.89 2.42 3.55 2.24 3.18 2.01 2.75
17 2.70 4.10 2.55 3.79 2.38 3.46 2.19 3.08 1.96 2.65
18 2.66 4.01 2.51 3.71 2.34 3.37 2.15 3.00 1.92 2.57
19 2.63 3.94 2.48 3.63 2.31 3.30 2.11 2.92 1.88 2.49
20 2.60 3.87 2.45 3.56 2.28 3.23 2.08 2.86 1.84 2.42
21 2.57 3.81 2.42 3.51 2.25 3.17 2.05 2.80 1.81 2.36
22 2.55 3.76 2.40 3.45 2.23 3.12 2.03 2.75 1.78 2.31
23 2.53 3.71 2.37 3.41 2.20 3.07 2.01 2.70 1.76 2.26
24 2.51 3.67 2.36 3.36 2.18 3.03 1.98 2.66 1.73 2.21
25 2.49 3.63 2.34 3.32 2.16 2.99 1.96 2.62 1.71 2.17
26 2.47 3.59 2.32 3.29 2.15 2.96 1.95 2.58 1.69 2.13
27 2.46 3.56 2.31 3.26 2.13 2.93 1.93 2.55 1.67 2.10
28 2.45 3.53 2.29 3.23 2.12 2.90 1.91 2.52 1.65 2.06
29 2.43 3.50 2.28 3.20 2.10 2.87 1.90 2.49 1.64 2.03
30 2.42 3.47 2.27 3.17 2.09 2.84 1.89 2.47 1.62 2.01
40 2.34 3.29 2.18 2.99 2.00 2.66 1.79 2.29 1.51 1.80
80 2.21 3.04 2.06 2.74 1.88 2.42 1.65 2.03 1.32 1.49
120 2.18 2.96 2.02 2.66 1.83 2.34 1.61 1.95 1.25 1.38
2.10 2.80 1.94 2.51 1.75 2.18 1.52 1.79 1.00 1.00
Bibliographie et logiciels
Quelques elements de bibliographie commentee
1. Livres classiques de reference.
Dacunha-Castelle D., Duo M. Probabilites et Statistique, Tomes I et II, Masson (2`eme
edition) 1994.
Dacunha-Castelle D., Duo M. Exercices de Probabilites et Statistique, Tomes I et II,
Masson (2`eme edition) 1994.
Ouvrages riches couvrant un large champ des probabilites et de la statistique mathema-
tique. Redaction assez condensee, de nombreuses proprietes etant introduites ` a partir des
exercices. Niveau mathematique eleve (Matrise forte ou 3`eme cycle).
Saporta G., Probabilites, Statistique et Analyse des Donnees, 2`eme edition, Technip, 1990.
Ouvrage con cu ` a partir dun enseignement du Conservatoire National des Arts et Metiers.
Tr`es bonne lisibilite ` a partir de connaissances mathematiques de niveau premier cycle. Con-
fronte plusieurs approches des donnees.
Monfort A. Cours de Statistique Mathematique, Economica, 1988.
Ouvrage classique oriente vers les proprietes mathematiques sous-jacentes aux mod`eles de
la statistique.
Lebart L., Morineau A., Piron M. A. Statistique exploratoire multidimensionnelle (2`eme
edition), Dunod, 1997.
Ouvrage de reference en Analyse des Donnees multidimensionnelles, dont il couvre les
principales branches. Tr`es bonne lisibilite ` a partir de connaissances mathematiques de niveau
premier cycle.
259
260 BIBLIOGRAPHIE ET LOGICIELS
2. Livres orientes vers des mod`eles ou des domaines dapplication.
Bernier J., Parent E., Boreux J.J. Statistiques pour lenvironnement. Traitement bayesien
des incertitudes, Editions Tec et Doc, Lavoisier, 2000.
Acc`es ` a la statistique bayesienne, ` a partir dun domaine dapplication o` u elle est parti-
culi`erement pratiquee.
Bouyer J., Epidemiologie : principes et methodes quantitatives, Editions INSERM (1993).
Tr`es clair pour debuter sur des methodes usitees en statistique medicale.
Conover W.J. Practical nonparametric statistics (2nd edition), J. Wiley and sons, 1980.
Presentation compl`ete des bases de la statistique non parametrique ; exercices corriges ;
nombreuses tables et references.
Gourieroux C., Econometrie des variables qualitatives, Economica (1989).
Ouvrage tr`es theorique, mais accompagne de nombreux exemples.
Robert C.P. Lanalyse statistique bayesienne, Economica,1992.
Ouvrage tr`es complet sur les methodes bayesiennes. Existe aussi en version anglaise.
261
Deux logiciels
Les logiciels indiques ici sont dun acc`es gratuit et concus dans un but pedago-
gique. Leur pratique peut fournir un complement utile aux travaux pratiques qui
sont proposes dans le cadre de ce cours `a laide du logiciel SCILAB.
SMEL (Statistique Medicale En Ligne)
Il sagit dun outil fran cais dapprentissage `a la statistique `a la fois par simulation interac-
tive et par emploi de donnees reelles. Il est structure en 4 chapitres : Probabilites, Statistique
descriptive, Tests, Estimation.
Accessible sur : http ://www. math-info.univ-paris5.fr/smel
R
Logiciel gratuit proche du logiciel S, qui est lun des logiciels les plus couramment utilises
par les statisticiens professionnels. Les lignes suivantes sont extraites de sa presentation dans
une lettre intitulee R FAQ (Frequently Asked Questions about R), qui est disponible et
reguli`erement mise `a jour sur http ://www.ci.tuwien.ac.at/-hornik/R/ :
R is a system for statistical computation and graphics. It consists of a language plus a
run-time environment with graphics, a debugger, acccess to certain system functions, and the
ability to run programs stored in script les .. it is very similar in appearance to S. R has a
home page at http///www.r-project.org .
Voici quelques autres references utiles sur R :
http ://www.univ-st-etienne.fr/infsci/linfo/l8/tp1/tp1.html (introduction en fran cais)
http ://www.agr.kuleuven.ac.be/vakken/StatisticsByR/ (presentation et references en an-
glais)
http ://www.ma.hw.ac.uk/ stan/R/ (presentation et references en anglais)
http ://rweb.stat.umn.edu/Rweb/ (interface web de R)
http ://www.stat.Berkeley.EDU/users/terry/zarray/Html/Rintro.html (applications aux
microarrays)
Index
a posteriori, 30
a priori, 30
absolue continuite, 226
AIC, 163
BIC, 163
Akake (Crit`ere d), 163
algorithme dapprentissage, 174
algorithme des k-plus proches voisins, 178
algorithme par noyau, 178, 179
algorithme par partition, 178, 179
ACP, 201
analyse de la variance, 35, 61
apprentissage, 173
AR (Processus), 149
canonique, 150
AR() (Ecriture)
dun processus MA, 154
AR() (Ecriture)
dun processus ARMA, 158
ARMA (Processus), 157
canonique, 157
causal, 157
Densite spectrale dun, 159
inversible, 157
minimal, 157
Autocorrelation (Matrice d), 140
Autocorrelogramme
partiel, 140
simple, 139
Autocovariance (Fonction d), 139
biais, 14, 182
biais-variance, 182
Blancheur (Test de), 142
borelien, 227
Box-Cox (Methode de), 164
Bruit blanc
faible, 137
fort, 137
capacite, 181
caract`ere predictif, 36
classement, 174
classement binaire, 174, 176
classication, 174, 211
classication ascendante hierarchique, 214
classication binaire, 176
coecient de determination, 56
Coin (Methode du), 158
complexite, 181
composantes principales, 207
consistance, 177
contribution `a linertie, 210
correlation, 235
covariance, 235
decentrage, 50
Decomposition saisonni`ere, 145
`a laide de la regression lineaire, 145
densite, 227, 230
Densite spectrale, 143
densite (calcul de), 230, 232, 241
densite multi-dimensionnelle, 231
distance du
2
, 65
Durbin-Levinson (Algorithme de), 141
echantillon, 12
echantillons apparies, 93
ensemble dapprentissage, 174
erreur dapproximation, 182
erreur destimation, 182
erreur de generalisation, 174
erreur laisser-un-de-c ote, 179
erreur de 1
`ere
esp`ece, 24
erreur de 2
`eme
esp`ece, 24
esperance, 233, 235
conditionnelle, 238
262
INDEX 263
empirique, 236
espace mesurable, 223, 225
estimateur, 14
ameliore, 18
asymptotiquement normal, 15
consistant, 15
convergent, 15
des moindres carres, 54
du maximum de vraisemblance, 17
preferable, 14
sans biais, 14
estimateur de Nadaraya-Watson, 178
estimation, 11, 13
ev`enements, 223
independants, 239, 240
ex-aequo, 96
facteur, 33
aleatoire, 33
contr ole, 33
modalites, 33
qualitatif, 33
quantitatif, 33
fonction cible, 174
fonction de prediction, 174
fonction oracle, 174
fonction de repartition, 228
empirique, 90
fractile, 20
homoscedasticite, 34
hypoth`ese
alternative, 24
bilaterale, 42
nulle, 24
unilaterale, 42
i.i.d., 9, 12
inegalite de Jensen, 236
inertie, 202
Innovation, 149
intervalle de conance, 11, 19
Jensen, 236
log-vraisemblance, 17
loi, 224
beta, 249
binomiale, 242, 251
de Bernoulli, 242
de Dirac, 242
de Fisher, 247
de Fisher decentree, 50
de Pareto generalisee, 114
de Poisson, 126, 244, 251
de Student, 247, 251
de Weibull, 249
du
2
, 246, 251
du
2
decentree, 50, 246
exponentielle, 248
Gamma, 248
gaussienne, 244, 245
GEV, 111
hypergeometrique, 243
multinomiale, 243
normale, 244, 245
uniforme, 248
loi conditionnelle, 241
loi forte des grands nombres, 13
loi image, 224
loi marginale, 225
loi produit, 12, 225
MA (Processus), 153
MA (Processus)
canonique, 154
MA() (Ecriture)
dun processus AR, 150
dun processus ARMA, 157
machines `a vecteurs supports, 183
matrice de covariance, 235
mesure de Lebesgue, 230, 231
mesure de probabilite, 223
mesure image, 230
minimisation du risque empirique, 181
mod`ele statistique, 6
mod`ele domine, 12
mod`ele parametrique, 12
moyenne empirique, 13
niveau dun test, 24, 27
noyau, 183
ordre stochastique, 20, 100, 228
264 INDEX
Periodogramme, 144
param`etre, 6
plans dexperience, 33
Portmanteau (Test de), 142
prediction, 52
principe de Neyman, 24
probabilite conditionnelle, 236
probabilite empirique, 236
probabilite puissance, 240
Processus
faiblement stationnaire, 138
fortement stationnaire, 138
non stationnaire DS, 139
non stationnaire TS, 139
p-valeur, 27, 46
qualite de projection, 210
quantile, 20
R
2
, 56
regresseurs, 52
regression, 52, 62
droite de, 37
lineaire simple, 37, 53, 54, 58
logistique, 71
regression (aux moindres carres), 174, 176
rang, 88
region critique, 24
reseaux de neurones, 182
risque, 174
Serie temporelle, 131, 137
`a temps continu, 137
`a temps discret, 137
multivariee, 137
univariee, 137
Schwarz (Crit`ere de), 163
SSE, 49
SSM, 49
statistique, 13
dordre, 89
de test, 27
exhaustive, 18
libre, 88
support vector machine, 183
surapprentissage, 181
table danalyse de la variance, 51
TCL, 13
test, 11, 24
convergent, 27
dhomogeneite des moyennes, 47
des signes et rangs, 94
de comparaison, 75, 79
de Kolmogorov, 90
de Kolmogorov-Smirnov, 97
de Mann et Whitney, 98
de Wilcoxon, 94
du
2
, 65
du
2
adaptatif, 67
du
2
dindependance, 67
niveau, 24, 27
puissance, 24
theor`eme
central limite, 13
de Cochran, 37
de Glivenko-Cantelli, 251
tribu, 227
tribu borelienne, 229
validation croisee, 179
variable
`a expliquer, 52
aleatoire, 224
dependante, 52
discr`ete, 229
endog`ene, 52
exog`ene, 52
explicative, 52
independante, 52, 239, 240
variance, 234, 235
asymptotique, 16
empirique, 236
variation
interclasses, 49
intraclasses, 49
totale, 49
vecteur aleatoire, 229
vraisemblance, 12
Yule Walker (Equations de), 151
zone de rejet, 24