Académique Documents
Professionnel Documents
Culture Documents
= =
. Pour des sries ergodiques stationnaires on a
[ ] lim
n
p x E x
= .
Pour une distribution unimodale symtrique ces trois indicateurs sont gaux
5
Lorsque des donnes aberrantes sont prsentes dans les observations des estimateurs robustes
du centre de la distribution autres que la mdiane ont t proposs :
La moyenne winsorise (winsorized mean) : les k observations les plus petites sont
remplaces par la k+1
ime
plus petite observation et les k observations les plus grandes
sont remplaces par la k+1
ime
plus grande observation, soit (les rangs des observations
sont mis entre parenthses pour signifier que les donnes ont t tries par ordre
croissant) :
( ) ( )
1
( 1) ( ) ( )
1
1
1 1
n k
wk k i n k
i k
x k x x k x
n
+
= +
| |
= + + + +
|
\
Par exemple avec les 10 observations suivantes : 0, 1, 7, 8, 9, 10, 11, 12, 13, 14 on a :
( ) 0 1 7 8 9 10 11 12 13 14 /10 85/10 8.5 x = + + + + + + + + + = = , et
( )
2
7 7 7 8 9 10 11 12 12 12 /10 95/10 9.5
w
x = + + + + + + + + + = =
Pour une distribution symtrique
wk
x est un estimateur sans biais de lesprance mais
sa distribution est non normale, et ceci mme si les
i
x sont gaussiens. Sa variance est
donn par :
( )( ) ( ) ( )( )
1
2 2 2
2
( 1) ( ) ( )
2
1 1
n k
wk k wk i wk n k wk
i k
s k x x x x k x x
+
= +
= + + + +
La moyenne tronque (trimmed mean) : les k observations les plus petites et les k
observations les plus grandes sont simplement omises dans les calculs. Ainsi :
( )
1
1
2
n k
tk i
i k
x x
n k
= +
=
Son cart-type est donn par :
( ) ( )
2
2
2 2 1
wk
tk
s
s
n k n k
=
La dispersion dune distribution
Les mesures les plus usites sont naturellement la variance et/ou lcart-type. Sur un plan
purement descriptif on peut employer ltendue qui est simplement la diffrence entre la plus
grande et la plus petite valeur dune variable ayant au moins une chelle dintervalle. Lcart
interquartile, gal la diffrence entre les valeurs correspondant aux premier et troisime
6
quartiles, est aussi utilis notamment lorsque lon souponne lexistence doutliers aux
extrmits de la distribution empirique. Par dfinition Q3-Q1 contient 50% des observations.
Pour une distribution normale on peut obtenir un estimateur de lcart-type en divisant lcart
interquartile par 1.34898.
Une mesure de dispersion parfois utile est le coefficient de variation, rapport de lcart-type
la moyenne empiriques. Cette mesure facilite les comparaisons de dispersion entre
chantillons pour lesquels la taille des observations est trop diffrente. En effet, lemploi des
carts-types ou des variances nest pas recommandable, leurs valeurs tant dpendantes de la
taille des observations alors que le coefficient de variation est un nombre pur. Par exemple
avec 2 chantillons
1
{1.0,1.5, 2.0,1.8,1.4, 2.1, 0.8,1.2} E = et
2
{10,15, 20,18,14, 21, 8,12} E = ,
on a
1
1.475
E
x = ,
2
14.75
E
x = ,
1,
0.468
MCO
s = ,
1,
4.683
MCO
s = ( MCO signifie que lon a
recouru une pondration par le nombre de degrs de libert) mais ( )
1
0.468 1.475
E
cv =
( )
2
4.683 14.75 .3175
E
cv = = = : avec cette mesure la variabilit dans
2
E est identique celle
affrente
1
E et non pas 10 fois plus grande comme le ferait conclure lexamen des cart-
types (imaginez que les valeurs soient des prix exprims dans une certaine monnaie dans
1
E
et dans une autre monnaie pour
2
E avec un taux de conversion de 1 contre 10 et rflchissez
la mesure de variabilit la mieux adapte). Notez que dans les sorties SAS ce coefficient de
variation est multipli par 100.
SAS, dans la procdure UNIVARIATE, propose dautres estimateurs robustes de la
dispersion (la diffrence moyenne de Gini, la mesure MAD de Hampel, et les statistiques
n
Q
et
n
S de Rousseeuw et Croux. Voir la documentation pour plus de dtails sur ces quantits
relativement peu usites).
Skewness et Kurtosis
Tendance centrale et dispersion ne sont pas les seules caractristiques intressantes dune
distribution. Au-del des moments dordre 1 et 2 on peut tre amen sinterroger sur les
proprits des moments dordre suprieurs, notamment 3 et 4 qui vont nous renseigner sur sa
symtrie et sa courbure. Ces quantits sont intressantes lorsque lon veut discuter de
lhypothse de normalit laquelle on se rfre souvent pour mener des tests paramtriques.
7
La skewness
Il sagit donc de prciser la symtrie ou la dissymtrie de la distribution. Le coefficient de
skewness est dfini comme le rapport du moment dordre 3 la puissance troisime de son
cart-type :
3
3
m
sk
=
et il est gnralement estim par (cest la formule par dfaut de SAS, elle correspond
loption VARDEF=DF dans les procdures qui lautorisent):
( ) ( )
2
3
3
1 2
m n
sk
n n s
=
avec ( )
3
1
3
1
n
i
m n x x
Si on prcise VARDEF=N alors il ny a pas de correction sur les pondrations et la skewness
et estime simplement par :
3
1
1
n
i
x x
sk n
s
| |
=
|
\
Lorsque la distribution est symtrique autour de lesprance sk vaut zro. Il est positif pour
une distribution prsentant une asymtrie droite et ngatif pour une asymtrie gauche. On
utilise parfois galement le coefficient de skewness de Pearson dfini par :
( ) 3
sk
x M
P
s
n
j
j i
i
m n x x
=
=
, 2, 4 j =
Si on prcise VARDEF=N alors il ny a pas de correction sur les pondrations et la skewness
et estime simplement par :
9
4
1
1
3
n
i
x x
Ku n
s
| |
=
|
\
Pour une gaussienne 0 Ku = .
Notez quon trouve galement dans la littrature une autre mesure :
( )( )
( ) ( )
( ) 2 3 3 1
'
1 1 1
n n Ku n
Ku
n n n
= +
+ +
Pour une gaussienne ' 3 Ku = .
Le graphique ci-aprs reprsentent les densits dune gaussienne centre rduite et dune
student 5 degrs de libert pour laquelle ' 9 Ku = et qui est donc leptokurtique (on a
volontairement omis la lgende : trouvez la courbe qui lui correspond ! au passage, trouver
aussi la valeur de la skewness pour cette student).
-4 -2 2 4
0.1
0.2
0.3
0.4
Un test de nullit de Ku peut passer par la cration dune gausienne centre-rduite sous H0 :
( )( )( )
( )
1 2 3
24 1
n n n
z Ku
n n
=
Ce test nest pas implment sous SAS.
Jarque et Bera proposent de combiner skewness et kurtosis pour dvelopper un test
dhypothse nulle correspondant une distribution symtrique et msokurtique :
10
2 2
24 6
Ku sk
jb n
| |
= +
|
\
Sous H0, jb possde une distribution de chi-2 deux degrs de libert. Ce test nest pas
implment sous SAS sauf dans la proc AUTOREG o il est prsent comme un test de
normalit des rsidus (on ne teste en fait que laspect symtrique et msokurtique de la
distribution).
TESTS DHYPOTHESE SUR LA DISTRIBUTION
Pralablement la conduite des tests dhypothses sur les paramtres dun modle il est
souvent utile de connatre la distribution des observations. Par exemple lhypothse de
normalit est souvent un pralable la suite des oprations et cest donc cette hypothse de
distribution gaussienne qui nous intressera ici au premier chef, sachant que dautres
distributions continues peuvent tre galement spcifies (lognormale, exponentielle, gamma,
beta et weibull).
Proc UNIVARIATE notamment propose plusieurs tests permettant de savoir si on peut
raisonnablement accepter (cad que lon ne rejette pas au seuil de risque choisi) que les
observations sont tires dans une distribution spcifie a priori. Trois test fonds sur la
fonction de rpartition empirique (EDF tests) sont proposs : Kolmogorov-Smirnov,
Anderson-Darling et Cramer-von Mises. Par ailleurs lorsque le nombre dobservations est
infrieur 2000 et que la distribution spcifie a priori est la gaussienne, la procdure value
aussi la statistique de Shapiro-Wilk. Un certain nombre de graphiques sont galement
accessibles via loption PLOT et les commandes HISTOGRAM, PROBPLOT, QQPLOT.
Enfin un test dadquation dune distribution spcifie continue ou discrte un ensemble de
donnes observes souvent employ est le test du Chi2.
Le test de Shapiro-Wilk
Cest un test ddi lhypothse de normalit. Etant donn un ensemble dobservations
(1)
x ,,
( ) n
x tri par ordre croissant, la statistique est obtenue comme :
11
( )
2
( )
1
2
1
n
i i
i
n
i
i
a x
W
x x
=
=
| |
|
\
=
,
o les coefficients de pondrations
i
a prennent des valeurs qui ne dpendent que de la taille
de lchantillon n . Cette statistique est comprise entre 0 et 1. Des petites valeurs de W
conduisent au rejet de lhypothse nulle (W possde une distribution fortement asymtrique si
bien quune valeur telle que 0.9 peut tre considre comme petite selon la documentation
de SAS). Lorsque le nombre dobservation est suprieur 3, une approximation due
Royston est mise en uvre qui conduit dfinir une gaussienne centre-rduite :
( ) ( ) ( )
log log 1 / z W = si 4 11 n , et
( ) ( )
log 1 / z W = si 12 2000 n ,
les coefficients , , ayant t obtenus par simulations. Une valeur leve en valeur absolue
de z conduisant au rejet de la normalit.
Les tests EDF
Lide est ici de comparer la fonction de rpartition thorique spcifie, ( ) F x , et la fonction
de rpartition empirique, ( )
n
F x , dfinie par :
( ) 0
n
F x = pour
(1)
x x < ,
( )
n
i
F x
n
= pour
( ) ( 1) i i
x x x
+
< et 1, , 1 i n = ,
( ) 1
n
F x = pour
( ) n
x n .
Cest une fonction en escalier avec une hauteur de marche gale
1
n
. On peut aussi la dfinir
comme :
1
1
( ) 1( )
n
n i
i
F x x x
n
=
=
=
1
1
( ( ) ( )) ( )
n
i
i
I F x F x F x
n
=
,
o
, UNI n
F est la fonction de rpartition empirique construite avec n ralisations de variables
alatoires uniformes dans [0,1].
Au total,
[ ]
,
0,1
sup ( ) ( ) sup ( )
n UNI n
x y
D F x F x F y y
= =
et on voit que le dernier terme ne fait pas intervenir F .
La dernire tape repose sur le thorme de Kolmogorov (que nous ne dmontrons pas) :
Pour un ensemble de n variables alatoires iid de fonction de rpartition continue F on a
13
( ) ( )
n
P nD x K x
=
=
.
Pour les faibles valeurs de n on trouve des tables donnant les valeurs critiques aux seuils de
risque usuels ; pour les tailles dchantillon importantes on peut utiliser les proprits
asymptotiques et donc calculer ( ) K x .
Les tests dAnderson-Darling et de Cramer-von Mises
Ce sont des tests drivs du test de Kolmogorov-Smirnov mais bass sur la diffrence
quadratique entre les fonctions de rpartition thorique suppose et empirique
( )
2
( ) ( )
n
F x F x . Ils ont donc comme forme gnrale une expression du type :
( )
2
( ) ( ) ( ) ( )
n
Q n F x F x x dF x
+
On conclut au rejet de lhypothse nulle lorsque
2
W est suprieure sa valeur
critique.
Anderson-Darling : la fonction de pondration est donne par :
( )
1
( ) ( ) 1 ( ) x F x F x
= (
et la statistique de test par :
( )
2 1
( ) ( 1 )
1
(1 2 ) log( ) log(1 )
n
i n i
i
A n n i y y
+
=
(
= +
14
(on rappelle que lindice mis entre parenthse signifie que lon considre les
observations classes par ordre croissant et que
1
( ) ( )
( )
i i
y F x
= )
Elle donne plus de poids aux observations situes dans les queues de la distribution
que ne le fait la statistique de Kolmogorov-Smirnov (vous pouvez vrifier ceci
aisment : la fonction
1
( ) x
est croissante puis dcroissante avec ( ) F x et atteint
son maximum en ( ) 0.5 F x = ) et peut donc tre intressante dans les cas ou ce sont
prcisment les dviations importantes par rapport au centre de la distribution qui
importent. La dcision est de rejeter lhypothse nulle lorsque
2
A est suprieure
sa valeur critique.
Un exemple dapplication
Soit par exemple les notes sur 20 obtenues dans une certaine matire par trente-huit tudiants
pris au hasard dans une promotion. On se demande si on peut accepter lhypothse de tirage
dans une gaussienne.
data notes ;
input note @@ ;
cards ;
8.0 7.5 9.0 15.5 12.0 13.0 6.5 5.0 12.0 9.0 10.5 11.5 3.5 14.5 12.0 8.5
11.0 10.5 9.0
11.5 10.0 14. 7.5 10.5 11.0 8.5 12.0 4.5 9.5 12.0 11.0 8.0 7.5 12.5 10.5
9.0 5.0 10.0
;
proc univariate data=notes normal ;
var note ;
histogram note /
kernel(k=normal c=mise w=5)
normal (mu=est sigma=est);
probplot note / normal (mu=est sigma=est);
run ;
Loption normal utilise dans la ligne dappel de la procdure spcifie que la rpartition F
thorique des critures prcdentes est la rpartition dune gaussienne. La commande
histogram demande laffichage dun histogramme et loption normal (mu=est sigma=est)
lui superpose la densit dune gaussienne dont les paramtres sont la moyenne et lcart-type
estims sur lchantillon. Loption kernel(k=normal c=mise w=5) rclame laffichage de
lestimation de la densit par une fonction de kernel de type normal ; c=mise slectionne le
bandwidth parameter par minimisation de lintgrale de lerreur quadratique moyenne et
w=5 gre lpaisseur du trait (voir le cours de C. Hurlin pour plus de dtails). Linstruction
probplot affiche un graphique comparant les observations ordonnes avec les percentiles
dune distribution thorique, ici une gaussienne.
15
Lexcution de ce code donne la sortie suivante (lensemble des informations nest pas
reproduit) :
La procdure UNIVARIATE
Variable : note
Moments
N 38 Somme poids 38
Moyenne 9.81578947 Somme obs. 373
cart-type 2.74704031 Variance 7.54623044
Skewness -0.3285174 Kurtosis -0.0076241
SS non corrige 3940.5 SS corrige 279.210526
Coeff Variation 27.9859334 Moy. erreur std 0.44562878
Mesures statistiques de base
Position Variabilit
Moyenne 9.81579 cart-type 2.74704
Mdiane 10.25000 Variance 7.54623
Mode 12.00000 tendue 12.00000
Intervalle interquartile 4.00000
Tests de normalit
Test -Statistique-- -Seuil de significativit-
Shapiro-Wilk W 0.978335 Pr < W 0.6583
Kolmogorov-Smirnov D 0.098347 Pr > D >0.1500
Cramer-von Mises W-Sq 0.050157 Pr > W-Sq >0.2500
Anderson-Darling A-Sq 0.330941 Pr > A-Sq >0.2500
Au seuil de 10% aucune des quatre statistiques ne permet de rejeter lhypothse de normalit
(avec peu de points il est prfrable dutiliser un seuil de risque plus lev que ceux retenus
usuellement).
0 2 4 6 8 10 12 14 16 18 20
0
5
10
15
20
25
30
P
e
r
c
e
n
t
not e
Globalement ce graphique confirme bien que les observations peuvent tre considres
comme des ralisations dune gausienne, avec cependant une queue de distribution gauche
16
un peu paisse correspondant une frquence de notes basses plus importante quattendue
sous lhypothse de distribution normale.
Finalement le graphique des probabilits obtenues reproduit ci-aprs confirme bien les
prcdentes conclusions (en abscisse figure les percentiles.
1 5 10 25 50 75 90 95 99
2. 5
5. 0
7. 5
10. 0
12. 5
15. 0
17. 5
n
o
t
e
Nor mal Per cent i l es
Pour rappel, on donne dans le tableau suivant, repris N. Curtis, les rgles dinterprtation
des graphiques obtenus par les instructions probplot et/ou qqplot.
Pour mmoire, on prcise encore ici quelques amliorations intressantes pouvant tre
apportes linstruction histogram. En particulier, il est possible via loption inset de faire
apparatre dans le graphique les valeurs de certaines quantits, de grer le centre des barres
17
ainsi que leur nombre par loption midpoints, de tracer une verticale pour une valeur
particulire de labscisse, de spcifier lchelle en termes de frquence dobservations
reprsentes par les barres. Ainsi le code suivant :
proc univariate data=notes normal;
var note;
histogram note /
kernel(k=normal c=mise w=5)
normal (mu=est sigma=est)
midpoints=0 to 20 by 2
href=10
vscale=count;
inset n="N" (2.0)
mean="Moyenne" (5.2)
std="ecart-type" (5.2)
/pos=nw height=3;
run;
renvoie le graphe :
0 2 4 6 8 10 12 14 16 18 20
0
2
4
6
8
10
12
C
o
u
n
t
not e
Le test du Chi2
Ce test peut tre utilis sur des distributions discrtes et continues spcifies a priori. Les
classes dfinies par les distributions discrtes sont naturellement identifies par les
donnes traites. Par exemple une rpartition des individus selon leur rgion dhabitation, le
nombre de personnes constituant un mnage, etcDans le cas de distributions continues, les
observations doivent tre regroupes en classes ce qui induit une part darbitraire affectant les
conclusions obtenues par son application et de toute faon entrane une perte dinformation.
18
Sous 0 H : la fonction de rpartition est
X
F , o
X
F est donc connue, il est toujours
possible de calculer la probabilit dappartenance une classe donne, soit
k
p , 1, , k K =
o K est le nombre de classes. Dans ces conditions, si 0 H est vraie, leffectif attendu dans la
classe k avec un chantillon de taille n est simplement
k k
e np = . Soit
k
f leffectif observ
dans la classe k . Il semble raisonnable de regarder lcart entre ces affectifs attendus et
observs : si lcart est faible on acceptera raisonnablement 0 H , sil ne lest pas on la
rejettera. Tout le problme est de juger de la significativit dun tel cart. Pour cela on dfinit
la statistique Q comme :
( )
2
1
K
k k
k k
f e
Q
e
=
La distribution de Q distance finie est difficile obtenir. En revanche asymptotiquement, et
en se fondant sur des arguments renvoyant au test LRT dvelopp dans le cadre des
estimateurs du maximum de vraisemblance, on peut montrer plus aisment que cette
distribution va tendre vers une loi de Chi2 1 K dgrs de libert. Cette approximation est
cependant mauvaise pour les faibles probabilits et une rgle souvent pose est que leffectif
thorique de chaque classe doit tre au moins gal 5, ce qui peut impliquer des
regroupements de classes initiales. Par ailleurs la loi
X
F dpend gnralement de p
paramtres inconnus que lon doit estimer pralablement au calcul de Q. Dans ces cas, le
nombre de degrs utiliser pour le Chi2 est 1 K p . Par exemple, si on veut juger de
ladquation une normale de paramtres et
2
inconnus, on doit les remplacer par et
2
s et Q est compare la valeur critique dun Chi2 3 K degrs de libert. En thorie
galement pour que ladquation la loi asymptotique soit justifie il faudrait que les
paramtres inconnus soient estims par la mthode du maximum de vraisemblance sur les
donnes regroupes en classes et non pas, pour les distributions continues, sur les
observations initiales non regroupes.
Sous SAS cette statistique est disponible dans la procdure FREQ. Par dfaut loption CHISQ
suppose des proportions gales dans chacune des classes, soit des effectifs attendus gaux
/
k
e n K = pour 1, 2, , k K = . Il est naturellement possible de spcifier des effectifs attendus
diffrents avec loption TESTF=(liste de frquences), ou des proportions attendues avec
loption TESTP=(liste de proportions). Par ailleurs il est possible de demander le calcul du
seuil de significativit exact en plus de celui donn par lapproximation asymptotique.
19
Soit lexemple dapplication suivant : On pense que sur 100 tudiants de premire anne
toutes spcialits de formation confondues, un seul obtient son anne avec la mention trs
bien , quatre avec la mention bien , dix avec la mention assez bien , quarante-cinq avec
la mention passable et que quarante sont ajourns. Des donnes ont t collectes dans
deux universits. Elles paraissent dans le programme suivant :
data repartition;
input univ $ mention $ eff @@;
cards;
univA tb 22 univB tb 17 univA b 55 univB b 48 univA ab 243 univB ab 155
univA p 1082 univB p 682 univA aj 798 univB aj 573
;
run;
Il sagit de savoir si ces donnes sont compatibles avec la distribution suppose des mentions
et cela au sein de chacune des universits. La ralisation de lexrcice faisant lvidence
appel loption by univ , il convient de procder un tri pralable :
proc sort data=repartition;
by univ;
run;
Le test lui-mme est ralis au moyen des instructions qui suivent :
proc freq data=repartition order=data;
by univ;
tables mention / testp=(1 4 10 45 40);
weight eff;
run;
Pour chacune des 5 classes de mentions correspond donc la proportion attendue prcise dans
loption testp. On ne demande pas le calcul du seuil de significativit exact de la statistique
du Chi2 le temps de ce calcul tant prohibitif. Loption order=data force la procdure
ordonner les classes de mention selon lordre quelles ont dans le fichier de donnes, soit
(tb,b,ab,p,aj). En son absence SAS aurait utilis par dfaut lordre lexicographique
(ab,aj,b,p,tb) et il faudrait naturellement en tenir compte dans lindication de la liste des
proportions attendues, laquelle est prcise par testp=(1 4 10 45 40).
Les rsultats obtenus sont :
20
------------------------------------------- univ=univA --------------------------------------------
La procdure FREQ
Test Cumulative Cumulative
mention Frquence Percent Percent Frequency Percent
tb 22 1.00 1.00 22 1.00
b 55 2.50 4.00 77 3.50
ab 243 11.05 10.00 320 14.55
p 1082 49.18 45.00 1402 63.73
aj 798 36.27 40.00 2200 100.00
Test du Khi-2#pour proportions spcifies
Khi-2 30.9699
DDL 4
Pr > Khi-2 <.0001
Taille de l'chantillon = 2200
------------------------------------------- univ=univB --------------------------------------------
La procdure FREQ
Test Cumulative Cumulative
mention Frquence Percent Percent Frequency Percent
tb 17 1.15 1.00 17 1.15
b 48 3.25 4.00 65 4.41
ab 155 10.51 10.00 220 14.92
p 682 46.24 45.00 902 61.15
aj 573 38.85 40.00 1475 100.00
Test du Khi-2#pour proportions spcifies
Khi-2 3.7670
DDL 4
Pr > Khi-2 0.4385
Taille de l'chantillon = 1475
Pour lUniversit B les donnes sont compatibles avec la distribution suppose (statistique
Q=3.7670, seuil de significativit asymptotique=0.4385). En revanche, pour lUniversit B
nous devons rejeter cette adquation au seuil de 5%.
Le calcul du seuil de significativit exact peut demander un temps dexcution assez long que
nous avons jug ici prohibitif. Il est possible dinterrompre les calculs des seuils exacts via,
sous Windows, les touches Ctrl-Break (Break=Arrt dfil). Il est normalement possible dans
ces conditions dvaluer le seuil exact avec un temps de calcul nettement plus rduit grce
des simulations de Monte Carlo si lon ne fait pas confiance lapproximation asymptotique.
Cette possibilit sera tudie ultrieurement, lemploi de loption MC conjointement avec
celle de BY gnrant des erreurs dans cette procdure FREQ, au moins jusqu la version 8.02
(Alert Note SN-005432).
21
Enfin il tait possible de tester lhypothse nulle sur la totalit des tudiants sans tenir compte
de leur spcialit de formation. Un tel exercice conduit ainsi aux rsultats donns ci-dessous :
La procdure FREQ
Test Cumulative Cumulative
mention Frquence Percent Percent Frequency Percent
tb 39 1.06 1.00 39 1.06
b 103 2.80 4.00 142 3.86
ab 398 10.83 10.00 540 14.69
p 1764 48.00 45.00 2304 62.69
aj 1371 37.31 40.00 3675 100.00
Test du Khi-2#pour proportions spcifies
Khi-2 29.8565
DDL 4
Pr > Khi-2 <.0001
Taille de l'chantillon = 3675
Lhypothse nulle est ainsi rejete sur lchantillon total. Ceci illustre la ncessit dans ce
type de test de tenir compte dune possible htrognit des individus. Ainsi dans le cas
tudi, la rpartition suppose a priori nest pas invalide sur le sous-chantillon des tudiants
de lUniversit B.
TESTS SUR LA VALEUR CENTRALE
Avant daborder les tests non paramtriques nous allons faire quelques rappels sur les tests
paramtriques employs habituellement pour faire rpondre des interrogations sur la
tendance centrale dune distribution et sa mise en uvre sous SAS. Les aspects thoriques
sont dans cette premire partie considrs comme dj connus et ne sont donc pas dtaills.
LAPPROCHE PARAMERIQUE
Le test le plus commun pour tester une valeur particulire de lesprance ou lgalit des
esprances des moyennes de deux groupes est un test de student. Si le nombre de groupes est
suprieur deux on doit raliser une analyse de la variance.
22
Ces tests supposent que les chantillons sont des tirages de gaussiennes desprances
inconnues. Cependant on peut toujours se rfrer un thorme central-limite : mme si les
distributions ne sont pas normales, la moyenne empirique tend vers une gaussienne lorsque le
nombre dobservations, n, est grand. En pratique au-del dune vingtaine de points
lapproximation est souvent juge suffisante.
Test de student sur lesprance avec un seul chantillon
Il repose sur le fait que sous ( ) 0: H E x c = , ( 1)
x
x c
t t n
s
= avec
1
1
n
i
i
x x
n
=
=
,
( )
2
2
1
1
( 1)
n
i
i
s x x
n
=
=
, et
x
s
s
n
= =cart-type de la moyenne.
Sous SAS, on peut utiliser au moins trois procdures pour raliser ce test : TTEST, MEANS,
et UNIVARIATE.
Par exemple, on si on peut accepter lhypothse que le centre de la distribution des notes
utilises dans lexemple prcdent vaut 10.
La proc TTEST de SAS/STAT demande simplement que lon spcifie la valeur teste, c, avec
loption h0=c, le seuil de risque de premire espce, , choisi au moyen de loption
alpha= et, naturellement, le nom de la variable contenant les observations. Dans le cas
prsent, la syntaxe est donc :
proc ttest data=notes h0=10 alpha=0.05 ;
var note ;
run ;
La sortie gnre est :
The TTEST Procedure
Statistics
Lower CL Upper CL Lower CL Upper CL
23
Variable N Mean Mean Mean Std Dev Std Dev Std Dev Std Err Minimum Maximum
note 38 8.9129 9.8158 10.719 2.2396 2.747 3.554 0.4456 3.5 15.5
T-Tests
Variable DF t Value Pr > |t|
note 37 -0.41 0.6817
On y trouve les notes maximales et minimales de lchantillon, le nombre dobservations, la
note moyenne (ici 9.8158) avec indication des bornes dun intervalle de confiance 95% (ici
lesprance a 95 chances sur 100 de se situer entre 8.9129 et 10.719), lestimation de lcart-
type dchantillon s (ici 2.747) avec indication des bornes dun intervalle de confiance
95% (ici lcart-type a 95 chances sur 100 de se situer entre 2.2396 et 3.554). Enfin la valeur
de la statistique
9.8158 10
0.41
2.747
38
t
= = et son niveau de significativit (ici 0.6817) calcul en
supposant une student 37 degrs de libert. On accepterait donc lhypothse nulle au seuil
de 5%.
La proc MEANS construit galement ce test de student mais uniquement pour une valeur de
c gale zro. Ainsi pour obtenir les mmes sorties que prcdemment, il faut passer par une
tape DATA et soustraire 10 aux observations initiales puisquen effet,
0: ( ) 10 0: ( 10) 0 H E x H E x = = . On aurait alors :
data notes2 ;
set notes ;
note=note-10 ;
run;
proc means data=notes2 mean std stderr t probt clm alpha=0.05;
var note;
run;
Les options mean, std, stderr, t, probt et clm demandent respectivement laffichage de la
moyenne et de lcart-type dchantillon (x et ) s , de lcart-type de la moyenne ( )
x
s , de la
statistique t de student, de son niveau de significativit (bi-directionnel) ainsi que les bornes
dun intervalle de confiance 95% pour lesprance (naturellement il faut maintenant ajouter
10 certaines de ces quantits pour retrouver les rsultats affichs par proc TTEST).
24
Lexcution de ce code donne:
The MEANS Procedure
Analysis Variable : note
Lower 95% Upper 95%
Moyenne cart-type Erreur std t Value Pr > |t| CL for Mean CL for Mean
-0.1842105 2.7470403 0.4456288 -0.41 0.6817 -1.0871402 0.7187192
Proc UNIVARIATE autorise galement la ralisation de ce test. Toutefois cette procdure
donnant aussi les rsultats de tests non paramtriques nous la prsenterons ultrieurement.
Test de student didentit des esprances avec chantillon appari
Dans un chantillon appari type on dispose des observations 2 2 de plusieurs variables.
Lexemple type est celui dindividus sur lesquels on a mesur une variable avant et aprs un
traitement.
Lhypothse nulle souvent pose est celle de lgalit des esprances des deux variables et le
test se conduit simplement en ralisant un test de student sur la diffrence des valeurs de la
paire de variables. Soit
i
dif cette diffrence calcule sur le i
ime
individu et c la valeur
suppose (usuellement 0), on a donc 0:
dif
H c = , lalternative pouvant tre unidirectionnelle
ou bidirectionnelle. Sous 0 H la statistique
___
___
dif
dif c
t
s
| |
|
\
= , avec
___
1
i
dif dif
n
=
,
___
2
1
i
dif dif
s
n
| |
|
\
=
et
___
2
2
dif
s
s
n
= ,
suit un student 1 n degrs de libert.
Pour poursuivre lexemple prcdent selon cette logique, nous avons repris les mmes
tudiants et collect les notes obtenues dans une une seconde preuve sur la mme matire
aprs correction de la premire preuve. On est en droit dadmettre que des caractristiques
25
individuelles interviennent de sorte que pour un tudiant donn il ny a pas indpendance de
ses notes dans les deux interrogations. La question est de savoir si la moyenne des notes sest
modifie entre les deux preuves.
data un;
input note1 @@ ;
cards ;
8.0 7.5 9.0 15.5 12.0 13.0 6.5 5.0 12.0 9.0 10.5 11.5 3.5 14.5 12.0 8.5
11.0 10.5 9.0
11.5 10.0 14. 7.5 10.5 11.0 8.5 12.0 4.5 9.5 12.0 11.0 8.0 7.5 12.5 10.5
9.0 5.0 10.0
;
data deux;
input note2 @@ ;
cards;
9.0 7.0 9.5 15.0 13.0 13.0 7.0 6.0 14.0 8.5 11.0 11.0 6.0 14.0 13.5 8.0
10.5 11.5 10.0
10.0 10.5 15.0 9.0 10.0 11.5 9.5 11.0 5.5 12.0 11.0 12.5 9.5 7.0 12.0 12.0
10.0 6.5 9.5
;
data notes;
merge un deux;
run;
Le test seffectue aisment avec la procdure ttest selon :
proc ttest data=notes;
paired note2*note1;
run;
Avec, sur nos donnes les rsultats suivants :
The TTEST Procedure
Statistics
Lower CL Upper CL Lower CL Upper CL
Difference N Mean Mean Mean Std Dev Std Dev Std Dev Std
Err
note2 - note1 38 0.1527 0.4868 0.821 0.8288 1.0167 1.3153
0.1649
T-Tests
Difference DF t Value Pr > |t|
note2 - note1 37 2.95 0.0055
Une lvation significative de la moyenne denviron point est ainsi rvle.
La syntaxe de paired autorise la construction de plusieurs tests avec un seul appel la
procdure FREQ. Ainsi, il est autoris dcrire : paired (x y)*(z*w), ce qui est quivalent
paired x*y x*w y*z y*w. De mme, avec paired (x y):(z*w) on obtient des rsultats
26
similaires ceux donns par paired x*z y*w. La syntaxe autorise galement la rfrence
des arrays avec par exemple : paired (x1-x10):(y1-y10). En revanche, lemploi de
paired interdit lemploi simultan des instructions var et class.
Comme avec le test de student prcdent il est possible demployer les procdures MEANS
ou UNIVARIATE plutt que TTEST. Linconvnient est quil est ncessaire pour ces deux
procdures de crer la diffrence des deux variables, via une tape DATA pralable,
diffrence sur laquelle on fait porter le test.
Test de student de comparaison desprances avec deux chantillons
indpendants
Lhypothse essentielle pour tester lgalit des moyennes de deux alatoires indpendantes
pour lesquelles on dispose de respectivement
1
n et
2
n ralisations est celle dgalit des
variances des alatoires en question. Il est donc important den tester la validit sachant quen
cas de rejet il est encore possible de construire des approximations de la student. Lhypothse
de normalit ne semble pas essentielle : il faut pourtant se mfier de ce test de student lorsque
les distributions sont trs diffrentes de la gaussienne notamment pour de faibles tailles
dchantillons.
1. En cas dgalit des variances : La statistique de test de lhypothse
2 1
0: H c =
(le cas dgalit des moyennes est naturellement obtenu en posant 0 c = ) est
simplement :
( )
2 1
1 2
1 1
Pooled
x x c
t
s
n n
=
+
o
2
pooled
s est la variance estime sur lchantillon constitu par lunion des deux
chantillons initiaux mais faisant cependant appel des moyennes empiriques
diffrentes (ce qui explique le nombre de liberts de la statistique), soit :
2 2
1 1 2 2 2
1 2
( ) ( )
2
i i
pooled
x x x x
s
n n
+
=
+
.
Sous la nulle t possde une distribution de student
1 2
2 n n + degrs de libert.
27
2. Le test dgalit des variances des deux alatoires doit galement vous tre connu : il
repose sur le fait que les statistiques dcart-type calcules sur chaque chantillon
obissent un loi de chi-deux ce qui permet de driver sans difficult une statistique
de Fisher sous
2 2
1 2
0: H = :
( )
( )
2 2
1 2
2 2
1 2
max ,
min ,
s s
F
s s
(
( =
(
Les nombres de degrs de libert tant selon le cas ( )
1 2
1, 1 n n o ( )
2 1
1, 1 n n .
3. En cas dingalit des variances. Le test des moyennes de deux populations
gaussiennes variance ingale est connu sous le nom de problme de Behrens-Fisher.
Plusieurs solutions ont t proposes (Fisher, Welch, Aspin, Qin, Howe, Jin ). SAS,
dans la procdure TTEST, propose de calculer lapproximation dun student selon :
1 2
1 2
a
x x
t
w w
=
+
, avec
2
1
1
1
s
w
n
= et
2
2
2
2
s
w
n
= .
Ensuite deux possibilits sont offertes : soit une approximation du seuil de
significativit de
a
t (Cochran et Cox), soit une approximation du nombre de degrs de
libert de
a
t (Satterthwhaite).
3.1. Approximation de Cochran et Cox . Il sagit dapproximer le seuil de
significativit de
a
t . Cest la valeur du seuil de risque tel que lon vrifie lgalit :
( ) ( )
1 1 2 2 1 2
/
a
t wt w t w w = + + (
o
1
t et
2
t sont les valeurs critiques, au seuil en question, de deux distributions de
student respectivement
1
1 n et
2
1 n degrs de libert. Une autre faon de
comprendre son application est de noter que cette approximation mne au rejet de
lhypothse nulle,
1 2
0: H = , au seuil de risque
0
fix a priori si
a
t est suprieur
une valeur critique obtenue comme moyenne pondre des valeurs critiques au seuil
0
de deux distributions de student respectivement
1
1 n et
2
1 n degrs de libert.
3.2. Approximation de Satterthwhaite. Elle approxime le nombre de degrs de libert
de
a
t selon :
28
( )
2
1 2
2 2
1 1 2 2
( 1) ( 1)
a
t
w w
df
n w n w
+
=
+
.
En rgle gnrale df nest pas un entier.
Par dfaut, ds lors que lon spcifie dans TTEST lingalit des variances,
lapproximation de Satterthwhaite est utilise.
4. Exemple dapplication. On reprend les 38 notes obtenues lors du premier examens
sachant que les 19 premires notes ont t obtenues par des filles et les 19 suivantes
lont t par des garons (il nest pas ncessaire que les 2 chantillons soient de tailles
identiques). Soit donc :
data notes3;
set notes;
if _n_<=19 then sexe='F';
else sexe='M';
run;
proc ttest data=notes3 cochran h0=0 alpha=0.10;
class sexe;
var note;
run;
Loption cochran dans lappel de TTEST demande laffichage des rsultats obtenus
avec lapproximation de Cochran-Cox (en son absence, seule Satterthwhaite est
employ). La spcification de h0=0 rclame le test dgalit des moyennes (elle est ici
non ncessaire puisquil sagit de lhypothse teste par dfaut). Enfin alpha=0.10
spcifie que lon travaille au seuil de risque de 10% (par dfaut TTEST utilise un seuil
de 5%). Les rsultats suivants sont gnrs :
The TTEST Procedure
Statistics
Lower CL Upper CL Lower CL Upper CL
Variable sexe N Mean Mean Mean Std Dev Std Dev Std Dev Std Err
note F 19 8.698 9.9211 11.144 2.4276 3.0744 4.2565 0.7053
note M 19 8.7331 9.7105 10.688 1.94 2.4569 3.4016 0.5637
note Diff (1-2) -1.314 0.2105 1.7348 2.3381 2.7828 3.4614 0.9029
T-Tests
Variable Method Variances DF t Value Pr > |t|
note Pooled Equal 36 0.23 0.8169
note Satterthwaite Unequal 34.3 0.23 0.8170
note Cochran Unequal 18 0.23 0.8183
Equality of Variances
Valeur
Variable Method Num DF Den DF F Pr > F
note Folded F 18 18 1.57 0.3502
29
Dans le cas prsent on note que les trois tests conduisent la mme conclusion,
savoir le non rejet aux seuils de risque usuels de lhypothse dgalit. Par ailleurs, le
test dgalit des variances (Folded F) nest pas dfavorable lhypothse nulle et en
consquence il semble suffisant ici de faire rfrence seulement au rsultat du student
pooled.
Test de comparaison desprances avec deux chantillons indpendants
ou plus = Lanalyse de la variance
Lorsque lon a deux chantillons ou plus on peut raliser une analyse de la variance qui
gnralise lapproche prcdente. Le cas type est celui o une variable explicative (appele
souvent facteur) prend plusieurs modalits de sorte qu chaque modalit correspond un sous-
chantillon dune variable explique ralisations indpendantes suppose gaussienne et plus
prcisment que les ralisations du j
ime
groupe sont iid,
( )
2
,
j
N . On note en particulier
que la variance est identique sur tous les groupes, seules les esprances ventuellement
diffrent. Cest ce dernier aspect qui est tudi : il sagit de savoir si on a une modification de
lesprance avec la modalit de lexplicative. Lorsque le facteur explicatif prend J
modalits ( 2) J lhypothse nulle scrit donc:
1 2
0:
J
H = = = . Lalternative est que
toutes les moyennes ne sont pas gales. Notez que le rejet de 0 H ne renseigne ni sur les
moyennes qui diffrent ni sur le sens de la (ou des) dviation(s). En ce cas lanalyse peut donc
se poursuivre avec des mthodes de comparaisons multiples des moyennes.
La construction du test de 0 H repose sur des concepts que vous devez dj connatre : on
considre les variances intra-classes et inter-classes pour construire une statistique de Fisher,
int
1
J
j
ra j
j
n
V V
n
=
=
une valeur leve de F souligne quil y a relativement plus de diffrence entre les groupes
qu lintrieur des groupes et est donc un signal dfavorable lhypothse nulle.
1. Exemple danalyse de la variance un facteur
Nous disposons dun fichier clients indiquant le nombre de visites de dpannages ralises au
cours dune anne sur un type de matriel (variable visites), lexistence dun contrat
dentretien (variable contrat code 1 si le client possde un tel contrat et 0 sinon) et dune
valuation sur lutilisation du matriel (variable emploi code 1 si trs intensive, 2 si
intensive, 3 si normal, 4 si peu intensif).
On veut tudier limpact de lintensivit de lutilisation sur le nombre moyen de dpannages.
data pannes;
input visites contrat emploi @@;
cards;
12 1 1 12 1 2 11 1 3 9 1 4 11 1 1 10 1 2 12 1 3
8 1 4 12 1 1 11 1 2 11 1 3 9 1 4 14 1 1 12 1 2
11 1 3 10 1 4 12 1 1 12 1 2 10 1 3 8 1 4 13 1 1
11 1 2 12 1 3 10 1 4 12 1 1 9 2 2 8 2 3 8 2 4
10 2 1 9 2 2 8 2 3 7 2 4 8 2 1 8 2 2 9 2 3 8 2 4
9 2 1 9 2 2 8 2 3 8 2 4 9 2 1 9 2 2 6 2 3 7 2 4
8 2 1 9 2 2 8 2 3 9 2 4 10 2 1 9 2 2
;
run;
On commence par calculer des statistiques descriptives et notamment la moyenne du nombre
de visites selon les modalits dutilisation du matriel :
proc means data=pannes mean;
class emploi;
var visites;
31
run;
Avec comme rsultats :
The MEANS Procedure
Analysis Variable : visites
Nb
emploi obs. Moyenne
1 13 10.7692308
2 13 10.0000000
3 12 9.5000000
4 12 8.4166667
Assez logiquement il semble que le nombre dinterventions soit li au mode dutilisation.
Ceci peut toutefois ntre quun effet purement alatoire et on veut donc construire un test
formel de lhypothse
1 2 3 4
0: H = = = .
Pour raliser une analyse de la variance plusieurs procdures sont offertes par SAS et
notamment les procs ANOVA et GLM. La premire nest applicable que si la taille des sous-
chantillons est identique alors que la seconde autorise de travailler avec des effectifs de
groupes gaux ou diffrents (si les
j
n sont gaux entre eux, proc ANOVA est plus rapide et
ncessite moins de ressources machine que proc GLM). On mettra ici en uvre GLM.
Le code excuter est alors :
proc glm data=pannes;
class emploi;
model visites = emploi;
run;
quit;
La commande model spcifie le nom de lexplique et du facteur, class cr les
indicatrices de chaque modalits. GLM tant une procdure interactive on en sort avec quit.
Les rsultats associs sont les suivants :
The GLM Procedure
Class Level Information
Class Levels Values
emploi 4 1 2 3 4
Number of observations 50
32
Dependent Variable: visites
Somme des Valeur
Source DDL carrs Carr moyen F Pr > F
Model 3 36.2756410 12.0918803 4.63 0.0066
Error 46 120.2243590 2.6135730
Corrected Total 49 156.5000000
R-Square Coeff Var Root MSE visites Mean
0.231793 16.66655 1.616655 9.700000
Valeur
Source DDL Type I SS Carr moyen F Pr > F
emploi 3 36.27564103 12.09188034 4.63 0.0066
Valeur
Source DDL Type III SS Carr moyen F Pr > F
emploi 3 36.27564103 12.09188034 4.63 0.0066
Ici la valeur du Fisher (4.63) confirme le rejet de lhypothse nulle avec un degr de
significativit particulirement faible (0.0066) : lintensit de lutilisation du matriel affecte
le nombre moyen de pannes.
Il peut ds lors tre intressant de comparer les moyennes entre elles. Linstruction contrast
permet la ralisation de tests sur des combinaisons linaires des esprances. Par exemple, si
nous voulons tester
(i) esprance du 3
ime
groupe = esprance du premier
(ii) esprance du 3
ime
groupe = esprance du second
(iii) esprance du 3
ime
groupe = esprance du quatrime
(iv) esprance du 1
er
groupe =esprance du second
(v) moyenne des esprances groupe 1 & 2 = moyenne des esprances groupe 3 & 4
il suffit dexcuter :
proc glm data=pannes;
class emploi;
model visites = emploi;
contrast 'normal-intensif' emploi 0 -1 1 0;
contrast 'normal-trs intensif' emploi -1 0 1 0;
contrast 'normal-peu intensif=0' emploi 0 0 1 -1;
contrast 'trs intensif-intensif=0' emploi 1 -1 0 0;
33
contrast 'trs intensif+intensif=normal+peu intensif' emploi 1 1 -1 -1;
run;
quit;
et on obtient (on ne donne quune partie des rsultats) :
Contrast DDL Contrast SS Carr moyen F Pr > F
normal-intensif 1 1.56000000 1.56000000 0.60 0.4437
normal-trs intensif 1 10.05230769 10.05230769 3.85 0.0559
normal-peu intensif=0 1 7.04166667 7.04166667 2.69 0.1075
trs intensif-intensif=0 1 3.84615385 3.84615385 1.47 0.2313
trs intensif+intensif=normal+peu intensif 1 25.38782051 25.38782051 9.71 0.0031
On vous laisse interprter les rsultats en question. Rappelez-vous que dans ces comparaisons
de plusieurs moyennes labsence de significativit des carts nest pas transitive : par exemple
en comparant 3 moyennes,
1 2
, et
3
telles que
1 2 3
x x x < < on peut conclure que les deux
extrmes
1
et
3
sont diffrentes alors quelles peuvent ne pas tre individuellement
significativement diffrentes de
2
. La procdure GLM offre plusieurs possibilits pour
comparer un ensemble desprances entre elles et autorise notamment la construction
dintervalles de confiance sur les carts de moyennes. En particulier lorsque lon veut
considrer tous les couples dcarts possibles entre les moyennes des J groupes ou entre les
moyennes de 1 J groupes avec une moyenne de rfrence il est conseill dutiliser les tests
de Scheffe ou mieux encore de Tukey ou de Dunnett (Sur ces aspects voir la documentation
de proc GLM et spcialement la partie Details->Comparing Groups->Multiple Comparisons)
o encore dajuster le degr de risque utilis pour juger du rejet en fonction du nombre de
comparaisons effectus.
Le problme dans ce type de comparaisons multiples de moyennes est en effet que lon est
amen raliser un nombre relativement important de tests dhypothse simple et la difficult
est de matriser le seuil de risque (ou de confiance) : avec un seul test, le risque de premire
espce correspond bien celui choisi a priori, par exemple 5%. En revanche si lon effectue m
tests, la probabilit de rejeter tort passe 1-(1-0.5)
m
, soit avec 10 tests supposs
indpendants prs de 40%, et avec 20 tests plus de 60%. Il existe plusieurs solutions pour
contrler ce risque de premire espce. La plus simple est la mthode de Bonferroni : le seuil
de risque appliqu sur chaque hypothse simple est gal au seuil de risque choisi divis par le
nombre de tests simples raliss. Ainsi, avec 10 tests et un seuil de risque de 5%, on va
travailler individuellement avec un seuil de 5%/10=0.5%. En dautres termes lhypothse
nulle sera accepte pour un test individuel si son seuil de significativit est suprieur 0.5% et
34
non pas 5%. La mthode est simple mais elle possde linconvnient de privilgier
fortement lhypothse nulle de sorte que lon peut laccepter trop souvent tort. Les mthodes
dites de stepdown essayent de corriger cette tendance (par exemple les mthodes de Hochberg
ou de Holm). Le test de Sidak, galement disponible avec la proc GLM, est aussi une variante
de lajustement de Bonferroni du seuil de risque de premire espce. Une autre solution est
demployer un test bootstrap (Cf. cours de Ch. Hurlin) ce qui seffectue aisment avec la
procdure MULTTEST (membre de SAS/STAT) comme le montre lexemple ci-dessous :
proc multtest data=pannes boot n=1000 seed=123 bon pvals;
class emploi;
contrast 'normal-intensif' 0 -1 1 0;
contrast 'normal-trs intensif' -1 0 1 0;
contrast 'normal-peu intensif=0' 0 0 1 -1;
contrast 'trs intensif-intensif=0' 1 -1 0 0;
contrast 'trs intensif+intensif=normal+peu intensif' 1 1 -1 -1;
test mean(visites);
run;
On rclame la construction de 1000 chantillons boostrap (option n=1000), laffichage des
seuils ajusts selon la mthode de bonferroni (option bon), laffichage des seuils de
significativit (option pvals). Loption seed= initialise le gnrateur de nombre au hasard de
sorte que les rsultats peuvent tre rpts. Enfin, la commande test demande ce que les
tests portent sur la moyenne de chacune des variables spcifies, ici une seule : visites.
Les rsultats sont les suivants :
Model Information
Test for continuous variables: Mean t-test
Tails for continuous tests: Two-tailed
Strata weights: None
P-value adjustment: Bonferroni
P-value adjustment: Bootstrap
Center continuous variables? Yes
Number of resamples: 1000
Seed: 123
Contrast Coefficients
emploi
Contrast 1 2 3 4
normal-intensif 0 -1 1 0
normal-trs intensif -1 0 1 0
normal-peu intensif=0 0 0 1 -1
35
trs intensif-intensi 1 -1 0 0
trs intensif+intensi 1 1 -1 -1
Continuous Variable Tabulations
Standard
Variable emploi NumObs Mean Deviation
visites 1 13 10.7692 1.9215
visites 2 13 10.0000 1.4142
visites 3 12 9.5000 1.9306
visites 4 12 8.4167 0.9962
p-Values
Variable Contrast Raw Bonferroni Bootstrap
visites normal-intensif 0.4437 1.0000 0.8240
visites normal-trs intensif 0.0559 0.2796 0.1810
visites normal-peu intensif=0 0.1075 0.5377 0.3210
visites trs intensif-intensi 0.2313 1.0000 0.5670
visites trs intensif+intensi 0.0031 0.0157 0.0220
Au seuil de 5% la mthode bootsrap et celle de Bonferroni confirment le rejet dune esprance
gale pour les deux sous groupes {usage trs intensif et intensif} versus {usage normal et peu
intensif}. En revanche ce mme seuil on accepte les autres hypothses nulles. On note
galement que toutes deux contredisent au seuil de 10% le rsultat obtenu avec le test usuel de
lhypothse dgalit des moyennes des groupes {usage normal} et {usage trs intensif}
puisquelles ne permettent pas son rejet.
Plutt que de travailler avec les statistiques usuelles, on peut donc aussi recourir des tests
construits spcialement pour les comparaisons multiples. Ainsi le test de Tuckey est-il fond
sur le studentized range : pour chaque couple de moyennes possible on calcule lcart entre
les moyennes empiriques mais la normalisation tient compte du nombre de couples possibles.
Ainsi, alors que le test de student met au dnominateur lcart-type de lcart de moyenne, la
statistique studentized range utilise lcart-type de la moyenne. Elle teste donc lhypothse
que les plus grande et plus petite moyenne de J groupes sont gales. Si cet cart est non
significatif alors on ne peut rejeter lhypothse que lensemble des moyennes ne diffrent pas
au seuil choisi a priori. Le test de Tuckey est fond sur ce type de statistique et va
considrer tous les couples possibles de moyennes.
Dans notre exemple, en excutant le code suivant :
36
proc glm data=pannes;
class emploi;
model visites = emploi;
means emploi / tuckey;
run;
Nous obtenons :
Test de Tukey's Studentized Range (HSD) pour visites
NOTE: This test controls the Type I experimentwise error rate.
Alpha 0.05
Erreur Degrs de Libert 46
Erreur du Carr Moyen 2.613573
Valeur critique de l'tendue modifie selon la loi de Student 3.76958
Comparaisons significatives au niveau 0.05 indiques par : ***.
Difference
emploi Between Simultan 95%
Comparison Means Confidence Limits
1 - 2 0.7692 -0.9210 2.4594
1 - 3 1.2692 -0.4558 2.9943
1 - 4 2.3526 0.6275 4.0776 ***
2 - 1 -0.7692 -2.4594 0.9210
2 - 3 0.5000 -1.2251 2.2251
2 - 4 1.5833 -0.1417 3.3084
3 - 1 -1.2692 -2.9943 0.4558
3 - 2 -0.5000 -2.2251 1.2251
3 - 4 1.0833 -0.6759 2.8426
4 - 1 -2.3526 -4.0776 -0.6275 ***
4 - 2 -1.5833 -3.3084 0.1417
4 - 3 -1.0833 -2.8426 0.6759
Le seul cart significatif au seuil de 5% concerne la moyenne du nombre de visites des
groupes utilisation peu intensive et utilisation trs intensive.
Pour la validit des tests effectus jusquici nous avons implicitement suppos que les
variances au sein des divers sous-groupes taient gales. Une rgle souvent accepte est que
lhtroscdasticit nest pas un problme pour les tests prcdents si le rapport de la plus
grande la plus petite variance se situe dans un rapport de 2 1. Si on regarde de plus prs cet
aspect, il semble que lhypothse en question soit intenable.
proc means data=pannes std;
class emploi;
var visites;
run;
37
donne en effet :
The MEANS Procedure
Analysis Variable : visites
Nb
emploi obs. cart-type
1 13 1.9215378
2 13 1.4142136
3 12 1.9306146
4 12 0.9962049
On peut imaginer de raliser un test dgalit des variances. Ceci est possible toujours avec la
procdure GLM avec laquelle on peut notamment mettre en uvre le test de Bartlett, optimal
lorsque les donnes sont gaussiennes mais est fortement sensible au non respect de cette
hypothse distributionnelle, de Levenne qui consiste crer une variable mesurant la
dispersion des observations en prenant le carr o la valeur absolue (en prcisant
TYPE=SQUARE, valeur par dfaut, ou TYPE=ABS) des carts entre chaque observation et la
moyenne de son groupe puis raliser une analyse de la variance sur cette nouvelle variable,
et le test de Brown et Forsythe qui considre comme variable de dispersion la valeur absolue
des carts entre une observation et la mdiane de son groupe (Ces choix sont guids par
linstruction HOVTEST=BARTLETT / LEVENE / BF). Selon la documentation de SAS, la
puissance de ces tests reste cependant limite alors que lanalyse standard, sauf conditions
extrmes (variances trs diffrentes), donne des rsultats assez robustes. Dans les cas
extrmes, dtects notamment par les test robustes (Levenne ou BF), il est possible dutiliser
le test de Welch dgalit des moyennes.
Dans notre cas nous pouvons demander par exemple lexcution de :
proc glm data=pannes;
class emploi;
model visites = emploi;
means emploi / hovtest welch;
run;
Ce qui induit comme rsultats :
Levene's Test for Homogeneity of visites Variance
ANOVA of Squared Deviations from Group Means
Somme
38
des Carr Valeur
Source DDL carrs moyen F Pr > F
emploi 3 56.2574 18.7525 2.95 0.0424
Error 46 292.3 6.3553
Welch's ANOVA for visites
Valeur
Source DDL F Pr > F
emploi 3.0000 6.44 0.0023
Le test de Levenne (test par dfaut) dtecte 5% une htrognit des variances. Lemploi
du test de Welch conforte cependant la prcdente conclusion, savoir lingalit du nombre
moyen de dpannages selon lintensit de lutilisation du matriel.
2. Exemple danalyse de la variance deux facteurs
Nous nous limitons ici un simple exemple et une discussion (trop) brve de lextension
plusieurs facteurs.
Il est videmment possible de prendre en compte plus dun facteur explicatif. Ainsi dans notre
fichier dexemple nous disposons, en plus dune information sur le mode dutilisation du
matriel, dune information sur lexistence ou non dun contrat de maintenance. On veut donc
savoir si le nombre de visites moyen est affect par ces deux variables et ventuellement par
leur interaction. Ce dernier aspect signifiant simplement que limpact dune modalit dune
des variables dpend de la valeur prise par lautre. Lorsque les effectifs des divers sous-
chantillons diffrent la question de la mesure de lesprance se pose : au moins deux
moyennes peuvent tre calcules. La moyenne habituelle, savoir la moyenne des
observations dun sous-chantillon donn, peut naturellement toujours tre obtenue. Son
inconvnient est quelle est influence par la rpartition des individus au sein des modalits
des facteurs. On peut donc chercher mesurer limpact dun facteur soit sur la moyenne
empirique au sein de chaque groupe, soit sur la moyenne ajuste prenant en compte limpact
des autres facteurs (LS mean) obtenue en supposant des effectifs gaux dans chaque sous-
groupes. Par exemple, si nous cherchons ici mettre en vidence limpact des variables
emploi (4 modalits), contrat (2 modalits) ainsi que les ventuels effets croiss, les diverses
LS means vont selon les sous-groupes tre calcules avec les coefficients suivants (on ne
donne que le mode de calcul de quelques LS means) :
39
LS Mean emploi contrat Emploi*contrat
1 2 3 4 1 2 11 12 21 22 31 32 41 42
Globale 1 1/4 1/4 1/4 1/4 1/2 1/2 1/8 1/8 1/8 1/8 1/8 1/8 1/8 1/8
Emploi=1 1 1 0 0 0
1/2 1/2 1/2 1/2
0 0 0 0 0 0
Emploi=3 1 0 0 1 0
1/2 1/2
0 0 0 0
1/2 1/2
0 0
Contrat=2 1
1/4 1/4 1/4 1/4
0 1 0
1/4
0
1/4
0
1/4
0
1/4
Emploi=2, contrat=1 1 0 1 0 0 1 0 0 0 1 0 0 0 0 0
Dans notre cas, si nous excutons les commandes :
proc glm data=pannes;
class emploi contrat ;
model visites = emploi contrat emploi*contrat / ss1 ss2 ss3 ss4;
run;
On obtient :
The GLM Procedure
Dependent Variable: visites
Somme des Valeur
Source DDL carrs Carr moyen F Pr > F
Model 7 128.3809524 18.3401361 27.39 <.0001
Error 42 28.1190476 0.6695011
Corrected Total 49 156.5000000
R-Square Coeff Var Root MSE visites Mean
0.820326 8.435366 0.818230 9.700000
Valeur
Source DDL Type I SS Carr moyen F Pr > F
emploi 3 36.27564103 12.09188034 18.06 <.0001
contrat 1 82.76650047 82.76650047 123.62 <.0001
emploi*contrat 3 9.33881088 3.11293696 4.65 0.0068
Valeur
Source DDL Type II SS Carr moyen F Pr > F
emploi 3 34.54214150 11.51404717 17.20 <.0001
contrat 1 82.76650047 82.76650047 123.62 <.0001
40
emploi*contrat 3 9.33881088 3.11293696 4.65 0.0068
Valeur
Source DDL Type III SS Carr moyen F Pr > F
emploi 3 33.74526862 11.24842287 16.80 <.0001
contrat 1 81.90520282 81.90520282 122.34 <.0001
emploi*contrat 3 9.33881088 3.11293696 4.65 0.0068
Valeur
Source DDL Type IV SS Carr moyen F Pr > F
emploi 3 33.74526862 11.24842287 16.80 <.0001
contrat 1 81.90520282 81.90520282 122.34 <.0001
emploi*contrat 3 9.33881088 3.11293696 4.65 0.0068
La somme des carrs de type 1 et 2 pour la variable emploi cherche mettre en vidence des
diffrences sur les moyennes arithmtiques des 4 groupes correspondant aux 4 modalits de
cette variable sans ajustement dune part et avec ajustement de linfluence de la variable
contrat dautre part. La somme des carrs de type 3 recherche des carts entre les moyennes
de type LS des 4 groupes correspondant aux 4 modalits de la variable emploi.
Indpendamment du mode de calcul, et donc de la moyenne considre, les conclusions sont
identiques : il existe un effet de chaque facteur sur le nombre de visites, cet effet tant
dpendant de la valeur prise par lautre facteur (effets croiss significatifs).
LAPPROCHE NON PARAMETRIQUE
Ici la mdiane remplace la moyenne comme mesure de la tendance centrale dune
distribution. Mme si la distribution sous-jacente nest pas gaussienne un thorme central-
limite nous enseigne que la distribution de la moyenne empirique de ralisations
41
indpendantes lest au moins asymptotiquement (en pratique on considre quavec une
trentaine de points lapproximation peut tre utilise). Les tests non paramtriques ne sont
donc ici utiles que si la distribution dvie fortement de la normale et que lon a peu
dobservations.
Tests avec un seul chantillon ou deux chantillons apparis
1. Le test du signe
On dispose dune variable alatoire de distribution continue tirages indpendants et
dchelle au moins ordinale. On ne suppose pas lhypothse de distribution gaussienne. Ce
test semploi donc pour des chantillons non gaussiens de petites tailles (avec une limite
infrieure dpendante du seuil de risque choisi. Par exemple 5% il faut avoir au moins 6
points sinon on ne peut pas construire dintervalle de rejet). Lobjectif est le test de 0: H la
mdiane est gale
0
M contre lalternative 1: H la mdiane est diffrente de
0
M , o
0
M est
une valeur spcifie a priori. Ceci peut donc encore scrire :
0
0: Pr( ) 1/ 2 H x M p = = contre
0
1: Pr( ) 1/ 2 H x M p =
Ce test peut galement sappliquer dans le cas dchantillons apparis constitus des paires
dobservations
1, 2,
( , )
i i
x x . La variable a considrer dans ce cas est simplement
1 2
x x x = et le
test dabsence deffet revient vrifier que la mdiane de x vaut zro, soit :
0: Pr( 0) 1/ 2 H x = contre 1: Pr( 0) 1/ 2 H x
Le test du signe consiste remplacer les observations plus grandes que
0
M par un signe + et
celles qui lui sont infrieures par un signe -. Si lhypothse nulle est vraie alors le nombre de
signes +, soit n
+
, doit tre proche du nombre de signes -, n
. Indpendamment de la loi de
x , le nombre de signes + , qui va constituer la statistique de test, possde une distribution
binomiale de paramtres n et (ceci est galement vrai pour n
+ +
, expression dans laquelle n
+ +
o
'
n
.
En fait SAS dans la procdure UNIVARIATE utilise une statistique de signe non standard :
( ) / 2 M n n
+
=
et il value la probabilit dun test bidirectionnel selon :
min( , )
( 1)
0
0
( )!
Pr(| | | |) 0.5
!( )!
n n
n n
j
n n
M M
j n n j
+
+
+
+
+
=
+
=
+
(ici n
+
et n
= =
De cette expression on dduit celle de la fonction de rpartition :
1
1 1
1 1
0 1 1
!
( ) Pr( ) (1 )
!( )!
n
n n n
j
n
F n x n p p
n n n
=
= =
Par exemple la probabilit dobtenir deux 1 ou moins avec 4 jets
successifs dun d (non pip) est : Pr( 0) Pr( 1) Pr( 2) x x x = + = + = , soit :
0 4 1 3 2 2
4! 1 5 4! 1 5 4! 1 5
0!4! 6 6 1!3! 6 6 2!2! 6 6
| | | | | | | | | | | |
+ +
| | | | | |
\ \ \ \ \ \
= 0.482+0.386+0.116
= 0.984
43
On peut noter que deux approximations sont souvent utilises lorsque n est lev et donc que
le calcul des probabilits exactes devient coteux (cela se pratique souvent partir de 20
observations) :
Approximation par une normale : justifie lorsque n est grand et la
probabilit de lvnement favorable loigne de 1 ou 0. Des rgles ont
t proposes, par exemple lapproximation serait satisfaisante lorsque np et
n(1-p) sont suprieurs 5. La gaussienne est alors dfinie par
(1 )
p p
z
p p
n
On notera quune correction amliorant lapproximation par une distribution
continue (la gaussienne) dune distribution discrte a t propose qui vise
notamment en rapprocher le seuil de risque effectif du seuil de risque choisi.
Elle donne de bons rsultats mme lorsque p est relativement loin de 0.5.
La formulation de z est alors :
1
| |
2
(1 )
p p
n
z
p p
n
=
, soit encore :
1
| |
2
(1 )
n np
z
np p
+
=
Approximation par une variable de Poisson : lvnement tudi se produit
rarement et en consquence p (ou 1-p) est proche de 0. Pour une telle variable
alatoire de paramtre on a :
1
1
1
Pr( )
!
n
e
x n
n
= = , et ( ) ( ) E x V x = =
Par exemple, si un vnement particulier se produit en moyenne 2 fois par mois
et que lon sait que la frquence des observations a une distribution de Poisson
alors la probabilit de connatre un mois sans accident est gale
2
( 0) P x e
= = =0.135
et celle de connatre un mois avec 5 accidents est de
2 5
2
( 5) 0.0361
5!
e
P x
= = =
44
Supposons que la frquence soit de deux vnements sur 100 cas considrs, ce
qui correspond donc une probabilit de survenue de lvnement de 2%,
lemploi de la binomiale mnerait :
5 95
100!
Pr( 5) 0.02 (1 0.02)
5!(100 5)!
x = = =
0.0353
montrant ainsi quil nest pas draisonnable de simplifier les calculs par
lemploi de la Poisson.
2. Le test de Wilcoxon ou test des rangs signs (signed rank test)
Le test prcdent ne prend en compte que les signes et ne considre pas lamplitude des
diffrences entre les observations et
0
M . Logiquement, un test qui intgre galement cette
information doit tre plus performant. Cest prcisment ce que fait le test de Wilcoxon que
lon peut employer sur des donnes indpendantes mesures sur une chelle dintervalle
issues dune distribution symtrique. On commence par construire les carts,
0 i i
e x M = ,
puis on ordonne par ordre croissant les valeurs absolues des quantits obtenues et on
considre leur rang ( )
i
r e tout en conservant linformation sur leur signe : 1
i
s = si 0
i
e > et
0
i
s = si 0
i
e < . Cette variable alatoire s est une variable de Bernouilli pour laquelle, sous
0 H , ( ) 1/ 2
i
E s = et ( ) 0.25
i
V s = . Si on construit la variable SR
+
comme somme des rangs
des carts positifs :
1
(| |)
n
i i
i
SR s r e
+
=
=
alors il vient (on suppose labsence dobservations de mme rang,
qui correspond un vnement de probabilit nulle avec des alatoires continues. Dans tous
les cas, les observations pour lesquelles lcart est nul sont purement et simplement retires
des calculs et non prises en compte dans le total des observations disponibles n ) :
( )
1 1
( 1)
( ) 0.5 | | 0.5
4
n n
i
i i
n n
E SR r e i
+
= =
+
= = =
et
2
1
( ) ( / 2 ( / 2) ( 1)(2 1) / 24
n
i
V SR i i n n n
+
=
= = + +
45
On peut vrifier que
( 1)
2
n n
SR SR
+
+
+ = . Ainsi, pour une valeur suppose de
0
M le fait
davoir SR SR
+
est une indication favorable lhypothse dune mdiane suprieure
0
M . La statistique de Wilcoxon est dfinie comme la valeur minimale de SR
+
ou SR
.
Lorsque la taille de lchantillon est grande on peut utiliser lapproximation par une
gaussienne dfinie conformment aux prcdents rsultats par :
( 1)
min( , )
4
( 1)(2 1)
24
n n
SR SR
z
n n n
+
+
=
+ +
Ici galement une correction pour la continuit est souvent opre et on prfre retenir :
( 1)
min( , ) 0.5
4
( 1)(2 1)
24
n n
SR SR
z
n n n
+
+
=
+ +
SAS utilise cependant une autre dfinition en prenant comme statistique du test de Wilcoxon
la variable S :
( 1) / 4 S SR n n
+
= +
Ainsi, une valeur ngative de S est plutt favorable lhypothse dune mdiane infrieur
0
M . Dans les calculs, la procdure UNIVARIATE attribue aux observations de mme rang la
moyenne des rangs concerns. Ce mode de traitement des valeurs gales provoque une
rduction de la variance de SR
+
. De sorte que si pour des tailles dchantillon infrieures o
gale 20 le seuil de significativit de S est calcul avec la distribution exacte, en revanche
lorsque n est suprieur vingt points, SAS met en uvre une correction pour cette rduction
de variance de sorte que lapproximation est ralise par une student n-1 degrs de libert.
On notera enfin que le test de Wilcoxon est souvent prsent comme un test de symtrie de la
distribution sous-jacente aux observations sur lesquelles on calcule les rangs. Il est important
de se rappeler que le test de Wilcoxon est un test joint : la mdiane est gale
0
M et la
distribution est symtrique. Ainsi en cas de rejet, il est possible que la distribution soit
symtrique mais que la mdiane ne soit pas
0
M , ou encore que la distribution nest pas
46
symtrique alors que la mdiane est
0
M , ou encore que les 2 propositions sont simultanment
fausses. En pratique si la distribution apparat comme non symtrique, il est prfrable
dutiliser le test du signe, mme si celui est moins puissant pour statuer uniquement sur une
valeur particulire de la mdiane.
3. Un exemple dapplication
On reprend le fichier de donnes utilis prcdemment et constitu des notes obtenues par 38
tudiants lors dune premire preuve. La question pose est de savoir si on peut accepter une
mdiane gale 10.
Il suffit dexcuter :
proc univariate mu0=10;
var note1;
run;
Pour obtenir :
La procdure UNIVARIATE
Variable : note1
Moments
N 38 Somme poids 38
Moyenne 9.81578947 Somme obs. 373
cart-type 2.74704031 Variance 7.54623044
Skewness -0.3285174 Kurtosis -0.0076241
SS non corrige 3940.5 SS corrige 279.210526
Coeff Variation 27.9859334 Moy. erreur std 0.44562878
Mesures statistiques de base
Position Variabilit
Moyenne 9.81579 cart-type 2.74704
Mdiane 10.25000 Variance 7.54623
Mode 12.00000 tendue 12.00000
Intervalle interquartile 4.00000
Tests de position : Mu0=10
Test -Statistique- -Seuil de significativit-
t de Student t -0.41337 Pr > |t| 0.6817
Signe M 1 Pr >= |M| 0.8679
Rangs signs S -16 Pr >= |S| 0.8051
Quantiles (Dfinition 5)
Quantile Estimation
47
100% Max 15.50
99% 15.50
95% 14.50
90% 13.00
75% Q3 12.00
50% Mdiane 10.25
25% Q1 8.00
10% 5.00
5% 4.50
1% 3.50
0% Min 3.50
Observations extrmes
----Minimale--- ----Maximale---
Valeur Obs. Valeur Obs.
3.5 13 12.5 34
4.5 28 13.0 6
5.0 37 14.0 22
5.0 8 14.5 14
6.5 7 15.5 4
On voit que les tests de signe et de Wilcoxon ne permettent pas aux seuils de risque usuels de
rejeter lhypothse 0: 10 H M = , et avec Wilcoxon, la symtrie de la distribution des notes.
Par ailleurs, n retrouve naturellement la valeur de la statistique du test de student calcule au
moyen de la procdure TTEST dans le chapitre prcdent.
Ces tests peuvent tre aussi utiliss sur des chantillons apparis. En reprenant les notes des
deux preuves et aprs avoir cr la diffrence note2-note1, on se demande sil y a eu une
amlioration dans la mdiane des notes sur les 2 preuves. Soit :
data notes;
merge un deux;
dif = note2-note1;
run;
proc univariate data=notes;
var dif;
run;
On obtient (seule une partie des rsultats est reproduite) :
Mesures statistiques de base
Position Variabilit
Moyenne 0.48684 cart-type 1.01666
Mdiane 0.50000 Variance 1.03361
48
Mode -0.50000 tendue 4.00000
Intervalle interquartile 1.50000
Tests de position : Mu0=0
Test -Statistique- -Seuil de significativit-
t de Student t 2.951905 Pr > |t| 0.0055
Signe M 4.5 Pr >= |M| 0.1877
Rangs signs S 183 Pr >= |S| 0.0036
Ici le test de student et le test de Wilcoxon saccordent pour signaler une amlioration du
centre de la distribution des notes (esprance pour lun, mdiane pour lautre mais sous
lhypothse de symtrie, mdiane et esprance sont gales) entre les deux preuves. En
revanche le test du signe ne permet pas de rejeter une constance de la mdiane. Peut tre faut-
il voir l lillustration de la moindre puissance de ce test.
4. Le test de Chi2 de McNemar
Le test de McNemar peut tre considr comme une application du test de signe a des
variables dichotomiques. On suppose que les individus constituant lchantillon sont rpartis
en deux groupes, lun vrifiant la proprit A et lautre la proprit B. Suite un vnement
les mmes individus sont nouveau rpartis entre les deux sous-groupes et la question pose
est de savoir si lvnement a modifi la rpartition initiale en faveur de lun ou lautre sous-
groupe.
Selon cette logique on dispose dons dchantillons apparis. On peut reprsenter par un signe
+ les individus passant de la catgorie A vers la catgorie B, par un signe ceux qui
effectuent le dplacement oppos et ne pas considrer les individus qui sont dans le mme
sous-groupe avant et aprs lvnement. Dans ces conditions on se trouve plac dans les
conditions dapplication du test du signe expos ci-dessus. Si le nombre de signe +
(respectivement -) est not n
+
(resp. n
), la statistique ( ) / 2 M n n
+
= permettant de
raliser un test bidirectionnel ainsi que son degr de significativit peuvent tre valus.
Si n=n n
+
+ est suprieur 20 et si on emploie lapproximation asymptotique sans
correction de continuit alors, sous 0: H la distribution est inchange , il vient :
| | | 0.5 | | 0.5( ) | 0.5| ) | | ) |
(1 ) 0.25 0.5 0.5
( )
n np n n n n n n n n n
z
np p n n n
n n
+ + + + + +
+
+
= = = = =
+
49
Soit encore
( )
2
2
n n
z
n n
+
+
=
+
. Cette dernire statistique est connue sous le nom de Chi2 de
McNemar et elle possde naturellement sous 0 H une distribution de Chi2 un degr de
libert. Comme dhabitude si on dsire mener un test unidirectionnel il convient de diviser par
deux le seuil de significativit avant de le comparer au seuil de risque de premire espce
choisi.
Enfin, en pratique, si n
+
et/ou n