Vous êtes sur la page 1sur 6

kNotion de test d'hypothse

La description de "la" ralit en statistiques se fait l'aide de "variables" qui sont des colonnes de valeurs numriques. On se pose souvent la question de comparer ces variables, de tester si elles sont gales ou diffrentes, de savoir si on peut considrer qu'elles correspondent ou non une mme population [sous-jacente], si elles correspondent une distribution donne, si elles sont conformes un modle prcis etc. sachant que ces variables et leurs donnes ne correspondent qu' un chantillon de valeurs. Etant donn qu'on ne peut jamais tre sr que le rsultat des calculs correspond "la" ralit, les statisticiens et statisticiennes ont dvelopp un cadre d'analyse qui permet de prendre de telles dcisions tout en disposant d'une estimation du "risque" de ces dcisions. Les tests d'hypothses ont pour buts de

clarifier et dfinir le cadre rigoureux de ces tudes, fournir un formalisme prcis pour toutes les situations, savoir si les diffrences mises en jeu sont importantes ("significatives" pour un seuil donn) ou non.

Hypothse nulle, risques de premire et deuxime espce

Le cadre mathmatique est celui des vnements probabiliss o l'hypothse, la comparaison de dpart est convertie en un "vnement" intgr un modle probabiliste rfutable. On distingue en gnral deux hypothses seulement : la premire ou "hypothse nulle", note H0 est celle o justement la diffrence est considre comme nulle (on dira en fait non significative, par rapport un seuil dfini plus loin comme "risque de premire espce") ; la seconde, complmentaire de la premire, regroupant tous les autres cas, est nomme "hypothse alternative" et parfois note H1. On peut soit rejeter l'hypothse nulle, soit ne pas la rejeter alors qu'en fait, soit cette hypothse est vraie soit elle ne l'est pas ce qui oblige utiliser un tableau 4 cases qui rsume l'ensemble des couples (dcisions/ralit) :

Dcision / Ralit

H0 est vraie

H0 est fausse

rejeter H0

RV

RF

ne pas rejeter H0

NV

NF

RF (Rejeter H0 quand elle est Fausse) et NV (Ne pas rejeter H0 quand elle est Vraie) sont des "bonnes dcisions". RV (Rejeter H0 quand elle est Vraie) est nomme "erreur de premire espce" et NF (Ne pas rejeter H0 quand elle est Faussee) est nomme "erreur de deuxime espce". A chacune des ces erreurs, on associe un risque li la probablit de la dcision : on le nomme pour RV, pour NF. Il n'y a aucune raison de supposer ces risques quivalents et souvent on prend = 5 % (ou 1 % quand on veut tre plus strict) alors qu'il est "habituel" de prendre 0.20 pour . Il faut bien comprendre que les tests d'hypothse ne permettent pas d'accepter H0 mais seulement de rejeter H0. Ne pas rejeter H0 ne signifie pas que H0 est vraie mais seulement que la probabilit qu'elle soit fausse est trs petite. On n'est donc en fait jamais vraiment totalement sur de rien. Pour mieux comprendre ces notions, on peut utiliser l'analogie du bouton blanc fourni par S. Frontier, D. Davoult, V. Gentilhomme, Y. Lagadeuc au chapitre 5 (Tests d'hypothses sur les moyennes, p. 141) de leur livre Statistique pour les sciences de la vie et de l'environnement paru chez Dunod : [...] Ainsi j'ai perdu un bouton de ma blouse en faisant mon cours et, me penchant, j'en aperois un par terre. S'il n'est pas de la mme couleur que les miens, il est certain que ce n'est pas le bouton qui me manque ("test couleur" ngatif). S'il est de la bonne couleur (test positif), le bouton est peut-tre le mien, mais ce n'est pas certain. En effet, s'il n'est pas de la bonne taille ("test taille" ngatif), ce n'est pas le mien. S'il est de la bonne taille, c'est peut-tre le mien, mais ce n'est pas encore certain et ainsi de suite... Si H0 correspond l'hypothse "le bouton que j'ai trouv est mon bouton de blouse", et si on trouve un bouton blanc, sans plus de renseignements, on peut rejeter ou non H0. De mme si on trouve un bouton lgrement gris (ou gris-blanc), on peut rejeter ou non H0. Enfin, mme avec un bouton bleu (il pourrait tre tomb dans une flaque de peinture bleue) on peut refuser ou non H0. Ce qui nous donne en tableau :

rejet de H0

non rejet de H0

H0 est vraie

risque alpha (rejet tort)

cohrent

H0 est fausse

cohrent

risque beta (non rejet tort)

Dans le cadre de tests statistiques, il ne s'agit pas d'un bouton mais de valeurs numriques. Et on doit dcider si on peut considrer par exemple que 0.21 et 0.22 sont proches, si 15 % et 20 % peuvent tre considrs comme peu loigns etc., la loi statistique de la diffrence entre ces lois tant suppose connue, tabule et consultable.
Mcanique des tests d'hypothse

Pour raliser un test d'hypothse, il y a un enchainement strict d'actions effectuer. Cela commence par la formulation de l'hypothse dans le domaine considr (mdical, conomique, social...) et sa traduction en vnments probabilistes lis H0. On doit ensuite considrer la statistique d'cart (la loi thorique de la diffrence) et choisir un seuil (alpha) de dcision. On doit ensuite calculer la valeur de la statistique d'cart pour nos valeurs puis comparer la valeur thorique de la statistique d'cart pour le seuil choisi et en dduire si on refuse H0 ou non. Enfin, le calcul (ou la lecture) de la "p-value" associ au dpassement de la valeur de la statistique d'cart permet de conclure de faon fine sur le fait que la diffrence est significative ou non.
Quels tests pour quelles comparaisons ?

Certains tests supposent une loi ("distribution") thorique sous-jacente avec des paramtres. Ce sont les tests paramtriques. D'autres n'imposent aucune hypothse de distribution. On les nommes tests non-paramtriques. Suivant qu'on compare une valeur calcule (comme par exemple une moyenne, une proportion) une valeur thorique ou qu'on compare deux ou plusieurs valeurs calcules entre elles, on parle de test de conformit ou d'homognit. On utilise le mme vocabulaire pour comparer la ou les distributions calcules. Mais les choses se compliquent si les donnes sont apparies ou non, si les effectifs des chantillons sont suffisants ou pas... On pourra lire avec profit les chapitres lis aux tests d'hypothse du cours de maths SV de Lyon l'URL suivante http://spiral.univ-lyon1.fr/mathsv/ (cliquer sur la rubrique Probabilit-Statistique de la partie Cours) avant de consulter notre

page qui prsente des exemples de tests mais attention : il y a beaucoup de tests car il y a beaucoup de situations. Un ultraminimum savoir faire est sans doute contenu dans notre fichierformules.pdf. Un ensemble assez complet d'une trentaine de comparaisons avec rdaction explicite de la conclusion est l'adresse http://cognition.ups-tlse.fr/_christian/poly/stats/IntroStatComp.pdf (dont une copie locale est ici) On trouvera ci-dessous une liste de divers tests en fonction de la nature et du nombre d'chantillons. On pourra comparer avec une liste (anglaise) nomme whatstat ; les liens dans notre liste ci-dessous renvoient la documentation pour R du test correspondant quand il existe. 1. Tests pour les distributions QL

avec un seul chantillon : test binomial exact et test des proportions. avec deux chantillons : o donnes non apparies : test du chi2 et test exact de Fisher o donnes apparies : test de Mac Nemar avec plus de deux chantillons : o donnes non apparies : test du chi2 o donnes apparies : test de Cochran-Mantel-Haenszel

2. Tests pour les distributions QT Il faut commencer par tester la normalit de la distribution l'aide du test de Shapiro-Wilk ou du test de Kolmogorov-Smirnov. Si l'hypothse de normalit n'est pas rejete, on peut utiliser un test paramtrique. Sinon, on doit utiliser un test non paramtrique. 2.1 Tests paramtriques pour les distributions QT

avec un seul chantillon : test t de Student ; avec deux chantillons : o donnes non apparies : test t de Student si les variances sont gales via le test F de Fisher (var.test) ; si les variances ne sont pas gales, test de Welch ; o donnes apparies : test t de Student pour donnes apparies ; avec plus de deux chantillons homognes via le test d'homoscdasticit de Bartlett (pour des donnes non apparies) ou le test de sphricit de Mauchly (pour des donnes apparies) : o donnes non apparies : anova, aov et tests post-hoc (nomms *.pairwise.test en R) ;

donnes apparies : anova et tests post-hoc pour donnes apparies, manova, ancova, mancova.

2.2 Tests non-paramtriques pour les distributions QT

avec deux chantillons : o donnes non apparies : test de Mann-Whitney ; o donnes apparies : test de Wilcox ; avec plus de deux chantillons : o donnes non apparies : test de Kruskal-Wallis puis tests post-hoc comme celui de Nemenyi ; o donnes apparies : test de Friedman puis tests post-hoc de test Wilcox avec un ajustement (ou correction) de Bonferonni.

Autres tests Un test intressant connaitre (sous hypothse de normalit) est celui de la significativit de coefficient de corrlation linaire (cor.test). On peut aussi comparer deux coefficients de corrlation linaire. Une autre srie de tests importants sont les tests dits post hoc. On les utilise, en cas de comparaisons multiples significatives, pour savoir quels chantillons diffrent. Il y a par exemple le test de Tukey, le test de Newman-Keuls, le test de Dunnett, le test de Scheff. Le logiciel R, dans la package nomm stats (charg automatiquement), implmente aussi d'autres tests comme :

le test d'Ansari-Bradley le test de Box-Pierce et Ljung-Box le test de Fligner-Killeen le test de Mauchly le test de Mood le test "oneway" (de Welch) le test de Phillips-Perron le test de Quade

... sans oublier des tests lis la puissance du test (power.*.test) et des tests pour comparaisons apparies (pairwise.*.test) :

pairwise.prop.test pairwise.t.test pairwise.wilcox.test power.anova.test power.prop.test power.t.test

D'autres packages, plus spcialiss rajoutent encore d'autres tests : - le package nortest (tests de normalit)

test de Lilliefors test de Pearson test d'Anderson-Darling test de Shapiro-Francia test de Cramer-von Mises

- le package BSDA (Statistiques de base et Analyse des donnes)


tests t et tests de Welch ("summary") tests z ("summary") test z

- les packages multcomp (Simultaneous Inference in General Parametric Models), npcm(Nonparametric Multiple Comparisons) et nparcomp (Nonparametric relative contrast effects). Enfin, le package fBasics, rajoute les tests de normalit de Jarque-Bera et d'Agostino ; il ajoute aussi quelques fonctionnalits au package nortest.

Vous aimerez peut-être aussi