Vous êtes sur la page 1sur 17

14/5/2014 ANALYSES DE VARIANCE - ANOVA

http://www.cons-dev.org/elearning/stat/parametrique/5-3/5-3.html 1/17
Introduction aux Statistiques
Citation :
Introduction aux statistiques - 1996, Ramousse R., Le Berre M. & Le Guelte L.
5.3. Comparaisons de plusieurs chantillons; les ANALYSES DE VARIANCE ou ANOVA
5. 3. 1. Dfinition et dmarche gnrale
Les analyses de variance ou analyses factorielles sont des techniques permettant de savoir si une ou plusieurs variables dpendantes
(appeles aussi variables endognes ou variables expliquer) (valeurs numriques et continues [c--d des effectifs, des rapports
comme des longueurs ou des poids, etc..] = disposes dans diffrentes lignes dun tableau) sont en relation avec une ou plusieurs
variables dites indpendantes (ou variables exognes ou variables explicatives) (disposes dans diffrentes colonnes dun tableau).

Rappel : quest-ce que la variance :
Cest la somme des carrs des carts par rapport la moyenne / nombre de degrs de libert = SCE/ddl
(ceci lorsque le nombre dindividus composant lchantillon est rduit ; sinon, utiliser N=N). La
variance est le carr de lcart-type.
La variance dun chantillon peut se calculer manuellement, ou laide dExcel, ou avec Statview II.
Quatre situations principales peuvent tre rencontres, cependant, nous ne dvelopperons que la premire :
14/5/2014 ANALYSES DE VARIANCE - ANOVA
http://www.cons-dev.org/elearning/stat/parametrique/5-3/5-3.html 2/17
Avec une seule variable dpendante ( expliquer), et une ou plusieurs variables explicatives discrtes (dites aussi catgorielles,
qualitatives, nominales, de classification = ne pouvant donc prendre qu'un nombre limit de valeurs comme le sexe, la catgorie
socio-professionnelle, etc...) on utilise l'analyse de variance. On appelle facteurs les variables explicatives. L'analyse consiste
tester si les diffrences de variation dans chaque groupe (ou chantillon) dfini par les modalits des variables explicatives
s'cartent de manire significative de la valeur 0.
Avec toujours une seule variable expliquer, mais une ou plusieurs variables explicatives, toutes continues, on fait appel au
modle de rgression linaire simple ou multiple : on appelle rgresseurs les variables explicatives. La rgression consiste
valuer les paramtres d'une fonction linaire, estimer l'aide de cette fonction les valeurs de la variable expliquer et tester si
les diffrences (= les rsidus) entre valeurs mesures et valeurs estimes s'cartent de manire significative de 0.
Lorsque certaines des variables explicatives sont discrtes (discontinues), et d'autres continues, on ralise une analyse de la
covariance. Le modle se compose donc la fois de facteurs et de rgresseurs. On cherche si les relations entre la variable
expliquer et les variables explicatives continues restent les mmes pour toutes les modalits des variables explicatives discrtes.
Lorsqu'il y a plusieurs variables expliquer prendre en compte simultanment, au lieu de faire plusieurs analyses de variance (une
par variable expliquer), on ralise une analyse de variance multiple. On teste si les diffrences de variation dans chaque groupe
dfini par les modalits des variables explicatives s'cartent de manire significative de la valeur 0, et cela de manire simultane
dans l'ensemble des variables explicatives (d'o la diffrence avec l'analyse de variance simple).
5.3.2. Vrification de la normalit des chantillons
Seuls des chantillons suivant une loi normale peuvent faire lobjet dune analyse de variance paramtrique. Pour vrifier que la
distribution dun chantillon suit une loi normale, il est possible dutiliser, dans Statview II, le test descriptif daplatissement et
dasymtrie (de kurtosis and skewness, en anglais).
On considre que lchantillon suit une loi normale 95 % lorsque la valeur de son aplatissement est compris enttre -2 et +2.

5.3.3. Homoscdascticit des variances par le test de Hartley
14/5/2014 ANALYSES DE VARIANCE - ANOVA
http://www.cons-dev.org/elearning/stat/parametrique/5-3/5-3.html 3/17
On calcule les diffrentes variances pour chacun des chantillons comparer, et on fait le rapport de la plus grande sur la plus
petite, ce rapport est F.
Cette valeur est compare, dans une table de Hartley (ou du Fmax), une valeur thorique et doit lui tre infrieure pour un seuil
de risque choisi (par exemple, 95 %) pour conserver l'hypothse d'homognit des variances.
Les d.d.l. sont, pour la colonne de la table du Fmax, le nombre de traitements (=k) (colonnes de donnes), et pour la ligne de la
table, le nombre de donnes du plus grand chantillon - 1 (=n-1).

5.3.4. Analyse de variance un facteur pour chantillons indpendants.
L'hypothse nulle H0 est l'galit des moyennes des populations dont sont extraits les chantillons : m1=m2=m3=...=mk
5.3.4.1. Principe
Notation : Le nombre d'chantillons est not k, le nombre de mesures par chantillon est dsign par n et le nombre total de
mesures, kn.
L'analyse de variance un facteur (one-way analysis of variance) va consister chercher le rapport entre la variance entre les
groupes (V. inter-groupe) et la variance l'intrieur des groupes (V. intra-groupe).
La valeur de ce rapport appel F [attention : ce F na rien a voir avec le F du test de vrification de lhomognit des variances] est
compare celle d'une table de F de Snedecor, table double entre avec pour numrateur le [nombre d'chantillons (k) moins
un] soit (k-1) et pour dnominateur le [nombre total de mesures - k] soit (kn-k).

1. Manuellement, on calcule :
a) la variance totale par rapport la moyenne globale des n mesures ;
b) la variance intra-groupes (celle qui n'est pas lie aux conditions exprimentales).
14/5/2014 ANALYSES DE VARIANCE - ANOVA
http://www.cons-dev.org/elearning/stat/parametrique/5-3/5-3.html 4/17
2. Par diffrence [a-b] on obtient la variance inter-groupes (qui est lie aux diffrences de conditions
exprimentales).
a = [a-b] + b
Variance totale = Variance inter-groupe + Variance
intra-groupe
[SCE la moyenne gnrale] = [SCE factorielle] + [SCE rsiduelle]
=
3. On calcule le rapport :
F = variance inter-groupes/variance intra-groupes ou rsidu.
[attention : ce F na rien voir avec le F du test de vrification de lhomognit des variances]

Notation :
Le terme "traitement" peut tre remplac par "variable exprimentale" ou "condition exprimentale" ou quoi
que ce soit qui diffrencie les groupes (colonnes). De mme, le terme "individu" peut concerner diffrentes
entits : des points de prise d'chantillons le long d'une rivire, des tres vivants, etc (lignes) ...

traitement 1 traitement j traitement k
14/5/2014 ANALYSES DE VARIANCE - ANOVA
http://www.cons-dev.org/elearning/stat/parametrique/5-3/5-3.html 5/17
... ... ...
... ... ...
Calculs intermdiaires raliser pour un traitement manuel (ou avec un tableur) :
Ti Tj Tk G totaux
somme des carrs
moyennes
(1) (2) (3)
Dcomposition de l'analyse de variance :
SCE traitements (3)-(1)
-
ddl : k-1
SCE erreur (2)-(3)
-
ddl : kn-k
SCE total (2)-(1)
-
ddl : kn-1
5.3.4.2. Exemple 1
5.3.4.2.1. Sujet et solution manuelle
14/5/2014 ANALYSES DE VARIANCE - ANOVA
http://www.cons-dev.org/elearning/stat/parametrique/5-3/5-3.html 6/17
On veut savoir si la quantit de nitrates varie d'une station l'autre le long d'une rivire. Pour cela, on prlve en 10 points (n=10)
chaque fois une certaine quantit d'eau dans 3 stations diffrentes (k=3).
Nitrates Station 1 Station 2 Station 3
50,00 162,00 120,00
52,00 350,00 120,00 n
123,00 125,00 122,00 10
100,00 320,00 221,00
200,00 112,00 253,00
250,00 200,00 141,00
220,00 40,00 182,00 k
220,00 162,00 175,00 3
300,00 160,00 160,00
220,00 250,00 214,00
T1 T2 T3 total : G
sommes 1735,00 1881,00 1708,00 5324,00
moyennes 173,50 188,10 170,80 177,47
S (x2)
368033,00 +435257,00 +311560,00 =
1114850,00
Somme des carrs des carts (SCE) entre traitements (inter-
groupe) = ou =(S(moyTj-moyX)2)*n
1732,47
Sommes des carrs des carts (SCE) exprimentales (erreur exp)
ou rsidu (intra-groupe) = - ou = S(S(X-moyT)2)
total
erreur =
67010,50 81440,90 19833,60 168285,00
Somme totale des carrs des carts = -
ou S(X-moyX)2
170017,47
Do :
Variance inter-groupes = SCE inter-groupes/ddl = 1732,47/2 = 866,23
14/5/2014 ANALYSES DE VARIANCE - ANOVA
http://www.cons-dev.org/elearning/stat/parametrique/5-3/5-3.html 7/17
Variance intra-groupes = SCE intra-groupes/ddl = 168285/27 = 6232,78
Calcul de F = Variance inter-groupes / Variance intra-groupes = 0,14

5.3.4.2.2. Utilisation de Statiew II
Les chantillons comparer tant indpendants, on disposera lensemble des mesures dans une seule colonne (Y1) et les numros
des chantillons des individus dans une seconde colonne (X1).

Conclusion du test statistique : La valeur de P tant largement suprieure au seuil de signification 0,05, on conserve donc
lhypothse nulle (pas de diffrence significative entre les chantillons).
Conclusion de lexprience : pour cette srie de mesures, on peut donc conclure que les taux de nitrates des trois stations ne
diffrent pas significativement ou que ces 3 stations ne diffrent pas significativement par leur taux de nitrates avec une seuil de
signification (risque derreur) de 5%.

5.3.4.3. Autre exemple
On dispose de k=3 chantillons comprenant n=5 individus dont les valeurs sont donnes dans le tableau ci-aprs : il sagit des
diffrences de temps de raction pour trois souches de souris soumises une mme exprience.
14/5/2014 ANALYSES DE VARIANCE - ANOVA
http://www.cons-dev.org/elearning/stat/parametrique/5-3/5-3.html 8/17
Souche 1 Souche 2 Souche 3
7 3 0
6 3 0
6 3 1
5 4 1
5 5 2
Analyse de la variance (Statview II)
Source : DDL S. des carrs Carr moyen
:
Test-F
Entre
groupes
2 62,8 31,4 42,8182
Intra-
groupes
12 8,8 ,7333 p=,0001
Total 14 71,6
Estimation de la variance entre composants = 6,1333
Dans cet exemple, la valeur de F(2,12) est trs suprieure au seuil de signification de 1% : 6,93. La probabilit exacte calcule est
de 0,0001.
Lhypothse nulle est donc rejete. On considre que les 3 chantillons diffrent significativement (la probabilit de se tromper est
de 0,0001).
Groupe Frquence Moyenne Dviation
standard
Erreur
standard
Groupe 1 5 5,8 ,8367 ,3742
Groupe 2 5 3,6 ,8944 ,4
Groupe 3 5 ,8 ,8367 ,3742
14/5/2014 ANALYSES DE VARIANCE - ANOVA
http://www.cons-dev.org/elearning/stat/parametrique/5-3/5-3.html 9/17
N.B. : Dviation standard = cart-type = racine carre de la variance. Erreur standard = erreur type = cart-type/Racine carre de n
Comparaison Diff.
moyenne
PLSD de
Fischer
F de
Scheff
t de
Dunnett
Groupe 1 vs
Groupe 2
2,2 1,1802* 8,25* 4,062
Groupe 1 vs
Groupe 3
5 1,1802* 42,6136* 9,2319
Groupe 2 vs
Groupe 3
2,8 1,1802* 13,3636* 5,1698
* significatif 95%
La significativit des tests PLSD de Fischer et F de Scheff permet de considrer quil y a une diffrence significative entre les
souches 1, 2 et 3 de souris testes.
Ces trois souches ragissent donc de faon significativement diffrentes au traitement : le groupe 3 prsente des temps de raction
significativement plus courts que les deux autres groupes. Le groupe 1 est le plus lent.
5.3.5. ANOVA avec mesures rptes sur les mmes individus
Cette situation correspond aux chantillons apparis des tests pour deux chantillons.
5.3.5.1. Dcomposition de la variance
14/5/2014 ANALYSES DE VARIANCE - ANOVA
http://www.cons-dev.org/elearning/stat/parametrique/5-3/5-3.html 10/17
individu traitement
1
traitement j traitement k total moyenne
1 P1 moyP1
2 P2 moyP2
... ... ... ... ... ...
i Pi moyPi
... ... ... ... ... ...
n Pn moyPn
total T1 Tj Tk G moyPn
moy moy T1 moy Tj moy Tk moyG
Calculs raliser dans le cas dun traitement manuel (ou avec un tableur) :
(1)? ? (2)? ?(3)? ?(4)?
Dcomposition de l'analyse de variance :
SCE inter-
individus =
(4)-(1) =
-
ddl : n-1
SCE intra-
individus =
(2)-(4) =
-
ddl : n(k-1)
SCE inter-
traitements =
(3)-(1) =
-
ddl : k-1
SCE rsidu (ou
intra-t)=
(2)-(3)-(4)+(1)
=
- - +
ddl : (n-1)(k-
1)
SCE total = (2)-(1) =
-
ddl : kn-1
14/5/2014 ANALYSES DE VARIANCE - ANOVA
http://www.cons-dev.org/elearning/stat/parametrique/5-3/5-3.html 11/17
5.3.5.2.. Exemple 1
5.3.5.2.1. Sujet et solution manuelle
Pour simplifier, on reprend les valeurs de lexemple prcdent (3.2.), en considrant qu'elles correspondent cette fois la quantit
de nitrates mesure aux mmes points de prlvements, au cours de 3 saisons, dans une station le long d'une rivire.
X1 X2 X3 total
50,00 162,00 120,00 332,00
52,00 350,00 120,00 522,00
123,00 125,00 122,00 370,00
100,00 320,00 221,00 641,00
200,00 112,00 253,00 565,00
250,00 200,00 141,00 591,00 n
220,00 40,00 182,00 442,00 10
220,00 162,00 175,00 557,00 k
300,00 160,00 160,00 620,00 3,00
220,00 250,00 214,00 684,00 total=G
total 1735,00 1881,00 1708,00 5324,00 5324,00
(1)=
944832,53
(2)=
1114850
(3)=
1735^2/n+1881^2/n+1708^2/n 946565,00
(4)=
332^2/k+522^2/k+...684^2/k 985621,33
Somme carrs totale ou =S(Xij-moyX)2
se dcompose en :
(2)-(1) 170017,47
Somme carrs inter-individus ou
(4)-(1) 40788,80
14/5/2014 ANALYSES DE VARIANCE - ANOVA
http://www.cons-dev.org/elearning/stat/parametrique/5-3/5-3.html 12/17
= k*(S(Pi/k-moyX)2)
et somme carrs intra-individus ou
=S(Xij-Pi/k)2
(2)-(4) 129228,67
Cette dernire se dcompose en 2 parties :
somme carrs inter-traitements ou =n*(_(moyTj-moyX)2)
(3)-(1) 1732,47
et somme rsiduelle des carrs ou
=somme carrs totale - somme carrs interindividus - somme carrs
intertraitements
(2)-(3)-(4)+
(1)
127496,20
5.3.5.2.2. Utilisation de Statview II
Prsentation des donnes : les chantillons tant apparis (mesures rptes), les valeurs mesures sont places dans des colonnes
diffrentes affectes des variables X1, X2, X3, Xn.
Conclusion du test statistique : La valeur de P tant largement suprieure au seuil de signification 0,05, on conserve donc
lhypothse nulle (pas de diffrence significative entre les mesures rptes).
Conclusion de lexprience : pour cette srie de mesures, on peut donc conclure que les taux de nitrates des trois sries de mesures
ne diffrent pas significativement ou que cette station ne prsente pas de variation significative du taux de nitrates, au cours des trois
saisons de mesure, avec un seuil de signification (risque derreur) de 5 %.
5.3.5.2.3. Autre exemple numrique
14/5/2014 ANALYSES DE VARIANCE - ANOVA
http://www.cons-dev.org/elearning/stat/parametrique/5-3/5-3.html 13/17
On tudie linfluence dune substance sur le temps de raction de n=5 sujets pralablement entrans rpondre un stimulus.
Lordre selon lequel chaque substance est administre chaque sujet est dtermin de manire alatoire. Une dure suffisante est
observe entre ladministration de deux substances diffrentes. Les rsultats obtenus sont des temps de raction sous linfluence de
chacune des k=4 substances testes.
n Substance
1
Substance
2
Substance
3
Substance
4
Total
individu 1 30 28 16 34
individu 2 14 18 10 22
individu 3 24 20 18 30
individu 4 38 34 20 44
individu 5 26 28 14 30
Source: ddl : S. des
carrs
Carr
moyen
Test-F Valeur P
Inter-
individus
4 680,8 170,2 3,148 ,0458
Intra-
individus
15 811 54,0667
Facteur
rpt
3 698,2 232,7333 24,7589 ,0001
Rsidus 12 112,8 9,4
Total 19 1491,8
Fiabilit pour : toutes les sries = 0,6823 ; une seule srie = 0,3494
Groupe Frquence Moyenne Dviation
stand
erreur stand
Colonne 1 5 26,4 8,7636 3,9192
14/5/2014 ANALYSES DE VARIANCE - ANOVA
http://www.cons-dev.org/elearning/stat/parametrique/5-3/5-3.html 14/17
Colonne 2 5 25,6 6,5422 2,9257
Colonne 3 5 14,6 3,8471 1,7205
Colonne 4 5 32 8 3,5777
Comparaison Diff.
moyenne
PLSD de
Fischer
F de
Scheff
t de
Dunnett
Col. 1 vs col.
2
,8 4,225 ,057 ,413
Col. 1 vs col.3 10,8 4,225* 10,34* 5,57
Col. 1 vs col.
4
-5,6 4,225* 2,78 2,888
Col. 2 vs col.
3
10 4,225* 8,865* 5,157
Col. 2 vs col.
4
-6,4 4,225* 3,631* 3,301
Col.3 vs col. 4 -16,4 4,255* 23,884* 8,458
* significatif 95%
Ce tableau permet de complter lANOVA en comparant les moyennes des groupes (colonnes) deux deux. Les tests proposs par
Staview sont : le PLSD de Fischer, le F de Scheff et le t de Dunnett.
Le PLSD de Fischer (Procdure de "least significant difference method" de Fisher) est utilis pour tester lhypothse nulle que
toutes les moyennes de la population sont gales. Cest une mthode pour contrler les erreurs de type 1 lorsque lon compare
plusieurs paires de moyennes. Lorsque les rsultats de lANOVA sont significatifs, on peut comparer les moyennes des groupes 2
2 en utilisant un test de t.
Le F de Scheff permet de dterminer si, aprs une ANOVA significative, les moyennes de 2 des groupes de la variable
indpendante diffrent. Le test de Scheff ne demande pas que tous les chantillons utiliss dans lANOVA aient la mme taille. Le
test de Tukey, lui, ncessiterait des chantillons de mme taille. Ce test trs conservatif ne devrait tre utilis que quand tous les
14/5/2014 ANALYSES DE VARIANCE - ANOVA
http://www.cons-dev.org/elearning/stat/parametrique/5-3/5-3.html 15/17
chantillons de lANOVA ont des tailles diffrentes.
L'intervalle de Scheff associe l'erreur d'estimation pour chaque moyenne en utilisant la mthode de F-distribution. Cela permet de
faire des comparaisons linaires parmi les moyennes de l'chantillon tout en contrlant le taux d'erreur ("experiment wide error
rate") un niveau dfini.

Le test de Dunnett est un test spcialis pour la comparaison multiple. Le test de Dunnett est employ quand les comparaisons ne
sont faites quavec le groupe tmoin contre tous les autres groupes.

Autres tests de comparaison de moyennes non disponibles dans Statview II :
Le HSD (honestly significant difference) intervals de Tukey : La technique du HSD de Tukey permet de comparer toutes les paires
de moyennes et d'y montrer des diffrences avec un risque alpha. La technique du HSD permet de spcifier un "family confidence
level" pour les comparaisons que vous entreprenez, au contraire de la mthode du LSD qui contrle le niveau derreur pour une
seule comparaison. L'intervalle du HSD est plus large que celui du LSD, ce qui rend plus difficile de dclarer qu'une paire de
moyennes diffre significativement. Le test HSD est de ce fait plus conservatif.

La procdure de Newman-Keuls: C'est une procdure de comparaisons multiple qui permet de comparer toutes les paires de
moyennes en contrlant le risque alpha global, un niveau dfini. C'est une procdure par tape, reposant sur une Studentized range
distribution. Bien qu'il ne fournisse pas d'estimation de l'intervalle de diffrence entre chaque paire de moyennes, il indique quelles
moyennes sont significativement diffrentes des autres.
Les intervalles de Bonferroni : permettent de comparer plusieurs moyennes. Cette mthode s'applique que la taille des groupes soit
la mme ou non. Utilisant la F-distribution, il gnre des intervalles qui permettent de faire un nombre dfini de comparaisons
linaires parmi les moyennes de lchantillon (sample means) tout en contrlant le taux derreur exprimental un niveau dfini
(specified level). Dans les procdures des STATLETS ANOVA, le nombre de comparaisons est dfini pour vous permettre de
comparer les diffrences entre toutes les paires de moyennes.
14/5/2014 ANALYSES DE VARIANCE - ANOVA
http://www.cons-dev.org/elearning/stat/parametrique/5-3/5-3.html 16/17
Procdure de Duncan : cest une procdure de comparaisons multiples qui permet de comparer toutes les paires de moyennes, en
contrlant le risque alpha gnral un niveau dfini. Cest une procdure par tape, reposant sur une Studentized range distribution.
Bien quelle ne fournisse pas destimation dintervalles pour la diffrence entre chaque palier de moyennes, cette procdure indique
quelles moyennes sont significativement diffrentes les unes des autres.
5.3.6. Remarque importante
Les calculs d'analyse de la variance comme, d'ailleurs, l'emploi du test t de Student-Fisher ou du test F de Sndcor ne sont
strictement valables que si les populations chantillonnes sont distribues selon la loi de Laplace-Gauss (plutt que
" normalement ").
Or, le plus souvent, cette condition n'est qu'approximativement ralise : la distribution de Laplace-Gauss n'est qu'un modle
thorique, et revt, par rapport aux distributions relles, le mme degr d'abstraction que les figures gomtriques par rapport aux
objets rels.
Ainsi, la distribution des prix d'un produit prsente, en gnral, une certaine asymtrie (vers la gauche); mais elle est suffisamment
faible pour que cette distribution puisse tre considre, en premire approximation, comme normale.
On s'exposerait, au contraire, des erreurs grossires en tendant ces tests des donnes (salaires, tailles des entreprises) dont la
distribution est fortement asymtrique.
Cependant, de nombreuses tudes ont montr que l'analyse de variance est peu sensible la non-normalit des populations-parents et
l'ingalit des variances. Il suffit en pratique d'viter son emploi lorsque les distributions des populations-parents sont trs
diffrentes (distributions en i ou en j par exemple ou sont de forme trs diffrente de l'une l'autre (en cloches dissymtries de
sens opposs par exemple) surtout sur de petits chantillons. Il est souvent difficile de contrler la validit des hypothses de
normalit et d'galit des variances (donnes peu nombreuses) ; Il est souvent prfrable de tenir compte de l'ensemble des
informations dont on dispose a priori au sujet des catgories de variables. De mme l'hypothse d'galit des variances est
secondaire lorsque les effectifs sont gaux. Quand les diffrentes conditions ne sont pas satisfaites, on peut essayer de s'en
rapprocher en essayant de normaliser ces donnes en leur substituant une variable auxiliaire (par exemple : log de X). Si cette faon
de faire ne donne pas satisfaction, on utilisera les tests non-paramtriques.

14/5/2014 ANALYSES DE VARIANCE - ANOVA
http://www.cons-dev.org/elearning/stat/parametrique/5-3/5-3.html 17/17
5.3.7. Annexe
Vocabulaire de lANOVA
Ligne Colonnes
Variables dpendantes Variables indpendantes
Variables expliquer Variables explicatives
Variables catgorielles, variables
qualitatives, variables nominales,
variables de classification
Variable exprimentale, condition
exprimentale, traitement
Variables endognes Variables exognes
Individus chantillons, Groupes, Traitements
Rsidus Facteurs
Une seule variable Plusieurs colonnes
Variance intra-groupe (concerne la
variation induite par les diffrents
individus constituant un groupe =
colonne) = variance rsiduelle
Variance inter-groupe (concerne la
variation induite par les diffrents
chantillons = comparaison des
effets des colonnes) = variance
inter-traitement
n = nombre dindividus dans un
chantillon
k = nombre dchantillons
comparer
SCE rsiduelle SCE factorielle