Vous êtes sur la page 1sur 17

Chapitre II : ANALYSES DE VARIANCE

1. Définition et démarche générale

Objectif de l'Analyse de Variance

D'une manière générale, l'objectif d'une analyse de variance (ANOVA) vise à


tester les différences significatives entre les moyennes.

Pourquoi le nom analyse de variance ?

Il peut sembler étrange qu'une procédure destinée à comparer des moyennes


soit appelée analyse de variance. Ce nom provient du fait que pour tester la
significativité statistique entre des moyennes, nous devons en fait comparer (c'est-à-
dire, analyser) les variances. Tout simplement parce que l’ensemble des calculs
de variances repose en fait sur les moyennes.

Quand utiliser l’ANOVA ?

 Pour tester l’effet d’une variable explicative discrète


 variable explicative = facteur et chaque facteur a plusieurs niveaux ou
traitements
 l’ANOVA teste si toutes les moyennes sont égales

Les analyses de variance ou analyses factorielles sont des techniques permettant de


savoir si une ou plusieurs variables dépendantes (appelées aussi variables
endogènes ou variables à expliquer) (valeurs numériques et continues [c-à-d des
effectifs, des rapports comme des longueurs ou des poids, etc..] = disposées dans
différentes lignes d’un tableau) sont en relation avec une ou plusieurs variables
dites indépendantes (ou variables exogènes ou variables explicatives) (disposées
dans différentes colonnes d’un tableau).

Rappel : qu’est-ce que la variance :


C’est la somme des carrés des écarts par rapport à la moyenne / nombre de
degrés de liberté = SCE/ddl (ceci lorsque le nombre d’individus
composant l’échantillon est réduit ; sinon, utiliser N’=N). La variance est le
carré de l’écart-type.

1
 Avec une seule variable dépendante (à expliquer), et une ou plusieurs
variables explicatives discrètes (dites aussi catégorielles, qualitatives,
nominales, de classification = ne pouvant donc prendre qu'un nombre
limité de valeurs comme le sexe, la catégorie socio-professionnelle, etc...)
on utilise l'analyse de variance.
 On appelle facteurs les variables explicatives. L'analyse consiste à
tester si les différences de variation dans chaque groupe (ou
échantillon) défini par les modalités des variables explicatives
s'écartent de manière significative de la valeur 0.

2. Vérification de la normalité des échantillons

Seuls des échantillons suivant une loi normale peuvent faire l’objet d’une
analyse de variance paramétrique. Pour vérifier que la distribution d’un
échantillon suit une loi normale, il est possible d’utiliser, dans R, le test de
Shapiro-Wilk

On reprend l'exemple illustrant le test de Lilliefors.

Sur un échantillon de taille 10, on a observé les valeurs suivantes d'une VD


numérique : 8, 9, 9, 10, 10, 10, 11, 13, 14, 14.

Est-il légitime de supposer que la distribution de la VD dans la population


parente suit une loi normale ?

Le test de Shapiro-Wilk est disponible dans le package "stats".


La fonction correspondante est shapiro.test.

X2 <- c(8, 9, 9, 10, 10, 10, 11, 13, 14, 14)

shapiro.test(X2)

R répond

Shapiro-Wilk normality test

data: X2

W = 0.88491, p-value = 0.1485

La statistique de test est:

2

 x(i) (avec des parenthèses entourant l'indice i) désigne la ième statistique d'ordre, i.e.,
le ième plus petit nombre dans l'échantillon;

 est la moyenne de l'échantillon;

Sachant que l'hypothèse nulle est que la population est normalement distribuée, si la p-
value est inférieure au niveau alpha choisi, alors l'hypothèse nulle est rejetée (i.e. on
conclut que les données ne sont pas issues d'une population normalement distribuée). Si la
p-value est supérieure au niveau alpha choisi, alors on ne peut pas rejeter l'hypothèse nulle
selon laquelle les données sont issues d'une population normalement distribuée. Par
exemple, pour un niveau alpha de 0.05, un jeu de données avec une p-value de 0.32
n'entraîne pas le rejet de l'hypothèse nulle selon laquelle les données sont issues d'une
population normalement distribuée. Donc si la p-value est grande, la distribution tend vers
une distribution normale.

NB : Les tests de Kolmogorov-Smirnov et de Lilliefors

X1 <- c(8.43, 8.70, 11.27, 12.92, 13.05, 13.05, 13.17,


13.44, 13.89, 18.90)
ks.test(X1,"pnorm",mean=13, sd=3)

R répond

One-sample Kolmogorov-Smirnov test

data: X1

D = 0.28336, p-value = 0.3982

alternative hypothesis: two-sided

Warning message:

3
In ks.test(X1, "pnorm", mean = 13, sd = 3) :

aucun ex-aequo ne devrait être présent pour le test de Kolmogorov-Smirnov

On peut éviter le message d'avertissement concernant les ex aequo en modifiant


légèrement l'une des valeurs 13.05 :

X1 <- c(8.43, 8.70, 11.27, 12.92, 13.05, 13.050001,


13.17, 13.44, 13.89, 18.90)
ks.test(X1,"pnorm",mean=13, sd=3)

One-sample Kolmogorov-Smirnov test

data: X1

D = 0.28336, p-value = 0.3326

alternative hypothesis: two-sided

On observe effectivement une valeur du niveau de significativité assez


différente de la précédente.

3. Homoscédaticité des variances par le test de Hartley

On calcule les différentes variances pour chacun des échantillons à comparer, et on


fait le rapport de la plus grande sur la plus petite, ce rapport est F.

Cette valeur est comparée, dans une table de Hartley (ou du Fmax), à une valeur
théorique et doit lui être inférieure pour un seuil de risque choisi (par exemple,
95 %) pour conserver l'hypothèse d'homogénéité des variances.

Les d.d.l. sont, pour la colonne de la table du Fmax, le nombre de traitements (=k)
(colonnes de données), et pour la ligne de la table, le nombre de données du plus
grand échantillon - 1 (=n-1).

4
4. Analyse de variance à un facteur pour échantillons
indépendants.

L'hypothèse nulle H0 est l'égalité des moyennes des populations


dont sont extraits les échantillons : m1=m2=m3=...=mk

4.1. Principe

Notation : Le nombre d'échantillons est noté k, le nombre de mesures par


échantillon est désigné par n et le nombre total de mesures, kn.

L'analyse de variance à un facteur (one-way analysis of variance) va consister


à chercher le rapport entre la variance entre les groupes (V. inter-groupe) et la
variance à l'intérieur des groupes (V. intra-groupe).

La valeur de ce rapport appelé F [attention : ce F n’a rien à voir avec le F du


test de vérification de l’homogénéité des variances] est comparée à celle d'une table
de F de Snedecor, table à double entrée avec pour numérateur le [nombre
d'échantillons (k) moins un] soit (k-1) et pour dénominateur le [nombre total
de mesures - k] soit (kn-k).

1 .Manuellement, on calcule :

a) la variance totale par rapport à la moyenne globale des n mesures ;

5
b) la variance intra-groupes (celle qui n'est pas liée aux conditions
expérimentales).

2. Par différence [a-b] on obtient la variance inter-groupes (qui est liée aux
différences de conditions expérimentales).

a = [a-b] + b
Variance totale = Variance inter-groupe
+ Variance intra-groupe
[SCE à la moyenne = [SCE factorielle] + [SCE
générale] résiduelle]
=

 Variance inter-groupe appelée Variance expliquée : différence entre la


moyenne de chaque groupe et la moyenne générale.
 Variance intra-groupe appelée Variance résiduelle : différence entre la
valeur de chaque individu et la moyenne du groupe.
 Variance Totale : Différence entre la valeur de chaque individu et la
moyenne générale.

3. On calcule le rapport :

F = variance inter-groupes / variance intra-groupes ou résidu

L’ANOVA se présente sous forme de tableau synthétisant l’ensemble des résultats


des calculs que nous présentons ci-dessous.

6
Source de Variance ∑ Carrés DDL Carré Moyen F p-Value

Intergroupe - Expliqué SCE K - 1* CME CME / CMR p-Value

Intragroupe - Résiduelle SCR n - K* CMR - -

Totale SCT n-1 - - -

*K étant le nombre d’échantillons différents à comparer.

Calculer la Somme des Carrés des Ecarts - SCE

On va commencer par calculer la somme carrée des écarts. Elle consiste à calculer
l’écart des valeurs par rapport à la moyenne de l’ensemble des groupes (moyenne générale).

On cherche à savoir si la moyenne des différents groupes est éloignée de la moyenne


générale. Ainsi si cette valeur est grande, la variabilité entre les moyennes sont
importantes et nous emmène à rejeter l’hypothèse nulle. Autrement dit, les échantillons
sont différents.

La formule de calcul pour chacun des échantillons est la suivante :

SCE = Σ nk* (μ groupe – μ générale)2

Avec :

 μgroupe : moyenne de chacun des groupes


 μgénérale : moyenne de l’ensemble des groupes
 nk : Taille de chacun des échantillons

Calculer la Somme des Carrés des Résidus - SCR

La somme des carrés des résidus représente les écarts des valeurs dans leur propre groupe.
On cherche ainsi à savoir si les valeurs de chacun des groupes sont agglutinées autour de la
moyenne ou s’il y a beaucoup de variabilité. En clair, on suppose donc que s’il y a beaucoup
de variabilité entre les valeurs d’un même groupe, alors la différenciation entre les groupes
n’est pas claire. A contrario, si nous avons peu de variabilité entre les valeurs d’un même
groupe (SCR faible) et que nous avons beaucoup d’écarts entre les groupes (SCE fort), alors
on pourra rejeter l’hypothèse nulle avec un fort degré de certitude.

Au contraire de la SCE, la SCR est unique quelque soit le nombre d’échantillon. La formule
de calcul est la suivante :

SCR = Σ (Xi – μgroupe)2


Avec :

7
 Xi : Les valeurs d’un même groupe
 μgroupe : la moyenne du groupe en questions

Déduire la Somme des Carrés Totale – SCT

La SCT représente simplement l’addition des SCE et SCR et donc de la variabilité totale de
nos échantillons. Elle se calcule de deux manières différentes :

SCT = SCE + SCT

SCT = Σ (Xi – μgénérale)2


Avec :

 Xi : les X valeurs de l’ensemble des échantillons


 μgénérale : moyenne de l’ensemble des groupes

Le nombre de degrés de liberté

Le nombre de degré de liberté est représentatif du niveau de connaissance que nous


pouvons tirer de notre test. Dans notre cas, nous allons avoir 3 types de degré de liberté :

 Nb de ddl pour chacun des SCE : ddlSCE = K – 1 =3-1= 2


 Nb de ddl pour le SCR : ddlSCR = n – K (n-1)*k = 3*9=27
 Nb de ddl pour le SCT : ddlSCT = n – 1 (n*k)-1=29

Avec pour rappel :

 K : le nombre d’échantillons
 n : le nombre d’individus au total

Calculer les carrés moyens

Les carrés moyens représentent le “poids” que l’on peut donner aux différentes valeurs de
SCE et SCR. Ils se calculent en faisant le rapport avec les ddl. On retrouve donc :

 CME : SCE / ddlSCE


 CMR : SCR / ddlSCR

8
Valeur pratique

La statistique de test représente le rapport entre la variabilité expliquée et la variabilité


résiduelle corrigée des degrés de liberté. Plus ce rapport est grand est plus l’écart de
variabilité entre les groupes est prononcé. On la calcule avec la formule suivante :

F = CME / CMR

Il y a donc autant de valeur pratique qu’il y a de valeur de CME et donc de groupes


d’échantillons.

Etape 8 : Valeur critique

La valeur pratique suit une loi de Fisher pour ddlSCE et ddlSCR. L’utilisation de la loi de
Fisher dans le cas où nous souhaitons tester une différence, est un test unilatéral à droite.
On choisit la valeur α souhaité, généralement 5%, puis on la détermine soit via les tables
spécifiques soit sous Excel avec la fonction INVERSE.LOI.F.N (1 – α ; ddlSCE ; ddlSCR ).

Calculer la p-Value

Pour valider la significativité du test, on calcule la p-Value via la formule Excel LOI.F.( Valeur pratique ; ddlSCE ;
ddlSCR).

Interprétation

Lecture de la comparaison entre la valeur pratique et la valeur critique


Sens du Résultat Conclusion Conclusion pratique
test statistique

Bilatéral Valeur pratique ≥ Valeur On rejette H0 Les échantillons ont des moyennes qui diffèrent.
critique

Valeur pratique < Valeur On retient H0 Les échantillons ont des moyennes qui ne diffèrent
critique pas.

9
Lecture de la p-Value
Résultat Conclusion statistique Conclusion pratique

p-value On retient H0 Nos données sont identiques ou proches avec un


>α risque de se tromper de X%

p-Value On rejette H0 Nos données sont statistiquement différentes


<α avec un risque de se tromper de X%

Exemple 1 :

On veut savoir si la quantité de nitrates varie d'une station à l'autre le long d'une
rivière. Pour cela, on prélève en 10 points (n=10) chaque fois une certaine quantité
d'eau dans 3 stations différentes (k=3).

T1 T2 T3
Nitrates Station 1 Station 2 Station 3
1 50 162 120 n = 10
2 52 350 120 k = 3
3 123 125 122
4 100 320 221
5 200 112 253
6 250 200 141
7 220 40 182
8 220 162 175
9 300 160 160
10 220 250 214 Total

Somme 1735 1881 1708 5324

10
Moyennne par
traitement
173,5 188,1 170,8 177,4666667 moyenne générale

Moy trait - moye gene -3,966666667 10,633 -6,667

(moy trait - moye gene)² 15,73444444 113,07 44,444

n *(moy trait - moy gen)² 157,3444444 1130,7 444,44

SCE 1732,466667

- Somme des carrés des écarts (SCE) entre traitements (inter-


groupe) = 1732,47
- Sommes des carrés des écarts (SCE) expérimentales (erreur exp)
ou résidu (intra-groupe)

11
T1 T2 T3
(Xi -
(Xi - moy (Xi - moy (Xi - moy Station (Xi - moy
Nitrates Station 1
groupe)
(Xi - moy groupe)² Station 2
groupe) groupe)² 3 moy groupe)²
groupe)
50 -123,5 15252,25 162 -26,1 681,21 120 -50,8 2580,64 n = 10
52 -121,5 14762,25 350 161,9 26211,61 120 -50,8 2580,64 k = 3
123 -50,5 2550,25 125 -63,1 3981,61 122 -48,8 2381,44
100 -73,5 5402,25 320 131,9 17397,61 221 50,2 2520,04
200 26,5 702,25 112 -76,1 5791,21 253 82,2 6756,84
250 76,5 5852,25 200 11,9 141,61 141 -29,8 888,04
220 46,5 2162,25 40 -148,1 21933,61 182 11,2 125,44
220 46,5 2162,25 162 -26,1 681,21 175 4,2 17,64
300 126,5 16002,25 160 -28,1 789,61 160 -10,8 116,64
220 46,5 2162,25 250 61,9 3831,61 214 43,2 1866,24 Total
Somme 1735 1881 1708 5324
Moyenne par
traitement
173,5 188,1 170,8 177,4666667 moyenne gé
(moy trait - moye groupe)² 67010,5 81440,9 19833,6

SCE résiduel 168285

12
T1 T2 T3
(Xi - moy (Xi - moy (Xi - moy Station (Xi - moy (Xi - moy
Nitrates Station 1 Station 2 (Xi - moy generale)
generale) generale)² generale)² 3 generale) generale)²

50 -127,4666667 16247,75111 162 -15,46666667 239,2177778 120


-57,46666667 3302,417778 n = 10
52 -125,4666667 15741,88444 350 172,5333333 29767,75111 120
-57,46666667 3302,417778 k=3
123 -54,46666667 2966,617778 125 -52,46666667 2752,751111 122 -55,46666667 3076,551111
100 -77,46666667 6001,084444 320 142,5333333 20315,75111 221 43,53333333 1895,151111
200 22,53333333 507,7511111 112 -65,46666667 4285,884444 253 75,53333333 5705,284444
250 72,53333333 5261,084444 200 22,53333333 507,7511111 141 -36,46666667 1329,817778
220 42,53333333 1809,084444 40 -137,4666667 18897,08444 182 4,533333333 20,55111111
220 42,53333333 1809,084444 162 -15,46666667 239,2177778 175 -2,466666667 6,084444444
300 122,5333333 15014,41778 160 -17,46666667 305,0844444 160 -17,46666667 305,0844444
220 42,53333333 1809,084444 250 72,53333333 5261,084444 214 36,53333333 1334,684444 Total
Somme 1735 1881 1708 5324

Moy groupe
173,5 188,1 170,8 177,4666667

Somme (xi - moy


generale)²
67167,84444 82571,57778 20278,04444

SCE total 170017,5

13
D’où :

Variance inter-groupes = SCE inter-groupes/ddl = 1732,47/2 = 866,23

Variance intra-groupes = SCE intra-groupes/ddl = 168285/27 = 6232,78

Calcul de F = Variance inter-groupes / Variance intra-groupes = 0,14

Conclusion du test statistique : La valeur de p étant largement supérieure au seuil de


signification 0,05, on conserve donc l’hypothèse nulle (pas de différence significative
entre les échantillons).

Conclusion de l’expérience : pour cette série de mesures, on peut donc conclure


que les taux de nitrates des trois stations ne diffèrent pas significativement ou
que ces 3 stations ne diffèrent pas significativement par leur taux de nitrates avec
un seuil de signification (risque d’erreur) de 5%.

Le PLSD de Fischer (Procédure de "least significant difference method" de Fisher)


est utilisé pour tester l’hypothèse nulle que toutes les moyennes de la population sont
égales. C’est une méthode pour contrôler les erreurs de type 1 lorsque l’on compare
plusieurs paires de moyennes. Lorsque les résultats de l’ANOVA sont significatifs, on
peut comparer les moyennes des groupes 2 à 2 en utilisant un test de t.

Le F de Scheffé permet de déterminer si, après une ANOVA significative, les


moyennes de 2 des groupes de la variable indépendante diffèrent. Le test de Scheffé
ne demande pas que tous les échantillons utilisés dans l’ANOVA aient la même taille.
Le test de Tukey, lui, nécessiterait des échantillons de même taille. Ce test très
conservatif ne devrait être utilisé que quand tous les échantillons de l’ANOVA ont des
tailles différentes.

14
L'intervalle de Scheffé associe l'erreur d'estimation pour chaque moyenne en utilisant
la méthode de F-distribution. Cela permet de faire des comparaisons linéaires parmi
les moyennes de l'échantillon tout en contrôlant le taux d'erreur ("experiment wide
error rate") à un niveau défini.

Le test de Dunnett est un test spécialisé pour la comparaison multiple. Le test de


Dunnett est employé quand les comparaisons ne sont faites qu’avec le groupe témoin
contre tous les autres groupes.

Autres tests de comparaison de moyennes non disponibles dans Statview II :

Le HSD (honestly significant difference) intervals de Tukey : La technique du HSD


de Tukey permet de comparer toutes les paires de moyennes et d'y montrer des
différences avec un risque alpha. La technique du HSD permet de spécifier un "family
confidence level" pour les comparaisons que vous entreprenez, au contraire de la
méthode du LSD qui contrôle le niveau d’erreur pour une seule comparaison.
L'intervalle du HSD est plus large que celui du LSD, ce qui rend plus difficile de
déclarer qu'une paire de moyennes diffère significativement. Le test HSD est de ce
fait plus conservatif.

La procédure de Newman-Keuls: C'est une procédure de comparaisons multiple qui


permet de comparer toutes les paires de moyennes en contrôlant le risque alpha
global, à un niveau défini. C'est une procédure par étape, reposant sur une Studentized
range distribution. Bien qu'il ne fournisse pas d'estimation de l'intervalle de différence
entre chaque paire de moyennes, il indique quelles moyennes sont significativement
différentes des autres.

Les intervalles de Bonferroni : permettent de comparer plusieurs moyennes. Cette


méthode s'applique que la taille des groupes soit la même ou non. Utilisant la F-
distribution, il génère des intervalles qui permettent de faire un nombre défini de
comparaisons linéaires parmi les moyennes de l’échantillon (sample means) tout en
contrôlant le taux d’erreur expérimental à un niveau défini (specified level). Dans les
procédures des STATLETS ANOVA, le nombre de comparaisons est défini pour vous
permettre de comparer les différences entre toutes les paires de moyennes.

Procédure de Duncan : c’est une procédure de comparaisons multiples qui permet de


comparer toutes les paires de moyennes, en contrôlant le risque alpha général à un
niveau défini. C’est une procédure par étape, reposant sur une Studentized range
distribution. Bien qu’elle ne fournisse pas d’estimation d’intervalles pour la différence

15
entre chaque palier de moyennes, cette procédure indique quelles moyennes sont
significativement différentes les unes des autres.

5.3.6. Remarque importante

Les calculs d'analyse de la variance comme, d'ailleurs, l'emploi du test t de Student-


Fisher ou du test F de Snédécor ne sont strictement valables que si les populations
échantillonnées sont distribuées selon la loi de Laplace-Gauss (plutôt que
" normalement ").

Or, le plus souvent, cette condition n'est qu'approximativement réalisée : la


distribution de Laplace-Gauss n'est qu'un modèle théorique, et revêt, par rapport aux
distributions réelles, le même degré d'abstraction que les figures géométriques par
rapport aux objets réels.

Ainsi, la distribution des prix d'un produit présente, en général, une certaine asymétrie
(vers la gauche); mais elle est suffisamment faible pour que cette distribution puisse
être considérée, en première approximation, comme normale.

On s'exposerait, au contraire, à des erreurs grossières en étendant ces tests à des


données (salaires, tailles des entreprises) dont la distribution est fortement
asymétrique.

Cependant, de nombreuses études ont montré que l'analyse de variance est peu
sensible à la non-normalité des populations-parents et à l'inégalité des variances. Il
suffit en pratique d'éviter son emploi lorsque les distributions des populations-parents
sont très différentes (distributions en i ou en j par exemple ou sont de forme très
différente de l'une à l'autre (en cloches à dissymétries de sens opposés par exemple)
surtout sur de petits échantillons. Il est souvent difficile de contrôler la validité des
hypothèses de normalité et d'égalité des variances (données peu nombreuses) ; Il est
souvent préférable de tenir compte de l'ensemble des informations dont on dispose a
priori au sujet des catégories de variables. De même l'hypothèse d'égalité des
variances est secondaire lorsque les effectifs sont égaux. Quand les différentes
conditions ne sont pas satisfaites, on peut essayer de s'en rapprocher en essayant de
normaliser ces données en leur substituant une variable auxiliaire (par exemple : log
de X). Si cette façon de faire ne donne pas satisfaction, on utilisera les tests non-
paramétriques.

5.3.7. Annexe

Vocabulaire de l’ANOVA
Ligne Colonnes

16
Variables dépendantes Variables indépendantes
Variables à expliquer Variables explicatives
Variables catégorielles, variables Variable expérimentale, condition
qualitatives, variables nominales, expérimentale, traitement
variables de classification
Variables endogènes Variables exogènes
Individus échantillons, Groupes,
Traitements
Résidus Facteurs
Une seule variable Plusieurs colonnes
Variance intra-groupe (concerne Variance inter-groupe (concerne
la variation induite par les la variation induite par les
différents individus constituant un différents échantillons =
groupe = colonne) = variance comparaison des effets des
résiduelle colonnes) = variance inter-
traitement
n = nombre d’individus dans un k = nombre d’échantillons à
échantillon comparer
SCE résiduelle SCE factorielle

17

Vous aimerez peut-être aussi