Vous êtes sur la page 1sur 49

Anova à deux facteurs

Encadré par : Mr Doumi Karim


Réalisé par : - Berrada Mouna
- Mouatarif Mohamed Ramzi
- Ould Elmehdi Ghita
- Cheikh Maoulainaine Cheikh Hassana
Plan
 Théorie a propos d’anova

 Application d’anova

 Procédure d’anova sur SPSS sur la base


d’une étude de cas .

 Interprétation
Définition de l’anova

Anova à deux facteurs est utilisée pour comparer les


différentes moyennes entre les groupes qui ont été divisés
sur deux variables indépendantes ( appelées facteurs ) .
Objectif

L’objectif principal d’une Anova à deux facteurs est de


comprendre s’il existe une interaction entre les deux
variables indépendantes sur la variable dépendante .
Question

Quand on étudie l’effet de deux


facteurs sur une variable
dépendante, quels sont les
avantages de réaliser une ANOVA
à 2 facteurs plutôt que deux
ANOVA à un facteur ?
Réponse
Si vous partez d'une ANOVA à 2 facteurs
et que vous faites ensuite un ANOVA à un
facteur, les variations de l'autre facteur vont
alors se retrouver dans la variance
résiduelle, ce qui va donc faire baisser la
valeur du test et à la fois la puissance et la
significativité du test.
Rappel de quelques notions :

 Facteur :toute variable observable pouvant


être considérée comme une source de
variations possible.
 variance : une mesure servant à caractériser
la dispersion d'un échantillon ou d'une
distribution.
 Analyse Univariée : analyse qui ne porte
que sur une seule variable dépendante .
 Analyse multivarié : appelé aussi
MANOVA , c’est une généralisation de
l’analyse de la variance qui est univariée .
Elle est aussi utilisée pour identifier des
interactions entres les variables
dépendantes et entre les variables
indépendantes .
 Degrés de liberté : désigne le nombre de variables
aléatoires qui ne peuvent être déterminées ou
fixées par une équation .
 Par exemple si l'on cherche deux chiffres dont la
somme est 12, aucun des deux chiffres ne peut
être directement déterminé par la simple
équation : X+Y= 12 .

 X peut être choisi arbitrairement, mais alors


pour Y il n'y a plus le choix. Ainsi, si vous
choisissez 11 comme valeur pour X, Y vaut
obligatoirement 1. Il y a donc deux variables
aléatoires (X,Y) , mais un seul degré de liberté.
 Interaction : Le terme d'interaction dans
une ANOVA bidirectionnelle vous
informe si l'effet de l'une de vos variables
indépendantes sur la variable dépendante
est le même pour toutes les valeurs de
votre autre variable indépendante .
CONDITIONS D’APPLICATION DE
L’ANOVA :
 les populations étudiées suivent une
distribution normale
 les variances des populations sont toutes
égales (HOMOSCEDASTICITE)
 les échantillons de tailles sont prélevés
aléatoirement et indépendamment dans
les populations.
LES PRINCIPES DU TEST
D’ANOVA :

 1. Les groupes sont indépendants et tirés


au hasard de leur population respective :
Il ya aucune relation entre les observations
à l’intérieur d’un groupe, ni relation entre
les observations entre les groupes.
 2. Les valeurs des populations sont
normalement distribuées :

ANOVA n’est pas très sensible aux écarts


de la normalité.
3. Les variances des populations sont
égales (homogènes) :
 peut être vérifiée par l’examen visuel des
graphiques boites à moustaches ou
encore par le test de Levens qui est
disponible dans les options de l'analyse.
Hypothèse nulle :

 Il y a donc trois hypothèses à considérer et à


tester. La première concerne l’effet simple
de la variable SEXE (S)
H0 S : X S1 = X S2
 La suivante, l’effet simple de la variable
DOMAINE (D)
H0 D : XD1 = XD2 = XD3
 La dernière concerne l’effet d’interaction entre
les deux facteurs
H0 SxD : X S1xD1 = X S2xD1 = X S1xD2 = …
= X SnxDn
 L’hypothèse alternative (H1) associée à chaque
hypothèse nulle est qu’il existe une ou des
différences de moyennes entre les groupes, c’est-
à-dire qu’au moins une des moyennes est
significativement différente des autres.
TEST DE L’HYPOTHÈSE NULLE :
 Tout comme pour l’ANOVA, nous voulons déterminer si les
différences de moyennes entre les groupes formés par les variables
catégorielles sont issues de la variabilité naturelle ou si certains
d’entre-deux se distinguent significativement de la moyenne
populationnelle (H1).
 Pour cela , nous allons discuter 3 parties , qui sont :
 La somme des carrés : 1- La somme des carrés totales .
2- La somme des carrés du modèle .
3-La somme des carrés résiduelles .
• Les ratios F .
• La taille de l’effet .
La somme des carrés :

 La somme des carrés totales :

 nous utilisons la même équation que pour


la régression simple, soit la variance de
toutes les valeurs individuelles, sans tenir
compte des variables indépendantes.
Exemple :
 Le nombre de degrés de liberté (ddlT) associé à la SCT est
N-1.
 Voici la liste des du taux horaire initial des 44 participants. Le
taux horaire moyen est de 26,13 $.

 La variance est de 29,92. Nous devons multiplier cette


somme par 43 pour obtenir la somme des carrés totale :
1286,56
La somme des carrés du modèle :
 La SCM ou la somme des carrés
intergroupes représente la variabilité
entre les groupes. Elle est calculée comme
dans l’ANOVA en faisant la somme des
différences entre la moyenne de chaque
groupe et la moyenne générale.
Exemple :
 Dans ce cas on a Sexe et Domaine et leurs
interactions :
 1- Sexe :

 Le calcul de la SCS donne une valeur de 10,85,


avec un degré de liberté de 1.
 2-Domaine:

 La SCD est de 453,15 et le degré de


liberté, de 2.
3-Interactions :
 L’équation est la suivante :

 SCSxD = SCM – SCS – SCD = 130,03

 Le nombre de degrés de liberté se calcule


de la même façon : ddlSxDAxB = ddlM –
ddlS – ddlD. Dans notre cas, il sera de 2.
La somme des carrés résiduelle :
 la somme des carrés résiduelle ou la somme des
carrés intra-groupe représente la variance
individuelle dans les scores qui ne peut être
expliquée par les variables introduites dans le
modèle .

 SCR = s2groupe1 (n1-1) + s2groupe2 (n2-1)


+ s2groupe3 (n3-1) + s2groupe4 (n4-1)
+ s2groupe5 (n5-1) + s2groupe6 (n6-1) = 675,14

Le degré de liberté sera cette fois la somme de


tous les n-1, ce qui donne ddlR = 37.
Les ratios F :
 Ces derniers se calculent à partir des
carrés moyens de chacune des sommes
des carrés.
 Vous pouvez ensuite calculer les mêmes
ratios F que pour l’ANOVA :
La taille de l’effet :
 Cet indice de taille de l’effet est toujours basé sur la
somme des carrés, mais aussi sur la variance expliquée
par le modèle et l’erreur de variance qui lui est
associée.Vous pouvez trouver la procédure pour le
calculer dans Howell (2002) ou dans Field (2005).
 Le η2 s’interprétera toujours de la même façon :
Étude de cas anova
à 2 facteur
Énoncé
Un chercheur était intéressé à savoir si l'intérêt d'un individu
pour la politique était influencé par son niveau d'éducation et
son sexe. Ils ont recruté un échantillon aléatoire de
participants à leur étude et leur ont demandé leur intérêt
pour la politique, qu'ils ont noté de 0 à 100, avec des scores
plus élevés indiquant un plus grand intérêt pour la politique.
Le chercheur a ensuite divisé les participants par sexe
(homme / femme) et ensuite par niveau d'éducation (école /
collège / université).
On étudie donc l’effet de chacune de deux facteurs ci-dessus sur l’intérêt d’un
individu pour la politique en utilisant l’ANOVA à 2 facteurs sur un échantillon
de n=60 observations.
Et par la suite ; on peut extraire la variable dépendante qui est l’intérêt pour la
politique et les variables explicatifs : le sexe et le niveau d’étude; .

1 – les tests d’hypothèses :

L’analyse de variance à 2 facteurs permet 3 tests de Fisher:

Effet du premier facteur : sexe


• H0: il n’ya pas de différence entre l’intérêt pour la politique entre les
hommes et les femmes
• il n’ya pas d’effet de sexe sur l’intérêt pour la politiques (les moyennes
son égales)

• H1: il y’a une différence de l’intérêt à la politique entre les hommes et les
femmes
• il y’a un effet .
Effet du second facteur: niveau d’étude

. H0: il n’ya pas de différence entre l’intérêt à la politique entre les


individus à l’école ; en collège; ou en université

• H1: il y’a une différence entre l’intérêt à la politique entre les individus à
l’école; en collége;ou en université

Effet de l’interaction des 2 facteurs

. H0: il n’ya pas d’effet des 2 facteurs

.H1: il y’a un effet des 2 facteurs


111. Procédure d’anova sur SPSS sur la base de
l’étude de cas .

Dans SPSS Statistics, nous avons séparé les individus dans


leurs groupes appropriés en utilisant deux colonnes
représentant les deux variables indépendantes, et les avons
étiquetés sexe et Edu_Level. Pour le sexe, nous avons codé
«hommes» comme 1 et «femmes» comme 2, et pour
Edu_Level, nous avons codé «école» comme 1, «collège»
comme 2 et «université» comme 3.
L'intérêt des participants pour la politique, c’est à dire la
variable dépendante- a été entré sous le nom de variable,
Int_Politics
 Procédure de test dans SPSS Statistics.
Les 14 étapes ci-dessous vous montrent comment
analyser vos données à l'aide d'une ANOVA à 2 facteur
dans SPSS Statistics lorsque les six hypothèses de la
section précédente, ont été respectée
1 - Cliquez sur Analyser> Modèle linéaire général> Univarié ...
dans le menu supérieur, comme illustré ci-dessous
Dans notre cas on traite uniquement de l’ANOVA dit univarié car il porte sur une
seule variable dépendante , Il est possible de créer un modèle factoriel avec plus
d’une variable dépendante, appelé MANOVA .il existe d’autres modèles entre autres
les modèles à mesures répétées.
2 - Vous verrez apparaître la boîte de dialogue Univariée, comme indiqué ci-dessous:
3- Transférez la variable dépendante, Int_Politics, dans la zone Variable
dépendante: et transférez les deux variables indépendantes, Gender et
Edu_Level, dans la zone Facteur (s) fixe (s):. Vous pouvez le faire en
utilisant le bouton SPSS Flèche Droite.
On a choisi les facteurs fixes et non pas les facteurs aléatoires car dans le cadre
d'une analyse de variance désignent les facteurs d'un plan ANOVA avec des
niveaux qui sont délibérément ordonnés par l'expérimentateur c’est-à-dire le
travail ne se fait pas dans un échantillon aléatoire issu d'une population infini
4 - Cliquez sur le bouton SPSS Plots (diagrammes).vous sera présentée, comme
indiqué ci-dessous:
5- Transférez la variable indépendante, Edu_Level, de la zone Facteur: dans la
zone axe horizontal: et transférez l'autre variable indépendante, Gender, dans
la zone courbes-distinctes : Vous serez présenté avec l'écran suivant:
Note: Il sera utile de mettre la variable indépendante avec le plus grand nombre de
groupes dans la case Axe horizontal: dans notre cas on a la variable niveau
d’éducation .
6 - Cliquez sur le bouton ajouter. Vous verrez que "Edu_Level * Gender" a été
ajouté à la zone Plots indiqué ci-dessous :
7- Cliquez sur le bouton continuer , cela vous ramènera à la boite de dialogue
Univariée .
8- Cliquez sur le bouton SPSS post-hoc. Vous verrez apparaître la boîte de
dialogue Univariate: Comparaisons multiples post-hoc pour les moyennes
observées, comme indiqué ci-dessous:
9- Transférez Edu_Level à partir de la case Facteur (s): à la case test post hoc
pour:
Cela fera en sorte que la zone « hypothèse de variance égales » deviendra
active (perdra le «reflet gris») et vous présentera quelques choix pour le
test post hoc à utiliser. Pour cet exemple, nous allons sélectionner Tukey, qui
est un bon test post hoc complet.
Tukey : compare les groupes deux à deux à partir d'une distribution. Il est plus
puissant que le test Bonferroni avec des grands échantillons.
10- Cliquez sur le bouton continuer pour revenir à la boite de dialogue
Univariate .
11- Cliquez sur le bouton Options SPSS. Cela vous présentera la boîte de
dialogue Univariate: Options, comme indiqué ci-dessous:
12-Transférer Gender, Edu_Level et Gender * Edu_Level à partir
de la case facteur et interaction : dans la zone afficher les
moyennes pour : Dans la zone "Affichage", cochez l'option
Statistiques descriptives.Vous serez présenté avec l'écran suivant:

13 et 14 - Puis en cliquant sur « continue » en revenant à la boite de dialogue et on


clique sur « ok » pour se retrouver avec le résultat.
interprétation du résultats
En cliquant sur le bouton Plots (diagrammes)

. Un effet d'interaction peut


généralement être vu comme un
ensemble de lignes non parallèles
(avec les lignes qui se croisent)
Les éléments importants à observer dans le
tableau sont, pour chacune des variables et du
terme d’interaction, les valeurs F et leurs
significations. Ces dernières nous permettront
de répondre à notre question de recherche :

La dernière colonne indique si le test est


significatif ou non. Le seuil de signification est
toujours fixé à 0,05.
Pour récapituler :

Ici on observe les ( Sig.) donc :


→ p > 0,05 : Ainsi le facteur « sexe» n’a pas un effet
significatif sur l’intérêt pour la politique donc on peut
pas rejeter H0
(il n’ya pas de différence entre homme et femme)

→ p < 0,05 : Ainsi le facteur « niveau d’éducation » a un


effet significatif (donc on rejette H0 et on accepte H1)
(il y’a une différence entre les groupes )

→ p < 0,05 : Ainsi le facteur interaction «sexe et niveau


d’étude » a un effet significatif sur l’intérêt pour la
politique (et donc on rejette H0 et on accepte H1)
L'analyse de variance nous indique qu'il existe des différences
entre les groupes, mais ne précise pas où sont situées ces
différences. Pour remédier à la situation, nous avons fait un
test post-hoc avec la comparaison de tukey .
Finalement; et pour répondre à la principale
question ; Une analyse simple des principaux
effets de l’interaction des 2 facteurs a montré
que les hommes étaient significativement plus
intéressés par la politique que les femmes
lorsqu'ils étaient éduqués au niveau
universitaire mais qu'il n'y avait pas de
différences entre les sexes lorsqu'ils étaient
scolarisés ou collégiens.