Vous êtes sur la page 1sur 30

Etudes des Résidus et

vérification des hypothèses du


modèle
Analyse graphique
Comment s’assurer de la conformité des hypothèses
Principes:
On ne dispose pas de l’erreur mais des résidus
(observés),

Traquer toute forme de dépendance ou de relation


entre les résidus et les variables,

Un point écarté est le signe d’une mal modélisation ou


bien il s’agit d’un point atypique
Test JB de normalité sous R
H0: La distribution est normale (k=3 et s=0)
H1: Non H0
Homoscédasticité et Hétéroscédasticité
• R propose les tests classiques d’égalité de variance. Parmi ceux-ci on
privilégiera les deux tests suivants qui sont considérés comme
robustes vis-à-vis de la non normalité des données
• , white test
• - le test de Levene : leveneTest
• - le test de Fligner : flignerTest
• ,,,,,
het.htest-package Package for White’s Test for
Heteroskedasticity

The test function is whites.htest().


whites.htest(var.model)
Package: het.test
Prise en compte de l’hétéroscédasticité
• La littérature propose divers moyens pour prendre en
compte le déséquilibre entre effectifs des groupes et
l’hétéroscédasticité. Ils tiennent en trois propositions
principales : 1) utiliser des corrections empiriques a
posteriori ; 2) utiliser une méthode des moindres carrés
pondérés (argument weights des procédures) ; 3) utiliser des
méthodes qui reposent sur le maximum de vraisemblance
(ou plutôt la méthode REML, restricted maximum of
likelihood) qui permettent de modéliser les variances inter et
intra-groupes ( fonction gls du package nlme).
• Hétéroscédasticité L’hétéroscédasticité modifie les degrés de liberté de
l’analyse. Pour tenir compte de ce phénomène, il existe deux approches
implantées dans R pour traiter ce cas :
• 1) une approche utilisant l’approximation de Welch des degrés de liberté ;
• 2) une approche pondérant les individus en fonction de la variance du
groupe auquel ils appartiennent.
Dans R, les procédures d’analyse utilisant l’approximation de Welch sont
restreintes à deux cas particuliers :
- test de Student entre deux groups, procédure t.test ;
- Anova à un seul facteur, procédure oneway.test.
- Ces deux procédures possèdent un argument var.equal pour traiter les cas
d’inégalité des variances
• On peut aussi corriger a posteriori cette inégalité des variances dans
certaines procédures comme linearHypothesis qui possède un
argument white.adjust qui permet de prendre en compte
l’hétérogénéité des variances entre les groupes.
• Quand les variances ne sont pas homogènes mais que les
groupes sont équilibrés (ou pouvant être assimilés à des
groupes équilibrés), une des propositions intéressantes
relevant de la seconde approche est de pondérer les
individus par la variance du groupe auquel il appartient, ce
qui revient plus ou moins à une uniformisation des erreurs
pour qu’elles soient toutes de variance unité.

• Les fonctions gls et lme du package nlme propose des méthode plus
sophistiquées au travers de la spécification d’un modèle de classe
varClasses permettant de programmer ses propres modèles et d’un
ensemble prédéfinie de fonction appartenant à cette classe. Par
exemple, dans le cas où le modèle contient deux facteurs et qu’on
considère que la variance est différente pour chaque combinaison des
niveaux, on écrira :
• gls.res <- gls( Y ~ F * G, data=donnees, weights=varIdent( form=~ 1 | F
* G))
in the nlme package

• Gls (nlme package)

> airquality
Ozone Solar.R Wind Temp Month Day
1 41 190 7.4 67 5 1
2 36 118 8.0 72 5 2
3 12 149 12.6 74 5 3
4 18 313 11.5 62 5 4
5 NA NA 14.3 56 5 5
6 28 NA 14.9 66 5 6
7 23 299 8.6 65 5 7
8 19 99 13.8 59 5 8
• Si on ne connaît pas vraiment la structure de l’erreur, on
utilisera alors une méthode itérative connue sous le nom de
Iteratively Reweighted Least Square.
• Cette stratégie d’itération est implantée dans la fonction
glm ; pour l’utiliser, on donne comme valeur de départ des
poids estimés des sujets l'inverse de la variance des groupes :
• glm.res <- glm( formule.d.analyse, data=donnees,
weights=donnees$VARIANCE^-1)

Vous aimerez peut-être aussi