Vous êtes sur la page 1sur 5

Laboratoire d'Économie Appliquée

Master des Sciences Économiques

Semestre II
Matière : Économétrie

La Multicolinéartité

Préparé par : Sous la direction de :

MERIAM BEN IDIR Pr. LAHCEN OULHAJ

Année Universitaire : 2018/2019


Table des matières
1 Résumé 1

2 Introduction 1

3 La corrélation partielle 1
3.1 Exemple introductif ; . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
3.2 Définition et calcul de la notion de corrélation partielle . . . . . . . . . . . . . . . . . . . . 1
3.3 Relation entre coefficients de corrélation simple, partielle et multiple . . . . . . . . . . . . 2
3.4 La détection de la multicolinéarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
3.5 Les remèdes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1 Résumé
Parmi les hypothèses de la régression linéaire classique étudiées jusqu’à présent, celle de l’indépendance
entre les variables explicatives. Mais il se peut que cette hypothèse soit violer. dans ce rapport nous pré-
sentons une brève projection de la multicolinéarité ; corrélation simple, partielle et multiples et la relation
entre eux ainsi que quelque remèdes à ce problème.

2 Introduction
Le terme de la multicolinéarité est du à Ragnar Frisch 1 , à l’origine il signifiait l’existence d’une parfaite
ou exacte relation linéaire entre quelque variables explicatives (ou la totalité d’entre elle ) d’un modèle de
régression.
Dans une acception stricte, la multicolinéarité se rapporte à l’existence de plus d’une relation linéaire
exacte, la colinéarité se rapportant à une seule relation linéaire. En fait cette distinction n’est pratiquement
plus utilisée et la multicolinéarité s’applique aux deux cas.

3 La corrélation partielle

3.1 Exemple introductif ;


Un marchand de glaces situé prés de la tour Effel. Cherche à calculer le coefficient de corrélation entre ses
ventes x1 et le nombre de touristes visitant ce monument x2 . Ces deux variables sont influencées par le
climat : la consommation de glaces est plus importante lorsqu’il fait chaud et les touristes sont peu enclins
à visiter un monument extérieur en cas de froid ou de pluie, on appelle x3 cette variable climatique.
Nous pouvons penser que la corrélation entre x1 et x2 est positive. Cependant un calcul de coefficient
de corrélation simple n’est pas révélateur de degré de liaison réelle entre ces deux variables ; En effet,
la variable climat influence la vente des glaces et la fréquentation des touristes. En d’autres termes. le
coefficient de corrélation simple calculé ainsi intègre l’apport de la variabilité des conditions climatiques
sans pouvoir isoler l’influence relative du nombre de touristes.

3.2 Définition et calcul de la notion de corrélation partielle


Le coefficient de corrélation partielle mesure la liaison entre deux variables lorsque l’influence d’une ou
des autres variables explicatives est retirée.
On considère le modèle suivant :

y = β0 + β1 x1 + β2 x2 + β3 x3

r2 x1 ,y ,r2 x2 ,y et r2 x3 ,y mesurent respectivement la variance de y expliquée par la variable x1 seule, x2


seule et x3 seule.
Nous pouvons calculer six coefficients de corrélation partielle du premier ordre :
2 2
ryx1 ;x2
; ryx1 ;x3
; r2yx2 ;x1 ; ryx
2
2 ;x3
2
; ryx3 ;x1
2
; ryx3 ;x2

Ainsi que trois coefficients de corrélation de deuxième ordre :


2 2
ryx1 x2 x3
; ryx2 x1 x3
; r2yx3 x1 x2
1. Ragnar Frisch. statistical analysis by means of copmlete regression systems,Institute of economics Olso University, pub n 5
1934

1
Cette notion de corrélation partielle est très importante car elle permet de juger de la pertinence d’in-
clure une variable explicative dans un modèle. Autrement, Plus le coefficient de corrélation partielle d’une
variable est élevé, plus la contribution de cette variable est importante à l’explication globale du modèle
Calcul ;
Le coefficient de corrélation partielle peut se calculer de deux manières à partir :

1. Du coefficient de corrélation simple

-entre le résidu de la régression de la variable à expliquer sur le sous ensemble des k − 1 autres variables
explicatives.
-et le résidu de la régression de la variable explicative xi sur les
k − 1 variables explicatives

1. Du t du Student

Dans un modèle à k variables explicatives, il existe une relation entre le coefficient de corrélation partielle
et le t de student
r2 t2
i
yxi ,(autres variables)=
(n−k−1)+t2
i

Cette relation n’est pas vérifiée que pour un coefficient de corrélation partielle d’ordre k − 1

3.3 Relation entre coefficients de corrélation simple, partielle et multiple


Dans le cas d’un modèle à une seule variable explicative x1 , la somme des carrés des résidus est égale à :
X X 2
X 2
SCR = e2t = 2
(yt − y) (1 − Ryx 1
)= 2
(yt − y) (1 − ryx1
t t

2
Ryx1
est le coefficient de détermination de y sur x1 .
Supposons maintenant un modèle à deux variables explicatives :

y = α0 + α1 x1 + α2 x2 + e

La somme des carrés des résidus après avoir retiré l’influence de x1 et x2 est égale à :
X X 2
SCR = e2t = 2
(yt − y) (1 − Ryx 1 x2
)
t

2
Ryx1 x2
le coefficient de détermination de la régression de y sur x1 et x2
2
Or ryx2 x1
est la proportion du résidu expliquée par la variable x2 seule. Donc l’expression ci-dessus s’écrit :
X 2 X 2
2 2 2
(yt − y) (1 − Ryx1 x2
) = 1 − ryx2 x1
(yt − y) (1 − ryx1
)
t t

2 2
 2

D’où 1 − Ryx1 x2
= 1 − ryx2 x1
1 − ryx1

Cependant nous avons la décomposition de l’influence relative de chacune des variables ; l’apport de x2
sur y lorsque l’influence de x1 est retirée et l’apport de x1 sury.
La formule précédente peut être généralisée pour un modèle à trois variables explicatives :
2 2 2 2
  
1 − Ryx 1 x2 x3
= 1 − ryx1
1 − ryx2 x1
1 − ryx3 x1 x2

2
3.4 La détection de la multicolinéarité
A ce stade il est utile de retenir l’avertissement de Kmenta :
1. La multicolinéarité est une question de degré et non de nature, la distinction la plus significative
n’est pas entre la présence et absence de multicolinéarité, mais celle entre ses divers degrés.
2. Puisque la multicolinéarité se rapporte à l’ état des variable explicatives qui sont supposés non
stochastiques, c’est une caractéristique de l’échantillon et non de la population.
En conséquent, nous ne testons pas la multicolinéarité mais plutôt on mesure son degré dans tout échan-
tillon spécifier. Plusieurs règles empiriques peuvent etre employées pour la détecter :
1. Un R2 élevé mais des ratios t peu significatifs
2. De fortes corrélation couplées parmi les répresseurs
3. L’examen des corrélations partielles
4. Les régressions auxiliaires
5. Les valeurs et indicateur d’état
6. Tolérance et facteur d’inflation de la variance

3.5 Les remèdes


Lorsque la multicolinéarité est un problème serieux ; deux choix se présentent ;
1. Ne rien faire c’est la position pris par Blanchard ; il dit que « la multicolinéarité est avant tout un
problème de déficience concernant les données (le micro nombre) et parfois nous n’avons pas de
choix quant aux données disponibles pour les études empiriques.»
2. -L’application des méthodes empiriques ;
-L’information a priori
-La combinaison des coupes instantanées de séries temporelles
-L’abandon de variables et le biais de spécification
-La transformation des variables
-Les données supplémentaires
-La réduction de la multicolinéarité dans la régression polynomiale
-L’analyse factorielle, l’analyse en composantes principales

Vous aimerez peut-être aussi