Vous êtes sur la page 1sur 23

Université Mohammed V

Faculté des Sciences Juridiques,


Economiques et Sociales – RABAT-
Souissi

MULTICOLINÉARITÉ ET
SÉLECTION DU MODÈLE OPTIMAL
Master : EAM
PLAN
 Introduction

 Problématique : Corrélation partielle


 Définition de la multicolinéarité

 Les sources de la multicolinéarité

 Les conséquences de la multicolinéarité

 Détection de la multicolinéarité

 La régression pas à pas comme technique de


remède.
INTRODUCTION
Dans ce chapitre nous examinons comment gérer l’abondance de
l’information, il fréquent lorsque l’économiste spécifie un modèle,
qu’il hésite à intégrer telle ou telle variable explicative,

La question essentielle qu’il se pose :


Comment déterminer le mix optimal des variables explicatives ? C’est-
à-dire en terme statistique, cette question se résume à trouver les
variables explicatives qui maximisent leur coefficient de corrélation
avec la variables endogène tout en étant les moins corrélées entre
elles.
PROBLÉMATIQUE
Un marchand de glaces, situé près d’un monument historique, cherche
à calculer le coefficient de corrélation entre :
ses ventes (x1) et le nombre de touristes visitant ce monument (x2).
Ces deux variables sont influencées par le climat :
Variable climatique (X3) : la consommation de glaces
Autrement dit, la consommation de glaces est plus importante lorsqu’il
fait chaud et les touristes sont peu enclins à visiter un monument
extérieur en cas de froid ou de pluie.
en effet, la variable climat influence la vente des glaces et la
fréquentation des touristes. En d’autres termes, le coefficient de
corrélation simple calculé ainsi intègre l’apport de la variabilité des
conditions climatiques sans pouvoir isoler l’influence relative du
nombre de touristes.
PROBLÉMATIQUE
Donc l’influence d’une variable explicative sur les autres variables
explicatives crée un problème de multicolinéarité.

La corrélation partielle :

Le coefficient de corrélation partielle mesure la liaison entre


deux variables lorsque l’influence d’une ou des autres
variables explicatives est retirée.
DÉFINITION DE LA MULTICOLINÉARITÉ

La multicolinéarité est le fait qu’une variable indépendante est


prédictible par une combinaison linéaire des autres variables
indépendantes. Pour faire simple, disons qu'une combinaison
linéaire est une variable que l'on obtient en faisant la somme
pondérée de plusieurs autres variables. Ainsi, si l'on crée une
variable X3 en faisant la somme pondérée de deux autres
variables X1 et X2,
par exemple X3 = 2X1 + 3X2, alors X1, X2 et X3 seront
multicolinéaires.
LES SOURCES DE LA
MULTICOLINÉARITÉ

La multicolinéarité peuvent provenir des facteurs suivants :

 La méthode de collecte des données :


Par exemple Cons = f( Revenu; dimension de la population)
Il existe une contrainte physique dans la population en ce que
les familles ayant des revenus plus élevés par rapport aux autres,
 Un modèle surdéterminé : ceci produit lorsqu’un modèle à
plus de variables explicatives que le nombre d’observations,
on parle effectivement du micro-nombre.
LES CONSÉQUENCES DE LA
MULTICOLINÉARITÉ

1. La matrice (X’X) est singulière [dét(X’X)=0], l’estimation


des coefficients par MCO est alors impossibles (solution
défaillant).
2. Augmentation de la variance estimée des coefficients de
régression, par conséquent on aboutit à une réduction des
valeurs de la statistique de student, ce qui rend la non
significativité des variables.
3. l’instabilité des estimations des moindres carrés, les
fluctuations concernant des données entrainent des forts
variations des valeurs estimées des coefficients. Par conséquent
les estimateurs, ne concordent pas avec les connaissances de la
théorie économique.
DÉTECTION DE LA MULTICOLINÉARITÉ

Pour tester la présence de la multicolinéarité, on privilège des


statistiques et des tests :
1. Règle générale.
2. Cohérence des signes.
3. Test de Klein.
4. Test de Farrar et Glauber.
5. Facteur d’inflation de la variance (FIV)
6. La Tolérance
DÉTECTION DE LA MULTICOLINÉARITÉ


DÉTECTION DE LA MULTICOLINÉARITÉ
DÉTECTION DE LA MULTICOLINÉARITÉ


DÉTECTION DE LA MULTICOLINÉARITÉ


DÉTECTION DE LA MULTICOLINÉARITÉ


DÉTECTION DE LA MULTICOLINÉARITÉ


DÉTECTION DE LA MULTICOLINÉARITÉ

4. Test de Farrar et Glauber.


La première étape consiste à calculer le
déterminant de la matrice des coefficients de
corrélation entre les variables explicatives.

D=
DÉTECTION DE LA MULTICOLINÉARITÉ

La deuxième étape consiste à effectuer un test


x² selon les hypothèses suivantes :
H0 : D = 1 (les variables sont orthogonales)
H1 : D < 1 (les variables sont dépendantes)
NB : lorsque deux variables sont orthogonaux cela signifié que leur covariances est
nulles.
La valeur empirique du *x² calculée à partir de l’échantillon :
DÉTECTION DE LA MULTICOLINÉARITÉ
DÉTECTION DE LA MULTICOLINÉARITÉ


DÉTECTION DE LA MULTICOLINÉARITÉ

5. Facteur d’inflation de la variance (FIV)

Décision:
DÉTECTION DE LA
MULTICOLINÉARITÉ


DÉTECTION DE LA
MULTICOLINÉARITÉ


LA RÉGRESSION PAS À PAS COMME
TECHNIQUE DE REMÈDE.

Vous aimerez peut-être aussi