Vous êtes sur la page 1sur 17

PRESENTATION

LES MODELES D’AIDE A LA DECISION

 Présentation des intérêts de la matière;


 Présentation du programme du cours;
 Méthodologie à suivre;
 Bibliographie.

2 31/10/2019 ADD A. ELABJANI


1 31/10/2019
ADD A. ELABJANI

2. PROGRAMME
1. LES INTERETS DE LA MATIERE “Préliminaire”

1. L’intérêt particulier des modèles d’aide à la décision dans


le domaine de la recherche scientifique ainsi que dans le
monde des affaires (Economie & Entreprise);
1. INTRODUCTION
2. Permettre aux étudiants de comprendre et de maîtriser les
outils et les techniques économétriques dans la gestion 2. LES MODELES DE REGRESSION
des entreprises; SIMPLE
3. Leur permettre également d’analyser les principes de 3. LES MODELES DE REGRESSION
base en passant par des études de cas empiriques; MULITPLE
4. L’application sur un logiciel informatique RATS.
4. LES MODELES DE PREVISION

3 31/10/2019 ADD A. ELABJANI 4 31/10/2019 ADD A. ELABJANI

3. PRESENTATION DE LA METHODOLOGIE 4. REFERENCES BIBLIOGRAPHIQUES

1. A. RYS et N. VANEELOO(1998)»Économétrie: théorie et


1. Cours magistral portant sur les notions de base; applications » éd. Nathan;
Attention : A compléter par des lectures parallèles;
2. B. HAUDEVILLE(1996)«Économétrie appliquée » éd. Estem;

2. Les séances de TD (TP) portant sur les 3.C. GOURIEROUX et C. MONTMAROUETTE(1997)


applications pratiques sur machines ; «Économétrie appliquée » éd. Economica;

3. L’évaluation portera sur: 4.J. JOHNSTON(1992) «Méthodes Économétriques» éd.


Economica;
* les contrôles de TD.
* la participation des étudiants. 5. E. MALINVAUD (1978) «Méthodes statistiques de
l’Économétrie» éd. Dunod;
* L’examen de la matière.
6. C. GOURIEROUX et A. MONFORT(1990) «Séries
5 temporelles
6 et modèles dynamiques» éd. Economica;
31/10/2019 ADD A. ELABJANI 31/10/2019 ADD A. ELABJANI

1
RAPPELS 1. INTRODUCTION

1.1. LES CONCEPTS DE LA STATISTIQUE


* Descriptive (les caractéristiques),
* Probabilités (les VA, la fonction de densité,les
lois,…) 1.1. DEFINTION DE L’ECONOMETRIE
* Inférentielle (estimation, Echantillonnage). 1.2. LA METHODOLOGIE DE L’ECONOMETRIE
1.2. LA DECOMPOSITION DE LA MATIERE EN 2 1.3. LA REGRESSION
PARTIES: 1.4. LES VARIABLES DU MODELE
* Partie théorique; ECONOMETRIQUE
* Partie Empirique.
1.3. UN TRAVAIL DE FIN D’ANNEE SERA DEMANDE
* Une étude de fonction
7 31/10/2019 ADD A. ELABJANI 8 31/10/2019 ADD A. ELABJANI

1. INTRODUCTION 1. INTRODUCTION

1.1. DEFINTION DE L’ECONOMETRIE Ce qu’on mesure ce sont les variables


“c’est la mesure de l’économie” agrégées aussi bien en micro-économie
Càd le fait de donner un cadre quantitatif de qu’en macro-économie .
l’économie et des modèles économiques.
Toutefois, l’économétrie peut être appliquée à
différentes disciplines notamment: Exemples:
- la psychométrie (mesure appliquée à la - Le modèle Keynésien : C = f(Y)
psychologie;
- la sociométrie;
avec: C
Y
 0

- les autres disciplines comme les sciences - Le modèle de Friedman : C = f(Y,p,g,pr,…)


naturelles.
9 31/10/2019 ADD A. ELABJANI 10 31/10/2019 ADD A. ELABJANI

1. INTRODUCTION 1. INTRODUCTION

1.2. LA METHODOLOGIE DE L’ECONOMETRIE


Note: Théorie Économique
* La théorie économique nous renseigne
seulement sur la relation entre les variables; Modèles Collecte
économétriques des données
Estimation
* L’économétrie nous donne par contre la des modèles
maniétude de cette relation càd de combien
variera une variable suite à la variation de la 1ère. Tests des
L’inférence
estimations

acceptation rejet

11 prévision
12 reconstruction
31/10/2019 ADD A. ELABJANI 31/10/2019 ADD A. ELABJANI

2
1. INTRODUCTION 1. INTRODUCTION

1.3. LA REGRESSION dépendance stockastique :


Elle signifie l’analyse de la dépendance c’est une dépendance aléatoire avec cette fois des
susceptible d’exister entre deux ou plusieurs variables aléatoires
variables.
On parle généralement de: yt  f'(xt) t

t : Représente l’élément de perturbation (d’erreur


 dépendance déterministique (mathématique)
ou aléatoire).
y  f'(x)  logx; e x;.... Exemple:
Dans une fonction de production, il désigne
l’humeur, comportement, motivation, etc.
13 31/10/2019 ADD A. ELABJANI 14 31/10/2019 ADD A. ELABJANI

1. INTRODUCTION 1. INTRODUCTION

1.4. LES VARIABLES DU MODELE ECONOMETRIQUE 1.4. LES VARIABLES DU MODELE ECONOMETRIQUE
Deux types de variables économétriques sont
généralement distinguées:  Les variables exogènes:

 les variables endogénes:  Ce sont les variables explicatives de la variable


étudiée;
 Ce sont les variables à expliquer Yt;
 Elles sont considérées comme des Variables
 Elles deviennent aléatoires par l’adjonction de autonomes;
t ;
 Elles sont parfois considérées comme
 Leur probabilité dépendera de celle supposée prédeterminées.
pour t .
15 31/10/2019 ADD A. ELABJANI 16 31/10/2019 ADD A. ELABJANI

2. Les modéles de Regression Simple 2. Les modéles de Regression Simple

En analyse économétrique, le modéle de 2.1. Les hypothèses des MCO


Regression Simple s’écrit en considérant Elles sont au nombre de 5, supposées
une seule variable endogéne et une seule par GAUSS:
variable exogéne:  Le modèle est linéaire :
Yt    X t  t H 1: Yt    X t  t
La méthode des Moindres Carrés * Yt et Xt doivent représenter des valeurs
Ordinaires (OLS) demeure la méthode la plus numériques observées sans erreur;
utilisée spécifiquement dans ce cadre. *  et  sont des paramètres à estimer;
* t est l’élément non observé.
17 31/10/2019 ADD A. ELABJANI 18 31/10/2019 ADD A. ELABJANI

3
2. Les modéles de Regression Simple 2. Les modéles de Regression Simple

 La loi de Probabilité de t :  La covariance de t :

H2 : « t suit une loi Normale d’espérance H3 : « la covariance des éléments d’erreur


math. 0 et da variance ² ». est nulle ».
Implications sur Yt:
Implications:
 Si cov(t , t-1)= 0 alors cov (Yt ,Yt-1)=0.
 Si E(t ) = 0 alors E(Yt) =  + Xt.
 Si Var(t )=² alors Var(Yt) = ². Ce qui implique une absence de
C’est ce qu’on appelle l’hypoyhèse corrélation (ou indépendance) entre les
d’Homoscédasticité. observations.
19 31/10/2019 ADD A. ELABJANI 20 31/10/2019 ADD A. ELABJANI

2. Les modéles de Regression Simple 2. Les modéles de Regression Simple

 La covariance de Xt et t :  Les variables Xt :


H4 : « Gauss suppose que la covariance des H5 : « Gauss suppose enfin que la variable
éléments d’erreur et la variable exogène exogène Xt est non stochastique ».
est nulle ».
cov(Xt , t)= 0 Les variables exogènes sont
déterministes et non colinéaires entre
elles.
Ceci implique une absence de
corrélation (ou indépendance) entre la C’est l’hypothèse de colinéarité des
variable exogéne et les éléments variables exogènes.
aléatoires.
21 31/10/2019 ADD A. ELABJANI 22 31/10/2019 ADD A. ELABJANI

2. Les modéles de Regression Simple 2. Les modéles de Regression Simple

2.2. Les Elements de l’Estimation 2.2. Les Elements de l’Estimation


Tout le probléme consiste à déterminer on aura :
les éstimateurs des éléments de la
population définis dans le modéle Yt  ˆ  ˆ X t  t et Yˆt  ˆ  ˆ X t
économétrique.
Nous supposons que : Ce qui donne :

ˆ, ˆ, ˆ² et ˆt  t  Yt Yˆt


Objectif:
sont les estimateurs respectivement La méthode OLS suppose de minimiser tous les  t²
des valeurs de , , ², et t.
23 31/10/2019 ADD A. ELABJANI 24 ² t  (Yt Yˆt)²
31/10/2019 ADD A. ELABJANI

4
2. Les modéles de Regression Simple 2. Les modéles de Regression Simple

Après démonstration et simplification 2.3. Les propriétés des estimateurs


des écritures des deux estimateurs, on Théoreme de GAUSS:
trouve: “ les estimateurs OLS sont des estimateurs
ˆ  Y  ˆ X et ˆ 
xt yt  BLUE”
xt² Signification:
avec : P3 : Best  le meilleur estimateur existant
et celui qui posséde le minimum de
xt  Xt X et yt  Yt Y variance.
P1 : Linear  estimateur linéaire.
P2 : Unbiaisure  estimateur non biaisé tq.
E()= et E()= .
25 31/10/2019 ADD A. ELABJANI 26 31/10/2019 ADD A. ELABJANI

2. Les modéles de Regression Simple 2. Les modéles de Regression Simple

2.4. Le coefficient de détermination R² Afin de déduire la valeur du coefficient de


D’après l’écriture de la variance totale de la détermination R² on divise la dernière
variable endogène, on trouve : équation par la variance totale de la
variable endogène, on trouve :
 Yt Y  ˆ²X i  X  i2
2 2

i i i ˆ² xi2  i2
Ou bien : 1  i  i

 yi2  yi2
i i
 yi2  ˆ² xi2 i2 donc :
i i i
ˆ² xi2
TSS  ESS RSS 0 R²  i 1
càd
27 28
 yi2
31/10/2019 ADD A. ELABJANI 31/10/2019 i ADD A. ELABJANI

2. Les modéles de Regression Simple 2. Les modéles de Regression Simple

Interprétation: 2.5. Les Tests d’Hypothèses


Le coefficient de détermination R² traduit Plusieurs tests d’hypotèses peuvent être
généralement le pourcentage de la variable utilisés à ce stade.
exogène Xi dans l’explication de la V. Les plus important d’entre eux sont :
endogène Yi. * Le test Global de Fischer F;
traditionnellement, on détermine * Les tests Particuliers de Student t;
également le coefficient de corrélation R * Le test de Darbin Watson DW;
qui mesure l’intensité de variation de Y * Les test de Haitovsky;
suite à la variation de X. * etc.

29 31/10/2019 ADD A. ELABJANI 30 31/10/2019 ADD A. ELABJANI

5
2. Les modéles de Regression Simple 2. Les modéles de Regression Simple

2.5.1. Le test Global de Fischer F 2.5.1. Le test Global de Fischer F


C’est le test de validité de tout le modèle. Dans le cas du Modèle Linéaire Simple, on
Les hypotèses appliquées sont: aura :
H0 : tous les i = 0 H0 : = = 0
H1 : tous les i  0 H1 :  0 et 0
On raisonne sur la valeur de la statistique F Et la statistique F de Fischer est définit par:
de Fischer, avec :
ˆ ² xi2 / k 1 ˆ ² xi2N 2
ESSN 2
Fk 1; N k  ESS / k 1  i F1; N 2  i
RSS / N k RSS
i2 / N k i2
i i

31 31/10/2019 ADD A. ELABJANI 32 31/10/2019 ADD A. ELABJANI

2. Les modéles de Regression Simple 2. Les modéles de Regression Simple

La même équation peut être écrite : 2.5.2. Les tests Particuliers


Ce sont les tests de signification des
ESS
N  2 coefficients estimés.
F1; N  2   TSS 

Les hypotèses appliquées sont de
1
ESS 1  R ²  / N  2 plusieurs natures:
TSS
Test Bilatéral:
Le raisonnement est le suivant: H0 :  = 0
Si Fcal > Flue alors le modèle est accepté H1 :   0
dans sa globalité et on décide H1. Test Unilatéral:
Il est préférable dans ce cas que le R² soit H0 :  = 0=0,5
meilleur et proche de 1.
H1 :  < 0=0,5 ou bien  > 0=0,5
33 31/10/2019 ADD A. ELABJANI 34 31/10/2019 ADD A. ELABJANI

2. Les modéles de Regression Simple 3. Le modéle de Regression Multiple

La statistique appliquée dans ce cadre est Un parmi Les modéles de


celle de Student, avec : Regression Multiple peut s’écrire en
t
ˆ   considérant 3 regresseurs et 2
 
sd  ˆ
variables exogénes:
Le même raisonnement que précédemment:
Si tcal > tlue alors on décide H1. Yt    X 1t   X 2t   t (1)

çàd que le poids de la variable exogène


correspondante est significatif dans le Dans le cadre duquel la méthode
modèle. des MCO (OLS) demeure la méthode la
Dans le cas contraire H0 est vraie et la V. plus fréquemment utilisée.
exogène sera non significative dans le
modèle.
35 31/10/2019 ADD A. ELABJANI 36 31/10/2019 ADD A. ELABJANI

6
3. Le modéle de Regression Multiple 3. Le modéle de Regression Multiple

3.1. Les hypothèses des MCO H2 : La loi de Probabilité de t :


Ce sont les mêmes hypotheses
supposées par GAUSS dans le cas du t  N(0, ² )
modéle linéaire simple.
On considére :
Implications:
H1: Le modèle est linéaire : Cf. l’équation (1)  Si E(t )=0 alors E(Yt) =  + X1t+  X2t.
* Yt ; X1t et X2t représentent des valeurs  Si Var(t )=² alors Var(Yt) = ².
numériques observées sans erreur;
Hypoyhèse d’Homoscédasticité.
*  ;  et  sont des paramètres à estimer;
* t est l’élément non observé
37 31/10/2019 ADD A. ELABJANI 38 31/10/2019 ADD A. ELABJANI

3. Le modéle de Regression Multiple 3. Le modéle de Regression Multiple

H3 : La covariance de t : H4 : La covariance des Xt et t :

cov(t , t-1)= 0 cov(X1t , t)= 0


cov(X2t , t)= 0
Implications sur Yt:

 Si E (i , J )=0 alors cov (Yt ,Yt-1)=0. Ce qui implique la non-corrélation


entre les variables exogénes et les
C’est l’hypothèse de non-corrélation éléments aléatoires.
des observations.

39 31/10/2019 ADD A. ELABJANI 40 31/10/2019 ADD A. ELABJANI

3. Le modéle de Regression Multiple 3. Le modéle de Regression Multiple

H5 : Les variables Xit : 3.2. Estimation OLS


Tout le probléme consiste à
Les variables exogènes X1t et X2t sont déterminer les éstimateurs des
linéairement indépendantes. éléments de la population définis
Elles sont : dans le modéle économétrique.
Nous proposons de déterminer les
* non stochastiques çàd déterministiques.
valeurs des estimateurs suivants:
* non-colinéaires entre elles.
ˆ, ˆ, ˆ, ˆ² et ˆt
41 31/10/2019 ADD A. ELABJANI 42 31/10/2019 ADD A. ELABJANI

7
3. Le modéle de Regression Multiple 3. Le modéle de Regression Multiple

On estime le modéle (1) pour avoir : Les Résultats des estimations donnent :

Yt  ˆ  ˆ X 1t  ˆ X 2t  t Ou bien Yˆt  ˆ  ˆ X 1t  ˆ X 2t
ˆ  Y  ˆ X 1 ˆ X 2
 x 1t yt  x 2t ² x 2t yt  x 1t x 2t
 t  Yt Yˆt ˆ 
Ce qui donne :

 x 2t ² x 1t ²  x 1t x 2t 
2

Objectif:
et  x 2t yt  x 1t ² x 1t yt  x 1t x 2t
La méthode OLS suppose de minimiser tous ˆ 
les t²

 x 2t ² x 1t ²  x 1t x 2t 2

avec :
  (Yt Yˆt)²
t
2
x  X1t X1 x 2t  X 2t X 2 et yt  Yt Y
43 31/10/2019 ADD A. ELABJANI 44 1t 31/10/2019 ADD A. ELABJANI

3. Le modéle de Regression Multiple 3. Le modéle de Regression Multiple

3.3. Interprétation des estimateurs 3.4. Le coefficient de détermination Ajusté


Rbar²
̂ ?:
mesure seulement l’effet marginal de X1 Deux niveaux sont à distingués à cet
égard:
sur la variable endogéne Y tel que :
 Nous déterminons D’abord, selon son
ˆ  Yi Sachant que X2 est constante
ˆ
X1i écriture, le coefficient de détermination R²,
on trouve :
ˆ?:
mesure seulement l’effet marginal de X2 ˆ x1t yt ˆ x2t yt
R²  ESS 
sur la variable endogéne Y tel que : TSS  yt
2
ˆ
ˆ Yi Sachant que X1 est constante
45 X 2i 31/10/2019 ADD A. ELABJANI 46 31/10/2019 ADD A. ELABJANI

3. Le modéle de Regression Multiple 3. Le modéle de Regression Multiple

Le probléme posé à ce niveau réside dans En effet, même si la Variance totale


le fait que le coefficient de détermination de la V. endogène Yi est indépendante
R² calculé de cette manière paraît comme de k, le R² peut automatiquement
une fonction croissante du nombre de
regresseurs k, tel que :
augmenter par le biais de la variance
R² 0
résiduelle qui en est dépendante.
k
 Au lieu de raisonner sur la base de R²,
Ce qui signifie que quant le nombre de on détermine le coefficient de
regresseurs «k» augmente, le R²
détermination ajusté (normalisé) Rbar²
augmente aussi même si les variables
tel que :
exogénes ajoutées dans le modèle   t / N k
2

n’expliquent pas vraiment Y.A. ELABJANI R² 1


/ N 1A. ELABJANI
47 48 2
31/10/2019 ADD 31/10/2019  y t ADD

8
3. Le modéle de Regression Multiple 3. Le modéle de Regression Multiple

Qu’on peut écrire aussi comme : 3.5. Les Tests d’Hypothèses


Par rapport aux tests d’hypotèses
N 1 analysés dans la cadre de la MLS, d’autres
R²  1  1  R² 
N k tests plus intéréssants sont à vérifier à ce
stade.
Remarques : Nous les classons comme suit :
1. Généralement Rbar² est inférieur au R² * Le test Global de Fischer F;
2. Parfois le Rbar² est négatif * Les tests Particuliers de Student t;
* Le test de Darbin Watson DW;
Exemple: N=22 ; k=2 et R²=0,01 * Les test de Haitovsky;
 Rbar²= -0,0395 * etc.
49 31/10/2019 ADD A. ELABJANI 50 31/10/2019 ADD A. ELABJANI

3. Le modéle de Regression Multiple 3. Le modéle de Regression Multiple

3.5.1. Le test Global de Fischer F 3.5.1. Le test Global de Fischer F


Idem que précédemment. Dans le cas du MRM, on aura :
Les hypotèses appliquées sont: H0 : == = 0
H0 : tous les i = 0 H1 :  0 ou 0 ou 0
H1 : au moins un i  0 Et la statistique F de Fischer est définit par:
On raisonne sur la valeur de la statistique F
de Fischer, avec :  ˆ x y ˆ x y /31
 1t t 2t t 
 ˆ x y ˆ x y / k 1 F31; N 3  
i i
 2t t 
 i / N 3
1t t
Fk 1; N k  ESS / k 1  
i i 2

RSS / N k i
 i / N k
2
i
51 31/10/2019 ADD A. ELABJANI 52 31/10/2019 ADD A. ELABJANI

3. Le modéle de Regression Multiple 3. Le modéle de Regression Multiple

La même équation peut être écrite : 3.5.2. Les tests Particuliers


Ce sont les tests de signification des
coefficients estimés.
ESS
N  3
R ²  N  3 Les hypotèses appliquées sont de plusieurs
F 2; N 3   TSS  natures:

1 
ESS 
 2
1  R ²  2
 TSS   Test Bilatéral:
H0 :  = 0
Le même raisonnement est à appliquer: H1 :   0
Si Fcal > Flue
Caractéristiques:
alors on rejette H0 et on décide H1 çàd que
* deux bornes à calculer b1 et b2;
au moins un coefficient sera non nul.
* deux régions critiques;
Dans ce cas, le modèle sera accepté
* une région d’accépatation.
d’abord31/10/2019
53 dans sa globalité.ADD A. ELABJANI 54 31/10/2019 ADD A. ELABJANI

9
3. Le modéle de Regression Multiple 3. Le modéle de Regression Multiple

3.5.2. Les tests Particuliers 3.5.2. Les tests Particuliers


 Test Unilatéral: Test Unilatéral:
H0 :  = 0=0,5 H0 :  = 0=0,5
H1 :  < 0=0,5 H1 :  > 0=0,5

Caractéristiques: Caractéristiques:
* Une borne à calculer b; * Une borne à calculer b;
* Une région critique à gauche de t; * Une région critique à droite de t;
*une région d’accépatation à droite de t. * une région d’accépatation à gauche de
t.
55 31/10/2019 ADD A. ELABJANI 56 31/10/2019 ADD A. ELABJANI

3. Le modéle de Regression Multiple 3. Le modéle de Regression Multiple

Régle de décision: 3.5.3. Le test de Durbin Watson (1950)


La statistique appliquée dans ce cadre Appelé aussi le test d’indépendance
est celle de Student, avec : ˆ   des erreurs, le test de DW permet de
t
sd ˆ  détecter l’existence d’autocorrélation
Et on raisonne, selon la valeur de t, comme suit: des erreurs et donc des observations
Si tcal > tlue alors on décide H1. elles mêmes du modéle.
çàd que le poids de la variable exogène si on a :
correspondante est significatif dans le modèle. Y     X 1t   X 2t  
t t

Tel que :
Dans le cas contraire H0 est vraie et la V.
exogène sera non significative dans le modèle. cov(t+1 ,t)0 (H3 n’est plus vérifiée)
57 31/10/2019 ADD A. ELABJANI 58 31/10/2019 ADD A. ELABJANI

3. Le modéle de Regression Multiple 3. Le modéle de Regression Multiple

L’autocorrélation des erreurs du modéle Généralement, d est comprise entre 0 et


signifie ici que l’on aura: 4 et centrée sur la valeur de 2.
t+1 = t + vi Tout dépend de la valeur de  estimé qui
peut être soit positive soit négative.
Çàd que : t+1 =  t + ni (estimés)
pour ce faire, on calcule la statistique DW: ˆ   t 1  t  1  ˆ  1
 t ²
 t 1   t ²  t 1  t2 2 t 1 t
2
d 
 t ²  t ²  hat=1  AP parfaite d=0  Evidence d’AP
  t 1 t  
 d 21
  t ² 
 hat=-1 AN parfaite  d=4  Evidence d’AN
 d 21̂  60hat=0  Absence d’Ad=2  Evidence d’AA
59 31/10/2019 ADD A. ELABJANI 31/10/2019 ADD A. ELABJANI

10
3. Le modéle de Regression Multiple 3. Le modéle de Regression Multiple

Le test de DW mène au calcul de deux Représentation graphique:


valeurs de d à savoir d1 et d2 (ou bien dL H0 H0
et dU) lues sur la table statistique de DW
H1 H1

et qui sont fonctions de 3 critères :


A A
U A A U
T B B T
D D
O S S O
E E
E E
P P
- N : le Nbre d’observation
P N N N
E E
O D C C D E
N N
O E E O

- k : le Nbre de regresseurs (exclu la


S D G
U U D
I A A
T A T A
A
constante)
T N T
E U E N
I C U I
T C
V E T V

-  : le niveau de signification
O E
E O E

61 31/10/2019 ADD A. ELABJANI 62 31/10/2019 ADD A. ELABJANI

3. Le modéle de Regression Multiple 3. Le modéle de Regression Multiple

Formulation des tests:  Test négatif :


Les hypotèses appliquées sont du genre de H0 :  = 0
celles de Fischer:
H1 :  < 0
 Test de nulleté:
H0 : cov(t+1 ,t) = 0 Remarques :
H1 : cov(t+1 ,t)0 1. Le test de DW suggère l’intercepte 
dans la regression.
 Test positif:
H0 :  = 0 2. Pas de retard pour la variable endogène
Yt sinon d sera biaisé vers 2.
H1 :  > 0
63 31/10/2019 ADD A. ELABJANI 64 31/10/2019 ADD A. ELABJANI

3. Le modéle de Regression Multiple 3. Le modéle de Regression Multiple

Remarques (suite): 3.5.4. Le test de COLINEARITE (Haitovsky)

3. Une des faibleses de DW aussi c’est La colinéarité ou multicolinéarité se


qu’on travaille sur des résidus qui ne traduit par l’existence
sont pas observés, ce qui entraine d’autocorrélations multiples entre les
toute possibilité d’anomalies. variables exogénes.
Dans un modéle de regression
4. Sa validité reste faible dans le cas
multiple comportant plusieurs
de petits échantillons.
variables explicatives, la colinéarité
est parfois fort probable d’exister.
65 31/10/2019 ADD A. ELABJANI 66 31/10/2019 ADD A. ELABJANI

11
3. Le modéle de Regression Multiple 3. Le modéle de Regression Multiple

Son existence est soupsonnée On applique pour détecter son


chaque fois que : existence le test de Haitovsky qui
permet de calculer la valeur Chi-deux:
* la statistique F est petite;
² nk 1 log( 1det(X' X))
* le coeficient de corrélation R² est 6(2k 5)
aussi maigre; Avec:
* n : le Nbre d’observations
* alors que le nombre de variables * k : le Nbre de regresseurs (exclu la
explicatives est important. constante)
*  : le niveau de signification donné.
67 31/10/2019 ADD A. ELABJANI 68 31/10/2019 ADD A. ELABJANI

3. Le modéle de Regression Multiple 3. Le modéle de Regression Multiple

Principe du test: Afin d’en vérifier l’existence, des


H0 : det (X’X) = 0 regressions diverses entre toutes les
variables explicatives seront souhaitables.
H1 : det (X’X)  0
Règle de décision: Si les regressions sont significatives
 Si ²cal < ²lue  on accépte H1 entre ces dernières, il serait alors
nécessaire de corriger ce fait en éliminant
 présence de colinéarité certaines d’entre elles.
Si ²cal > ²lue  on accépte H0
Seules les variables exogènes qui
 absence de colinéarité
contiennent le plus d’information dans la
Remarque: variable endogène seront gardées dans le
La valeur de ² est lue sur la table de Chi-deux modéle.
au
69 degré de liberté de 0.5×(k ×(k-1)). 70
31/10/2019 ADD A. ELABJANI 31/10/2019 ADD A. ELABJANI

3. Le modéle de Regression Multiple 3. Le modéle de Regression Multiple

A la fin de ce travail, le modèle sera 3.6. LA PHASE DE PREVISION


simplifié en un modèle restreint. Si l’étape de la prévision correspond
celui-ci ne va contenir, par à l’un des ultimes objectifs ciblés
conséquent, qu’un minimum de dans la modélisation économétrique,
variables mais avec plus de poids de son application restera, cependant,
signification par rapport au totalement liée aux résultats des
comportement de la variable tests effectués.
endogène. Si on admet que le modéle estimé
C’est ainsi que le R² et le F pourront est parfaitement significatif, ceci se
automatiquement s’améliorer. traduit par:
71 31/10/2019 ADD A. ELABJANI 72 31/10/2019 ADD A. ELABJANI

12
3. Le modéle de Regression Multiple 3. Le modéle de Regression Multiple

La prévision nous servira pour


 Un test global bon permetant calculer des valeurs approchées de
d’accépter le modéle; la variable expliquée (endogéne) en
considérant avoir les mêmes
 Des tests marginaux significatifs; conditions et le même environnement
 Absence d’autocorrélation des dans le futur.
erreurs; L’équation de la prévision sera
déterminée comme suit:
 Absence de multicolinéarité entre
Yˆi ˆ0 ˆ1X1i ˆ2 X 2i ˆ3 X 3i ....ˆk X ki
les variables.
73 31/10/2019 ADD A. ELABJANI 74 Yˆi 12030,6X1i 1,78X 2i 0,46X3i ....0,26X ki
31/10/2019 ADD A. ELABJANI

3. Le modéle de Regression Multiple 3. Le modéle de Regression Multiple

A titre de vérification, on peut à l’aide Celui-ci est donné par la formule suivante:
du logiciel calculer les écarts (les
résidus) entre : 
P Yˆi t  /2 (nk 1)ˆ Y  Yi  Yˆi t  /2 (nk 1)ˆ Y 0,95
* les valeurs observées de Yi; PLowerYi  Yi  UpperY 0,95
* les valeurs calculées de Yi hat.
Avec:
Afin d’améliorer cet argument, un * t= la valeur lue dans la table de la LNCR
test de validité pourra être fait sur les à % de risque;
valeurs calculées de la variable * = le niveau de risque;
endogéne grâce à “l’intervalle de
prévision” de Yi. *76 ˆ  SEE   ˆ
i
2


RSS
75 31/10/2019 ADD A. ELABJANI
Y
31/10/2019 N k NADD k A. ELABJANI

3. Le modéle de Regression Multiple 3. Le modéle de Regression Multiple

Sur RATS : Sur RATS :


*************Intervalle de Prévision*******
**********Etape de la prévision********** set upper = (Yhat(t) + t/2(SEE))
Prj Yhat set lower = (Yhat(t) - t/2(SEE))
Print(dates) / Y Yhat Residus graph(key=upleft,header=‘Intervalle de prévision’) 3
graph(header=‘PREVISION DE Y’) 2 # upper
#Y # lower
# Yhat # Yhat

77 31/10/2019 ADD A. ELABJANI 78 31/10/2019 ADD A. ELABJANI

13
4. Les Applications Empiriques 4. Les Applications Empiriques

4.1. les étapes de l’application 2ème étape: constitution du fichier


Les applications empiriques doivent programme
être exécutées sur le programme de Rats * créer et nommer le fichier programme;
en passant par 3 étapes essentielles: * taper votre programme de régression
linéaire;
1ère étape: constitution du fichier data * Exécuter le programme.
* créer et nommer le fichier data; 3ème étape: traitement et analyse des
* créer et nommer les séries données
temporelles. * retrouver les statistiques essentielles;
79 31/10/2019 ADD A. ELABJANI 80 * utiliser
31/10/2019
les tests nécessaires;
ADD A. ELABJANI

* tirer votre conclusion.

4. Les Applications Empiriques 4. Les Applications Empiriques

4.2. Etude de cas n° 1: TAF :


CHIFFRE D’AFFAIRES ET FRAIS DE PUBLICITE 1.Saisir les données sur le fichier data ?
FRAIS DE CHIFFRE
ANNEES
PUBLICITE D’AFFAIRES 2.régresser le CA sur les FP ?
3.estimer les paramètres ?
Janvier 25 000 280 000
Fév 17 000 250 000

4.exécuter les tests nécessaires ?


Mars 18 000 255 000
Avril 28 000 292 000

5.donner l’équation du modèle


Mai 22 000 265 000
Juin 20 000 260 000

économétrique à utiliser dans les


Jui 19 000 262 000
Aout 22 000 280 000
Sept
Oct
30 000
30 000
285 000
296 000 prévisions ?
Nov 27 000 285 000
Déc 24 000 270 000
81 31/10/2019 ADD A. ELABJANI 82 31/10/2019 ADD A. ELABJANI

4. Les Applications Empiriques 5. LA REGRESSION PAS A PAS

Etude de cas n° 3: 5.1. Présentation:


Cas de : La production et l’emploi Lorsque le nombre des variables
explicatives est important, il devient
nécessaire de disposer de méthode de
sélection automatique des variables.
Les méthodes les plus utilisées dans ce
cadre sont:
* La Regression pas à pas ascendante
(Forward Stepwise Regression);
* La Regression pas à pas descendante
83 31/10/2019 ADD A. ELABJANI (Backward
84 Stepwise Regression).
31/10/2019 ADD A. ELABJANI

14
5. LA REGRESSION PAS A PAS 5. LA REGRESSION PAS A PAS

5.2. Les caractéristiques La méthode de la Regression pas à pas


Il s’agit d’une méthode itérative consistant ascendante se résume dans les étapes suivantes:
de :
1. Regresser La variable endogène sur toutes les
* sélectionner à chaque étape la variable
explicative dont l’apport marginal est variables du modéle prises isolément;
important et significatif;
2. Sélectionner la 1ère meilleure variable

* maximiser le R² de la variable endogène contenant l’information significative de la VE;


avec toutes les variables sélectionnées
3. Regresser à nouveau La VE sur les variables
aupravant.
85 31/10/2019 ADD A. ELABJANI restantes31/10/2019
86 du modéle; ADD A. ELABJANI

5. LA REGRESSION PAS A PAS 5. LA REGRESSION PAS A PAS

Dans le cas de la regression


4. Resélectionner la 2ème meilleure variable qui descendante, il faut passer par le
améliore le R² de la VE; contraire.
Çàd :
5. On le fait autant de fois jusqu’au moment où
1. Regresser La variable endogène sur toutes les
l’amélioration du R² n’est plus avantageuse avec
l’ajout de nouvelle variable. variables du modéle (le modéle complet);

2. Supprimer la 1ère variable contenant


l’information la moins significative dans la VE;
87 31/10/2019 ADD A. ELABJANI 88 31/10/2019 ADD A. ELABJANI

5. LA REGRESSION PAS A PAS 5. LA REGRESSION PAS A PAS

3. Regresser à nouveau La VE sur les variables Application n° 4:


restantes du modéle; Cas du chiffre d’affaires multicritère.
Les étapes à suivre:
4. Resélectionner la 2ème mauvaise variable à
supprimer sans affaiblir le R² de la VE; 1.Commencer par analyser les résulltats
de la regression du modèle complet;
5. On le fait autant de fois jusqu’au moment où 2.Faites les tests nécessaires;
la suppression d’une autre variable causera une 3.Possibilité de réduire le modèle;
grande perte sur le R².
4.Exécuter une regression pas à pas.
89 31/10/2019 ADD A. ELABJANI 90 31/10/2019 ADD A. ELABJANI

15
5. LA REGRESSION PAS A PAS 5. LA REGRESSION PAS A PAS

Résultats n° 1: R²= 0.80 LA MULTICOLINEARITE


n° variables Coeff. t Variables MT RG Px BR INV PUB FV Tpub
Ventes 0.72 -0.08 0.29 0.08 0.45 0.57 0.57 -0.1
1 Constant 3179.128 4.79
MT 1 -0.07 0.55 0.16 0.14 0.2 0.82 -0.02
2 MT 4.72 4.29
3 RG* 1.43 0.43 RG 1 0.03 0.02 0.09 -0.12 0.03 -0.15

4 PX * -14.24 -1.63 Px 1 0.44 -0.06 0.25 0.7 -0.16

5 -3.52 -0.55 BR 1 0.17 0.1 0.4 -0.13


BR*
6 1.96 2.58 INV 1 0.24 0.16 -0.12
INV
7 PU 8.37 4.71 PUB 1 0.17 -0.2
8 FV * 1.17 0.59 FV 1 -0.06
9
91 TPUB * -0.18 -0.45 Tpub
92
1
31/10/2019 ADD A. ELABJANI 31/10/2019 ADD A. ELABJANI

5. LA REGRESSION PAS A PAS 5. LA REGRESSION PAS A PAS

5.3. Exemple de la RPP ascendante § 2ieme étape : On étudie maintenant les


R2(CA;MT;Xj) càd en régressant CA sur le MT
1ère étape : régressions partielles par rapport
et une autre variable des 7 restantes :
aux différentes variables exogènes
Tableau n° 1 : régressions partielles
tableau n°2 : régressions partielles
Variables R2 (CA ; Xi) ti Variables R2(CA;MT;Xj ) tj
MT 0.52 6.23 Rg 0.5206 -0.287
Rg 0.007 -0.5 Px 0.5374 -1.1628
Px 0.08 1.8 Br 0.5267 -0.289
BR 0.006 0.49 INV 0.6438 3.495
Inv 0.2 3.05 Pu 0.7053 4.7
Pub 0.32 4.12 FV 0.5199 -0.1815
FV 0.32 4.18 Tpub 0.5262 -0.7035
Tpub 0.009 -0.58
93 31/10/2019 ADD A. ELABJANI 94 31/10/2019 ADD A. ELABJANI

5. LA REGRESSION PAS A PAS 5. LA REGRESSION PAS A PAS

3ieme étape : De la même façon on reconstruit le 4ieme étape :


tableau (3) donnant les R2 ( CA ; MT ; Pub ; Xj ) : tableau n°4 : régressions partielles
tableau n°3 : régressions partielles
Variables R2 (CA;MT;Pub;INV;Xj) tj
Variables R2 ( CA ; MT ; Pub; Xj ) tj
Rg 0.7055 0.136
Rg 0.7763 0.36
Px 0.7502 -0.47 Px 0.8001 -2.018
Br 0.71 -0.71 Br 0.786 -1.27
INV 0.77 3.25 FV 0.777 -1.61
FV 0.7062 -0.315 Tpub 0.7761 0.307
Tpub 0.7053 0.33

95 31/10/2019 ADD A. ELABJANI 96 31/10/2019 ADD A. ELABJANI

16
5. LA REGRESSION PAS A PAS

5ieme étape :
tableau n°5 : régressions partielles

Variables R2(CA;MT;Pub;INV;Px;Xj) tj
Rg 0.802 0.554
Br 0.8012 -0.42
FV 0.8019 0.54
Tpub 0.8001 -0.84

97 31/10/2019 ADD A. ELABJANI

17

Vous aimerez peut-être aussi