Vous êtes sur la page 1sur 89

Master 1 FASEG/UCAD

Modélisation macroéconomique
Chapitre I LA MODELISATION EN ECONOMIE
Chapitre 2 La régression multiple
Chapitre 3 MULTICOLLINÉARITÉ
Chapitre 4 HETEROSCEDASTICITÉ
Chapitre 5 AUTOCORRELATION

Dr Mamadou Dansokho
2019/2020
Modélisation macroéconomique

Chapitre I LA MODELISATION EN ECONOMIE


Section I LA NOTION DE MODELE

Simplification : deux définitions opposées selon sens et temps.

 La première Platon: modèle comme paradigme, forme idéale sur laquelle les existences sont réglées (le
modèle du Père pour le fils).

 La seconde: très actuelle, modèle comme maquette, permettant reproduire en plus petit ,et simplification
propriétés objet du monde réel.

Deux définitions antagonistes


 première représentant en quelque sorte un « idéal » à atteindre
seconde débouchant sur un « artefact » technologique dont vertu première est utilisation.

Deux approches ne sont pas aussi antagonistes: quelle que soit approche, le modélisateur recherche bien dans son
processus cognitif à la fois l’exemplarité du modèle et son utilisation.

Comment définir et analyser le processus de modélisation ?


LE PROCESSUS DE MODELISATION

• Le processus de modélisation quelle que soit la forme technique qu’il prend devrait
toujours être scindé en deux étapes :
• une étape dont l’objectif est l’identification claire et précise de la partie du monde à
modéliser. Cette identification doit être fondée sur les objectifs poursuivis. Le
modélisateur passe ainsi de la réalité qu’il veut modéliser à un système (au sens de
la théorie des systèmes) qui est sa propre description du monde.
• Une étape dont l’objectif est de proposer une représentation formelle, abstraite de ce
système fondée sur l’efficacité, c-à-d sur sa capacité à rendre compte de la
dynamique des phénomènes de vie et d’évolution du système plongé dans son
environnement.
• Le modèle apparaît selon cette approche comme l’out put d’un processus de production
en deux étapes, chacune d’entre elles étant fondée sur un critère différent.
LE PROCESSUS DE MODELISATION

• La production d’un modèle est un phénomène complexe qui nécessite une grande
connaissance du phénomène à étudier ainsi que des techniques ou méthodes permettant
d’arriver à un modèle qui remplit correctement son rôle. Pour cela, il faut savoir très
précisément ce que l’on recherche et quels sont les moyens que l’on a à sa disposition.
Les propriétés, donc les performances du modèle résultant en dépendent, sachant qu’il
n’ya pas de modèle parfait, ni unique.

• Lors de la mise au point d’un modèle, il faut toujours garder à l’esprit, trois points qui sont
la clef pour la réussite de l’EP de modélisation : quelle est l’utilité du modèle ? Quel est
son domaine de validité ? Quelle est la précision recherchée ?

• Connaître la réponse à ces trois questions garantit du bon emploi du modèle construit.
II LES ETAPES DE LA MODELISATION

• Dans le processus de modélisation, d’un point de vue technique, trois


étapes sont à franchir : la caractérisation du modèle, l’identification
du modèle et la vérification du modèle.
• La caractérisation consiste à structurer les équations permettant de
relier les entrées du modèle à ses sorties.
• Le déroulement de cette phase dépend du type de modèle choisi.
C’est au cours de cette étape que la structure du modèle est
explicitée, intégrant paramètres structurels et variables d’état. On
parle également de spécification.
II LES ETAPES DE LA MODELISATION

• L’identification peut être vue comme la phase de calage numérique du


modèle sur les données.
• L’identification fournit donc des valeurs aux paramètres structurels du
modèle, sur la base des données observées qui sont relatives aux
variables d’état.

• La vérification porte à la fois sur la structure et sur l’état. Pour ce qui
concerne la structure, il s’agit de vérifier si les paramètres obtenus
possèdent une valeur physiquement acceptable. Pour ce concerne l’état, il
s’agit de savoir si les états obtenus suite à l’identification sont
comparables avec une précision souhaitée. Les méthodes à utiliser
dépendent du type de modèle qui est choisi.
SECTION II : LA MODELISATION APPLIQUEE

Le terme de modélisation appliquée recouvre en économie un champ très


vaste puisqu’il englobe aussi bien les relations isolées entre variables
économiques que les modèles d’ensemble d’une ou plusieurs économies.
C’est ce second sens que nous allons entendre ici, càd la construction et
l’utilisation de modèles d’ensemble à des fins de politique économique, de
prévisions ou de tests de relations économiques.

Utilisation pour la politique économique : c’est pour cette raison qu’a été
élaboré le premier modèle d’ensemble relatif à l’économie néerlandaise : il
avait été demandé à Timbergen de réfléchir aux remèdes à apporter à la crise
économique d’avant – guerre.
Timbergen proposa alors de construire une maquette de l’économie
néerlandaise que l’on considère généralement comme le premier modèle
économique d’ensemble.
SECTION II : LA MODELISATION APPLIQUEE

Commence alors une ère de modélisation qui va culminer à la fin des


années 70 et qui va mêler à la fois théorie, travaux économiques, analyse
des données avec des pondérations variables.

Ces modèles seront utilisés à la fois pour des besoins de l’évaluation des
politiques économiques, pour des prévisions ou encore pour tester de
nouvelles théories économiques.

Dans cette brève présentation de l’état de la modélisation appliquée nous


proposons deux classifications : une fondée sur la méthode de construction,
l’autre sur les utilisations possibles de cet instrument.
LES MODELES DU POINT DE VUE DE LEUR CONSTRUCTION

• A/ LES MODELES SANS THEORIE


• Ce sont essentiellement les modèles Vectoriels
AutoRégréssifs (VAR) qui relient une variable à l’instant t à
sa réalisation à l’instant t-1 et à d’autres variables décalées.
Ce que l’on doit retenir ici c’est que le choix des différentes
variables explicites n’est pas fondé par une forme
structurelle déduite à priori de la théorie, même s’il faut
dans les faits nuancer ce principe. Ces modèles sans
théorie sont plus pauvres en propriétés variantielles et ils
sont plutôt utilisés pour tester une théorie, mesurer
l’influence quantitative d’une variable ou faire des
prévisions.
LES MODELES DU POINT DE VUE DE LEUR CONSTRUCTION

• B/ LES MODÉLES « MIXTES » À FONDEMENTS THÉORIQUES


RECTIFIÉS PAR LES TRAVAUX STATISTIQUES ET
ÉCONOMÉTRIQUES
• Il s’agit surtout des modèles économétriques ; leurs fondements
économétriques sont pour les plus anciens d’entre eux enracinés dans la
théorie macroéconomique de la synthèse néo-keynésienne. La théorie
fournit certes la spécification mais celle-ci subit de très larges
modifications afin de vérifier soit des critères économiques soit des
critères de stabilité.
• Les modèles économétriques, en raison des coups portés à la théorie
keynésienne, ont évolué vers des spécifications plus conformes à la
théorie standard : comportement optimisés, anticipations
rationnelles …..etc. Mais cette évolution est difficile tant ces nouvelles
spécifications posent des problèmes économétriques.
LES MODÈLES DU POINT DE VUE DE L’UTILISATION .
A/ Les modèles Pour la prévision

• Les modèles fondés sur des séries statistiques suffisamment longues, modèles

économétriques, modèles VAR sont utilisés à cette fin. Ces prévisions portent

sur le PIB, les prix, l’empli, le solde extérieur, et cela aussi bien au niveau

macro qu’au niveau sectoriel pour les modèles détaillés.

• L’horizon de projection des modèles économétriques est de court ou moyen

terme (3 mois à 8 ans). Ils sont parfois utilisés pour de plus longs termes. Il

s’agit plutôt de la description raisonnée de scénarios dans un cadre de

cohérence formalisé que de véritables prévisions.


LES MODÈLES DU POINT DE VUE DE L’UTILISATION.

• Enfin il faut mentionner que les méthodes VAR ou d’autres

traitements des séries chronologiques, servent souvent à

réaliser des prévisions à très court- terme dans des modèles

partiels ( taux de change, coût des matières premières).

Cependant certaines études ont montré que les performances

en prévision des méthodes VAR supportent la comparaison


LES MODÈLES DU POINT DE VUE DE L’UTILISATION.

B/ LES MODÈLES POUR LA SIMULATION ET L’ANALYSE DE POLITIQUES

ÉCONOMIQUES

Les modèles doivent répondre aux questions du type : quels sont les effets sur les

principales variables économiques agrégées ou sectorielles ( croissance, inflation,

emploi, solde extérieur, solde des administrations) des modifications des politiques

économiques traduites en général par des modifications de variables exogènes ?

Les deux familles de modèles essentiellement utilisés à cette fin sont les modèles

économétriques et les MEGC.


Chapitre 2 La régression multiple
Quand utiliser la régression multiple ?

• Pour estimer la relation entre une variable dépendante (Y ) et

plusieurs variables indépendantes (X1, X2, …)


Le modèle linéaire de régression multiple
• Equation de régression multiple
Cette équation précise la façon dont la variable dépendante est
reliée aux variables explicatives :

Y  b 0  b1 X 1  b 2 X 2  ...b p X p  e
où b0, b1, b2, . . . , bp sont les paramètres et e est un bruit
aléatoire représentant le terme d’erreur.
Le modèle linéaire de régression multiple

• Les termes de l’équation


yi  b 0  b1 x1i  b 2 x2i  ...b p x pi  e i

ième observation Terme constant Influence de


de Y la variable Xp
Influence de la
variable X1
Résidu de la ième
observation
Le modèle linéaire de régression multiple

• Ecriture matricielle du modèle

 b0 
 y1  1 x1,1  x1, p     e 1 
          b1     
       
 yn  1 x1,n  xn , p    e n 
 b p 
y  Xb  e
Le modèle linéaire de régression multiple
• Les hypothèses du modèle
• Les hypothèses de nature probabiliste
• Les variables Xi sont aléatoires
• E(ei)=0 pour tout i
• V(ei)=s2 pour tout 1≤i≤p (homoscédasticité des erreurs)
• Cov(ei , ei )=0 pour tout i≠j
• Le vecteur aléatoire e suit une loi normale à n dimensions N(0, s
2I )
n
• Les hypothèses structurelles
• Det(XTX)≠0 (absence de colinéarité entre les variables
explicatives).
• n>p+1
Le processus d’estimation
Modèle de régression multiple
Données:
Y = b0 + b1X1 + b2X2 +. . .+ bpXp + e x1 x2 . . . xp y
Hyperplan de régression multiple . . . .
E(Y|X1,…,Xp) = b0 + b1X1 + b2X2 +. . .+ bpXp . . . .
Paramètres inconnus
b0 , b1 , b2 , . . . , bp

Equation estimée
bˆ0 , bˆ1 , bˆ2 ,..., bˆ p
Yˆ  bˆ0  bˆ1 X 1  bˆ2 X 2  ...  bˆ p X p
Estimateurs de
Estimateurs
b0 , b1 , b2 , . . . , bp
bˆ0 , bˆ1 , bˆ2 ,..., bˆ p
Le processus d’estimation
• Interprétation géométrique
Illustration du cas p=2.

Y yi : observation
yˆ i  bˆ0  bˆ1 X 1i  bˆ2 X 2i
b̂ 0
eˆi  yi  yˆ i

X2
(X1i, X2i)
X1
Le processus d’estimation
• Estimation des coefficients de régression
• La méthode : les moindres carrés ordinaires
Le principe de l’estimation des coefficients de régression :

b 0 , b1 , b 2 ,..., b p
consiste à minimiser la somme des carrés des résidus :

n n

 e   ( y  yˆ )
i 1
i
2

i 1
i i
2

• Le calcul numérique lui-même (calcul matriciel) peut


s’effectuer à l’aide de logiciels statistiques (SAS, SPSS, S+, R,
Gretl,…).
Le processus d’estimation
• Estimation des coefficients du modèle
La méthode des moindres carrés donne pour résultat :


bˆ  X T X 
1
X TY
b̂ suit une loi

N 0, s e X X
2
 T

1

bˆ est sans biais :
E ( ˆ)  b
b
Parmi les estimateurs de b linéaires par rapport à
X, sans biais, les éléments de bˆ ont la plus petite variance.
Le processus d’estimation
• Interprétation des coefficients de régression estimés
• La pente (k≠0)
b̂ k facteur égal à
L’estimée de Y varie d’un
lorsque Xk augmente d’une unité, les autres bˆk
variables étant maintenues constantes.
• L’ordonnée à l’origine
C’est la valeur moyenne de Y lorsqueb̂toutes les Xi sont nulles.
0
Le processus d’estimation
• Estimation de la variance des résidus
n

e i
2

sˆ 2  i 1
n  p 1
Le processus d’estimation
• Les intervalles de confiance
On peut calculer pour chaque coefficient du modèle un intervalle de confiance de
niveau (1-a) donné par :

P( bˆi  ta / 2 sbˆ  b i  bˆi  ta / 2 sbˆ )  1  a


i i

où ta/2 se calcule à partir de :


P(T  ta / 2 )  1  a / 2

T suivant une de Student à n-p-1 d.d.l.


Le processus d’estimation
• Les données
• Taille de l’échantillon
Les données doivent être suffisamment nombreuses : 15 à 20 par variable au
moins.
• La nature des variables
Dans la pratique, Y est une variable quantitative et les Xi peuvent être
quantitatives ou binaires.
Qualité de la régression
• Décomposition de la somme des carrés totale
SCT : somme des carrés totale
SCR : somme des carrés des résidus
SCE : somme des carrés expliqués par le modèle

SCT = SSE + SCR

 y  Y    yˆ  Y    ( y  yˆ )
n n n
2 2 2
i i i i
i 1 i 1 i 1
Qualité de la régression
• Les coefficients de détermination
• Le coefficient de détermination R2

R2 = SCE/SCT
Il exprime le pourcentage de la variance de Y expliquée
par le modèle. Il donne une idée globale de l'ajustement du
modèle.
• Le R2 ajusté se calcule en fonction du R2 :

n 1
Ra2  1  (1  R 2 )
n  pdel’ajustement
Il traduit à la fois la qualité 1 (liaison entre Y
et les Xi) et la complexité du modèle (nombre de variables
explicatives).
Qualité de la régression
• Statistique utilisée
SCE
MSE p
F 
MSR SCR
n  p 1

• Règle de décision
Au risque a, on rejette H0 si : a ≥ p-value
(calculée avec une loi de Fisher à p et n-p-1 degrés de liberté)
Qualité de la régression
• R2 et test de Fisher

F bon, R² mauvais F bon, R² bon


Qualité de la régression
• Le test de Student sur un coefficient de régression
Il permet de répondre à la question suivante :
l’apport marginal d’une variable Xj est-il significatif ?
• Hypothèses
H0 : bj = 0 (j≠0)
On peut supprimer la variable Xj
H 1 : bj  0
Il faut conserver la variable Xj
Qualité de la régression
• Statistique utilisée sous l’hypothèse H0
bˆi
ti  , sbˆ : écart - type estimé de bˆi
sbˆ i
i

• Règle de décision
Au risque a, on rejette H0 si : a ≥ p-value (calculée à partir d’une loi de
Student
à n-p-1 degrés de liberté).
Test de Chow de rupture structurelle
Il n’est pas rare de voir des comportements se transformer
à travers le temps.
Il est d’ailleurs utile de pouvoir dater c’est changement.
C’est l’objet des tests de rupture de Chow.
Y a –t-il une différence significative entre la SCR sur
l’ensemble de l’échantillon par rapport à l’addition de la
SCR de 2 sous échantillons?
Autrement dit le fait d’estimer un modèle sur 2 périodes
permet-il de réduire la SCR ?
Ceci aurait donc tendance à indiquer une changement de
comportement.
Test de Chow de rupture structurelle

Y a –t-il égalité entre les paramètres sur l’ensemble de la


période et sur les sous périodes ?
Test de Chow de rupture structurelle
• F* = ([SCR – (SCR1 +
SCR2)]/ddl_n)/[(SCR1+SCR2)/ddl
_d] ddl_n = k +1 et ddl_d= n-
2*(k+1)
• F* = ([67,45-
(27,31+20,73)]/4)/(27,31+20,73)
/6 = 4,852/8 = 0,606 <
F(4,6;0,05)=4,53
Pour le vérifier il faut réaliser • Il n’y a pas de rupture H0
un test de Fisher à partir de la acceptée.
SCR des différents modèles
Analyse des résidus
• Normalité
• QQ plot
• Tests de normalité
• Homoscédasticité
• La variance des résidus n’est pas stable.
• Transformation des données
• Indépendance des résidus
• Test de Durbin-Watson
• Détection des valeurs atypiques
Les variables indicatrices
• Variable muette ou indicatrice (dummy variable)
Variable prenant les valeurs 0 ou 1 pour indiquer que l’observation présente une
certaine caractéristique, par exemple une périodicité (trimestre, mois,…).
• Exemple : la consommation de fuel trimestrielle

 b 0  b1t  b 2 d1  b 3 d 2
X t trimestre
di = 1 pour le iéme  b4d4  e t
di = 0 sinon
Chapitre 3 MULTICOLLINÉARITÉ

Que se passerait il si nous essayons de faire une régression lorsqu'une

variable aléatoire est une combinaison linéaire parfaire de une ou plusieurs

variables.
MULTICOLLINÉARITÉ

• Démonstration
V a r i a b le in d é p e n d a n t e ( c e lle

q u e j e ve ux e x p liq u é e ) .

S i u n e v a r i a b l e a l é a t o i r e e s t u n e c o m b i n a i s o n l i n é a i r e d e 1 o u p l u s i e u r s , i l n 'y a p a s d e s o l u t i o n . O n n e S A I T P A S E S T I M E R L E M O D E L E .
MULTICOLLINÉARITÉ

• On ne sait pas estimer le modèle mais cela est très rare dans la vraie vie. Il arrive souvent qu'il y ait une relation approximative entre des variables.
MULTICOLLINÉARITÉ

• Le principal problème de la multicolinéarité est qu’elle fausse notre

inférence en gonflant de manière artificielle les écarts types des

coefficients, en élargissant les intervalles de confiance et en diminuant

la t stat ce qui affaiblit la robustesse des résultats. Une manière de la

détecter est d’effectuer la corrélation entre 2 variables "suspectes" (ici

ASVABC et ASVAB5: 0.64).


MULTICOLLINÉARITÉ

• De plus cette dernière peut être détectée via un R2 élevé mais avec peu de variables explicatives et une t qui diminue.
• Précision, la multicollinarité ne biaise pas les coefficients de régression, elles restent centrées autour de la vraie valeur
mais elles ont des écart-types (des variances) trop larges. Et nous préférons un écart type plus faible car on est plus précis
(on se rapproche de la vraie valeur).
MULTICOLLINÉARITÉ

• a) Mesures possibles pour réduire la multicollinearité


• Afin d’analyser ces méthodes, il est nécessaire de reprendre la formule de la variance de population de b2 (r étant le coefficient de corrélation):
MULTICOLLINÉARITÉ

• Réduire la variance du terme d’erreur en incluant plus de variables (pertinentes ) dans le modèle
MULTICOLLINÉARITÉ
MULTICOLLINÉARITÉ

•Augmenter

• Augmenter la Var(X2) en prenant des individus extrêmes (riches, pauvres, etc.). De ce fait, la variance sera plus grande et l'écart-type sera plus faible.

• Une autre possibilité est de réduire la corrélation entre les variables explicatives. C'est loin d'être facile.

•Diminuer

(1) Combiner les variables corrélées (collinéaires)

Combiner les variables en créant un indice composite.

C’est ce qui a été fait avec les 3 variables. ASVABC a été calculé comme une moyenne pondérée de
ASVAB2, ASVAB3 et ASVAB4. L’écart type d’estimateur de ASVABC est plus petit que ceux de ses composantes dans la
seconde régression
MULTICOLLINÉARITÉ

C r é e r u n i n dic e co mp os it e d e s 3 f o r m e s d 'i n t el li ge nc e e n reg ro up an t le s variables colinéaires . L ' éc ar t - ty pes di mi nu e.


MULTICOLLINÉARITÉ

• Enlever certaines variables corrélées .Nous pouvons remarquer que l'écart-type de l'estimateur est plus petit que dans la régression qui inclut
ASVAB3 et ASVAB4. Cependant, cette approche est dangereuse car certaines variables enlevées pourraient réellement appartenir au modèle et leur
omission pourrait causer un biais de variables omises.
Chapitre 4 HETEROSCEDASTICITÉ.

A. HOMOSCEDASTICITÉ ET HETEROSCEDASTICITÉ

Cette séquence introduit le concept d'hétéroscédasticité qui fait référence à la distribution du terme

d'erreur dans un modèle de régression.

1. Homoscedasticité

On parle d'homoscédasticité lorsque la variance de la distribution est la même pour chaque

observation (les distributions normales montrées ont la même variance). Si cette condition est

satisfaite, le terme d'erreur est dit être "homoscédastique". Une fois que l'échantillon a été tirée, des

observations seront plus proche que d'autres de la droite (mais on ne sait pas anticiper lesquelles).
HETEROSCEDASTICITÉ

Variance de la distribution est la même quelque soit l'individu


->
" courbes" sont les mêmes homoscédasticité
HETEROSCEDASTICITÉ

2. Hétéroscédasticité

• On parle d'hétéroscédasticité lorsque la variance de la distribution du terme d'erreur varie en

fonction des observations (des individus)-> variance n'est plus constante. Quand la distribution

n’est pas la même pour chaque observation, le terme d’erreur est dit être sujet à de

l’hétérosédasticité. La distribution du terme d’erreur variera donc avec chaque X.


HETEROSCEDASTICITÉ

Avec l'hétéroscédasticité on peut avoir des points très éloignés de

la droite car on peut avoir des variances très grandes.

Variance n'est pas la même, elle change en fonction de l'individu

"courbes" ne sont pus les mêmes - > h étéo scédasticité

Dès que la variance des termes d'erreurs n'est pas

constante on a de l'hétéroscédasticité.
HETEROSCEDASTICITÉ

• Mais attention, l'hétéroscédasticité ne cause pas de biais, elle va simplement rendre invalide

l'inférence (écart-types sont mal estimés et les tests (t-F) sont invalides.

• Prenons un exemple : diagramme de dispersion du GDP en fonction de MANUFACTURING. Le

diagramme de dispersion est dominé par le Japon et les USA et il est difficile de détecter

quelconque sorte de tendance. Cependant si ces 2 pays sont enlevés et que le diagramme de

dispersion est rééchelonné, une image claire d’hétérosédasticité apparait.

• Voir exemple complet dans le syllabus (je détaille que l'essentiel). 21 Ibid.
HETEROSCEDASTICITÉ

L'hétéroscédasticité ne peut pas être observée avec

des graphes de résidus.

On a l'impression d'avoir une homoscédasticité car

les points sont à la même distance si on trace une

droite.
HETEROSCEDASTICITÉ

• 3. Comment détecter l’hétérosédasticité ?


• a) Test Goldfeld-Quant21

• Les formes possibles d'hétéroscédasciticté sont infinies. Cependant, le test de Goldfeld-Quant teste une

forme particulière commune d'hétéroscédasticité: une distribution des écart-types

proportionnelle à la taille des variables explicatives.

• Illustration:
HETEROSCEDASTICITÉ

Le test de Goldfeld-Quandt consiste à diviser l’échantillon


en 3 parties. Le plus souvent on prendra les 3/8 des
observations avec les valeurs les plus petites de la variable
X, les 3/8 des observations avec les valeurs les plus grandes
et ¼ au milieu. On ajuste ensuite les lignes de régression
pour les colonnes extrêmes. On comparera la somme des
carrées résiduels pour les deux régressions: RSS1 et RSS2.
Si le terme d'erreur est homoscédastique, il ne devrait pas y
avoir de différence entre RSS1 et RSS2. La statistique du test
est distribuée selon une distribution de ficher.

3 /8 ¼ 3 /8
HETEROSCEDASTICITÉ

• S'il y a homoscédasticité, la somme des carrées des résidus (distante entre la droite) n'est pas différentes. Car la distribution est identique, les points
se trouvent +/- à la même distante de la droite (la variance est constante).

H0 est l'homoscédasticité (je teste si


la dispersion des points à droit e et à

gauche est la même).


Supérieure à 10.1 je rejette l'hypothèse
d'homoscédasticité.

 J'ai donc détecté


l'hétéroscédasticité.

Ils seront les mêmes car ce sont le


nombre de degrés de liberté dans la

régression inférieure et supérieure.


HETEROSCEDASTICITÉ

Test de white[1]
Le test de White est une seconde façon de détecter l’hétérosédasticité. L’idée du test de White est de régresser le RSS sur les
variables explicatives, leur carré et tous les produits croisés. Si au moins un des paramètres est différent de 0 alors cela veut
dire que les résidus dépendent d’un des X
(hétéroscédasticité).

•Comment résoudre
Je n'ai pas le terme d'erreur l’hétérosédasticité
mais j'ai les résidus.
HETEROSCEDASTICITÉ

• Si on a de l'hétéroscédasticité, on a un problème dans les variances.


• Matrice schandwich correcte mais on ne sait pas modéliser, on ne règle pas
l'hétéroscédasticité (exemple
• Dans ce cas, la variance est de la pluie et du parapluie).

e Jne connais pas dont je


l'estime
HETEROSCEDASTICITÉ

La connaissance de dans chaque observation, permettrait de déduire un modèle


homosédastique en divisant l équation par
. La variance du terme d’erreur dans la population dans le
modèle révisé est maintenant égale à 1 dans toutes les
observations, le terme d’erreur est donc homosédastique.

Variance n'est pas constante: elle


dépend de mon individu.

Nouveau terme d'erreur

Homos cédasticité car le terme d'erreur à une variance


Je le sors et je l'élève au carrée.
constante (1) pour tous les individus.


HETEROSCEDASTICITÉ

a)Variance est proportionnelle à une variable qui n'est pas dans le modèle

En pratique nous ne connaissons pas la valeur de la variance de population du terme d’erreur de


chaque observation i. Cependant il peut être raisonnable de supposer qu’elle est proportionnelle à une
certaine variable mesurable Zi. Si c’est le cas, nous pouvons rendre le modèle homosédastique en
divisant par Zi. Le terme d’erreur dans le modèle révisé a une variance constante λ 2.
HETEROSCEDASTICITÉ

Variance proportionnelle à une variable


qui n'est pas dans le modèle.

Nouveau terme d'erreur

Si je normalise par une variable


proportionnelle qui n'est pas dans le
modèle (variance du terme d'erreur
constante).

Dans notre exemple, nous avons divisé par la variable


population, suspectée d’être à l’origine de notre
hétérosédasticité. Cependant, l'hypothèse nulle est rejetée
à un niveau de 5 % (pas de 1 %).

Supérieure à 3.18 on rejette


l'hypothèse d'homoscédasticité.
HETEROSCEDASTICITÉ

a)La variance est proportionnelle à une variable de mon modèle

Variance proportionnelle à une variable


de mon modèle.

Nouveau terme d'erreur

Si je normalise par une variable


proportionnelle qui est dans le
modèle (variance du terme d'erreur
constante). Permet de résoudre le
problème d'hétéroscédasticité.

Dans notre exemple en divisant les deux variables par GDP


suspecté d'être à l’origine de l’hétérosédasticité. On peut
voir que cette dernière a été éliminée par la preuve du
test F.

Inférieure à 3.18 on n e rejette pas


l'hypothèse d'homoscédasticité.
HETEROSCEDASTICITÉ

• Régression logarithmique

Afin d’éliminer l’hétérosédasticité il est possible de

mettre le modèle sous forme logarithmique. On peut

le confirmer avec un test de F.

Inférieure à 3.18 on ne rejette pas

l'hypothèse d'homoscédasticité.
HETEROSCEDASTICITÉ
• Résumé des régressions avec les 4 spécifications alternatives du modèle23

• Quel modèle choisir ?


• Nous choisirions probablement le modèle logarithmique étant donné son R² élevé. Mais attention ne JAMAIS utiliser le R² pour comparer des
modèles (il est régression invariant !). C'est-à-dire qu'il change en fonction de la pente de la droite. De ce fait, il ne sert pas à choisir un modèle!!!
HETEROSCEDASTICITÉ

Problème avec le R²
Nous allons montrer par un exemple que le R² est de régression invariant (il ne sert pas à choisir un modèle).
Chapitre 5: AUTOCORRELATION
A. AUTOCORRELATION

• L’indépendance sérielle se définit comme suit : Cov (ui,uj) = 0. Autrement dit, les termes d'erreurs doivent être générer indépendamment les uns des
autres aussi non, nous avons un problème d'inférence.
• Dépendance sérielle (autocorrélation) positive
• On viole l'hypothèse: les valeurs positives ont tendance à être suivie par des positives et les valeurs négatives par des négatives.

Les positifs suivent les positifs – les


négatifs suivent les négatifs.
A. AUTOCORRELATION

• Dépendance sérielle (autocorrélation) négative


• On viole l'hypothèse: les valeurs positives sont suivies par des négatifs qui sont suivies par des positifs…. On observe un phénomène d'alternance
directe.

Points au dessus puis en dessous; puis

au dessus …
A. AUTOCORRELATION

• Un cas particulier d’autocorrélation est l’autocorrélation autorégressive de premier ordre, notée AR(1)

(On se concentre sur cette catégorie). On dit qu’elle est autorégressive car, ut dépend de ses

propres valeurs passées, et de premier ordre car elle dépend seulement de sa valeur précédente

• (erreur est liée à celle d'avant). ut dépend aussi de εt, une injection d’un caractère aléatoire

nouvellement apparue au temps t, souvent appelée comme l’innovation au temps t.


A. AUTOCORRELATION

Temps et non plus d'individus.

Car u t
dépend seulement de

Car on régress e u t sur u t- 1 . Elle dépend u t- 1 (son erreur d'hier ).

d'elle - même (l'erreur d'aujourd'hui est =


à l'erreur d'hier).

Erreur d'aujourd'hui dépend: erreur d'hier,

avant - hier…. Équivalent à l'erreur. Il

Peut êtr e positif ou négatif apparait directement. Il est lié


On régresse u t sur lui -même et 5 retards! à rien.
A. AUTOCORRELATION

L’autre principal type d’autocorrélation est la moyenne mobile où le


terme d’erreur est une combinaison linéaire de l’innovation actuelle et un
nombre fini d’innovations antérieures. Nous ne nous y attarderons pas
ici!

ut dépend uniquement de l'innovation.


A. AUTOCORRELATION

Exemples lorsque le terme d'erreur est sujet à de l'autocorrélation AR(1)


Prenons 50 valeurs de ε indépendantes, prises d’une distribution normale ayant une moyenne de 0. Séries générée
pour u en utilisant différentes valeurs de

.
Nous commençons avec un progressivement. = 0, il n'y a donc pas d'autocorrélation. Nous augmentons progressivement

Erreur est liée à un coefficient


de 0. Ici, le rho est positif.

En augmentant le nous observons qu'une tendance d'autocorrélation positive commence à


être apparente. Avec
= 0.9, des longues séquences de valeurs ayant le même signe sont apparentes et la
tendance à retourner à 0 est faible
A. AUTOCORRELATION

Structure qui apparaît plus l'autocorrélation est forte.

• Même constat peut être fait dans l’autre sens pour de l’autocorrélation négative .
• Même constat peut être fait dans l’aut,re
A . AUTOCORRELATION

Quand
! L'autocorrélation ne biaise pas les coefficients
c'est l'inférence qu'on ne sait pas lire. !

• DÉTECTION DE L'AUTOCORRÉLATION
• Test d’autocorrélation AR(1) de Durbin-Watson
• La statistique d de Durbin Watson est calculée pour les résidus.

On utilise les résidus car l'erreur on


ne l'a pas étant donné que c'est la
distance entre le point et la vraie
droite (qu'on n'a pas).
A. AUTOCORRELATION 2-2

, ,

• Il peut être montré qu’en grand échantillon, d tend vers 2-2 où est le paramètre dans la relation
AR(1) : ut = ut-1 + εt
•Si il n’y a pas d’autocorrélation,
= 0 et d doit être distribué de manière aléatoire autour de 2. Si
autocorrélation positive sévère, sera proche de 1 et d proche de 0.
•S’il y a de l’autocorrélation négative sévère, sera proche de -1 et d sera proche
de 4.
A. AUTOCORRELATION

Autocorrélation positive Autocorrélation négative


A. AUTOCORRELATION

Afin d’effectuer le test de Durbin Watson il convient de définir des valeurs critiques pour d avec H0 :
= 0 (pas de autocorrélation). Les valeurs critiques (dcrit) dépendent du nombre d’observations dans l’échantillon et du nombre de variables explicatives.
Une complication vient du fait que la valeur critique dépend aussi des valeurs particulières prises par les variables explicatives et donc, varie d'un
échantillon à échantillon. Il est donc impossible d’établir une table donnant les valeurs critiques exactes pour tous les échantillons possibles.
La valeur critique dépend de l'échantillon, donc on détermine une zone (borne supérieure et inférieure). Le problème est que si on se trouve dans la zone grise, on ne sait pas où se trouve la valeur
critique.

La valeur critique dépend de l'échantillon, donc on détermine une zone (borne supérieure et

• Cependant D-W ont déterminé des limités inférieure et supérieures, dL et dU, pour les valeurs critiques et celles-ci sont présentées dans les tables standards.

• Ainsi:

• Si d < dL, on rejetera H0. Il y a donc autocorrélation positive.


• Si d > dU, nous ne rejetterons pas H0. Il n'y a pas d'autocorrélation. Bien entendu, si d était > 2, nous devrions tester plutôt pour l’autocorrélation négative.
• Si d est entre dL et dU, nous ne pouvons pas dire si d est supérieur ou inférieur à la valeur critique donc le test est indéterminé (mais dans l’incertitude mieux vaut rejeter H0).
A. AUTOCORRELATION

Rejette l'H0
• Les limites pour les valeurs critiques en cas d’autocorrélation négative ne sont pas données dans les tables standards mais il est facile de les calculer car elles sont localisées symétriquement. Bornes pour un test de 1
%
A
. AUTOCORRELATION

À un test de 5 %, nous rejetons


l'H car 0.82 < 1.43 (l'inférence
0
est fausse). Je ne sais pas lire la
t - stat.
• Le test de Breush-Godfrey
A. AUTOCORRELATION
• Le test de D-W ne permet que d’identifier l’éventuelle présence d’une autocorrélation de type AR(1). Le test de B-G est plus général. Si la valeur calculée est supérieure à la valeur critique, on rejette l’hypothèse d’absence
d’autocorrélation (d’ordre p).

Prend les résidus et on les

… régresse en t-1.

… H0: pas d'autocorrélation

Degré de liberté

Retards

t-1 Retard Rejette l'H0 car < 0.05


t-2 Retard

Compare avec la valeur critique d'une chi².


.
A. AUTOCORRELATION
Nous analyserons le cas d’une régression simple. Si le modèle est valide au temps t, il est aussi valide au temps t-1. L’équation a été
multipliée par

Si l'erreur vaut aujourd'hui, elle


vaut pour hier donc je peux
exprimer par t-1.
Multiplie par
. -

est l'innovation qui apparaît au temps t et il ne dépend pas de l'erreur passé, il est indépendamment
Distribué . Nous avons donc un modèle sans autocorrélation.

Cependant cette méthode a un problème mineur: il y a une non linéarité dans les paramètres. Le coefficient de X t-1 est égal au produit des coefficients de
Xt et d’Yt-1.
Cela signifie que si OLS était utilisé pour ajuster ce modèle, il ne prendrait pas en compte la restriction et nous aurions un conflit entre l'estimation des paramètres.
Nous pourrions obtenir des estimations de 0.5 et 0. 8 pour pour. Mais ces nombres sont incompatibles avec l'estimation de 0.6 pour

Nous avons donc besoin d'une technique d'estimation non linéaire (Moindre carrée non linéaire). Avant cela nous étendons le modèle à une régression multiple avec deux variables explicatives.
A. AUTOCORRELATION

Nous avons deux restrictions:


• Les coefficients Yt-1, X2t et X2t-1

• Les coefficients Yt-1, X3t et X3t-1


A. AUTOCORRELATION

Paramètres estimés dans le modèle de départ.


nl: non linéaire
• 2/l car t-1 n'existe pas (ex: si j'ai 5 retards, je pars de la 6e. L'ordre à de l'importance, il n'est pas aléatoire
Quand la variable b 2 augmen te d'une unité, LGHOUS augmente de 0.15 %.
l. un retard
•Les. bêtas et rhô sont estimés à partir du modèle de base, on peut donc lire l'inférence car est une innovation indépendamment distribuée (pas d'autocorrélation sérielle

A. AUTOCORRELATION

• D. AUTOCORRÉLATION DANS UN MODÈLE AVEC NE VARIABLE DÉPENDANTE LAGUÉE

Lorsqu’une variable dépendante laguée (ex: le PIB d’aujourd’hui est lié à celui
d’hier) est utilisée comme variable explicative, les estimations OLS seront
sujettes à certain biais en petits échantillons. Même si u satisfait les conditions de
Gauss-Markov. En grand échantillon ce biais disparait.

Cependant, si le terme d'erreur est sujet à de l'autocorrélation, OLS mènera à des


estimations non consistantes.

Si le modèle est valide au temps


t, il doit aussi être valide au
temps t-1.

Donc, Yt-1 contient une composante aléatoire ut-1, et donc ut aussi. Yt-1 dépend de ut-1
mais ut-1 dépend de ut. Par conséquent, Yt dépend de ut. Il y a donc violation de la 4e
hypothèse de Gauss Markov (exogénéité). Il y a donc un biais d'endogénéité. Cela
signifie que OLS mène à des estimations non consistantes et que les tests t et F sont
non valides.
Lorsqu’une variable dépendante laguée est utilisée comme variable explicative, il faut utiliser
la statistique h de Durbin pour l’autocorrélation car la statistique d est biaisée vers 2.
A
. AUTOCORRELATION

Distribué normalement donc les


valeurs critiques sont celles de
Statistique alternative de
la normale. Ce qui signifie que
Durbin Watson.
pour un niveau de 5 %, la valeur
critique est de 1.96.

Trois éléments sont requis pour


ce test:
•Estimation de , le paramètre dans le processus AR(1)

•Estimation de la variance du coefficient de la variable indépendante laguée.


le nombre de régression
A. AUTOCORRELATION

Est-ce qu'il y a autocorrelation? Je ne peux pas regarder


la d (1.91) car Y dépend de Y t-1 (LGHOUS dépend de
LGHOUS).

On doit calculer la h:

Valeur critique d'une

normale à un niveau de 5 % => on rejette pas l'H0. (il n'y a pas d'autocorrélation).

Vous aimerez peut-être aussi