Vous êtes sur la page 1sur 28

Introduction générale

Etymologiquement le terme économétrie signifie « mesure de l’économie ». Cette définition


est trop large pour être utile. En économie, on mesure les agrégats (PIB, consommation
nationale, investissement,…) en utilisant la comptabilité nationale.

L’économétrie est un ensemble de méthodes statistiques et mathématiques qui permettent


d’analyser les données.

Il s’agit d’une discipline récente mais qui ne cesse de prendre de l’importance en sciences
économiques. Même s’il existait quelques travaux antérieurs, l’économétrie a démarré
réellement avec la constitution de l’Econometric Society. En 1933 est publié le premier
numéro de la revue Economtrica (la revue scientifique de référence en économétrie). Depuis,
plusieurs modèles économétriques ont été construits. Aujourd’hui plusieurs prix Nobel
d’économie ont été attribués à des économistes en raison de leurs contributions à l’avancée de
d’économétrie. On peut citer Ragnar Frisch et Jan Tinbergen en 1969, Engel et Granger
(cointegration causalité, ARCH), Heckman et Mc Fadden (2000) Sims en 2011.

L’objectif initial assigné à l’économétrie est d’aider à faire le tri entre théories économiques
concurrentes. Un modèle économétrique est la contrepartie empirique des modèles
économiques théoriques. Ces derniers renferment des hypothèses, des intuitions et des
résultats théoriques. Les modèles économétriques peuvent aider valider ces hypothèses,
intuitions et résultats. Un exemple simple de modèle économique est la théorie keynésienne
de la consommation. On peut résumer cette théorie par trois hypothèses : (i) seul le revenu
disponible détermine la consommation nationale (ii) loi psychologique fondamentale (la
propension marginale à consommer est comprise entre 0 et 1 (iii) décroissance de la
propension moyenne à consommer (l’existence d’une consommation incompressible).

Pour vérifier la validité empirique ce cette théorie, il faut réecrire ces hypothèses à vérifier
sous forme mathématique. Une relation simple qui rempli les trois hypothèses est la relation
linéaire suivante :

𝐶 = 𝐶0 + 𝑐𝑦𝑑 avec 0<𝑐<1

Pour vérifier la validité empirique il faut tester, entre autres, les hypothèses suivantes :

𝐻1 : 𝐶0 ≠ 0 𝐻2 : 𝑐 ≠ 0

On peut aussi être tenté d’évaluer la valeur de 𝑐 selon qu’elle est proche de 1 (vision
keynésienne) ou faible proche de 0 (vision néoclassique) ce qui permet d’estimer la valeur du
multiplicateur et donner des indications sur l’efficacité des politiques budgétaires (voir le
débat sur les erreurs de prévisions de la croissance du FMI liées à une sous-estimation du
multiplicateur dans les modèles du FMI)1.

En économie, il n’existe pas d’expérimentation or plusieurs théories concurantes co-existent.


L’économétrie est un moyen pour faire le tri entre les différentes théories.

En réalité, l’économétrie peut remplir 4 objectifs

(i) confirmer ou infirmer une théorie (voir exemple ci-dessous concernant la validité du
MEDAF). Trancher entre des théories concurrentes (voir exemple ci-dessous entre théorie
keynesienne et néoclassique de la consommation).

(ii) L’économétrie peut être considérée comme un outil d’investigation statistique.


L’économétrie peut être utilisée pour découvrir des relations entre variables économiques.
Lorsque de telles relations sont assez stables, un contenu théorique peut être donné. C’est ce
qui s’est passé avec la courbe de Phillips.

(iii) L’économétrie peut être utiliseé pour évaluer quantitativement les effets de politiques
économiques (les modèles macroéconométriques).

(iv) Les modèles économétriques peuvent être utilisé pour réaliser des prévisions (les modèles
autoregessifs ARIMA, VAR, etc.).

L’économétrie fonctionne avec des modèles économétriques. Ces derniers sont la contrepartie
numérique (empirique) des modèles économiques.

Un modèle économique est une représentation simplifiée de la réalité. Un exemple de modèle


économique simple est la fonction de consommation keynésienne qui explique la
consommation nationale par le revenu disponible. Bien entendu la réalité est plus complexe.
D’autres variables participent à expliquer la consommation nationale. Le modèle économique
est une approximation de la réalité. Keynes lui-même, reconnaissait que le taux d’intérêt peut
expliquer la consommation mais de manière très marginale.

Un modèle économétrique utilise le modèle économique en intégrant d’autres éléments

- Retenir le modèle sous forme mathématique avec des variables observables


- Remplacer la complexité de la réalité que ne retiennent pas les modèles théoriques par
un aléa (composante stochastique)
- Avoir une idée sur la distribution de l’aléa (l’erreur)

Il existe principalement trois types de données

- Les données en coupe transversale (observations d’individus à une même période de


temps).
- Les données chronologiques ou séries temporelles qui consistent à observer un
individu dans le temps

1
Olivier Blanchard and Daniel Leigh (2013), « Growth Forecast Errors and Fiscal Multipliers », IMF working
paper, No. 13/1.
- Les données de panel qui consistent à observer plusieurs individus pendant une
période de temps

Ces données donnent lieu à des diverses méthodes économétriques.

Nous l’avons déjà souligné, l’économétrie utilise des outils statistiques et des données. Les
calculs se font généralement en faisant appel à des logiciels (SPSS, Eviews, SAS, RATS,
GAUSS, MATLAB, etc.) Il existe des logiciels en open source le plus célèbre est le logiciel
R.

Dans ce cours nous utiliserons les logiciels Excel et Eviews.


Chapitre 1. Le modèle linéaire simple

Introduction

La régression simple constitue la base de l’estimation économétrique. Elle débute par un


ensemble de propositions théoriques sur une question économique qui se résume en une
relation entre deux variables économiques. En effet, la théorie économique spécifie plusieurs
relations théoriques entre deux variables. La loi de la demande met en relation les quantités et
les prix relatifs à un bien donné, la relation de Phillips met en relation le taux d’inflation et le
taux de chômage, la fonction de consommation keynésienne la consommation nationale et le
revenu disponible, la loi d’Okun décrit une relation entre le taux de croissance économique et
le taux de chômage, etc.

Certes, le coefficient de corrélation permet de détecter l’existence d’une relation statistique


entre deux variables mais ne donne aucune idée sur la nature de la relation (sens de la
causalité, non linéarité, etc.). Un coefficient de corrélation nulle (𝑟 = 0) ne signifie pas
absence de relation entre les deux variables mais absence de relation linéaire.

L’estimation économétrique permet de décrire et d’évaluer quantitativement la relation entre


une variable donnée (dite expliquée, dépendante ou endogène) et une variable (dite,
explicative, indépendante ou exogène). La variable expliquée est généralement notée 𝑦 et la
variable explicative notée 𝑥.

1 Spécification des relations


La relation entre la variable expliquée 𝑦 et la variable explicative 𝑥 prend la forme
mathématique suivante :
𝑦 = 𝑓(𝑥) où 𝑓(. ) est une application

Il existe deux types de relations :


(i) Déterministe ou mathématique qui fait correspondre à chaque valeur de 𝑥 une seule
valeur de 𝑦. Ces relations peuvent se trouver dans les sciences physiques mais pas dans les
sciences humaines et sociales
(ii) Statistique ou stochastique qui fait correspondre à chaque valeur de 𝑥 un ensemble de
valeurs de 𝑦. Ce type de relations existe dans les sciences physiques mais surtout dans les
sciences humaines et sociales

En économétrie on s’intéresse bien entendu à ce deuxième type de relations.

Supposons une relation la consommation (𝑦) et le revenu disponible (𝑥). Si la propension


marginale à consommer est de 0,8 et le moral des consommateurs est de 1000 alors elle
s’écrit comme suit :
𝑦 = 1000 + 0,8𝑥

Cette relation est déterministe ; le niveau de la consommation peut être déterminé de manière
exacte pour chaque niveau de revenu disponible.

D’un autre côté, supposons que la relation entre la consommation et le revenu disponible est
donnée par

𝑦 = 1000 + 0,8𝑥 + 𝜖

Dans cette relation

100 avec une probabilité 𝑝 = 0,5


𝜖={
−100 avec une probabilité 𝑝 = 0,5

Ainsi, les valeurs de 𝑦 sont données comme suit


𝑥 𝑦
0 900 1100
100 980 1180
200 1060 1260
200 1140 1340
… … …

Si 𝑦 est continu, 𝜖 peut prendre n’importe qu’elle valeur (infinité). Si 𝜖 suit une loi normale
par exemple, on obtient la relation suivante entre 𝑦 et 𝑥

𝑦
y

𝑦 = 1000 + 0,8𝑥

Exemple. Considérons la relation entre la consommation et le revenu disponible et


considérons les propositions théoriques keynésiennes.
Notons 𝑦 la consommation nationale et 𝑥 le revenu disponible. La relation entre la
consommation et le revenu disponible est appelé propension marginale à consommer. Pour
Keynes, la relation entre ces deux variables est gouvernée par une loi psychologique. Il
écrivait dans la théorie générale «En moyenne et la plupart du temps, les hommes tendent à
accroître leur niveau de consommation à mesure que le revenu s’accroit mais non d’une
quantité aussi grande que l’accroissement du revenu». En plus, pour Keynes, la propension
moyenne à consommer est décroissante par rapport au revenu disponible ce qui signifie
l’existence d’un minimum vital (une consommation incompressible).

Ainsi, pour Keynes, la fonction de consommation doit satisfaire les conditions suivantes :
𝑥
𝜕𝑦 𝜕( )
𝑦
0 < 𝜕𝑥 < 1 et <0
𝜕𝑦

Si on note la propension marginale à consommer 𝛽1 et la consommation incompressible 𝛽0.


Alors une fonction de consommation keynésienne peut être formalisée par une relation
linéaire comme suit :

𝑦 = 𝛽0 + 𝛽1 𝑥 (1)

avec 0 < 𝛽1 < 1 et 𝛽0 > 0.

De plus pour les keynésiens la valeur de 𝛽1 est élevée et proche de 1 ce qui signifie un
multiplicateur élevé et donc une efficacité de la politique budgétaire. Pour les néoclassique, il
n’existe pas de minimum vital (𝛽0 = 0) et 𝛽1 bien que positive mais faible et proche de 0.
Ce cadre offre une base pour une étude empirique qui permettrait de trancher entre la vision
keynésienne et classique.

Si on dispose des données relatives à la consommation nationale et au revenu disponible on


peut estimer les valeurs de 𝛽0 et 𝛽1.

La figure 1met en relation la consommation et le revenu disponible au Maroc.

Figure 1. Fonction de consommation au Maroc

y = 0,7481x + 30,133
R² = 0,9825

L’examen de la figure permet de voir que les données sont cohérentes avec la théorie
keynésienne mais qu’une relation déterministe ne semble pas appropriée pour décrire la
fonction de consommation au Maroc. On doit incorporer une composante aléatoire ou
stochastique. L’approche la plus utilisée est l’approche additive. Ainsi on obtient

𝑦 = 𝛽0 + 𝛽1 𝑥 + 𝜖 (2)

L’équation 2 est la contrepartie empirique de la relation 1. L’équation 1 est le modèle


économique et l’équation le modèle économétrique.

La présence de la composante stochastique (𝜖) est due à plusieurs causes

1. Omission d’autres variables explicatives. Dans la réalité, beaucoup d’autres variables


peuvent influencer la consommation. Elles ne sont pas introduites soit parce qu’elles ne sont
pas connues soient qu’elles ne peuvent pas être mesurées. Certaines sont connues et sont
mesurables mais leurs effets est supposé marginal.
2. Agrégation des variables. La consommation nationale et le revenu disponible sont les
agrégations des consommations individuelles et des revenus disponibles individuels. Toute
agrégations est en réalité une approximation.
3. Mauvaise spécification du modèle. Le modèle peut être mal spécifié en termes
structure. La consommation peut dépendre du revenu disponible mais peut dépendre aussi du
revenu futur.
4. Mauvaise spécification des formes fonctionnelles. La relation peut ne pas être linéaire
entre la variable expliquée et la variable explicative.
5. Erreurs de mesure. La mesure des différents agrégats ne peut qu’être approximative.

On suppose que chaque observation dans notre échantillon (𝑦𝑖 , 𝑥𝑖 ; 𝑖 = 1,2, … , 𝑛) est généré
par le processus suivant :

𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝜖𝑖 𝑖 = 1,2, … , 𝑛

Notre objectif est d’utiliser une méthode d’estimation (la méthode des moindres carrés en
l’occurrence) afin de construire des estimateurs des paramètres 𝛽0 et 𝛽1. Ensuite, utiliser les
données disponibles pour avoir des estimations des paramètres et examiner la validité des
propositions théoriques. On peut également utiliser le modèle pour réaliser les cas échéant des
prévisions relatives à la consommation état données des hypothèses sur l’évolution future du
revenu disponible.

La manière avec laquelle nous allons procéder va dépendre de la nature du processus


stochastique qui sous-tend nos données.

2 Les hypothèses du modèle linéaire simple


Les hypothèses qui sous-tendent le modèle linéaire, dites hypothèses de Gauss-Markov, se
présentent comme suit
(i) la forme fonctionnelle. La relation doit être linéaire

𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝜖𝑖 𝑖 = 1,2, … , 𝑛

(ii) la moyenne des erreurs doit etre nulle. De manière formelle 𝐸(𝜖𝑖 ) = 0. Généralement,
l’introduction de la constante 𝛽0 assure la satisfaction de cette condition (c’est l’un des rôles
de la constante). Si cette condition n’est pas satisfaite, l’estimateur utilisé sera biaisé.
(iii) Homoscédasticité. La variance doit être constante. Formellement nous devons avoir

𝑉(𝜖𝑖 ) = 𝜎 2 ou 𝐸(𝜖𝑖2 ) = 𝜎 2 .

Bien entendu 𝜎 2 n’est pas connue nous allons devoir l’estimer. Si cette condition n’est pas
satisfaite, l’estimateur ne sera pas efficace.
(iv) Absence d’autocorrélation entre les erreurs. Les erreurs doivent être indépendantes.
Formellement cela se traduit par

𝑐𝑜𝑣(𝜖𝑖 , 𝜖𝑗 ) = 0 𝑜𝑢 𝐸(𝜖𝑖 𝜖𝑗 ) = 0

Là encore, si cette condition n’est pas satisfaite, les estimateurs des paramètres ne seront pas
efficaces.
(v) Absence d’autocorrélation entre l’erreur et la variable explicative. Pour l’instant on
suppose que la variable explicative n’est pas stochastique. Elle est exogène c.a.d déterminée
en dehors du modèle. Cela revient à ce que

𝑐𝑜𝑣(𝑥𝑖 , 𝜖𝑖 ) = 0 𝑜𝑢 𝐸(𝑥𝑖 𝜖𝑖 ) = 0

(vi) Normalité des erreurs. En plus des conditions de Gauss-Markov nous supposons que
les erreurs sont normalement distribuées (conditions nécessaire pour l’inférence statistique).

3 Les méthodes d’estimation


Nous supposons que nos données sont générées par la relation stochastique suivante :

𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝜖𝑖 𝑖 = 1,2, … , 𝑛

L’erreur pour chaque observation est donnée par

𝜖𝑖 = 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖 𝑖 = 1,2, … , 𝑛

Les estimations à partir d’un échantillon sont notées 𝛽̂0 et 𝛽̂1, l’erreur est estimée comme un
résidu
𝜖̂𝑖 = 𝑦𝑖 − 𝛽̂0 − 𝛽̂1 𝑥𝑖 𝑖 = 1,2, … , 𝑛

Rappelons qu’il existe trois méthodes d’estimation des paramètres : la méthode des moments,
la méthode des moindres carrés et la méthode du maximum de vraisemblance.
3.1 La méthode des moments
Deux des hypothèses de Gauss-Markov concernant l’erreur s’écrivent

𝐸(𝜖𝑖 ) = 0 et 𝑐𝑜𝑣(𝑥𝑖 , 𝜖𝑖 ) = 0

Dans la méthode des moments (égalisation des moments théoriques et des moments
empiriques) nous devons avoir

𝐸(𝜖𝑖 ) = 0
{
𝑐𝑜𝑣(𝑥𝑖 , 𝜖𝑖 ) = 0
1
∑ 𝜖̂𝑖 = 0 ∑ 𝜖̂𝑖 = 0
𝑛
{ ou {
1
∑ 𝜖̂𝑖 𝑥𝑖 ∑ 𝜖̂𝑖 𝑥𝑖
𝑛

Ou en remplaçant le résidu par son expression

∑(𝑦𝑖 − 𝛽̂0,𝑀𝑀 −𝛽̂1,𝑀𝑀 𝑥𝑖 ) = 0 ∑ 𝑦𝑖 − ∑ 𝛽̂0,𝑀𝑀 − 𝛽̂1,𝑀𝑀 ∑ 𝑥𝑖 = 0


{ ou {
∑ 𝑥𝑖 (𝑦𝑖 − 𝛽̂0,𝑀𝑀 −𝛽̂1,𝑀𝑀 𝑥𝑖 ) = 0 ∑ 𝑥𝑖 𝑦𝑖 − 𝛽̂0,𝑀𝑀 ∑ 𝑥𝑖 −𝛽̂1,𝑀𝑀 ∑ 𝑥𝑖2 = 0

Les deux dernières équations sont appelées équations normales


De l’équation 1, il vient que
𝑛𝑦̅ = 𝑛𝛽̂0,𝑀𝑀 + 𝛽̂1,𝑀𝑀 𝑛𝑥̅

𝛽̂0,𝑀𝑀 = 𝑦̅ − 𝛽̂,𝑀𝑀1 𝑥̅
De l’équation 2, nous avons

∑ 𝑥𝑖 𝑦𝑖 = 𝛽̂0,𝑀𝑀 𝑛𝑥̅ + 𝛽̂1,𝑀𝑀 ∑ 𝑥𝑖2

En remplaçant 𝛽̂0,𝑀𝑀 par son expression, il vient

∑ 𝑥𝑖 𝑦𝑖 = (𝑦̅ − 𝛽̂1,𝑀𝑀 𝑥̅ )𝑛𝑥̅ + 𝛽̂1,𝑀𝑀 ∑ 𝑥𝑖2


En développant

∑ 𝑥𝑖 𝑦𝑖 = 𝑛𝑦̅𝑥̅ − 𝛽̂1,𝑀𝑀 𝑛𝑥̅ 2 + 𝛽̂1,𝑀𝑀 ∑ 𝑥𝑖2


ou

∑ 𝑥𝑖 𝑦𝑖 − 𝑛𝑥̅ 𝑦̅ = 𝛽̂1,𝑀𝑀 (∑ 𝑥𝑖2 − 𝑛𝑥̅ 2 )

∑ 𝑥𝑖 𝑦𝑖 − 𝑛𝑥̅ 𝑦̅
𝛽̂1,𝑀𝑀 =
∑ 𝑥𝑖2 − 𝑛𝑥̅ 2
En multipliant et en divisant par 1/𝑛, il vient

1
∑ 𝑥𝑖 𝑦𝑖 − 𝑥̅ 𝑦̅
𝛽̂1,𝑀𝑀 = 𝑛 1
𝑛
∑ 𝑥𝑖2 −𝑥̅ 2

En définitive, les estimateurs par la méthode des moments sont donnés par

𝑐𝑜𝑣(𝑥,𝑦)
𝛽̂0,𝑀𝑀 = 𝑦̅ − 𝛽̂1 𝑥̅ et 𝛽̂1,𝑀𝑀 = 𝑣(𝑥)

3.2 La méthode du maximum de vraisemblance


En plus des conditions Gauss-Markov, nous supposons que l’erreur suit une loi normale.

𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝜖𝑖 𝑎𝑣𝑒𝑐 𝜖𝑖 ~𝑁(0, 𝜎 2 )

Les variables aléatoires 𝑦𝑖 suivent aussi une loi normale de paramètres

𝐸(𝑦𝑖 ) = 𝐸(𝜖𝑖 ) = 𝛽0 + 𝛽1 𝑥𝑖 et 𝑉(𝑦𝑖 ) = 𝐸(𝜖𝑖 ) = 𝜎 2

La loi suivie par la variable aléatoire dépendante est donnée par

1 1/2 1 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖 2
)
𝑓(𝑦𝑖 = ( ) 𝑒𝑥𝑝 [− (− ) ]
2𝜋𝜎 2 2 𝜎

La fonction de vraisemblance est donnée par


𝑛
2)
1 1/2 1 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖 2
𝐿(𝑦1 , … , 𝑦𝑛 ; 𝛽0 , 𝛽1 , 𝜎 = ∏( ) 𝑒𝑥𝑝 [− (− ) ]
2𝜋𝜎 2 2 𝜎
𝑖=1

La fonction log-vraisemblance est donnée par

1 1
𝑙𝑜𝑔𝐿(. ) = ∑ [− 𝑙𝑜𝑔(2𝜋𝜎 2 ) − 2 (𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖 )2 ]
2 2𝜎
Ou encore

1 1
𝑙𝑜𝑔𝐿(. ) = − 𝑛 log(2𝜋𝜎 2 ) − 2 ∑(𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖 )2
2 2𝜎
En annulant le gradiant de 𝑙𝑜𝑔𝐿(. ) par rapport aux trois paramètres, il vient
𝜕𝑙𝑜𝑔𝐿(. ) 1
= − 2 (2)(−1) ∑(𝑦𝑖 − 𝛽̂0,𝑀𝑉 − 𝛽̂1,𝑀𝑉 𝑥𝑖 ) = 0
𝜕𝛽̂0,𝑀𝑉 2𝜎𝑀𝑉
𝜕𝑙𝑜𝑔𝐿(. ) 1
= − 2 (2) ∑(−𝑥𝑖 )(𝑦𝑖 − 𝛽̂0,𝑀𝑉 − 𝛽̂1,𝑀𝑉 𝑥𝑖 ) = 0
̂
𝜕𝛽1,𝑀𝑉 2𝜎𝑀𝑉
2
𝜕𝑙𝑜𝑔𝐿(. ) 1 1 1 ∑(𝑦𝑖 − 𝛽̂0,𝑀𝑉 − 𝛽̂1,𝑀𝑉 𝑥𝑖 )
2 = − 𝑛 2 + 4 =0
{ 𝜕𝜎𝑀𝑉 2 𝜎𝑀𝑉 2 𝜎𝑀𝑉

De l’équation 1, nous avons


∑(𝑦𝑖 − 𝛽̂0,𝑀𝑉 − 𝛽̂1,𝑀𝑉 𝑥𝑖 ) = 0

𝑛𝑦̅ − 𝑛𝛽̂0,𝑀𝑉 − 𝑛𝑥̅ 𝛽̂1,𝑀𝑉 = 0

𝛽̂0,𝑀𝑉 = 𝑦̅ − 𝑥̅ 𝛽̂1,𝑀𝑉

De l’équation 2, nous avons

∑ 𝑥𝑖 𝑦𝑖 − 𝛽̂0,𝑀𝑉 ∑ 𝑥𝑖 − 𝛽̂1,𝑀𝑉 ∑ 𝑥𝑖2 = 0

En remplaçant 𝛽̂0,𝑀𝑉 par son expression et en développant nous obtenons

∑ 𝑥𝑖 𝑦𝑖 − (𝑦̅ − 𝑛𝑥̅ 𝛽̂1,𝑀𝑉 ) ∑ 𝑥𝑖 − 𝛽̂1,𝑀𝑉 ∑ 𝑥𝑖2 = 0

̅̅̅ + 𝑛𝑥̅ 2 𝛽̂1,𝑀𝑉 − 𝛽̂1,𝑀𝑉 ∑ 𝑥𝑖2 = 0


∑ 𝑥𝑖 𝑦𝑖 − 𝑛𝑥𝑦

̅̅̅) − 𝛽̂1,𝑀𝑉 (∑ 𝑥𝑖2 − 𝑛𝑥̅ 2 ) = 0


(∑ 𝑥𝑖 𝑦𝑖 − 𝑛𝑥𝑦

𝑐𝑜𝑣(𝑥, 𝑦)
𝛽̂1,𝑀𝑉 =
𝑣(𝑥)

De la troisième équation nous obtenons

2
2
∑(𝑦𝑖 − 𝛽̂0,𝑀𝑉 − 𝛽̂1,𝑀𝑉 𝑥𝑖 )
𝜎𝑀𝑉 =
𝑛

2
𝑆𝐶𝑅
𝜎𝑀𝑉 =
𝑛
3.3 La méthode des moindres carrés
La méthode des moindres carrés ordinaires consiste à choisir les estimateurs 𝛽̂0,𝑀𝐶 et 𝛽̂1,𝑀𝐶
de manière à minimiser la somme des carrés des erreurs. C'est-à-dire faire en sorte que la
droite (le modèle) soit la plus proche de toutes les observations (la réalité)

y = 1,7x - 0,1
R² = 0,7605

De manière formelle cela revient à résoudre le programme suivant :

𝑛
2
𝑀𝑖𝑛 ⏟ ∑(𝑦𝑖 − 𝛽̂0 − 𝛽̂1 𝑥𝑖 )
⏟ 𝑆𝐶𝐸 ≡ 𝑀𝑖𝑛
̂0 ,𝛽
𝛽 ̂1 ̂0 ,𝛽
𝛽 ̂1 𝑖=1

L’annulation des dérivées premières par rapports aux deux coefficients donne

𝜕𝑆𝐶𝐸(. )
= 2 ∑(𝑦𝑖 − 𝛽̂0,𝑀𝐶 − 𝛽̂1,𝑀𝐶 𝑥𝑖 )(−1) = 0
𝜕𝛽̂0,𝑀𝐶
𝜕𝑆𝐶𝐸(. )
= 2 ∑(−𝑥𝑖 )(𝑦𝑖 − 𝛽̂0,𝑀𝐶 − 𝛽̂1,𝑀𝐶 𝑥𝑖 ) = 0
̂
𝜕𝛽
{ 1,𝑀𝐶

Ou
∑ 𝑦𝑖 = ∑ 𝛽̂0,𝑀𝐶 + 𝛽̂1,𝑀𝐶 ∑ 𝑥𝑖
{
∑ 𝑥𝑖 𝑦𝑖 = ∑ 𝛽̂0,𝑀𝐶 𝑥𝑖 + ∑ 𝛽̂1,𝑀𝐶 𝑥𝑖2

Ces deux équations sont exactement les mêmes que celles données par les deux autres
méthodes.
Ainsi
𝛽̂0,𝑀𝐶 = 𝑦̅ − 𝑥̅ 𝛽̂1,𝑀𝐶
𝑐𝑜𝑣(𝑥, 𝑦)
𝛽̂1,𝑀𝐶 =
𝑣(𝑥)
En définitive, les trois méthodes d’estimation (moments, maximum de vraisemblance et
moindres carrés) rendent les mêmes estimateurs.

𝛽̂𝑖,𝑀𝑀 = 𝛽̂𝑖,𝑀𝑉 = 𝛽̂𝑖,𝑀𝐶 ∀ 𝑖 = 0,1

Ce résultat n’est valable que dans le cas du modèle linéaire simple.

Exemple numérique. Considérons les données fictives ci-dessous

Obs. 𝑥𝑖 𝑦𝑖
1 1 1
2 2 5
3 3 3
4 4 8
5 5 8
Total 15 25

On souhaite expliquer la variable 𝑦 par la variable 𝑥.

Le logiciel Eviews donne le résultat suivant :

Dependent Variable: YI
Method: Least Squares (Gauss-Newton / Marquardt steps)
Date: 02/23/21 Time: 17:42
Sample: 1 5
Included observations: 5
YI=C(1)+C(2)*XI
Coefficient Std. Error t-Statistic Prob.
C(1) -0.100000 1.826655 -0.054745 0.9598
C(2) 1.700000 0.550757 3.086660 0.0539
R-squared 0.760526 Mean dependent var 5.000000
Adjusted R-squared 0.680702 S.D. dependent var 3.082207
S.E. of regression 1.741647 Akaike info criterion 4.236714
Sum squared resid 9.100000 Schwarz criterion 4.080489
Log likelihood -8.591784 Hannan-Quinn criter. 3.817422
F-statistic 9.527473 Durbin-Watson stat 3.600000
Prob(F-statistic) 0.053854

Nous allons tenter de retrouver les principaux résultats

Le modèle économétrique s’écrit

𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝜖𝑖 𝑖 = 1,2, … ,5
Calculons les composantes de la covariance et de la variance

Obs. 𝑥𝑖 𝑦𝑖 𝑥𝑖 𝑦𝑖 𝑥𝑖2
1 1 1 1 1
2 2 5 10 4
3 3 3 9 9
4 4 8 32 16
5 5 8 40 25
Total 15 25 92 55

Les moyennes des deux variables sont données par

15 25
𝑥̅ = =3 et 𝑦̅ = =5
5 5
Ainsi
92
−3×5
𝛽̂1 = 5
55
= 1,7
5
−3×3
Et
𝛽̂0 = 5 − 1,7 × 3 = −0,1

En définitive, la relation entre 𝑦 et 𝑥 est donnée par

𝑦 = −0,1 + 1,7𝑥

Interprétation :
- La hausse de 𝑥 d’une unité augmente 𝑦 de 1,7 unités.
- La constante n’a pas toujours une interprétation. Parfois son rôle se limite à assurer la
validité de l’hypothèse relative à la nullité de la moyenne des erreurs

Calculons les résidus pour s’en convaincre

𝜖̂𝑖 = 𝑦𝑖 − 0,1 + 1,7𝑥𝑖

Les calculs sont résumés dans le tableau suivant :

Obs. 𝑥𝑖 𝑦𝑖 𝜖̂𝑖
1 1 1 -0,6
2 2 5 1,7
3 3 3 2,0
4 4 8 1,3
5 5 8 -0,4
Total 15 25 0

On voit bien que la moyenne des résidus est nulle.


4 Qualité de la régression
Le critère initial de la régression n’est pas approprié pour juger de la qualité de la régression.
On cherche en réalité à savoir dans quelle mesure les variations de la variable indépendantes
sont expliquées par celles de la variable expliquée ?

Les variations de la variable indépendante sont mesurées en termes d’écarts par rapport à sa
moyenne (𝑦𝑖 − 𝑦̅). La somme de leurs carrées est appelée somme total des carrés (𝑆𝑇𝐶).

La somme des carrés des résidus (𝑆𝐶𝑅) est donné par


2
𝑆𝐶𝑅 = 𝜖̂𝑖2 = ∑(𝑦𝑖 − 𝛽̂0 − 𝛽̂1 𝑥𝑖 )

2
𝑆𝐶𝑅 = 𝜖̂𝑖2 = ∑(𝑦𝑖 − 𝑦̅ + 𝛽̂1 𝑥̅ − 𝛽̂1 𝑥𝑖 )

2
𝑆𝐶𝑅 = 𝜖̂𝑖2 = ∑[(𝑦𝑖 − 𝑦̅) − 𝛽̂1 (𝑥𝑖 − 𝑥̅ )]

𝑆𝐶𝑅 = 𝜖̂𝑖2 = ∑(𝑦𝑖 − 𝑦̅)2 − 𝛽̂12 ∑(𝑥𝑖 − 𝑥̅ )2 − 2𝛽̂1 ∑(𝑥𝑖 − 𝑥̅ ) (𝑦𝑖 − 𝑦̅)

Nous avons :

∑(𝑥𝑖 − 𝑥̅ )2 = 𝑛 × 𝑣𝑎𝑟(𝑥)

∑(𝑦𝑖 − 𝑦̅)2 = 𝑛 × 𝑣𝑎𝑟(𝑦)

∑(𝑥𝑖 − 𝑥̅ )(𝑦𝑖 − 𝑦̅) = 𝑛 × 𝑐𝑜𝑣(𝑥, 𝑦)

Rappelons que

𝑐𝑜𝑣(𝑥, 𝑦)
𝛽̂1 =
𝑣𝑎𝑟(𝑥)

Il vient que

𝑆𝐶𝑅 = 𝑛𝑣𝑎𝑟(𝑦) + 𝛽̂12 𝑛𝑣𝑎𝑟(𝑥) − 2𝛽̂1 𝑛𝑐𝑜𝑣(𝑥, 𝑦)

𝑐𝑜𝑣 2 (𝑥, 𝑦)𝑛𝑣𝑎𝑟(𝑥) 𝑛𝑐𝑜𝑣 2 (𝑥, 𝑦)


𝑆𝐶𝑅 = 𝑛𝑣𝑎𝑟(𝑦) + − 2
𝑣𝑎𝑟 2 (𝑥) 𝑣𝑎𝑟(𝑥)

𝑛𝑐𝑜𝑣 2 (𝑥, 𝑦) 𝑛𝑐𝑜𝑣 2 (𝑥, 𝑦)


𝑆𝐶𝑅 = 𝑛𝑣𝑎𝑟(𝑦) + −2
𝑣𝑎𝑟(𝑥) 𝑣𝑎𝑟(𝑥)

𝑛𝑐𝑜𝑣 2 (𝑥, 𝑦)
𝑆𝐶𝑅 = 𝑛𝑣𝑎𝑟(𝑦) −
𝑣𝑎𝑟(𝑥)

𝑆𝐶𝑅 = 𝑛𝑣𝑎𝑟(𝑦) − 𝛽̂1 𝑛𝑐𝑜𝑣(𝑥, 𝑦)


On appelle somme des carrés expliqués 𝑆𝐶𝐸 la quantité suivante

𝑆𝐶𝐸 = 𝛽̂1 𝑛𝑐𝑜𝑣(𝑥, 𝑦)

𝑆𝐶𝑇 = 𝑆𝐶𝑇 − 𝑆𝐶𝐸

Au final, nous avons

𝑆𝐶𝑇 = 𝑆𝐶𝑅 + 𝑆𝐶𝐸

Un indicateur de la qualité de la régression est donné par le coefficient de détermination 𝑅 2

𝑆𝐶𝐸 𝑆𝐶𝑅
𝑅2 = = 1−
𝑆𝐶𝑇 𝑆𝐶𝑇
- Par construction le 𝑅 2 est compris entre 0 et 1 (en présence de la constante)
- Plus le 𝑅 2 est élevé (proche de 1) plus le modèle est de bonne qualité. Cela signifie
que les variations de la variable expliquée sont attribuées aux variations de la variable
explicative.
- Le 𝑅 2 n’est pas le seul indicateur de la qualité de la régression. Une régression avec un
𝑅 2 faible peut malgré tout fournir un certain nombre d’informations.

Reprenons notre exemple. Les calculs sont réalisés dans le tabaleau ci-dessous

Obs. 𝑥𝑖 𝑦𝑖 𝑥𝑖 𝑦𝑖 𝑥𝑖2 𝑦̂𝑖 𝜖̂𝑖2 (𝑦𝑖 − 𝑦̅)2


1 1 1 1 1 1,6 0,36 16
2 2 5 10 4 3,3 2,89 0
3 3 3 9 9 5 4 4
4 4 8 32 16 6,7 1,69 9
5 5 8 40 25 8,4 0,16 9
Total 15 25 92 55 25 9,1 38

𝑆𝐶𝑇 = 38 𝑆𝐶𝑅 = 9,1 𝑆𝐶𝐸 = 38 − 9,1 = 28,9

Pour vérifier nos calculs on peut calculer 𝑆𝐶𝐸 en utilisant sa formule et non comme un solde
92
𝑆𝐶𝐸 = 𝛽̂1 𝑛𝑐𝑜𝑣(𝑥, 𝑦) = 1,7 × 5 × ( 5 − 3 × 5) = 28,9

Il est maintenant possible de calculer le coefficient de détermination

𝑆𝐶𝐸 28,9
𝑅2 = = = 0,760526 ≡ 76,0525%
𝑆𝐶𝑇 38
Les variations de 𝑥 expliquent 76,052% des variations de 𝑦. Le modèle explique 76,1% de la
réalité observée.
Tous les résultats obtenus sont des estimations ponctuelles. Leurs qualités dépendent de
l’échantillon considéré. Pour surmonter cette limite il faut réaliser de l’inférence statistique
(les intervalles de confiance ou les tests d’hypothèses).

5 L’inférence statistique dans le modèle linéaire simple


Pour obtenir les estimateurs de 𝛽̂0 et 𝛽̂1 (avec la méthode des MC), aucune hypothèse sur la
distribution de l’erreur n’était nécessaire. En effet, à partir des hypothèses de Gauss-Markov,
on peut montrer que les estimateurs par la méthode des moindres carrés (MC) (en anglais
Least squares LS) sont non biaisés et efficaces.

5.1 Les intervalles de confiances des coefficients


Si en plus des hypothèses Gauss-Markov on suppose que les erreurs (𝜖𝑖 ) sont normalement
distribuées (𝜖𝑖 ∽ 𝑁(0, 𝜎 2 )) alors il est possible de construire des intervalles de confiance et de
réaliser des tests d’hypothèses.

Nous allons le faire essentiellement pour 𝛽̂1.

Nous pouvons montrer que 𝛽̂1 est une variable aléatoire avec

𝜎2
𝐸(𝛽̂1 ) = 𝛽1 et 𝑉(𝛽̂1 ) = 𝑛𝑣𝑎𝑟(𝑥)

Les choses auraient été faciles si on connaissait 𝜎 2 . Bien entendu, en pratique il faut l’estimer.
On peut montrer qu’un estimateur non biaisé de 𝜎 2 est donnée par

𝑆𝐶𝑅
𝜎̂ 2 =
𝑛−2

Ainsi, l’intervalle de confiance de 𝛽1 est donné par

𝛽1 ∈ [𝛽̂1 −𝑆𝛽 𝑡𝑛−2,𝛼 ; 𝛽̂1 + 𝑆𝛽 𝑡𝑛−2,𝛼 ]

𝑆𝐶𝑅
Où 𝑆𝛽 = √(𝑛−2) ∑(𝑥 −𝑥̅ )2 est l’écart-type de 𝛽̂1 et où 𝑡𝑛−2,𝛼 est lue sur la table de la loi de
𝑖

Student avec (𝑛 − 2) degrés de libertés et un seuil 𝛼.

Qu’est ce qui se passe si l’erreur n’est pas distribuée normalement ? Les résultats restent
valables pour un grand nombre d’observations sinon cela pose problème.

Reprenons notre exemple.


Calculons les écart-types de la régression et des deux coefficients (voir les tableaux de calcil
précédents)
𝑆𝐶𝑅 9,1
𝜎̂ 2 = = = 3,0333
𝑛−2 5−2

𝜎̂ = 𝑆. 𝐸. 𝑟𝑒𝑔𝑟𝑒𝑠𝑠𝑖𝑜𝑛 = 1,7416
D’un autre côté,
𝜎̂ 2 3,0333
𝑉(𝛽̂1 ) = = = 0,3033
𝑛𝑣𝑎𝑟(𝑥) 5 × (55 5
−3×3)

𝑆. 𝐸. (𝛽̂1) = 0,55075

Pour 𝛽̂0, notons que la variance est donnée par

1 𝑥̅ 2 1 9
̂ 2
𝑉(𝛽0 ) = 𝜎̂ ( + ) = 3,03 ( + ) = 3,3366
𝑛 𝑛𝑣𝑎𝑟(𝑥) 5 10

𝑆. 𝐸. (𝛽̂0 ) = 1,82665

Ainsi, on présente les résultats de la manière suivante :

Coef. SE
Constante -0,1000 1,82
𝑥 1,7000 0,55
R2 0,76
SEreg 1,74
SCR 9,1

On peut maintenant calculer les intervalles de confiance au seuil 5%.


La lecture de la table de Student pour un seuil de 5% et 3 ddl(5-2) rend la valeur 3,182. Les
intervalles de confiance sont donnés par

𝛽0 ∈ [−0,1 − 1,82 × 3,182 ; −0,1 + 1,82 × 3,182]


𝛽0 ∈ [−5,89 ; 5,69]

𝛽1 ∈ [1,7 − 0,55 × 3,182 ; 1,7 + 0,55 × 3,182]


𝛽1 ∈ [−0,0501 ; 3,4501]

5.2 Les tests d’hypothèses


Comme nous l’avons souligné dans l’introduction générale on est essentiellement intéressé à
savoir si les variations de 𝑥 sont à l’origine des variations de 𝑦. Autrement dit, si le paramètre
𝛽1 est significativement différent de 0. On peut également être intéressé, comme dans les
exemples de la fonction de consommation keynésienne ou du MEDAF, de savoir si 𝛽0 est
significativement différent de zéro. On est amené dans ce cas à réaliser des tests d’hypothèses.
On testera en particulier les hypothèses
𝐻0 : 𝛽𝑖 = 0 contre 𝐻1 : 𝛽𝑖 ≠ 0 ∀ 𝑖 = 0,1

Dans ce cas on calcule les ratios de Student données par

̂
𝛽
𝑡𝑜𝑏𝑠 = 𝑠𝑒(𝛽̂𝑖 ) ∀ 𝑖 = 0,1
𝑖

Si cette valeur est incluse dans la zone d’acceptation définie par les valeurs lues sur la table de
Student pour un seuil 𝛼 et 𝑛 − 2 degrés de libertés, on accepte l’hypothèse nulle.

Dans notre exemple nous avons

𝛽̂0 −0,1000
𝑡𝑜𝑏𝑠 (𝛽̂0 ) = = = −0,0547
𝑠𝑒(𝛽̂0 ) 1,8266
𝛽̂1 1,7000
𝑡𝑜𝑏𝑠 (𝛽̂1 ) = = = 3,0866
𝑠𝑒(𝛽̂1 ) 0,5507

- La zone d’acceptation pour un seuil de 5% et 3 ddl est donnée par l’intervalle


[−3,182 ; 3,182]
- La zone d’acceptation pour un seuil de 10% et 3 ddl est donnée par l’intervalle
[−2,353 ; 2,353]

On voit que la constante 𝛽0 n’est pas significativement différent de zéro aux seuil 5% et 10%.
Le paramètre 𝛽1 n’est pas significativement différent de zéro au seuil 5% mais différent de
zéro au seuil 10%.

Généralement on calcule plutôt la probabilité à partir de laquelle l’hypothèse nulle est


acceptée ou rejetée.

Ainsi,

𝛼0 = 𝑃(|𝑍| < 0,0547) = 0,9598

𝛼1 = 𝑃(|𝑍| < 3,0866) = 0,0538

Les résultats sont présentés de la manière suivante :

Coef. SE t-statistic Prob.


Constante -0,1000 1,8266 -0,0547 0,9598
𝑥 1,7000 0,5507 3,0866 0,0539
R2 0,76
SEreg 1,74
SCR 9,1

Les erreurs standars sont donnés pour tester d’autres hypothèses


On peut tester par exemple
𝐻1 : 𝛽1 = 2 contre 𝐻1 : 𝛽1 ≠ 2
Le ratio de Student est donné par
|𝛽̂1 − 2| 0,3000
𝑡𝑜𝑏𝑠 (𝛽̂1 ) = = = 0,545
𝑠𝑒(𝛽̂1 ) 0,5507

Comme |𝑡𝑜𝑏𝑠 (𝛽̂1 )| ≪< 3,182 on ne rejette pas l’hypothèse nulle au seuil 5%

6 Analyse de la variance
On peut regrouper les principaux résultats sous forme du tableau suivant :

Source des variations Somme des carrés Degrés de libertés Carrés moyens
𝑥 𝑆𝐶𝐸 𝑘−1 𝑆𝐶𝐸/𝑘 − 1
Résidus 𝑆𝐶𝑅 𝑛−2 𝑆𝐶𝑅/(𝑛 − 2)
Total 𝑆𝐶𝑇 𝑛−1

On définit la statistique de Fisher comme suit

𝑆𝐶𝐸
𝐹 = 1 ~𝐹1,𝑛−2
𝑆𝐶𝑅
𝑛−2
Dans notre exemple nous avons

Source des variations Somme des carrés Degrés de libertés Carrés moyens
𝑥 28,9 1 28,9
Résidus 9,1 3 3,0333
Total 38 4 9,5

La statistique de Fisher est donnée par

28,9
𝐹= = 9,52
3,0333

On peut vérifier que dans le modèle simple nous avons

𝐹 = 𝑡 2 = 3,0866 × 3,0866 = 9,52

La p-value est donnée par

𝛼 = 𝑃(|𝐹| > 9,52) = 0,0539

Rappelons les résultats obtenus sous eviews

Dependent Variable: YI
Method: Least Squares (Gauss-Newton / Marquardt steps)
Date: 02/23/21 Time: 17:42
Sample: 1 5
Included observations: 5
YI=C(1)+C(2)*XI
Coefficient Std. Error t-Statistic Prob.

C(1) -0.100000 1.826655 -0.054745 0.9598


C(2) 1.700000 0.550757 3.086660 0.0539

R-squared 0.760526 Mean dependent var 5.000000


Adjusted R-squared 0.680702 S.D. dependent var 3.082207
S.E. of regression 1.741647 Akaike info criterion 4.236714
Sum squared resid 9.100000 Schwarz criterion 4.080489
Log likelihood -8.591784 Hannan-Quinn criter. 3.817422
F-statistic 9.527473 Durbin-Watson stat 3.600000
Prob(F-statistic) 0.053854

6 Formes fonctionnelles et modèle non linéaire


Revenons à notre équation déterministe initiale. Elle s’écrit

𝑦 = 𝛽0 + 𝛽1 𝑥

Le modèle est dit linéaire non pas en termes de relation entre 𝑦 et 𝑥 mais en termes de manière avec
laquelle ils sont considérés dans l’équation.

Considérons la figure suivante :

𝑦 = 𝛽0 + 𝛽1 𝑒 𝑥
𝑦
1
𝑦 = 𝛽0 + 𝛽1 (𝑥)
𝑦 = 𝛽0 + 𝛽1 𝑥

𝑦 = 𝛽0 + 𝛽1 ln(𝑥)

Mais si nous posons


1
𝑧=𝑥 𝑣 = 𝑒𝑥 𝑤 = ln(𝑥)

Nous obtenons les relations linaires suivantes :

𝑦 = 𝛽0 + 𝛽1 𝑧 𝑦 = 𝛽0 + 𝛽1 𝑣 𝑦 = 𝛽0 + 𝛽1 𝑤

Toutes les formes précédentes sont linéaires. Le nombre de formes fonctionnelles qui peuvent
être transformées en relations linéaires est important.
Une forme très utilisée est la forme log linéaire. Elle est donnée par

𝑦 = 𝐴𝑥 𝛽1

En termes logarithmique elle s’écrit

ln(𝑦) = 𝛽0 + 𝛽1 ln(𝑥)

𝛽1 = 2

𝑦
𝛽1 = −1
𝛽1 = 1

𝛽1 = 0,5

7 Application 1. Estimation du NAIRU au Maroc


Le Nairu (non accelerating inflation rate of unemployment) ou taux de chômage n’accélérant pas le
chômage est un concept très intéressant il s’agit d’un taux de chômage naturel (d’équilibre) proche du
taux de chômage structurel. Il est très utile de connaître sa valeur pour la conduite de la politique
économique.

- Lorsque le taux de chômage est au dessus du Nairu on peut mettre en place une politique
expansionniste pour réduire le taux de chômage sans que cela augmente l’inflation

- Lorsque le taux de chômage est en dessous du Nairu on doit s’attendre à des tensions
inflationnistes

- On ne peut pas réduire de manière importante et durable le taux de chômage en dessous du


Nairu par des politiques conjoncturelles mais par des réformes du marché du travail

L’OCDE et le FMI donnent régulièrement des estimations du NAIRU

- Etats Unis 6,1%

- France 9,2%
- Allemagne 6,3%

- Japon 4,3%

Taux de chômage naturel

Taux de chômage
Taux de chômage
Le Nairu n’est pas observable, il doit être estimé. Il peut l’être à l’aide de la courbe de Phillips.

Dans sa version augmentée elle est donnée par

𝜋𝑡 = 𝜋𝑡𝑎 − 𝛽(𝑢𝑡 − 𝑢𝑛 ) + 𝜖𝑡 avec 𝛽>0

Dans cette équation 𝜋𝑡 est le taux d’inflation effectif, 𝜋𝑡𝑎 est le taux d’inflation anticipé, 𝑢𝑡 le
taux de chômage effectif, 𝑢𝑛 est le taux de chômage naturel, 𝜖 est un choc d’offre.

Ainsi, la courbe de Phillips identifie, dans sa version moderne, trois sources de l’inflation

- l’inflation anticipée
- l’écart du chômage par rapport à son taux naturel (chômage conjoncturel)
- les chocs d’offre

Pour pouvoir utiliser la courbe de Phillips nous devons savoir de quoi dépend l’inflation
anticipée. Comment se forment les anticipations ? Suppose que les agents économiques
forment leurs anticipations d’inflation sur la base de l’histoire récente de l’inflation.
Un exemple simple est de supposer que l’inflation anticipée est égale à l’inflation de la
période précédente

𝜋𝑡𝑎 = 𝜋𝑡−1

La courbe de Phillips se réecrit comme suit

𝜋𝑡 = 𝜋𝑡−1 − 𝛽(𝑢𝑡 − 𝑢𝑛 ) + 𝜖𝑡

Dans cette configuration, le taux de chômage naturel est appelé NAIRU (= Non-Accelerating Inflation
Rate of Unemployment) taux de chômage n’accélérant pas l’inflation

Cette courbe traduit une inertie de l’inflation

- En l’absence de chocs d’offre ou de chômage cyclique, le niveau de l’inflation ne change pas

- L’inflation passée, détermine l’inflation anticipée qui détermine les salaires et les prix fixés
par les agents économiques

Principalement deux causes de l’inflation:

- Inflation induite par les coûts (Cost Push Inflation) : L’inflation résulte des chocs
sur l’offre : Un choc négatif d’offre augmente les coûts de production ce qui augmente les
prix (choc pétrolier)
- Inflation induite par la demande (Demand Push Inflation) : L’inflation peut
résulter également d’un choc de demande : un choc positif sur la demande provoque une
baisse du taux de chômage en dessous du niveau naturel ce qui cause une inflation

𝜋𝑡 = 𝜋𝑡−1 − 𝛽(𝑢𝑡 − 𝑢𝑛 ) + 𝜖𝑡

Le modèle économétrique se reécrit

∆𝜋𝑡 = −𝛽𝑢𝑡 + 𝛽𝑢𝑛 + 𝜖𝑡

On pose

𝛽1 = −𝛽 et 𝛽0 = 𝛽𝑢𝑛 = 𝛽1 𝑢𝑛

Ou encore

∆𝜋𝑡 = 𝛽0 + 𝛽1 𝑢𝑡 + 𝜖𝑡

On peut alors utiliser la méthode des moindres carrés pour estimer 𝛽̂0 et 𝛽̂1

Ensuite on estime le taux de chômage naturel par

𝛽̂0
𝑢𝑛 =
𝛽̂1

Nous disposons des données suivantes relatives aux taux de chômage et au taux d’inflation :

Année Taux de chômage Taux d’inflation


1999 13,9399996 0,68478261
2000 13,5799999 1,89463457
2001 12,46 0,61980188
2002 11,5900002 2,79561967
2003 11,9200001 1,16773367
2004 10,8299999 1,49344403
2005 11,0100002 0,98264166
2006 9,67000008 3,28476167
2007 9,56000042 2,04208513
2008 9,56999969 3,70731707
2009 9,10000038 0,99482596
2010 9,06000042 0,98735533
2011 8,90999985 0,91461071
2012 8,98999977 1,28712871
2013 9,22999954 1,87232123
2014 9,69999981 0,4428698
2015 9,65999985 1,55790711
2016 9,39999962 1,63531114
2017 9,33199978 0,75466325

Nous allons d’abord commencer par calculer ∆𝜋𝑡

Taux de Taux
Année chômage d’inflation Var. inflation
1999 13,9399996 0,68478261
2000 13,5799999 1,89463457 -1,20985196
2001 12,46 0,61980188 1,27483269
2002 11,5900002 2,79561967 -2,17581779
2003 11,9200001 1,16773367 1,627886
2004 10,8299999 1,49344403 -0,32571036
2005 11,0100002 0,98264166 0,51080237
2006 9,67000008 3,28476167 -2,30212001
2007 9,56000042 2,04208513 1,24267654
2008 9,56999969 3,70731707 -1,66523194
2009 9,10000038 0,99482596 2,71249111
2010 9,06000042 0,98735533 0,00747063
2011 8,90999985 0,91461071 0,07274462
2012 8,98999977 1,28712871 -0,372518
2013 9,22999954 1,87232123 -0,58519252
2014 9,69999981 0,4428698 1,42945143
2015 9,65999985 1,55790711 -1,11503731
2016 9,39999962 1,63531114 -0,07740403
2017 9,33199978 0,75466325 0,88064789

Le logiciel eviews rend le résultat suivant


Dependent Variable: VARINF
Method: Least Squares
Date: 03/15/21 Time: 13:04
Sample: 2000 2017
Included observations: 18

Variable Coefficient Std. Error t-Statistic Prob.

C 0.833270 2.574425 0.323672 0.7504


TC -0.082086 0.250298 -0.327954 0.7472

R-squared 0.006677 Mean dependent var -0.003882


Adjusted R-squared -0.055405 S.D. dependent var 1.379881
S.E. of regression 1.417592 Akaike info criterion 3.640236
Sum squared resid 32.15308 Schwarz criterion 3.739166
Log likelihood -30.76212 Hannan-Quinn criter. 3.653877
F-statistic 0.107554 Durbin-Watson stat 3.304278
Prob(F-statistic) 0.747199

Le coefficient beta est bien négatif mais pas significatif au seuil 5%

Le taux de chômage naturel est donné par

𝛽̂0 0,833270
𝑢𝑛 = = = 10,15%
𝛽̂1 0,082086

Taux de chômage et taux de chômage naturel

TCE TCN

Vous aimerez peut-être aussi