Académique Documents
Professionnel Documents
Culture Documents
Il s’agit d’une discipline récente mais qui ne cesse de prendre de l’importance en sciences
économiques. Même s’il existait quelques travaux antérieurs, l’économétrie a démarré
réellement avec la constitution de l’Econometric Society. En 1933 est publié le premier
numéro de la revue Economtrica (la revue scientifique de référence en économétrie). Depuis,
plusieurs modèles économétriques ont été construits. Aujourd’hui plusieurs prix Nobel
d’économie ont été attribués à des économistes en raison de leurs contributions à l’avancée de
d’économétrie. On peut citer Ragnar Frisch et Jan Tinbergen en 1969, Engel et Granger
(cointegration causalité, ARCH), Heckman et Mc Fadden (2000) Sims en 2011.
L’objectif initial assigné à l’économétrie est d’aider à faire le tri entre théories économiques
concurrentes. Un modèle économétrique est la contrepartie empirique des modèles
économiques théoriques. Ces derniers renferment des hypothèses, des intuitions et des
résultats théoriques. Les modèles économétriques peuvent aider valider ces hypothèses,
intuitions et résultats. Un exemple simple de modèle économique est la théorie keynésienne
de la consommation. On peut résumer cette théorie par trois hypothèses : (i) seul le revenu
disponible détermine la consommation nationale (ii) loi psychologique fondamentale (la
propension marginale à consommer est comprise entre 0 et 1 (iii) décroissance de la
propension moyenne à consommer (l’existence d’une consommation incompressible).
Pour vérifier la validité empirique ce cette théorie, il faut réecrire ces hypothèses à vérifier
sous forme mathématique. Une relation simple qui rempli les trois hypothèses est la relation
linéaire suivante :
Pour vérifier la validité empirique il faut tester, entre autres, les hypothèses suivantes :
𝐻1 : 𝐶0 ≠ 0 𝐻2 : 𝑐 ≠ 0
On peut aussi être tenté d’évaluer la valeur de 𝑐 selon qu’elle est proche de 1 (vision
keynésienne) ou faible proche de 0 (vision néoclassique) ce qui permet d’estimer la valeur du
multiplicateur et donner des indications sur l’efficacité des politiques budgétaires (voir le
débat sur les erreurs de prévisions de la croissance du FMI liées à une sous-estimation du
multiplicateur dans les modèles du FMI)1.
(i) confirmer ou infirmer une théorie (voir exemple ci-dessous concernant la validité du
MEDAF). Trancher entre des théories concurrentes (voir exemple ci-dessous entre théorie
keynesienne et néoclassique de la consommation).
(iii) L’économétrie peut être utiliseé pour évaluer quantitativement les effets de politiques
économiques (les modèles macroéconométriques).
(iv) Les modèles économétriques peuvent être utilisé pour réaliser des prévisions (les modèles
autoregessifs ARIMA, VAR, etc.).
L’économétrie fonctionne avec des modèles économétriques. Ces derniers sont la contrepartie
numérique (empirique) des modèles économiques.
1
Olivier Blanchard and Daniel Leigh (2013), « Growth Forecast Errors and Fiscal Multipliers », IMF working
paper, No. 13/1.
- Les données de panel qui consistent à observer plusieurs individus pendant une
période de temps
Nous l’avons déjà souligné, l’économétrie utilise des outils statistiques et des données. Les
calculs se font généralement en faisant appel à des logiciels (SPSS, Eviews, SAS, RATS,
GAUSS, MATLAB, etc.) Il existe des logiciels en open source le plus célèbre est le logiciel
R.
Introduction
Cette relation est déterministe ; le niveau de la consommation peut être déterminé de manière
exacte pour chaque niveau de revenu disponible.
D’un autre côté, supposons que la relation entre la consommation et le revenu disponible est
donnée par
𝑦 = 1000 + 0,8𝑥 + 𝜖
Si 𝑦 est continu, 𝜖 peut prendre n’importe qu’elle valeur (infinité). Si 𝜖 suit une loi normale
par exemple, on obtient la relation suivante entre 𝑦 et 𝑥
𝑦
y
𝑦 = 1000 + 0,8𝑥
Ainsi, pour Keynes, la fonction de consommation doit satisfaire les conditions suivantes :
𝑥
𝜕𝑦 𝜕( )
𝑦
0 < 𝜕𝑥 < 1 et <0
𝜕𝑦
𝑦 = 𝛽0 + 𝛽1 𝑥 (1)
De plus pour les keynésiens la valeur de 𝛽1 est élevée et proche de 1 ce qui signifie un
multiplicateur élevé et donc une efficacité de la politique budgétaire. Pour les néoclassique, il
n’existe pas de minimum vital (𝛽0 = 0) et 𝛽1 bien que positive mais faible et proche de 0.
Ce cadre offre une base pour une étude empirique qui permettrait de trancher entre la vision
keynésienne et classique.
y = 0,7481x + 30,133
R² = 0,9825
L’examen de la figure permet de voir que les données sont cohérentes avec la théorie
keynésienne mais qu’une relation déterministe ne semble pas appropriée pour décrire la
fonction de consommation au Maroc. On doit incorporer une composante aléatoire ou
stochastique. L’approche la plus utilisée est l’approche additive. Ainsi on obtient
𝑦 = 𝛽0 + 𝛽1 𝑥 + 𝜖 (2)
On suppose que chaque observation dans notre échantillon (𝑦𝑖 , 𝑥𝑖 ; 𝑖 = 1,2, … , 𝑛) est généré
par le processus suivant :
𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝜖𝑖 𝑖 = 1,2, … , 𝑛
Notre objectif est d’utiliser une méthode d’estimation (la méthode des moindres carrés en
l’occurrence) afin de construire des estimateurs des paramètres 𝛽0 et 𝛽1. Ensuite, utiliser les
données disponibles pour avoir des estimations des paramètres et examiner la validité des
propositions théoriques. On peut également utiliser le modèle pour réaliser les cas échéant des
prévisions relatives à la consommation état données des hypothèses sur l’évolution future du
revenu disponible.
𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝜖𝑖 𝑖 = 1,2, … , 𝑛
(ii) la moyenne des erreurs doit etre nulle. De manière formelle 𝐸(𝜖𝑖 ) = 0. Généralement,
l’introduction de la constante 𝛽0 assure la satisfaction de cette condition (c’est l’un des rôles
de la constante). Si cette condition n’est pas satisfaite, l’estimateur utilisé sera biaisé.
(iii) Homoscédasticité. La variance doit être constante. Formellement nous devons avoir
𝑉(𝜖𝑖 ) = 𝜎 2 ou 𝐸(𝜖𝑖2 ) = 𝜎 2 .
Bien entendu 𝜎 2 n’est pas connue nous allons devoir l’estimer. Si cette condition n’est pas
satisfaite, l’estimateur ne sera pas efficace.
(iv) Absence d’autocorrélation entre les erreurs. Les erreurs doivent être indépendantes.
Formellement cela se traduit par
𝑐𝑜𝑣(𝜖𝑖 , 𝜖𝑗 ) = 0 𝑜𝑢 𝐸(𝜖𝑖 𝜖𝑗 ) = 0
Là encore, si cette condition n’est pas satisfaite, les estimateurs des paramètres ne seront pas
efficaces.
(v) Absence d’autocorrélation entre l’erreur et la variable explicative. Pour l’instant on
suppose que la variable explicative n’est pas stochastique. Elle est exogène c.a.d déterminée
en dehors du modèle. Cela revient à ce que
𝑐𝑜𝑣(𝑥𝑖 , 𝜖𝑖 ) = 0 𝑜𝑢 𝐸(𝑥𝑖 𝜖𝑖 ) = 0
(vi) Normalité des erreurs. En plus des conditions de Gauss-Markov nous supposons que
les erreurs sont normalement distribuées (conditions nécessaire pour l’inférence statistique).
𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝜖𝑖 𝑖 = 1,2, … , 𝑛
𝜖𝑖 = 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖 𝑖 = 1,2, … , 𝑛
Les estimations à partir d’un échantillon sont notées 𝛽̂0 et 𝛽̂1, l’erreur est estimée comme un
résidu
𝜖̂𝑖 = 𝑦𝑖 − 𝛽̂0 − 𝛽̂1 𝑥𝑖 𝑖 = 1,2, … , 𝑛
Rappelons qu’il existe trois méthodes d’estimation des paramètres : la méthode des moments,
la méthode des moindres carrés et la méthode du maximum de vraisemblance.
3.1 La méthode des moments
Deux des hypothèses de Gauss-Markov concernant l’erreur s’écrivent
𝐸(𝜖𝑖 ) = 0 et 𝑐𝑜𝑣(𝑥𝑖 , 𝜖𝑖 ) = 0
Dans la méthode des moments (égalisation des moments théoriques et des moments
empiriques) nous devons avoir
𝐸(𝜖𝑖 ) = 0
{
𝑐𝑜𝑣(𝑥𝑖 , 𝜖𝑖 ) = 0
1
∑ 𝜖̂𝑖 = 0 ∑ 𝜖̂𝑖 = 0
𝑛
{ ou {
1
∑ 𝜖̂𝑖 𝑥𝑖 ∑ 𝜖̂𝑖 𝑥𝑖
𝑛
𝛽̂0,𝑀𝑀 = 𝑦̅ − 𝛽̂,𝑀𝑀1 𝑥̅
De l’équation 2, nous avons
∑ 𝑥𝑖 𝑦𝑖 − 𝑛𝑥̅ 𝑦̅
𝛽̂1,𝑀𝑀 =
∑ 𝑥𝑖2 − 𝑛𝑥̅ 2
En multipliant et en divisant par 1/𝑛, il vient
1
∑ 𝑥𝑖 𝑦𝑖 − 𝑥̅ 𝑦̅
𝛽̂1,𝑀𝑀 = 𝑛 1
𝑛
∑ 𝑥𝑖2 −𝑥̅ 2
En définitive, les estimateurs par la méthode des moments sont donnés par
𝑐𝑜𝑣(𝑥,𝑦)
𝛽̂0,𝑀𝑀 = 𝑦̅ − 𝛽̂1 𝑥̅ et 𝛽̂1,𝑀𝑀 = 𝑣(𝑥)
𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝜖𝑖 𝑎𝑣𝑒𝑐 𝜖𝑖 ~𝑁(0, 𝜎 2 )
1 1/2 1 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖 2
)
𝑓(𝑦𝑖 = ( ) 𝑒𝑥𝑝 [− (− ) ]
2𝜋𝜎 2 2 𝜎
1 1
𝑙𝑜𝑔𝐿(. ) = ∑ [− 𝑙𝑜𝑔(2𝜋𝜎 2 ) − 2 (𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖 )2 ]
2 2𝜎
Ou encore
1 1
𝑙𝑜𝑔𝐿(. ) = − 𝑛 log(2𝜋𝜎 2 ) − 2 ∑(𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖 )2
2 2𝜎
En annulant le gradiant de 𝑙𝑜𝑔𝐿(. ) par rapport aux trois paramètres, il vient
𝜕𝑙𝑜𝑔𝐿(. ) 1
= − 2 (2)(−1) ∑(𝑦𝑖 − 𝛽̂0,𝑀𝑉 − 𝛽̂1,𝑀𝑉 𝑥𝑖 ) = 0
𝜕𝛽̂0,𝑀𝑉 2𝜎𝑀𝑉
𝜕𝑙𝑜𝑔𝐿(. ) 1
= − 2 (2) ∑(−𝑥𝑖 )(𝑦𝑖 − 𝛽̂0,𝑀𝑉 − 𝛽̂1,𝑀𝑉 𝑥𝑖 ) = 0
̂
𝜕𝛽1,𝑀𝑉 2𝜎𝑀𝑉
2
𝜕𝑙𝑜𝑔𝐿(. ) 1 1 1 ∑(𝑦𝑖 − 𝛽̂0,𝑀𝑉 − 𝛽̂1,𝑀𝑉 𝑥𝑖 )
2 = − 𝑛 2 + 4 =0
{ 𝜕𝜎𝑀𝑉 2 𝜎𝑀𝑉 2 𝜎𝑀𝑉
𝛽̂0,𝑀𝑉 = 𝑦̅ − 𝑥̅ 𝛽̂1,𝑀𝑉
𝑐𝑜𝑣(𝑥, 𝑦)
𝛽̂1,𝑀𝑉 =
𝑣(𝑥)
2
2
∑(𝑦𝑖 − 𝛽̂0,𝑀𝑉 − 𝛽̂1,𝑀𝑉 𝑥𝑖 )
𝜎𝑀𝑉 =
𝑛
2
𝑆𝐶𝑅
𝜎𝑀𝑉 =
𝑛
3.3 La méthode des moindres carrés
La méthode des moindres carrés ordinaires consiste à choisir les estimateurs 𝛽̂0,𝑀𝐶 et 𝛽̂1,𝑀𝐶
de manière à minimiser la somme des carrés des erreurs. C'est-à-dire faire en sorte que la
droite (le modèle) soit la plus proche de toutes les observations (la réalité)
y = 1,7x - 0,1
R² = 0,7605
𝑛
2
𝑀𝑖𝑛 ⏟ ∑(𝑦𝑖 − 𝛽̂0 − 𝛽̂1 𝑥𝑖 )
⏟ 𝑆𝐶𝐸 ≡ 𝑀𝑖𝑛
̂0 ,𝛽
𝛽 ̂1 ̂0 ,𝛽
𝛽 ̂1 𝑖=1
L’annulation des dérivées premières par rapports aux deux coefficients donne
𝜕𝑆𝐶𝐸(. )
= 2 ∑(𝑦𝑖 − 𝛽̂0,𝑀𝐶 − 𝛽̂1,𝑀𝐶 𝑥𝑖 )(−1) = 0
𝜕𝛽̂0,𝑀𝐶
𝜕𝑆𝐶𝐸(. )
= 2 ∑(−𝑥𝑖 )(𝑦𝑖 − 𝛽̂0,𝑀𝐶 − 𝛽̂1,𝑀𝐶 𝑥𝑖 ) = 0
̂
𝜕𝛽
{ 1,𝑀𝐶
Ou
∑ 𝑦𝑖 = ∑ 𝛽̂0,𝑀𝐶 + 𝛽̂1,𝑀𝐶 ∑ 𝑥𝑖
{
∑ 𝑥𝑖 𝑦𝑖 = ∑ 𝛽̂0,𝑀𝐶 𝑥𝑖 + ∑ 𝛽̂1,𝑀𝐶 𝑥𝑖2
Ces deux équations sont exactement les mêmes que celles données par les deux autres
méthodes.
Ainsi
𝛽̂0,𝑀𝐶 = 𝑦̅ − 𝑥̅ 𝛽̂1,𝑀𝐶
𝑐𝑜𝑣(𝑥, 𝑦)
𝛽̂1,𝑀𝐶 =
𝑣(𝑥)
En définitive, les trois méthodes d’estimation (moments, maximum de vraisemblance et
moindres carrés) rendent les mêmes estimateurs.
Obs. 𝑥𝑖 𝑦𝑖
1 1 1
2 2 5
3 3 3
4 4 8
5 5 8
Total 15 25
Dependent Variable: YI
Method: Least Squares (Gauss-Newton / Marquardt steps)
Date: 02/23/21 Time: 17:42
Sample: 1 5
Included observations: 5
YI=C(1)+C(2)*XI
Coefficient Std. Error t-Statistic Prob.
C(1) -0.100000 1.826655 -0.054745 0.9598
C(2) 1.700000 0.550757 3.086660 0.0539
R-squared 0.760526 Mean dependent var 5.000000
Adjusted R-squared 0.680702 S.D. dependent var 3.082207
S.E. of regression 1.741647 Akaike info criterion 4.236714
Sum squared resid 9.100000 Schwarz criterion 4.080489
Log likelihood -8.591784 Hannan-Quinn criter. 3.817422
F-statistic 9.527473 Durbin-Watson stat 3.600000
Prob(F-statistic) 0.053854
𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝜖𝑖 𝑖 = 1,2, … ,5
Calculons les composantes de la covariance et de la variance
Obs. 𝑥𝑖 𝑦𝑖 𝑥𝑖 𝑦𝑖 𝑥𝑖2
1 1 1 1 1
2 2 5 10 4
3 3 3 9 9
4 4 8 32 16
5 5 8 40 25
Total 15 25 92 55
15 25
𝑥̅ = =3 et 𝑦̅ = =5
5 5
Ainsi
92
−3×5
𝛽̂1 = 5
55
= 1,7
5
−3×3
Et
𝛽̂0 = 5 − 1,7 × 3 = −0,1
𝑦 = −0,1 + 1,7𝑥
Interprétation :
- La hausse de 𝑥 d’une unité augmente 𝑦 de 1,7 unités.
- La constante n’a pas toujours une interprétation. Parfois son rôle se limite à assurer la
validité de l’hypothèse relative à la nullité de la moyenne des erreurs
Obs. 𝑥𝑖 𝑦𝑖 𝜖̂𝑖
1 1 1 -0,6
2 2 5 1,7
3 3 3 2,0
4 4 8 1,3
5 5 8 -0,4
Total 15 25 0
Les variations de la variable indépendante sont mesurées en termes d’écarts par rapport à sa
moyenne (𝑦𝑖 − 𝑦̅). La somme de leurs carrées est appelée somme total des carrés (𝑆𝑇𝐶).
2
𝑆𝐶𝑅 = 𝜖̂𝑖2 = ∑(𝑦𝑖 − 𝑦̅ + 𝛽̂1 𝑥̅ − 𝛽̂1 𝑥𝑖 )
2
𝑆𝐶𝑅 = 𝜖̂𝑖2 = ∑[(𝑦𝑖 − 𝑦̅) − 𝛽̂1 (𝑥𝑖 − 𝑥̅ )]
𝑆𝐶𝑅 = 𝜖̂𝑖2 = ∑(𝑦𝑖 − 𝑦̅)2 − 𝛽̂12 ∑(𝑥𝑖 − 𝑥̅ )2 − 2𝛽̂1 ∑(𝑥𝑖 − 𝑥̅ ) (𝑦𝑖 − 𝑦̅)
Nous avons :
∑(𝑥𝑖 − 𝑥̅ )2 = 𝑛 × 𝑣𝑎𝑟(𝑥)
Rappelons que
𝑐𝑜𝑣(𝑥, 𝑦)
𝛽̂1 =
𝑣𝑎𝑟(𝑥)
Il vient que
𝑛𝑐𝑜𝑣 2 (𝑥, 𝑦)
𝑆𝐶𝑅 = 𝑛𝑣𝑎𝑟(𝑦) −
𝑣𝑎𝑟(𝑥)
𝑆𝐶𝐸 𝑆𝐶𝑅
𝑅2 = = 1−
𝑆𝐶𝑇 𝑆𝐶𝑇
- Par construction le 𝑅 2 est compris entre 0 et 1 (en présence de la constante)
- Plus le 𝑅 2 est élevé (proche de 1) plus le modèle est de bonne qualité. Cela signifie
que les variations de la variable expliquée sont attribuées aux variations de la variable
explicative.
- Le 𝑅 2 n’est pas le seul indicateur de la qualité de la régression. Une régression avec un
𝑅 2 faible peut malgré tout fournir un certain nombre d’informations.
Reprenons notre exemple. Les calculs sont réalisés dans le tabaleau ci-dessous
Pour vérifier nos calculs on peut calculer 𝑆𝐶𝐸 en utilisant sa formule et non comme un solde
92
𝑆𝐶𝐸 = 𝛽̂1 𝑛𝑐𝑜𝑣(𝑥, 𝑦) = 1,7 × 5 × ( 5 − 3 × 5) = 28,9
𝑆𝐶𝐸 28,9
𝑅2 = = = 0,760526 ≡ 76,0525%
𝑆𝐶𝑇 38
Les variations de 𝑥 expliquent 76,052% des variations de 𝑦. Le modèle explique 76,1% de la
réalité observée.
Tous les résultats obtenus sont des estimations ponctuelles. Leurs qualités dépendent de
l’échantillon considéré. Pour surmonter cette limite il faut réaliser de l’inférence statistique
(les intervalles de confiance ou les tests d’hypothèses).
Nous pouvons montrer que 𝛽̂1 est une variable aléatoire avec
𝜎2
𝐸(𝛽̂1 ) = 𝛽1 et 𝑉(𝛽̂1 ) = 𝑛𝑣𝑎𝑟(𝑥)
Les choses auraient été faciles si on connaissait 𝜎 2 . Bien entendu, en pratique il faut l’estimer.
On peut montrer qu’un estimateur non biaisé de 𝜎 2 est donnée par
𝑆𝐶𝑅
𝜎̂ 2 =
𝑛−2
𝑆𝐶𝑅
Où 𝑆𝛽 = √(𝑛−2) ∑(𝑥 −𝑥̅ )2 est l’écart-type de 𝛽̂1 et où 𝑡𝑛−2,𝛼 est lue sur la table de la loi de
𝑖
Qu’est ce qui se passe si l’erreur n’est pas distribuée normalement ? Les résultats restent
valables pour un grand nombre d’observations sinon cela pose problème.
𝜎̂ = 𝑆. 𝐸. 𝑟𝑒𝑔𝑟𝑒𝑠𝑠𝑖𝑜𝑛 = 1,7416
D’un autre côté,
𝜎̂ 2 3,0333
𝑉(𝛽̂1 ) = = = 0,3033
𝑛𝑣𝑎𝑟(𝑥) 5 × (55 5
−3×3)
𝑆. 𝐸. (𝛽̂1) = 0,55075
1 𝑥̅ 2 1 9
̂ 2
𝑉(𝛽0 ) = 𝜎̂ ( + ) = 3,03 ( + ) = 3,3366
𝑛 𝑛𝑣𝑎𝑟(𝑥) 5 10
𝑆. 𝐸. (𝛽̂0 ) = 1,82665
Coef. SE
Constante -0,1000 1,82
𝑥 1,7000 0,55
R2 0,76
SEreg 1,74
SCR 9,1
̂
𝛽
𝑡𝑜𝑏𝑠 = 𝑠𝑒(𝛽̂𝑖 ) ∀ 𝑖 = 0,1
𝑖
Si cette valeur est incluse dans la zone d’acceptation définie par les valeurs lues sur la table de
Student pour un seuil 𝛼 et 𝑛 − 2 degrés de libertés, on accepte l’hypothèse nulle.
𝛽̂0 −0,1000
𝑡𝑜𝑏𝑠 (𝛽̂0 ) = = = −0,0547
𝑠𝑒(𝛽̂0 ) 1,8266
𝛽̂1 1,7000
𝑡𝑜𝑏𝑠 (𝛽̂1 ) = = = 3,0866
𝑠𝑒(𝛽̂1 ) 0,5507
On voit que la constante 𝛽0 n’est pas significativement différent de zéro aux seuil 5% et 10%.
Le paramètre 𝛽1 n’est pas significativement différent de zéro au seuil 5% mais différent de
zéro au seuil 10%.
Ainsi,
Comme |𝑡𝑜𝑏𝑠 (𝛽̂1 )| ≪< 3,182 on ne rejette pas l’hypothèse nulle au seuil 5%
6 Analyse de la variance
On peut regrouper les principaux résultats sous forme du tableau suivant :
Source des variations Somme des carrés Degrés de libertés Carrés moyens
𝑥 𝑆𝐶𝐸 𝑘−1 𝑆𝐶𝐸/𝑘 − 1
Résidus 𝑆𝐶𝑅 𝑛−2 𝑆𝐶𝑅/(𝑛 − 2)
Total 𝑆𝐶𝑇 𝑛−1
𝑆𝐶𝐸
𝐹 = 1 ~𝐹1,𝑛−2
𝑆𝐶𝑅
𝑛−2
Dans notre exemple nous avons
Source des variations Somme des carrés Degrés de libertés Carrés moyens
𝑥 28,9 1 28,9
Résidus 9,1 3 3,0333
Total 38 4 9,5
28,9
𝐹= = 9,52
3,0333
Dependent Variable: YI
Method: Least Squares (Gauss-Newton / Marquardt steps)
Date: 02/23/21 Time: 17:42
Sample: 1 5
Included observations: 5
YI=C(1)+C(2)*XI
Coefficient Std. Error t-Statistic Prob.
𝑦 = 𝛽0 + 𝛽1 𝑥
Le modèle est dit linéaire non pas en termes de relation entre 𝑦 et 𝑥 mais en termes de manière avec
laquelle ils sont considérés dans l’équation.
𝑦 = 𝛽0 + 𝛽1 𝑒 𝑥
𝑦
1
𝑦 = 𝛽0 + 𝛽1 (𝑥)
𝑦 = 𝛽0 + 𝛽1 𝑥
𝑦 = 𝛽0 + 𝛽1 ln(𝑥)
𝑦 = 𝛽0 + 𝛽1 𝑧 𝑦 = 𝛽0 + 𝛽1 𝑣 𝑦 = 𝛽0 + 𝛽1 𝑤
Toutes les formes précédentes sont linéaires. Le nombre de formes fonctionnelles qui peuvent
être transformées en relations linéaires est important.
Une forme très utilisée est la forme log linéaire. Elle est donnée par
𝑦 = 𝐴𝑥 𝛽1
ln(𝑦) = 𝛽0 + 𝛽1 ln(𝑥)
𝛽1 = 2
𝑦
𝛽1 = −1
𝛽1 = 1
𝛽1 = 0,5
- Lorsque le taux de chômage est au dessus du Nairu on peut mettre en place une politique
expansionniste pour réduire le taux de chômage sans que cela augmente l’inflation
- Lorsque le taux de chômage est en dessous du Nairu on doit s’attendre à des tensions
inflationnistes
- France 9,2%
- Allemagne 6,3%
- Japon 4,3%
Taux de chômage
Taux de chômage
Le Nairu n’est pas observable, il doit être estimé. Il peut l’être à l’aide de la courbe de Phillips.
Dans cette équation 𝜋𝑡 est le taux d’inflation effectif, 𝜋𝑡𝑎 est le taux d’inflation anticipé, 𝑢𝑡 le
taux de chômage effectif, 𝑢𝑛 est le taux de chômage naturel, 𝜖 est un choc d’offre.
Ainsi, la courbe de Phillips identifie, dans sa version moderne, trois sources de l’inflation
- l’inflation anticipée
- l’écart du chômage par rapport à son taux naturel (chômage conjoncturel)
- les chocs d’offre
Pour pouvoir utiliser la courbe de Phillips nous devons savoir de quoi dépend l’inflation
anticipée. Comment se forment les anticipations ? Suppose que les agents économiques
forment leurs anticipations d’inflation sur la base de l’histoire récente de l’inflation.
Un exemple simple est de supposer que l’inflation anticipée est égale à l’inflation de la
période précédente
𝜋𝑡𝑎 = 𝜋𝑡−1
𝜋𝑡 = 𝜋𝑡−1 − 𝛽(𝑢𝑡 − 𝑢𝑛 ) + 𝜖𝑡
Dans cette configuration, le taux de chômage naturel est appelé NAIRU (= Non-Accelerating Inflation
Rate of Unemployment) taux de chômage n’accélérant pas l’inflation
- L’inflation passée, détermine l’inflation anticipée qui détermine les salaires et les prix fixés
par les agents économiques
- Inflation induite par les coûts (Cost Push Inflation) : L’inflation résulte des chocs
sur l’offre : Un choc négatif d’offre augmente les coûts de production ce qui augmente les
prix (choc pétrolier)
- Inflation induite par la demande (Demand Push Inflation) : L’inflation peut
résulter également d’un choc de demande : un choc positif sur la demande provoque une
baisse du taux de chômage en dessous du niveau naturel ce qui cause une inflation
𝜋𝑡 = 𝜋𝑡−1 − 𝛽(𝑢𝑡 − 𝑢𝑛 ) + 𝜖𝑡
On pose
𝛽1 = −𝛽 et 𝛽0 = 𝛽𝑢𝑛 = 𝛽1 𝑢𝑛
Ou encore
∆𝜋𝑡 = 𝛽0 + 𝛽1 𝑢𝑡 + 𝜖𝑡
On peut alors utiliser la méthode des moindres carrés pour estimer 𝛽̂0 et 𝛽̂1
𝛽̂0
𝑢𝑛 =
𝛽̂1
Nous disposons des données suivantes relatives aux taux de chômage et au taux d’inflation :
Taux de Taux
Année chômage d’inflation Var. inflation
1999 13,9399996 0,68478261
2000 13,5799999 1,89463457 -1,20985196
2001 12,46 0,61980188 1,27483269
2002 11,5900002 2,79561967 -2,17581779
2003 11,9200001 1,16773367 1,627886
2004 10,8299999 1,49344403 -0,32571036
2005 11,0100002 0,98264166 0,51080237
2006 9,67000008 3,28476167 -2,30212001
2007 9,56000042 2,04208513 1,24267654
2008 9,56999969 3,70731707 -1,66523194
2009 9,10000038 0,99482596 2,71249111
2010 9,06000042 0,98735533 0,00747063
2011 8,90999985 0,91461071 0,07274462
2012 8,98999977 1,28712871 -0,372518
2013 9,22999954 1,87232123 -0,58519252
2014 9,69999981 0,4428698 1,42945143
2015 9,65999985 1,55790711 -1,11503731
2016 9,39999962 1,63531114 -0,07740403
2017 9,33199978 0,75466325 0,88064789
𝛽̂0 0,833270
𝑢𝑛 = = = 10,15%
𝛽̂1 0,082086
TCE TCN