Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
---------------------------------------
Cours d’initiation Master 1 gestion. pour n’avoir pas suivi de cours d’économétrie auparavant
---------------------------------------
Chapitre 1 - INTRODUCTION
devient automatiquement un modèle économétrique des lors qu`on lui ajoute un terme
stochastique
1
a) L`économétrie permet de conduire des analyses structurelles c`est-à-dire de se servir de
modèles économétriques estimes comme instrument d`investigation pour tester des théories
rivales ou pour quantitativement mesurer, tester et valider des interrelations entre les variables
d`un système donné.
c) L`économétrie sert aussi à évaluer les politiques économiques. Par exemple les modèles
économétries estimés peuvent être utilisés pour simuler la mise en œuvre de différentes
politiques et ainsi choisir entre des politiques économiques alternatives. Simuler la mise en
œuvre de différentes stratégies publicitaires et ainsi choisir entre des stratégies alternatives.
Variable : Une variable est une quantité économique susceptible de prendre l`une quelconque
de plusieurs valeurs possibles. Le chiffre d’affaire d’une entreprise, bénéfice qu’une entreprise
réalise, niveau des prix, le revenu national, la consommation, l`investissement, les importations,
les exportations etc., sont des variables fréquemment utilisées en économétrie.
Population : au sens économétrique, une population c`est l`ensemble de toutes les observations
possibles sur une variable.
2
Constante : Une constante est une magnitude qui ne change pas et par conséquent représente
l`antithèses de la variable. Par exemple dans le modèle calculé ̂ , est une
constante.
Coefficient : Quand une constante est jointe à une variable, on l`appelle coefficient de cette
variable. Par exemple dans le modèle calculé ̂ , 0,75 étant une constante et le
revenu une variable, au regard de l`expression 0,75 0,75 est un coefficient, le coefficient de
la variable . (0,75 est donc un coefficient et non pas une constante).
Variables endogènes : Les variables endogènes sont les variables dépendantes dans un système
d`équations simultanées. Autrement dit, ce sont des variables déterminées par le système, même
si elles apparaissent aussi comme variables explicatives dans d`autres équations du système.
3
Variables exogènes : Ce sont les variables dont les valeurs sont déterminées en dehors du
système d`équations (simultanées) considéré. Supposons par exemple que nous ayons le
système d`équations simultanées (ou modèle d’équations simultanées) suivant :
Dans ce cas, il s’agit bien d’un modèle d’équations simultanées puisque qui est variable
expliquée dans la première équation devient variable explicative dans la deuxième équation. Et
qui est variable expliquée dans la deuxième équation devient variable explicative dans la
première équation. Alors, dans ce système d`équations simultanées à deux équations, et
sont des variables endogènes. est une variable exogène.
Terme de l`erreur : Le terme de l`erreur, encore appelé terme stochastiques ou perturbation est
une variable caractérisant la divergence qui émerge entre les valeurs de (variable expliquée
ou dépendante) concrètement observée et les valeurs qui seraient données a par une relation
fonctionnelle exacte. Partant du modèle économétrique , le terme tel que
est donc par définition le terme de l`erreur.
Un estimateur : C`est une règle d`estimation, une formule ou une méthode pour estimer un
paramètre. Exemple l`estimateur de la moyenne de X est :
∑
̅
Série transversale : On appelle série transversale ou coupe transversale, l`ensemble des points
d`observation de différents secteurs (par exemple dépense de consommation et revenu
disponible de chaque famille) en un point donné dans le temps disons en 2018.
4
Chapitre 2 – MODELE DE REGRESSION LINEAIRE SIMPLE : Yt = a + bXt + εt
et sont des paramètres réels inconnus qui doivent être estimés à l`aide des observations
● H2 : Les valeurs sont observées sans erreur c`est-à-dire que est non aléatoire.
5
il peut y avoir des erreurs de sur dimension et des erreurs de sous dimension mais la moyenne
des erreurs (ou si l’on préfère, l`erreur moyenne) est nulle et donc le modèle est bien spécifié.
● H7 : C`est l`hypothèse de normalité. Elle signifie que suit une loi normale
. Autrement dit les sont normalement distribués . En conjonction avec et cela
implique que les sont indépendamment et normalement distribués avec moyenne (espérance
mathématique) zéro et variance commune . Mathématiquement, on écrit cela comme suit :
avec .
√
● H8 : ∑ ̅
qd
Quantité finie (moyenne empirique)
6
∑
qd
Quantité finie (variance empirique)
H8 on suppose lorsque devient très grand, que les premiers moments empiriques de X
sont finis. On utilise cette hypothèse pour préciser les propriétés asymptotiques des estimateurs
(de ).
2.3- Estimation des paramètres par méthode des moindres carrés ordinaires (MCO)
Pour estimer les paramètres a et b du modèle par méthode des moindres carrés ordinaires
(MCO), on commence par se référer au modèle initial :
[ ].
On trouve l’expression du terme de l`erreur , en soustrayant des valeurs de la variable
expliquée (valeurs concrètement observées), les valeurs qui seraient données a par une
relation fonctionnelle exacte représentées par la partie systématique du modèle initial c’est-à-
dire . Autrement dit,
[ ] [ ]
Puis on élève les deux membres de cette [ ] au carré et on fait la somme de ces carrés dans
l’ensemble de l’échantillon. On obtient alors :
∑ ∑ [ ]
La méthode des moindres carrés ordinaires consiste à choisir les valeurs des paramètres et b
qui minimisent , la somme des carrés des erreurs, [ ]
Pour minimiser Q par rapport à a et b, il faut égaler à zéro la première dérivée de Q par rapport à
et par rapport à b.
∑ ̂ ̂ [ ]
̂
∑ ̂ ̂∑
∑ ̂ ̂∑
∑ ∑
̂ ̂
̅ ̂ ̂̅
̂ ̅ ̂̅ [ ]
7
∑ ̂ ̂ [ ]
̂
∑ ̂∑ ̂∑
∑ ̂∑ ̂∑ [ ]
En substituant la valeur de ̂ (donnée par [5] à ̂ dans [7] on a :
∑ ∑ (̅ ̂ ̅) ̂∑
̅( ̅ ̂ ̅) ̂∑
̅̅ ̂ ̅ ̂∑
∑ ̅̅ ̂ ∑ ̅
∑ ̅̅
̂
∑ ̅
∑ ̅ ̅
[8]
∑ ̅
Condition de second rang pour voir si les valeurs de ̂ ̂ trouvées minimisent ou maximisent
[ ], la somme des carrés des erreurs. Pour que ̂ ̂ minimisent, la somme des carrés des
erreurs, la matrice Hessienne (matrice formée des dérivées partielles secondes de la somme des
carrés des erreurs, [ ]) doit être définie positive.
∑ ∑ [ ]
Suite aux dérivations partielles secondes, la matrice Hessienne s’écrit :
[ ]
Pour que ̂ et ̂ déterminent un minimum et donc que la matrice H soit définie positive, il faut
que toutes les valeurs propres de H soient positives.
Plus spécifiquement :
8
∑ ∑ [ ]
∑
∑
∑ ∑
∑
∑
∑
∑
∑
∑
∑
∑
∑
∑
∑
∑
[ ]
∑ ∑
[ ]
Puisque la taille de l’échantillon n est connue et puisque la série des observations X est aussi
connue, la matrice H ne comprendra que des chiffres (pas des lettres). En clair, H est une
matrice de 2 lignes de chiffres et 2 colonnes de chiffres.
On calcule donc les valeurs propres de la matrice Hessienne H à l’aide de la formule |
| . Cette expression signifie déterminant et non pas valeur absolue ; exactement comme
déterminant de s’écrit | |.
Nous l’avons noté, la matrice Hessienne H est une matrice définie positive si et seulement si
toutes ses valeurs propres sont positives et ses valeurs propres sont les racines de l’équation
(dite équation caractéristique) | |
2.4- Détermination d’estimateurs sans biais des variances et covariance des estimateurs
MCO. Par soucis d’espace et de temps, nous ne démontrerons pratiquement aucune formule
dans cette section ; ce qui n’enlève rien à l’intérêt de la section.
9
2.4.1- Détermination de la variance de ̂
La formule permettant de trouver cette variance est la suivante.
̂( ̂) ̂̂ [ ]
∑ ̅
∑ ̂
̂ [ ]
∑ ̂ ∑ ̅ ̂ ∑ ̅ [ ]
La démonstration de la formule de calcul [13] est basée sur l’équation de la variance pour
régression simple :
10
̂ ̂
En arrangeant cette équation de manière à avoir chaque fois la variable moins sa moyenne,
autrement dit, en faisant en sorte que toutes les variables de cette équation soient centrées sur
leur moyenne, on a :
̂ ̂
En élevant au carré les deux cotés de cette égalité et en faisant une somme sur le résultat, on a :
∑ ∑ ̂ ∑ ̂ ∑ ̂ ̂
Or, ∑ ̂ ̂ = ∑ ̂ ̂
= ∑ ̂ ̂ ∑ ̂ = 0
Parce que
∑ ̂ = 0 (résultat établi par équation [4]) qui stipule que ∑ ̂ ̂ ∑ ̂ [ ]
∑ ∑ ̂ ∑ ̂ [14]
C’est cette équation [14] qui est appelée équation de la variance pour régression simple.
Poursuivons alors la démonstration.
̂ ̂ ̂
(-) ̅ ̂ ̂̅
-----------------------------
̂ ̅ ̂ ̅
11
∑ ̂ ̅ ̂ ∑ ̅ [15]
En substituant la valeur de ∑ ̂ (donnée par [15] à ∑ ̂ dans [14] on a :
∑ ∑ ̂ ̂ ∑ ̅
= ∑ ̂ + ̂ ∑ ̅
2.5- Inférence dans le modèle linéaire simple : recherche d’intervalle de confiance et tests
sur les valeurs des paramètres
P(t)
0 𝑡𝛼 𝑛 t
𝑡𝛼 𝑛
Alors, on a :
12
* +
Par conséquent
[ ]
̂
Est l’intervalle de confiance pour . Et puisque , on construit l’intervalle de
̂̂
confiance pour b comme suit :
̂
̂̂
̂̂ ̂ ̂̂
̂̂ ̂ ̂̂
[ ] ∑ ̂ = ̂
∑ ̂ ̂
Alors, =
Théorème : ̂ suit une loi de . On peut donc trouver dans la table de cette loi
les valeurs ayant la probabilité d’être dépassé et ayant la probabilité
d’être dépassé ; et l’on a
̂
[ ]
̂ ̂
̂ ̂
13
2.5.3- Tests d’hypothèses portant sur la valeur des paramètres
a) Comparaison de la valeur d’un paramètre à une valeur donnée.
a.1) Test unilatéral à gauche : Le test est dit unilatéral à gauche si l’ensemble de rejet de
est d’un seul tenant et se situe à l’extrémité gauche de la distribution de la loi de densité :
̅
̅
P
W
●
𝑡𝛼 𝑛 0 t
̂ ̅
̂̂
a.2) Test unilatéral à droite : Le test est dit unilatéral à droite si la zone de rejet de est
d’un seul tenant et se situe à l’extrémité droite de la distribution de la loi de densité.
̅
̅
𝜔
●
0 𝑡𝛼 𝑛 t
14
̂
̂̂
Règle de décision : si rejet de
a.3) Test bilatéral : le Test est bilatéral si l’ensemble de rejet de est en deux parties :
est alors dite bilatéral.
̅
̅
● ●
𝑡𝛼 𝑛 𝑡𝛼 𝑛 t
̂ ̅
̂̂
L’équation de la variance pour régression simple a été précédemment démontrée. Pour mémoire,
puisque nous devons l’utilisée subséquemment, reprenons systématiquement ici cette
démonstration mais sans avoir à y passer de temps pendent l’exposé du cours.
̅ ̅
̅ ̅ ̂ ̂
̅ ̂ ̅ ̂
̂
∑ ̂
∑ ̂ ∑
∑̂ ̂ ?
̂ ̂ (̂ ̂ )̂ ̂∑ ̂ ̂∑ ̂
Or
̂
∑ ̂ ̂
Par ailleurs ∑ ̂ ̅ ?
̂ ̂ ̂
̅ ̂ ̂̅
̂ ̅ ̂ ̅ ∑ ̂ ̅ ̂ ∑ ̅
∑ ̂ ∑ ̅ ̂ ∑ ̅
16
2.5.4.2- Mesure du pouvoir explicatif du modèle de régression simple : le coefficient de
détermination non ajusté R²
∑ ̂ ̅ ∑ ̂
∑ ̅ ∑ ̅
∑ ̅ ∑ ̂
[ ]
∑ ̅
17
Espérance mathématique de l’erreur de prévision
̂ ̂ ̂
(-)
---------------------------------
̂ ̂ (̂ )
̂ (̂ )
C’est dire que ̂ ̂ ̂ est une prédiction sans biais de . Plus l’échantillon est grand,
plus on a de chances de se rapprocher de la vraie valeur de .
̅
̂ [ ] [ ]
∑ ̅
18
Gauss Gauss (0, 1). Ne connaissent pas , on va l’estimer par ̂ ,
̂
donc Student ddl. Puisque et que [ ]
̂ ̂
– .
Nous pouvons écrire que
̂
̂
̂ ̂ ̂
̂ ̂ ̂ ̂ [ ]
Première formulation
Deuxième formulation
19
[ ] [ ] * + * +
Troisième formulation
En posant que :
[ ]=Y ; [ ]= X ; * +=A ; * + =U
H4 : * + * +
H5 :
où est la matrice unité de format . 5 deux hypothèses à la fois : l’hypothèse
d’homoscédasticité et l’hypothèse de non corrélation des erreurs. En effet,
* + [ ]
20
[ ]
Cette matrice est la matrice des variances et covariances des erreurs.
L’hypothèse 5, sous-entend deux hypothèses distinctes :
(Hypothèse d’homoscédasticité) ; et
( )
(Hypothèse de non corrélation des erreurs). D’où
( ) ( )
Par conséquent
3.2 - Estimation du modèle par la méthode des moindres carrés ordinaires (M.C.O.)
utilisant la différenciation matricielle
21
⟹ La matrice-produit est de dimension (1, 1). Autrement dit, la matrice-produit
est un scalaire. Or, en la transposant, on trouve = qui se trouve aussi
dans [1]. La t anspos e d’un scalai e tant ce même scalai e dans [1], et sont
éguaux.
L’équation [1] s’écrit alors :
La somme des carrés des résidus est alors :
( ̂ ) ̂ ̂
̂ ̂
̂
̂
⟹ ̂
est bien minimum pour ̂ car la dérivée seconde de par rapport à A
Il y a un théorème qui stipule qu’une matrice pré multipliée par sa transposée a pour résultat une
matrice définie positive. On pouvait aussi vérifier que la matrice est une matrice définie
positive parce que toutes ses valeurs propres sont positives. Si est une matrice , les
valeurs propres de sont les racines de l’équation dite équation caractéristique ci-après
| |
22
̂
{ ̂
( ̂) ̂ *( ̂ ( ̂ )) ( ̂ ̂ )+
*( ̂ ( ̂ )) ( ̂ ̂ )+= [( ̂ )( ̂ )]
[{ }{u }]
23
En remplacement par
Var( ̂ ) ̂
⟹ Var( ̂ ) ̂
or ̂ donc
̂ ̂ ̂ ̂
̂ ̂ ⟹̂ ̂ ̂
c- Convergence de ̂
̂ est un estimateur convergent de A si ̂ quand
Var( ̂ ) ̂
̂ ̂
Puisque ̂ est un estimateur sans biais de , en remplaçant dans la formule de
24
- ̂ ̂ est une somme de carrés finis
- Par ailleurs, en vertu de l’hypothèse 3, existe et donc n’est pas infinie
̂ ̂
Par conséquent ̂ ( ̂ ) ̂̂ tend vers zéro quand n tend vers l’infini ⟹ ̂ ,
u où = ̂ et = Y
u (en mettant u en facteur, on a :)
[ ]u
Donc
Mais si est un estimateur sans biais pour toutes les valeurs de A nous devons avoir CX = 0
⟹
[ ] alors,
Var( )
[ ] uu [ ])
[ ] uu [ ])
[ ][ ]
25
[ ]
Puisque uu et CX = 0
On a :
est une matrice semi définie positive car une matrice multipliée par sa propre transposée est
toujours semi définie positive.
On sait par ailleurs pour l’avoir précédemment démontré que l’estimateur ̂ dépend
linéairement de u.
Rappel
( ̂) ̂ avec
̂ ̂ ̂ ̂ ̂
̂ ̂ ̂ ̂ ̂
( ̂) [ ]
̂ ̂ ̂ ̂ ̂
Ainsi,
(̂ ) ̃ où ̃ est le j ième terme de la diagonale principale de la matrice .
(̂ ̂ ) ̃
Ainsi puisque ̂ [ ]
̂
̂
et
̂
̂̂
26
Il est donc possible de construire des tests de signification et des intervalles de confiance se
rapportant à la valeur des paramètres
●
𝑡𝛼 𝑛 𝑘 0 t
̅
̅
Zone de rejet de
̂
̂̂
Règle de décision : si ⟹
̅
̅ 𝜔
●
0 t
𝑡𝛼 𝑛 𝑘
̂
̂̂
27
Règle de décision : si ⟹
c) Test bilatéral
̅
̅
𝜔𝜔𝜔𝜔 𝜔𝜔
̂ t
𝑡𝛼 𝑛 𝑘 𝑡𝛼 𝑛 𝑘
̂̂
Règle de décision : si | | ⟹
3.4.1.2- Test de comparaison de la somme de deux paramètres d’une régression à une valeur
donnée
̂ ̂
̂ ̂ ̂
Calcul de ̂ ̂ ̂
On sait que
̂ ̂ ̂ ̂ ̂ ̂
Règle de décision
Si | | ⟹ rejet de
̂
̂̂
28
Pr * +
̂
̂̂
̂̂ ̂ ̂̂
̂̂ ̂ ̂̂
̂ ̂̂ ̂ ̂̂
̂ ̂
̂ ̂
29
Car ̂ et ̂
Preuve :
̂ ̂⟹̂ ̂
̂
̂ ⟹
̂ [ ]
̂
̂ [ ]
⟹
̂ = X’Y – X’Y = 0
Et puisque ̂ ̂
Alors ̂ ̂
∑ ̅ ̅
30
̂ ̂ est la somme des carrées des erreurs (SCE) et représente la portion de variation de Y
par rapport à sa moyenne qui n’est pas expliquée par le modèle de régression linéaire. Le terme
̂ ̂ est aussi appelé somme des carrés des résidus.
Le coefficient de détermination non ajusté dénoté R² qui exprime la variabilité de Y qui est
expliquée par le modèle linéaire est défini comme suit.
Par conséquent,
̂ ̂ ̅ ̂ ̂
̅ ̅
̂ ̂ ̅
̅
Pour ce test, le ratio de la variance expliquée et de la variance inexpliquée est distribué selon
une distribution F avec degré de liberté.
̂ ̂ ̅
̂ ̂
31
où R est le coefficient de corrélation linéaire multiple (R² = coefficient de détermination non
ajusté).
32
où ̂ est l’estimateur de .
Pour des valeurs données de , c’est précisément la valeur chiffrée de ̂ , donc de ̂ qui est
appelée précision ponctuelle.
Quand le nombre d’observations subséquentes, futures ou hors échantillon selon les cas ,
et deviennent des scalaires et devient un vecteur ligne. La variance de l’erreur de
prévision est alors :
33
[ ]
̂ [ ]
où
̂ ̂ ̂ ̂
̂
suit une loi de Student à degrés de liberté. On peut donc à l’aide de la statistique ,
construire un intervalle de prévision pour . Si nous dénotons par la valeur qui a la
probabilité d’être excédée par cette statistique on peut estimer que l’on a une
probabilité d’avoir la relation aléatoire suivante :
̂
̂ [ ]
L’intervalle de prévision pour à de confiance est alors
̂ ̂
avec ̂ [ ]
sd = Standard deviation= écart-type.
34