Vous êtes sur la page 1sur 34

UNIVERSITE FELIX HOUPHOUET – BOIGNY, ABIDJAN, COCODY, 2019 - 2020

UFR DES SCIENCES ECONOMIQUES ET DE GESTION


ECONOMETRIE APPLIQUEE, MASTER 1 GESTION

---------------------------------------
Cours d’initiation Master 1 gestion. pour n’avoir pas suivi de cours d’économétrie auparavant
---------------------------------------

Dr Soumahila KEBE, Ph. D.

Chapitre 1 - INTRODUCTION

1.1 : Ce qu`est l`économétrie


L`économétrie peut être définie comme l`application de méthodes statistiques et
mathématiques à l`analyse de statistiques économiques en vue de donner un contenu empirique
aux théories économiques et de les versifier ou de les réfuter. En fait, l`économétrie est une
discipline essentiellement basée sur la construction de modèles économétriques qu`il ne faut pas
confondre avec les modèles économiques. Un modèle économique est une représentation
logique (en général mathématique) qui décrit approximativement le comportement d`une
économie, d`un secteur d`une économie ou le comportement d`agent économique. La fonction
de consommation

où consommation et revenu est un exemple de modèle économique.

Un modèle économétrique est un modèle économique augmenté d`un terme stochastique ou


terme d’erreur. Par exemple le modèle économique évoqué

devient automatiquement un modèle économétrique des lors qu`on lui ajoute un terme
stochastique

1.2 : A quoi sert l`économétrie ?


L`économétrie permet d`atteindre trois principaux objectifs

1
a) L`économétrie permet de conduire des analyses structurelles c`est-à-dire de se servir de
modèles économétriques estimes comme instrument d`investigation pour tester des théories
rivales ou pour quantitativement mesurer, tester et valider des interrelations entre les variables
d`un système donné.

b) L`économétrie permet également de faire des prévisions. La prévision revient à utiliser un


modèle économétrique pour estimer, pour prédire la valeur quantitative de certaines variables en
dehors de l`échantillon de statistiques effectivement observé. La prévision sert de base a des
prises de décisions. Par exemple prédire une augmentation de la consommation d`énergie du
pays permet d`orienter certains projets d`investissements. De même, prédire une augmentation
des bénéfices d`une entreprise permet d`orienter certaines affectations de bénéfices.

c) L`économétrie sert aussi à évaluer les politiques économiques. Par exemple les modèles
économétries estimés peuvent être utilisés pour simuler la mise en œuvre de différentes
politiques et ainsi choisir entre des politiques économiques alternatives. Simuler la mise en
œuvre de différentes stratégies publicitaires et ainsi choisir entre des stratégies alternatives.

1.3 : Définition de quelques concepts de base utilisés en économétrie


En économétrie, on utilise souvent certains termes et concepts avec lesquels il est important de
se familiariser.

Variable : Une variable est une quantité économique susceptible de prendre l`une quelconque
de plusieurs valeurs possibles. Le chiffre d’affaire d’une entreprise, bénéfice qu’une entreprise
réalise, niveau des prix, le revenu national, la consommation, l`investissement, les importations,
les exportations etc., sont des variables fréquemment utilisées en économétrie.

Population : au sens économétrique, une population c`est l`ensemble de toutes les observations
possibles sur une variable.

Echantillon : C`est un sous ensemble de la population.

2
Constante : Une constante est une magnitude qui ne change pas et par conséquent représente
l`antithèses de la variable. Par exemple dans le modèle calculé ̂ , est une
constante.

Coefficient : Quand une constante est jointe à une variable, on l`appelle coefficient de cette
variable. Par exemple dans le modèle calculé ̂ , 0,75 étant une constante et le
revenu une variable, au regard de l`expression 0,75 0,75 est un coefficient, le coefficient de
la variable . (0,75 est donc un coefficient et non pas une constante).

Constante paramétrique ou paramètre : Quand un nombre spécifique n`est pas assigné à un


coefficient parce que ce coefficient est inconnu et par conséquent peut prendre virtuellement
n`importe quelle valeur, on l`appelle constante paramétrique ou simplement paramètre. Dans le
modèle théorique , étant une variable, est un paramètre ou une
constante paramétrique.

Variable dépendante ou variable expliquée : Une variable dépendante ou variable expliquée


est une variable dont la valeur est fournie par un modèle à une seule équation. Dans le modèle
théorique , (modèle à une seule équation), est la variable dépendante ou
variable expliquée.

Variable indépendante ou variable explicative : Une variable indépendante ou variable


explicative est une variable d`un modèle à une seule équation et dont la valeur est connue à
priori ou déterminée à l`avance, indépendamment du modèle. Par exemple dans le modèle de
consommation (modèle à une seule équation), est une variable
indépendante ou si l’on préfère, une variable explicative.

Variables endogènes : Les variables endogènes sont les variables dépendantes dans un système
d`équations simultanées. Autrement dit, ce sont des variables déterminées par le système, même
si elles apparaissent aussi comme variables explicatives dans d`autres équations du système.

3
Variables exogènes : Ce sont les variables dont les valeurs sont déterminées en dehors du
système d`équations (simultanées) considéré. Supposons par exemple que nous ayons le
système d`équations simultanées (ou modèle d’équations simultanées) suivant :

Dans ce cas, il s’agit bien d’un modèle d’équations simultanées puisque qui est variable
expliquée dans la première équation devient variable explicative dans la deuxième équation. Et
qui est variable expliquée dans la deuxième équation devient variable explicative dans la
première équation. Alors, dans ce système d`équations simultanées à deux équations, et
sont des variables endogènes. est une variable exogène.

Terme de l`erreur : Le terme de l`erreur, encore appelé terme stochastiques ou perturbation est
une variable caractérisant la divergence qui émerge entre les valeurs de (variable expliquée
ou dépendante) concrètement observée et les valeurs qui seraient données a par une relation
fonctionnelle exacte. Partant du modèle économétrique , le terme tel que
est donc par définition le terme de l`erreur.

Un estimateur : C`est une règle d`estimation, une formule ou une méthode pour estimer un
paramètre. Exemple l`estimateur de la moyenne de X est :

̅

Une estimation : C`est la valeur numérique résultant de l`application d`une formule


(estimateur) a des données. ̅ par exemple.

Série chronologique : On appelle série chronologique, série temporelle ou encore plus


simplement chronique, une suite d`observation ordonnées dans le temps. Exemple :
. Autrement dit, une série chronologique est une suite d`observations
organisées suivant leur séquence dans le temps.

Série transversale : On appelle série transversale ou coupe transversale, l`ensemble des points
d`observation de différents secteurs (par exemple dépense de consommation et revenu
disponible de chaque famille) en un point donné dans le temps disons en 2018.
4
Chapitre 2 – MODELE DE REGRESSION LINEAIRE SIMPLE : Yt = a + bXt + εt

2.1- Définition du modèle de régression linéaire simple


Un modèle de régression linéaire simple est une régression dans laquelle il n`y a qu`une seule
variable explicative. Par exemple le modelé stochastique :
[1]

- = variable dépendante ou expliquée
- = variable indépendante ou explicative
- = variable aléatoire ou terme d`erreur

On dispose de n observations sur et c`est-à-dire de n couples qui sont des


réalisations de X et Y.

et sont des paramètres réels inconnus qui doivent être estimés à l`aide des observations

2.2- Hypothèses du modèle linéaire simple


A cause de la présence de la variable aléatoire dans de modèle [1], il s’agit d’un modèle
stochastique. Pour estimer les paramètres et étant données observations sur et de
telle sorte que les estimateurs soient linéaires sans biais et a variance minimale et aussi pour
tester les coefficients et construire les intervalles de confiance, l`on est amené à formuler les
hypothèses suivantes :

● H1 : Le modeler est linéaire en ou en n`importe quelle transformation de .

● H2 : Les valeurs sont observées sans erreur c`est-à-dire que est non aléatoire.

● H3 : ce qui veut dire que l’espérance mathématique de l`erreur (la


moyenne arithmétique de l`erreur) est nulle. Autrement dit, on suppose que dans le modèle, qu’

5
il peut y avoir des erreurs de sur dimension et des erreurs de sous dimension mais la moyenne
des erreurs (ou si l’on préfère, l`erreur moyenne) est nulle et donc le modèle est bien spécifié.

● H4 : [ ] . Cela signifie que la variance de l`erreur


est une quantité finie , que cette variance est constante et commune à toutes les périodes.
Cela signifie également que le risque de l`amplitude de l`erreur est le même quelle que soit la
période. C`est l`hypothèses d`homoscedasticité. Dans le cas où cette hypothèse ne serait pas
vérifiée, on parlerait alors de modèle hétéroscedastique.

● H5 : On arrive formulation par ce que


E[( ] = car .
C`est à dire que deux erreurs relatives à deux observations différentes aux temps t et s sont non
corrélées ou indépendantes entre elles. C`est l`hypothèse d`absence d`autocorrélations entre les
erreurs .

● H6 : En clair, le terme erreur est indépendant des n variables


explicatives . [Cette hypothèse suit automatiquement si est considéré comme non
aléatoire, ].

● H7 : C`est l`hypothèse de normalité. Elle signifie que suit une loi normale
. Autrement dit les sont normalement distribués . En conjonction avec et cela
implique que les sont indépendamment et normalement distribués avec moyenne (espérance
mathématique) zéro et variance commune . Mathématiquement, on écrit cela comme suit :

avec .

● H8 : ∑ ̅

qd
Quantité finie (moyenne empirique)

6

qd
Quantité finie (variance empirique)
H8 on suppose lorsque devient très grand, que les premiers moments empiriques de X
sont finis. On utilise cette hypothèse pour préciser les propriétés asymptotiques des estimateurs
(de ).

2.3- Estimation des paramètres par méthode des moindres carrés ordinaires (MCO)
Pour estimer les paramètres a et b du modèle par méthode des moindres carrés ordinaires
(MCO), on commence par se référer au modèle initial :
[ ].
On trouve l’expression du terme de l`erreur , en soustrayant des valeurs de la variable
expliquée (valeurs concrètement observées), les valeurs qui seraient données a par une
relation fonctionnelle exacte représentées par la partie systématique du modèle initial c’est-à-
dire . Autrement dit,
[ ] [ ]
Puis on élève les deux membres de cette [ ] au carré et on fait la somme de ces carrés dans
l’ensemble de l’échantillon. On obtient alors :
∑ ∑ [ ]
La méthode des moindres carrés ordinaires consiste à choisir les valeurs des paramètres et b
qui minimisent , la somme des carrés des erreurs, [ ]
Pour minimiser Q par rapport à a et b, il faut égaler à zéro la première dérivée de Q par rapport à
et par rapport à b.

∑ ̂ ̂ [ ]
̂

∑ ̂ ̂∑

∑ ̂ ̂∑

∑ ∑
̂ ̂

̅ ̂ ̂̅

̂ ̅ ̂̅ [ ]

7
∑ ̂ ̂ [ ]
̂

∑ ̂∑ ̂∑

∑ ̂∑ ̂∑ [ ]
En substituant la valeur de ̂ (donnée par [5] à ̂ dans [7] on a :
∑ ∑ (̅ ̂ ̅) ̂∑

̅( ̅ ̂ ̅) ̂∑
̅̅ ̂ ̅ ̂∑

∑ ̅̅ ̂ ∑ ̅

∑ ̅̅
̂
∑ ̅

∑ ̅ ̅
[8]
∑ ̅

Condition de second rang pour voir si les valeurs de ̂ ̂ trouvées minimisent ou maximisent
[ ], la somme des carrés des erreurs. Pour que ̂ ̂ minimisent, la somme des carrés des
erreurs, la matrice Hessienne (matrice formée des dérivées partielles secondes de la somme des
carrés des erreurs, [ ]) doit être définie positive.
∑ ∑ [ ]
Suite aux dérivations partielles secondes, la matrice Hessienne s’écrit :

[ ]
Pour que ̂ et ̂ déterminent un minimum et donc que la matrice H soit définie positive, il faut
que toutes les valeurs propres de H soient positives.
Plus spécifiquement :

8
∑ ∑ [ ]

∑ ∑







La matrice Hessienne H est donc


[ ]
∑ ∑
[ ]
Puisque la taille de l’échantillon n est connue et puisque la série des observations X est aussi
connue, la matrice H ne comprendra que des chiffres (pas des lettres). En clair, H est une
matrice de 2 lignes de chiffres et 2 colonnes de chiffres.
On calcule donc les valeurs propres de la matrice Hessienne H à l’aide de la formule |
| . Cette expression signifie déterminant et non pas valeur absolue ; exactement comme
déterminant de s’écrit | |.
Nous l’avons noté, la matrice Hessienne H est une matrice définie positive si et seulement si
toutes ses valeurs propres sont positives et ses valeurs propres sont les racines de l’équation
(dite équation caractéristique) | |

2.4- Détermination d’estimateurs sans biais des variances et covariance des estimateurs
MCO. Par soucis d’espace et de temps, nous ne démontrerons pratiquement aucune formule
dans cette section ; ce qui n’enlève rien à l’intérêt de la section.
9
2.4.1- Détermination de la variance de ̂
La formule permettant de trouver cette variance est la suivante.

̂( ̂) ̂̂ [ ]
∑ ̅

2.4.2- Détermination de la variance de ̂


La variance de ̂ est trouvée à l’aide de la formule
̅
̂̂ ̂̂ [ ] [ ]
∑ ̅

2.4.3- Détermination de la covariance de ̂ et ̂


On démontre que
̅
̂
( ̂ ̂) ̂̂ ̂ [ ]
∑ ̅

2.4.4- Détermination de la variance du terme de l’erreur

Dans les formules de ̂̂ , ̂ ( ̂ ) et ̂ ( ̂ ̂ ), nous avons la variance des erreurs qui


est inconnue. Il nous faut donc lui trouver un estimateur sans biais ( ̂ ). Un estimateur donné,
disons ̂ est sans biais si, en prenant son espérance mathématique on trouve le paramètre qui
lui correspond dans la population mère : E( ̂ ) = .
On démontre que
∑ ̂
[ ]

Par conséquent, en appelant ̂ l’estimateur sans biais de

∑ ̂
̂ [ ]

Il reste alors à trouver au moins un moyen de détermination de ∑ ̂ Une formule pour


déterminer assez rapidement cette entité est la suivante :

∑ ̂ ∑ ̅ ̂ ∑ ̅ [ ]

La démonstration de la formule de calcul [13] est basée sur l’équation de la variance pour
régression simple :

10
̂ ̂

En arrangeant cette équation de manière à avoir chaque fois la variable moins sa moyenne,
autrement dit, en faisant en sorte que toutes les variables de cette équation soient centrées sur
leur moyenne, on a :

̂ ̂

En élevant au carré les deux cotés de cette égalité et en faisant une somme sur le résultat, on a :
∑ ∑ ̂ ∑ ̂ ∑ ̂ ̂

Or, ∑ ̂ ̂ = ∑ ̂ ̂
= ∑ ̂ ̂ ∑ ̂ = 0
Parce que
∑ ̂ = 0 (résultat établi par équation [4]) qui stipule que ∑ ̂ ̂ ∑ ̂ [ ]

Par ailleurs, ∑ ̂ ̂ = 0 car,


∑ ̂ ̂ = ∑ ̂ (̂ ̂ )
= ̂∑ ̂ - ̂∑ ̂ = 0 Puis que [4] établit que ∑ ̂ = 0 et [6] établit que ∑ ̂ = 0
Par conséquent, il reste que

∑ ∑ ̂ ∑ ̂ [14]
C’est cette équation [14] qui est appelée équation de la variance pour régression simple.
Poursuivons alors la démonstration.
̂ ̂ ̂

(-) ̅ ̂ ̂̅

-----------------------------

̂ ̅ ̂ ̅

11
∑ ̂ ̅ ̂ ∑ ̅ [15]
En substituant la valeur de ∑ ̂ (donnée par [15] à ∑ ̂ dans [14] on a :

∑ ∑ ̂ ̂ ∑ ̅

= ∑ ̂ + ̂ ∑ ̅

∑̂ ∑ ̂ ∑ ̅ (Résultat [13] donc CFD)

2.5- Inférence dans le modèle linéaire simple : recherche d’intervalle de confiance et tests
sur les valeurs des paramètres

2.5.1- Intervalles de confiance pour les paramètres

Etant donné le modèle adopté ; déterminer un intervalle de confiance pour b


par exemple, c’est trouver un intervalle [ ] tel que
[ ] où est le risque d’erreur.
̂
Student à (n – 2) degrés de liberté. Ce qui signifie que la statistique suit une
̂̂
loi de Student à (n – 2) degrés de liberté. Il est important de noter que la loi de Student est
symétrique.

Graphique représentant la distribution de la loi de densité (loi de Student)

P(t)

0 𝑡𝛼 𝑛 t
𝑡𝛼 𝑛

Alors, on a :

12
* +

Par conséquent
[ ]
̂
Est l’intervalle de confiance pour . Et puisque , on construit l’intervalle de
̂̂
confiance pour b comme suit :
̂
̂̂
̂̂ ̂ ̂̂

̂̂ ̂ ̂̂

L’intervalle de confiance de b pour la probabilité P est donc


̂ ̂̂ ̂ ̂̂

2.5.2- Intervalle de confiance pour la variance résiduelle


Il a été établi précédemment que
∑ ̂
̂ [ ]

[ ] ∑ ̂ = ̂

∑ ̂ ̂
Alors, =
Théorème : ̂ suit une loi de . On peut donc trouver dans la table de cette loi
les valeurs ayant la probabilité d’être dépassé et ayant la probabilité
d’être dépassé ; et l’on a
̂
[ ]

D’où l’intervalle de confiance au seuil à risques symétriques pour

̂ ̂
̂ ̂

13
2.5.3- Tests d’hypothèses portant sur la valeur des paramètres
a) Comparaison de la valeur d’un paramètre à une valeur donnée.
a.1) Test unilatéral à gauche : Le test est dit unilatéral à gauche si l’ensemble de rejet de
est d’un seul tenant et se situe à l’extrémité gauche de la distribution de la loi de densité :
̅
̅

P
W

𝑡𝛼 𝑛 0 t
̂ ̅
̂̂

Règle de décision : si rejet de

a.2) Test unilatéral à droite : Le test est dit unilatéral à droite si la zone de rejet de est
d’un seul tenant et se situe à l’extrémité droite de la distribution de la loi de densité.
̅
̅

𝜔

0 𝑡𝛼 𝑛 t

14
̂
̂̂
Règle de décision : si rejet de

a.3) Test bilatéral : le Test est bilatéral si l’ensemble de rejet de est en deux parties :
est alors dite bilatéral.
̅
̅

● ●
𝑡𝛼 𝑛 𝑡𝛼 𝑛 t

̂ ̅
̂̂

Règle de décision : | | rejet de . Autrement dit, si la valeur absolue de


, alors on rejette l’hypothèse nulle .

2.5.4- Analyse de la variance pour régression simples

2.5.4.1- Equation de la variance pour régression simple

L’équation de la variance pour régression simple a été précédemment démontrée. Pour mémoire,
puisque nous devons l’utilisée subséquemment, reprenons systématiquement ici cette
démonstration mais sans avoir à y passer de temps pendent l’exposé du cours.

̅ ̅
̅ ̅ ̂ ̂
̅ ̂ ̅ ̂
̂

En élevant au carré et en sommant sur l’ensemble des observations on a :


15
∑ ̅ ∑ ̂ ̅ ∑ ̂ ∑ ̂ ̅ ̂
Il est clair que le dernier terme est nul.
∑ ̂ ̅ ̂ ?
∑ ̂ ̅ ̂ ∑̂ ̂ ̅∑ ̂

 ∑ ̂
∑ ̂ ∑

 ∑̂ ̂ ?

̂ ̂ (̂ ̂ )̂ ̂∑ ̂ ̂∑ ̂

Or
̂
∑ ̂ ̂

Ainsi, l’équation de la variance pour régression simple s’écrit


∑ ̅ ∑ ̂ ̅ ∑ ̂

où ∑ ̅ Variation totale de y ou somme totale des carrés (STC)


∑ ̂ ̅ Variation de y expliquée par X ou somme des carrés de la régression (SCR)
∑ ̂ ∑ ̂ Variation inexpliquée ou somme des carrés des erreurs (SCE).

Par ailleurs ∑ ̂ ̅ ?
̂ ̂ ̂

̅ ̂ ̂̅

̂ ̅ ̂ ̅ ∑ ̂ ̅ ̂ ∑ ̅

∑ ̂ ∑ ̅ ̂ ∑ ̅

16
2.5.4.2- Mesure du pouvoir explicatif du modèle de régression simple : le coefficient de
détermination non ajusté R²

La formule du coefficient de détermination non ajusté R² est trouvée de la manière suivante

∑ ̂ ̅ ∑ ̂
∑ ̅ ∑ ̅
∑ ̅ ∑ ̂
[ ]
∑ ̅

2.6- Problèmes de Prévision


2.6.1 : La notion de prévision en économétrie
Nous l’avons entrevu dans la section 1.2, en économétrie la prévision est entendue dans un sens
large. C’est non seulement prévoir une valeur dans le futur (Forecast), mais c’est aussi simuler
le passé si l’on est dans un cadre de série temporelle (backcast) et prédire des valeurs au cas où
l’on se situerait dans le cadre de données en coupe instantanées.
Qu’il s’agisse de l’une ou l’autre de ces situations, le problème revient à déterminer la valeur
qui doit être attribuée à la variable expliquée lorsque l’on connait les valeurs des variables
explicatives.

Soit avec . On a estimé a et b par ̂ et ̂ en raisonnant sur une


période n. Dans le cadre de la prévision, on se situe à une date au-delà de n et on cherche la
valeur de la variable endogène à cette date. Connaissant , la valeur de la variable exogène à la
date correspondant à la prévision, la valeur vraie prise par dans la prévision sera
. Ne connaissant pas a et b, on va estimer ce modèle par ̂ ̂ ̂ . L’écart entre
̂ et est appelé erreur de prévision.
̂
Nous allons alors étudier les propriétés de c’est-à-dire calculer son espérance mathématique
et sa variance.

17
Espérance mathématique de l’erreur de prévision

̂ ̂ ̂

(-)
---------------------------------
̂ ̂ (̂ )

̂ (̂ )

Car ̂ est un estimateur sans biais de a ˂==˃ ̂ ==˃ ̂ = ̂ -a


= a–a=0
̂ est un estimateur sans biais de b ˂==˃ ( ̂ ) ==˃ ( ̂ ) = ( ̂) - b
= b–b=0

C’est dire que ̂ ̂ ̂ est une prédiction sans biais de . Plus l’échantillon est grand,
plus on a de chances de se rapprocher de la vraie valeur de .

Variance de l’erreur de prévision


On démontre que la Variance de l’erreur de prévision est la suivante

̅
̂ [ ] [ ]
∑ ̅

A présent, on va utiliser cette formule pour déterminer un intervalle de prévision pour

Intervalle de prévision pour


Gaussien Gaussien

18
Gauss Gauss (0, 1). Ne connaissent pas , on va l’estimer par ̂ ,

̂
donc Student ddl. Puisque et que [ ]
̂ ̂

– .
Nous pouvons écrire que
̂
̂
̂ ̂ ̂

̂ ̂ ̂ ̂ [ ]

Chapitre 3 : MODELE LINEAIRE GENERAL ( M.L.G. ) : Y = XA + U

3.1- Présentation du modèle


Il est souvent difficile de concevoir que des phénomènes aussi complexes que les phénomènes
économiques puissent valablement être expliqués par une seule variable. On a alors recours au
modèle linéaire général qui comporte plusieurs variables explicatives.

3.1.1 - Principales formulations du modèle


Le modèle linéaire général peut être présenté sous différents angles selon les particularités de sa
structure que l’on veut exploiter ou mettre en relief. A ce propos, particulièrement trois
formulations différentes mais mutuellement équivalentes retiennent notre attention.

Première formulation

où est la variable à expliquer sont k variables explicatives et est une erreur


aléatoire inconnue.

Deuxième formulation

19
[ ] [ ] * + * +

Troisième formulation
En posant que :

[ ]=Y ; [ ]= X ; * +=A ; * + =U

conduit à la forme compacte du modèle qui est la Troisième formulation :

3.1.2 - Hypothèses d’application de la méthode des moindres carrés


On suppose que
H1 : Le nombre de composantes (n) est plus grand que le nombre de variables explicatives (k) :
.
H2 : Les variables explicatives sont des quantités connues non aléatoires. Autrement dit, les
valeurs de X sont observées sans erreur.
H3 : La matrice X de format est de rang . Cela revient à dire qu’il doit être possible
d’extraire de X un déterminant non nul d’ordre k. Cette hypothèse a pour but de garantir
l’inversion de la matrice produit d’ordre k, (X’ X).

H4 : * + * +

H5 :
où est la matrice unité de format . 5 deux hypothèses à la fois : l’hypothèse
d’homoscédasticité et l’hypothèse de non corrélation des erreurs. En effet,

* + [ ]

20
[ ]
Cette matrice est la matrice des variances et covariances des erreurs.
L’hypothèse 5, sous-entend deux hypothèses distinctes :

(Hypothèse d’homoscédasticité) ; et
( )
(Hypothèse de non corrélation des erreurs). D’où

( ) ( )

Par conséquent

H6 : Le vecteur suit une loi normale multivariée de paramètres , c’est-à-dire que


est un vecteur où chaque composante est normale.

3.2 - Estimation du modèle par la méthode des moindres carrés ordinaires (M.C.O.)
utilisant la différenciation matricielle

Le modèle est Y= XA + u où u est le terme de l’erreur. Donc u = Y – XA


∑ or,
Alors
[1]
Dans cette équation dénommée [1], intéressons-nous aux dimensions des matrices.

21
⟹ La matrice-produit est de dimension (1, 1). Autrement dit, la matrice-produit
est un scalaire. Or, en la transposant, on trouve = qui se trouve aussi
dans [1]. La t anspos e d’un scalai e tant ce même scalai e dans [1], et sont
éguaux.
L’équation [1] s’écrit alors :
La somme des carrés des résidus est alors :

( ̂ ) ̂ ̂
̂ ̂
̂
̂

⟹ ̂
est bien minimum pour ̂ car la dérivée seconde de par rapport à A

est une matrice définie positive.

Il y a un théorème qui stipule qu’une matrice pré multipliée par sa transposée a pour résultat une
matrice définie positive. On pouvait aussi vérifier que la matrice est une matrice définie
positive parce que toutes ses valeurs propres sont positives. Si est une matrice , les
valeurs propres de sont les racines de l’équation dite équation caractéristique ci-après
| |

3.3 - Propriétés des estimateurs MCO de la matrice des coefficients ̂


3.3.1 : L’estimateur ̂ est linéaire en Y
Puisque ̂ , l’expression de dimension est une quantité
exogène dans la mesure où elle ne dépend que de la matrice X dont les éléments sont exogènes.
On peut donc traiter comme une matrice de constante

22
̂
{ ̂

Par conséquent ̂ est linéaire en Y

3.3.2 : L’estimateur ̂ est sans biais


̂ . ̂ serait sans biais si ( ̂ ) le vecteur ̂ est aléatoire puisque Y= XA + U.
Remplaçons dans l’expression de ̂ par cette valeur
̂ [ ] soit
̂
̂

Prenons à présent l’espérance mathématique de cette nouvelle formulation de ̂


( ̂) [ ]

Car A est une quantité certaine. Par hypothèse, donc ( ̂ )


l’estimateur ̂ est sans biais.

3.3.3 : l’estimateur ̂ est convergent


̂ est un estimateur convergent de A si ̂ quand

a- Estimation de la matrice des variances et covariances de ̂ ̂

( ̂) ̂ *( ̂ ( ̂ )) ( ̂ ̂ )+

*( ̂ ( ̂ )) ( ̂ ̂ )+= [( ̂ )( ̂ )]

Pour prouver que ̂ est sans biais on avait trouvé :


̂ u
̂ u et
(̂ ) [ u] u
Var( ̂ ) = ̂

[{ }{u }]

23
En remplacement par
Var( ̂ ) ̂

⟹ Var( ̂ ) ̂

b- Estimation de la matrice des variances et covariances du terme de l’erreur ̂

On démontre que l’estimateur sans biais de ̂ de la variance est :


̂ ̂
̂

où est le nombre de degré de liberté


̂ ̂ ̂ ∑̂ ̂ ̂
̂ ̂ ̂ ̂
Autre formulation
̂ ̂ ̂ ̂
̂ (X’Y)+ ̂ ̂

or ̂ donc
̂ ̂ ̂ ̂
̂ ̂ ⟹̂ ̂ ̂

c- Convergence de ̂
̂ est un estimateur convergent de A si ̂ quand

Var( ̂ ) ̂

̂ ̂
Puisque ̂ est un estimateur sans biais de , en remplaçant dans la formule de

( ̂ ), par son estimateur sans biais, on obtient :


̂ ̂
̂ ( ̂) ̂̂ ̂

24
- ̂ ̂ est une somme de carrés finis
- Par ailleurs, en vertu de l’hypothèse 3, existe et donc n’est pas infinie
̂ ̂
Par conséquent ̂ ( ̂ ) ̂̂ tend vers zéro quand n tend vers l’infini ⟹ ̂ ,

est un estimateur convergent de A.

3.3.4 : L’estimateur ̂ est à variance minimale


̂ est linéaire en Y, sans biais et sa matrice de variance et covariance est . Comment
montrer que cette variance est minimale c’est-à-dire la plus petite possible ?
Tout estimateur linéaire autre que ̂ serait nécessairement de la forme ̂ où est le
concurrent de ̂
On sait que ̂ et Y= XA + u donc
̂
u
u
u donc

u où = ̂ et = Y
u (en mettant u en facteur, on a :)
[ ]u

Donc

Mais si est un estimateur sans biais pour toutes les valeurs de A nous devons avoir CX = 0

[ ] alors,
Var( )
[ ] uu [ ])
[ ] uu [ ])
[ ][ ]

25
[ ]
Puisque uu et CX = 0
On a :

est une matrice semi définie positive car une matrice multipliée par sa propre transposée est
toujours semi définie positive.

3.4 - inférence dans le MLG


La théorie statistique classique des tests de Neymann ici comme dans des régressions simples,
repose sur une hypothèse préalable : le vecteur aléatoire u obéit à une loi de probabilité de
Laplace-Gauss. C’est-à-dire .

On sait par ailleurs pour l’avoir précédemment démontré que l’estimateur ̂ dépend
linéairement de u.

Rappel
( ̂) ̂ avec
̂ ̂ ̂ ̂ ̂
̂ ̂ ̂ ̂ ̂
( ̂) [ ]
̂ ̂ ̂ ̂ ̂
Ainsi,
(̂ ) ̃ où ̃ est le j ième terme de la diagonale principale de la matrice .
(̂ ̂ ) ̃

Ainsi puisque ̂ [ ]
̂
̂

et
̂
̂̂

26
Il est donc possible de construire des tests de signification et des intervalles de confiance se
rapportant à la valeur des paramètres

3.4.1- Tests d’hypothèses


3.4.1.1- Test d’hypothèses pour un seul coefficient à la fois
a) Test unilatéral à gauche


𝑡𝛼 𝑛 𝑘 0 t
̅
̅

Zone de rejet de
̂
̂̂
Règle de décision : si ⟹

b) Test unilatéral à droite

̅
̅ 𝜔

0 t
𝑡𝛼 𝑛 𝑘
̂
̂̂

27
Règle de décision : si ⟹

c) Test bilatéral
̅
̅
𝜔𝜔𝜔𝜔 𝜔𝜔
̂ t
𝑡𝛼 𝑛 𝑘 𝑡𝛼 𝑛 𝑘
̂̂
Règle de décision : si | | ⟹

3.4.1.2- Test de comparaison de la somme de deux paramètres d’une régression à une valeur
donnée

̂ ̂
̂ ̂ ̂

Calcul de ̂ ̂ ̂

On sait que

̂ ̂ ̂ ̂ ̂ ̂
Règle de décision
Si | | ⟹ rejet de

3.4.2- Intervalles de confiance


3.4.2.1- Intervalle de confiance pour les paramètres

̂
̂̂

28
Pr * +

̂
̂̂

̂̂ ̂ ̂̂

̂̂ ̂ ̂̂

̂ ̂̂ ̂ ̂̂

3.4.2.2- Intervalle de confiance pour la variance résiduelle


Théorème : ̂ suit une loi de . On peut donc trouver dans la table de cette loi les
valeurs ayant la probabilité d’être dépassé et ayant la probabilité d’être
dépassé. Et l’on a
̂
[ ]

D’où l’intervalle de confiance au seuil à risques symétriques pour

̂ ̂
̂ ̂

3.5 - Analyse de la variance pour régressions multiples


3.5.1 : Equation de la variance
Etant donnée l’équation Y = XA + u, l’équation de prédiction selon la MCO (méthode des
moindres carrés est :
̂ ̂ ̂ ̂
̂ ̂ ̂ ̂
̂ ̂ ̂ ̂
̂ ̂ ̂ ̂ ̂ ̂ ̂ ̂
̂ ̂ ̂ ̂

29
Car ̂ et ̂
Preuve :
̂ ̂⟹̂ ̂
̂
̂ ⟹
̂ [ ]
̂
̂ [ ]

̂ = X’Y – X’Y = 0
Et puisque ̂ ̂
Alors ̂ ̂

2) Les équations dénommées équations de la variance sont les suivantes :


̂ ̂ ̂ ̂
̂ ̂ ̂ ̂
3.5.2 : Mesure du pouvoir explicatif du M. L. G. : calcul de R²

Nous avons la relation


̂ ̂ ̂ ̂
Puisque par hypothèse , Y n’est pas centré sur sa moyenne arithmétique, c’est-à-dire ̅ , on
tient le raisonnement suivant :
Il est conventionnel de mesurer la variation de Y autour de (par rapport à) sa moyenne moyenne
̅ en faisant

∑ ̅ ̅

 Le terme ̅ est appelé somme totale des carrés (STC) corrigée


 L’expression ( ̂ ̂ ̅ est appelée somme des carrés de la régression (SRC) et
représente la portion de la somme totale des carrés (STC) qui est expliquée par la régression.

30
 ̂ ̂ est la somme des carrées des erreurs (SCE) et représente la portion de variation de Y
par rapport à sa moyenne qui n’est pas expliquée par le modèle de régression linéaire. Le terme
̂ ̂ est aussi appelé somme des carrés des résidus.
Le coefficient de détermination non ajusté dénoté R² qui exprime la variabilité de Y qui est
expliquée par le modèle linéaire est défini comme suit.

Par conséquent,
̂ ̂ ̅ ̂ ̂
̅ ̅
̂ ̂ ̅
̅

3.5.3 : Test de signification globale du M. L. G.


L’analyse de la variance a pour finalité de tester l’hypothèse selon laquelle aucune des variables
explicatives aide à expliquer les variations de Y autour de sa moyenne. Autrement dit, l’analyse
de la variance permet de tester :

il existe au moins un des coefficients non nul

Alternativement on peut aussi formuler les hypothèses comme suit

R² n’est pas statistiquement significatif


est statistiquement significatif

Pour ce test, le ratio de la variance expliquée et de la variance inexpliquée est distribué selon
une distribution F avec degré de liberté.

̂ ̂ ̅
̂ ̂

31
où R est le coefficient de corrélation linéaire multiple (R² = coefficient de détermination non
ajusté).

Règle de décision : si le F calculé ( ) excède le trouvé dans la table de F


Snédécor pour un niveau particulier de confiance que l’on se donne alors l’hypothèse nulle selon
laquelle il n’y a pas de dépendance sur les variables explicatives (ou selon laquelle R² n’est pas
statistiquement significatif) est rejetée.

3.6 - Prévision dans le MLG

3.6.1 : Prévision ponctuelle


Etant donné le modèle linéaire général , le modèle pour un ensemble donné de
observations (qui peuvent être des observations subséquentes, futures ou hors échantillon) est
défini par la relation

où est un vecteur de moyenne 0 et de covariance avec indépendant de u.


Ainsi, pour convenance en matière de notation, nous dénotons , les valeurs subséquentes,
futures ou hors échantillon, de la variable expliquée et les valeurs subséquentes des variables
explicatives. est donc un vecteur de dimension et , une matrice de
valeurs connues.

On estime le modèle initial à partir d’un échantillon de n observations de Y pour


obtenir
̂ ̂
Puis supposant que le processus d’échantillonnage ou de génération de données demeure pour
, le même qu’il était pour Y, on utilise le coefficient de régression estimé ̂ pour prévoir les
nouvelles observations de variables expliquées associées à des variables explicatives .
Puisqu’on continue de laisser ̂ être l’estimateur MCO de A, la fonction de
prédiction moindres carrés de est :
̂

32
où ̂ est l’estimateur de .
Pour des valeurs données de , c’est précisément la valeur chiffrée de ̂ , donc de ̂ qui est
appelée précision ponctuelle.

3.6.2 : Erreur de prévision


Dans ces conditions, l’erreur de précision est la variable aléatoire :
̂ ̂
̂
̂

3.6.3 : L’espérance mathématique de l’erreur de prévision


Les hypothèses du M. L. G. restant de mise, l’espérance mathématique de l’erreur de prévision
anticipée. Alors encore appelée l’erreur de prévision anticipée ou l’erreur moyenne en
échantillonnage répété est .
[ ̂ ]
(̂ )
Dans la mesure où l’erreur de prévision ̂ est un vecteur aléatoire, la question suivante est
sa variabilité d’échantillonnage .

3.6.4 : La matrice des variances et covariances des erreurs de prévision


On démontre que la matrice des variances et covariances des erreurs de prévision est donnée
par :
[ ].
Le modèle pour les observations faut-il le rappeler est :

Quand le nombre d’observations subséquentes, futures ou hors échantillon selon les cas ,
et deviennent des scalaires et devient un vecteur ligne. La variance de l’erreur de
prévision est alors :

33
[ ]

3.6.4 : Prévision par intervalles


L’erreur de prévision ̂ est distribuée suivant une loi normale avec
[ ] Lorsque dans l’expression de la variance de l’erreur de prévision
l’on remplace la variance théorique par la variance empirique ̂ , alors la statistique
̂

̂ [ ]

̂ ̂ ̂ ̂
̂

suit une loi de Student à degrés de liberté. On peut donc à l’aide de la statistique ,
construire un intervalle de prévision pour . Si nous dénotons par la valeur qui a la
probabilité d’être excédée par cette statistique on peut estimer que l’on a une
probabilité d’avoir la relation aléatoire suivante :
̂

̂ [ ]
L’intervalle de prévision pour à de confiance est alors
̂ ̂

avec ̂ [ ]
sd = Standard deviation= écart-type.

34

Vous aimerez peut-être aussi