Vous êtes sur la page 1sur 52

Econométrie [Tapez ici] L3 Economie

Econométrie
HISTORIQUE DE L’ECONOMETRIE ............................................................................................................................... 3
SECTION 1 – DES ORIGINES DE L’ECONOMETRIE A L’AGE D’OR DE LA MODELISATION MACRO ECONOMETRIQUE....................................... 3
1 – Les premières études empiriques entre le 17ème et le 18ème siècle ........................................................................ 3
2 – Les études au 19ème siècle ..................................................................................................................................... 3
3 – Les précurseurs économétrique moderne ............................................................................................................. 4
4 – Conception des cycles à l’aube de l’économétrie moderne ................................................................................... 4
5 – De la création de la société d’économétrie à la fondation de la Cowles Commission : Naissance de
l’économétrie en tant que discipline ........................................................................................................................... 4
6 – Développement du modèle a équation simultanée .............................................................................................. 4
7 – L’âge d’or de la modélisation macro économétrique et l’essor du modèle dynamique ........................................ 4
SECTION 2 – LA CRISE DE LA MODELISATION MACRO ECONOMETRIQUE AU DEVELOPPEMENT RECENT DE L’ECONOMETRIE ......................... 5
1 – Les années 1970 et la fin de l’âge d’or de la modélisation macro économétrique selon la traduction de la
Cowles Commission..................................................................................................................................................... 5
2 – Econométrie des séries temporelles depuis les années 1980 ................................................................................ 5
CHAPITRE 1 – LE MODELE LINEAIRE SIMPLE A DEUX ET A 𝒌 VARIABLES ...................................................................... 6
SECTION 1 – LES HYPOTHESE DU MODELE LINEAIRE SIMPLE A 2 VARIABLES ...................................................................................... 7
SECTION 2 – LES ESTIMATEURS DES 𝑀𝐶𝑂 – MOINDRE CARRES ORDINAIRE .................................................................................... 7
SECTION 3 – LES PROPRIETES DES 𝑀𝐶𝑂 ................................................................................................................................ 10
1 – Les estimateurs des 𝑴𝑪𝑶 sont des fonctions linéaires des 𝒀𝒕 de 𝒀 ................................................................... 10
2 - 𝜶 et 𝜷 sont des estimateurs sans biais ................................................................................................................ 11
3 - 𝜶 et 𝜷 sont des estimateurs à variance minimale de 𝜶 et 𝜷 ............................................................................... 12
4 - 𝜶 et 𝜷 sont des estimateurs convergents ............................................................................................................ 17
5 – Détermination d’un estimateur sans biais de 𝝈𝜺𝟐.............................................................................................. 17
6 – Les estimateurs des moindres carrés 𝜶 et 𝜷 de 𝜶 et 𝜷 correspondant au maximum de vraisemblance ............ 19
SECTION 4 – LOI DES ESTIMATEURS, INTERVALLE DE CONFIANCE ET TESTS D’HYPOTHESES DES PARAMETRES DU MODELE......................... 22
1 – Estimation par intervalle de confiance................................................................................................................ 22
A – Intervalle de confiance de 𝛽 ...............................................................................................................................................22
B – Intervalle de confiance de 𝛼 ...............................................................................................................................................23
C – Intervalle de confiance de 𝜎𝜀2 ...........................................................................................................................................24
2 – Test d’hypothèse ................................................................................................................................................. 25
A – Le test 1 d’hypothèse sur 𝛽 ................................................................................................................................................25
B – Le test 2 d’hypothèse sur 𝛽 ................................................................................................................................................25
C – Le test 1 d’hypothèse sur 𝛼 ................................................................................................................................................26
D – Les test 2 d’hypothèse sur 𝛼 ..............................................................................................................................................27
E – Le test d’hypothèse sur 𝜎𝜀2 ...............................................................................................................................................27
3 – Etude de la corrélation ........................................................................................................................................ 28
A – Propriétés de la corrélation ................................................................................................................................................28
B – Calcul de la corrélation .......................................................................................................................................................28
4 – Analyse de la variance......................................................................................................................................... 28
A – Calcul de l’analyse ..............................................................................................................................................................28
B – Tableau d’analyse de la variance ........................................................................................................................................29
5 – Le coefficient de détermination .......................................................................................................................... 30
A – Le calcul du coefficient .......................................................................................................................................................30
B – Le test du coefficient de corrélation ...................................................................................................................................30
C – Le test du coefficient de détermination .............................................................................................................................31
SECTION 5 – UTILISATION DU MODELE LINEAIRE DE REGRESSION EN PREVISION .............................................................................. 32
1 – Intervalle de confiance de la valeur moyenne de 𝒀, en connaissant une valeur de 𝑿 ........................................ 32
A – Détermination de la loi Normale ........................................................................................................................................32
B – Intervalle de confiance .......................................................................................................................................................33
2 – Test d’hypothèse sur la valeur moyenne ............................................................................................................. 34
A – 𝑌0 doit être de variance minimal .......................................................................................................................................34
SECTION 6 – LE MODELE LINEAIRE A PLUSIEURS VARIABLES EXPLICATIVES ...................................................................................... 37
Page 1 sur 50
Econométrie [Tapez ici] L3 Economie

1 – Spécification matricielle du modèle .................................................................................................................... 37


2 – Les hypothèses de base du modèle ..................................................................................................................... 37
3 – Les estimateurs des 𝑴𝑪𝑶 ................................................................................................................................... 38
4 – Caractéristiques de ces estimateurs .................................................................................................................... 38
5 – Test des estimateurs ........................................................................................................................................... 38
A – Première méthode .............................................................................................................................................................38
B – Deuxième test ....................................................................................................................................................................39
6 – Analyse de la variance et test du coefficient de détermination .......................................................................... 39
A – L’analyse de la variance ......................................................................................................................................................39
B – Test du coefficient de détermination .................................................................................................................................39
SECTION 7 – UTILISATION DU MODELE EN PREVISION ................................................................................................................ 40
1 – Intervalle de confiance, de la valeur moyenne de 𝒀 ........................................................................................... 40
2 – Test de l’hypothèse de la valeur moyenne .......................................................................................................... 41
CHAPITRE 2 – LE MODELE LINEAIRE GENERAL ............................................................................................................42
SECTION 1 – LE TEST DE NORMALITE ...................................................................................................................................... 42
1 – Le test Skewness-Kurtosis ................................................................................................................................... 42
A – Le test de symétrie normale ...............................................................................................................................................42
B – Le test d’aplatissement ......................................................................................................................................................42
2 – Le test de Jarque Bera ......................................................................................................................................... 43
SECTION 2 – LE PROBLEME DE L’AUTOCORRELATION ................................................................................................................. 43
1 – La détection de l’autocorrélation ........................................................................................................................ 43
2 – Les causes de l’autocorrélation ........................................................................................................................... 44
3 – Les effets de l’autocorrélation ............................................................................................................................. 44
4 – Le test d’autocorrélation ..................................................................................................................................... 44
A – Le test de Durbin-Watson ..................................................................................................................................................44
B – Le test de Ljung-Box ...........................................................................................................................................................44
SECTION 3 – LE PROBLEME DE L’HETEROSCEDASTICITE .............................................................................................................. 45
1 – Définition et conséquences ................................................................................................................................. 45
2 – Les test d’hétéroscédasticité ............................................................................................................................... 45
A – Le test de Glejser ................................................................................................................................................................45
B – Le test de ARCH ..................................................................................................................................................................45
C – Le test de Breusch-Pagan ...................................................................................................................................................46
D – Le test de White .................................................................................................................................................................46
E – Le test de Goldfeld-Quandt ................................................................................................................................................47
SECTION 4 – LA MULTI-COLINEARITE...................................................................................................................................... 47
1 - Définition ............................................................................................................................................................. 47
2 – Les effets de la colinéarité ................................................................................................................................... 47
3 – Le test d’Haitvosky .............................................................................................................................................. 47
4 – Etude des valeurs propres de la matrice des coefficients de corrélation ............................................................ 48
5 – Etude de la Variance Inflation Factor (VIF) ......................................................................................................... 48
SECTION 5 – LA ROBUSTESSE DU MODELE ............................................................................................................................... 48
1 – Le test d’ANACOVA ............................................................................................................................................. 49
2 – Le test de comparaison de deux coefficients de régression ................................................................................ 49
3 – Le test de comparaison de deux coefficients de corrélation ............................................................................... 50
4 – Conclusion ........................................................................................................................................................... 50

Page 2 sur 50
Econométrie [Tapez ici] L3 Economie

Historique de l’économétrie
L’économétrie a été mis à l’honneur avec plusieurs prix Nobel d’économétrie, mais la discipline à débuter bien avant
durant le 17ème siècle. La liste des prix Nobel est la suivante :
- 1980 : premier Nobel pour de l’économétrie à Klein qui est à l’origine du 1er modèle macroéconomique et leur
application à l’analyse des fluctuations économique
- 1989 : Trygve Haavelmo est considéré comme le père de l’économétrie moderne, il a introduit l’approche
probabiliste et le modèle à équation simultanée
- 2000 : James Heckman et Daniel MacFadden pour leurs travaux sur la théorie et les méthodes d’analyses
d’échantillons sélectifs et sur le développement de l’analyse des choix discrets (sans série temporelle)
- 2003 : Robert Engle et Cleve Granger pour leurs travaux sur la volatilité des séries temporelles et sur la théorie
de la co-intégration

Selon Ragnar Frisch, la définition de l’économétrie est qu’elle représente une unification de la théorie économique, des
mathématiques et des statistiques. Elle n’est pas assimilable uniquement à une discipline mais à toute. On a donc une
conjonction des 3 afin d’interpréter au mieux des résultats.

Section 1 – Des origines de l’économétrie à l’âge d’or de la modélisation macro


économétrique
1 – Les premières études empiriques entre le 17ème et le 18ème siècle
Au 17ème et 18ème siècle se dégage l’autorité de la loi naturelle de la loi religieuse qui est de plus en plus mise de côté.
Cela se met en place en Allemagne avec un ouvrage de Hermann Conring (1606-1680) avec ses descriptions globales
des états et son impulsion de la dynamique Allemande dans un cours de droit public. Il conçoit donc la statistique comme
moyen de classer des savoirs.
D’un autre côté, en Angleterre se met en place l’arithmétique politique en utilisant des techniques statistiques pour le
dépouillement de registres paroissiaux, en construisant des tables de mortalité et en faisant des calculs de mortalité.
Cela a été mis en place par William Petty qui était médecin et mathématicien et qui a contribué à développer la
statistique démographique.
Enfin, Gregory King est le premier à élaborer une loi de demande à partir de donnée empirique. Ses recherches se font
sur la demande du blé.

2 – Les études au 19ème siècle


On ajoute aux études antérieure, une dimension statistique, mathématiques avec des évolutions probabilistes qui
proviennent de l’astronomie ou de la physique par exemple. Cela permet d’avoir une dimension statistique
représentative de la société.
On dit que la genèse de l’économétrie se fait au milieu de 19 ème siècle avec le développement de l’économétrie
mathématiques avec Cournot et Walras.
On a donc un apport statistiques et mathématiques depuis l’Angleterre avec une analyse de la régression et de la
corrélation. Et c’est Galton en 1885 qui fait la première analyse de la corrélation.
D’autre part, Edgeworth détermine la fonction de densité normale multivariée et en déduit les expressions de
coefficient de régressions multiples.
De son côté, Pearson développe un coefficient de corrélation multiple qui permet la relation linéaire entre plusieurs
variables.
Yule (1871-1951) fait lui, des travaux sur le paupérisme et l’accès aux mesures d’assistance.
On a aussi Hocker, qui est le premier à utiliser les variables retardées (𝑡 ± 𝑛) et ajoute donc une dimension dynamique
à la macroéconomie.
Enfin Marcel Lenoir est le premier à estimer les lois d’offre et de demande et son approche implique une statistique
descriptive mathématique avec une autre dimension économique mathématique. C’est donc une étude qui annonce le
rapprochement entre l’économie mathématique et la statistique mathématique.
Page 3 sur 50
Econométrie [Tapez ici] L3 Economie

3 – Les précurseurs économétrique moderne


Cela débute avec une analyse du marché du travail par l’américain Henry Moore car il s’intéresse à un problème de
détermination des salaires, il établit donc une fonction de demande et des cycles.
Sa conception permet le lien entre la théorie et les données, ce qui permet de faire des tests sur des modèles
macroéconomiques concrets.

4 – Conception des cycles à l’aube de l’économétrie moderne


L’école des conjoncturistes américains s’oppose à l’économétrie mathématique et s’oppose donc à l’approche de
Moore. Toutefois, ils déterminent des cycles économiques :
1. Juglar (court)
2. Kitchin
3. Kuznets (moyen)
4. Kondratieff (long)

On a une apparition d’institut de conjoncture dès 1920 avec la généralisation de ce mouvement. Ainsi est créé le NBER
(National Bureau of Economics Research) qui est un organisme voué à la recherche économique empirique.
Au début du 20ème siècle, on a une nouvelle dimension de l’analyse économique car, certains économistes, ingénieurs,
statisticiens et hommes d’affaires contribuent à l’imbrication de l’économie, des mathématiques et de la statistique, ce
qui donne naissance à l’économétrie.

5 – De la création de la société d’économétrie à la fondation de la Cowles Commission : Naissance de


l’économétrie en tant que discipline
A la fin des années 1920, l’économétrie devient le centre d’intérêt sous l’impulsion de Jan Tinbergen et Ragnar Frisch.
Le 29 décembre 1930 est créé la Société d’Econométrie à Cleveland aux Etats-Unis, et le premier président de cette
société est Ragnar Frisch avec un premier colloque en 1931 à Lausanne.
A la même période, Alfred Cowles, qui dirige une société spécialisé dans le conseil financier et la prévision boursière,
entre en contact à la Société d’Econométrie et propose deux projets :
1. Il finance une revue : Econométrica avec Frisch en rédacteur en chef. Le premier numéro date de 01/33
2. Instituer une organisation de recherche avec son nom : Cowles Commission. Le premier directeur de recherche
est Ross.
Par la suite intervient une diversification des sources de financement de la Cowles Commission avec des subventions de
l’université de Chicago, de la fondation Rockefeller et du NBER.

6 – Développement du modèle a équation simultanée


La théorie prend la forme d’un système d’équation simultanée.
A la même période, on a une révélation probabiliste de Haavelmo qui donne une dimension stochastique et participe
donc au développement de l’économétrie moderne avec l’apparition du premier modèle macro économétrique. Ce
modèle est celui de Klein (Nobel) qui est apparu dans les années 1960-1970.
De plus, on notera à la même époque, l’apparition de la théorie générale de Keynes.

7 – L’âge d’or de la modélisation macro économétrique et l’essor du modèle dynamique


La tendance est le modèle a retard échelonné de Koyck (1954) et donc aux modèles dynamiques qui prennent en compte
le passé et le futur.
En même temps se développe l’analyse des prévisions à court terme ou à long terme de série temporelle avec la
méthodologie de Box et Jenkins qui s’intéressent au lissage exponentiel simple et introduisent une dimension aléatoire
dans leur prévision.

Page 4 sur 50
Econométrie [Tapez ici] L3 Economie

Section 2 – La crise de la modélisation macro économétrique au développement récent de


l’économétrie
1 – Les années 1970 et la fin de l’âge d’or de la modélisation macro économétrique selon la traduction
de la Cowles Commission
On a donc une rupture dès que le premier choc pétrolier survient. Il y a, en effet, un décalage en ce que prévoyait le
modèle macro économétrique et la réalité.
Cela a remis en cause tout le principe de ce modèle tel qu’il a été conçu.
Le Vecteur Automatique de Régression (VAR) introduit par Sims permet l’estimation des répercutions d’un choc et le
temps que va mettre ce dernier à se résorber.

2 – Econométrie des séries temporelles depuis les années 1980


On a une apparition de causalité au sens de Granger et Sims. Par exemple, la demande a un impact sur le prix. En d’autre
terme, il faut qu’une série impacte une autre.
Granger ne tient compte que des séries retardées alors que Sims tient aussi compte du passé et du futur.
On a une apparition des tests de racine unitaire de Dickey-Fuller pour savoir si on a une série stationnaire qui ne fluctue
pas. On a aussi la méthode ARCH qui est auto régressive et qui va dépendre des variables passées. On a aussi la méthode
ARMA qui est un modèle à retardement en fonction des temps passés.
Enfin on a la méthode de Bootstrap qui est une méthode de simulation d’échantillon.

Page 5 sur 50
Econométrie [Tapez ici] L3 Economie

Chapitre 1 – Le modèle linéaire simple à deux et à 𝒌 variables


L’économétrie s’est construite autour de modèle économétrique, un modèle est la représentation simplifiée mais la
plus exhaustive possible d’une entité économique donnée. Un modèle est construit sous la forme de système
d’équation. Ils sont la plupart du temps linéaire et relient deux types de variables que l’on nomme :
- Variables explicatives : ce sont les variables exogènes
- Variables expliquées : ce sont les variables endogènes
La théorie économique permet de préciser et de définir la forme de la variable.

La variable expliquée est notée généralement 𝑌 et est la fonction de variable endogène :


𝑌 = 𝑓(𝑥1 , 𝑥2 , … , 𝑥𝑘 )
𝑌 = 𝑓(𝑋)
On a donc 𝑌 la variable expliquée et 𝑋 la variable explicative.
On va s’intéresser à un modèle avec une seule variable expliquée et une seule variable explicative. Dans un second
temps, on aura une seule variable expliquée et 𝑘 variables explicatives.
Ces fonctions peuvent être linéaire, puissance ou même exponentielle par exemple, mais tout modèle non-linéaire se
ramène à un modèle linéaire avec la transformation par anamorphose. On a par exemple :
𝑌 = 𝛼𝑒 𝛽𝑋
ln 𝑌 = ln 𝛼 + 𝛽𝑋
𝑂𝑛 𝑛𝑜𝑡𝑒 𝑑𝑜𝑛𝑐 𝑌1 = ln 𝑌 𝑒𝑡 𝛼 ′ = ln 𝛼
𝑌1 = 𝛼 ′ + 𝛽𝑋

On peut aussi montrer, économétriquement, la fonction de vie d’un produit qui a une croissance exponentielle en début
de vie, puis le produit devient de moins en moins intéressant et connait une croissance logarithmique.
𝑌0
𝑌𝑡 =
1 + 𝛽𝑋𝑡
𝑌𝑡 1
=
𝑌0 1 + 𝛽𝑋𝑡
𝑌0
= 1 + 𝛽𝑋 𝑡
𝑌𝑡
𝑌0
− 1 = 𝛽𝑋 𝑡
𝑌𝑡
𝑌0
ln ( − 1) = ln 𝛽 + 𝑡 ln 𝑋
𝑌𝑡
𝑌0
𝑂𝑛 𝑛𝑜𝑡𝑒 𝑌1 = ln ( − 1) ; 𝛽1 = ln 𝛽 ; 𝑋1 = ln 𝑋
𝑌𝑡
𝑌1 = 𝛽1 + 𝑡𝑋1

Toutefois, en économie, certaines relations sont non-exacts. En effet, une variable explicative peut ne pas expliquer
totalement la variable expliquée. C’est le cas du revenu 𝑌 qui n’explique la consommation 𝐶 mais pas dans sa totalité.
On rajoute donc un terme qui permet de combler cette relation inexacte pour la transformer en relation exacte. Ce
terme est nommé aléa ou résidu ou erreur et ce terme est aléatoire, il représente et permet de synthétisé l’ensemble
des influences sur 𝑌 qui 𝑋 ne peut expliquer.
Cet aléa va posséder des propriétés remarquables. On suppose que cette variable comporte et rassemble un nombre
important et indépendant de fluctuation sans qu’aucune d’entre elle ne soit importante vis-à-vis des autres. Il n’y a donc
pas de domination pour une seule fluctuation.

Page 6 sur 50
Econométrie [Tapez ici] L3 Economie

On a trois type de modèle macroéconomique pour expliquer ces variables :


- Modèle de série chronologique : qui se déroule au cours du temps
o 𝑌𝑡 = 𝛼 + 𝛽𝑋𝑡 + εt
- Modèle en coupe instantanée : avec un temps fixe
o 𝑌𝑖 = 𝛼 + 𝛽𝑋𝑖 + εi
- Modèle de Panel : avec une variable de temps et d’individu
o 𝑌𝑡𝑖 = 𝛼 + 𝛽𝑋𝑡𝑖 + εti

Dans ce cours, on se place dans une série de modèle chronologique avec 𝜀𝑡 qui est une variable explicative aléatoire qui
donne place à l’erreur ou l’aléa avec une absence de relation exact qui donne lieu à un intervalle de confiance.
En ce sens, notre problème est d’estimer 𝛼 et 𝛽 du modèle en connaissant les observations des variables explicatives 𝑋
et de la variable expliquée 𝑌.
Lorsque l’on va estimé 𝛼, on le notera 𝛼̂ et lorsque l’on va estimé 𝛽, on le notera 𝛽̂ . On a donc la relation suivante :
𝑌̂ = 𝛼̂ + 𝛽̂ 𝑋𝑡

Il est bon de noter que 𝑌 ≠ 𝑌̂, mais si la relation linéaire est bonne, on a 𝑌 ≃ 𝑌̂.
Ainsi, on va chercher 𝑌 − 𝑌̂ = 𝑒𝑡 ≠ 𝜀𝑡

Section 1 – Les hypothèse du modèle linéaire simple à 2 variables


On cherche a estimé 𝛼 et 𝛽, mais cette estimation peut se faire que s’il y a des identités remarquables sur 𝜀. On distingue
donc 4 hypothèses :
1. 𝑋, est une variable contrôlée et indépendante de l’aléa
a. 𝐶𝑜𝑣(𝑋, 𝜀) = 0, ces variables ne sont pas corrélées
2. On doit avoir une hypothèse de normalité
a. 𝐸[𝜖𝑡 ] = 0, l’espérance de l’aléa est nulle
3. On a une hypothèse d’homoscédasticité où la variance de l’aléa est constante quelle que soit le sous-
échantillon prélevé dans l’ensemble
a. 𝜎𝜀2 = 𝐸[𝜀𝑡2 ]
4. Enfin, on a l’hypothèse de non autocorrélation, où la distribution des aléas à l’instant 𝑡 qui correspond à 𝑋𝑡 est
indépendante de celle de l’aléa à l’instant 𝑡 ′ qui correspond à 𝑋𝑡 ′
a. 𝐸[𝜀𝑡 , 𝜀𝑡 ′ ] = 𝐶𝑜𝑣(𝜀𝑡 , 𝜀𝑡 ′ ) = 0

Dans notre modèle :


𝑌𝑡 = 𝛼 + 𝛽𝑋𝑡 + εt
On a 3 inconnus qui sont : 𝛼, 𝛽, 𝜎𝜀2

Section 2 – Les estimateurs des 𝑀𝐶𝑂 – Moindre Carrés Ordinaire


La méthode des MCO consiste à minimiser la somme des carrés des écarts entre la valeur observée de la variable
endogène et la valeur calculée de cette même variable endogène. Cet
écart est le résidu 𝑒𝑡 .
L’écart est mesuré par la projection parallèlement à l’ace des ordonnés
des points sur la droite de régression.
Le fait de faire des projections implique forcement des résidus.
On a donc notre nuage de point avec une droite qui traverse et qui
minimise les écarts 𝑒𝑡 .
Cette droite est d’équation : 𝑌̂ = 𝛼̂ + 𝛽̂ 𝑋𝑡

Page 7 sur 50
Econométrie [Tapez ici] L3 Economie

On cherche ainsi :
2 2
min ∑ 𝑒𝑡2 = min ∑(𝑌𝑡 − 𝑌̂𝑡 ) = min ∑(𝑌𝑡 − 𝛼̂ − 𝛽̂ 𝑋𝑡 ) = min 𝜙( 𝛼̂, 𝛽̂ )
𝑡 𝑡 𝑡
On va donc dériver pour avoir le minimum :

𝛾𝜙(𝛼̂, 𝛽̂ )
=0
𝛾𝛼̂
𝛾𝜙(𝛼̂, 𝛽̂ )
=0
{ 𝛾𝛽̂
𝛾𝜙(𝛼̂, 𝛽̂ )
= −2 ∑(𝑌𝑡 − 𝛼̂ − 𝛽̂ 𝑋𝑡 ) = 0
𝛾𝛼̂
𝑡

⇔ 𝑛𝑌̅ − 𝑛𝛼̂ − 𝛽̂ 𝑛𝑋̅ = 0


⇔ 𝛼̂ = 𝑌̅ − 𝛽̂ 𝑋̅

On cherche maintenant la valeur de 𝛽̂ en remplaçant 𝛼̂


𝛾𝜙(𝛼̂, 𝛽̂ )
= −2 ∑(𝑌𝑡 − 𝛼̂ − 𝛽̂ 𝑋𝑡 )𝑋𝑡 = 0
𝛾𝛽̂
𝑡

⇔ −2 ∑(𝑌𝑡 − (𝑌̅ − 𝛽̂ 𝑋𝑡 ) − 𝛽̂ 𝑋𝑡 ) 𝑋𝑡 = 0
𝑡

⇔ ∑(𝑌𝑡 𝑋𝑡 ) − 𝑌̅ ∑(𝑋𝑡 ) + 𝛽̂ 𝑋̅ ∑(𝑋𝑡 ) − 𝛽̂ ∑(𝑋𝑡 )2 = 0


𝑡 𝑡 𝑡 𝑡

⇔ ∑(𝑌𝑡 𝑋𝑡 ) − 𝑌̅𝑛𝑋̅ + 𝛽̂ 𝑋̅𝑛𝑋̅ − 𝛽̂ ∑(𝑋𝑡 )2 = 0


𝑡 𝑡

⇔ ∑(𝑌𝑡 𝑋𝑡 ) − 𝑛𝑋̅𝑌̅ + 𝛽̂ [𝑛𝑋̅ 2 − ∑(𝑋𝑡 )2 ] = 0


𝑡 𝑡

⇔ ∑(𝑌𝑡 𝑋𝑡 ) − 𝑛𝑋̅𝑌̅ = −𝛽̂ [𝑛𝑋̅ 2 − ∑(𝑋𝑡 )2 ]


𝑡 𝑡
(∑𝑡(𝑌𝑡 𝑋𝑡 ) − 𝑛𝑋̅𝑌̅)
⇔ 𝛽̂ =
[𝑛𝑋̅ 2 − ∑𝑡(𝑋𝑡 )2 ]
1
(∑𝑡(𝑌𝑡 𝑋𝑡 ) − 𝑋̅𝑌̅)
⇔ 𝛽̂ = 𝑛
1 ̅2
[𝑛𝑋 − ∑𝑡(𝑋𝑡 )2 ]
𝑛
𝑪𝒐𝒗(𝑿, 𝒀)
⇔𝜷 ̂=
𝑽𝒂𝒓(𝑿)

On a donc trouvé notre 𝛼̂ et 𝛽̂ , ainsi pour résumer ces variables sont :


̅−𝜷
̂=𝒀
𝜶 ̂𝑿̅
{ ̂ 𝑪𝒐𝒗(𝑿, 𝒀)
𝜷=
𝑽𝒂𝒓(𝑿)
Toutefois, afin d’être sûr que notre dérivé est bien un minimum, il faut faire un dérivé seconde, et si cela est supérieur
à 0, alors c’est bien un minimum.
Page 8 sur 50
Econométrie [Tapez ici] L3 Economie

Ainsi, on a :

𝛾 ′ 𝜙(𝛼̂, 𝛽̂ )
=2
𝛾𝛼̂
𝛾 ′ 𝜙(𝛼̂, 𝛽̂ )
= 2 ∑ 𝑋𝑡2
𝛾𝛽̂
{ 𝑡
On a donc bien nos deux dérivés secondes qui sont positive, et en ce sens, les valeurs trouvés pour nos estimateurs sont
bien les minimums au sens de la méthode des Moindres Carrés Ordinaire.
On peut donc dire que :
2 2
min ∑ 𝑒𝑡2 = min ∑(𝑌𝑡 − 𝑌̂𝑡 ) = min ∑(𝑌𝑡 − 𝛼̂ − 𝛽̂ 𝑋𝑡 )
𝑡 𝑡 𝑡
2
𝐶𝑜𝑣(𝑋, 𝑌)
= min ∑ (𝑌𝑡 − (𝑌̅ − 𝛽̂ 𝑋𝑡 ) − ( ) 𝑋𝑡 )
𝑉𝑎𝑟(𝑋)
𝑡

Pour compléter ces estimateurs on a :


𝑥𝑡 = 𝑋𝑡 − 𝑋̅
𝑌𝑡 = 𝛼 + 𝛽𝑋𝑡 + 𝜀𝑡 {
𝑦𝑡 = 𝑌𝑡 − 𝑌̅
Cela suit le principe des variables centré d’ordre 1. Ainsi :
𝑦̂ = 𝑌̂𝑡 − 𝑌̅ ⇔ 𝑌̂𝑡 = 𝑦̂ + 𝑌̅
⇔ 𝑦̂ + 𝑌̅ = 𝛼 ̂ (𝑥𝑡 + 𝑋
̂+𝛽 ̅ ) (𝑎𝑣𝑒𝑐 𝑋𝑡 = 𝑥𝑡 + 𝑋
̅)

⇔ 𝑦̂ = −𝑌̅ + 𝛼 ̂ 𝑥𝑡 + 𝛽
̂+𝛽 ̂𝑋̅
̂𝑋
⇔ 𝑦̂ = −𝑌̅ + (𝑌̅ − 𝛽 ̂ 𝑥𝑡 + 𝛽
̅) + 𝛽 ̂𝑋̅ 𝑐𝑎𝑟 𝛼 ̂𝑋
̂ = (𝑌̅ − 𝛽 ̅)
̂ 𝑥𝑡
⇔ 𝑦̂ = 𝛽

On a donc pour résidu :


𝑒𝑡 = 𝑌𝑡 − 𝑌̂𝑡 = (𝑦𝑡 + 𝑌̅) − (𝑦̂𝑡 + 𝑌̅)
𝑒𝑡 = 𝑦𝑡 − 𝑦̂𝑡
= 𝑦𝑡 − 𝛽̂ 𝑥𝑡
En ce sens :
2 2
min ∑ 𝑒𝑡2 = min ∑(𝑌𝑡 − 𝑌̂𝑡 ) = min ∑(𝑦𝑡 − 𝑦̂𝑡 )2 = min ∑(𝑦𝑡 − 𝛽̂ 𝑥𝑡 )
𝑡 𝑡 𝑡 𝑡
Le minimum se trouve toujours via la dérivée :
𝛾(Σ𝑒𝑡2 )
= −2 ∑ 𝑥𝑡 (𝑦𝑡 − 𝛽̂ 𝑥𝑡 ) = 0
𝛾𝛽̂
𝑡

⇔ ∑ 𝑥𝑡 𝑦𝑡 = 𝛽̂ ∑ 𝑥𝑡2
𝑡 𝑡
∑𝒕 𝒙𝒕 𝒚𝒕
⇔ ̂=
𝜷
∑𝒕 𝒙𝟐𝒕
On a donc pour les valeurs centrées d’ordre 1 :

𝜶 ̅−𝜷
̂=𝒀 ̂𝑿̅
{ ̂ ∑𝒕 𝒙 𝒕 𝒚 𝒕
𝜷=
∑𝒕 𝒙𝟐𝒕
Page 9 sur 50
Econométrie [Tapez ici] L3 Economie

Section 3 – Les propriétés des 𝑀𝐶𝑂


1 – Les estimateurs des 𝑴𝑪𝑶 sont des fonctions linéaires des 𝒀𝒕 de 𝒀
Les estimateurs des MCO sont des fonctions linéaires des estimateurs 𝑌𝑡 de 𝑌. Pour conséquence, comme 𝑌𝑡 dépend de
𝜀𝑡 , 𝑌𝑡 est une variable aléatoire. De ce fait, 𝛼̂ et 𝛽̂ sont aussi des variables aléatoires. Ainsi, 𝛼̂ et 𝛽̂ obéiront à une loi
Normale. On a :
Σ(𝑥𝑡 𝑦𝑡 ) Σ(𝑥𝑡 (𝑌𝑡 − 𝑌̅)) Σ(𝑥𝑡 𝑌𝑡 ) Σ(𝑥𝑡 𝑌̅)
𝛽̂ = = = −
Σ(𝑥𝑡2 ) Σ(𝑥𝑡2 ) Σ(𝑥𝑡2 ) Σ(𝑥𝑡2 )
On a aussi :
̅
𝑥𝑡 = 𝑋𝑡 − 𝑋
̅
⇔ ∑ 𝑥𝑡 = ∑ 𝑋𝑡 − 𝑋
𝑡 𝑡
̅ − 𝑛𝑋
= 𝑛𝑋 ̅=0
Ainsi :
Σ(𝑥𝑡 𝑌𝑡 ) 𝑥𝑡
𝛽̂ = = ∑ 𝑤𝑡 𝑌𝑡 (𝑎𝑣𝑒𝑐 𝑤𝑡 = )
Σ(𝑥𝑡2 ) Σ𝑥𝑡2
𝑡

L’estimateur de 𝛽 est fonction de 𝑤𝑡 qui a les propriétés suivantes : Arret ici


1.
∑𝑡 𝑥𝑡 0
∑ 𝑤𝑡 = = =0
∑𝑡 𝑥𝑡 ∑𝑡 𝑥𝑡2
2
𝑡
2.
∑𝑡 𝑥𝑡2 1
∑ 𝑤𝑡2 = =
∑𝑡(𝑥𝑡 ) 2 ∑𝑡 𝑥𝑡2
𝑡
3.
∑(xt 𝑤𝑡 ) = ∑(𝑤𝑡 (𝑌𝑡 − 𝑋̅)) = ∑ 𝑤𝑡 𝑋𝑡 − 𝑋̅ ∑ 𝑤𝑡 = ∑ 𝑤𝑡 𝑋𝑡
𝑡 𝑡 𝑡 𝑡 𝑡
∑ 𝑥𝑡 𝑤𝑡 = ∑ 𝑤𝑡 𝑋𝑡 = 1
𝑥𝑡 Σxt2
∑(xt 𝑤𝑡 ) = ∑ (xt × )= 2=1 𝑡 𝑡
Σxt Σxt }
𝑡 𝑡

En ce sens, on a :
1
𝛼̂ = 𝑌̅ − 𝛽̂ 𝑋̅ = ∑ 𝑌𝑡 − 𝑋̅ ∑ 𝑤𝑡 𝑌𝑡
𝑛
𝑡 𝑡
𝟏
̅ 𝒘𝒕 ) 𝒀𝒕
= ∑( − 𝑿
𝒏
𝒕

Comme 𝛼̂ = 𝑓(𝑌𝑡 ) alors 𝛼̂ et 𝛽̂ sont des fonction de variables aléatoires et obéissent donc à une loi Normale. Et comme
ils obéissent à une loi Normale, alors on peut faire des intervalles de confiance.

Page 10 sur 50
Econométrie [Tapez ici] L3 Economie

2-𝜶 ̂ sont des estimateurs sans biais


̂ et 𝜷
Pour reprendre on a :
𝑛

𝛽̂ = ∑ 𝑤𝑡 𝑌𝑡 𝑎𝑣𝑒𝑐 𝑌𝑡 = 𝛼 + 𝛽𝑋𝑡 + 𝜀𝑡
𝑡=1
Ainsi, selon les propriétés précédentes :
𝑛 𝑛
𝐸[𝛽̂ ] = 𝐸 [∑ 𝑤𝑡 𝑌𝑡 ] = 𝐸 [∑ 𝑤𝑡 (𝛼 + 𝛽𝑋𝑡 + 𝜀𝑡 )]
𝑡=1 𝑡=1
𝑛 𝑛 𝑛
= 𝐸 [𝛼 ∑ 𝑤𝑡 + 𝛽 ∑ 𝑤𝑡 𝑋𝑡 + ∑ 𝑤𝑡 𝜀𝑡 ]
𝑡=1 𝑡=1 𝑡=1
𝑛
= 𝐸 [0 + 𝛽 × 1 + ∑ 𝑤𝑡 𝜀𝑡 ]
𝑡=1
On en déduit que :
𝒏
̂ = 𝜷 + ∑ 𝒘𝒕 𝜺𝒕
𝜷
𝒕=𝟏

Toujours selon les propriétés vues précédemment :


𝑛 𝑛

𝐸[𝛽̂ ] = 𝛽 + 𝐸 [∑ 𝑤𝑡 𝜀𝑡 ] = 𝛽 + ∑ 𝑤𝑡 × 𝐸[𝜀𝑡 ]
𝑡=1 𝑡=1
̂] = 𝜷
⇔ 𝑬[𝜷

Ainsi, l’espérance de notre estimateur de 𝛽 est égal à 𝛽 lui-même, notre estimateur est donc bien sans biais.
Maintenant, il faut faire de même pour l’autre estimateur :
𝑛
1
̅ 𝑤𝑡 ) 𝑌𝑡
𝛼̂ = ∑ ( − 𝑋
𝑛
𝑡=1

Grâce aux propriétés susnommés, on peut définir :


𝑛 𝑛
1 1
𝐸[𝛼̂] = 𝐸 [∑ ( − 𝑋̅𝑤𝑡 ) 𝑌𝑡 ] = 𝐸 [∑ ( − 𝑋̅𝑤𝑡 ) (𝛼 + 𝛽𝑋𝑡 + 𝜀𝑡 )]
𝑛 𝑛
𝑡=1 𝑡=1
𝑛 𝑛 𝑛 𝑛 𝑛 𝑛
1 𝑋𝑡 𝜀𝑡
= 𝐸 [∑ ( 𝛼) + 𝛽 ∑ ( ) + ∑ ( ) − 𝑋̅𝛼 ∑ 𝑤𝑡 − 𝑋̅𝛽 ∑ 𝑤𝑡 𝜀𝑡 − ∑ 𝑋̅𝑤𝑡 𝜀𝑡 ]
𝑛 𝑛 𝑛
𝑡=1 𝑡=1 𝑡=1 𝑡=1 𝑡=1 𝑡=1
𝑛
1
= 𝐸 [𝛼 + 𝛽𝑋̅ − 𝑋̅𝛽 + ∑ ( − 𝑋̅𝑤𝑡 ) 𝜀𝑡 ]
𝑛
𝑡=1
On en déduit que :
𝑛
1
⇔ 𝛼̂ = 𝛼 + ∑ ( − 𝑋̅𝑤𝑡 ) 𝜀𝑡
𝑛
𝑡=1

Page 11 sur 50
Econométrie [Tapez ici] L3 Economie

Mais toujours d’après ces mêmes propriétés :


𝑛 𝑛
1 1
𝐸[𝛼̂] = 𝐸 [𝛼 + ∑ ( − 𝑋̅𝑤𝑡 ) 𝜀𝑡 ] = 𝛼 + 𝐸 [∑ ( − 𝑋̅𝑤𝑡 ) 𝜀𝑡 ]
𝑛 𝑛
𝑡=1 𝑡=1
𝑛
= 𝛼 + ∑(𝑋𝑡 𝑤𝑡 ) + 𝐸[𝜀𝑡 ]
𝑡=1
⇔ 𝑬[𝜶
̂] = 𝜶

Ainsi, notre deuxième estimateur est aussi sans biais car son espérance est égale à elle-même.

Pour résumer, on a :
𝐸[𝛼
̂] = 𝛼
{ ̂] = 𝛽
𝐸[𝛽

3-𝜶 ̂ sont des estimateurs à variance minimale de 𝜶 et 𝜷


̂ et 𝜷
Pour voir les variances minimales, il faut déjà les calculer. On a donc :
2
𝑉[𝛽̂ ] = 𝐸 [𝛽̂ − 𝐸[𝛽̂ ]]
Or, on a selon les calculs précédents :
𝑛

𝐸[𝛽̂ ] = 𝛽 𝑒𝑡 𝛽̂ = 𝛽 + ∑(𝑤𝑡 𝜀𝑡 )
𝑡=1
Pour revenir et simplifier, on peut faire :
𝑛 2
2
𝑉[𝛽̂ ] = 𝐸 [𝛽̂ − 𝐸[𝛽̂ ]] = 𝐸 [(𝛽 + ∑(𝑤𝑡 𝜀𝑡 )) − (𝛽)]
𝑡=1
𝑛 2

= 𝐸 [∑(𝑤𝑡 𝜀𝑡 )]
𝑡=1
𝑛 𝑛 𝑛

= 𝐸 [∑(𝑤𝑡2 𝜀𝑡2 ) + 2 ∑ ∑ (𝑤𝑡 𝑤𝑡 ′ ) (𝜀𝑡 𝜀𝑡′ )]


𝑡=1 𝑡=1 𝑡 ′ =1
𝑛 𝑛 𝑛

= ∑(𝑤𝑡2 ) 𝐸[𝜀𝑡 ] + 2 ∑ ∑ (𝑤𝑡 𝑤𝑡 ′ ) 𝐸[(𝜀𝑡 𝜀𝑡′ )]


𝑡=1 𝑡=1 𝑡 ′ =1

Nous avons ici, l’hypothèse d’homoscédasticité et l’hypothèse de non autocorrélation, on sait que :
𝐸[𝜀𝑡 ] = 𝜎𝜀2 𝑒𝑡 𝐸[(𝜀𝑡 𝜀𝑡′ )] = 0
Cela revient à avoir :
𝑛

𝑉[𝛽̂ ] = 𝜎𝜀2 ∑(𝑤𝑡2 )


𝑡=1
𝟏
̂ ] = 𝝈𝟐𝜺 ×
⇔ 𝑽[𝜷
∑𝒏𝒕=𝟏(𝒙𝟐𝒕 )

On a donc notre variance de l’estimateur de 𝛽 qui est 𝑉[𝛽̂ ].

Page 12 sur 50
Econométrie [Tapez ici] L3 Economie

Maintenant, après la variance de l’estimateur de 𝛽, il faut faire de même pour calculer la variance de 𝛼 qui est :
2
𝑉[𝛼̂] = 𝐸[𝛼̂ − 𝐸[𝛼̂]]
Or, on a selon les calculs précédents :
𝑛
1
𝐸[𝛼̂] = 𝛼 𝑒𝑡 𝛼̂ = 𝛼 + ∑ ( − 𝑋̅𝑤𝑡 ) 𝜀𝑡
𝑛
𝑡=1

Pour revenir et simplifier, on peut faire :


2
𝑉[𝛼̂] = 𝐸[𝛼̂ − 𝐸[𝛼̂]] = 𝐸[𝛼̂ − 𝛼]2
𝑛 2
1 ̅
= 𝐸 [∑ ( − 𝑋 𝑤𝑡 ) 𝜀 𝑡 ]
𝑛
𝑡=1
Ainsi, en développant, on a :
𝑛 2 𝑛 𝑛
1 ̅ 1 ̅ 1 ̅
⇔ 𝑉[𝛼
̂ ] = 𝐸 [∑ ( − 𝑋𝑤𝑡) 𝜀2𝑡 + 2 ∑ ∑ ( − 𝑋𝑤𝑡 ) ( − 𝑋𝑤𝑡′ ) 𝜀𝑡𝜀𝑡′ ]
𝑛 𝑛 𝑛
𝑡=1 𝑡=1 𝑡′ =1
𝑛 2 𝑛 𝑛
1 ̅ 1 ̅ 1 ̅
= ∑( −𝑋 𝑤𝑡) × 𝐸[𝜀2𝑡 ] + 2 ∑ ∑ ( − 𝑋𝑤𝑡 ) ( − 𝑋𝑤𝑡′ ) × 𝐸[𝜀𝑡𝜀𝑡′ ]
𝑛 𝑛 𝑛
𝑡=1 𝑡=1 𝑡′ =1

Selon les propriétés économétriques :


𝐸[𝜀2𝑡 ] = 𝜎2𝜀
{
𝐸[𝜀𝑡𝜀𝑡′ ] = 0
On en déduit que :
𝑛 2
2 1 ̅
⇔ 𝑉[𝛼
̂] = 𝜎𝜀 ∑ ( − 𝑋𝑤𝑡 )
𝑛
𝑡=1
𝑛 2
1 ̅
𝑋 ̅ 2 𝑤2𝑡 )]
= 𝜎𝜀2 [∑ ( 2 − 2 𝑤𝑡 + 𝑋
𝑛 𝑛
𝑡=1
𝑛 𝑛
𝑛 ̅
𝑋 ̅ 2 ∑(𝑤2𝑡 )]
= 𝜎𝜀2 [ 2 − 2 × ∑(𝑤𝑡 ) + 𝑋
𝑛 𝑛
𝑡=1 𝑡=1
Or :
𝑛
∑(𝑤𝑡 ) = 0
𝑡=1
𝑛
1
∑(𝑤2𝑡 ) = 𝑛
{𝑡=1 ∑𝑡=1(𝑥2𝑡 )
Ainsi :
1
̅2
1
̂ ] = 𝜎𝜀2 [ + 𝑋
⇔ 𝑉[𝛼 𝑛 ]
𝑛 ∑𝑡=1(𝑥2𝑡 )
2
∑𝑛𝑡=1(𝑥2𝑡 ) + 𝑛𝑋
̅
= 𝜎𝜀2 [ ]
𝑛 ∑𝑛𝑡=1(𝑥2𝑡 )
Or :
𝑛 𝑛 𝑛 𝑛

∑(𝑥𝑡2 ) = ∑(𝑋𝑡2 ) − 𝑛𝑋 ⇔ ̅2 ∑(𝑥𝑡2 ) + ̅2


𝑛𝑋 = ∑(𝑋𝑡2 )
𝑡=1 𝑡=1 𝑡=1 𝑡=1
Page 13 sur 50
Econométrie [Tapez ici] L3 Economie

∑𝒏 (𝑿𝟐𝒕 )
̂ ] = 𝝈𝟐𝜺 [ 𝒕=𝟏
⇔ 𝑽[𝜶 ]
𝒏 ∑𝒏𝒕=𝟏(𝒙𝒕 )

Pour résumer on a donc les variances de nos estimateurs 𝛼 et 𝛽. Ce qui nous donne :
𝟏
̂ ] = 𝝈𝟐𝜺 ×
⇔ 𝑽[𝜷
∑𝒏𝒕=𝟏(𝒙𝟐𝒕 )
∑𝒏𝒕=𝟏(𝑿𝟐𝒕 )
̂ ] = 𝝈𝟐𝜺 [
⇔ 𝑽[𝜶 ]
𝒏 ∑𝒏𝒕=𝟏(𝒙𝒕 )

Maintenant que l’on connait nos variances, on peut définir la covariance des deux :
𝐶𝑜𝑣(𝛼̂; 𝛽̂ ) = 𝐸[(𝛼̂ − 𝛼)(𝛽̂ − 𝛽)]
Or, on sait par les propriétés précédentes que :
𝑛
1 ̅
𝛼
̂ −𝛼 = ∑( −𝑋 𝑤𝑡 ) 𝜀 𝑡
𝑛
𝑡=1
𝑛
̂ − 𝛽 = ∑(𝑤𝑡 𝜀𝑡 )
𝛽
{ 𝑡=1
Ainsi :
𝑛 𝑛
1
⇔ 𝐶𝑜𝑣(𝛼̂; 𝛽̂ ) = 𝐸 [∑ ∑ (( − 𝑋̅𝑤𝑡 ) 𝜀𝑡 × 𝑤𝑡 ′ 𝜀𝑡 ′ )]

𝑛
𝑡=1 𝑡 =1
𝑛 𝑛
1
̅ 𝑤𝑡 ) 𝑤 ′ ) 𝐸[𝜀𝑡 , 𝜀 ′ ]
= ∑ ∑ (( − 𝑋 𝑡 𝑛 𝑡
𝑡=1 𝑡′ =1

Or :
𝐸[𝜀𝑡 , 𝜀𝑡′ ] = 0 ∀𝑡 ≠ 𝑡′
{
𝐸[𝜀𝑡, 𝜀𝑡′ ] = 𝜎2𝜀 ∀𝑡 = 𝑡′
On a donc pour le premier cas l’hypothèse de non autocorrélation, et dans le deuxième cas l’hypothèse
d’homoscédasticité. Pour poursuivre, on garde notre hypothèse où ∀𝑡 = 𝑡 ′ . Donc :
𝑛
1
⇔ 𝐶𝑜𝑣(𝛼̂; 𝛽̂ ) = ∑ (( − 𝑋̅𝑤𝑡 ) 𝑤𝑡 ) 𝐸[𝜀𝑡2 ]

𝑛
𝑡 =1

𝑛 𝑛
1
= 𝜎𝜀2 ∑(𝑤𝑡 ) − 𝑋̅ ∑(𝑤𝑡2 )
𝑛⏟
𝑡=1 𝑡=1
[ =0 ]
𝑛
1
= 𝜎𝜀2 [ × 0 − 𝑋̅ ∑(𝑤𝑡2 )]
𝑛
𝑡=1
𝑋̅
= −𝜎𝜀2 ×
∑𝑛𝑡=1(𝑥𝑡2 )
Pour résumer, on a :
̅
𝑿
̂ ) = 𝝈𝟐𝜺 ×
̂; 𝜷
𝑪𝒐𝒗(𝜶
∑𝒏𝒕=𝟏(𝒙𝟐𝒕 )

Page 14 sur 50
Econométrie [Tapez ici] L3 Economie

On va maintenant démontrer que ces estimateurs sont à variance minimale. Pour cela, on considère un estimateur
linéaire quelconque que l’on note 𝛽̃ de 𝛽 par rapport à 𝑌, tel que :
𝑛

𝛽̃ = ∑ 𝑐𝑡 𝑌𝑡
𝑡=1

Si 𝛽̃ est sans biais et de variance minimale, alors 𝛽̃ = 𝛽̂ et donc 𝑐𝑡 = 𝑤𝑡 .


Pour que 𝛽̃ soit minimal, il faut que 𝐸[𝛽̃ ] = 𝛽. Or :
𝑛 𝑛

𝛽̃ = ∑ 𝑐𝑡 𝑌𝑡 = ∑ 𝑐𝑡 (𝛼 + 𝛽𝑋𝑡 + 𝜀𝑡 )
𝑡=1 𝑡=1
Ainsi :
𝑛 𝑛 𝑛

𝐸[𝛽̃ ] = 𝛼 ∑ 𝑐𝑡 + 𝛽 ∑ 𝑐𝑡 𝑋𝑡 + ∑(𝑐𝑡 ) ⏟
𝐸[𝜀𝑡 ]
𝑡=1 𝑡=1 𝑡=1 =0

On a donc :
𝑛

∑ 𝑐𝑡 = 0 𝑝𝑜𝑢𝑟 𝑎𝑣𝑜𝑖𝑟 𝛼 = 0
𝑡=1
𝑛

∑ 𝑐𝑡 𝑋𝑡 = 1 𝑝𝑜𝑢𝑟 𝑎𝑣𝑜𝑖𝑟 β = 0
{ 𝑡=1
On en déduit que :
𝑛

𝛽̃ = 𝛽 + ∑ 𝑐𝑡 𝑋𝑡
𝑡=1

Et que :
2
𝑉[𝛽̃ ] = 𝐸 [𝛽̃ − 𝐸[𝛽̃ ]]

̃ − 𝛽 ]2
= 𝐸[𝛽
𝑛 2 𝑛

= 𝐸 [∑ 𝑐𝑡 𝑋𝑡 ] } 𝑐𝑎𝑟 𝛽̃ = 𝛽 + ∑ 𝑐𝑡 𝑋𝑡
𝑡=1 𝑡=1
𝑛 𝑛 𝑛

= 𝐸 [∑ 𝑐𝑡2 𝜀𝑡2 + 2 ∑ ∑ (𝑐𝑡 𝑐𝑡 ′ × 𝜀𝑡 𝜀𝑡 ′ )]


𝑡=1 𝑡=1 𝑡 ′ =1
𝑛 𝑛 𝑛

= ∑(𝑐𝑡2 ) × 𝜀⏟𝑡2 + +2 ∑ ∑ (𝑐𝑡 𝑐𝑡 ′ ) . 𝐸[𝜀


⏟ 𝑡 𝜀𝑡 ′ ]
𝑡=1 𝜎𝜀2 𝑡=1 𝑡 ′ =1 0

On a donc :
𝒏
̃] =
⇔ 𝑽[𝜷 𝝈𝟐𝜺 ∑(𝒄𝟐𝒕 )
𝒕=𝟏
Mais comme on ne peut pas agir sur 𝜎𝜀2 qui est le paramètre du modèle, 𝑉[𝛽̃ ] sera minimale si ∑𝑛𝑡=1(𝑐𝑡2 ) est minimale.
On a donc maintenant un problème de minimisation sous contrainte.
On cherche donc :
𝑛

𝑛 ∑ 𝑐𝑡 = 0
𝑡=1
min ∑(𝑐𝑡2 ) = 0 𝑠𝑎𝑐ℎ𝑎𝑛𝑡 𝑞𝑢𝑒 𝑛
𝑡=1
∑ 𝑐𝑡 𝑋𝑡 = 1
{ 𝑡=1
Page 15 sur 50
Econométrie [Tapez ici] L3 Economie

Pour cela, on construit un Lagrangien :


𝑛 𝑛 𝑛

𝜙= 𝜎𝜀2 ∑ 𝑐2𝑡 − 𝜆 ∑ 𝑐𝑡 − 𝜇 ∑(𝑐𝑡 𝑋𝑡 − 1)


𝑡=1 𝑡=1 𝑡=1

𝛿𝜙 𝛿𝜙 𝛿𝜙
⇔ =0 =0 =0
𝛿𝑐𝑡 𝛿𝜆 𝛿𝜇
Pour comprendre sur la dérivée du Lagrangien :
⇔ 𝜙 = 𝜎𝜀2 (𝑐21 + 𝑐22 + ⋯ + 𝑐2𝑛 ) − 𝜆(𝑐1 + 𝑐2 + ⋯ + 𝑐𝑛 ) − 𝜇(𝑥1 𝑋1 + 𝑐2 𝑋2 + ⋯ + 𝑐𝑛 𝑋𝑛 − 1)
𝛿𝜙
= 2𝜎2𝜀 𝑐1 − 𝛼 − 𝜇𝑋1
𝛿𝑐1
𝛿𝜙
= 2𝜎2𝜀 𝑐2 − 𝛼 − 𝜇𝑋2
𝛿𝑐2

𝛿𝜙
= 2𝜎2𝜀 𝑐𝑡 − 𝛼 − 𝜇𝑋𝑡
{ 𝛿𝑐𝑡

On a donc :
𝛿𝜙 𝜆 + 𝜇𝑋𝑡
= 0 ⇔ 2𝜎2𝜀 𝑐𝑡 − 𝛼 − 𝜇𝑋𝑡 = 0 ⇔ 𝑐𝑡 =
𝛿𝑐𝑡 2𝜎2𝜀
𝑛 𝑛
𝛿𝜙
=0 ⇔ − ∑ 𝑐𝑡 = 0 ⇔ ∑ 𝑐𝑡 = 0
𝛿𝜆
𝑡=1 𝑡=1
𝑛 𝑛
𝛿𝜙
= 0 ⇔ − ∑ 𝑐𝑡 𝑋𝑡 − 1 = 0 ⇔ ∑ 𝑐𝑡 𝑋𝑡 = 1
{ 𝛿𝜇 𝑡=1 𝑡=1
Ainsi, on a :
𝑛 𝑛 𝑛
𝜆 + 𝜇𝑋𝑡
∑ 𝑐𝑡 = ∑ = 𝑛𝜆 + 𝜇 ∑ 𝑋𝑡 = 0
𝑡=1 𝑡=1
2𝜎2𝜀 𝑡=1
Alors :
𝜇 ∑𝑛𝑡=1 𝑋𝑡
⇔𝜆=− ̅
= −𝜇𝑋
𝑛
Et comme :
𝜆 + 𝜇𝑋𝑡 −𝜇𝑋̅ + 𝜇𝑋𝑡 𝜇(𝑋𝑡 − 𝑋̅ ) 𝜇. (𝑥𝑡 )
𝑐𝑡 = = −𝑐𝑡 = = =
2𝜎𝜀2 2𝜎𝜀2 2𝜎𝜀2 2𝜎𝜀2

Sur le même principe, comme on sait que :


𝑛 𝑛
𝜇. 𝑥𝑡
∑ 𝑐𝑡 𝑋𝑡 = 1 ⇔ ∑ 𝑋 =1
2𝜎𝜀2 𝑡
𝑡=1 𝑡=1
2𝜎𝜀2
⇔𝜇=
∑𝑛𝑡=1 𝑥𝑡 𝑋𝑡
Mais, on sait que :
𝑛 𝑛

∑ 𝑥𝑡 𝑋𝑡 = ∑ 𝑥𝑡2
𝑡=1 𝑡=1

Page 16 sur 50
Econométrie [Tapez ici] L3 Economie

On en déduit que :
2𝜎𝜀2 𝜇𝑥𝑡 𝑥𝑡
𝜆 = −𝜇𝑋̅ 𝜇= 𝑐𝑡 = = 𝑛
∑𝑛𝑡=1 𝑥𝑡2 2
2𝜎𝜀 ∑𝑡=1 𝑥𝑡2
Or :
𝒙𝒕 𝒙𝒕
𝒄𝒕 = 𝒏 𝒘𝒕 = 𝒏
∑𝒕=𝟏 𝒙𝟐𝒕 ∑𝒕=𝟏 𝒙𝟐𝒕
⇔ 𝒄𝒕 = 𝒘𝒕

On peut en conclure que 𝛽̂ est de variance minimale.

4-𝜶 ̂ sont des estimateurs convergents


̂ et 𝜷
On cherche à montrer que lorsque 𝑛 augmente, la variance de notre estimateur converge vers 0. C’est-à-dire que plus
l’échantillon est grand, plus la variance de l’estimateur est petit. On peut l’écrire de la forme :
𝜎𝜀2 𝜎𝜀2 𝜎𝜀2
𝑉[𝛽̂ ] = = =
Σ𝑥𝑡2 Σ(𝑋𝑡 − 𝑋̅)2 ns 2
On a donc notre variance qui est représenté par la variance de l’erreur sur l’écart-type multiplié par 𝑛.
Comme 𝜎𝜀2 et 𝑠 2 sont constant, si 𝑛 augmente, alors le rapport tend vers 0.
En ce sens, la variance de notre estimateur tend bien vers 0 et est donc convergent.

5 – Détermination d’un estimateur sans biais de 𝝈𝟐𝜺


On sait que :
𝑌𝑡 = 𝛼 + 𝛽𝑋𝑡 + 𝜀𝑡
} 𝑦 = 𝑌𝑡 − 𝑌̅
𝑌̅ = 𝛼 + 𝛽𝑋̅ + 𝜀̅ 𝑡
Donc :
⇔ 𝑦𝑡 = (𝛼 + 𝛽𝑋𝑡 + 𝜀𝑡 ) − (𝛼 + 𝛽𝑋̅ + 𝜀̅)
= β(X t − 𝑋̅) + (𝜀𝑡 − 𝜀̅)
= 𝛽𝑥𝑡 + (𝜀𝑡 − 𝜀̅)
On sait aussi, que le résidu est la différence entre la valeur de 𝑌 et son estimateur. Ainsi :
̂ 𝒙𝒕
⇔ 𝑒𝑡 = 𝑌𝑡 − 𝑌̂ = 𝒚𝒕 − 𝜷
= 𝛽𝑥𝑡 + 𝜀𝑡 − 𝜀̅ − 𝛽̂ 𝑥𝑡
̂ − 𝜷)𝒙𝒕 + 𝜺𝒕 − 𝜺̅
= −(𝜷

En ce sens, on peut calculer la somme des carrés des écarts résiduels à la droite de régression
𝑛 𝑛
2
∑ 𝑒𝑡2 = ∑(𝑦𝑡 − 𝛽̂ 𝑥𝑡 )
𝑡=1 𝑡=1
𝑛 𝑛 𝑛 𝑛
2
⇔ ∑ 𝑒𝑡2 = (𝛽̂ − 𝛽) ∑ 𝑥𝑡2 + ∑(𝜀𝑡 − 𝜀̅ )2 − 2(𝛽̂ − 𝛽) ∑ 𝑥𝑡 (𝜀𝑡 − 𝜀̅)
𝑡=1 𝑡=1 𝑡=1 𝑡=1
Donc :
𝑛 𝑛 𝑛 𝑛
2
⇔ 𝐸 [∑ 𝑒𝑡2 ] = 𝐸 [(𝛽̂ − 𝛽) ∑ 𝑥𝑡2 ] + 𝐸 [∑(𝜀𝑡 − 𝜀̅)2 ] + 𝐸 [−2(𝛽̂ − 𝛽) ∑ 𝑥𝑡 (𝜀𝑡 − 𝜀̅)]
𝑡=1 𝑡=1 𝑡=1 𝑡=1

Page 17 sur 50
Econométrie [Tapez ici] L3 Economie

Pour faciliter le calcul de cette espérance de la somme des carrés des écarts résiduels, on va calculer séparément les 3
espérances de l’expression.
On a le premier élément :
𝑛 𝑛
2 2
𝐸 [(𝛽̂ − 𝛽) ∑ 𝑥𝑡2 ] = ∑ 𝑥𝑡2 𝐸[(𝛽̂ − 𝛽)]
𝑡=1 𝑡=1
𝑛 𝑛
𝜎𝜀2
= ∑(𝑥𝑡2 ) × 𝑉[𝛽̂ ] = ∑(𝑥𝑡2 ) × = 𝝈𝟐𝜺
∑𝑛𝑡=1(𝑥𝑡2 )
𝑡=1 𝑡=1

Le second élément est :


𝑛 𝑛 𝑛 𝑛
𝜀𝑡2
𝐸 [∑(𝜀𝑡 − 𝜀̅ ] = )2 𝐸 [∑(𝜀𝑡2 ) − 2
𝑛𝜀̅ ] 2)
= 𝐸 [∑(𝜀𝑡 ] − 𝑛𝐸 [∑ ]
𝑛
𝑡=1 𝑡=1 𝑡=1 𝑡=1
𝑛 𝑛 𝑛 𝑛
1
= ∑(𝐸[𝜀𝑡2 ]) − 𝐸 [∑(𝜀𝑡2 ) + 2 ∑ ∑ 𝜀𝑡 𝜀𝑡′ ]
𝑛
𝑡=1 𝑡=1 𝑡=1 𝑡′=1
𝑛 𝑛 𝑛
1
= 𝑛𝜎𝜀2 − [∑(𝐸 [𝜀𝑡2 ]) + 2 ∑ ∑ ⏟
𝐸[𝜀𝑡 𝜀𝑡 ′ ]]
𝑛 ′
𝑡=1 𝑡=1 𝑡 =1 =0
1
= 𝑛𝜎𝜀2 − . 𝑛. 𝜎𝜀2 = (𝒏 − 𝟏)𝝈𝟐𝜺
𝑛

Enfin, on a le dernier élément :

𝑛 𝑛 𝑛

𝐸 [−2(𝛽̂ − 𝛽) ∑ 𝑥𝑡 (𝜀𝑡 − 𝜀̅)] = 𝐸 (𝛽̂ − 𝛽) ∑(𝑥𝑡 𝜀𝑡 ) − 𝜀̅ ∑ 𝑥𝑡


𝑡=1 𝑡=1 ⏟
𝑡=1
[ ( =0 )]
𝑛

= 𝐸 [(𝛽̂ − 𝛽) ∑(𝑥𝑡 𝜀𝑡 )]
𝑡=1
Mais, on sait déjà que :
𝑛 𝑛
∑𝑛 (
̂ − 𝛽 = ∑(𝑥𝑡 𝜀𝑡 ) = ∑(𝑤𝑡 𝜀𝑡 ) = 𝑡=1 𝑥𝑡 𝜀𝑡
)
{𝛽 𝑛 2
∑𝑡=1(𝑥𝑡 )
𝑡=1 𝑡=1
Alors :
𝑛 𝑛
∑𝑛𝑡=1(𝑥𝑡 𝜀𝑡 )
𝐸 [(𝛽̂ − 𝛽) ∑(𝑥𝑡 𝜀𝑡 )] = 𝐸 [ 𝑛 × ∑(𝑥𝑡 𝜀𝑡 )]
∑𝑡=1(𝑥𝑡2 )
𝑡=1 𝑡=1
∑𝑛𝑡=1(𝑥𝑡 𝜀𝑡 )2
= 𝐸[ 𝑛 ]
∑𝑡=1(𝑥𝑡2 )
𝑛 𝑛 𝑛
1
= 𝑛 × 𝐸 [∑(𝑥𝑡 𝜀𝑡 )2 + 2 ∑ ∑ 𝐸[𝜀
⏟ 𝑡 𝜀𝑡 ′ ]]
∑𝑡=1(𝑥𝑡2 ) ′
𝑡=1 𝑡=1 𝑡 =1 =0
𝑛
1
= × [∑(𝑥𝑡2 ) × ⏟
𝐸[𝜀𝑡2 ]]
∑𝑛𝑡=1(𝑥𝑡2 )
𝑡=1 =𝜎𝜀2

Page 18 sur 50
Econométrie [Tapez ici] L3 Economie
𝑛 𝑛
1
⇔ 𝐸 [(𝛽̂ − 𝛽) ∑(𝑥𝑡 𝜀𝑡 )] = 𝑛 × [∑(𝑥𝑡2 ) × 𝜎𝜀2 ] = 𝝈𝟐𝜺
∑𝑡=1(𝑥𝑡2 )
𝑡=1 𝑡=1

Donc, en reprenant les résultats de nos 3 espérances :


𝑛 𝑛 𝑛 𝑛
2
𝐸 [∑ 𝑒𝑡2 ] = 𝐸 [(𝛽̂ − 𝛽) ∑ 𝑥𝑡2 ] + 𝐸 [∑(𝜀𝑡 − 𝜀̅)2 ] + 𝐸 [−2(𝛽̂ − 𝛽) ∑ 𝑥𝑡 (𝜀𝑡 − 𝜀̅)]
𝑡=1 𝑡=1 𝑡=1 𝑡=1
𝑛

⇔ 𝐸 [∑ 𝑒𝑡2 ] = 𝜎𝜀2 + (𝑛 − 1)𝜎𝜀2 − 2𝜎𝜀2 = (𝑛 − 2)𝜎𝜀2


𝑡=1
∑𝒏𝒕=𝟏 𝒆𝟐𝒕
⇔ 𝑬[ ] = 𝝈𝟐𝜺
(𝒏 − 𝟐)

On a donc notre estimateur qui est sans biais, et pour la suite, on pose :
𝒏 𝟐
̂𝟐 = ∑𝒕=𝟏 𝒆𝒕
𝝈 𝑎𝑣𝑒𝑐 𝐸[𝜎̂2 2
𝜺 𝜀 ] = 𝜎𝜀
(𝒏 − 𝟐)

6 – Les estimateurs des moindres carrés 𝜶 ̂ de 𝜶 et 𝜷 correspondant au maximum de vraisemblance


̂ et 𝜷
Pour obtenir les résultats précédents, nous n’avons pas eu besoin de faire d’autres hypothèses que celles portant sur
l’aléa 𝜀.
En supposant à présent que la loi de probabilité de 𝜀 est une loi normale, on peut obtenir les estimateurs de la méthode
du maximum de vraisemblance et réaliser des tests de signification pour les paramètre du modèle. On a :
𝜀𝑡 = 𝑌𝑡 − 𝛼 − 𝛽𝑋𝑡
Comme les différents 𝜀𝑡 ont des distributions identiques, on peut considérer que les observations (𝑋𝑡 , 𝑌𝑡 ) correspondent
à des valeurs de 𝜀𝑡 issues d’une même distribution 𝑓(𝜀𝑡 ). On a :
𝑃𝑟𝑜𝑏[𝜀𝑡 < 𝜀 < 𝜀𝑡 + 𝑑𝜀] = 𝑓(𝜀𝑡 )𝑑𝜀
𝜀2
1 − 𝑡2
⇔ 𝑃𝑟𝑜𝑏[𝜀𝑡 < 𝜀 < 𝜀𝑡 + 𝑑𝜀] = ( ) 𝑒 2𝜎𝜀 𝑑𝜀
𝜎𝜀 √2Π
𝑌𝑡 −𝛼−𝛽𝑋𝑡
1 −
2𝜎𝜀2
=( )𝑒 𝑑𝑌
𝜎𝜀 √2Π
Car :
𝜀 = 𝑌𝑡 − 𝛼 − 𝛽𝑋𝑡
{ 𝑑𝜀
=1
𝛿𝑌
La forme de la densité de probabilité étant connue, la fonction de la vraisemblance de l’échantillon est :
𝑛 Σ(𝑌𝑡 −𝛼−𝛽𝑋𝑡 )2
1 −
2𝜎𝜀2
ℒ = ∏ 𝑓(𝜀𝑡 ) = 𝑛𝑒
𝑡=1 (𝜎𝜀 √2Π)
∑𝑛𝑡=1(𝑌𝑡 − 𝛼 − 𝛽𝑋𝑡 )2
⇔ ln ℒ = −𝑛 ln 𝜎𝜀 √2Π −
2𝜎𝜀2
̃𝜀2 qui correspondent au
En maximisant la fonction ln ℒ par rapport à 𝛼, 𝛽 et 𝜎𝜀2 , on trouve les estimateurs 𝛼̃, 𝛽̃ et 𝜎
maximum de vraisemblance. Pour cela on calcule :

Page 19 sur 50
Econométrie [Tapez ici] L3 Economie

1.
𝛿 ln ℒ ∑𝑛𝑡=1(𝑌𝑡 − 𝛼̃ − 𝛽̃ 𝑋𝑡 )
=0⇔ =0
𝛿𝛼̃ 2𝜎𝜀2
𝑛 𝑛

⇔ ∑(𝑌𝑡 ) − 𝑛𝛼̃ − 𝛽̃ ∑(𝑋𝑡 ) = 0


𝑡=1 𝑡=1
∑𝑛𝑡=1(𝑌𝑡 ) ∑𝑛𝑡=1(𝑋𝑡 )
⇔ 𝛼̃ = − 𝛽̃
𝑛 𝑛
⇔𝜶̃=𝒀 ̅−𝜷 ̃𝑿̅

2.
𝑛
𝛿 ln ℒ 1
= 0 ⇔ 2 ∑ 𝑋𝑡 (𝑌𝑡 − 𝛼̃ − 𝛽̃ 𝑋𝑡 ) = 0
𝛿𝛽̃ 𝜎𝜀
𝑡=1
𝑛 𝑛 𝑛

⇔ ∑(𝑋𝑡 𝑌𝑡 ) − 𝛼̃ ∑(𝑋𝑡 ) − 𝛽̃ ∑(𝑋𝑡 )2 = 0


𝑡=1 𝑡=1 𝑡=1
𝑛 𝑛 𝑛

⇔ ∑(𝑋𝑡 𝑌𝑡 ) − (𝑌̅ − 𝛽̃ 𝑋̅) ∑(𝑋𝑡 ) − 𝛽̃ ∑(𝑋𝑡 )2 = 0


𝑡=1 𝑡=1 𝑡=1
𝑛 𝑛 𝑛

⇔ ∑(𝑋𝑡 𝑌𝑡 ) − 𝑌̅𝑛𝑋̅ + 𝛽̃ 𝑋̅ ∑(𝑋𝑡 ) − 𝛽̃ ∑(𝑋𝑡 )2 = 0


𝑡=1 𝑡=1 𝑡=1
𝑛 𝑛

⇔ ∑(𝑋𝑡 𝑌𝑡 ) − 𝑛𝑌̅𝑋̅ + 𝛽̃ (∑ 𝑋𝑡2 − 𝑛𝑋̅ 2 ) = 0


𝑡=1 𝑡=1
∑𝑛𝑡=1(𝑋𝑡 𝑌𝑡 ) − 𝑛𝑌̅𝑋̅
⇔ 𝛽̃ =
(∑𝑛𝑡=1 𝑋𝑡2 − 𝑛𝑋̅ 2 )
𝑪𝒐𝒗(𝑿𝒕 , 𝒀𝒕 )
̃=
⇔𝜷 ̂
=𝜷
𝑽[𝑿]

Ainsi, on arrive aux mêmes équations normales qu’avec la méthode des MCO :
̃ ̂
{𝜷 = 𝜷
𝜶
̃ =𝜶̂
Donc, les estimateurs des MCO sont identiques aux estimateurs obtenus par la méthode du maximum de vraisemblance.
Enfin, il nous reste à déterminer :
𝑠𝑖 𝑋 = 𝜎𝜀2 ⇔ √𝑋 = 𝜎𝜀
𝛿 ln ℒ
= 0 {𝛿 ln ℒ 𝛿 ln √𝑋 1 1
𝛿𝜎̃2 = = =
𝜀
𝛿𝜎̃2
𝜀
𝛿𝑋 2𝑋 2𝜎𝜀2
Donc, ici :
𝑛 2
𝛿 ln ℒ 𝑛 (𝑌𝑡 − 𝛼̃ − 𝛽̃ 𝑋𝑡 )
=0⇔− +∑ =0
𝛿𝜎̃2𝜀 2𝜎̃2 𝜀2𝜎̃2 𝑡=1 𝜀
𝑛

⇔ −𝑛𝜎̃2 ̃ − 𝛽̃ 𝑋𝑡 ) = 0
𝜀 + ∑(𝑌𝑡 − 𝛼
𝑡=1

Page 20 sur 50
Econométrie [Tapez ici] L3 Economie

̃2
∑𝑛𝑡=1(𝑌𝑡 − 𝛼̃ − 𝛽̃ 𝑋𝑡 )
⇔ 𝜎𝜀 =
𝑛
𝒏
⇔𝝈̃𝟐 = ∑𝒕=𝟏(𝒆𝒕 )
𝜺
𝒏

Toutefois, on sait grâce au à la propriété 5 du cours que :


𝒏 𝟐
̂𝟐 = ∑𝒕=𝟏(𝒆𝒕 )
𝝈 𝜺
(𝒏 − 𝟐)

Cet estimateur est un estimateur sans biais de 𝜎𝜀2 . Ainsi :


∑𝑛 (𝑒 2 )
𝐸[𝜎̂
𝜀
2 = 𝐸 [ 𝑡=1 𝑡 ] = 𝜎 2
] 𝜀
(𝑛 − 2)
Mais ici :
𝑛 2 𝑛
̃2 ] = 𝐸 [∑𝑡=1(𝑒𝑡 )] = 1 𝐸 [∑(𝑒 2 )] = 𝑛 − 2 𝜎 2
𝐸 [𝜎𝜀 𝑡 𝜀
(𝑛) 𝑛 𝑛
𝑡=1

Ainsi, l’estimateur de 𝜎𝜀2 qui correspond au maximum de vraisemblance est biaisé.


On a vu dans le cours que :

𝜎̂
𝜀
2
(𝑛 − 2) ≡ 𝒳 2 (𝑛 − 2)
𝜎𝜀2

̂ ∑𝑛𝑡=1(𝑒𝑡2 ) ∑𝑛𝑡=1(𝑒𝑡2 )
2
⇔ 𝜎𝜀 = ⇒ ≡ 𝒳 2 (𝑛 − 2)
(𝑛 − 2) 𝜎̂
𝜀
2

Toutefois, ici on a :
𝑛
∑𝑛 (𝑒 2 )
⇔ 𝜎̃
𝜀
̃2 ≡ ∑(𝑒 2 )
2 = 𝑡=1 𝑡 ⇒ 𝑛𝜎
𝜀 𝑡
(𝑛)
𝑡=1
Donc :
𝑛

∑(𝑒𝑡2 ) = 𝑛𝜎̃
𝜀
2

𝑡=1
𝑛 ̃𝟐
𝒏𝝈
∑(𝑒𝑡2 ) = (𝑛 − 2)𝜎̂
𝜺
𝜀
2 ⇔ 𝓧𝟐 (𝒏 − 𝟐) ≡
𝝈𝟐𝜺
𝑡=1
𝑛

∑(𝑒𝑡2 ) = 𝜎𝜀2 𝒳 2 (𝑛 − 2)
{ 𝑡=1

Page 21 sur 50
Econométrie [Tapez ici] L3 Economie

Section 4 – Loi des estimateurs, intervalle de confiance et tests d’hypothèses des paramètres
du modèle
Comme les estimateurs sont des fonctions linéaires de 𝑌𝑡 , et comme 𝑌𝑡 dépend de 𝜀𝑡 car 𝑌𝑡 = 𝛼 + 𝛽𝑋𝑡 + 𝜀𝑡 . Et qu’en
outre, les 𝜀𝑡 sont aléatoires et obéissent à une loi normale, alors les estimateurs aléatoires de 𝛼 et 𝛽 qui sont 𝛼̂ et 𝛽̂
obéissent aux aussi à une loi normale. En ce sens, on a :
𝛼̂ = 𝑁(𝐸[𝛼̂]; 𝜎 𝛼̂ ) 𝑒𝑡 𝛽̂ = 𝑁(𝐸[𝛽̂ ]; 𝜎 𝛽̂ )
Mais, comme nous l’avons précédemment, nos estimateurs sont sans biais, on a donc :
𝐸[𝛼̂] = 𝛼̂
} ⇔ 𝛼̂ = 𝑁(𝛼̂; 𝜎𝛼̂ ) 𝑒𝑡 𝛽̂ = 𝑁(𝛽̂ ; 𝜎𝛽̂ )
𝐸[𝛽̂ ] = 𝛽̂
Et comme :

Σ𝑋𝑡2
𝜎𝛼̂ = σε √
𝑛Σ𝑥𝑡2 Σ𝑋𝑡2
⇔ 𝛼̂ = 𝑁 (𝛼̂; σε √ ) 𝑒𝑡 𝛽̂ = 𝑁
1 𝑛Σ𝑥𝑡2
𝜎𝛽̂ = σε √ 2
Σ𝑥𝑡 }
Et enfin, on a :

𝑛𝜎̃
𝜀
2
= 𝒳 2 (𝑛 − 2)
𝜎𝜀2

1 – Estimation par intervalle de confiance


A – Intervalle de confiance de 𝛽
Afin d’estimer au mieux notre droite de régression, on utilise l’estimation par intervalle de confiance pour déterminer
les valeurs de 𝛼 et 𝛽 en fonction d’un pourcentage d’erreur. Ainsi :
∃𝛽1 , 𝛽2 , 𝑃𝑟𝑜𝑏[𝛽1 < 𝛽 < 𝛽2 ] = 1 − 𝑝
On sait que :

1
𝛽̂ ≡ 𝑁 (𝛽, 𝜎𝜀 √ 2 )
Σ𝑥𝑡

Grâce à la loi de Student, on a :


𝑁(0; 1)
𝑇(𝑛) =
2
√𝜒 (𝑛)
𝑛
Alors, dans notre cas à deux variables :
𝛽̂ − 𝛽
1
𝜎𝜀 √ 2
Σ𝑥𝑡
⇔ 𝑇(𝑛 − 2) =
̂2
√ (𝑛 − 2)𝜎𝜀2
(𝑛 − 2)𝜎𝜀
Par simplification, la loi de Student est :

𝒏
̂−𝜷
𝜷
⇔ 𝑻(𝒏 − 𝟐) = . √∑ 𝒙𝟐𝒕
̂𝟐
𝝈 𝜺 𝒕=𝟏

Page 22 sur 50
Econométrie [Tapez ici] L3 Economie

Les intervalles de confiance sont la plupart du temps bilatéral symétrique, alors :

Ainsi, par définition :

1 − 𝑝 = 𝑃𝑟𝑜𝑏 [𝑡𝑝 < 𝑇(𝑛 − 2) < 𝑡 𝑃]


2 1−
2

𝑛
𝛽̂ − 𝛽
= 𝑃𝑟𝑜𝑏 𝑡𝑝 < . √∑ 𝑥𝑡2 < 𝑡 𝑃
2 ̂
𝜎𝜀2 1−
2
𝑡=1
[ ]

𝜎̂
𝜀
2 𝜎̂
𝜀
2
= 𝑃𝑟𝑜𝑏 𝑡𝑝 . < 𝛽̂ − 𝛽 < 𝑡 𝑃.
2 1−
2
√∑𝑛𝑡=1 𝑥𝑡2 √∑𝑛𝑡=1 𝑥𝑡2
[ ]

𝜎̂
𝜀
2 𝜎̂
𝜀
2
= 𝑃𝑟𝑜𝑏 𝛽̂ − 𝑡 𝑃. < 𝛽 < 𝛽̂ − 𝑡𝑝 .
1− 2
2
√∑𝑛𝑡=1 𝑥𝑡2 √∑𝑛𝑡=1 𝑥𝑡2
[ ]

Ici, on a isolé 𝛽 et on a changé le sens des inégalités pour rendre 𝛽 positif. On a donc :

𝒕𝒑 ̂𝟐
𝝈
̂±| 𝟐 𝜺
𝟏 − 𝒑 = 𝑷𝒓𝒐𝒃 𝜷 ∈ 𝜷 𝒕 𝒑
.
𝟏−
𝟐 √∑𝒏𝒕=𝟏 𝒙𝟐𝒕
[ ( )]

B – Intervalle de confiance de 𝛼
On sait par définition que 𝛼 répond à une loi normale, alors :

Σ𝑋𝑡2
𝛼̂ ≡ 𝑁 (𝛼, 𝜎𝜀 √ )
𝑛Σ𝑥𝑡2

𝜎̂
𝜀
2

{(𝑛 − 2) ≡ 𝜒 2 (𝑛 − 2)
𝜎𝜀 2
La loi de Student nous donne alors :
𝛼̂ − 𝛼
Σ𝑋 2
𝜎𝜀 √ 𝑡2
𝑛Σ𝑥𝑡
⇔ 𝑇(𝑛 − 2) =
̂2
√ (𝑛 − 2)𝜎𝜀2
(𝑛 − 2)𝜎𝜀

Page 23 sur 50
Econométrie [Tapez ici] L3 Economie

Alors, par simplification de la loi de Student, on a :

̂ − 𝜶 𝒏𝚺𝒙𝟐𝒕
𝜶
⇔ 𝑻(𝒏 − 𝟐) = .√
̂𝜺
𝝈 𝚺𝑿𝟐𝒕
Ainsi, par définition :

1 − 𝑝 = 𝑃𝑟𝑜𝑏 [𝑡𝑝 < 𝑇(𝑛 − 2) < 𝑡 𝑃]


2 1−
2

𝛼̂ − 𝛼 𝑛Σ𝑥𝑡2
= 𝑃𝑟𝑜𝑏 [𝑡𝑝 < . √ 2 < 𝑡 𝑃]
2 𝜎
̂𝜀 Σ𝑋𝑡 1−
2

Σ𝑋𝑡2 Σ𝑋𝑡2
̂𝜀 √
= 𝑃𝑟𝑜𝑏 [𝑡𝑝 . 𝜎 < 𝛼
̂ − 𝛼 < 𝑡 𝑃 . 𝜎
̂𝜀 √ ]
2 𝑛Σ𝑥𝑡2 1−
2 𝑛Σ𝑥𝑡2

Σ𝑋𝑡2 Σ𝑋𝑡2
= 𝑃𝑟𝑜𝑏 [𝛼̂ − 𝑡 𝑃 . 𝜎
̂𝜀 √ < 𝛼̂ < 𝛼̂ − 𝑡𝑝 . ̂
𝜎𝜀 √ ]
1−
2 𝑛Σ𝑥𝑡2 2 𝑛Σ𝑥𝑡2

Ici, on a isolé 𝛼 et on a changé le sens des inégalités pour rendre 𝛼 positif. On a donc :
𝒕𝒑 𝚺𝑿𝟐𝒕
𝟐
̂ ± |𝒕
𝟏 − 𝒑 = 𝑷𝒓𝒐𝒃 [𝜶 ∈ (𝜶 ̂√
.𝝈 𝜺 )]
𝟏−
𝒑 𝒏𝚺𝒙𝟐𝒕
𝟐

C – Intervalle de confiance de 𝜎𝜀2


La problématique est que l’on cherche si :
∃𝜎12 , 𝜎22 | 1 − 𝑝 = 𝑃𝑟𝑜𝑏[𝜎12 < 𝜎𝜀2 < 𝜎22 ]
𝜎̂
𝜀
2
⇔ (𝑛 − 2) 2 ≡ 𝜒 2 (𝑛 − 2)
𝜎𝜀
Alors, on a :

1 − 𝑝 = 𝑃𝑟𝑜𝑏 [𝜒𝑃2 < 𝜒 2 (𝑛 − 2) < 𝜒1−


2
𝑝]
2 2

𝜎̂
𝜀
2
= 𝑃𝑟𝑜𝑏 [𝜒𝑃2 < (𝑛 − 2) 2
< 𝜒1− 𝑝]
2 𝜎𝜀2 2

Ici, on a isolé 𝜎𝜀2 et on a changé le sens des inégalités pour rendre 𝜎𝜀2 positif. On a donc :

̂𝟐
𝝈 ̂𝟐
𝝈
𝜺 𝜺
𝟏 − 𝒑 = 𝑷𝒓𝒐𝒃 [(𝒏 − 𝟐) < 𝝈𝟐𝜺 < (𝒏 − 𝟐) ]
𝝌𝟐 𝒑 𝝌𝟐𝑷
𝟏−
𝟐 𝟐

On vient donc de définir les intervalles de confiance pour 𝛼, 𝛽 et 𝜎𝜀2 .


Il faut maintenant tester les hypothèses.

Page 24 sur 50
Econométrie [Tapez ici] L3 Economie

2 – Test d’hypothèse
A – Le test 1 d’hypothèse sur 𝛽
On fait donc le test d’hypothèse sur 𝛽 en sachant :
𝑌𝑡 = 𝛼 + 𝛽𝑋𝑡 + 𝜀𝑡
𝑛
𝛽̂ − 𝛽
𝑇(𝑛 − 2) = . √∑ 𝑥𝑡2
̂
𝜎𝜀2
𝑡=1
{

La régression existe que si elle à une pente, c’est-à-dire que 𝛽 ≠ 0. Par conséquent, si 𝛽 = 0, alors notre modèle est
non valide.
En ce sens, tester l’hypothèse revient à poser les hypothèses 𝐻𝑖 suivantes :
𝐻0 ⇔ 𝛽 = 0 𝐻1 ⇔ 𝛽 ≠ 0
On part donc de la loi de Student, où on test l’hypothèse 0 :

𝑛
𝛽̂ − 0
⇔ 1 − 𝑝 = 𝑃𝑟𝑜𝑏 𝑡𝑝 < . √∑ 𝑥𝑡2 < 𝑡 𝑃
2 𝜎̂
𝜀
2
𝑡=1
1−
2
[ ]
Ici, on encadre la valeur estimée :

𝜎̂
𝜀
2 𝜎̂
𝜀
2
⇔ 1 − 𝑝 = 𝑃𝑟𝑜𝑏 𝑡𝑝 . < 𝛽̂ < 𝑡 𝑃.
2 1−
2
√∑𝑛𝑡=1 𝑥𝑡2 √∑𝑛𝑡=1 𝑥𝑡2
[ ]
Alors :

𝒕𝒑 ̂𝟐
𝟐 𝝈 𝜺
̂∈
⇔ 𝟏 − 𝒑 = 𝑷𝒓𝒐𝒃 𝜷 |𝒕 .
𝑷
𝟏−
𝟐 √∑𝒏𝒕=𝟏 𝒙𝟐𝒕
[ ( )]

La règle de décision est :


- Si 𝛽̂ ∈ 𝐼𝑛𝑣𝑒𝑟𝑣𝑎𝑙𝑙𝑒𝐴𝑐𝑐𝑒𝑝𝑡𝑎𝑡𝑖𝑜𝑛 alors l’hypothèse 𝐻0 est acceptée au risque de 1ère espèce. En ce sens le
modèle est non valide.
- Si 𝛽̂ ∉ 𝐼𝑛𝑣𝑒𝑟𝑣𝑎𝑙𝑙𝑒𝐴𝑐𝑐𝑒𝑝𝑡𝑎𝑡𝑖𝑜𝑛 alors l’hypothèse 𝐻0 est rejetée au risque de 1ère espèce. En ce sens le modèle
est valide.

B – Le test 2 d’hypothèse sur 𝛽


La finalité de ce deuxième test est la même que celle du premier test, il s’agit juste d’une écriture différente afin de
tester la validité de notre estimateur.
En ce sens, les hypothèses 𝐻0 et 𝐻1 restent les mêmes et sont :
𝐻0 ⇔ 𝛽 = 0 𝐻1 ⇔ 𝛽 ≠ 0
On part donc de la loi de Student, où on test l’hypothèse 0 :

𝑛
𝛽̂ − 0
⇔ 1 − 𝑝 = 𝑃𝑟𝑜𝑏 𝑡𝑝 < . √∑ 𝑥𝑡2 < 𝑡 𝑃
2 ̂
𝜎𝜀2 1−
2
𝑡=1
[ ]

Page 25 sur 50
Econométrie [Tapez ici] L3 Economie

D’autre part on sait :


̂𝜀2
𝜎
̂2 =
𝜎̂
𝛽
√∑𝑛𝑡=1 𝑥𝑡2
Alors :

𝛽̂
⇔ 1 − 𝑝 = 𝑃𝑟𝑜𝑏 [𝑡𝑝 < < 𝑡 𝑃]
2 𝜎̂2 1−2
̂
𝛽

̂
𝜷
⇔ 𝟏 − 𝒑 = 𝑷𝒓𝒐𝒃 [| | < 𝒕 𝑷]
𝝈̂𝟐
̂
𝜷
𝟏−
𝟐

On a donc notre Student calculé qui est :


𝜷̂
𝒕𝒄 = ≡ 𝑻(𝒏 − 𝟐)
̂𝟐
𝝈 ̂
𝜷

La règle de décision est :


- Si |𝑡𝑐 | < 𝑡1−𝑝/2 (𝑛 − 2) alors l’hypothèse 𝐻0 est acceptée au risque de 1ère espèce. En ce sens le modèle est
non valide.
- Si |𝑡𝑐 | ≥ 𝑡1−𝑝/2 (𝑛 − 2) alors l’hypothèse 𝐻0 est rejetée au risque de 1ère espèce. En ce sens le modèle est
valide.

C – Le test 1 d’hypothèse sur 𝛼


On fait donc le test d’hypothèse sur 𝛼 en sachant :
𝑌𝑡 = 𝛼 + 𝛽𝑋𝑡 + 𝜀𝑡
{ (𝛼̂ − 𝛼) √𝑛Σ𝑥𝑡2
𝑇(𝑛 − 2) = .
𝜎
̂𝜀 √Σ𝑋𝑡2

En ce sens, tester l’hypothèse revient à poser les hypothèses 𝐻𝑖 suivantes :


𝐻0 ⇔ 𝛼 = 0 𝐻1 ⇔ 𝛼 ≠ 0
On part donc de la loi de Student, où on test l’hypothèse 0 :

(𝛼̂ − 0) √𝑛Σ𝑥𝑡2
⇔ 1 − 𝑝 = 𝑃𝑟𝑜𝑏 [𝑡𝑝 < . < 𝑡 𝑃]
2 𝜎̂𝜀 √Σ𝑋𝑡2 1−
2

2 2
̂√Σ𝑋
𝜎𝜀 𝑡 𝜎
̂√Σ𝑋
𝜀 𝑡
⇔ 1 − 𝑝 = 𝑃𝑟𝑜𝑏 [𝑡𝑝 . < 𝛼̂ < 𝑡 𝑃. ]
1−
2 √𝑛Σ𝑥𝑡2 2 √𝑛Σ𝑥𝑡2
Alors :
𝒕𝒑
𝟐 𝚺𝑿𝟐𝒕
̂ ∈ (|
⇔ 𝟏 − 𝒑 = 𝑷𝒓𝒐𝒃 [𝜷 ̂√
.𝝈 )]
𝒕 𝑷 𝜺
𝒏𝚺𝐱𝐭𝟐
𝟏−
𝟐

La règle de décision est :


- Si 𝛼̂ ∈ 𝐼𝑛𝑣𝑒𝑟𝑣𝑎𝑙𝑙𝑒𝐴𝑐𝑐𝑒𝑝𝑡𝑎𝑡𝑖𝑜𝑛 alors l’hypothèse 𝐻0 est acceptée au risque de 1ère espèce. En ce sens le
modèle est non valide.
- Si 𝛼̂ ∉ 𝐼𝑛𝑣𝑒𝑟𝑣𝑎𝑙𝑙𝑒𝐴𝑐𝑐𝑒𝑝𝑡𝑎𝑡𝑖𝑜𝑛 alors l’hypothèse 𝐻0 est rejetée au risque de 1ère espèce. En ce sens le modèle
est valide.

Page 26 sur 50
Econométrie [Tapez ici] L3 Economie

D – Les test 2 d’hypothèse sur 𝛼


La finalité de ce deuxième test est la même que celle du premier test, il s’agit juste d’une écriture différente afin de
tester la validité de notre estimateur.
En ce sens, les hypothèses 𝐻0 et 𝐻1 restent les mêmes et sont :
𝐻0 ⇔ 𝛼 = 0 𝐻1 ⇔ 𝛼 ≠ 0
On part de :
𝛼̂
𝑡𝑐 = 𝑡𝑠𝑡𝑎𝑡 = ≡ 𝑇(𝑛 − 2)
𝜎̂2 ̂
𝛼
𝛼̂
⇔ 𝑡𝑠𝑡𝑎𝑡 =
Σ𝑋𝑡2
𝜎
̂√
𝜀
𝑛Σxt2

La règle de décision est :


- Si |𝑡𝑐 | < 𝑡1−𝑝/2 (𝑛 − 2) alors l’hypothèse 𝐻0 est acceptée au risque de 1ère espèce. En ce sens le modèle est
non valide.
- Si |𝑡𝑐 | ≥ 𝑡1−𝑝/2 (𝑛 − 2) alors l’hypothèse 𝐻0 est rejetée au risque de 1ère espèce. En ce sens le modèle est
valide.

E – Le test d’hypothèse sur 𝜎𝜀2


Tester l’hypothèse revient à poser les hypothèses 𝐻𝑖 suivantes :
𝐻0 ⇔ 𝜎𝜀2 = 𝜎02

On sait par définition que :

𝜎̂2𝜀
𝜒 2 (𝑛 − 2) ≡ (𝑛 − 2) 2
𝜎 𝜀
Alors :

⇔ 1 − 𝑝 = 𝑃𝑟𝑜𝑏 [𝜒𝑝2 < χ2 (𝑛 − 2) < 𝜒1−


2
𝑝]
2 2

𝜎̂
𝜀
2
= 𝑃𝑟𝑜𝑏 [𝜒𝑝2 < (𝑛 − 2) 2 < 𝜒1−
2
𝑝]
2 𝜎𝜀 2

𝝌𝟐𝒑 𝝈𝟐𝜺 𝝌𝟐𝟏−𝒑 𝝈𝟐𝜺


= 𝑷𝒓𝒐𝒃 [ 𝟐 ̂𝟐 <
<𝝈 𝟐
]
𝜺
(𝒏 − 𝟐) (𝒏 − 𝟐)

La règle de décision est :


- ̂𝜀2 ∈ 𝐼𝑛𝑣𝑒𝑟𝑣𝑎𝑙𝑙𝑒𝐴𝑐𝑐𝑒𝑝𝑡𝑎𝑡𝑖𝑜𝑛 alors l’hypothèse 𝐻0 est acceptée au risque de 1ère espèce. En ce sens le
Si 𝜎
modèle est valide.
- ̂𝜀2 ∉ 𝐼𝑛𝑣𝑒𝑟𝑣𝑎𝑙𝑙𝑒𝐴𝑐𝑐𝑒𝑝𝑡𝑎𝑡𝑖𝑜𝑛 alors l’hypothèse 𝐻0 est rejetée au risque de 1ère espèce. En ce sens le modèle
Si 𝜎
est non valide.

Page 27 sur 50
Econométrie [Tapez ici] L3 Economie

3 – Etude de la corrélation
Le coefficient de corrélation linéaire est un coefficient qui mesure le degré de covariance linéaire, c’est-à-dire qu’il
mesure la manière dont varie l’ensemble des variables entre elles.
En ce sens, ce coefficient est noté 𝑟𝑋,𝑌 , et est représenté par :
𝐶𝑜𝑣(𝑋, 𝑌) 𝐶𝑜𝑣(𝑋, 𝑌)
𝑟𝑋,𝑌 = =
𝜎𝑋 𝜎𝑌 𝑠𝑋 𝑠𝑌

A – Propriétés de la corrélation
Les propriétés de 𝑟 sont les suivantes :
- 𝑟 ∈ [−1; 1]
- 𝑟 est sans dimension et n’a pas d’unité, il peut calculer des variables qui n’ont pas la même unité
- 𝑟 est symétrique, ⇒ 𝑟𝑋,𝑌 = 𝑟𝑌,𝑋 = 𝑟
- 𝑟 n’est pas affecté par les changements de variables : 𝑟𝑋,𝑦 = 𝑟𝑌,𝑥 = 𝑟

B – Calcul de la corrélation
On sait que :
𝐶𝑜𝑣(𝑋, 𝑌) Σ𝑥𝑡 𝑦𝑡
𝛽̂ = =
𝜎𝑋 Σ𝑥𝑡2
𝐶𝑜𝑣(𝑋, 𝑌) Σ𝑥𝑡 𝑦𝑡
𝑟𝑋,𝑌 = =
{ 𝜎𝑋 𝜎𝑌 √Σ𝑥𝑡2 √Σ𝑦𝑡2
Alors, en remplaçant les termes par 𝛽 :

√𝛴𝑥𝑡2
𝑟𝑋,𝑌 = 𝛽̂
√𝛴𝑦𝑡2
𝒔𝑿
̂
⇔ 𝒓𝑿,𝒀 = 𝜷
𝒔𝒀

4 – Analyse de la variance
A – Calcul de l’analyse
On sait par les calculs précédents que :
𝑒𝑡 = 𝑌𝑡 − 𝑌̂𝑡 = 𝑦𝑡 − 𝑦̂𝑡
{
𝑦̂𝑡 = 𝛽̂ 𝑥𝑡
Ainsi :
𝑛 𝑛

∑ 𝑦𝑡2 = ∑(𝑒𝑡 + 𝑦̂𝑡 )2


𝑡=1 𝑡=1
𝑛 𝑛 𝑛

= ∑(𝑦̂2 2
𝑡 ) + ∑(𝑒𝑡 ) + 2 ∑(𝑦
̂𝑡 𝑒𝑡 )
𝑡=1 𝑡=1 𝑡=1

Si on décompose notre calcul, on garde le dernier élément :


𝑛 𝑛 𝑛

∑(𝑦̂𝑡 𝑒𝑡 ) = ∑ 𝑦𝑡 (𝑦𝑡 − 𝑦̂𝑡 ) = ∑[(𝑦𝑡 − 𝑦̂𝑡 )𝛽̂ 𝑥𝑡 ]


𝑡=1 𝑡=1 𝑡=1
𝑛 𝑛

= 𝛽̂ [∑(𝑦𝑡 − 𝑥𝑡 ) − 𝛽̂ ∑(𝑥𝑡2 )]
𝑡=1 𝑡=1

Page 28 sur 50
Econométrie [Tapez ici] L3 Economie

Or, on connait la valeur de 𝛽̂ :


Σ𝑥𝑡 𝑦𝑡
{𝛽̂ =
Σ𝑥𝑡2
Alors, en remplaçant, on obtient :
𝑛 𝑛 𝑛
Σ𝑥𝑡 𝑦𝑡
∑(𝑦̂𝑡 𝑒𝑡 ) = 𝛽̂ [∑(𝑦𝑡 − 𝑥𝑡 ) − ∑(𝑥𝑡2 )]
Σ𝑥𝑡2
𝑡=1 𝑡=1 𝑡=1

= 𝛽̂ × 0 = 0

Notre équation initiale devient donc :


𝑛 𝑛 𝑛

∑ 𝑦𝑡2 = ∑(𝑦̂2 2
𝑡 ) + ∑(𝑒𝑡 )
𝑡=1 𝑡=1 𝑡=1
𝒏 𝒏 𝒏
𝟐
̅ )𝟐 = ∑(𝒀
⇔ ∑(𝒀𝒕 − 𝒀 ̂𝒕 − 𝒀 ̂𝒕 )𝟐
̅ ) + ∑(𝒀𝒕 − 𝒀
𝒕=𝟏 𝒕=𝟏 𝒕=𝟏

On a donc la variance totale qui est égale à la variance expliquée ajoutée à la variance résiduelle.
La fluctuation totale des valeurs de 𝑌 autour de la moyenne de l’échantillon peut être décomposée en deux éléments
distinct :
- Variance expliquée : c’est la variation des valeurs de 𝑌̂ autour de la moyenne. On nomme cela la variance
expliquée par la régression. On dit que c’est la somme des carrés expliquées par l’influence linéaire de 𝑋.
- Variance résiduelle : c’est la variation des valeurs de 𝑌 autour de la droite des moindres carrées.

B – Tableau d’analyse de la variance


Cela nous donne un tableau d’analyse de la variance, et on cherche à montrer 𝑸𝟑 ≃ 𝑸𝟏 + 𝑸𝟐
Somme des carrés des Variance des carrés
Origine des variations Degré de liberté
écarts moyens
𝑛

𝑄1 = ∑ 𝑦𝑡2
𝑡=1
𝑛

Variance expliquée ̂2
= 𝛽 ∑ 𝑥𝑡2 𝐷𝐷𝐿 = 1 𝑄1 /1
𝑡=1
𝑛
2
= ∑(𝑌̂𝑡 − 𝑌̅)
𝑡=1
𝑛

𝑄2 = ∑(𝑒𝑡2 )
𝑡=1
Variance résiduelle 𝑛 𝐷𝐷𝐿 = (𝑛 − 2) 𝑄2 /2
= ∑(𝑌𝑡 − 𝑌̂𝑡 )
𝑡=1
𝑛

𝑄3 = ∑ 𝑦𝑡2 𝐷𝐷𝐿 = 𝑄1 + 𝑄2
𝑡=1
Variance totale 𝑛 = 1 + (𝑛 − 2) 𝐼𝑛𝑢𝑡𝑖𝑙𝑒
= ∑(𝑌𝑡 − 𝑌̅)2 = (𝑛 − 1)
𝑡=1

Page 29 sur 50
Econométrie [Tapez ici] L3 Economie

5 – Le coefficient de détermination
A – Le calcul du coefficient
On sait que la variance totale est égale à la somme de la variance expliquée et de la variance résiduelle. Si la variance
expliquée est inférieure à celle de la variance résiduelle, alors la part de la variance de 𝑋 (𝑣(𝑋)) est plus faible que la
part de la variance résiduelle.
𝑛 𝑛 𝑛

⇔ ∑ 𝑦𝑡2 = ∑ 𝑦̂2 2
𝑡 + ∑ 𝑒𝑡
𝑡=1 𝑡=1 𝑡=1
Si on divise notre équation part Σ𝑦𝑡2 , on obtient :

Σ𝑦𝑡2 Σ𝑦̂
𝑡
2
Σ𝑒𝑡2
⇔ = +
Σ𝑦𝑡2 Σ𝑦𝑡2 Σ𝑦𝑡2
𝛽̂ 2 Σ𝑥𝑡2 Σ𝑒𝑡2
⇔1= + 2
Σ𝑦𝑡2 Σ𝑦𝑡
Mais on sait par définition que :

√Σ𝑥𝑡2
{𝑟 = 𝛽̂
√𝑦𝑡2
Ainsi, cela nous donne la relation suivante :
Σ𝑒𝑡2 Σ𝑒𝑡2
1 = 𝑟2 + ⇔ 𝑟 2
= 1 −
Σ𝑦𝑡2 Σ𝑦𝑡2
𝑉𝑅
⇔ 𝑟2 = 1 −
𝑉𝑇
𝑽𝑬
⇔ 𝒓𝟐 =
𝑽𝑻

Ce n’est pas la valeur approximative de la variance totale qu’il faut prendre mais bien sa valeur calculée donnée par la
somme des 𝑦𝑡2 .
Le coefficient de corrélation 𝑟 2 mesure donc la part de la variance expliquée dans la variance totale, donc si notre 𝑟 2
est grand, alors on a une bonne relation linéaire. Par exemple, si 𝑟 2 = 0.8 alors, on a 80% de la variance expliquée de 𝑌
qui est expliquée par 𝑋.
Il faut maintenant tester le coefficient de corrélation linéaire

B – Le test du coefficient de corrélation


On part donc de la loi de Student qui nous donne :

𝑛
𝛽̂ − 𝛽
𝑇(𝑛 − 2) = √∑ 𝑥𝑡2
𝜎
̂𝜀
𝑡=1

Mais on sait que :

𝑠𝑦 √Σ𝑦𝑡2
𝟏. 𝛽̂ = 𝑟 =𝑟
𝑠𝑥 √𝑥𝑡2

Σ𝑒𝑡2
̂𝜀 = √
𝟐. 𝜎
𝑛−2
Σ𝑒𝑡2
𝟑. 1 = 𝑟 2 + 2
{ Σ𝑦𝑡

Page 30 sur 50
Econométrie [Tapez ici] L3 Economie

En utilisant l’équation 3, on trouve :


𝑛 𝑛

∑ 𝑒𝑡2 = (1 − 𝑟 2)
∑ 𝑦𝑡2
𝑡=1 𝑡=1
De cette nouvelle définition, on utilise l’équation 2 :

Σ𝑒𝑡2 (1 − 𝑟 2 )Σ𝑦𝑡2
𝜎𝜀 = √
̂ =
𝑛−2 𝑛−2
Alors, en reprenant la formule de la loi du Student, et en remplaçant on obtient :

𝑛
𝛽̂ − 𝛽 √Σ𝑦𝑡2 √𝑛 − 2
𝑇(𝑛 − 2) = √∑ 𝑥𝑡2 = 𝑟 × × √𝑥𝑡2
𝜎
̂𝜀 √𝑥𝑡2 √1 − 𝑟²√Σ𝑦 2
𝑡=1 𝑡

𝟏
⇔ 𝑻(𝒏 − 𝟐) = . √𝒏 − 𝟐
√𝟏 − 𝒓𝟐

On note 𝜌 le test de corrélation avec les hypothèses suivantes :


𝐻0 ⇔ 𝜌 = 0 𝐻1 ⇔ 𝜌 ≠ 0
On a donc :

1 − 𝑝 = 𝑃𝑟𝑜𝑏 [𝑡𝑝 < 𝑇(𝑛 − 2) < 𝑡1−𝑝 ]


2 2
1
= 𝑃𝑟𝑜𝑏 [𝑡𝑝 < . √𝑛 − 2 < 𝑡1−𝑝 ]
2 √1 − 𝑟 2 2
1
= 𝑃𝑟𝑜𝑏 [𝑡𝑝 < . √𝑛 − 2 < 𝑡1−𝑝 ]
2 √1 − 𝑟 2 2
On a donc une comparaison à l’image positive :
1
⇔ 1 − 𝑝 = 𝑃𝑟𝑜𝑏 [| | < 𝑡1−𝑝 ]
√1 − 𝑟 2 2
On nomme :
1
𝑡𝑠𝑡𝑎𝑡𝜌 = | |
√1 − 𝑟 2
La règle de décision est la suivante :
- Si 𝑡𝑠𝑡𝑎𝑡𝜌 < 𝑡1−𝑝 , alors 𝐻0 est acceptée au risque de première espèce. Cela signifie qu’il y a une relation linéaire
2
entre les variables
- Si 𝑡𝑠𝑡𝑎𝑡𝜌 > 𝑡1−𝑝 , alors 𝐻0 n’est pas acceptée au risque de première espèce. Cela signifie qu’il n’y a pas de
2
relation linéaire entre les variables.

C – Le test du coefficient de détermination


On sait que :
𝑟
𝑇(𝑛 − 2) = . √𝑛 − 2
√1 − 𝑟 2
On va donc chercher la loi de 𝑟 2 , on va donc élever la loi de Student au carré, ce qui nous donne la loi de Fisher. On sait
que la loi de Student est définie par :
𝑁(0; 1)
𝑇(𝑛 − 2) ≡
2
√𝜒 (𝑛 − 2)
𝑛−2
Page 31 sur 50
Econométrie [Tapez ici] L3 Economie

Alors la loi de Fisher qui est son carré est :


𝜒 2 (1)
𝑇 2 (𝑛 − 2) ≡
𝜒 2 (𝑛 − 2)
𝑟2
⇔ 𝐹(1, 𝑛 − 2) = (𝑛 − 2)
1 − 𝑟2
On garde donc nos hypothèses :
𝐻0 ⇔ 𝜌2 = 0 𝐻1 ⇔ 𝜌2 ≠ 0
Alors, la règle de décision est :
𝑟2
- Si (𝑛 − 2) < 𝐹𝑝/2 (1, 𝑛 − 2), alors 𝐻0 est acceptée au risque de 1ère espèce.
1−𝑟 2
𝑟2
- Si (𝑛 − 2) > 𝐹𝑝/2 (1, 𝑛 − 2), alors 𝐻0 n’est pas acceptée au risque de 1ère espèce.
1−𝑟 2

Section 5 – Utilisation du modèle linéaire de régression en prévision


On cherche à déterminer l’intervalle de confiance d’une prévision d’une valeur moyenne de 𝑌, en connaissant une
valeur donnée de 𝑋.
D’autres part, on va faire un test d’hypothèse de la valeur moyenne de 𝑌, en connaissant une valeur donnée de 𝑋.

1 – Intervalle de confiance de la valeur moyenne de 𝒀, en connaissant une valeur de 𝑿


A – Détermination de la loi Normale
On note 𝑋0 la valeur donnée de 𝑋, on a donc :
𝑌0 = 𝛼 + 𝛽𝑋0 + 𝜀0
Alors, 0 est une date donnée que l’on détermine par :
𝑌̂0 = 𝛼̂ + 𝛽̂ 𝑋0
On s’intéresse donc à la valeur de 𝑌̅, en connaissant une valeur de 𝑋0 , on fait donc une espérance conditionnelle de 𝑌0
en fonction de 𝑋0 :
𝑌0
𝐸[ ] = 𝐸[𝛼] + 𝐸[𝛽𝑋0 ] + 𝐸[𝜀0 ]
𝑋0
= 𝛼 + 𝛽𝑋0
On souhaite donc construire un intervalle de confiance de la valeur de 𝑌̂0 en utilisant l’espérance conditionnelle. De
plus, on sait que 𝑌̂0 est un estimateur linéaire sans biais de 𝐸[𝑌0 /𝑋_0], c’est-à-dire que c’est sa valeur moyenne. On
peut donc dire que :
𝑌0
𝐸[𝑌̂0 ] = 𝛼 + 𝛽𝑋0 = 𝐸 [ ]
𝑋0
Alors, 𝑌̂0 doit obéir à la loi Normale, car 𝛼̂ et 𝛽̂ obéissent eux aussi à une loi Normale. Ce qui nous donne :

𝑌̂0 = 𝑁 (𝐸[𝑌̂0 ], √𝑉(𝑌̂0 ))

= 𝑁 (𝛼 + 𝛽𝑋0 , √𝑉(𝑌̂0 ))

On va donc cherche à déterminer la racine carrée de la variance de l’estimateur de 𝑌0 . On sait aussi mathématiquement
que, si on sort une constante de la variance, alors elle devient un facteur au carrée du reste de la variance. On a :
𝑉[𝑌̂0 ] = 𝑉[𝛼̂ + 𝛽̂ 𝑋0 ]
= 𝑉[𝛼̂] + 𝑋02 𝑉[𝛽̂ ] + 2𝑋0 𝐶𝑜𝑣(𝛼̂ + 𝛽̂ )

Page 32 sur 50
Econométrie [Tapez ici] L3 Economie

On sait que :
Σ𝑋2𝑡
̂ ] = 𝜎2𝜀
𝑉[𝛼
𝑛Σ𝑥2𝑡
̂ ] = 𝜎2𝜀 1
𝑉[𝛽
Σ𝑥2𝑡
̅
𝑋
𝐶𝑜𝑣(𝛼 ̂) = −
̂+𝛽 𝜎2𝜀
{ Σ𝑥2𝑡
Alors :
̂]
𝑉[𝛼 ̂]
𝑉[𝛽 𝐶𝑜𝑣(𝛼 ̂)
̂ +𝛽
⏞ Σ𝑋 2 ⏞ 1 ⏞ 𝑋̅
𝑡
𝑉[𝑌̂0 ] = 𝜎𝜀2 + 𝑋0
2 2
𝜎𝜀 + 2𝑋0 − 2 𝜎𝜀2
𝑛Σ𝑥𝑡2 Σ𝑥𝑡2 Σ𝑥𝑡
Pour rappel :
𝑛 𝑛 𝑛 𝑛

∑ 𝑥𝑡2 = ∑ 𝑋𝑡2 ̅2
− 𝑛𝑋 ⇔ ∑ 𝑋𝑡2 = ∑ 𝑥𝑡2 + 𝑛𝑋̅ 2
𝑡=1 𝑡=1 𝑡=1 𝑡=1

Alors, en remplaçant :
̂]
𝑉[𝛼 ̂]
𝑉[𝛽 𝐶𝑜𝑣(𝛼 ̂)
̂ +𝛽
⏞ Σ𝑥 2 + 𝑛𝑋̅ 2 ⏞ 1 ⏞ 𝑋̅
𝑡
𝑉[𝑌̂0 ] = 𝜎𝜀2 + 𝑋0
2 2
𝜎𝜀 + 2𝑋0 − 2 𝜎𝜀2
𝑛Σ𝑥𝑡2 Σ𝑥𝑡2 Σ𝑥𝑡
1 𝑋̅ 2
1 𝑋̅
= 𝜎𝜀2 ( + 2 ) + 𝑋02 𝜎𝜀2 2 + 2𝑋0 − 2 𝜎𝜀2
𝑛 Σ𝑥𝑡 Σ𝑥𝑡 Σ𝑥𝑡
1 𝑋̅ 2 + 𝑋02 + 2𝑋0 𝑋̅ 𝟏 (𝑿𝟎 − 𝑿̅ )𝟐
= 𝜎𝜀2 [ + ] = 𝝈 𝟐
𝜺 [ + ]
𝑛 Σ𝑥𝑡2 𝒏 𝚺𝒙𝟐𝒕

Alors, la loi normale est définie par :

1 (𝑋0 − 𝑋̅)2
𝑌̂0 = 𝑁 (𝛼 + 𝛽𝑋0 , 𝜎𝜀 √[ + ])
𝑛 Σ𝑥𝑡2

B – Intervalle de confiance
On a donc, 𝜎𝜀 qui est inconnu, on passe donc par la loi de Student :

𝜎̂
𝜀
2
(𝑛 − 2) ≡ 𝜒 2 (𝑛 − 2)
𝜎𝜀2
Alors :
𝑌0

𝑌̂0 − ⏞
(𝛼 + 𝛽𝑋0 )
1 (𝑋 − 𝑋̅)2
𝜎𝜀 √[𝑛 + 0 2 ]
Σ𝑥𝑡
𝑇(𝑛 − 2) =
(𝑛 ̂2
√ − 2) 𝜎𝜀2
(𝑛 − 2) 𝜎𝜀

Page 33 sur 50
Econométrie [Tapez ici] L3 Economie

Après simplification :
𝑌̂0 − (𝛼 + 𝛽𝑋0 )
𝑇(𝑛 − 2) =
1 (𝑋 − 𝑋̅)2
𝜎𝜀 √[ + 0 2 ]
̂
𝑛 Σ𝑥𝑡

L’intervalle de confiance est donc :

1 − 𝑝 = 𝑃𝑟𝑜𝑏 [𝑡𝑝 < 𝑇(𝑛 − 2) < 𝑡1−𝑝 ]


2 2

(𝑌̂0 − (𝛼 + 𝛽𝑋0 ))
= 𝑃𝑟𝑜𝑏 𝑡𝑝 < < 𝑡1−𝑝
2 2
1 (𝑋 − 𝑋̅)2
𝜎𝜀 √[𝑛 + 0 2 ]
̂
[ Σ𝑥𝑡 ]
Alors, en isolant notre 𝑌0

1 (𝑋0 − 𝑋̅)2 1 (𝑋0 − 𝑋̅)2


1 − 𝑝 = 𝑃𝑟𝑜𝑏 [𝑌̂0 − 𝑡𝑃 × ̂
𝜎𝜀 √[ + ] < 𝜶 + 𝜷𝑿 𝟎 < ̂0 − 𝑡 𝑃 × ̂
𝑌 𝜎𝜀 √[ + ]]
2 𝑛 Σ𝑥𝑡2 1−
2 𝑛 Σ𝑥𝑡2

Cela nous donne :

𝟏 (𝑿𝟎 − 𝑿̅ )𝟐
̂𝟎 ± 𝒕𝑷 × ̂
𝟏 − 𝒑 = 𝑷𝒓𝒐𝒃 [𝜶 + 𝜷𝑿𝟎 ∈ (𝒀 𝝈𝜺 √[ + ])]
𝟐 𝒏 𝚺𝒙𝟐𝒕

2 – Test d’hypothèse sur la valeur moyenne


Ici, on va chercher une compatibilité prévue entre la valeur de la droite de régression et la vraie valeur de cette droite
de régression, on a donc :
𝐻0 ⇔ 𝐸[𝑌0 /𝑋0 ] = 0 𝐻1 ⇔ 𝐸[𝑌0 /𝑋0 ] ≠ 0
⇔ 𝛼 + 𝛽𝑋0 = 0 ⇔ 𝛼 + 𝛽𝑋0 = 0
On a prouvé précédemment que :

1 (𝑋0 − 𝑋̅)2
1 − 𝑝 = 𝑃𝑟𝑜𝑏 [𝑌̂0 ∈ (𝑌0 ± 𝑡𝑃 × ̂
𝜎𝜀 √[1 + + ])]
2 𝑛 Σ𝑥𝑡2

La règle de décision est :


- Si 𝑌̂0 ∈ 𝐼𝑛𝑣𝑒𝑟𝑣𝑎𝑙𝑙𝑒𝐴𝑐𝑐𝑒𝑝𝑡𝑎𝑡𝑖𝑜𝑛 alors 𝐻0 est acceptée au risque de 1ère espèce, et par conséquent le modèle
est non valide
- Si 𝑌̂0 ∉ 𝐼𝑛𝑣𝑒𝑟𝑣𝑎𝑙𝑙𝑒𝐴𝑐𝑐𝑒𝑝𝑡𝑎𝑡𝑖𝑜𝑛 alors 𝐻0 n’est pas acceptée au risque de 1ère espèce, et par conséquent le
modèle est valide

A – 𝑌̂0 doit être de variance minimal


On sait que :
𝑛

𝑌̂0 = ∑ 𝑐𝑡 𝑌𝑡
𝑡=1
2
{𝑉[𝑌̂0 ] = 𝐸[𝑌̂0 − 𝐸[𝑌̂0 /𝑋0 ] ]

Page 34 sur 50
Econométrie [Tapez ici] L3 Economie

Or :
𝑛 𝑛 𝑛

𝑌̂0 − 𝐸[𝑌̂0 /𝑋0 ] = 𝛼 ∑ 𝑐𝑡 + 𝛽 ∑ 𝑐𝑡 𝑋𝑡 + ∑ 𝑐𝑡 𝜀𝑡


𝑡=1 𝑡=1 𝑡=1
𝑛 𝑛 𝑛
⇔ −𝛽 ∑ 𝑐𝑡 𝑋𝑡 − 𝛼 ∑ 𝑐𝑡 = ∑ 𝑐𝑡 𝜀𝑡
𝑡=1 𝑡=1 𝑡=1
Alors :
𝒏 𝟐 𝒏
̂𝟎 ] = 𝑬 [∑ 𝒄𝒕 𝜺𝒕 ] =
𝑽[𝒀 𝝈𝟐𝜺 ∑ 𝒄𝟐𝒕
𝒕=𝟏 𝒕=𝟏

Pour que 𝑌̂0 soit de variance minimale, et comme 𝜎𝜀2 est donnée, il faut que Σct2 soit minimal sous les contraintes :
1. Σ𝑐𝑡 = 1
2. Σ𝑐𝑡 𝑋𝑡 = 𝑋0
La fonction de Lagrange pour minimiser est alors la suivante :
𝑛 𝑛 𝑛

𝜙= ∑ 𝑐𝑡2 − 𝜆 (∑ 𝑐𝑡 − 1) − 𝜇 (∑(𝑐𝑡 𝑋𝑡 ) − 𝑋0 )
𝑡=1 𝑡=1 𝑡=1
On a :
𝛿𝜙
= 2𝑐𝑡 − 𝜆 − 𝜇𝑋𝑡 = 0
𝛿𝑐𝑡
𝑛
𝛿𝜙
= − ∑ 𝑐𝑡 + 1 = 0
𝛿𝜆
𝑡=1
𝑛
𝛿𝜙
= − ∑(𝑐𝑡 𝑋𝑡 ) + 𝑋0 = 0
{ 𝛿𝜇
𝑡=1
D’après l’équation 1, on en déduit que :
(𝜆 + 𝜇𝑋𝑡 )
𝑐𝑡 =
2
Alors, en utilisation l’équation 2, et en remplaçant :
𝑛 𝑛
(𝜆 + 𝜇𝑋𝑡 )
− ∑ 𝑐𝑡 + 1 = 0 ⇔ ∑ =1
2
𝑡=1 𝑡=1
𝑛

⇔ 𝑛𝜆 + 𝜇 ∑ 𝑋𝑡 = 2
𝑡=1
2
⇔ 𝜆 = − 𝜇𝑋̅
𝑛
De cela, on donne :
2
(𝑛 − 𝜇𝑋̅) + 𝜇𝑋𝑡 𝟏 𝝁
𝑐𝑡 = = + 𝒙𝒕
2 𝒏 𝟐

En prenant maintenant l’équation 3, on arrive à déterminer :


𝑛 𝑛
1 𝜇
∑(𝑐𝑡 𝑋𝑡 ) = 𝑋0 ⇔ ∑ ( + 𝑥𝑡 ) 𝑋𝑡 = 𝑋0
𝑛 2
𝑡=1 𝑡=1

Page 35 sur 50
Econométrie [Tapez ici] L3 Economie
𝑛 𝑛
𝑋𝑡 𝜇
⇔ ∑ ( ) + ∑(𝑥𝑡 𝑋𝑡 ) = 𝑋0
𝑛 2
𝑡=1 𝑡=1
Or, on sait que :
𝑛 𝑛
{∑(𝑥𝑡 𝑋𝑡 ) = ∑(𝑥2𝑡 )
𝑡=1 𝑡=1
Alors :
𝑛 𝑛
𝑋𝑡 𝜇
⇔ ∑ ( ) + ∑(𝑥𝑡2 ) = 𝑋0
𝑛 2
𝑡=1 𝑡=1
̅)
𝟐(𝑿𝟎 − 𝑿
⇔𝝁=
𝚺𝒙𝟐𝒕

On avait déjà prédéfini 𝑐𝑡 , alors maintenant :


1 𝜇 1 2(𝑋0 − 𝑋̅) 𝑥𝑡
𝑐𝑡 = + 𝑥𝑡 = +
𝑛 2 𝑛 Σ𝑥𝑡2 2
1 (𝑋0 − 𝑋̅)𝑥𝑡
𝑐𝑡 = +
𝑛 Σ𝑥𝑡2

Alors, en reportant cette expression dans celle de 𝑌̂0 , on a :


𝑛 𝑛
1 (𝑋0 − 𝑋̅)𝑥𝑡
𝑌̂0 = ∑ 𝑐𝑡 𝑌𝑡 = 𝑌̂0 = ∑ ( + ) 𝑌𝑡
𝑛 Σ𝑥𝑡2
𝑡=1 𝑡=1
𝑛
1 (𝑋̅𝑥𝑡 ) (𝑋0 𝑥𝑡 )
= ∑( − + ) 𝑌𝑡
𝑛 Σ𝑥𝑡2 Σ𝑥𝑡2
𝑡=1
Σ(𝑥𝑡 𝑌𝑡 ) Σ(𝑥𝑡 𝑌𝑡 )
= 𝑌̅ − 𝑋̅ 2 + 𝑋0
Σ𝑥𝑡 Σ𝑥𝑡2
Or, on a :
Σ(𝑥𝑡 𝑌𝑡 ) Σ(𝑥𝑡 𝑦𝑡 ) 𝐶𝑜𝑣(𝑋, 𝑌)
{ = = = 𝛽̂
Σ𝑥𝑡2 Σ𝑥𝑡2 𝑉(𝑋)
Alors par simplification :
𝑌̂0 = (𝑌̅ − 𝑋̅𝛽̂ ) + 𝑋0 𝛽̂
̂𝟎 = 𝜶
⇔𝒀 ̂ 𝑿𝟎
̂+𝜷

Ainsi, le meilleur estimateur linéaire sans biais de 𝛼 + 𝛽𝑋0 est 𝛼̂ + 𝛽̂ 𝑋0 où 𝛼̂ et 𝛽̂ sont les estimateurs de la méthode
des moindres carrés ordinaires.
On peut donc calculer la variance de 𝑌̂0

Page 36 sur 50
Econométrie [Tapez ici] L3 Economie

Section 6 – Le modèle linéaire à plusieurs variables explicatives


1 – Spécification matricielle du modèle
On a dans notre modèle 𝑌 qui est la variable expliquée, reliée linéairement à 𝑘 − 1 variables exogènes et à l’aléa 𝜀𝑡 . Ces
variables sont supposés être observés sur un échantillon à un instant 𝑡, ∀𝑡 ∈ [1, 𝑛]. Alors :
𝑌𝑡 = 𝛽1 + 𝛽2 𝑋2 𝑡 + ⋯ + 𝛽𝑘 𝑋𝑘 𝑡 + 𝜀𝑡
𝑌1 1 𝑋21 𝑋31 … 𝑋𝑘1 𝛽1 𝜀1
𝑌 1 𝑋22 𝑋32 … 𝑋𝑘2 𝛽2 𝜀2
[ 2] = [ ]+[ ⋮ ]
⋮ 1 ⋮ ⋮ ⋱ ⋮ ⋮
⏟𝑌𝑛 [1 𝑋2𝑘 𝑋3𝑘 … 𝑋𝑘𝑛 ] ⏟𝛽𝑛 ⏟𝜀𝑛

(𝑛,1) (𝑘,1) (𝑛,1)
(𝑛,𝑘)

On a donc un calcul matricielle, synthétisé par :


⏟ = 𝑋
𝑌 ⏟ × 𝛽
⏟ + ⏟
𝜀
(𝑛,1) (𝑛,𝑘) (𝑘,1) (𝑛,1)

Dans notre modèle, on a donc 𝑘 qui est le nombre de paramètre, ce qui implique donc 𝑘 − 1 variables.

2 – Les hypothèses de base du modèle


Le modèle est donc un modèle linéaire général simple à 𝑘 variables. Dans ce modèle, on forme les hypothèses suivantes :
Hyp1. Les 𝑘 − 1 variables explicatives sont contrôlés, sont certaines et les distributions des 𝑌𝑡 sont
conditionnelles des 𝑋𝑘𝑡 .
⇔ 𝐶𝑜𝑣(𝑋, 𝜀) = 0
Hyp2. Les valeurs des variables exogènes, les variances des variables exogènes et les covariances des
variables exogènes sont finis lorsque 𝑛 tend vers +∞.
Hyp3. La variance endogène de 𝑌 est aléatoire par la présence d’un aléa 𝜀 dans le 2ème membre de l’équation

Les hypothèses sur l’aléa sont :


Hyp4. On a l’hypothèse de normalité :
𝜀1
𝐸[𝜀] = 0 ⇔ 𝐸 [ ⋮ ] = 0 ⇔ 𝐸[𝜀𝑡 ] = 0∀𝑡
𝜀𝑛
Hyp5. On a l’hypothèse d’homoscédasticité :
𝐸[𝜀2𝑡 ] = 𝜎2𝜀 ⇔ 𝐸[𝜀′ 𝜀] = 𝜎2𝜀 . 𝐼𝑛 (𝐼𝑛 ∶ 𝑚𝑎𝑡𝑟𝑖𝑐𝑒 𝑖𝑑𝑒𝑛𝑡𝑖𝑡é𝑒)
Hyp6. On a l’hypothèse de non autocorrélation :
𝐸[𝜀 ′ 𝜀] = 0 ∀𝑡 ≠ 𝑡 ′

Les hypothèses de fonctionnement du modèle sont :


Hyp7. Le nombre d’observation doit être supérieur au nombre de variable pour avoir un degré de liberté
(𝑛 − 𝑘) cohérent.
Hyp8. Le rang de la matrice est un vecteur colonne de 𝑋 qui est indépendant, et donc notre matrice doit être
régulière. Donc, il n’y a pas de colinéarité entre les variables explicatives :
𝑅𝑎𝑛𝑔[𝑋] = 𝑘

Page 37 sur 50
Econométrie [Tapez ici] L3 Economie

3 – Les estimateurs des 𝑴𝑪𝑶


Le principe à plus de 2 variables reste le même, on cherche toujours :
𝑛

min ∑ 𝑒𝑡2 = min ( 𝑒⏟′ × ⏟


𝑒 )
𝑡=1 (1,𝑛) (𝑛,1)

Alors, on a :
̂ = (𝑿′ 𝑿)−𝟏 . 𝑿′ 𝒀
𝜷

4 – Caractéristiques de ces estimateurs


Ainsi, 𝛽̂ est un estimateur linéaire et dépend de l’aléa et va obéir à une loi Normale.
⇔ 𝛽̂ = 𝛽 + (𝑋 ′ 𝑋)−1 . 𝑋𝜀′
On a, (𝑋 ′ 𝑋) qui est une matrice carrée de dimension 𝑘.

Propriétés :
1. 𝐸[𝛽̂ ] = 𝛽
2. La matrice des variances-covariances est noté Ω𝛽̂ , elle a une structure particulière qui est :
̂1 ) 𝐶𝑜𝑣(𝛽
𝑉𝑎𝑟(𝛽 ̂1 , 𝛽
̂2 ) … 𝐶𝑜𝑣(𝛽
̂1 , 𝛽
̂𝑘 )
̂ ̂ ̂ … 𝐶𝑜𝑣(𝛽
̂2 , 𝛽
̂𝑘 )
Ω𝛽̂ = 𝐶𝑜𝑣(𝛽2 , 𝛽1 ) 𝑉𝑎𝑟(𝛽2 )
⋮ ⋮ ⋱ ⋮
̂𝑛 , 𝛽
[𝐶𝑜𝑣(𝛽 ̂1 ) 𝐶𝑜𝑣(𝛽 ̂2 ) ⋯
̂𝑛 , 𝛽 ̂𝑘 ) ]
𝑉𝑎𝑟(𝛽
3. Ω𝛽̂ = 𝜎𝜀2 . (𝑋 ′ 𝑋)−1
4. Les 𝛽̂ sont des estimateurs convergents et il faut que :
(𝑋 ′ 𝑋) → 0 ∀𝑛 → +∞
5. Les 𝛽̂ sont des estimateurs à variance minimal, il faut que :
𝑒′𝑒 Σ𝑒𝑡2
𝜎̂
𝜀
2 = =
𝑛−𝑘 𝑛−𝑘
̂̂ ) = 𝜎̂2 × 𝐷𝑖𝑎𝑔(𝑋 ′ 𝑋)−1
⇒ 𝑉𝑎𝑟(𝛽 𝜀

⇔ 𝑉𝑎𝑟(𝛽̂ ) = 𝜎̂2 ′
𝜀 × 𝐷𝑖𝑎𝑔(𝑋 𝑋)
−1

5 – Test des estimateurs


A – Première méthode
On sait que 𝛽̂ obéit à une loi Normale avec un estimateur sans biais tel que :

𝛽̂ ≡ 𝑁 (𝛽, √𝐷𝑖𝑎𝑔(𝑋 ′ 𝑋)−1 )


Dans cette loi Normale, nous avons un 𝜎𝜀 qui est inconnu, et nous allons le déterminer grâce à la loi de Student.
⇒ (𝑛 − 𝑘) ≡ 𝜒 2 (𝑛 − 𝑘)
(𝛽̂ − 𝛽)
( )
𝜎
̂√𝐷𝑖𝑎𝑔(𝑋 ′ 𝑋)−1
𝜀
⇔ 𝑇(𝑛 − 𝑘) ≡
(𝑛 − 𝑘) 𝜎
̂𝜀
(√ )
(𝑛 − 𝑘) 𝜎𝜀
(𝛽̂ − 𝛽)
⇔ 𝑇(𝑛 − 𝑘) ≡
𝜎̂2 ′
𝜀 √𝐷𝑖𝑎𝑔(𝑋 𝑋)
−1

On pose nos hypothèses :


𝐻0 ⇔ 𝛽𝑗 = 0 𝐻1 ⇔ 𝛽𝑗 ≠ 0
Page 38 sur 50
Econométrie [Tapez ici] L3 Economie

1 − 𝑝 = 𝑃𝑟𝑜𝑏 [𝑡𝑝 < 𝑇(𝑛 − 𝑘) < 𝑡1−𝑝 ]


2 2

(𝛽̂𝑗 − 𝛽𝑗 )
= 𝑃𝑟𝑜𝑏 [𝑡𝑝 < < 𝑡1−𝑝 ]
2 𝜎̂2 ′
𝜀 √𝐷𝑖𝑎𝑔(𝑋 𝑋)
−1 2

On va donc encadré l’estimateur de la pente :

̂2 √𝐷𝑖𝑎𝑔 (𝑋′ 𝑋)−1 ]]


̂ ∈ [±𝑡𝑝 𝜎
⇔ 1 − 𝑝 = 𝑃𝑟𝑜𝑏 [𝛽 𝜀
2

La règle de décision est :


- Si 𝛽̂ ∈ 𝐼𝐴, alors 𝐻0 est acceptée au risque 𝑝
- Si 𝛽̂ ∉ 𝐼𝐴, alors 𝐻0 n’est pas acceptée au risque 𝑝

B – Deuxième test
𝛽̂
𝑡𝑐 = ≡ 𝑇(𝑛 − 𝑘)
𝜎𝛽̂
𝑗

La règle de décision est :


- Si |𝑡𝑐 | < 𝑡𝑝 , alors 𝐻0 est acceptée au risque 𝑝
2
- Si |𝑡𝑐 | > 𝑡𝑝 , alors 𝐻0 n’est pas acceptée au risque 𝑝
2

6 – Analyse de la variance et test du coefficient de détermination


A – L’analyse de la variance
On sait que :
𝑉𝑇 = 𝑉𝐸 + 𝑉𝑅
Alors :
𝑛 𝑛 𝑛

∑ 𝑦𝑡2 = ∑ 𝑦̂2 2
𝑡 + ∑ 𝑒𝑡
𝑡=1 𝑡=1 𝑡=1

⇔ 𝑦 𝑦 = 𝛽̂ 𝑥 ′ 𝑦 + 𝑒 ′ 𝑒

On note 𝑟 2 le coefficient de détermination. Pour information, un coefficient de corrélation se fait uniquement entre
deux variables. Ici, notre coefficient de détermination est multiple.
On peut calculer les coefficients de corrélation linéaire simple entre deux variables, et ces coefficients se trouvent dans
une matrice des coefficients de corrélation linéaire simple.
𝑟11 ⋯ 𝑟1 𝑘
𝑟̃ = [ ⋮
⏟ 1 ⋮ ]
(𝑘,𝑘) 𝑟𝑘1 ⋯ 𝑟𝑘𝑘
On a 𝑟𝑘 𝑘 = 1 ∀𝑘 ∈ (1,2, … , 𝑛)

B – Test du coefficient de détermination


On utilise la statistique de Fisher qui est :
𝑟2 𝑛 − 𝑘
𝐹𝑐 = ≡ 𝐹(𝑘 − 1, 𝑛 − 𝑘)
1 − 𝑟2 𝑘 − 1
Alors :

Page 39 sur 50
Econométrie [Tapez ici] L3 Economie

𝛽̂𝑥 ′ 𝑦
𝑘 − 1 ≡ 𝐹(𝑘 − 1, 𝑛 − 𝑘)
𝑒′𝑒
𝑛−𝑘
On peut l’affirmer car on connait déjà :
𝛽̂ 𝑥 ′ 𝑦
𝑟2 = ⇔ 𝛽̂ 𝑥 ′ 𝑦 = 𝑟 2 𝑦 ′ 𝑦
𝑦′𝑦
𝑒′𝑒
𝑟 = 1 − ′ ⇔ 𝑒 ′ 𝑒 = (1 − 𝑟 2 )𝑦′𝑦
2
{ 𝑦𝑦
On pose donc :
𝐻0 ⇔ 𝑒 2 = 0 𝐻1 ⇔ 𝑒 2 ≠ 0
La règle de décision est :
- Si 𝐹𝑐 < 𝐹1−𝑝 (𝑘 − 1, 𝑛 − 𝑘), alors 𝐻0 est acceptée au risque 𝑝
- Si 𝐹𝑐 ≥ 𝐹1−𝑝 (𝑘 − 1, 𝑛 − 𝑘), alors 𝐻0 n’est pas acceptée au risque 𝑝

Section 7 – Utilisation du modèle en prévision


1 – Intervalle de confiance, de la valeur moyenne de 𝒀
On a un modèle tel que : 𝑌 = 𝛽𝑋 + 𝜀
On cherche notre 𝑌0 qui est la prévision. Alors :
𝑌0 = 𝛽1 + 𝛽2 𝑋2 0 + ⋯ + 𝛽𝑘 𝑋𝑘0 + 𝜀0
On note :
1
𝑋20
𝐶= 𝑌̂0 = 𝐶 ′ 𝛽̂ = 𝛽̂1 + 𝛽̂2 𝑋2 0 + ⋯ + 𝛽̂𝑘 𝑋𝑘0

[𝑋𝑘0 ]
On a donc :
𝐸[𝐶 ′ 𝛽̂] = 𝐶 ′ 𝛽
{
𝑉𝑎𝑟[𝐶 ′ 𝛽̂ ] = 𝜎𝜀2 𝐶(𝑋 ′ 𝑋)−1 𝐶
Ainsi :

𝑌̂0 = 𝐶 ′ 𝛽̂ ≡ 𝑁 ( 𝐶 ′ 𝛽, 𝜎𝜀 √𝐶 ′ (𝑋 ′ 𝑋)−1 𝐶)
On cherche donc notre intervalle de confiance avec le Student
𝐶 ′ 𝛽̂ − 𝐶 ′ 𝛽
𝜎𝜀 √𝐶 ′ (𝑋 ′ 𝑋)−1 𝐶 𝐶 ′ 𝛽̂ − 𝐶 ′ 𝛽
𝑇(𝑛 − 𝑘) ≡ =
𝜎
̂√𝐶 ′ (𝑋 ′ 𝑋)−1 𝐶
̂2 𝜀
√(𝑛 − 𝑘) 𝜎𝜀2
(𝑛 − 𝑘) 𝜎𝜀

Alors, on a :
𝐶 ′ 𝛽̂ − 𝐶 ′ 𝛽
1 − 𝑝 = 𝑃𝑟𝑜𝑏 [𝑡𝑝 < < 𝑡1−𝑝 ]
2 𝜎
̂√𝐶 ′ (𝑋 ′ 𝑋)−1 𝐶 2
𝜀

′ ′ ̂
= 𝑃𝑟𝑜𝑏 [𝐶
⏟ 𝛽 ∈ [𝐶
⏟ 𝜎𝜀 ′ (𝑋 ′ 𝑋)−1 𝐶]]
𝛽 ± 𝑡𝑝 . ̂√𝐶
2
𝑌0 𝑌0

Page 40 sur 50
Econométrie [Tapez ici] L3 Economie

2 – Test de l’hypothèse de la valeur moyenne


On va donc comparer notre prévision à partir de la droite des Moindres Carrés Ordinaires avec la vraie valeur de la
droite 𝑌. On a :
𝐶 ′ 𝛽̂ − 𝐶 ′ 𝛽
𝑇(𝑛 − 𝑘) ≡
𝜎
̂√1
𝜀 + 𝐶 ′ (𝑋 ′ 𝑋)−1 𝐶
On encadre donc notre estimateur, et on obtient :

′ ̂ ′
1 − 𝑝 = 𝑃𝑟𝑜𝑏 [𝐶
⏟ 𝛽 ∈ [𝐶
⏟ 𝛽 ± 𝑡𝑝 . 𝜎
̂√1
𝜀 + 𝐶 ′ (𝑋 ′ 𝑋)−1 𝐶]]
2
𝑌0 𝑌0

La règle de décision est :


- Si 𝐶 ′ 𝛽̂ ∈ 𝐼𝐴, alors 𝐻0 est acceptée au risque 𝑝, on a donc une compatibilité entre le modèle et la vraie valeur
- Si 𝐶 ′ 𝛽̂ ∉ 𝐼𝐴, alors 𝐻0 n’est pas acceptée au risque 𝑝, on a donc une incompatibilité entre le modèle et la vraie
valeur

Page 41 sur 50
Econométrie [Tapez ici] L3 Economie

Chapitre 2 – Le modèle linéaire général


Dans le chapitre précédent, nous avions une hypothèse de normalité, de non-autocorrélation et d’homoscédasticité qui
étaient vérifiées. Toutefois, dans ce chapitre, on enlève ces hypothèses et on va déterminer des tests.

Section 1 – Le test de normalité


On a deux tests de normalité :
1. Le test de Skewness-Kurtosis
2. Le test de Jarque Bera

1 – Le test Skewness-Kurtosis
A – Le test de symétrie normale
On pose une hypothèses qui est : 𝐻0 : 𝑠𝑦𝑚é𝑡𝑟𝑖𝑒 𝑛𝑜𝑟𝑚𝑎𝑙𝑒.
On va donc utiliser le coefficient de Pearson, qui est aussi nommé coefficient 𝑆𝑘𝑒𝑤𝑛𝑒𝑠𝑠 sur les logiciels économétriques.
Ce coefficient est :
1/2
𝛽1 ≡ 𝑁(0, √6/𝑛)
Alors :
1/2
𝛽1
≡ 𝑁(0,1)
√6/𝑛
La règle de décision est :
1/2
𝛽1
- Si | | < 𝑢1−𝑝 , alors 𝐻0 est acceptée, on a donc une symétrie normale
√6/𝑛 2
1/2
𝛽1
- Si | | ≥ 𝑢1−𝑝 , alors 𝐻0 n’est pas acceptée, on n’a donc pas de symétrie normale
√6/𝑛 2

B – Le test d’aplatissement
Pour ce test, on pose une hypothèses qui est : 𝐻0 : 𝑎𝑝𝑙𝑎𝑡𝑖𝑠𝑠𝑒𝑚𝑒𝑛𝑡 𝑛𝑜𝑟𝑚𝑎𝑙.
Le Kurtosis est :

24
𝛽2 ≡ 𝑁 (3, √ )
𝑛

𝛽2 − 3
⇔ ≡ 𝑁(0,1)
√24
𝑛
La règle de décision est :
𝛽2 −3
- Si | | < 𝑢1−𝑝 , alors 𝐻0 est acceptée, on a donc un aplatissement normal
√24/𝑛 2
𝛽2 −3
- Si | | ≥ 𝑢1−𝑝 , alors 𝐻0 n’est pas acceptée, on n’a donc pas d’aplatissement normal
√24/𝑛 2

Ainsi, pour conclure sur la normalité des résidus, il faut avoir à la fois l’hypothèse de symétrie normale et l’hypothèse
d’aplatissement normal vérifiée.

Page 42 sur 50
Econométrie [Tapez ici] L3 Economie

2 – Le test de Jarque Bera


Il s’agit d’un test qui synthétise les résultats précédents, et s’ils obéissent à une loi Normale, alors le test de Jarque Bera
suit un 𝜒 2 à deux degrés de liberté.
On va donc chercher à définir la statistique de JB. On note deux hypothèses qui sont :
𝐻0 ∶ 𝑛𝑜𝑟𝑚𝑎𝑙𝑖𝑡é 𝐻1 ∶ 𝑛𝑜𝑛 𝑛𝑜𝑟𝑚𝑎𝑙𝑖𝑡é
Le test de JB est :
𝛽1 (𝛽2 − 3)2 2 (2)
𝑇𝑒𝑠𝑡𝐽𝐵 = 𝑛 +𝑛 ≡ 𝜒1−𝑝
6 24
La règle de décision est :
2 (2),
- Si 𝑇𝑒𝑠𝑡𝐽𝐵 < 𝜒1−𝑝 alors 𝐻0 est acceptée au risque 𝑝, il y a donc une normalité dans notre modèle.
2 (2),
- Si 𝑇𝑒𝑠𝑡𝐽𝐵 ≥ 𝜒1−𝑝 alors 𝐻0 n’est pas acceptée au risque 𝑝, il n’y a donc pas de normalité dans notre modèle.

Section 2 – Le problème de l’autocorrélation


1 – La détection de l’autocorrélation
Dans nos modèles, les erreurs étaient inconnues et seuls les résidus apportent une information. Ces résidus sont définis
par :
𝑒𝑡 = 𝑌𝑡 − 𝑌̂𝑡
L’autocorrélation représente des corrélations à l’intérieur des résidus. On dira qu’il y a autocorrélation toutes les fois
où l’on peut trouver un coefficient de corrélation linéaire simple significativement différent de 0 entre la chronique des
résidus et la chronique décalé d’un ou plusieurs pas en fonction du temps.
Soit 𝑟𝑘 le coefficient d’autocorrélation à l’ordre 𝑘, on va s’intéresser à un décalage dans le temps. Les coefficients
peuvent être représentés dans un graphique qui se nomme le
corrélogramme.
L’ensemble des coefficients de corrélation s’appelle la fonction
d’autocorrélation.

Si les résidus sont une bonne représentation de l’aléa, ils doivent


vérifier l’hypothèse de non-autocorrélation.
Cela signifie que toutes les autocorrélations successives doivent
être significativement proches de 0 et donc avec des barres courbes pour avoir une représentation graphique.

On dit qu’il y a un bruit blanc lorsque la chronique des résidus vérifie l’hypothèse de non-autocorrélation et
d’homoscédasticité.
De plus, s’il y a une vérification
de normalité, on dit qu’il y a un
bruit blanc normal.

On distingue deux types


d’autocorrélation, une positive
et une négative :

𝐴𝑢𝑡𝑜𝑐𝑜𝑟𝑟é𝑙𝑎𝑡𝑖𝑜𝑛 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑒 𝐴𝑢𝑡𝑜𝑐𝑜𝑟𝑟é𝑙𝑎𝑡𝑖𝑜𝑛 𝑛é𝑔𝑎𝑡𝑖𝑣𝑒

Page 43 sur 50
Econométrie [Tapez ici] L3 Economie

2 – Les causes de l’autocorrélation


On dénombre 5 raisons de l’autocorrélation :
Cause1. Le modèle ignore une ou plusieurs variables explicatives importantes, il faut donc reconsidérer le
modèle afin d’être plus proche de la réalité.
Cause2. Les variations de départ étaient saisonnières, et ont été mal désaisonnalisée.
Cause3. Les variations contiennent des phénomènes exceptionnels, mal exprimé par le modèle. On peut donc
rajouter une variable dichotomique.
Cause4. Les variables de départ possédaient des non-informations qui ont été corrigés par l’interpolation
linéaire
Cause5. Les variables de départ ne vérifient pas l’hypothèse de stationnarité, c’est-à-dire qu’elles peuvent
contenir des tendances déterministes ou stochastique.

3 – Les effets de l’autocorrélation


Les estimateurs restent sans-biais. Les variances d’échantillon des coefficient de régressions qui était définis par 𝛽 ne
sont plus minimal, alors, les estimateurs ne sont plus efficaces.
Ainsi, la méthode des MCO n’est plus la meilleure méthode pour estimer le modèle, cela remet donc en cause
l’utilisation du modèle linéaire pour la prévision.

4 – Le test d’autocorrélation
A – Le test de Durbin-Watson
On va procéder, avec le test de Durbin-Watson, à un processus d’auto régression d’ordre 1. On a :
𝜀𝑡 = 𝜌𝜀𝑡−1 + 𝜂𝑡 𝑎𝑣𝑒𝑐 |𝜌| < 1
Alors, on émet l’hypothèse suivante :
𝐻0 ∶ 𝜌 = 0 (𝑎𝑏𝑠𝑒𝑛𝑐𝑒 𝑑 ′ 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟é𝑙𝑎𝑡𝑖𝑜𝑛)
Ainsi :
Σ(𝑒𝑡+1 − 𝑒𝑡 )2
𝐷𝑊 =
Σ𝑒2𝑡
Toutefois, si 𝑛 → +∞
Σ(𝑒𝑡+1 − 𝑒𝑡 )
⇔ 𝐷𝑊 = 2(1 − 𝜌̂) 𝑎𝑣𝑒𝑐 𝜌̂ =
Σ𝑒𝑡2

B – Le test de Ljung-Box
On va procéder, avec le test de Ljung-Box, à un processus d’auto corrélation d’ordre supérieur à 1, on a :
𝜀𝑡 = 𝜌1 𝜀𝑡−1 + 𝜌2 𝜀𝑡−2 + ⋯ + 𝜌𝑘 𝜀𝑡−𝑘 + 𝜂𝑡 𝑎𝑣𝑒𝑐 𝜂𝑡 ∼ 𝐵𝑟𝑢𝑖𝑡𝐵𝑙𝑎𝑛𝑐
On pose les hypothèses suivantes :
𝐻0 ∶ ∀𝑘 | 𝜌1 = 𝜌2 = ⋯ = 𝜌𝑘 = 0 𝐻1 ∶ ∀𝑖 ∈ (1, 𝑘), 𝜌𝑖 ≠ 𝜌𝑗
On donne un 𝑄𝑠𝑡𝑎𝑡 qui est :
𝑛
𝑟𝑘2
𝑄𝑠𝑡𝑎𝑡 = 𝑛(𝑛 + 2) ∑ 𝑎𝑣𝑒𝑐 𝑘 𝑙𝑒 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑟𝑒𝑡𝑎𝑟𝑑𝑠
𝑛−𝑘
𝑘=1
La règle de décision est :
- Si 𝑄𝑠𝑡𝑎𝑡 < 𝜒 2 (𝑘), alors 𝐻0 est acceptée au risque 𝑝
- Si 𝑄𝑠𝑡𝑎𝑡 ≥ 𝜒 2 (𝑘), alors 𝐻0 n’est pas acceptée au risque 𝑝
Page 44 sur 50
Econométrie [Tapez ici] L3 Economie

Section 3 – Le problème de l’hétéroscédasticité


1 – Définition et conséquences
Il y a hétéroscédasticité lorsque les éléments qui se trouvent sur la diagonale de la matrice des variances-covariances
des erreurs sont différents entre eux. Ces éléments sont :
𝐸[𝜀𝑡1 ] = 𝜎12 , 𝐸[𝜀𝑡2 ] = 𝜎22 , 𝐸[𝜀𝑡𝑛 ] = 𝜎𝑛2

Les conséquences sont que les estimateurs de la méthode des moindres carrés ordinaux restent sans biais, mais ils ne
sont plus de variance minimale, donc il y a une remise en cause de l’estimation du modèle linéaire général par les MCO,
et donc la prévision obtenue ne sera pas optimale.

2 – Les test d’hétéroscédasticité


A – Le test de Glejser
Ce test propose une régression entre la valeur absolue des résidus et chacune des variables explicatives. Il y a donc
autant de régression que l’on a de variable explicative.
|𝑒𝑡 | = 𝑎0 + 𝑎1 𝑋𝑘𝑡 + 𝜂𝑡 (𝜂𝑡 ∼ 𝐵𝐵)
On pose donc les deux hypothèses suivantes :
𝐻0 ∶ 𝑎1 = 0 (ℎ𝑜𝑚𝑜𝑠𝑐é𝑑𝑎𝑠𝑡𝑖𝑐𝑖𝑡é) 𝐻1 ∶ 𝑏0 ≠ 0

Alors, on a :
𝑎
̂1
𝑡𝑐1 = ≡ 𝑇(𝑛 − 2)
𝜎𝑎̂1
La règle de décision est :
- Si |𝑡𝑐 | < 𝑡1−𝑝 (𝑛 − 2), alors 𝐻0 est acceptée
2
- Si |𝑡𝑐 | ≥ 𝑡1−𝑝 (𝑛 − 2), alors 𝐻0 est acceptée
2

B – Le test de ARCH
Ce test Auto Regressive Conditional Homoscedasticity nous donne s’il y a hétéroscédasticité :
2 2 2
𝜀𝑡2 = 𝜙1 𝜀𝑡−1 + 𝜙2 𝜀𝑡−2 + ⋯ + 𝜙𝐾 𝜀𝑡−𝐾 + 𝜂𝑡
S’il y a homoscédasticité alors, cette relation n’existe pas :
⇔ 𝜙1 = 𝜙2 = ⋯ = 𝜙𝐾 = 0
Donc s’il existe un 𝜙𝑛 ≠ 0, alors il y a hétéroscédasticité.

On utilise la statistique du multiplicateur de Lagrange :


2 (𝐾)
𝐿𝑀 = 𝑛𝑟 2 𝜒1−𝑝
Avec 𝑛 et 𝑟 2 qui dépendent de l’équation originale du test ARCH et 𝐾 qui est le nombre de retard.
La règle de décision est :
- Si 𝑛𝑟 2 < 𝜒1−𝑝
2 (𝐾),
alors 𝐻0 est acceptée au risque 𝑝, il y a donc homoscédasticité.
2 2 (𝐾),
- Si 𝑛𝑟 ≥ 𝜒1−𝑝 alors 𝐻0 n’est pas acceptée au risque 𝑝, il y a donc hétéroscédasticité.

Page 45 sur 50
Econométrie [Tapez ici] L3 Economie

C – Le test de Breusch-Pagan
S’il y a hétéroscédasticité, alors on a :
𝜀𝑡2 = 𝛼1 + 𝛼2 𝑋2𝑡 + 𝛼3 𝑋3𝑡 + ⋯ + 𝛼𝑘 𝑋𝑘𝑡 + 𝜂𝑡
Il y a donc une relation entre l’aléa et chaque variable explicative. On pose donc :
𝐻0 ⇔ 𝛼1 = 𝛼2 = ⋯ = 𝛼𝑘 = 0 𝐻1 ⇔ ∃𝑘 | 𝛼𝑘 ≠ 0
Alors :
2 (𝑘
𝐿𝑀 = 𝑛𝑟 2 ≡ 𝜒1−𝑝 − 1)
Avec 𝑘 − 1 le nombre de variable explicative
La règle de décision est :
- Si 𝑛𝑟 2 < 𝜒1−𝑝
2 (𝑘
− 1), alors 𝐻0 est acceptée au risque 𝑝, il y a donc homoscédasticité.
2 2 (𝑘
- Si 𝑛𝑟 ≥ 𝜒1−𝑝 − 1), alors 𝐻0 n’est pas acceptée au risque 𝑝, il y a donc hétéroscédasticité.

On peut aussi définir l’homoscédasticité ou non avec un Fisher :


𝑟 2 (𝑛 − (𝑘 − 1))
𝐹𝑠𝑡𝑎𝑡 = ≡ 𝐹1−𝑝 (𝑘 − 1, 𝑛 − (𝑘 − 1))
1 − 𝑟2 𝑘−1
La règle de décision est :
- Si 𝐹𝑠𝑡𝑎𝑡 < 𝐹1−𝑝 (𝑘 − 1, 𝑛 − (𝑘 − 1)), alors 𝐻0 est acceptée au risque 𝑝, il y a donc homoscédasticité
- Si 𝐹𝑠𝑡𝑎𝑡 ≥ 𝐹1−𝑝 (𝑘 − 1, 𝑛 − (𝑘 − 1)), alors 𝐻0 n’est pas acceptée au risque 𝑝, il y a donc hétéroscédasticité

D – Le test de White
White dans son test sans terme croisé considère :
𝜀𝑡2 = 𝛼1 + 𝛼2 𝑋2𝑡 + 𝛽2 𝑋2𝑡 + 𝛼3 𝑋3𝑡 + 𝛽3 𝑋3𝑡 + ⋯ + 𝛼𝑘 𝑋𝑘𝑡 + 𝛽𝑘 𝑋𝑘2𝑡 + 𝜂𝑡
White dans son test avec terme croisé considère :
𝜀𝑡2 = 𝛼1 + 𝛼2 𝑋2𝑡 + 𝛽2 𝑋2𝑡 + 𝛼3 𝑋3𝑡 + 𝛽3 𝑋3𝑡 + ⋯ + 𝛾1 𝑋2𝑡 𝑋3𝑡 + 𝛾2 𝑋2𝑡 𝑋4𝑡 + ⋯ + 𝛼𝑘 𝑋𝑘𝑡 + 𝛽𝑘 𝑋𝑘2𝑡 + 𝜂𝑡

On pose donc :
𝐻0 ⇔ 𝛼1 = 𝛼2 = 𝛽2 = 𝛾1 = ⋯ = 0 𝐻1 ⇔ ∃𝑘 | 𝛾𝑘 , 𝛼𝑘 , 𝛽𝑘 = 0
On a :
𝑛𝑟 2 ≡ 𝜒(𝑛𝑏𝑉𝑎𝑟𝐸𝑥𝑝𝑙𝑖𝑐𝑎𝑡𝑖𝑣𝑒)
Alors :
𝑟 2 (𝑛 − (𝑛𝑏𝑉𝑎𝑟𝐸𝑥𝑝𝑙𝑖𝑐𝑎𝑡𝑖𝑣𝑒))
𝐹𝑠𝑡𝑎𝑡 = ≡ 𝐹1−𝑝 (𝑛𝑏𝑉𝑎𝑟𝐸𝑥𝑝𝑙𝑖𝑐𝑎𝑡𝑖𝑣𝑒, 𝑛 − (𝑛𝑏𝑉𝑎𝑟𝐸𝑥𝑝𝑙𝑖𝑐𝑎𝑡𝑖𝑣𝑒))
1 − 𝑟2 𝑛𝑏𝑉𝑎𝑟𝐸𝑥𝑝𝑙𝑖𝑐𝑎𝑡𝑖𝑣𝑒

La règle de décision est :


- Si 𝐹𝑠𝑡𝑎𝑡 < 𝐹1−𝑝 (𝑛𝑏𝑉𝑎𝑟𝐸𝑥𝑝𝑙𝑖𝑐𝑎𝑡𝑖𝑣𝑒, 𝑛 − (𝑛𝑏𝑉𝑎𝑟𝐸𝑥𝑝𝑙𝑖𝑐𝑎𝑡𝑖𝑣𝑒)), alors 𝐻0 est acceptée au risque 𝑝, il y a donc
homoscédasticité
- Si 𝐹𝑠𝑡𝑎𝑡 ≥ 𝐹1−𝑝 (𝑛𝑏𝑉𝑎𝑟𝐸𝑥𝑝𝑙𝑖𝑐𝑎𝑡𝑖𝑣𝑒, 𝑛 − (𝑛𝑏𝑉𝑎𝑟𝐸𝑥𝑝𝑙𝑖𝑐𝑎𝑡𝑖𝑣𝑒)), alors 𝐻0 n’est pas acceptée au risque 𝑝, il y a
donc hétéroscédasticité

Page 46 sur 50
Econométrie [Tapez ici] L3 Economie

E – Le test de Goldfeld-Quandt
Il s’applique lorsque 𝜎𝜀 s’accroit proportionnellement avec l’une des variables explicatives du modèle.
On ordonne donc les observations des différentes variables du modèle en fonction des valeurs croissantes d’une de ces
variables du modèle. On néglige les observations centrales de l’échantillon obtenu.
Soit 𝑚 ce nombre d’observation que l’on a négligé.
On obtient donc deux sous-échantillons, l’un correspond aux valeurs les plus faibles et l’autre correspond aux valeurs
les plus fortes.
En ce sens, il reste (𝑛 − 𝑚)/2 observations les plus faibles et (𝑛 − 𝑚)/2 observations les plus fortes.

On applique donc la méthode des 𝑀𝐶𝑂 sur les (𝑛 − 𝑚)/2 observations les plus fortes et les plus faibles. On va aussi
noter 𝑆𝐶𝑅1 la somme des carré des résidus du premier échantillon des valeurs les plus faibles et 𝑆𝐶𝑅2 la somme des
carré des résidus du second échantillon des valeurs les plus fortes. On effectue ensuite :
𝑆𝐶𝑅2 𝑛 − 𝑚 − 2𝑘 𝑛 − 𝑚 − 2𝑘
≡ 𝐹1−𝑝 ( , )
𝑆𝐶𝑅1 2 2
Alors, on pose :
𝐻0 : 𝐻𝑜𝑚𝑜𝑠𝑐é𝑑𝑎𝑠𝑡𝑖𝑐𝑖𝑡é 𝐻1 : 𝐻é𝑡é𝑟𝑜𝑠𝑐é𝑑𝑎𝑠𝑡𝑖𝑐𝑖𝑡é

𝑛−𝑚−2𝑘 𝑛−𝑚−2𝑘
- Si 𝐹𝑠𝑡𝑎𝑡 < 𝐹1−𝑝 ( , ), alors 𝐻0 est acceptée au risque 𝑝, il y a donc homoscédasticité
2 2
𝑛−𝑚−2𝑘 𝑛−𝑚−2𝑘
- Si 𝐹𝑠𝑡𝑎𝑡 ≥ 𝐹1−𝑝 ( , ), alors 𝐻0 n’est pas acceptée au risque 𝑝, il y a donc hétéroscédasticité
2 2

Section 4 – La multi-colinéarité
1 - Définition
Dans le modèle linéaire général simple (MLGS), on a supposé que les variables 𝑋𝑗 sont linéairement indépendantes,
ainsi : 𝑅𝑎𝑛𝑔(𝑋) = 𝑘.
On dit qu’il y a multi-colinéarité parfaite entre plusieurs variables explicatives s’il existe une combinaison linéaire des
observations de plusieurs variables qui donne le vecteur des observation d’une autre variable. Le coefficient 𝑟 2 entre
ces variables est égale à 1.
S’il y a multi-colinéarité, alors 𝑅𝑎𝑛𝑔(𝑋) < 𝑘.
Dans le cas de colinéarité, ou même de multi-colinéarité parfaite, il est nécessaire de modifier notre modèle de départ
en supprimant dans la régression, la ou les variables explicatives responsables de la colinéarité.

Dans la pratique, il y a une tendance vers la colinéarité parfaite et se traduit par un 𝑟 qui tend vers 1. Dans ce cas, on
parle de quasi colinéarité.

2 – Les effets de la colinéarité


La première conséquence est que les estimateurs des 𝑀𝐶𝑂 tendent à être grand en valeur absolue.
La seconde conséquence, les variances et les covariances tendent à être très grande

3 – Le test d’Haitvosky
Ce test a observé le contenu de la matrice des coefficients de corrélation linéaire simple entre les variables explicatives.
Cette matrice permet la détection de colinéarité simple entre les deux variables explicatives, mais pas de multi-
colinéarité.
Haitvosky a travaillé sur la détermination des coefficients de corrélation. Ce test repose sur la nullité de la matrice des
coefficients de corrélation simple entre les variables explicatives. Si le déterminant de cette matrice est nul, alors il y a
de la colinéarité.

Page 47 sur 50
Econométrie [Tapez ici] L3 Economie

On note |𝑟̃ |, le déterminant de la matrice 𝑟̃ . On pose :


𝐻0 ⇔ |𝑟̃ | = 0 𝐻1 ⇔ |𝑟̃ | ≠ 0
Alors :
1 2
1
𝐻 = − (𝑛 − 1 − (2𝑘 + 5)) . ln(−1 − |𝑟̃ |) ≡ 𝜒1−𝑝 ( 𝑘(𝑘 − 1))
6 2
Avec 𝑛 le nombre d’observation et 𝑘 le nombre total de paramètre estimé.

La règle de décision est :


2 1
- Si 𝐻 < 𝜒1−𝑝 ( 𝑘(𝑘 − 1)), alors 𝐻0 est acceptée au risque 𝑝, il y a donc multi-colinéarité
2
2 1
- Si 𝐻 ≥ 𝜒1−𝑝 ( 𝑘(𝑘 − 1)), alors 𝐻0 n’est pas acceptée au risque 𝑝, il y a donc pas de multi-colinéarité
2

4 – Etude des valeurs propres de la matrice des coefficients de corrélation


Il faut calculer les valeurs propres de la matrice des coefficients de corrélation linéaire simple entre les variables
explicatives. Avec 𝑟̃ est la matrice des coefficients de corrélation linéaire simple. On cherche :
|𝑟̃ − 𝜆𝐼| = 0 (𝐼: 𝑚𝑎𝑡𝑟𝑖𝑐𝑒𝐼𝑑𝑒𝑛𝑡𝑖𝑡é)
La colinéarité se manifeste par la présence d’une ou plusieurs valeurs propres faibles et par la présence d’une ou
plusieurs valeurs propres fortes. Il faut donc comparer les valeurs propres et il faut mesurer l’écart. Si ce dernier est
grand, alors il y a colinéarité.

5 – Etude de la Variance Inflation Factor (VIF)


On parle de test, mais ce n’en est pas vraiment un au sens propre car il n’y a pas d’hypothèse.
1
𝑉𝐼𝐹𝑖 = (𝑟𝑖2 : 𝑐𝑜𝑒𝑓𝐷𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑎𝑡𝑖𝑜𝑛𝑀𝑢𝑙𝑡𝑖𝑝𝑙𝑒)
1 − 𝑟𝑖2
Si 𝑉𝐼𝐹𝑖 tend vers +∞, il y a colinéarité entre la variable 𝑋𝑖 et les autres variables explicatives.
Lorsqu’il y a colinéarité stricte, c’est-à-dire 𝑟𝑖2 = 1, alors la solution est de réécrire le modèle. Mais lorsqu’il y a une quasi
colinéarité, pour la corriger, on utilise la méthode de la Ridge Trace qui consiste à trouver le meilleur des estimateurs
parmi l’ensemble noté Estimateur Ridge.

Ces estimateurs sont 𝛽̂ = (𝑋 ′ 𝑋)−1 𝑋 ′ 𝑌


Et à ces estimateurs, il faut rajouter une constante sur la diagonale :
⇔ 𝛽̂ = (𝑋 ′ 𝑋 + 𝑘𝐼)−1 𝑋 ′ 𝑌
On va choisir un 𝑘 tel qu’il va stabiliser tous les 𝛽̂𝑗 de notre modèle.

Section 5 – La robustesse du modèle


On dit que le modèle est robuste lorsqu’il est valide dans des circonstances différentes et sur des longues périodes. Un
modèle est robuste si quel que soit les sous-ensembles constitués à partir d’observation consécutives sur la période
[1, 𝑛], les estimateurs du modèle sont sur chacun des sous-ensembles :
1. Valides, c’est-à-dire que les tests de significativités des estimateurs, les tests sur les coefficients de
détermination, les tests de normalité, l’homoscédasticité et l’absence d’autocorrélation sont tous des critères
vérifiés
2. Stabilité : il faut que les estimateurs soient stables, c’est-à-dire que les paramètres estimés sur chaque sous-
périodes ne sont pas significativement différent entre eux

Page 48 sur 50
Econométrie [Tapez ici] L3 Economie

1 – Le test d’ANACOVA
Ce test porte sur la comparaison entre la somme des carrés des résidus sur chaque sous-période sur la période globale.
On nomme :
Σ𝑒𝑡2
𝑆𝐶𝑅0 = 𝑠𝑢𝑟 𝑡𝑜𝑢𝑡𝑒 𝑙𝑎 𝑝é𝑟𝑖𝑜𝑑𝑒
𝑛
Σ𝑒𝑡2
𝑆𝐶𝑅1 = 𝑠𝑢𝑟 𝑙𝑎 𝑝é𝑟𝑖𝑜𝑑𝑒 1
𝑛1
Σ𝑒𝑡2
𝑆𝐶𝑅2 = 𝑠𝑢𝑟 𝑙𝑎 𝑝é𝑟𝑖𝑜𝑑𝑒 2
{ 𝑛2
La période se scinde donc en deux sous-périodes et on a donc :
𝑆𝐶𝑅𝑎 = 𝑆𝐶𝑅1 + 𝑆𝐶𝑅2

On note 𝐵𝑗1 le coefficient du modèle linéaire sur la 1ère période et on note 𝐵𝑗2 le coefficient du modèle linéaire sur la 2nd
période. Et on pose :
𝐻0 ⇔ 𝐵𝑗1 = 𝐵𝑗2 𝐻1 ⇔ 𝐵𝑗1 ≠ 𝐵𝑗2
Alors :
(𝑆𝐶𝑅0 − 𝑆𝐶𝑅𝑎 ) 𝑛 − 2𝑘
𝐹𝑠𝑡𝑎𝑡 = × ≡ 𝐹1−𝑝 (𝑘, 𝑛 − 2𝑘)
𝑆𝐶𝑅𝑎 𝑘
La règle de décision est :
- Si 𝐹𝑠𝑡𝑎𝑡 < 𝐹1−𝑝 (𝑘, 𝑛 − 2𝑘), alors 𝐻0 est acceptée au risque 𝑝, il y a donc stabilité
- Si 𝐹𝑠𝑡𝑎𝑡 ≥ 𝐹1−𝑝 (𝑘, 𝑛 − 2𝑘), alors 𝐻0 n’est pas acceptée au risque 𝑝, il n’y a donc pas de stabilité

2 – Le test de comparaison de deux coefficients de régression


On pose :
𝐻0 ⇔ 𝐵𝑗1 = 𝐵𝑗2 𝐻1 ⇔ 𝐵𝑗1 ≠ 𝐵𝑗2
Ainsi, on a :
𝐵𝑗1 − 𝐵𝑗2 = 0 ∃𝑑𝑗 | 𝑑𝑗 = 𝐵𝑗1 − 𝐵𝑗2 ⇔ 𝑑𝑗 = 0
On va donc estimer la différence :
̂
𝑑̂𝑗 = 𝐵 1 ̂2
𝑗 − 𝐵𝑗

Avec la loi de Student :


𝑑̂𝑗 𝑑̂𝑗
𝑡𝑠𝑡𝑎𝑡𝑖 = = ≡ 𝑇1−𝑝 (𝑛1 + 𝑛2 − 2𝑘)
𝜎𝑑̂𝑗 ̂1 ) + 𝑉(𝛽
̂2 )
√𝑉(𝛽𝑗 𝑗

On a donc autant de 𝑡𝑠𝑡𝑎𝑡𝑖 que de variables explicatives.

La règle de décision est :


- Si |𝑡𝑠𝑡𝑎𝑡𝑖 | < 𝑇1−𝑝 (𝑛1 + 𝑛2 − 2𝑘), alors 𝐻0 est acceptée au risque 𝑝, il y a donc stabilité
- Si |𝑡𝑠𝑡𝑎𝑡𝑖 | ≥ 𝑇1−𝑝 (𝑛1 + 𝑛2 − 2𝑘), alors 𝐻0 n’est pas acceptée au risque 𝑝, il n’y a donc pas de stabilité

Page 49 sur 50
Econométrie [Tapez ici] L3 Economie

3 – Le test de comparaison de deux coefficients de corrélation


Ce test permet de s’assurer que les relations sont biens linéaires et quels ne sont pas différentes. On montre qu’un
coefficient de corrélation ne suit pas une distribution d’expression simple autour de son espérance mathématique
puisque sa distribution est asymétrique pour des valeurs éloignées de 0.
Fisher a donc proposé d’utiliser les arguments tangents hyperbolique de 𝑟.

Alors :
1 1+𝑟
𝑧 = Argth(𝑟) = ln ( )
2 1−𝑟
On a donc deux sous-périodes avec 𝑟1 et 𝑟2 et nous donne donc 𝑧1 et 𝑧2 tel que :
1 1 + 𝑟1 1 1 + 𝑟2
𝑧1 = ln ( ) 𝑧2 = ln ( )
2 1 − 𝑟1 2 1 − 𝑟2
On note :
𝑧1′ = Argth(𝜌1 ) 𝑧2′ = Argth(𝜌2 )
On pose donc :
𝐻0 ⇔ 𝑑′ = 0 (𝑑′ = 𝑧1′ − 𝑧2′ ) 𝐻1 ⇔𝑧1′ ≠ 𝑧2′
Alors :
𝑑̂
𝑑̂ = 𝑧1 − 𝑧2 ⇒ 𝑡𝑠𝑡𝑎𝑡 =
σ𝑑̂
𝑧1 − 𝑧2

√𝑉(𝑧1 ) + 𝑉(𝑧1 )
1 1+𝑟 1 1+𝑟
[2 ln (1 − 𝑟1 )] − [2 ln (1 − 𝑟2 )]
1 2
⇔ ≡ 𝑇1−𝑝 (𝑛1 + 𝑛2 − 2𝑘)
1 1
√(
𝑛1 − 3) + (𝑛2 − 3)
La règle de décision est :
- Si |𝑡𝑠𝑡𝑎𝑡𝑖 | < 𝑇1−𝑝 (𝑛1 + 𝑛2 − 2𝑘), alors 𝐻0 est acceptée au risque 𝑝, il y a donc stabilité
- Si |𝑡𝑠𝑡𝑎𝑡𝑖 | ≥ 𝑇1−𝑝 (𝑛1 + 𝑛2 − 2𝑘), alors 𝐻0 n’est pas acceptée au risque 𝑝, il n’y a donc pas de stabilité

4 – Conclusion
Il y a donc robustesse du modèle s’il est valide et stable.
Si ce n’est pas le cas, il est bon de revoir les variables explicatives de notre modèle afin de représenter au mieux la réalité
économique.

Page 50 sur 50

Vous aimerez peut-être aussi