Vous êtes sur la page 1sur 53

01BP 12159 Abidjan 01, Tél.

22 42 22 65/ 22 42 27 24 / 22 52 55 67 /07 23 18 62 / 05 23 52 35
Année universitaire : 2018-2019.

SYLLABUS DU COURS IUA

INTITULE DU COURS : ECONOMETRIE 1


Code : ………….
Type : CM ou TD ; CM et TD (barrez la mention inutile)
Volume horaire : 30 H
UE de rattachement : ……………………………………………………………………….
Niveau du cours : Licence 1 Etude du Développement ………………
Semestre : 2………………………………………………………………..............................
Nombre de crédit : 3 crs
Nom de l’enseignant : Dr N’KONGON Yéradé Jeanne.
Ce cours s’adresse à toutes les personnes et particulièrement aux étudiants qui
s’intéressent à un outil d’analyse quantitative dans divers domaines tels que :
l’économie, la gestion, la Macroéconomie, la Finance, le Marketing, la Médecine etc.
Les objectifs
L'objet de ce cours est de permettre aux étudiants de vérifier l’existence de certaines
relations entre des phénomènes économiques et de mesurer concrètement ces
relations sur la base d’observations de faits réels.
Les objectifs spécifiques
Comme objectifs spécifiques, l’étudiant doit être capable de:
▪ Mettre en évidence des relations entre des variables économiques
qui n’étaient à priori évidentes ou pressenties,
▪ Inférer à partir des caractéristiques d’un échantillon celles d’une
population donnée c’est-à-dire déterminer des intervalles de
confiance pour les paramètres du modèle ou tester si un paramètre
est significativement inferieur, supérieur ou simplement différents
d’une valeur fixée,
▪ Faire des simulations afin de mesurer l’impact d’une modification de
la valeur d’une variable sur une autre,
▪ Faire des prévisions utilisées par des pouvoirs publics ou entreprise
pour anticiper et éventuellement réagir a l’environnement
économique.
1
Les pré-requis
Ce cours base principalement sur les mathématiques et les statistiques afin d’identifier
des relations entre différentes variables. L’étudiant devra donc préalablement assister à
un cours de statistiques et de principes d’économie. Aussi, La connaissance des
théories Macroéconomiques et Microéconomiques sera un atout pour l’étudiant.
L’assiduité et la volonté de tout étudiant lui permettra une compréhension aisée du
cours.
Le contenu
Descriptif du cours
Introduction
Chapitre 1 : Chapitre 1 : INTRODUCTION A L’ECONOMETRIE
Section 1 : Le rôle de l’économétrie dans l’analyse économique
Section 2 : Les étapes de l’analyse économétrique
Chapitre 2 : LE MODELE DE REGRESSION SIMPLE
Section 1 : La présentation du modèle
Section 2 : L’estimation des paramètres
Section 3 : La qualité de la régression
Section 4 : Les modèles de régression non linéaires
Chapitre 3 : INFERENCE STATISTIQUE DANS LE MODELE DE REGRESSION SIMPLE
Section 1 : La prévision dans le modèle de régression simple
Section 2 : Les propriétés des estimateurs MCO
Section 3 : Inférence statistique sur les estimateurs MCO
Chapitre 4 : LE MODELE DE REGRESSION MULTIPLE

Section 1 : La présentation du modèle

Section 2 : Estimation du modèle de régression multiple


Section 3 : Inférence statistique dans le modèle de régression multiple
Section 4 : La prévision dans le modèle de régression multiple
Section 5 : L’utilisation des variables indicatrices

Programme du cours
2
N° de Séance Contenu Lectures/travaux
Prise de contact
Séance 1
Syllabus du cours
Date :
Introduction générale
Séance 2
Greene, W
Date : Chap. 1 : INTRODUCTION A L’ECONOMETRIE
Séance 3
Chap. 1 : (suite et fin) Greene, W
Date :
Séance 4
FICHE DE TD N°1
Date :
Séance : 5
Suite et fin de la correction de la fiche de TD N°1
Date :
Séance : 6
Devoir de table
Date :
Séance 7 Bourbonnais, R Greene,
Date : Chap. 2 : LE MODELE DE REGRESSION SIMPLE W
Séance 8
Chap. 2 : (suite et fin) Bourbonnais, R Greene, W
Date :
Chap. 3: INFERENCE STATISTIQUE DANS LE
Séance 9
Date : MODELE DE REGRESSION SIMPLE Casella, G. & Berger, R. L.

Séance 10 Chap. 3 : (suite et fin) Casella, G. & Berger, R. L.


Date :
Séance 11
FICHE DE TD N°2
Date :
Séance 12 Bourbonnais, R Greene,
Chap. 4 : LE MODELE DE REGRESSION MULTIPLE
Date : W
Séance 13 Bourbonnais, R Greene,
Chap. 4 : (suite et fin)
Date : W
Séance 14 Travaux pratiques sur des données réelles sur Eviews
Date : en salle machine
Séance 15 Travaux pratiques sur des données réelles sur Stata en
Date : salle machine
Séance 16
Examen final
Date :

Méthodes et stratégies pédagogiques


En plus des connaissances acquises au cours, les étudiants sont appelés à faire
régulièrement des recherches documentaires.
Concernant les méthodes et les stratégies pédagogiques, on a recours à la
vieille méthode c’est-à-dire aux travaux dirigés (TD) pour permettre une meilleure
assimilation du cours. Par ailleurs, des séances de travaux pratiques (TP) à
l’aide de logiciels tels que Eviews, Stata… seront réalisés en salle machine sur
des données réelles pour permettre aux étudiants de mettre en pratique les
différentes notions vues au cours.

Langue d’enseignement : Français. La connaissance de l’anglais est un atout.


3
Modalités d’évaluation
Evaluation continue :40%
Participation 8%
Interrogations 7%
Devoirs sur table 15%
Travaux à rendre 10%
Examen final en fin de semestre 60%
1ère session : à la fin du cours

Session de rattrapage (2ème session)

Les références bibliographiques


Jeffrey M. Wooldridge, Introductory Econometrics: A Modern Approach. (W). Version française
disponible à partir de Novembre 2014.

Greene, W. (2011), Économétrie, 7ième édition, version française, Pearson Education,


ISBN: 978-0-387-77316-2 Disponible à la bibliothèque de IUA.

Greene, W. (2012), Econometric Analysis, 7th edition, English version, Pearson Education,
ISBN: 978-0-13-139538-1Pindyck, R. et D. Rubinfeld (2009), Microéconomie, Pearson.
Bourbonnais, R. (2004) : Économétrie. Dunod, Paris, 5e edn. Disponible à la bibliothèque de
IUA.
Casella, G. & Berger, R. L. (2001) Statistical Inference, Duxbury

4
INTRODUCTION

L’analyse économique est basée sur des représentations théoriques qui décrivent les
comportements des agents et les mécanismes qui sont à l’origine des phénomènes observés.
Les théories économiques sont des énoncés logiques qui reposent sur des hypothèses plus
ou moins réalistes et mènent à des conclusions (prise de décisions par exemple) dont la
portée est positive et souvent normative. Compte tenu de leur conséquence en termes
d’actions sur le réel, les énoncés théoriques doivent être confrontés aux faits observés. Ceci
constitue le champ d’application de l’économétrie.

La reconnaissance du caractère essentiellement non expérimental de la science


économique a conduit dès les années 1930 à recourir à l’économétrie. Selon Frisch (1933),
l’économétrie est la branche de la science économique qui utilise des méthodes
mathématiques et statistiques pour établir des lois ou vérifier des hypothèses à partir des
données chiffrées tirées de la réalité. C’est la branche de l’économie qui traite de l’analyse
empirique des relations économiques, testent la pertinence des théories économiques,
élabore des prévisions et évalue les conséquences d’une politique économique. Elle
constitue ainsi, l’outil d’expérimentation et de validation des théories de la science
économique.

Aujourd’hui, l’utilisation de l’économétrie s’étend à plusieurs domaines notamment


la politique économique, la finance, la gestion d’entreprise, l’agronomie, la médecine…
Depuis les années 60, le développement de l’informatique et des logiciels standardisés a
rendu presque routinière l’utilisation de l’économétrie.

1
Chapitre 1 : INTRODUCTION A L’ECONOMETRIE

1. Le rôle de l’économétrie dans l’analyse économique


L’économétrie est un ensemble de méthodes statistiques appliquées à l’économie. Elle a
deux (2) fonctions essentielles :
- tester les théories économiques ou, plus modestement, certaines assertions de la
théorie économique;
- évaluer les paramètres en jeu dans les relations économiques.

1.1 - La validation de la théorie

Les théories économiques découlent en général de raisonnements logiques rigoureux.


Mais les hypothèses sur lesquelles elles reposent peuvent être contestées. Plusieurs
théories concurrentes peuvent alors coexister. Ainsi, l’économétrie permet à l’économiste
d’infirmer ou de confirmer les théories qu’il construit. Le théoricien postule des relations et
l’application de méthodes économétriques fournit des estimations sur la valeur des
coefficients ainsi que la précision attendue. Le schéma ci-après illustre la démarche de
validation de la théorie à l’aide de l’économétrie.
La démarche de validation de la théorie

Théorie

Formulation de la théorie: Modélisation

Confrontation du modèle avec les données:


Estimation économétrique

La théorie est validée La théorie n'est pas validée

Nouvelles données testées Nouvelle spécification du modèle


Source : Bourbonnais (2002)

1.2 - Un outil d’Investigation

L’économétrie n’est pas seulement un système de validation, mais elle est également un
outil d’analyse. Citons quelques domaines où l’économétrie apporte une aide à la
modélisation, à la réflexion théorique ou à l’action économique :
- la mise en évidence de relations entre des variables économiques qui n’étaient pas à
priori évidentes ou pressenties;

2
- l’inférence statistique consiste à inférer, à partir des caractéristiques d’un échantillon,
les caractéristiques d’une population. Elle permet de déterminer des intervalles de
confiance pour des paramètres du modèle ou tester si un paramètre est
significativement inférieur, supérieur ou simplement différents d’une valeur fixée ;

- la simulation qui mesure l’impact d’une modification de la valeur d’une variable sur
une autre ;

- la prévision qui est utilisée par les pouvoirs publics ou l’entreprise pour anticiper et
éventuellement réagir à l’environnement économique.

2. Les étapes de l’analyse économétrique

L’analyse économétrique est composée de 3 principales étapes : la spécification du modèle


économétrique, l’estimation des paramètres du modèle et les tests d’adéquation du modèle.

2.1- La spécification du modèle

2.1.1- La notion de modèle

Un modèle consiste en une représentation formalisée d’un phénomène sous forme


d’équations dont les variables sont des grandeurs économiques. L’objet du modèle est de
représenter les traits les plus marquants d’une réalité qu’il cherche à styliser. Le modèle est
donc l’outil que le modélisateur utilise lorsqu’il cherche à comprendre et à expliquer des
phénomènes. Pour ce faire, il émet des hypothèses et explicite des relations.

Le modèle est alors une présentation schématique et partielle d’une réalité naturellement
plus complexe. Toute la difficulté de la modélisation consiste à ne retenir que les
représentations pertinentes pour le problème que le modélisateur cherche à expliciter. Ce
choix dépend de :
- la nature du problème;
- le type de décision;
- l’étude à effectuer.

La spécification du modèle identifie la ou les variables dépendantes et les variables


indépendantes puis définit les formes fonctionnelles de toutes les relations économiques.

Exemple : La fonction de consommation keynésienne

Keynes postule que les dépenses de consommation (C) des ménages dépendent du niveau
de leur revenu disponible (Y), C = f(Y). Les hypothèses du modèle sont :
H1 : la propension marginale à consommer est inférieure à l’unité (0 < dC/dY <1);
H2 : la propension moyenne à consommer décroit à mesure que le revenu augmente
(d(C/Y)/dY < 0).
La spécification satisfaisant les hypothèses ci-dessus et communément utilisée est :
C = α + βY avec α > 0 et 0 < β < 1 (1)

3
2.1.2- Le modèle économétrique

La relation (1) représente le modèle mathématique de la fonction de consommation


keynesienne. Elle évoque une relation exacte ou précise entre les dépenses de
consommation et le revenu disponible. On dit que le modèle économique est déterministe.
Or aucun modèle quel qu’il soit ne peut capturer toute la réalité économique d’un
phénomène. En effet, les variables indépendantes ne peuvent totalement expliquer les
mouvements de la variable dépendante. Ainsi, il est nécessaire d’ajouter au modèle
économique une composante aléatoire appelée le "terme d’erreur" ou la "perturbation"
qui reflète 3 types d’erreurs :

- l’erreur de spécification : les variables explicatives et la forme fonctionnelle ne suffisent


pas pour rendre compte fidèlement de la totalité du phénomène étudié;

- l’erreur de mesure : les données utilisées pour l’estimation du modèle ne reflètent pas
exactement les valeurs réelles des variables du modèle;

- l’erreur de fluctuation d’échantillonnage : instabilité des paramètres estimés.

L’introduction du terme d’erreur rend le modèle non-déterministe et on obtient ainsi un


modèle économétrique :
C = α + βY + ε
où ε est le terme d’erreur, α et β sont les paramètres à estimer. α > 0 et 0 < β < 1 sont les
hypothèses à tester après l’estimation.

2.2- L’estimation des paramètres du modèle

L’estimation consiste à calculer les valeurs numériques des paramètres à partir des
données recueillies sur un échantillon de la population. A ce niveau, le processus de collecte
des données relatives aux variables du modèle joue un rôle important. La justesse des
estimations dépend de la qualité des données disponibles. Lorsque les données sont
obtenues à l’issue d’une enquête directe menée sur un échantillon de la population étudiée,
elles sont qualifiées de données primaires. Les données secondaires sont celles
collectées auprès d’un organisme ou dans des ouvrages spécialisés. Statistiquement, on
distingue 4 types de données.

2.2.1- Les données en coupe transversale ou coupe instantanée

Elles indiquent les valeurs des variables pour un échantillon d’individus, de ménages,
d’entreprises, de pays ou toute autre variété d’entités considérées à un instant donné. Les
coupes instantanées ignorent souvent les décalages temporels de collecte des données et
une enquête où les ménages sont interrogés une fois à différentes périodes de l’année est
considérée comme une coupe instantanée. La coupe transversale est obtenue à partir d’un
échantillonnage aléatoire de la population étudiée.

4
Exemple d’une coupe d’instantanée des ménages à Abidjan

Ménages Revenu Consommation Quartier


(i) (Yi) (Ci) (qi)
1 200 120 3
2 100 90 4
3 350 200 2
4 600 450 1

: : : :
. . . .

100 120 100 3

En coupe instantanée, le modèle keynésien s’écrit :


Ci = α + β Yi + ε i

2.2.2- Les séries temporelles

Les variables sont observées dans le temps à différentes périodes successives. Le temps
représente une dimension importante pour l’étude de certains phénomènes tels que
l’évolution du chiffre d’affaire d’une entreprise, la gestion des stocks, le taux de chômage …
La fréquence de collecte des données (journalière, mensuelles ou annuelle) ne varie pas
pendant la période de l’enquête.

Exemple : Exemple de séries temporelles sur les agrégats de l’économie ivoirienne

Année Revenu Consommation Déficit


(t) (Yi) (Ci) (Di)
1994 2505 2368 - 6,5
1995 3053 2573 - 4,1
1996 4593 3905 - 2,1

: : : :
. . . .

2012 - - -

En séries temporelles, le modèle keynésien s’écrit :


Ct = α + β Yt + ε t

2.2.3- Les données de panels

5
Les données de panels ou données longitudinal sont une catégorie particulière de données
en coupes instantanées ou chaque unité de l’échantillon est enquêtée dans le temps. Les
informations relatives à plusieurs variables sont collectées auprès dès mêmes individus de
façon chronologique durant une période.

Avec des données de panels, le modèle keynésien s’écrit


Cit = α + β Yit + ε it
Exemple de données sur 4 pays de l’UEMOA

Pays Année Revenu Consommation


(i) (t) (Yit) (Cit)
1990 2200 1500
Benin 1995 2800 1790
2000 3324 2048
2005 3560 2568
1990 1830 1500
Burkina- 1995 2784 2045
Faso 2000 3213 2561
2005 3402 2857
1990 2500 2136
Côte 1995 3053 2573
d’Ivoire 2000 4124 3245
2005 4509 3840
1990 2546 2013
1995 2875 2398
Sénégal 2000 3241 2564
2005 4329 3089

2.2.3- La notion d’estimateur

Puisqu’il est extrêmement coûteux voire impossible d’obtenir des informations concernant
les variables sur l’ensemble de la population étudiée, on construit une base de données sur
un échantillon de N individus. L’inférence statistique consiste à dériver les valeurs des
paramètres de la population à partir des données de l’échantillon. Les valeurs numériques
obtenue sont appelées estimateurs des paramètres du modèle.
On peut calculer une estimation ponctuelle et obtenir une valeur spécifique de chaque
paramètre. On peut également construire des estimations d’intervalle et obtenir alors un
intervalle de confiance recouvrant avec une probabilité élevée la valeur réelle du
paramètre. La méthode d’estimation dépend de la forme fonctionnelle du modèle (linéaire
ou non linéaire) et de la nature des données.

2.3- La vérification de l’adéquation du modèle

Avant toute utilisation des estimations à des fins de prévision, il est nécessaire de vérifier
son adéquation au phénomène étudié. Il existe des tests statistiques permettant d’apprécier
6
l’écart entre les valeurs estimées et les valeurs réelles des paramètres. Si le modèle n’est pas
globalement significatif, on reprend les étapes précédentes de sorte à améliorer la qualité
des estimations.
Lorsque le modèle est globalement significatif, il convient de tester les hypothèses du
modèle. Si ces hypothèses sont vérifiées, l’analyse économétrique valide la théorie
économique qui soutend le modèle. Ce dernier peut être utilisé pour établir des prévisions
ou asseoir des politiques économiques.
En cas d’infirmation des hypothèses, l’économiste peut procéder à l’élaboration d’une
nouvelle théorie économique sur le phénomène analysé.

7
Chapitre 2- LE MODELE DE REGRESSION SIMPLE

Le modèle de régression simple étudie la relation entre 2 variables. L’analyse de la nature et


de la forme de la relation entre 2 ou plusieurs variables est appelée une analyse de
régression. Le modèle de régression simple connait des limitations mais représente un outil
approprié de base.

1. La présentation du modèle

On considère deux variables X et Y mesurées sur une population et nous cherchons à


expliquer Y en terme de X. La littérature économique contient d’innombrables relations à
deux variables : le prix et la quantité, la consommation et le revenu, le chômage et l’inflation.
De façon simple, la relation entre X et Y peut s’écrire :
Yi = β 0 + β1 X i + ε i (2.1)
où i représente l’indice des individus de l’échantillon. Le nombre total des individus appelée
la taille de l’échantillon est noté n (i = 1, 2, …, n).
Y est appelée la variable dépendante, la variable expliquée, la variable prédite ou le
régressant. X est la variable indépendante, la variable explicative, la variable prédicatrice ou
le régresseur. Les données de l’individu i comprennent une observation sur la variable
dépendante notée Yi, et une observation sur la variable indépendante notée Xi.
L’équation (2.1) représente le modèle linéaire de régression simple.
β 0 et β1 sont les paramètres du modèle et ε le terme d’erreur.
Si Δε = 0, ∆Y = β1∆X et X a un effet linéaire sur Y.
β1 représente ainsi la pente de la relation entre les 2 variables et β 0 la constante.
Xi et Yi sont observées, β 0 , β1 et εi ne sont pas observées.
Comment obtenir les valeurs numériques des paramètres β 0 et β1 ?

2. L’estimation des paramètres

2.1- Les Hypothèse du modèle linéaire de régression simple

H1 : La linéarité : le modèle est linéaire en Xi (ou en toute transformation monotonique de


Xi).
H2 : L’exogénéité : la variable indépendante est exogène i.e. E(εi/Xi) = 0. Ce qui signifie que
la variable X n’est pas aléatoire et les valeurs Xi sont observées sans erreur.
H3 : E(εi) = 0 : l’espérance mathématique du terme d’erreur est nulle en d’autres termes
l’erreur moyenne est nulle.
H4 : Homoscédasticité : E(εi2) = σ2 i.e. la variance du terme d’erreur est constante et
l’amplitude de l’erreur est la même quel que soit l’individu .
H5 : Non autocorrélation : E(εi, εJ) = 0 si i # j. Les erreurs de prévisions ne sont pas
corrélées. L’erreur de prévision pour l’individu i n’a pas d’influence sur celle d’un
autre individu.

8
H6 : La normalité : le terme d’erreur suit une loi normale et on note εi ~ N(0,σ2).

2.2- La méthode des moindres carrées ordinaires (MCO)

Si les hypothèses ci-dessus sont satisfaites, on peut appliquer la méthode des MCO qui
consiste à minimiser la somme des carrés des écarts.
On distingue la fonction de régression de la population E Yi ( )=β 0 + β1 X i où β0 et β1
sont les paramètres de population et la fonction de régression de l’échantillon
Yˆi = βˆ0 + βˆ1 X i où β̂ 0 et β̂1 sont les estimateurs de β 0 et β1 . Les valeurs numérique de
β̂ 0 et β̂1 sont obtenues à partir des données collectées sur un échantillon de la population.
La contrepartie du modèle économétrique de la population Yi = β 0 + β1 X i + ε i dans
l’échantillon est Yi = βˆ0 + βˆ1 X i + ei = Yˆi + ei où ei est l’estimateur de εi .
ei est appelé l’écart ou le résidu. ei est donc la différence entre les valeurs observées de la
variable à expliquer et les valeurs ajustées à l’aide des estimations des coefficients du
modèle : Yˆi = βˆ0 + βˆ1 X i .
Le ieme résidu ei s’interprète comme l’estimation de la partie de Yi qu’on ne peut pas
expliquer par Xi. Dans la mesure où la valeur ajustée Yˆi peut être considérée comme un
estimateur de E(Yi), on peut considérer que ei = Yi − Yˆi est un estimateur de
ε i = Yi − E (Yi ) .

Du fait de la fluctuation d’échantillonnage, la fonction de régression de l’échantillon n’est


qu’une approximation de la fonction de régression de la population comme l’illustre la
figure suivante.

Yi

E (Yi ) = β 0 + β1 X i
εn
Yn
en

Y1
e1
E(Y1) ε1 Yˆi = βˆ0 + βˆ1 X i
Ŷ1

Xi
X1 Xn
Figure 1 : Les droites de régression de la population et de l’échantillon.

9
On obtient une bonne approximation de la fonction de régression de la population si les
écarts ei , i = 1, 2, …n sont très petits. Le principe de la méthode des MCO consiste à choisir
β 0 et β1 de sorte que la somme des carrés des résidus soit minimale.
De façon algébrique, le problème s’écrit :
2

∑ e = ∑ (Y − βˆ )
n n
Minimiser S =
2
i i 0 − βˆ1 X i
i =1 i =1

∑ e = ∑ (Y )
n n
Or S =
2
i i
2
+ βˆ02 + βˆ12 X i2 − 2 βˆ0 Yi − 2 βˆ1 X i Yi + 2 βˆ0 βˆ1 X i
i =1 i =1

∂S
= 2nβˆ0 − 2∑ Yi + 2 βˆ1 ∑ X i = 0
∂β 0
ˆ
⇒ nβˆ − Y + βˆ
0 ∑ X =0 i 1∑ i

⇒ ∑ Y = nβˆ
i 0 + βˆ ∑ X
1 i (1)

∂S
= 2 βˆ1 ∑ X i2 − 2∑ X iYi + 2 βˆ0 ∑ X i = 0
∂β1
ˆ
⇒ ∑
X Y = βˆ X + βˆ
i i X 2 (2)0 ∑ i 1 ∑ i

(1) et (2) sont appelées les équations normales du modèle linéaire de régression simple.

Elles forment le système d’équation suivant :


∑ Yi = nβˆ0 + βˆ1 ∑ X i
 (2.4)
∑ X iYi = βˆ0 ∑ X i + βˆ1 ∑ X i
2

où les inconnues sont β̂ 0 et β̂1 .


La résolution du système d’équations simultanées donne :
βˆ0 = Y − βˆ1 X (2.5)

βˆ1 =
∑ ( X − X )(Y − Y ) = ∑ X Y − nXY
i i i i
(2.6)
∑( X − X ) ∑ X − nX 2 2 2
i i

β̂ 0 et β̂1 sont appelés les estimateurs des MCO de β 0 et β1 .


Si on pose xi = X i − X et yi = Yi − Y , xi et yi représentent les déviations des variables X
et Y respectivement par rapport aux moyennes. β̂1 peut alors s’écrire comme suit :

βˆ1 = ∑
xi yi
(2.7)
∑ xi2

10
2.3- Les variances et écart-types des estimateurs des MCO

Les hypothèses du modèle de régression simple permettent à la fois d’estimer les valeurs
numériques, les variances et les écart-types de β̂ 0 et β̂1 . Ces paramètres sont des variables
aléatoires et leurs valeurs numériques varient d’un échantillon à un autre. C’est cette
variabilité ou fluctuation d’échantillonnage que mesurent les variances et les écart-types,
l’écart-type étant la racine carrée de la variance.
Les variances sont :
1 
( )
var βˆ0 = σ β2ˆ =
∑X i
2

σε = σε
2  +
X22  (2.8)
n∑ ( X − X )  n ∑( Xi − X ) 
0
2 2
i  
σ ε2
( )
var βˆ1 = σ β2ˆ = (2.9)
∑( X −X)
1
2
i

Lorsque la variance σ ε2 est connue, les variances des paramètres sont obtenues
directement à partir des formules (2.8) et (2.9). Si la valeur de σ ε2 n’est pas connue, elle
doit être estimée à l’aide de la formule suivante :

σˆ ε
2
=
∑e 2
i
(2.10)
n−2
où σˆ ε est l’estimateur MCO de σ ε2 . Le dénominateur (n – 2) est connu sous le nom de
2

degré de liberté c’est-à-dire le nombre d’observations indépendantes.


Les variances estimées des paramètres sont :

( )
var βˆ0 = σˆ 2
=
∑X i
2

σˆ ε = ∑
2
X i
2

σˆ ε2
n∑ ( X − X ) n∑ x
βˆ
0
2 2
i i

σˆ ε2 σˆ ε2
( )
var βˆ1 = σˆ β2ˆ = =
∑( X i − X ) ∑x
1
2 2
i

Les écart-types sont :

σˆ βˆ = σˆ = σˆ ε 2 ∑X i
2

et σˆ βˆ = σˆ β2ˆ =
σˆ ε
0 βˆ
0
n∑ x i
2 1 1
∑x 2
i

3. La qualité de la régression

3.1- L’équation d’analyse de la variance

On sait que Yi = Yˆi + ei . En soustrayant Y de chaque membre de cette équation, on


(
obtient : Yi − Y = Yˆi − Y + ei ) ( )
(Y − Y ) = (Yˆ − Y ) ( )
2 2
et i i + 2ei Yˆi − Y + ei2
11
) + ∑e
∑ (Yi − Y ) = ∑ Yˆi − Y (
2 2
2
La sommation donne i

∑ (Y − Y ) = ∑ (Yˆ − Y ) + ∑ (Y − Yˆ )
2 2 2

ou encore i i i i

SCT = SCE + SCR

La somme des carrés totale (SCT) est égale à la somme des carrés expliqués (SCE) plus la
somme des carrés des résidus (SCR). Cette équation permet de juger de l’adéquation du
modèle. En effet, plus la variabilité expliquée est proche de la variabilité totale, meilleure est
l’approximation de la fonction de régression de la population par celle de l’échantillon. Il est
d’usage de calculer une mesure de qualité de la régression appelée le coefficient de
détermination :

∑( )
2
SCE Yˆi − Y ∑e 2

R =
2
⇔ R 2
= =1− i

∑ (Y − Y ) ∑ (Y − Y )
2 2
SCT i i

3.2- Le tableau d’analyse de la variance

On résume l’équation de la variance dans le tableau d’analyse de la variance (TAV).

Source de variation Somme des carrés Degré de liberté Carrées moyens

( )
2
SCE = ∑ Yˆi − Y SCE
( )
2
Variation expliquée 1 = ∑ Yˆi − Y
= β12 ∑( X i − X ) 1
2

SCR ∑ ei
2
Variation résiduelle SCR = ∑ ei2 n-2 =
n−2 n−2
SCT ∑ (Yi − Y )
2

SCT = ∑ (Yi − Y )
2
Variation totale (n-1) =
n −1 n −1

3.3- Le coefficient de corrélation

Le coefficient de détermination est étroitement lié à une autre mesure de l’intensité de la


relation entre X et Y : il s’agit du coefficient de corrélation. Par définition,

rX /Y =
∑ ( X − X )(Y − Y )
i i
=
∑x y i i

∑ ( X − X ) ∑ (Y − Y ) ∑x ∑ y
2 2 2 2
i i i i

On montre que rX /Y = ± R et −1 < rX /Y < 1 .


2

Si rX /Y est proche de 1, les variables X et Y sont positivement corrélées.


Si rX /Y est proche de - 1, les variables X et Y sont négativement corrélées.
Si rX /Y est proche de 0, les variables X et Y ne sont pas corrélées.
12
En pratique, rX /Y est rarement proche de l’une de ces 3 valeurs et il est difficile de proposer
une interprétation fiable à la simple lecture du coefficient de corrélation. En termes de
régression, R2 représente une mesure appropriée de la relation entre X et Y.

Exemple de régression : La fonction de demande d’un bien

Soit le tableau suivant qui fournit les données relatives à la quantité demandée (Y) et le prix
(X) d’un bien pour un échantillon aléatoire de la population.

Quantité
49 45 44 39 38 37 34 33 30 29
demandée (Yi)
Prix (Xi) 1 2 3 4 5 6 7 8 9 10

On vous demande d’estimer la demande du bien en fonction du prix Yi = β 0 + β1 X i + ε i et


de calculer les variances. Dresser le TAV et calculer le coefficient de détermination.

4. Les modèles de régression non linéaires

Jusqu’ici, nous avons supposé que la relation entre X et Y est linéaire. Cependant, on
rencontre plusieurs relations non linéaires en économie. Pour la majorité de celles-ci, il est
possible de transformer le modèle non linéaire en un modèle linéaire de régression simple.
α
i) Y = AX
Par transformation logarithmique, on obtient : log Y = log A + α log X (modèle log-log).
Si on pose Y * = log Y et X * = log X le modèle devient :
Y * = β 0 + β1 X * avec β 0 = log A et β1 = α .
Le modèle économétrique est : Yi = β 0 + β1 X i + ε i .
* *

∆Y * ∆ log Y ∆Y / Y
Dans ce modèle β1 = = = . D’où β1 représente l’élasticité de Y en
∆X * ∆ log X ∆X / X
fonction de X.
αX
ii) Y = Ae
Par transformation logarithmique, on obtient : log Y = log A + α X (modèle semi-log).
Si on pose Y * = log Y , le modèle devient :
Y * = β 0 + β1 X avec β 0 = log A et β1 = α .
Le modèle économétrique est : Yi * = β 0 + β1 X i + ε i .
1
iii) Y = β 0 + β1
X
1
Si on pose X = , le modèle devient : Y = β 0 + β1 X * .
*

X
Le modèle économétrique est : Yi = β 0 + β1 X i + ε i .
*

13
Chapitre 3 – INFERENCE STATISTIQUE DANS LE MODELE DE REGRESSION SIMPLE

Le chapitre précédent a montré comment calculer les valeurs des estimateurs de β 0 , β1 et


σ ε2 par la méthode des MCO. Dans ce chapitre nous étudierons l’efficacité des estimateurs
et conduirons des tests d’hypothèse en utilisant la statistique inférentielle, d’où le rappel
statistique des notions de base.

1- Rappels Statistiques

Une variable aléatoire est une grandeur mesurable dont les valeurs sont soumises à une
certaine dispersion lors de la répétition d’un processus donné. Elle est régie par une loi de
probabilité loi de probabilité loi de probabilité caractérisée par la moyenne et la variance.
Soit une population caractérisée par une variable aléatoire Y.
Un échantillon aléatoire de taille n de Y est une suite de n variables aléatoires (Y1, Y2, … , Yn)
indépendantes et suivant toutes la même loi de probabilité que Y, notée f (Y, β) où β est un
paramètre ou un vecteur de paramètres inconnus. C’est une suite de variables aléatoires
identiquement et indépendamment distribuées (i.i.d.) de même distribution que la variable
aléatoire X.
Les n valeurs (y1, y2, . . . , yn) sont les réalisations identifiées aux données de l’échantillon
aléatoire des n variables aléatoires (Y1, Y2, … , Yn).
L’estimation désigne le procédé par lequel on détermine les valeurs inconnues des
paramètres β d’une population à partir des données d’un échantillon. L’inférence statistique
consiste alors à effectuer des études sur l’échantillon et transposer avec une certaine
probabilité, les résultats sur la population.

1.1- La notion d’estimateur

Un estimateur β̂ d’un paramètre inconnu β est une statistique, et donc une variable
aléatoire, fonction des n variables aléatoires Y1, Y2, … , Yn : β̂ = g (y1, y2, . . . , yn).
Un estimateur est une méthode de l’inconnue β. Il ne faut pas le confondre avec l’estimation,
qui est une valeur particulière de l’estimateur obtenue à partir d’un échantillon. Si un autre
échantillon aléatoire était tiré sous des conditions identiques, on obtiendrait une valeur
différente de l’estimateur, et on qualifie cette différence de fluctuation d’échantillonnage.

On appelle distribution d’échantillonnage la loi de probabilité de l’estimateur. On peut


caractériser cette distribution en calculant analytiquement ses moments, en particulier son
espérance mathématique et sa variance ou la spécifier complètement si on connaît la loi des
Yi, en utilisant les outils de la statistique mathématique, où si cela est impossible
analytiquement, de l’approcher empiriquement par des expériences de simulation qu’on
appelle également des expériences de Monte-Carlo.

1.2- Le problème de l’estimation

Le problème de l’estimation est alors celui de la recherche d’une statistique utilisée comme
estimateur qui soit dotée de bonnes propriétés en échantillon de taille finie, c’est-à-dire qui

14
conduise à la meilleure évaluation possible, la meilleure estimation du paramètre inconnu
β. La statistique β̂ , estimateur de β, est une variable aléatoire, dont les réalisations peuvent
s’écarter plus ou moins de la vraie valeur du paramètre θ qu’on cherche à estimer. Ces
estimations fluctuent autour de l’espérance mathématique de l’estimateur E( β̂ ) avec une
dispersion caractérisée par la valeur de la variance Var( β̂ ) de l’estimateur.
Il est donc évident que les estimateurs dont l’espérance mathématique coïncide avec la
vraie valeur du paramètre θ et dont la variance est la plus petite possible, sont les plus
intéressants. On établit alors les critères de choix ou propriétés souhaitables pour un
estimateur dans un échantillon de taille finie. On aimerait que :
• l’espérance mathématique de l’estimateur soit égale à la vraie valeur du paramètre
qu’on cherche à estimer : estimateur centré ou sans biais ;
• la variance de l’estimateur soit la plus petite possible : autrement dit la dispersion
autour de l’espérance mathématique (la vraie valeur du paramètre) soit la plus petite
possible.

Ces critères permettent alors de comparer, en échantillon de taille finie, différents


estimateurs possibles du même paramètre inconnu β.

1.3- Propriétés des échantillons de taille finie

1.3.1- Estimateur sans biais


Un estimateur β̂ de β est dit sans biais ou centré lorsque E( β̂ - β) = 0 ou encore E( β̂ ) = β.
Ceci signifie que la valeur de l’estimation sur un très grand nombre (une infinité)
d’échantillons aléatoire de taille n fournirait en moyenne la valeur β. La propriété d’être
sans biais assure que l’estimateur choisi ne conduit pas à une erreur systématique.
Si l’estimateur n’est pas centré, il possède un biais noté : B( β̂ ) = E( β̂ - β) = E( β̂ ) – β.

Il peut arriver qu’un estimateur soit biaisé, mais que ce biais soit négligeable pour des
échantillons de grande taille. Un estimateur est dit asymptotiquement sans biais si :
() ()
lim B βˆ = 0 ou lim E βˆ = β .
n→∞ n→∞

Par exemple, si θ̂ et θɶ sont respectivement des estimateurs non biaisé et biaisé de


l’inconnue θ, les distributions d’échantillonnage se présentent comme suit :

15
1.3.2- Estimateur efficace - efficient
Un estimateur β̂ de β est dit efficient si :
• il est sans biais ; et
• il est à variance minimale parmi tous les estimateurs sans biais.
Si de plus on se limite à la classe des estimateurs linéaires, un tel estimateur est appelé
BLUE (Best Linear Unbiased Estimator).
Si θ̂ et θɶ sont des estimateurs non biaisés de θ, avec θ̂ plus efficace que θɶ , les distributions
d’échantillonnage se présentent comme suit :

1.3.3- Erreur quadratique moyenne

Nous avons défini un estimateur efficient comme étant celui à variance minimale dans la
classe des estimateurs sans biais. Mais il est clair qu’on pourrait trouver des estimateurs
biaisés à variances plus petites que celle de l’estimateur centré. Se concentrer uniquement
sur les estimateurs centrés pourrait conduire à écarter a priori un estimateur “légèrement”
biaisé mais à variance de loin inférieure à celle de l’estimateur centré.
Un critère permettant d’arbitrer entre l’absence de biais et la variance est le critère de
l’erreur quadratique moyenne.
Soit β̂ un estimateur de β, l’erreur quadratique moyenne est définie par E( β̂ - β)2 .
Elle mesure la précision de l’estimateur β̂ ou encore le risque d’utiliser β̂ pour estimer θ.
On montre qu’elle dépend à la fois de la variance et du biais de l’estimateur :
E( β̂ - β)2 = Var( β̂ ) + B2( β̂ ).
Ainsi, il est possible de trouver des estimateurs biaisés plus précis que le meilleur
estimateur sans biais.

1.4- Propriétés asymptotiques

On s’intéresse au comportement de la distribution de l’estimateur lorsque la taille de


l’échantillon devient de plus en plus grande (infinie). Il s’agit des propriétés des
échantillons de grande taille, appelées propriétés asymptotiques des estimateurs.
Soit β̂ un estimateur de β fondé sur un échantillon de taille n, alors la suite d’estimateurs
β̂ n (pour n de plus en plus grand) est convergente si elle converge en probabilité vers θ.

16
Ceci signifie qu’en augmentant la taille de l’échantillon, on peut rendre l’estimateur β̂ aussi
proche de la vraie valeur de β qu’on le souhaite avec une probabilité égale à 1. Ont dit que β̂
est un estimateur consistant de β.

2- Les propriétés des estimateurs MCO

Un échantillon donné de la population fournit des valeurs uniques de β̂ 0 , β̂1 et σˆ ε2 . En


répétant les calculs sur plusieurs échantillons tirés de la même population, on obtient une
gamme de valeurs pour chaque estimateur appelée la distribution échantillonnage. Elle
permet d’analyser les propriétés des estimateurs des MCO et de faire des tests
d’hypothèses. Bien que simple à appliquer, la méthode des MCO est populaire parce qu’elle
incarne des propriétés intéressantes résumées par le théorème de Gauss-Markov.

Théorème de Gauss-Markov : Etant donné les hypothèses du modèle linéaire de régression


simple, les estimateurs des MCO sont les estimateurs ayant la plus petite variance parmi tous
les estimateurs linéaires sans biais de β0 et de β1; on dit qu’ils sont BLUE (Best Linear Unbiased
Estimator).
- La linéarité des estimateurs : Elle provient des hypothèses H1 et H2. Si ces hypothèses
sont satisfaites, on montre que β̂ 0 et β̂1 sont des fonctions linéaires de Y.

- Estimateurs sans biais : Les moyennes des distributions d’échantillonnage des


estimateurs des MCO sont égales aux valeurs des paramètres de population β 0 et β1 .

( )
E ( βˆ0 ) = β 0 , E βˆ1 = β1 et E (σˆ ε2 ) = σ ε2 .

- Variance minimale : Var βˆ0 ( ) et Var ( βˆ ) sont plus petites que les variances de tout
1

autre estimateur linéaire non biaisé. Le théorème de Gauss-Markov implique que nous
obtenons les estimateurs efficaces de β 0 et β1 par la méthode des MCO qu’en utilisant une
autre méthode générant des estimateurs non biaisés.

17
- Convergence : Lorsque la taille de l’échantillon n tend vers ∞, les estimateurs β̂ 0 et β̂1
convergent en probabilité vers les valeurs de β 0 et β1 .Ont dit qu’ils sont des estimateurs
consistants de β 0 et β1 .

3- Inférence statistique sur les estimateurs MCO

3.1 Les lois de probabilité des estimateurs

L’hypothèse H6 du modèle de régression simple stipule que les erreurs sont normalement
et identiquement distribuées, ce qui implique que les distributions d’échantillonnage de β̂ 0
et β̂1 sont des distributions normales.
Yi = β 0 + β1 X i + ε i , avec ε i ∼ N ( 0,σ ε2 )
D’après H2, X est non stochastique et donc Y suit une loi normale. Puisque β̂ 0 et β̂1 sont
des fonctions linéaires de Y, alors β̂ 0 et β̂1 suivent des distributions normales :
( )
βˆ0 ∼ N β 0 ,σ β2ˆ 0

βˆ ∼ N ( β ,σ )
1 1
2
βˆ1

σˆ ε 2
=
∑e 2
i
=
1
( e12 + e22 + ... + en2 )
n−2 (n − 2)
Comme ei ∼ N 0,σ ε ( 2
) alors e
2
i ∼ χ (1)
2
.et ∑e
2
i ∼ χ (2n − 2) .
D’où σˆ ε2 suit une loi de Khi-deux à (n-2) degré de liberté.

Théorème Centrale limite :


Supposons qu’il existe Y1, . . . ,Yn variables aléatoires qui sont indépendamment,
identiquement distribuées, avec E (Yi) = µ , var (Yi) = σ2 et 0 < σ2 < ∞. Lorsque n → ∞, la
 Y −µ 
distribution de   tend vers une loi normale centrée réduite, N(0, 1).
 σ / n 
Y −µ
∼ N (0,1) si µ et σ2 sont connus d’avance.
σ/ n
si µ et σ2 sont cependant estimés à partir des données d’échantillonnage, on obtient plutôt
une loi de Student :
Y −µ
∼ t n−1 .
σˆ / n ( )
Ainsi les distributions centrées réduites des paramètres β̂ 0 et β̂1 deviennent des lois de
student à la suite de l’estimation de σ βˆ :
2
i

βˆ0 − β 0
∼ t( n−2)
σˆ βˆ 0

18
βˆ1 − β1
∼ t( n−2)
σˆ βˆ
1

La loi Khi-deux normalisé demeure une loi Khi-deux à (n-2) degré de liberté :
(n − 2)σˆ ε2
∼ χ (2n−2)
σε 2

3.2- Intervalle de confiance

Du fait de la fluctuation d’échantillonnage, une valeur donnée de β̂1 par exemple


βˆ1 = −2.16 peut être différente de la valeur de β1 . Plutôt que d’approximer β̂1 par une
seule valeur (l’estimation ponctuelle de β1 ), on peut chercher à construire une partie (ou
une région) de β1 ayant une grande probabilité de contenir la valeur inconnue de β1 . On
exprime souvent cette partie sous la forme d’un intervalle appelé intervalle de confiance.
L’objectif dans ce cas est de trouver une fourchette de valeurs ayant de grandes chances
d’encadrer la valeur inconnue du paramètre β1 .
On veut construire un intervalle de confiance au voisinage de β̂1 contenant la vraie valeur
de β1 avec une probabilité de confiance de (1-α). Ce qui signifie que la probabilité que
l’intervalle ne contienne pas β1 alors qu’il y appartient effectivement est de α. Soit

( )
P βˆ1 − δ ≤ β1 ≤ βˆ1 + δ = 1 − α avec δ>0
 βˆ1 − δ , βˆ1 + δ  est l’intervalle de confiance de β1 au seuil α%.
 
Puisque les bornes de l’intervalle de confiance reposent sur la valeur de β̂1 , l’intervalle de
confiance est lui-même aléatoire, i.e. qu’il varie d’un échantillon à un autre. Et comme
βˆ1 − β1
∼ t( n−2) alors, c’est la loi de student qui sera utilisée pour construire l’intervalle de
σˆ βˆ
1

confiance. On obtient :
 βˆ1 − β1 
P  −tα /2 ≤ ≤ tα /2  = 1 − α


σˆ βˆ 

1

Après arrangement :
( )
P βˆ1 − tα /2σˆ βˆ ≤ β1 ≤ βˆ1 + tα /2σˆ βˆ = 1 − α
1 1

Un intervalle de confiance de β1 au seuil de α% est βˆ1 ± tα /2σˆ βˆ .


1

Un intervalle de confiance de β 0 au seuil de α% est βˆ0 ± tα /2σˆ βˆ .


0

L‘intervalle de confiance de σ ε s’exprime comme suit :


2

 (n − 2)σˆ ε 
P  χ12−α /2 ≤ ≤ χα2 /2  = 1 − α
 σε 

19
 (n − 2)σˆ ε (n − 2)σˆ ε 
P ≤ σ 2
ε ≤  =1−α
 χα /2 χ12−α /2
2

3.3- Les tests d’hypothèses
3.3.1- La théorie des tests

La théorie des tests consiste à tester si une hypothèse, par exemple β1 = −2 , est vraie. En
général, on teste une hypothèse ou une assertion portant sur un ou plusieurs estimateurs
ou le modèle global. Dans le langage statistique, l’hypothèse spécifiée est appelée hypothèse
nulle, notée Ho. Elle est testée contre une hypothèse alternative H1. La décision
d’acceptation ou de rejet de l’une ou l’autre des hypothèses est prise sur la base d’une
statistique calculée à partir des données et dont on connaît la loi de probabilité.

Deux types d’erreurs peuvent être commis :


- Rejeter H0 alors que H0 est vraie, cette erreur est appelée erreur de première espèce ou
erreur de type I.
- Ne pas rejeter H0 alors que H0 est fausse, on parle d’erreur de deuxième espèce ou
erreur de type II.

La probabilité de commettre une erreur de première espèce est notée α ; et la probabilité


de commettre une erreur de deuxième espèce est notée θ . Ces probabilités varient en sens
inverse.
Taleau 1 : Les types d’erreurs et leur probabilité.
Ho est vraie Ho est fausse
Erreur de type I Décision correcte
P=α P=1- α
Rejet de Ho

Décision correcte Erreur de type I


Non rejet de Ho
P= 1 - θ P=θ

La probabilité P = 1 - θ est appelé la puissance du test. Pour construire un test


d'hypothèses, on fixe α petit (par ex : 0,05), et on cherche la règle de décision qui maximise
1 - θ . Par définition, le seuil de confiance de 5% est “significatif”, le seuil de confiance de
1% est “hautement significatif”.

Comparer un paramètre β à une valeur fixée β * , revient à tester l’hypothèse nulle


Ho : β = β * ou ( β − β * ) = 0 contre l’hypothèse alternative
H1 : β ≠ β * ou β < β * ou β > β *
Ne connaissant pas β , on utilise son estimateur βˆ et sa distribution standardisée.

La règle de bon sens en pratique est la suivante :

Près de l’hypothèse nulle on accepte Ho (zone d’acceptation)


Loin de l’hypothèse nulle on rejette Ho (zone de rejet).

20
Figure 5 : Distribution de β̂ − β * sous Ho.

 H 0 : β = β *
Le test 
 H1 : β ≠ β
* est un test bilatéral qui concerne les deux côtés de la distribution.

 H 0 : β = β *  H 0 : β = β *
Les tests  * et 
 H1 : β > β  H1 : β < β
* sont des tests unilatéraux.

On définit la p-valeur comme la probabilité d’obtenir une valeur plus grande que celle
observée (ou calculée). Pour les tests bilatéraux, on définit la p-valeur comme suit :
p-value = Prob(| β | > | β * |). Une p-value élevée équivaut au rejet de Ho.

3.3.2- Les tests usuels

- Le de test de student (comparaison de moyennes)


βˆk − β k
Tester que H0 : β k = β k* , k = 0, 1, revient à tester que β k − β k* = 0 avec ∼ t( n−2) .
σˆ β2ˆ
k

Graphiquement, le test bilatéral se présente comme suit :

α/2 % (1-α)% α/2 %

t
- tα/2 0 tα/2

Rejet de H0 Acceptation de H0 Rejet de H0


Figure 6 : Le test bilatéral de student

βˆk − β k
Dans la procédure du test, on calcule tc = qui sera comparée à t( n − 2),α /2 lue sur la
σˆ βˆ
k

table statistique de student. La règle de décision est :

21
Si tc > t( n −2),α /2 , on rejette Ho et β k est significativement différent de β k* .
Si tc < t( n − 2),α /2 , on rejette H1 et β k n’est pas significativement différent de β k* .
 H 0 : β k = β k*
Pour le test 
 H1 : β k > β k
* , graphiquement, le test a lieu dans la partie droite :

(1-α)% α%

t
0 tα

Acceptation de H0 Rejet de H0

Figure 7 : le test unilatéral de Student

La règle de décision est :


Si tc > t( n − 2),α , on rejette Ho et β k est significativement supérieur à β k* .
Si tc ≤ t( n − 2),α , on rejette H1 et β k n’est pas significativement supérieur à β k* .

Tableau de significativité du test de student

H0 H1 Règle de décision :Rejet de H0

βˆk − β k
βk = β *
βk ≠ β *
tc = > t( n−2),α /2
k k
σˆ β2ˆ k

β k ≤ β k* β k > β k* tc > t( n− 2),α

β k ≥ β k* β k < β k* tc < −t( n − 2),α

- Le test de Khi-deux (comparaison des variances)

Le test de Khi-deux porte sur la variance. Par exemple on désir tester si σ ε2 = b , avec b > 0.
 H 0 : σ ε = b
2

Le test est : 
 H1 : σ ε ≠ b
2

Graphiquement, le test se présente comme suit :

22
α/2 %
α/2 %
(1-α)%

χ2
χ 2
1−α /2
χα /2
2

Figure 8 : Le test bilatéral de Khi-deux

(n − 2)σˆ β2ˆ
On calcule la statistique χ =
2 k
c qui sera comparée à la valeur lue dans la table
b
statistique de Khi-deux : χ (2n − 2),α /2 .

Tableau de significativité du test de Khi-deux

H0 H1 Règle de décision : Rejet de H0


σ2 =b σ2 ≠b χ c2 > χ (2n− 2),α /2 ou χ c2 < χ (2n − 2),(1−α /2)
σ2 =b σ2 <b χ c2 < χ (2n − 2),(1−α )

σ2 =b σ2 >b χ c2 > χ (2n− 2),α

- Le test de Fisher (ou test d’égalité des variances)

Supposons qu’on dispose de deux distributions normales Y1 et Y2 de tailles respectives n1 et


n2 et de variances respectives σ1 et σ2.
Statistiquement, on montre que le rapport des estimateurs des variances suit une loi de
Fisher avec (n1 – 1) et (n2 – 1) degré de liberté.
σˆ12
∼ F( n −1),( n −1)
σˆ 22 1 2

 H 0 : σ 12 = σ 22
Le test d’égalités des variances  est donc un test de Fisher.
 H1 : σ 1 ≠ σ 2
2 2

σˆ12
On calcule la statistique Fc = 2 que l’on compare à F( n −1),( n −1),α /2 .
σˆ 2 1 2

On s’arrangera en pratique pour avoir Fc > 1, i.e σ 12 > σ 22 .

La règle de décision :
- si Fc < F( n −1),( n −1),α /2 alors on accepte Ho qui suppose que les variances sont égales.
1 2

23
- si Fc > F( n −1),( n −1),α /2 alors on rejette Ho. On peut conclure que les variances ne sont pas
1 2

égales.
Tableau de significativité du test de Khi-deux

H0 H1 Règle de décision : Rejet de H0


Fc > F( n1 −1),( n2 −1),α /2 ou
σ 12 = σ 22 σ 12 ≠ σ 22
χ c2 < χ (2n1 −1),( n2 −1),(1−α /2)
σ 12 = σ 22 σ 12 > σ 22 Fc > F( n1 −1),( n2 −1),α

- Le test de significativité globale dans le MRS :

Le test qui consiste à tester la significativité conjointe de tous les paramètres estimés du
modèle un test de Fisher. La statistique du test est donnée par :
SCE 1 R2 1
Fc = =
SCR ( n − 2 ) (1 − R 2 ) ( n − 2 )
Dans le cas d’une régression linéaire simple, le test F est confondu au test de significativité
individuelle de la pente. Les deux tests sont basés sur les mêmes hypothèses, et on

( ).
2
démontre dans ce cas que : Fc = tβˆ
1

4- La prévision dans le modèle de régression simple

Lorsque les coefficients du modèle ont été estimés, il est possible de calculer une prévision
i.e de prédire en moyenne la valeur de Yo que prendra la variable dépendante pour une
valeur Xo donnée.
E (Y0 X 0 ) = βˆ0 + βˆ1 X 0 = Yˆ0
L’erreur de prévision est
e0 = Y0 − Yˆ0 = Y0 − βˆ0 + βˆ1 X 0 avec E (e0 ) = 0
On montre que
 1 ( ) 
2
X − X
 2
e0 ∼ N 0,σ ε +
0
+ 1 
  n ∑ ( X i − X )2 
  

e0
∼ tn − 2
( X0 − X ) +1
2
1
σˆ ε +
n ∑ ( X i − X )2
Un intervalle de confiance de la valeur prédite est :

( X 0 − X ) + 1.
2
1
Y0 = Yˆ0 ± tn −2 .σˆ ε +
n ∑ ( X i − X )2

24
Chapitre 4 - LE MODELE DE REGRESSION MULTIPLE

Dans le modèle de régression simple, nous avons considéré la relation entre 2 variables :
une variable dépendante et une variable explicative. Dans ce chapitre, nous étendons le
modèle à plus d’une variable explicative. Un modèle de régression contenant plus d’une
variable explicative est appelé un modèle de régression multiple.
Par exemple, la demande d’un bien ne dépend pas uniquement du prix de ce bien, mais
aussi des ressources du consommateur, des prix des biens substituts ou complémentaires et
du niveau général des prix. Pour inclurent toutes ces variables dans un modèle de
régression afin de considérer les multiples influences sur la demande, on construit un
modèle de régression multiple.

1- La présentation du modèle

La forme générique du modèle est :


Y = F ( X 1 , X 2 ,..., X K ) = β 0 + β1 X 1 + β 2 X 2 + ... + β K X K
où Xk (k = 1, 2, …, K) sont les variables explicatives.
βK (k = 0,1, 2, …, K) sont les paramètres de population.

Le modèle économétrique est :


Yi = β 0 + β1 X 1i + β 2 X 2i + ... + β K X Ki + ε i
où ε i représente le terme d’erreur.
E (Yi ) = β 0 + β1 X 1i + β 2 X 2i + ... + β K X Ki
β 0 est le terme constant et représente la moyenne de Y lorsque X 1 = X 2 = ... = X K = 0 .
βK (k = 1, 2, …, K) sont appelés les coefficients de régression partiels.
β1 mesure la variation de E(Yi) suite à une variation unitaire de X1, les autres variables (X2,
X3, … XK) étant fixes ou constantes, cetris – paribus.

Les hypothèses du modèle :

H1 : Exogénéité : les variables explicatives X1, X2, …, XK ne sont pas corrélées avec le terme
d’erreur ou sont non stochastiques. Les variables explicatives sont certaines.

H2 : E( ε ) = 0. L’espérance mathématique du terme d’erreur est nulle.

H3 : Homoscédasticité : Var ( ε i ) = E( ε i ) = σ2.


2

H4 : Non autocorrélation : cov( ε i , ε j ) = E( ε i , ε j ) = 0 ∀ i ≠ j.

H5 : Le rang de la matrice X est égal à (K+1), le nombre de paramètre à estimer. Les


variables explicatives sont linéairement indépendantes. Dans ce cas la matrice X’X est
inversible.

H6 : Normalité : ε i ∼ N (0,σ 2 ) .
25
2- Estimation du modèle de régression multiple

2.1- Estimation par les MCO

Si les hypothèses ci-dessus sont satisfaites, on peut appliquer la méthode des MCO pour
estimer les paramètres du modèle de régression multiple.
Supposons que nous disposons d’un échantillon de n individus où chaque individu est décrit
par rapport à la valeur de la variable dépendante Yi et les valeurs des variables explicatives
X1i, X2i, …, et XKi.
Le modèle à estimer est Yi = β 0 + β1 X 1i + β 2 X 2 i + ... + β K X Ki + ε i .
Sous forme matricielle, il s’écrit : Y = X Β + ε

 Y1  1 X 11 X 21 ⋯ X K 1   β0   ε1 
Y  1 X X 22 ⋯ X K 1  β  ε 
avec Y =   X =   Β =   et ε =  2  .
2 12 1

⋮ ⋮ ⋮ ⋮ ⋮   ⋮  ⋮
       
Yn  1 X 1n X 2 n ⋯ X Kn  βK  ε n 
L’équation de régression de l’échantillon est :
Yˆi = βˆ0 + βˆ1 X 1i + βˆ2 X 2i + ... + βˆK X Ki et Yi = Yˆi + ei .
Sous forme matricielle Y = Yˆ + e .
La somme des carrées des écarts ou résidus est :
n
S = ∑ ei2 = e′e .
i =1

(
S = e′e = Y − X Β
ˆ )′ (Y − X Βˆ )
= (Y ′ − Β
ˆ ′X ′ )(Y − X Βˆ)
ˆ ′X ′Y − Y ′X Βˆ + Βˆ ′X ′X Βˆ
= Y ′Y − Β
= Y ′Y − 2Βˆ ′X ′Y + Βˆ ′X ′X Βˆ
ˆ ′X ′Y = Y ′X Β
car Β ˆ et ce sont des scalaires.

La méthode des MCO consiste à minimiser S = e′e .


∂S
= −2 X ′Y + 2 X ′X Βˆ = 0 ⇒ X ′X Β
ˆ = X ′Y
∂Β
ˆ
X ′X Β
ˆ = X ′Y est un ensemble de (K+1) équations appelées les équations normales du
modèle de régression multiple.
Les estimateurs MCO des paramètres βK (k = 1, 2, …, K) sont :
ˆ = ( X ′X )−1 X ′Y .
Β
Pour calculer Β̂ on procède comme suit :
Etape 1 : former les matrices X ′X et X ′Y ;
Etape 2 : calculer la matrice inverse ( X ′X ) .
−1

26
Etape 3 : faire le produit matriciel ( X ′X )
−1
X ′Y .

L’estimateur de la variance de l’erreur :

σˆ ε =
2 e′e
=
∑ ei2
n − K −1 n − K −1

La matrice des variances covariance :


 var βˆ0

( ) (
cov βˆ0 , βˆ1 ) (
⋯ cov βˆ0 , βˆK 

)
( )
var Β = 
ˆ 1 (
 cov βˆ , βˆ
0 ) ( )
var βˆ1 ˆ (
⋯ cov β1 , β K 
ˆ )
 = σ ε2 ( X ′X ) −1
 ⋮ ⋮ 
 
 (
cov βˆK , βˆ0 ) (
cov βˆK , βˆ1 ) ⋯ var β K 
ˆ
( )
Soit σˆ Βˆ = σˆ ε ( X ′X ) .
2 2 −1

Cas de deux variables explicatives


Yi = βˆ0 + βˆ1 X 1i + βˆ2 X 2i + ei
1 X 11 X 21 
 1 1 ⋯ 1 
1 X 12 X 22  
 n ∑X 1i ∑X 2i 

X ′X =  X 11 X 12 ⋯ X 1n    = ∑ X 1i ∑X 2
∑X X
  ⋮ ⋮ ⋮   1i 1i 2 i 

 X 21 ⋯ X 2 n     ∑ X 2i ∑X X ∑X 
2
X 22 1i 2i 2i 
1 X 1n X 2n 
Y 
 1 1 ⋯1   1   ∑ Yi 
Y  
X ′Y =  X 11 X 12 ⋯ X 1n   2  =  ∑ X 1iYi 
  ⋮ 
 X 21 X 22 ⋯ X 2 n     ∑ X 2iYi 
Yn 
Les équations normales sont : X ′X Β ˆ = X ′Y
 n

∑ X 1i ∑ X 2i   βˆ0   ∑ Yi 
 ˆ   
 ∑ X 1i ∑ X 1
2
i ∑ X 1i X 2 i   β 1  =  ∑ X 1iY i 
 ∑ X 2i ∑ X 1i X 2i ∑ 2i   2  ∑ 2i i 
X 2
  β
ˆ   X Y

Après arrangement, on obtient :


 βˆ0 + βˆ1 X 1 + βˆ2 X 2 = Y

 βˆ0 ∑ X 1i + βˆ1 ∑ X 1i + βˆ2 ∑ X 1i X 2i = ∑ X 1iYi
2

ˆ
 β 0 ∑ X 2i + β1 ∑ X 1i X 2i + β 2 ∑ X 2i = ∑ X 2iYi
ˆ ˆ 2

La résolution du système d’équation fournit les estimateurs des MCO.


27
L’équation de la variance est :

(
∑ (Yi − Y ) = ∑ Yˆi − Y ) ( )
2 2
+ ∑ Yi − Yˆi
2

SCT = SCE + SCR


2
On définit le coefficient de détermination multiple R .
SCE SCR
R2 = =1−
SCT SCT
R 2 mesure la proportion de la variation totale de Y expliquer par la combinaison linéaire
des régresseurs. Il est certes un indicateur de qualité, mais il présente l’inconvénient d’être
mécanique. C’est-à-dire que sa valeur croît avec l’augmentation des variables explicatives,
mêmes non pertinentes à l’explication du phénomène étudié. Il n’est pas l’outil approprié
pour juger de l’apport des variables supplémentaires lors de la comparaison de plusieurs
modèles. Son augmentation suite à l’ajout de variables explicatives s’accompagne d’une
perte en degrés de liberté.

La mesure alternative, plus robuste à l’ajout des variables, qui corrige ce problème associé
2
aux degrés de liberté est le coefficient de détermination ajusté ou corrigé R .

SCR (n − K − 1) n −1
R2 = 1 − =1− (1 − R 2 )
SCT (n − 1) n − K −1
2 2
Contrairement au R , le R décroît si la ou les variables additionnelles ont un faible
2
pouvoir explicatif. Cependant, il faut faire attention de ne pas interpréter le R en termes
de part de variance expliquée. Son seul avantage est qu’il permet de comparer plusieurs
2
modèles. De plus, le R peut prendre des valeurs négatives. Dans ce dernier cas, il faut
l’assimiler à zéro.
Dans les échantillons de petite taille, R < R et quand n est assez grand, R ≃ R . En
2 2 2 2

2 2
outre, le R et le R n’ont de sens que dans un modèle qui comporte un terme constant.

Le tableau d’analyse de la variance :

Source de variation Somme des carrés Degré de liberté Carrées moyens

( )
2
SCE = ∑ Yˆi − Y
SCE Βˆ ′X ′Y − nY 2
Variation expliquée ˆ ′X ′Y − nY 2
=Β K
=
K K
ˆ ′X ′X Β
=Β ˆ − nY 2

SCR e′e
Variation résiduelle SCR = ∑ ei2 n–K–1 =
n − K −1 n − K −1
SCT = ∑ (Yi − Y ) SCT ∑ (Yi − Y )
2 2

Variation totale n–1 =


= Y ′Y − nY 2 n −1 n −1
28
Exemple numérique

Soit le modèle Yi = β 0 + β1 X 1i + β 2 X 2 i + ε i à estimer à partir des données suivantes :

Y 3 1 8 3 5
X1 3 1 5 2 4
X2 5 4 6 4 6
 5 15 25   20 
X ′X = 15 55 81  X ′Y =  76 
   
 25 81 129  109 
 5 15 25   βˆ0   20 
    
Les équations normales : 15 55 81  βˆ1  = 76
   
 
 25 81 129   β 2  109 
ˆ

Résolution par la méthode de Cramer : βˆ0 = 4 , βˆ1 = 2,5 et βˆ2 = −1,5 .


L’équation de régression : Yˆi = 4 + 2,5 X 1i − 1,5 X 2 i
 20 
SCE = Βˆ ′X ′Y − nY 2 = [ 4 2,5 −1,5]  76  − 5(4) 2 = 26,5
 
109 
3
1 
 
SCT = Y Y − nY = [3 1 8 3 5] 8  − 5(4) 2 = 28
′ 2

 
3
5
SCR = SCT − SCE = 28 − 26,5 = 1,5

σˆ ε =
2 ∑ ei2
=
1,5
= 0,75 et R 2 =
SCE 26,5
= = 0,95
n − K −1 5 − 2 −1 SCT 28
SCR ( n − K − 1) 1,5 2
Le coefficient de détermination ajusté : R = 1 − =1− = 0,81 .
2

SCT ( n − 1) 28 4
Le Tableau d’analyse de la variance :
Source de variation Somme des carrés Degré de liberté Carrées moyens
SCE 26.5
Variation expliquée SCE = 26,5 2 = = 13,25
K 2
SCR 1,5
Variation résiduelle SCR = 1,5 5–2–1=2 = = 0.75
n − K −1 2
SCT 28
Variation totale SCT = 28 5 – 1 =4 = =7
n −1 4

29
2.2- Estimation par la méthode du maximum de vraisemblance

Cette approche consiste à faire une hypothèse sur la distribution de probabilité de ε .


Si les ε i sont indépendamment distribués selon une loi normale avec une moyenne nulle et
une variance σ , alors les variables Yi , (i = 1, 2, …, n) sont également indépendamment
2

distribuées selon une loi normale avec


E (Yi ) = β 0 + β1 X 1i + ... + β K X Ki = XB et Var(Yi) = σ 2 .

La densité de probabilité s’écrit :


2
1  Y − XBˆ  e2
−  i  − i2
1 2  σ  1
f ( yi ) = e = e 2σ
σ 2π σ 2π
Les variables étant distribuées de manière indépendante, la fonction de vraisemblance est
égale au produit des densités de probabilité :
N
L = ∏ f ( yi ) .
i =1
N
Il est équivalent de maximiser la vraisemblance L ou log L = ∑ f ( y ) . Les estimateurs du MV
i =1
i

sont obtenus par la maximisation de la fonction logL.



Max log L = −
N
2
( 1
2σˆ ε
(
log 2π + log σˆ ε2 ) − 2 Y − XBˆ Y − XBˆ )( )
σBˆ , ˆε2
Les conditions de premier ordre permettent de déterminer les estimateurs du MV :
∂ log L
= 0 ⇒ Bˆ MV = ( X ′X ) X ′Y
−1

∂Bˆ
∂ log L e′e
= 0 ⇒ σˆ ε2MV =
∂σˆ ε
2
n
La matrice des variance-covariance asymptotique de l’estimateur Bˆ MV est :
.
AsymVar ( )
Bˆ MV = σˆ ε2MV ( X ′X )
−1

Bˆ MV est connu pour ses propriétés asymptotiques, c'est-à-dire quand la taille de


l’échantillon tend vers +∞ . C’est un estimateur asymptotiquement efficace et distribué
selon une loi normale.
Donc sous l’hypothèse de normalité, Bˆ MCO = Bˆ MV . D’où Bˆ MCO est également
asymptotiquement efficace. Par contre l’estimateur de la variance σˆ 2
ε MV est biaisé et
asymptotiquement identique à celui des MCO, σˆ
2
ε MCO .

3- Inférence statistique dans le modèle de régression multiple

3.1- Propriétés et lois de distribution des estimateurs des MCO

Si les hypothèses classiques du MRM sont satisfaites, le théorème de Gauss-Markov est


vérifié. Ainsi les estimateurs des MCO sont BLUE et consistent.

30
En outre, les lois de probabilité des estimateurs sont :
βˆk − β k
(
βˆk ∼ N β k ,σ β2ˆ k
) et
σˆ βˆ
∼ t( n− K −1)
k

( n − K − 1)σˆ ε2 ∼ χ2
σε ∼ χ
2 2
( n − K −1) et ( n − K −1)
σ ε2
Les intervalles de confiance au seuil de α% sont:
IC =  βˆk − t( n− K −1),α /2σˆ βˆ , βˆk + t( n − K −1),α /2σˆ βˆ  pour l’estimateur de β k .
 k k 

 (n − K − 1)σˆ 2 (n − K − 1)σˆ 2 
IC =  2 ε
, 2 ε
 pour l’estimateur de σ ε2 .
 χ( n− K −1)α /2 χ( n− K −1)(1−α /2) 

3.2- Les tests d’hypothèses

- Test d’un seul coefficient de régression

Le problème consiste à tester la valeur d'un coefficient de régression particulier βk :


 H 0 : β k = β k*

 H1 : β k ≠ β k
*

βˆ − β k
avec σˆ βˆ = ( X ′X ) σˆ ε  qui est simplement la composante
−1 2
On calcule tc = k
2

σˆ βˆk k   kk
correspondant à la kième ligne et la kième colonne de la matrice des variances covariances.
On rejette H0 si tc > t( n− K −1),α /2 .

- Test sur plusieurs coefficients de régression

L’objectif est de tester l’égalité simultanée de certains coefficients à des valeurs fixées. Par
exemple β 0 = 5 , β1 = 0,5 , …, β p = −1, 2 avec p ≤ K .
Le test est H 0 : β 0 = β 0*contre H1 : β 0 ≠ β 0*
β1 = β1* β1 ≠ β1*
........... ...........

 H 0 : Β p =βΒp*p≠ β p
β p = β p*
*

Sous forme vectorielle, le test est 


 H1 : Β p ≠ Β p
*


( )( ) ( )
−1
1 ˆ
On calcule la statistique Fc = Β p − Β*p σˆ Β2ˆ Βˆ − Β*
p p
p p

où σˆ Β2ˆ est la matrice des variances – covariances des coefficients concernés par le test. On
p

rejette H0 si Fc > Fp ,( n − K −1),α .

31
- Test de significativité globale

Un cas particulier du problème précédent consiste à tester la nullité de tous les coefficients
de régression (excepté la constante). Le test est :
 H 0 : β k = 0, ∀ k = 1,2,..., K

 H1 : au moins un des β k ≠ 0
STC K R2 K
La statistique calculée est Fc = =
SCR ( n − K − 1) (1 − R 2 ) ( n − K − 1)
Si Fc > FK ,( n − K −1),α , et le modèle est globalement significatif.

Exemple :

Soit le modèle estimé suivant :


Yˆi = 32,89 + 0,80 X 1i − 0,38 X 2 i − 0,03 X 3i
avec σˆ ε = 6,745 , R = 0,702 , n = 14 et
2 2

 20,17 0,015 −0,231 −0,076 


 0,015 0,013 0,0012 −0,009 
σ Βˆ = 6,745 
2 
 −0,231 0,0012 0,004 −0,0006 
 
 −0,076 −0,009 −0,0006 0,0004 
- Toutes les variables explicatives influencent-elles significativement Y ?
- Le modèle est-il globalement significatif ?
- Tester l’hypothèse que β1 = 1 et β 2 = −0,5 .
- Calculer une prévision et son intervalle de confiance au seuil de 5% pour les valeurs
X 10 = 5 , X 20 = 10 et X 30 = 20

0,702 / 3
F= = 7,878 > F3;10;0,05 = 3,71
(1 − 0,702) / 10
1 
p = 2 , B2 =  
 −0,5
0,8   0,013 0,0012  0,013 0,0012 
Bˆ 2 =   , σˆ 2
= 6,745 0,0012 0,004  = 0,0012 0,004 
 −0,38
Βp
ˆ
   

4- La prévision dans le modèle de régression multiple

Le problème consiste à déterminer quelle valeur doit être attribuée à la variable endogène
lorsque nous connaissons les valeurs des variables exogènes.
La modèle estimé est : Yi = βˆ0 + βˆ1 X 1i + βˆ2 X 2i + ... + βˆK X Ki + ei .
La prévision pour l’individu i + h (ou t + h pour les modèles de séries temporelles) est :
32
Yˆi + h = βˆ0 + βˆ1 X 1i + h + βˆ2 X 2 i + h + ... + βˆK X Ki + h

L’erreur de prévision est donnée par :


( )
ei + h = Yi +h − Yˆi + h = X i′+ h B − Bˆ + ε i +h

La variance de l’erreur de prévision est donc


σ e2 = σ ε2  X i′+h ( X ′X ) X i+ h + 1 .
−1
i+h

 1 
X 
 1i + h 
avec X i + h =  X 2i + h 
 
⋯ 
 X Ki + h 
Yi + h − Yˆi + h
Puisque ei + h ∼ N  0,σ ei + h  ,
2
1/2
∼ tn− K −1
σˆ ε  X i′+h ( X ′X ) X i +h + 1
−1

Comme pour le MRS, on remarque que la variance de l’erreur de prévision est d’autant plus
faible lorsque :
- la variance résiduelle est faible ;
- les valeurs prévues des variables explicatives se rapprochent de leurs moyennes.

L’intervalle de confiance de la prévision au seuil de α% est alors :


1/2
Yi + h = Yˆi + h ± t( n− K −1),α /2σ ε  X i′+ h ( X ′X ) X i + h + 1
−1
 

5- L’utilisation des variables indicatrices

On dit variable indicatrice, variable binaire, variable dichotomique ou encore variable


muette. C’est une variable qui prend deux valeurs, à savoir 1 ou 0 :
- 1 pour indiquer que le phénomène (ou l’événement) a lieu ;
- 0 pour indiquer que le phénomène (ou l’événement) n’a pas lieu.

Elle est utilisée en économétrie pour saisir les facteurs qualitatifs – comme la race, le sexe,
la religion ou même un événement tel qu’une guerre, une grève, un tsunami, etc. – que l’on
désire intégrer dans les modèles. Comme variable explicative, on la note généralement par
la lettre D, pour dire dummy.
L’utilisation de ces variables dépend fortement du problème posé. Comme variables
explicatives, les variables binaires sont utilisées pour résoudre les problèmes suivants :
- corriger les écarts aberrants (ou déviants) ;
- capter l’hétérogénéité des individus ou la présence de la discrimination ;
- capter les variations saisonnières.

33
5.1- Corriger les valeurs singulières (ou anormales)

Lorsque la variable endogène comporte, à certaines dates, des valeurs atypiques – c’est-à-
dire des valeurs anormalement élevées ou anormalement basse s – associées en général à
la survenance de chocs ou d’événement rares, il y a lieu d’incorporer une dummy dans le
modèle afin d’en tenir compte. La démarche consiste simplement à détecter les valeurs
anormales et à les corriger, en mettant 1 à ces dates là et 0 ailleurs, afin que les déviants ne
perturbent pas l’estimation statistique des autres variables.

Exemple :
On veut estimer le modèle Yt = β 0 + β1 X t + ε t à partir des données suivantes :
Date 10 janvier 10 février 10 mars 10 avril 10 mai 10 juin
Xt 5 7 8 9 10 12
Yt 10 12 2 15 17 20

On observant l’évolution de Yt , il y a un écart criant par rapport à la moyenne au 10 mars et


au 10 juin. La conséquence directe est ces valeurs auront tendance à fausser la vraie
relation existant entre les deux variables en fournissant des estimations de moindre qualité.
L’estimation par OLS, donne la droite suivante :
Yˆt = −1,452 + 1,661X t
( −0,165 ) (1,661) R 2 = 0, 408

Avec l’introduction d’une variable indicatrice Dt qui prend 1 à la date du 10 mars et o


ailleurs, on a le modèle Yt = β 0 + β1 X t + β 2 Dt + ε t , estimé à partir de :

Date 10 janvier 10 février 10 mars 10 avril 10 mai 10 juin


Xt 5 7 8 9 10 12
Yt 10 12 2 15 17 20
Dt 0 0 1 0 0 0

Yˆt = 2,253 + 1, 459 X t − 11,925 Dt


( 2,92 ) (16,92 ) ( −23, 25 ) R 2 = 0,997
L’incorporation dans le modèle d’une dummy a donc permis de corriger la valeur atypique.

Remarques :
- La correction effectuée n’est valable que si le coefficient associé à la variable dummy est
statistiquement significatif.

- Après estimation, le signe affecté à la variable binaire est proportionnelle à l’anomalie


constatée dans les données. Pour des observations anormalement basses, le signe du
coefficient de la dummy est négatif. En revanche, s’il s’agit d’observations anormalement
élevées, le signe affecté à la dummy sera positif.

34
- Attention à ne pas saisir les écarts anormalement élevés et anormalement bas par une
même une variable muette. Lorsque la série présente à la fois les deux types d’écarts, il
convient de les capter par deux variables auxiliaires différentes, l’une pour les
observations exceptionnellement élevées et l’autre pour celles exceptionnellement basses.

5.2- Capter l’hétérogénéité des individus

Les variables indicatrices peuvent être utilisées pour tester l’hétérogénéité du


comportement d’un groupe d’individus par rapport aux paramètres estimés. Par exemple,
soit Q la demande d’un bien qui dépend du prix P du bien et du revenu R du ménage. C’est
variables sont observées pour un échantillon de n ménages dans une région donnée et le
modèle s’écrit :
log Qi = β 0 + β1 log Pi + β 2 log Ri + ε t
Si l’on est intéressé de savoir si l’élasticité revenu du bien est identique pour les ménages
ruraux et les ménages urbains, on peut créer une variable dummy D qui prend la valeur 1
lorsque le ménage habite dans une zone rurale et o sinon, puis estimer la relation
log Qi = β 0 + β1 log Pi + β 2 log Ri + β 3 ( Di × log Ri ) + ε t
Si β 3 est significativement non nul alors l’élasticité revenu des ménages ruraux est égale à
βˆ1 + βˆ3 et l’élasticité revenu des ménages urbains est donnée par βˆ2 . Sinon, les ménages
ont la même élasticité revenu égale à βˆ2 quelle que soit la zone d’habitation.

5.3- Capter les variations saisonnières

Les variables indicatrices sont aussi utilisées pour prendre en compte les mouvements
saisonniers qui caractérisent certaines variables comme les ventes qui sont généralement
plus importantes en certaines périodes de l’année qu’en d’autres. Par exemple, sur des
données trimestrielles, on peut distinguer l’effet saisonnier de chaque trimestre en créant 4
variables dummy D1, D2, D3 et D4 prenant respectivement la valeur 1 le premier, le second,
le troisième et le quatrième et 0 sinon.

Ainsi pour chaque observation i, D1+D2+D3+D4 = 1. Cependant, si le modèle inclut une


constante, la matrice X des variables explicatives ne sera pas de rang plein et la matrice X’X
sera singulière. Pour estimer le modèle, il faut soit exclure
- la constante : Yt = β1 X t + β 2 D1t + β 3 D2 t + β 4 D3t + β 5 D4 t + ε t ou,
- une variable indicatrice : Yt = β 0 + β1 X t + β 2 D1t + β 3 D2 t + β 4 D3t + ε t .

Les résultats s’interprètent relativement à la variable omise dans le modèle estimé.

35
Statistique
1e année bachelor

Tables statistiques usuelles

Table 1: Loi Binomiale

Tables statisiques usuelles 1


Statistique
1e année bachelor

Table 1: Loi Binomiale (suite)

Tables statisiques usuelles 2


Statistique
1e année bachelor

Table 1: Loi Binomiale (suite)

Tables statisiques usuelles 3


Statistique
1e année bachelor

Table 2: Loi de Poisson

Tables statisiques usuelles 4


Statistique
1e année bachelor

Table 3: Loi Normale Centrée Réduite

Tables statisiques usuelles 5


Statistique
1e année bachelor

Table 3: Loi Normale Centrée Réduite (suite)

Tables statisiques usuelles 6


Statistique
1e année bachelor

Table 4: Loi du t de Student

(pour test unilatéral !)

Tables statisiques usuelles 7


Statistique
1e année bachelor

Table 4: Loi du t de Student (suite)

Tables statisiques usuelles 8


Statistique
1e année bachelor

Table 4: Loi du t de Student (suite)

Tables statisiques usuelles 9


Statistique
1e année bachelor

Table 5: Loi du Khi-deux

Tables statisiques usuelles 10


Statistique
1e année bachelor

Table 6: Loi du F de Fisher

Tables statisiques usuelles 11


Statistique
1e année bachelor

Table 6: Loi du F de Fisher (suite)

Tables statisiques usuelles 12


ECONOMETRIE APPLIQUEE A LA GESTION
TD N⁰ 1
Thèmes : - Introduction à l’analyse économétrique ;
- les modèles de régression simple et multiple ;
- inférence statistique.

Questions de cours

1) Citer les principales étapes de l’analyse économétrique et indiquer le rôle de chacune


d’elles.
2) Quelle différence existe-t-il
il entre un modèle linéaire et un modèle non linéaire ?
3) Donner les propriétés des estimateurs MCO.
4) Montrer que dans le modèle
dèle de régression simple avec constante, tester la significativité
globale du modèle revient à tester la significativité de la pente.

Exercice 1

Le directeur d’une savonnerie souhaite étudier la relation entre le prix et la quantité de


savons offerte. A cet effet, il a collecté les données suivantes relatives au prix d’un savon P
bien (en centaine de francs CFA) et la quantité offerte Q.

P 2 7 5 1 4 8 2 8
Q 15 41 32 9 28 43 17 40

1) Estimez par la méthode des MCO la droite de régression liant la quantité offerte au prix
Q = β 0 + β1 P + ε .
2) Dressez le tableau d’analyse de la variance et calculez le coefficient de détermination R 2 .
Interpréter le.
3) La régression est-elle globalement
globale significative au seuil de 5%?
4) Calculez les écarts types des estimateurs β̂ et βˆ .0 1

5) Testez l’hypothèse que le prix influence l’offre de savons.


6) Construisez un intervalle de confiance de β1 au seuil de 5%.
7) Donner un intervalle de confiance de la quantité prédite si le directeur envisage fixer le
prix à 10. Quelle sera l’élasticité prix de l’offre ?

Exercice 2

Soit un modèle linéaire simple : Yt = β 0 + β1 X t + ε t .


1
On donne les informations suivantes :
∑Y ∑Y ∑X = 1400000 , Y = 60 , X = 400 et n = 7.
2 2
i
X i = 184500 , i
= 26350 , i

Travail demandé :
1- Estimer les coefficients du modèle.
2- Evaluer la qualité de la régression.
3- Tester la significativité globale du modèle de deux manières.

Exercice 3

Vous êtes sollicités pour analyser la relation entre les importations (Y) d’un pays, la
consommation des ménages (X1) et le PIB (X2) sur la base des données suivantes :

Y 2 2,8 4 4 3,7
X1 2 3 5 4 3
X2 5 6 6 5 6

La forme matricielle du modèle est Y = X β + U avec


 26,3571 0,0714 −4,7143
(X 'X ) =  0,0714 0,2143 −0,1429  .
−1
 
 −4,7143 −0,1429 0,9286 

1) Les hypothèses classiques du modèle de régression multiple étant satisfaites, déterminer


β̂ et interpréter chacun des coefficients.

2) Trouver les valeurs respectives des différentes composantes de l’équation de la variance.

3) Calculer le coefficient de détermination non ajusté R2 et l’interpréter.

4) Tester la significativité de R2 au seuil de 5%.

5) Calculer σˆ u2 l’estimateur de la variance de l’erreur et déterminer la matrice des variances


covariances de β .

6) Les fluctuations du PIB influencent-elles significativement les importations du pays en


question ?

7) Les impacts de la consommation des ménages et du PIB sont-ils statistiquement égaux


respectivement à 0,9 et 0,1.

8) Quelle est la valeur prévisionnelle des importations si la consommation de ménages et le


PIB sont respectivement 7 et 9. En donner un intervalle de confiance.

Vous aimerez peut-être aussi