Vous êtes sur la page 1sur 92

Les Concepts de Base de la Régression

Linéaire Simple et Multiple

M. JERRY

Enseignant Chercheur à FSJESK


Table des Matières I
1. Régression linéaire simple
1.1 Introduction
1.2 Principe de l’ajustement des moindres carrés
1.3 Décomposition de la variance et coefficient de
détermination R 2
1.4 Propriétés des estimateurs
1.5 Prévision et intervalle de prévision
2. Régression linéaire multiple
2.1 Introduction
2.2 Estimateurs des Moindres Carrés Ordinaires
2.3 Propriétés des estimateurs
2.4 Décomposition de la variance et coefficient de
détermination R 2
2.5 Test de significativité des paramètres
2.6 Prédiction et intervalle de prédiction
3. Les modèles non linéaires
3.1 Introduction
Table des Matières II
3.2 Linéarisation des modèles non linéaires
3.3 Méthodes d’estimation des modèles non linéaires
3.4 Exemples
Chap. 1 Régression linéaire simple
Table des Matières I
1. Régression linéaire simple
1.1 Introduction
1.2 Principe de l’ajustement des moindres carrés
1.3 Décomposition de la variance et coefficient de
détermination R 2
1.4 Propriétés des estimateurs
1.5 Prévision et intervalle de prévision
2. Régression linéaire multiple
2.1 Introduction
2.2 Estimateurs des Moindres Carrés Ordinaires
2.3 Propriétés des estimateurs
2.4 Décomposition de la variance et coefficient de
détermination R 2
2.5 Test de significativité des paramètres
2.6 Prédiction et intervalle de prédiction
3. Les modèles non linéaires
3.1 Introduction
Table des Matières II
3.2 Linéarisation des modèles non linéaires
3.3 Méthodes d’estimation des modèles non linéaires
3.4 Exemples
Introduction
* La plupart du temps, l’objectif d’un économiste est de
montrer qu’une variable à un effet causal sur une autre.
Exemple : l’éducation a un effet causal sur la productivité
d’un travailleur.
* La plupart des analyses économétriques commencent
comme ceci : y et x sont deux variables représentant une
population et nous voulons expliquer y en fonction de x,
c-à-d comment varie y lorsque x varie ?
* Objectif : estimer un modèle du type
y = β0 + β1 x + ε
* La variable qu’on cherche à prévoir est appelée variable
dépendante y.
* La variable ou les variables utilisées pour prévoir la valeur
de la variable dépendante sont appelées variables
indépendantes x.
* ε est le terme d’erreur (aléa) = facteurs non-observés
autres que x qui affectent y.
* Les principaus modèles utilisés en économétrie

Linéaire ∶ y = ax + b
Log-linéaire ∶ y = bx a
Exponentiel ∶ y = e ax+b
Logarithmique ∶ y = aln(x) + b
a
Hyperbolique ∶ y = + y0
x − x0
ymax − ymin
Logistique ∶ y = ymin +
1 + e ax+b
Parabolique ∶ y = ax 2 + bx + c
* Linéarisation

Log-linéaire ∶ ln(y) = aln(x) + ln(b)


Exponentiel ∶ ln(y) = ax + b
a
Hyperbolique ∶ = x − x0
y − y0
ymax − y
Logistique ∶ ln( ) = ax + b
y − ymin
Parabolique ∶ y = a(x − x0 )2 + y0
Table des Matières I
1. Régression linéaire simple
1.1 Introduction
1.2 Principe de l’ajustement des moindres carrés
1.3 Décomposition de la variance et coefficient de
détermination R 2
1.4 Propriétés des estimateurs
1.5 Prévision et intervalle de prévision
2. Régression linéaire multiple
2.1 Introduction
2.2 Estimateurs des Moindres Carrés Ordinaires
2.3 Propriétés des estimateurs
2.4 Décomposition de la variance et coefficient de
détermination R 2
2.5 Test de significativité des paramètres
2.6 Prédiction et intervalle de prédiction
3. Les modèles non linéaires
3.1 Introduction
Table des Matières II
3.2 Linéarisation des modèles non linéaires
3.3 Méthodes d’estimation des modèles non linéaires
3.4 Exemples
Position du problème

Modèle de régression simple : yi = β0 + β1 xi + εi


* Nous disposons donc d’un échantillon de n couples de
points (xi , yi ) i.i.d. (indépendants et identiquement
distribués), et on veut expliquer (prédire) les valeurs de y
en fonction des valeurs prises par x.
* yi variable à prédire ou variable endogène.
* xi variable prédictive ou variable exogène.
* Le terme aléatoire permet de résumer toute l’information
qui n’est pas prise en compte dans la relation linéaire entre
y et x.
Hypothèses
Permettent de déterminer les propriétés des estimateurs, et de
mettre en place les outils de statistique inférentielle (tests
d’hypothèses, intervalle de confiance).
1. H1 x et y sont des grandeurs numériques mesurées sans
erreur. x est une donnée (exogène) dans le modèle, y est
aléatoire par l’intermédiare de ε (c-à-d, la seule erreur que
l’on a sur y provient des insuffisances de x à expliquer ses
valeurs dans le modèle).
2. H2 Les εi sont i.i.d.
2.1 H21 En moyenne les erreurs s’annulent, le modèle est bien
spécifié : E(εi ) = 0
2.2 H22 La variance de l’erreur est constante et ne dépend pas
de l’observation : homoscédasticité V (εi ) = σε2
2.3 H23 En particulier, l’erreur est indépendante de la variable
exogène : Cov(xi , εi ) = 0
2.4 H24 Indépendance des erreurs, les erreurs relatives à deux
observations sont indépendantes : Cov (εi , εj ) = 0
2.5 H25 εi ∼ N (0, σε )
Estimateur des moindres carrés ordinaires
* Critère des moindres carrés : trouver les valeurs de β0
et β1 qui minimise la somme des carrés des écarts entre
les vraies valeurs de y et les valeurs prédites avec le
modèle de prédiction.

*
n n
min ∑ ε2i = min ∑[yi − (β0 + β1 xi )]2
β0 ,β1 β0 ,β1
i=1 i=1
n
= min ∑[yi − β0 − β1 xi ]2 = min φ(β0 , β1 )
β0 ,β1 β0 ,β1
i=1
* La détermination de β̂0 et β̂1 se fait en appliquant les
conditions du premier ordre :


⎪ ∂φ(β0 , β1 ) n


⎪ = ∑ ε̂i = 0

⎪ ∂β0
⎨ i=1

⎪ ∂φ(β0 , β1 ) n


⎪ = ∑ xi ε̂i = 0

⎩ ∂β1 i=1







⎪ n
Ü
β̂0 = ȳ − β̂1 x̄


⎪ ∑ (xi − x̄)(yi − ȳ)

⎨ i=1


⎪ β̂1 = n





⎪ ∑ (xi − x̄)2

⎩ i=1
Les différentes écritures du modèle : erreur et résidu

* Le modèle de régression simple peut s’écrire sous deux


formes selon qu’il s’agit du modèle théorique spécifié par
l’économiste ou du modèle estimé à partir d’un échantillon.
à Modèle spécifié par l’économiste avec εi
l’erreur inconnue :

yi = β0 + β1 xi + εi

à Modèle estimé à partir d’un échantillon


d’observations avec ε̂i le résidu :

yi = β̂0 + β̂1 xi + ε̂i = ŷi + ε̂i

à Les MCO décomposent chaque yi en deux


parties : une valeur prédite + un résidu (valeur
non prédite).
* Comme on a
1 n
Sx2 = ∑(xi − x̄)
2
← Variance de x
n i=1
1 n
Sy2 = ∑(yi − ȳ)
2
← Variance de y
n i=1
1 n
Cov(x, y) = Sxy = ∑(xi − x̄)(yi − ȳ) ← Covariance de x et de y
n i=1

* Avec le coefficient de corrélation de Bravais-Pearson


Cov(x, y)
rxy = tel que − 1 ≤ rxy ≤ 1
Sx Sy

* Alors
Cov(x, y) Sy
β̂1 = = rxy
Sx2 Sx
* Le coefficient de corrélation mesure la dépendance
linéaire entre deux variables
Table des Matières I
1. Régression linéaire simple
1.1 Introduction
1.2 Principe de l’ajustement des moindres carrés
1.3 Décomposition de la variance et coefficient de
détermination R 2
1.4 Propriétés des estimateurs
1.5 Prévision et intervalle de prévision
2. Régression linéaire multiple
2.1 Introduction
2.2 Estimateurs des Moindres Carrés Ordinaires
2.3 Propriétés des estimateurs
2.4 Décomposition de la variance et coefficient de
détermination R 2
2.5 Test de significativité des paramètres
2.6 Prédiction et intervalle de prédiction
3. Les modèles non linéaires
3.1 Introduction
Table des Matières II
3.2 Linéarisation des modèles non linéaires
3.3 Méthodes d’estimation des modèles non linéaires
3.4 Exemples
Décomposition de la variance

n n n
2 2 2
∑(yi − ȳ) = ∑(yi − ŷi ) + ∑(ŷi − ȳ)
i=1 i=1 i=1
SCT = SCR + SCE

* SCT : somme des carrés totaux. Elle indique la variabilité


totale de y.
* SCE : somme des carrés expliqués par le modèle. Elle
indique la variation de y due à sa régression linéaire sur x.
* SCR : somme des carrés résiduels. Elle indique la
variabilité de y non expliquée par le modèle.
Coefficient de détermination
SCE SCR
R2 = =1−
SCT SCT

* R 2 est la proportion de la variance de y expliqué par x.


* Il est toujours compris entre 0 et 1.
* Il est un instrument de mesure de la qualité de
l’ajustement, par le modèle linéaire et des données
observées. Plus il est proche de 1, mieux cela vaut.
* Plus le R 2 est proche de 0, l’ajustement est mauvais, x
n’apporte pas d’informations utiles sur y.
* Il faut tout de même faire attention quant au crédit à
accorder au R 2 , il doit toujours être accompagné d’autres
tests (Student et Fisher essentiellement) avant de trancher
sur la bonté d’un modèle, mais il reste un critère non
négligeable pour la prévision.
Table d’analyse de la variance (ANOVA)

* On complète souvent l’étude en construisant la table


d’ANOVA.
Source de variation Somme des carrés Degrés de liberté Carrés moyen
n SCE
Expliquée (Régression) SCE= ∑(ŷi − ȳ)2 1
i=1 1
n SCR
Résiduelle SCR= ∑(yi − ŷi )2 n−2
i=1 n−2
n SCT
Totale SCT= ∑(yi − ȳ) 2
n−1
i=1 n−1

* Les degrés de liberté correspondent au nombre de valeurs


que nous pouvons choisir arbitrairement (par exemple,
pour la variabilité totale, connaissant n − 1 valeurs, nous
pourrons en déduire la n-ième, puisque nous connaissons
la moyenne ȳ).
Table des Matières I
1. Régression linéaire simple
1.1 Introduction
1.2 Principe de l’ajustement des moindres carrés
1.3 Décomposition de la variance et coefficient de
détermination R 2
1.4 Propriétés des estimateurs
1.5 Prévision et intervalle de prévision
2. Régression linéaire multiple
2.1 Introduction
2.2 Estimateurs des Moindres Carrés Ordinaires
2.3 Propriétés des estimateurs
2.4 Décomposition de la variance et coefficient de
détermination R 2
2.5 Test de significativité des paramètres
2.6 Prédiction et intervalle de prédiction
3. Les modèles non linéaires
3.1 Introduction
Table des Matières II
3.2 Linéarisation des modèles non linéaires
3.3 Méthodes d’estimation des modèles non linéaires
3.4 Exemples
Propriétés des estimateurs
* β̂0 et β̂1 sont des estimateurs des paramètres de la
population β0 et β1 .
* Ce sont donc des variables aléatoires car on obtiendra des
β̂0 et β̂1 différents si on utilise des échantillons différents
(tirés de la même population).
* β̂0 et β̂1 sont des estimateurs sans biais de β0 et β1
E(β̂0 ) = β0 et E(β̂1 ) = β1
* Les estimateurs MCO de la régression sont convergents.
σε2
V (β̂1 ) = σβ̂2 = n
Ð→ 0
1 n→+∞
2
∑(xi − x̄)
i=1

⎛ ⎞
⎜1 2
⎜ x̄ ⎟

V (β̂0 ) = σβ̂2 = σε2 ⎜ + n ⎟ Ð→ 0
0 ⎜n ⎟ n→+∞
⎜ 2⎟
∑ (xi − x̄)
⎝ ⎠
i=1
* Ils sont à variance minimale c-à-d, il est impossible de
trouver un autre estimateur sans biais à plus petite
variance.
* On dit qu’ils sont BLUE (best linear unbiased estimator)
* Ce sont des ≪estimateurs efficaces≫
Estimation de la variance de l’erreur
* L’estimateur sans biais de la variance de l’erreur σε2 noté
σ̂ε2 est
1 n 2 SCR
σ̂ε2 = ∑ ε̂ =
n − 2 i=1 i n − 2
E(σ̂ε2 ) = σε2
* En remplaçant la variance des erreurs par son estimateur
sans biais, on définit les estimateurs empiriques de la
variance de chacun des coefficients
σ̂ε2
* σ̂ 2 = n
β̂1
2
∑(xi − x̄)
i=1
⎛ ⎞
2
⎜ x̄ ⎟
= σ̂ε2 ⎜ n1 + n
⎜ ⎟
* σ̂ 2 ⎟
β̂0 ⎜ ⎟
⎜ 2⎟
⎝ ∑ (x i − x̄) ⎠
i=1
Distribution des coefficients estimés

* Il est donc possible maintenant de mettre en place des


tests statistiques afin d’apporter des réponses à des
problèmes tels que :
à comparaison d’un coefficient de régression
par rapport à une valeur fixée.
à comparaison de deux coefficient de
régression provenant de deux échantillons
différents.
à détermination d’un intervalle de confiance
pour un coefficient.
Le test de Student

* A partir de ces éléments, on peut mettre en place


l’inférence statistique. Si x et y sont linéairement liés, nous
devons avoir β1 ≠ 0.
* Le but du test de Student est d’utiliser les données de
l’échantillon pour conclure si β1 ≠ 0 : H0 ∶ β1 = 0 contre
H1 ∶ β1 ≠ 0
* Le test de signification de Student est basé sur le fait que
β̂1 − β1
la statistique de test T = suit une loi de Student à
σ̂β̂1
n − 2 degrés de liberté. Si l’hypothèse nulle est vraie, alors
β̂1
β1 = 0 et T = .
σ̂β̂1
* On calcule alors pour les valeurs de l’échantillon T et on
accepte ou on rejette H0 suivant la valeur trouvée, au
risque α.
* On calcule la valeur de la v.a. T,
à Si T ∈ [−t1− α , t1− α ], alors on accepte H0.
2 2
à Si T ∉ [−t1− α , t1− α ], alors on rejette H0 .
2 2
α
* Avec t1− α le quantile d’ordre 1 − 2
de la loi de Student à
2
n − 2 degrés de liberté.

Intervalle de confiance pour β1


En se basant sur le paramètre estimé β̂1 et en assumant un
risque donné α. La forme de l’intervalle de confiance pour β1
est
[β̂1 − t1− α σ̂β̂1 , β̂1 + t1− α σ̂β̂1 ]
2 2
Le test de Fisher
* Un autre test consiste à tester la significativité conjointe de
tous les paramètres estimés du modèle. C’est le test basé
sur la statistique de Fisher, appelé aussi test d’analyse de
la variance ANOVA. La statistique du test est donnée par
le rapport suivant :

SCE R2

F= 1 = 1
SCR 1 − R2
n−2 n−2
* Dans le cas d’une régression linéaire simple, le test F est
confondu au test de significativité individuelle de la pente
(test de Student).
2
β̂12
F =T = 2
σ̂
β̂1
* Test de signification de Fisher

H0 ∶ β1 = 0
H1 ∶ β1 ≠ 0

* Statistique de test
SCE

F= 1
SCR
n−2
* Règle de rejet

Rejet de H0 si F > F1−α (1, n − 2)

* Où F1−α (1, n − 2) est le quantile d’ordre 1 − α de la loi de


Fisher-Snedecor F (1, n − 2) à 1 et n − 2 degrés de liberté.
Table des Matières I
1. Régression linéaire simple
1.1 Introduction
1.2 Principe de l’ajustement des moindres carrés
1.3 Décomposition de la variance et coefficient de
détermination R 2
1.4 Propriétés des estimateurs
1.5 Prévision et intervalle de prévision
2. Régression linéaire multiple
2.1 Introduction
2.2 Estimateurs des Moindres Carrés Ordinaires
2.3 Propriétés des estimateurs
2.4 Décomposition de la variance et coefficient de
détermination R 2
2.5 Test de significativité des paramètres
2.6 Prédiction et intervalle de prédiction
3. Les modèles non linéaires
3.1 Introduction
Table des Matières II
3.2 Linéarisation des modèles non linéaires
3.3 Méthodes d’estimation des modèles non linéaires
3.4 Exemples
Prévision et intervalle de prévision

* On désire prévoir à l’aide du modèle la valeur de la variable


y pour une valeur non observé x0 de x. D’après le modèle
on a y0 = β0 + β1 x0 + ε0 où y0 et ε0 sont des variables
aléatoires. La prédiction naturelle et ponctuelle est alors :

ŷ0 = β̂0 + β̂1 x0

* L’intervalle de prédiction pour y0 au niveau de confiance


1 − α est :
⎡ ¿ ¿ ⎤
⎢ Á⎛ ⎞ Á⎛ ⎞⎥
⎢ Á Á ⎥
⎢ Á⎜ ⎟ Á⎜ ⎟ ⎥
⎢ Á 1 (x0 − x̄) Á⎜ 1 (x0 − x̄) ⎟⎥
⎢ŷ0 − t α σ̂ε Á⎜ ⎟
2 2
⎜ + + ⎟ + Á ⎜ + + ⎟ ⎥
⎢ Á⎜ 1

, ŷ t1− 2 ε Á⎜
σ̂ 1
⎟ ⎥
⎢ Á⎜ n Á⎜ n ⎟⎥
0 α
1− 2
Á ⎟ Á
n n
⎢ À ∑ (x − À ∑ (x − ⎥
⎢ ⎠⎥
2 2
⎢ ⎝ i x̄) ⎠ ⎝ i x̄)

⎣ i=1 i=1 ⎦
α
* Avec t1− α le quantile d’ordre 1 − 2
de la loi de Student à
2
n − 2 degrés de liberté.
Chap. 2 Régression linéaire multiple
Table des Matières I
1. Régression linéaire simple
1.1 Introduction
1.2 Principe de l’ajustement des moindres carrés
1.3 Décomposition de la variance et coefficient de
détermination R 2
1.4 Propriétés des estimateurs
1.5 Prévision et intervalle de prévision
2. Régression linéaire multiple
2.1 Introduction
2.2 Estimateurs des Moindres Carrés Ordinaires
2.3 Propriétés des estimateurs
2.4 Décomposition de la variance et coefficient de
détermination R 2
2.5 Test de significativité des paramètres
2.6 Prédiction et intervalle de prédiction
3. Les modèles non linéaires
3.1 Introduction
Table des Matières II
3.2 Linéarisation des modèles non linéaires
3.3 Méthodes d’estimation des modèles non linéaires
3.4 Exemples
Introduction

* Lors du chapitre précédent, nous avons considéré qu’une


variable endogène est expliquée à l’aide d’une seule
variable exogène.
* Il est extrêmement rare qu’un phénomène économique ou
social puisse être appréhendé par une seule variable.
* Le modèle de régression linéaire multiple est une
généralisation du modèle de régression simple lorsque les
variables explicatives sont en nombre quelconque.
* Dans sa formule générale, il s’écrit de la forme :

yi = β0 + β1 xi1 + β2 xi2 + ⋯ + βk xik + εi , pour i = 1, . . . , n


* Avec :

k = le nombre des variables explicatives


yi = variable à expliquer
xij = variable explicative
β0 , β1 , β2 , ⋯, βk = paramètre du modèle
εi = erreur de spécification, une variable
aléatoire inconnue
n = nombre d’observations
Forme matricielle
* Afin d’en alléger l’écriture et de faciliter l’expression de
certains résultats, on a habituellement recours aux
notations matricielles.

⎛ β0 ⎞
⎛ y1 ⎞ ⎛ 1 x11 x12 ⋯ x1k ⎞⎜ ε1
β1 ⎟ ⎛ ⎞
⎜ y2 ⎟ ⎜ 1 x21 x22 ⋯ x2k ⎟⎜ ⎟ ⎜ ε2 ⎟
⎜ ⎟=⎜ ⎟⎜ β2 ⎟+⎜ ⎟
⎜ ⋮ ⎟ ⎜ ⋮ ⋮ ⋮ ⋯ ⋮ ⎟⎜

⎟ ⎜
⎟ ⋮ ⎟
⎝ ⎠ ⎝ ⎠⎜ ⋮ ⎟ ⎝ ⎠
yn 1 xn1 xn2 ⋯ xnk εn
⎝ βk ⎠

* Sous forme compacte : Y = X β + ε, où :


à Y est un vecteur aléatoire de dimension n,
à X est une matrice de taille n × k + 1 connue,
appelée matrice du plan d’expérience,
à β est le vecteur de dimension k + 1 des
paramètres inconnus du modèle,
à ε est le vecteur de dimension n des erreurs.
Table des Matières I
1. Régression linéaire simple
1.1 Introduction
1.2 Principe de l’ajustement des moindres carrés
1.3 Décomposition de la variance et coefficient de
détermination R 2
1.4 Propriétés des estimateurs
1.5 Prévision et intervalle de prévision
2. Régression linéaire multiple
2.1 Introduction
2.2 Estimateurs des Moindres Carrés Ordinaires
2.3 Propriétés des estimateurs
2.4 Décomposition de la variance et coefficient de
détermination R 2
2.5 Test de significativité des paramètres
2.6 Prédiction et intervalle de prédiction
3. Les modèles non linéaires
3.1 Introduction
Table des Matières II
3.2 Linéarisation des modèles non linéaires
3.3 Méthodes d’estimation des modèles non linéaires
3.4 Exemples
Hypothèses de base
La méthode des moindres carrésordinaires repose sur les
hypothèses suivantes :
1. Hypothèses stochastiques
H1 : les valeur xij et yi sont observées sans erreur. yi est aléatoire
par l’intermédiare de εi .
H2 : E(εi ) = 0, l’espérance mathématique de l’erreur est nulle.
H3 : E(ε2i ) = σε2 , la variance de l’erreur est constante (quel que soit
i) (homoscédasticité).
H4 : E(εi εj ) = 0 si i ≠ j, les erreurs sont non corrélées (ou encore
indépendantes).
H5 : Cov(xij εi ) = 0, l’erreur est indépendante des variables
explicatives.
2. Hypothèses structurelles
H6 : absence de colinéarité entre les variables explicatives, cela
implique que la matrice X t X est inversible (det(X t X ) ≠ 0).
H7 : n > k + 1, le nombre d’observations est supérieur au nombre
des paramètres à estimer. Dans le cas où n = k + 1, nous
avons un interpolation, la droite passe exactement par tous les
points. Lorsque n < k + 1, la matrice X t X n’est plus inversible.
XtX
H8 : n
tend vers une matrice finie non singulière (inversible).
Estimateurs des Moindres Carrés Ordinaires

* Comme pour la régression simple, on cherche les


coefficients qui permettent de minimiser la quantité
suivante :
n n
S = ∑ ε2i = εt ε = ∑ (yi − (β0 + β1 xi1 + β2 xi2 + ⋯ + βk xik ))2
i=1 i=1

* Pour déterminer le minimum de S, nous réalisons la


dérivation matricielle :
∂S
On doit résoudre =0
∂β
Þ β̂ = (X t X )−1 (X t Y )
Table des Matières I
1. Régression linéaire simple
1.1 Introduction
1.2 Principe de l’ajustement des moindres carrés
1.3 Décomposition de la variance et coefficient de
détermination R 2
1.4 Propriétés des estimateurs
1.5 Prévision et intervalle de prévision
2. Régression linéaire multiple
2.1 Introduction
2.2 Estimateurs des Moindres Carrés Ordinaires
2.3 Propriétés des estimateurs
2.4 Décomposition de la variance et coefficient de
détermination R 2
2.5 Test de significativité des paramètres
2.6 Prédiction et intervalle de prédiction
3. Les modèles non linéaires
3.1 Introduction
Table des Matières II
3.2 Linéarisation des modèles non linéaires
3.3 Méthodes d’estimation des modèles non linéaires
3.4 Exemples
Propriétés des estimateurs
* Le modèle sous forme matricielle peut s’écrire, comme
pour le modèle de régression simple, de différentes
manières :
Y = Xβ + ε ⎫
Y = X β̂ + ε̂






Þ ε̂ = Y − Ŷ (ε̂ = résidu)
Ŷ = X β̂ ⎪

* L’estimateur des MCO est sans biais


* La matrice de variance covariance de β̂ est alors :

V (β̂) = Ωβ̂

Ωβ̂ = σε2 (X t X )−1

* L’estimateur des MCO est BLUE


Estimation de la variance des erreurs

* Pour estimer la variance covariance des coefficients, il faut


produire une estimation de la variance de l’erreur.

Ωβ̂ = σε2 (X t X )−1 Ü Ω̂β̂ = σ̂ε2 (X t X )−1

* σε2 est inconnu. Donc si on pose


n
2
∑ ε̂i
ε̂t ε̂ i=1
σ̂ε2 = =
n−k −1 n−k −1

* est un estimateur sans biais de la variance de l’erreur. ε̂i


est le résidu de la régression pour l’observation i.
Table des Matières I
1. Régression linéaire simple
1.1 Introduction
1.2 Principe de l’ajustement des moindres carrés
1.3 Décomposition de la variance et coefficient de
détermination R 2
1.4 Propriétés des estimateurs
1.5 Prévision et intervalle de prévision
2. Régression linéaire multiple
2.1 Introduction
2.2 Estimateurs des Moindres Carrés Ordinaires
2.3 Propriétés des estimateurs
2.4 Décomposition de la variance et coefficient de
détermination R 2
2.5 Test de significativité des paramètres
2.6 Prédiction et intervalle de prédiction
3. Les modèles non linéaires
3.1 Introduction
Table des Matières II
3.2 Linéarisation des modèles non linéaires
3.3 Méthodes d’estimation des modèles non linéaires
3.4 Exemples
Décomposition de la variance
* La somme des carrés totaux se décompose en une
somme de deux termes :
n n n
2 2 2
∑(Yi − Ȳ ) = ∑(Yi − Ŷi ) + ∑(Ŷi − Ȳ )
i=1 i=1 i=1
SCT = SCR + SCE
* SCT : somme des carrés totaux. Elle indique la variabilité
totale de Y .
* SCE : somme des carrés expliqués par le modèle. Elle
indique la variabilité expliquée par le modèle.
* SCR : somme des carrés résiduels. Elle indique la
variabilité de Y non expliquée par le modèle.
* La part de variance de Y expliquée par le modèle est
toujours traduit par le coefficient de détermination
SCE SCR
R2 = =1−
SCT SCT
2
* Bien évidemment 0 ≤ R ≤ 1.
R 2 corrigé ou ajusté
Problème
Le R 2 est un indicateur de qualité, mais il présente un défaut
ennuyeux : plus nous augmentons le nombre de variables
explicatives, même non pertinentes, n’ayant aucun rapport
avec le problème que l’on cherche à résoudre, plus grande
sera sa valeur, mécaniquement.

* La mesure alternative, plus robuste à l’ajout des variables,


qui corrige ce problème associé aux degrés de liberté est
le R 2 ajusté de Henry Theil, appelé aussi R 2 corrigé. Elle
se définit comme suit :
SCR
n−1
R̄ 2 = 1 − n − k − 1 = 1 − (1 − R 2 )
SCT n−k −1
n−1
Note importante
il faut faire attention de ne pas interpréter le R̄ 2 en termes de
part de variance expliquée. Son seul avantage est qu’il permet
de comparer plusieurs modèles. De plus, le R̄ 2 peut prendre
des valeurs négatives. Dans ce dernier cas, il faut l’assimiler à
zéro, on a aussi :
R̄ 2 < R 2 et si n est grand R̄ 2 ≃ R 2 .

* Nous pouvons maintenant construire une nouvelle version du tableau


d’analyse de variance.

Source de variation Somme des carrés Degrés de liberté Carrés moyen


n
Expliquée SCE = ∑(Ŷi − Ȳ )2 k CME = SCE
k
i=1
n
Résiduelle SCR = ∑(Yi − Ŷi )2 n−k −1 CMR = SCR
n−k −1
i=1
n
Totale SCT = ∑(Yi − Ȳ )2 n−1
i=1
Table des Matières I
1. Régression linéaire simple
1.1 Introduction
1.2 Principe de l’ajustement des moindres carrés
1.3 Décomposition de la variance et coefficient de
détermination R 2
1.4 Propriétés des estimateurs
1.5 Prévision et intervalle de prévision
2. Régression linéaire multiple
2.1 Introduction
2.2 Estimateurs des Moindres Carrés Ordinaires
2.3 Propriétés des estimateurs
2.4 Décomposition de la variance et coefficient de
détermination R 2
2.5 Test de significativité des paramètres
2.6 Prédiction et intervalle de prédiction
3. Les modèles non linéaires
3.1 Introduction
Table des Matières II
3.2 Linéarisation des modèles non linéaires
3.3 Méthodes d’estimation des modèles non linéaires
3.4 Exemples
Test de significativité
* Le test de significativité individuelle, porte sur chaque
paramètre, est mené en calculant les ratios de Student.
H0 ∶ βj = 0
{
H1 ∶ βj ≠ 0
* Le ratio de Student est calculé comme suit :
β̂j − βj
tβ̂j =
σ̂β̂j

* Sous H0 , la formule devient :


β̂j
tβ̂j =
σ̂β̂j

à Si ∣tβ̂j ∣ ≤ t1− α , alors on accepte H0 .


2
à Si ∣tβ̂j ∣ > t1− α , alors on rejette H0 .
2
* Avec t1− α le quantile d’ordre 1 − α2 de la loi de Student à
2
n − k − 1 degrés de liberté.
Test de conformité à un standard
* Le test d’hypothèses est le suivant :
H0 ∶ βj = β̄
{
H1 ∶ βj ≠ β̄
* Sous H0 , le ratio de Student est calculé comme suit :
β̂j − β̄
tβ̂j =
σ̂β̂j

à Si ∣tβ̂j ∣ ≤ t1− α , alors on accepte H0 .


2
à Si ∣tβ̂j ∣ > t1− α , alors on rejette H0 .
2

Intervalle de confiance pour βj


En se basant sur le paramètre estimé β̂j et en assumant un
risque donné α. La forme de l’intervalle de confiance pour βj
est
[β̂j − t1− α σ̂β̂j , β̂j + t1− α σ̂β̂j ]
2 2
Test de significativité conjointe ou globale
* Le test de significativité globale sert à tester la pertinence
du modèle. Il répond à la question de savoir si l’ensemble
des exogènes apporte de l’information utile à la
connaissance de la variable endogène.
H0 ∶ β 1 = β 2 = ⋯ = β k = 0
{
H1 ∶ ∃ au moins un βj ≠ 0
*
CME
F=
CMR

* L’hypothèse de normalité des erreurs implique que sous


l’hypothèse H0 , F suit une loi de Fisher (rapport de deux
chi-deux) F (k , n − k − 1).
Rejet de H0 au risque α si F > F1−α (k , n − k − 1)

* Où F1−α (k , n − k − 1) est le quantile d’ordre 1 − α de la loi


de Fisher-Snedecor F (k , n − k − 1) à k et n − k − 1 degrés
de liberté.
Test de significativité d’un bloc de coefficients
* Le test précédent amène à rejeter H0 dès que l’une des
variables Xj est liée à Y .
* Les hypothèses s’écrivent (en toute généralité, on teste q
(avec q ≤ k ) coefficients, pas nécessairement les q
premières, nous adoptons cette écriture pour simplifier les
notations) :
H0 ∶ β1 = β2 = ⋯ = βq = 0
{
H1 ∶ ∃ au moins un βj ≠ 0
* Nous posons alors la question suivante : est-ce que
l’adjonction des q exogènes supplémentaires dans la
régression induit une augmentation significative du R 2 au
risque α ? Formons la statistique de test F
(R 2 −R02 ) (SCR0 −SCR)
q q
F= =
(1−R 2 ) SCR
n−k −1 n−k −1

* Sous H0 , elle suit une loi de Fisher à (q, n − k − 1) degrés


de liberté.
Rejet de H0 au risque α si F > F1−α (q, n − k − 1)
Test de conformité pour un bloc de coefficients
* Nous pouvons généraliser le test de conformité à un
groupe de q (avec q ≤ k ) coefficients. Nous cherchons à
tester simultanément l’égalité d’un sous ensemble de
coefficients de régression à des valeurs fixées
⎛ β1 ⎞ ⎛ c1 ⎞





⎪ ⎜ β ⎟ ⎜ c ⎟
⎪ H0 ∶ ⎜ 2 ⎟ = ⎜ 2 ⎟ ⇔ β(q) = c(q)


⎨ ⎜ ⋮ ⎟ ⎜ ⋮ ⎟


⎪ ⎝ βq ⎠ ⎝ c q ⎠




⎩ H1 ∶ ∃ au moins un βj ≠ cj

* La statistique de test est
1
F = (β̂(q) − c(q) ) Ω̂−1 (β̂(q) − c(q) )
t
q β̂(q)

1
(β̂(q) − c(q) ) Ω̂−1
t
Rejet de H0 au risque α si β̂
(β̂(q) − c(q) ) > F1−α (q, n−k −1)
q (q)

* Où F1−α (q, n − k − 1) est le quantile d’ordre 1 − α de la loi


de Fisher-Snedecor F (q, n − k − 1) à q et n − k − 1 degrés
Test de contraintes linéaires sur les coefficients
* La formulation du test de combinaisons linéaires des
coefficients permet de couvrir tous les tests exposés dans
ce séminaire. Il est toujours plaisant intellectuellement de
produire une procédure suffisamment globale qui permette
de résoudre tous les problèmes possibles.
* Tester q contraintes linéaires sur les coefficients : R est la
matrice décrivant les contraintes linéaires de dimension
(q, k + 1) ; r est le vecteur des valeurs de référence de
taille (q, 1)
H0 ∶ Rβ = r
{
H1 ∶ Rβ ≠ r
* Nous utilisons la statistique :
1 −1
(R β̂(q) − r) [R(X t X )−1 R t ] (R β̂(q) − r)
t

q
F=
SCR
n−k −1
*
Rejet de H0 au risque α si F > F1−α (q, n − k − 1)
Table des Matières I
1. Régression linéaire simple
1.1 Introduction
1.2 Principe de l’ajustement des moindres carrés
1.3 Décomposition de la variance et coefficient de
détermination R 2
1.4 Propriétés des estimateurs
1.5 Prévision et intervalle de prévision
2. Régression linéaire multiple
2.1 Introduction
2.2 Estimateurs des Moindres Carrés Ordinaires
2.3 Propriétés des estimateurs
2.4 Décomposition de la variance et coefficient de
détermination R 2
2.5 Test de significativité des paramètres
2.6 Prédiction et intervalle de prédiction
3. Les modèles non linéaires
3.1 Introduction
Table des Matières II
3.2 Linéarisation des modèles non linéaires
3.3 Méthodes d’estimation des modèles non linéaires
3.4 Exemples
Prédiction et intervalle de prédiction
* Comme pour la régression linéaire simple, il s’agit, pour un
nouvel individu i∗, de fournir une prédiction de la valeur de
l’endogène ŷi∗ à partir de sa description c-à-d les valeurs
prises par les exogènes (xi∗,1 , xi∗,2 , ⋯, xi∗,k ). La
prédiction ponctuelle est obtenue en appliquant les
coefficients estimés sur la description de l’individu à traiter
ŷi∗ = β̂0 + β̂1 xi∗,1 + ⋯ + β̂k xi∗,k
* L’expression est plus facile à manipuler en utilisant la
notation matricielle :
t
ŷi∗ = Xi∗ β̂
* L’intervalle de prédiction au niveau de confiance (1 − α) :
√ √
t (X t X )−1 X , ŷ + t α σ̂
[ŷi∗ − t1− α σ̂ε 1 + Xi∗ t t −1
i∗ i∗ 1− ε 1 + Xi∗ (X X ) Xi∗ ]
2 2

α
* Où t1− α est le quantile d’ordre 1 − 2
de la loi de Student à
2
n − k − 1 degrés de liberté.
Chap. 3 Les modèles non linéaires
Table des Matières I
1. Régression linéaire simple
1.1 Introduction
1.2 Principe de l’ajustement des moindres carrés
1.3 Décomposition de la variance et coefficient de
détermination R 2
1.4 Propriétés des estimateurs
1.5 Prévision et intervalle de prévision
2. Régression linéaire multiple
2.1 Introduction
2.2 Estimateurs des Moindres Carrés Ordinaires
2.3 Propriétés des estimateurs
2.4 Décomposition de la variance et coefficient de
détermination R 2
2.5 Test de significativité des paramètres
2.6 Prédiction et intervalle de prédiction
3. Les modèles non linéaires
3.1 Introduction
Table des Matières II
3.2 Linéarisation des modèles non linéaires
3.3 Méthodes d’estimation des modèles non linéaires
3.4 Exemples
Introduction
▸ Nous avons examiné le cas du modèle linéaire, cependant,
très souvent, la théorie économique doit être formalisée à
l’aide de relations non linéaires.
▸ En effet, l’étude des modèles non linéaires se prête bien à
l’exercice pratique.
▸ il est fréquent de rencontrer en économie des modèles non
linéaires dans leur spécification, comme c’est le cas des
fonctions de production de type Cobb-Douglas.
▸ Les modèles non linéaires sont généralement regroupés
en deux familles, à savoir :
● Modèles non linéaires mais linéarisables ;
● Modèles non linéaires et non linéarisables.
▸ Pour la première famille de ces modèles, le plus souvent,
une transformation logarithmique suffit à les rendre
linéaires, ce qui, du reste, valide leur estimation par les
MCO.
▸ Quant à la deuxième famille de ces modèles, il convient
d’appliquer les méthodes d’estimation non linéaire.
Table des Matières I
1. Régression linéaire simple
1.1 Introduction
1.2 Principe de l’ajustement des moindres carrés
1.3 Décomposition de la variance et coefficient de
détermination R 2
1.4 Propriétés des estimateurs
1.5 Prévision et intervalle de prévision
2. Régression linéaire multiple
2.1 Introduction
2.2 Estimateurs des Moindres Carrés Ordinaires
2.3 Propriétés des estimateurs
2.4 Décomposition de la variance et coefficient de
détermination R 2
2.5 Test de significativité des paramètres
2.6 Prédiction et intervalle de prédiction
3. Les modèles non linéaires
3.1 Introduction
Table des Matières II
3.2 Linéarisation des modèles non linéaires
3.3 Méthodes d’estimation des modèles non linéaires
3.4 Exemples
Le modèle double log ou log-log
Forme
Y = AX β e ε
La transformation logarithmique donne :

ln(Y ) = ln(A) + βln(X ) + ε

A présent, en posant :

Y ∗ = ln(Y ); β0 = ln(A); β1 = β; et X ∗ = ln(X )

On retrouve ainsi le modèle linéaire bien connu, qu’on peut


écrire de la sorte :

Y ∗ = β0 + β1 X ∗ + ε

Exemple La forme Cobb-Douglas : Q = AK α Lβ .


Avantage une lecture directe des élasticités.
Le modèle log-lin ou (semi-log)
Forme
Y = e (β0 +β1 X +ε)
En appliquant la transformation logarithmique, il vient :

ln(Y ) = β0 + β1 X + ε

Exemple La formule de l’intérêt composé : Y = Y0 (1 + r )t , où Y0 est


une constante, (1 + r ) un paramètre et t le temps (la
variable exogène).
La transformation logarithmique donne :

Y ∗ = β0∗ + β1∗ X ∗ + ε

Où Y ∗ = ln(Y ), β0∗ = ln(Y0 ), β1∗ = ln(1 + r) et X ∗ = t.


Avantage Ce modèle permet le calcul du taux de croissance (taux
d’intérêt) d’une part, et de la tendance (croissante ou
décroissante) caractérisant l’évolution de Y selon le signe
de β1∗ (positif ou négatif) d’autre part.
Le modèle lin-log ou (semi-log)

Forme
e Y = e (β0 +ε) X1β
En appliquant la transformation logarithmique, il vient :

Y = β0 + β1 ln(X ) + ε

Si l’on pose X ∗ = ln(X ), la relation ci-dessus est ramenée


à la formation standard antérieure comme suit :

Y = β0 + β1 X ∗ + ε

Avantage Ce modèle permet l’estimation des modèles d’Engle : « La


dépense totale consacrée à la nourriture tend à croître
selon une progression arithmétique lorsque la dépense
totale augmente en progression géométrique.
Les modèles réciproques
Forme 1
1
Y = β0 + β1 ⋅+ε
X
La forme linéaire standard est retrouvée en posant
simplement X ∗ = X1 , ainsi obtient-on :

Y = β0 + β1 X ∗ + ε

Cette spécification est notamment utilisée pour estimer la


courbe de Phillips, qui est la relation entre l’inflation et le
taux de chômage.
Forme 2
1
= β0 + β1 X + ε
Y
En posant Y ∗ = 1
Y
, il vient :

Y ∗ = β0 + β1 X + ε
Le modèle log-hyperbole (ou log-inverse)
Forme
Y = e [β0 +β1 ⋅ X +ε]
1

En appliquant la transformation logarithmique sur cette


forme, on obtient :
1
ln(Y ) = β0 + β1 ⋅ +ε
X
Cette forme s’apparente beaucoup à la forme réciproque
sauf que la variable dépendante est exprimée sous forme
logarithmique. Quand X augmente, LnY diminue.
En posant X ∗ = X1 et Y ∗ = ln(Y ), on obtient :

Y ∗ = β0 + β1 X ∗ + ε

Le modèle log-hyperbole est apte à représenter une


fonction de production de court terme.
Le modèle polynomial
Forme
Y = β0 + β1 X + β2 X 2 + ⋯ + βk X k + ε
Une manipulation simple permet d’écrire ce modèle sous
la forme :

Y = β0 + β1 X1 + β2 X2 + ⋯ + βk Xk + ε

Où X1 = X ; X2 = X 2 ; ⋯ ; Xk = X k .
Le modèle polynomial trouve des applications dans les cas
suivants :
● L’estimation d’une tendance d’une série chronologique
(représente l’évolution à long terme de la série étudiée. Elle
traduit le comportement moyen de la série) :

Y = β0 + β1 t 2 + β2 t 3 + ε → où t représente le temps

● L’estimation d’une fonction de coût total :

CT = β0 +β1 Q+β2 Q 2 +ε → où CT est le coût total et Q la quantité produite.


Modèle de cycle de vie du produit

▸ Les modèles de cycle de vie d’un produit, appelés parfois


modèles de diffusion.
▸ Ils ont pour objet de déterminer l’évolution probable des
ventes d’un produit connaissant le seuil de saturation.
▸ La courbe de vie du produit est une notion utilisée en
marketing.
▸ les ventes évoluent en fonction du temps ; le démarrage
est relativement lent lorsque le produit est nouveau, puis
elles connaissent une croissance rapide. La courbe passe
ensuite par un point d’inflexion (seuil de saturation) à partir
duquel le rythme de croissance des ventes diminue.
Le modèle logistique
Le modèle logistique est aussi connu sous le nom de modèle
(ou courbe) de Verhulst, du nom de son auteur Pierre-François
Verhulst, qui le proposa en 1838.
Forme
Ymax
Y=
1 + br t
Où Ymax représente le seuil de saturation et r la vitesse de
diffusion. Une manipulation triviale permet d’écrire :

Ymax
− 1 = br t
Y
Après application de la transformation logarithmique, il
vient :
Y ∗ = β0 + β1 t + ε
Ymax
Où Y ∗ = ln( − 1) ; β0 = ln(b) et β1 = ln(r).
Y
Le modèle de Gompertz
Le modèle de Gompertz, du nom du mathématicien anglais
Benjamin Gompertz, a été introduit en 1825.
Forme
t +a
Y = e br
Où e a est le seuil de saturation et r la vitesse de diffusion.
Deux transformations logarithmiques sont nécessaires
pour linéariser ce type de modèles.
Dans un premier temps, la transformation logarithmique du
modèle donne :
ln(Y ) = br t + a
Après manipulation et en log-linéarisant, il vient :

Y ∗ = β0 + β1 t + ε

Où Y ∗ = ln(ln(Y ) − a) ; β0 = ln(b) et β1 = ln(r).


Table des Matières I
1. Régression linéaire simple
1.1 Introduction
1.2 Principe de l’ajustement des moindres carrés
1.3 Décomposition de la variance et coefficient de
détermination R 2
1.4 Propriétés des estimateurs
1.5 Prévision et intervalle de prévision
2. Régression linéaire multiple
2.1 Introduction
2.2 Estimateurs des Moindres Carrés Ordinaires
2.3 Propriétés des estimateurs
2.4 Décomposition de la variance et coefficient de
détermination R 2
2.5 Test de significativité des paramètres
2.6 Prédiction et intervalle de prédiction
3. Les modèles non linéaires
3.1 Introduction
Table des Matières II
3.2 Linéarisation des modèles non linéaires
3.3 Méthodes d’estimation des modèles non linéaires
3.4 Exemples
Introduction
▸ L’inspiration générale des techniques d’estimation non linéaires sont les
mêmes quel que soit le type d’algorithme.
▸ Il s’agit de méthodes itératives dans lesquelles l’équation non linéaire
est linéarisée à l’aide d’un développement limité de Taylor (à partir d’un
jeu de valeurs de coefficients initiaux)
▸ Les MCO sont alors utilisés sur cette équation linéaire afin d’estimer
des nouveaux coefficients. Ces nouveaux coefficients permettent, à
l’aide d’un nouveau développement limité, de procéder à une nouvelle
linéarisation.
▸ La procédure est arrêtée lorsque les coefficients sont relativement
stables d’une itération à l’autre.
▸ Pour ce type de méthode soit efficiente, il convient que les valeurs
initiales ne soient pas trop éloignées des valeurs optimales. Dans le cas
contraire, il n’y a pas convergence et la procédure est défaillante.
▸ Il y a plusieurs algorithmes de résolution (procédures numérique
d’optimisation) des modèles non linéaires, notamment : l’algorithme de
Gauss-Newton, Newton-Raphson ou quasi-Newton, etc. En physique, il
en existe plusieurs approches, notamment : les modèles polynomiaux
par morceaux, les méthodes à base de B-splines, le perceptron
multi-couche (dans sa version régressive) et les méthodes à fonctions
de base radiale.
▸ Ces méthodes assez complexes connaîssent quelque
raffinement par l’utilisation d’un développement limité de
Taylor du second ordre (algorithme de Newton-Raphson).
▸ Les logiciels d’économétrie (SPSS, Eviews, RATS,
MATLAB, ...) ainsi que les tableurs - à l’aide de la fonction
SOLVEUR - permettent, très simplement, d’utiliser ces
méthodes d’estimation des modèles non linéaires.
▸ Néanmoins, il convient d’insister sur le fait qu’elles ne sont
efficientes que si nous sommes capables de fournir des
valeurs initiales compatibles avec la spécification du
modèle et les données.
Table des Matières I
1. Régression linéaire simple
1.1 Introduction
1.2 Principe de l’ajustement des moindres carrés
1.3 Décomposition de la variance et coefficient de
détermination R 2
1.4 Propriétés des estimateurs
1.5 Prévision et intervalle de prévision
2. Régression linéaire multiple
2.1 Introduction
2.2 Estimateurs des Moindres Carrés Ordinaires
2.3 Propriétés des estimateurs
2.4 Décomposition de la variance et coefficient de
détermination R 2
2.5 Test de significativité des paramètres
2.6 Prédiction et intervalle de prédiction
3. Les modèles non linéaires
3.1 Introduction
Table des Matières II
3.2 Linéarisation des modèles non linéaires
3.3 Méthodes d’estimation des modèles non linéaires
3.4 Exemples
Exemple 1
Soit le modèle log-linéaire suivant : Y = Y0 (1 + r )t . Connaissant
les valeurs du tableau ci-après qui montre l’évolution des
ventes d’une entreprise au cours de 15 mois, on demande
d’ajuster cette fonction et de trouver Y0 et r.
Y 10 15 20 18 20 22 24 21 27 26 33 29 34 38 37
t 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

En linéarisant le modèle, on trouve que :

Y ∗ = β0∗ + β1∗ X ∗ + ε

Où Y ∗ = ln(Y ), β0∗ = ln(Y0 ), β1∗ = ln(1 + r) et X ∗ = t. Dans ce


cas on établit un nouveau tableau :
Y∗ 2,3025 2,708 2,9957 2,8903 2,9957 3,091 3,178 3,0445 3,2958 3,258 3,4965 3,3672 3,5263 3,6375 3,6109
t 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
En utilisant la méthode du MCO, on trouve que :

β̂0∗ = 2, 5527 et β̂1∗ = 0, 0758

D’où
ln(Ŷ0 ) = 2, 5527 et ln(1 + r̂ ) = 0, 0758
Alors
Ŷ0 = 12, 8417 et r̂ = 0, 0787
Donc
Ŷ = 12, 8417 ⋅ (1, 0787)t̂
Exemple 2
En considérant les données du tableau ci-dessous qui
renseigne sur les quantités produites, pendant dix jours,
moyennant les facteurs travail (L) et capital (K ), on demande
d’estimer le modèle ci-après :

Q = ALβ1 K β2 e ε

Q 25 28 32 35 39 37
K 12 13 10 15 22 17
L 3 5 9 8 12 13

En linéarisant le modèle, on trouve que :

Q ∗ = β0 + β1 L∗ + β2 K ∗ + ε

Où Q ∗ = ln(Q), β0 = ln(A), L∗ = ln(L) et K ∗ = ln(K ).


Dans ce cas on établit un nouveau tableau :
Q∗ 3,2188 3,3322 3,4657 3,5553 3,6635 3,6109
K∗ 2,4849 2,5649 2,3025 2,708 3,091 2,8332
L∗ 1,0986 1,6094 2,1972 2,0794 2,4849 2,5649

En utilisant la méthode du MCO, on trouve que :

β̂0 = 2, 5456 β̂1 = 0, 2488 et β̂2 = 0, 1612

D’où Â = 12, 7508, alors :

Q̂ = 12, 7508 ⋅ L̂0,2488 ⋅ K̂ 0,1612


Merci de votre attention

Vous aimerez peut-être aussi