Vous êtes sur la page 1sur 76

Le modèle linéaire

Transformation de la série brute


Estimateur des moindres carrés ordinaires (m.c.o.)
Applications
Propriétés statistiques des estimateurs
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Désaisonnalisation par la méthode de la


régression linéaire

Myriam Maumy1

1 IRMA, Université Louis Pasteur


Strasbourg, France

Master 2ème Année 10-11-2008

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Applications
Propriétés statistiques des estimateurs
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Ce chapitre s’appuie essentiellement sur les trois ouvrages


suivants :
1 « Introduction to Time Series and Forecasting »
de Peter J. Brockwell and Richard A. Davis
Second Edition, Springer, 2002.
2 « Time Series : Theory and Methods »
de Peter J. Brockwell and Richard A. Davis
Second Edition, Springer, 1991.
3 « Séries temporelles et modèles dynamiques »
de Christian Gouriéroux et Alain Montfort
2ème édition, Economica, 1995.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Hypothèses sur la variables aléatoire erreur
Applications
Composante tendancielle du modèle
Propriétés statistiques des estimateurs
Composante saisonnière du modèle
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Sommaire
1 Le modèle linéaire
2 Transformation de la série brute
3 Estimateur des moindres carrés ordinaires (m.c.o.)
4 Applications
5 Propriétés statistiques des estimateurs
6 Utilisations de la méthode de régression
7 Autocorrélation des erreurs
8 Deux inconvénients de la méthode des m.c.o.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Hypothèses sur la variables aléatoire erreur
Applications
Composante tendancielle du modèle
Propriétés statistiques des estimateurs
Composante saisonnière du modèle
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Écriture d’un modèle linéaire


Supposons que la série brute Xt est la somme des deux
composantes déterministes (la tendance et la saisonnalité) et
d’une composante aléatoire :

Xt = Ft + St + Et .

Pour compléter la description du modèle, il reste à expliciter les


formes fonctionnelles des deux composantes et à faire des
hypothèses sur la loi de la composante aléatoire, la variable
erreur.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Hypothèses sur la variables aléatoire erreur
Applications
Composante tendancielle du modèle
Propriétés statistiques des estimateurs
Composante saisonnière du modèle
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Formes fonctionnelles des deux composantes


Chacune des composantes déterministes est écrite comme
combinaison linéaire de fonctions connues du temps.
Finalement, le modèle est égal à :
k l
cj Stj + Et
X X
Xt = bi Fti + t = 1, . . . , T .
i=1 j=1

Le but est d’estimer les b1 , . . . , bk et les c1 , . . . , cl à partir des T


observations.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Hypothèses sur la variables aléatoire erreur
Applications
Composante tendancielle du modèle
Propriétés statistiques des estimateurs
Composante saisonnière du modèle
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Hypothèses sur les variables erreurs Et


Nous supposerons les hypothèses vérifiées, à savoir que :
1 les variables erreurs sont centrées : E[Et ] = 0 ;
2 les variables erreurs sont de même variance : Var[Et ] = σ 2 ;
3 les variables erreurs sont non-corrélées : Cov(Et , Et+h ) = 0
pour tout h > 0.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Hypothèses sur la variables aléatoire erreur
Applications
Composante tendancielle du modèle
Propriétés statistiques des estimateurs
Composante saisonnière du modèle
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Remarque
Les fonctions F et S sont choisies en observant la façon dont le
caractère X varie avec le temps.

Tendance
Généralement, nous choisissons pour la tendance une
fonction de forme lisse, présentant peu de changements de
variations. Cette composante reflète la croissance moyenne.

Exemple
Pour une tendance linéaire, Ft = b1 + b2 t. Nous posons Ft1 = 1
et Ft2 = t.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Hypothèses sur la variables aléatoire erreur
Applications
Composante tendancielle du modèle
Propriétés statistiques des estimateurs
Composante saisonnière du modèle
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Exemples
Plusieurs types de composantes tendancielles existent :
1 linéaire : Ft = b1 + b2 t (se traite par régression simple)
2 quadratique : Ft = b1 + b2 t + b3 t 2 (se traite par régression
multiple)
3 exponentielle : Ft = abt (se ramène au premier cas par
transformation logarithmique)
4 de Gompertz : Ft = exp(abt + c)
1
5 logistique : Ft = abt −c

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Hypothèses sur la variables aléatoire erreur
Applications
Composante tendancielle du modèle
Propriétés statistiques des estimateurs
Composante saisonnière du modèle
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Saisonnalité
La forme de la composante de la saisonnalité dépend du type
de données, et de la forme de la saisonnalité.
La modélisation la plus simple de la saisonnalité consiste à
prendre un effet fixe de la saison, comme nous allons le voir
dans l’exemple suivant,à l’aide de fonctions indicatrices.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Hypothèses sur la variables aléatoire erreur
Applications
Composante tendancielle du modèle
Propriétés statistiques des estimateurs
Composante saisonnière du modèle
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Exemple
St peut être choisie sous la forme d’une fonction périodique de
période 4. Elle prend 4 valeurs (ou coefficients saisonniers)
c1 , c2 , c3 , c4 associées à chacun des trimestres :

St = cj , si la date t correspond au trimestre j.

Nous pouvons alors écrire :

St = c1 St1 + c2 St2 + c3 St3 + c4 St4 ,

où Stj prend la valeur 1 si la date t correspond au trimestre j, la


valeur 0 sinon.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Hypothèses sur la variables aléatoire erreur
Applications
Composante tendancielle du modèle
Propriétés statistiques des estimateurs
Composante saisonnière du modèle
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Saisonnalité - Suite
D’autres formes peuvent être proposées : une variation lente
de chacun des coefficients saisonniers est décrite en prenant
ceux-ci fonctions polynomiales du temps. Les coefficients des
polynômes sont alors supposés différents pour chaque saison.
La décomposition de la saisonnalité peut d’autre part inclure
des variables prenant des valeurs non nulles pour plus d’une
saison.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Hypothèses sur la variables aléatoire erreur
Applications
Composante tendancielle du modèle
Propriétés statistiques des estimateurs
Composante saisonnière du modèle
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Exemples
1 L’une de ces variables pourrait être le nombre de jours de
travail dans la saison considérée.
2 L’effet des vacances, des grèves, des week-ends pourrait
également être représenté de cette façon.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Applications
Propriétés statistiques des estimateurs
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Sommaire
1 Le modèle linéaire
2 Transformation de la série brute
3 Estimateur des moindres carrés ordinaires (m.c.o.)
4 Applications
5 Propriétés statistiques des estimateurs
6 Utilisations de la méthode de régression
7 Autocorrélation des erreurs
8 Deux inconvénients de la méthode des m.c.o.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Applications
Propriétés statistiques des estimateurs
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Transformation
L’intérêt d’une description linéaire de la série réside dans la
simplicité du modèle. Ceci permet d’en faire une étude
mathématique approfondie.
Choisir une telle écriture peut sembler restrictif, cependant
l’hypothèse de linéarité est moins forte qu’il n’y paraît.
De nombreux modèles peuvent être rendus linéaires après
transformation de la série brute. Ces modèles transformés
s’écrivent :
k l
cj Stj + Et = Xt∗ .
X X
f (Xt , Xt−1 , . . . , Xt−p ) = bi Fti +
i=1 j=1

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Applications
Propriétés statistiques des estimateurs
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Exemples
Le modèle multiplicatif et le modèle logistique peuvent s’écrire
comme des modèles linéaires, via une certaine transformation.

Exemple
Le modèle trimestriel de Buys-Ballot (un modèle multiplicatif)
s’écrit :

ln Xt = b1 +b2 t +c1 St1 +c2 St2 +c3 St3 +c4 St4 +Et = Xt∗ , Xt > 0,

où Stj est la fonction indicatrice du trimestre et les coefficients


saisonniers satisfont c1 + c2 + c3 + c4 = 0.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Applications
Propriétés statistiques des estimateurs
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Exemple
Le modèle logistique, quant à lui, s’écrit :
  4
1 − Xt
cj Stj + Et .
X
ln = b1 + b2 t +
Xt
j=1

Remarques
1 Pour que ce modèle ait un sens, il faut que Xt ∈]0, 1[.
2 Ce modèle est adapté à l’étude de la consommation de
certains biens durables. Xt représente alors la proportion
de ménages possédant ce bien à l’instant t.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Applications
Propriétés statistiques des estimateurs
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Sommaire
1 Le modèle linéaire
2 Transformation de la série brute
3 Estimateur des moindres carrés ordinaires (m.c.o.)
4 Applications
5 Propriétés statistiques des estimateurs
6 Utilisations de la méthode de régression
7 Autocorrélation des erreurs
8 Deux inconvénients de la méthode des m.c.o.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Applications
Propriétés statistiques des estimateurs
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Considérons un modèle de la forme


k l
cj Stj + Et ,
X X
Xt = bi Fti + t = 1, . . . , T .
i=1 j=1

La méthode des m.c.o. consiste à choisir comme estimations


b cj des paramètres bi , cj , les valeurs qui rendent minimal le
bi , b
carré de la distance entre la série et sa partie déterministe.
Notons b b et b
c les estimations des vecteurs des paramètres et
F , S les matrices de tailles (T , k ) et (T , l) dont les colonnes
sont respectivement F 1 , . . . , F k et S 1 , . . . , S l .

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Applications
Propriétés statistiques des estimateurs
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Les solutions b c du problème de minimisation satisfont les


b et b
k + l équations normales :
(
F 0F b c = F 0X
b + F 0Sb
0
S Fb 0
b + S Sbc = S0X

Remarque
Ce système peut encore s’écrire :
 0
F F F 0S
    0 
b
b FX
0 0 × = ·
SF SS c
b S0X

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Applications
Propriétés statistiques des estimateurs
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Lorsque les vecteurs F 1 , . . . , F k , S 1 , . . . , S l sont linéairement


indépendants la matrice du premier membre est inversible ; le
système admet alors la solution unique
−1
F 0F F 0S F 0X
    
b
b
= × ·
c
b S0F S0S S0X

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Applications
Propriétés statistiques des estimateurs
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Formules des estimateurs


Nous en déduisons du système des équations normales les
expressions de b
b et de b
c:
h i−1 h i
b = F 0 F − F 0 S(S 0 S)−1 S 0 F
b F 0 X − F 0 S(S 0 S)−1 S 0 X

et
h i−1 h i
c = S 0 S − S 0 F (F 0 F )−1 F 0 S
b S 0 X − S 0 F (F 0 F )−1 F 0 X .

Exercice
Savoir démontrer ces deux formules.
Myriam Maumy Désaisonnalisation par la régression linéaire
Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Applications
Propriétés statistiques des estimateurs
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Remarque
En l’absence de saisonnalité (l = 0), il faut supprimer dans le
système d’équations normales les blocs relatifs à S et à bc.
0 −1 0
L’équation se réduit alors à : b = (F F ) F X .
b

Remarque
La méthode que nous venons de décrire suppose que les
vecteurs F 1 , . . . , F k , S 1 , . . . , S l constituent un système libre.
Elle ne s’applique donc pas au modèle de Buys-Ballot. Nous
verrons au prochain paragraphe, et plus particulièrement en
travaux dirigés comment l’adapter à ce modèle.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Applications
Propriétés statistiques des estimateurs
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Sommaire
1 Le modèle linéaire
2 Transformation de la série brute
3 Estimateur des moindres carrés ordinaires (m.c.o.)
4 Applications
5 Propriétés statistiques des estimateurs
6 Utilisations de la méthode de régression
7 Autocorrélation des erreurs
8 Deux inconvénients de la méthode des m.c.o.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Applications
Propriétés statistiques des estimateurs
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Étude de deux modèles particuliers


Nous renvoyons à la feuille numéro 1 de travaux dirigés pour
l’étude des deux modèles :
1 le modèle multiplicatif sans saisonnalité
2 le modèle trimestriel de Buys-Ballot.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Moments d’ordre 1
Applications Moments d’ordre 2
Propriétés statistiques des estimateurs Estimation de la variance des perturbations
Utilisations de la méthode de régression Intervalle de confiance
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Sommaire
1 Le modèle linéaire
2 Transformation de la série brute
3 Estimateur des moindres carrés ordinaires (m.c.o.)
4 Applications
5 Propriétés statistiques des estimateurs
6 Utilisations de la méthode de régression
7 Autocorrélation des erreurs
8 Deux inconvénients de la méthode des m.c.o.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Moments d’ordre 1
Applications Moments d’ordre 2
Propriétés statistiques des estimateurs Estimation de la variance des perturbations
Utilisations de la méthode de régression Intervalle de confiance
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Résultats
Les estimateurs des paramètres obtenus précédemment sont
des variables aléatoires approchant les vraies valeurs
inconnues b et c.
Il faut donc étudier leurs propriétés statistiques, en particulier
avoir une idée de l’erreur commise en effectuant ces
approximations.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Moments d’ordre 1
Applications Moments d’ordre 2
Propriétés statistiques des estimateurs Estimation de la variance des perturbations
Utilisations de la méthode de régression Intervalle de confiance
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Moments d’ordre 1
Sous l’hypothèse E[Et ] = 0, les estimateurs des m.c.o. sont
sans biais.
En particulier,
k l
cj Stj ,
X X
F
bt = bi F i
b et S
bt =
t b
i=1 j=1

estiment sans biais les valeurs inconnues de la tendance et de


la saisonnalité à l’instant t.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Moments d’ordre 1
Applications Moments d’ordre 2
Propriétés statistiques des estimateurs Estimation de la variance des perturbations
Utilisations de la méthode de régression Intervalle de confiance
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Moments d’ordre 2
k
X l
X
Une fonction linéaire des paramètres d = bi βi + cj γj , où
i=1 j=1
les βi et γj sont des nombres connus, est donc estimée sans
Xk l
X
biais par db= b
bi βi + cj γj .
b
i=1 j=1
L’erreur commise en approchant
h d par
i d peut être mesurée
b
h i par
b 2
l’E.Q.M. qui est égale à E (d − d) . Comme d = E d , cette
b
h i
erreur est égale à la variance de d,
b notéé Var db .

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Moments d’ordre 1
Applications Moments d’ordre 2
Propriétés statistiques des estimateurs Estimation de la variance des perturbations
Utilisations de la méthode de régression Intervalle de confiance
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Moments d’ordre 2 : suite


Explicitons cette variance :
 
h i k
X l
X
Var db = Var  b
bi βi + cj γj  = ...
b
i=1 j=1

Exercice
Terminer le calcul.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Moments d’ordre 1
Applications Moments d’ordre 2
Propriétés statistiques des estimateurs Estimation de la variance des perturbations
Utilisations de la méthode de régression Intervalle de confiance
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Moments d’ordre 2 : suite


Le calcul de cette variance suppose connues les variances des
estimateurs et leurs covariances respectives. Ces quantités
sont présentées sous forme  matricielle
 dans la matrice de
b
b
variance-covariance : Var . Cette matrice est carrée,
c
b
symétrique, de taille k + l et composée de quatre blocs :
 h i   
 
b
b Var b
b Cov b,
b bc
Var =  0 ·
c
 
b Cov b, b bc c
Var b

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Moments d’ordre 1
Applications Moments d’ordre 2
Propriétés statistiques des estimateurs Estimation de la variance des perturbations
Utilisations de la méthode de régression Intervalle de confiance
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Moments d’ordre 2 : suite


h i
Dans cette matrice, apparait le terme Var b b qui est une
matrice. Cette
h matrice i est carrée de taille k et a pour terme
général Cov bbi , b
bi 0 . En particulier, les termes de la diagonale
h i
ne sont autres que les variances Var b bi .
   
Les autres blocs Cov b, c et Var b
b b c de taille (k , l) et (l, l) ont
  
pour termes Cov b cj et Cov b
bi , b cj , b
cj 0 .

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Moments d’ordre 1
Applications Moments d’ordre 2
Propriétés statistiques des estimateurs Estimation de la variance des perturbations
Utilisations de la méthode de régression Intervalle de confiance
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Moments d’ordre 2 : suite


h i
Si nous notons β = [β1 , . . . , βk ]0 et γ = [γ1 , . . . , γl ]0 , Var d
b
s’écrit :   
b = β γ 0 Var b
h i h 0 i b β
Var d .
c
b γ

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Moments d’ordre 1
Applications Moments d’ordre 2
Propriétés statistiques des estimateurs Estimation de la variance des perturbations
Utilisations de la méthode de régression Intervalle de confiance
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Moments d’ordre 2 : suite


Lorsque les erreurs Et sont de moyenne nulle, de même
variance σ 2 et sont non corrélées, nous pouvons facilement
 
b
b
montrer que la matrice de variance-covariance de est
c
b
donnée par :
−1
F 0F F 0S
  
b
b 2
Var =σ .
c
b S0F S0S

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Moments d’ordre 1
Applications Moments d’ordre 2
Propriétés statistiques des estimateurs Estimation de la variance des perturbations
Utilisations de la méthode de régression Intervalle de confiance
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Moments d’ordre 2 : fin


Rappelons que la principale justification de la méthode des
moindres carrés ordinaires est le théorème de Gauss-Markov
qui indique que db est l’estimateur de d de variance minimale
parmi les estimateurs sans biais, fonctions linéaires des
observations Xt .

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Moments d’ordre 1
Applications Moments d’ordre 2
Propriétés statistiques des estimateurs Estimation de la variance des perturbations
Utilisations de la méthode de régression Intervalle de confiance
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Moments d’ordre 2 : Exemple


Calculer la variance pour le modèle de Buys-Ballot introduit
dans le paragraphe « Applications
h i ».
En particulier, calculer Var δ .
b

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Moments d’ordre 1
Applications Moments d’ordre 2
Propriétés statistiques des estimateurs Estimation de la variance des perturbations
Utilisations de la méthode de régression Intervalle de confiance
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Introduction
La matrice obtenue précédemment ne peut-être calculée
numériquement puisque son expression dépend du paramètre
inconnu σ 2 . Celui-ci peut-être estimé sans biais de la manière
suivante.
Soit e
bt le résidu d’estimation à l’instant t :

bt = Xt − F
e bt − S
bt .

e
bt est une approximation aléatoire de la variable erreur Et .

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Moments d’ordre 1
Applications Moments d’ordre 2
Propriétés statistiques des estimateurs Estimation de la variance des perturbations
Utilisations de la méthode de régression Intervalle de confiance
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Résultat
La quantité
T
X
bt2
e
t=1
S2 =
T −k −l
est un estimateur sans biais de σ 2 .
La matrice de variance-covariance est alors estimée par :
−1
F 0F F 0S
  
b
b 2
Var =S .
S0F S0S
c
c
b

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Moments d’ordre 1
Applications Moments d’ordre 2
Propriétés statistiques des estimateurs Estimation de la variance des perturbations
Utilisations de la méthode de régression Intervalle de confiance
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Résultat
De même la variance d’une fonction linéaire des estimateurs :
k
X l
X
d
b= b
bi βi + cj γj
b
i=1 j=1

est estimée par :


  
c d
h i h 0
b = β 0
i
b
b β
Var γ Var
c .
c
b γ

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Moments d’ordre 1
Applications Moments d’ordre 2
Propriétés statistiques des estimateurs Estimation de la variance des perturbations
Utilisations de la méthode de régression Intervalle de confiance
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Introduction
Au lieu de proposer pour d une valeur approchée d,
b il est
souvent préférable d’en fournir un encadrement :

d
b1 < d < d
b2 .

L’intervalle de confiance est aléatoire et ne contient d qu’avec


une certaine probabilité.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Moments d’ordre 1
Applications Moments d’ordre 2
Propriétés statistiques des estimateurs Estimation de la variance des perturbations
Utilisations de la méthode de régression Intervalle de confiance
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Résultat
Lorsque les perturbations sont supposées  indépendantes,
suivant une même loi normale N 0, σ 2 , un tel intervalle
encadrant la valeur d avec la probabilité 95% est donné par
" r r #
\ h i \ h i
d − tT −k −l,1−α/2 Var d ; d + tT −k −l,1−α/2 Var d
b b b b

où tT −k −l,1−α/2 est le quantile d’ordre 1 − α/2 pour la loi de


Student à (T − k − l) degrés de liberté.
Si le nombre d’observations T est grand, tT −k −l,1−α/2 vaut
approximativement 1, 96.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Recherche des valeurs aberrantes
Applications
Désaisonnalisation
Propriétés statistiques des estimateurs
Prévision
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Sommaire
1 Le modèle linéaire
2 Transformation de la série brute
3 Estimateur des moindres carrés ordinaires (m.c.o.)
4 Applications
5 Propriétés statistiques des estimateurs
6 Utilisations de la méthode de régression
7 Autocorrélation des erreurs
8 Deux inconvénients de la méthode des m.c.o.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Recherche des valeurs aberrantes
Applications
Désaisonnalisation
Propriétés statistiques des estimateurs
Prévision
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Résultat
Pour ce paragraphe, nous renvoyons le lecteur au livre de
Gouriéroux et de Montfort.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Recherche des valeurs aberrantes
Applications
Désaisonnalisation
Propriétés statistiques des estimateurs
Prévision
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Résultat
La série corrigée des variations saisonnières XtCVS = Xt − St
peut être estimée par :
l
cj Stj .
X
b CVS = Xt − S
X b t = Xt −
t b
j=1

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Recherche des valeurs aberrantes
Applications
Désaisonnalisation
Propriétés statistiques des estimateurs
Prévision
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Résultat
L’E.Q.M. due à l’approximation de XtCVS par X b CVS est estimée
t
par :
 
 2   2  l
cj Stj 
X
b X
E b CVS − X CVS = Eb S b t − St = Var
t t
c b
j=1

St1
 

h i  . 
St1 . . . Stl
   
= × Var
c b c ×
 . ·

 . 
Stl

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Recherche des valeurs aberrantes
Applications
Désaisonnalisation
Propriétés statistiques des estimateurs
Prévision
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Résultat
Les estimateurs b
bi et b
cj peuvent servir à prévoir une valeur de
X non encore observée : XT +h , h > 1.
Si nous supposons que le modèle est encore vrai à l’instant
T + h, nous avons
k l
cj STj +h + ET +h ,
X X
XT +h = bi FTi +h +
i=1 j=1

avec E[ET +h ] = 0, Var[ET +h ] = σ 2 , Cov(ET +h , Et ) = 0 et ce pour


tout t = 1, . . . , T .

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Recherche des valeurs aberrantes
Applications
Désaisonnalisation
Propriétés statistiques des estimateurs
Prévision
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

La valeur XT +h peut être approchée par :


k l
cj STj +h .
X X
X
bT +h = bi F i
b T +h +
b
i=1 j=1

Nous pouvons montrer que X bT +h est, au sens de l’E.Q.M., la


meilleure prévision fonction linéaire des valeurs observées
X1 , . . . , XT de la variable et satisfaisant la condition de sans
biais : h i
E X bT +h − XT +h = 0.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Recherche des valeurs aberrantes
Applications
Désaisonnalisation
Propriétés statistiques des estimateurs
Prévision
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

L’estimation de la variance de l’erreur commise en effectuant


cette approximation est égale à :
 
 2  k l
cj STj +h − ET +h 
X X
b X bT +h − XT +h = Var bi F i
b
E T +h +
c b
i=1 j=1
h i
c d
= Var b + S2

= S 2 (X
bT +h ),

k l
cj STj +h .
X X
où d
b est l’estimateur de d = bi FTi +h +
i=1 j=1

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Recherche des valeurs aberrantes
Applications
Désaisonnalisation
Propriétés statistiques des estimateurs
Prévision
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Intervalle de prévision
Lorsque la variable erreur suit une loi normale, nous obtenons
un intervalle de prévision à 95% pour XT +h en prenant :
 q q 
b 2 b b 2
XT +h − tT −k −l,1−α/2 S (XT +h ); XT +h + tT −k −l,1−α/2 S (XT +h )
b

où tT −k −l,1−α/2 est le quantile d’ordre 1 − α/2 pour la loi de


Student à (T − k − l) degrés de liberté.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Sommaire
1 Le modèle linéaire
2 Transformation de la série brute
3 Estimateur des moindres carrés ordinaires (m.c.o.)
4 Applications
5 Propriétés statistiques des estimateurs
6 Utilisations de la méthode de régression
7 Autocorrélation des erreurs
8 Deux inconvénients de la méthode des m.c.o.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Introduction
Dans les paragraphes précédents, nous avons supposé que les
perturbations étaient non corrélées. Il est cependant possible
que les valeurs prises par une série temporelle à des instants
successifs soient liées entre elles. Une telle liaison peut-être
prise en compte par l’intermédiaire des erreurs.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Résultat
Supposons par exemple que les erreurs satisfassent :
Et = ρEt−1 + εt , où les variables εt sont indépendantes de
même loi N (0, σ 2 ) et où ρ est un réel compris entre -1 et +1.
L’erreur peut alors s’écrire :

Et = ρEt−1 + εt = εt + ρεt−1 + ρ2 εt−2


Et = εt + ρεt−1 + ρ2 εt−2 + · · · + ρi εt−i + · · · ,
X∞
Et = ρi εt−i .
i=0

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Calculs des moments de Et



" #
X
i
E [Et ] = E ρ εt−i = 0
i=0

et
σ2
Var [Et ] = ·
1 − ρ2

Remarques
1 Démontrer la dernière égalité.
2 Calculer la matrice de variance-covariance pour Et .

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Calcul de la matrice de variance-covariance pour Et


Nous avons
∞ ∞
!
X X
Cov (Et , Et−h ) = Cov ρi εt−i , ρi εt−i−h
i=0 i=0
σ 2 ρh
= ·
1 − ρ2

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Matrice de variance-covariance
La matrice de varaince-covariance des erreurs est dans ce cas
non scalaire. Elle est donnée par :

ρ . . . ρT −1
 
1
σ2   ρ 1 ... .   = σ 2 Ω.
Var[E] = 2
1−ρ  . . ... ρ 
ρT −1 . . . ρ 1

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Moindres carrés généralisés


Considérons de nouveau le modèle linéaire :
k
X l
X
X = bi F i + cj S j + E
i=1 j=1

où les vecteurs F i et S j sont linéairement indépendants et où


les erreurs vérifient une relation d’autocorrélation d’ordre 1.
La méthode des m.c.o. fournit des estimateurs sans biais des
coefficients mais ces estimateurs ne sont pas les plus précis
possible.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Moindres carrés généralisés. Suite


La précision peut être améliorée en employant l’estimateur des
moindres carrés généralisés défini par :
  h i−1
b
= (F S)0 Ω−1 (F S) (F S)0 Ω−1 X .
e
c
e

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

L’inverse de la matrice Ω
−ρ
 
1 0 ... 0
 −ρ 1 + ρ2 −ρ . .. 0 
2
 
0 −ρ 1 + ρ ... 0
Ω−1 = 
 
·
 ... . . . ... ... ... 
 
 0 0 ... . . . −ρ 
0 0... ... −ρ 1

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Estimation du paramètre ρ
La méthode d’estimation précédente, la méthode des moindres
carrés généralisés, ne peut être directement appliquée, car elle
suppose le paramètre ρ connu.
En général, le paramètre ρ est inconnu et il nécessaire
d’employer une méthode en deux étapes que nous allons
présenter.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

1. Nous estimons le paramètre ρ. Ce paramètre ρ s’interprète


comme la corrélation Et et Et−1 et il est généralement
estimé par la corrélation empirique entre les résidus e
bt et
et−1 déduits de la méthode des m.c.o. :
b
PT
t=2 et et−1
bb
ρb = PT ·
b2
t=1 et

2. Nous employons la méthode des m.c.g. après avoir


remplacé le paramètre ρ inconnu par son estimation ρb.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Résultat
Avant de décrire la série chronologique par un modèle avec
autocorrélation des erreurs, il faut savoir si l’emploi d’un tel
modèle est nécessaire. Pour cela, il faut pouvoir tester
l’hypothèse nulle ρ = 0 (absence de corrélation et donc emploi
de la méthode des m.c.o.) contre l’hypothèse alternative ρ 6= 0
(corrélation et donc emploi de la méthode des m.c.g.).
Ce test est effectué par la méthode proposée par Durbin et
Watson (1950, 1951) par
PT 2
t=2
bt − e
e bt−1
DW = PT , où e
bt , résidu déduit des m.c.o.
b2
t=1 et

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Remarque
Si le nombre d’observations est grand, nous avons
DW est proportionnel à 2(1 − ρb).

Remarque
La loi de cette statistique, lorsque ρ = 0, dépend des valeurs
des variables F i et S j . Il est cependant possible d’encadrer DW
par 2 statistiques dont les lois ne dépendent pas de ces
variables. Ceci conduit à des tests faisant intervenir deux seuils
critiques dl < du , fonctions du nombre d’observations T et du
nombre de variables explicatives p non compris la constante,
d’où p = k + l − 1.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Conclusion du test de DW
Lorsque nous voulons tester l’hypothèse nulle de l’absence de
corrélation contre l’hyptohèse alternative de corrélation postive,
si DW < dl , alors nous rejetons l’hypothèse nulle de
non-corrélation, si DW > du , alors nous acceptons l’hypothèse
nulle et si dl < DW < du , alors nous ne pouvons pas conclure.

Remarque
La procédure précédente peut être adaptée pour tester
l’hypothèse nulle de non-corrélation contre l’hypothèse
alternative de corrélation négative. Il suffit de remplacer DW
par 4 − DW .

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Remarque
Un inconvénient de ce test est évidemment qu’il ne permet pas
toujours de conclure.

Remarque
Une autre méthode pour tester l’hypothèse nulle ρ = 0 contre
l’hypothèse alternative (ρ 6= 0) pourrait être fondée sur la
comparaison des signes des résidus e bt et e
bt−1 , t = 2, 4, 6, . . . .
Les diverses combinaisons de signes et le nombre de fois où
elles apparaissent sont données dans le tableau ci-dessous.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Tableau des signes


Signe de ebt
+ -
Signe de + T11 T12
e
bt−1 - T21 T22

Remarque
La somme T11 + T12 + T21 + T22 est égale à la partie entière de
T /2.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

L’hypothèse de non-corrélation pourrait être testée en


appliquant un test du χ2 à cette table de contingence 2 × 2.
Lorsque l’hypothèse d’indépendance des signes est acceptée,
nous appliquons la méthode des m.c.o.
Si cette hypothèse est rejetée, nous utilisons la méthode des
moindres carrés généralisés.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Résultat
Lorsque les erreurs sont autocorrélées les formules de
prévision doivent être modifiées pour tenir compte des liaisons
entre les observations de deux dates différentes.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Exemple
Supposons que nous disposons des observations X1 , . . . , XT et
que nous souhaitons prévoir la variable correspondant à la date
T +1:
k l
cj STj +1 + ET +1 ,
X X
XT +1 = bi FTi +1 +
i=1 j=1

avec ET +1 = ρET + εT +1 , où εT +1 est indépendant de


ε1 , . . . , εT et suit une loi N (0, σ 2 ).

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Suite de l’exemple
Nous avons :
k   Xl  
cj STj +1 − ρSTj +εT +1 ,
X
XT +1 = ρXT + bi FTi +1 − ρFTi +
i=1 j=1

et la prévision optimale de XT +1 (lorsque les paramètres sont


connus) est égale à la partie prédéterminée :
k   l  
cj STj +1 − ρSTj .
X X
ρXT + bi FTi +1 − ρFTi +
i=1 j=1

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Prévision
Lorsque les paramètres sont inconnus, une prévision de XT +1
est égale à
k   Xl  
j j
X
X
bT +1 = ρbXT + bi F i
b − ρF i
+ c S − ρS
T +1 T j T +1 T .
b b b
i=1 j=1

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Résultat
Dans le modèle linéaire, l’erreur représente notamment les
effets des variables omises. Si ces variables présentent
elles-mêmes une saisonnalité, celle-ci va apparaître dans
l’autocorrélation.

Exemple
Considérons une série trimestrielle (période 4). Il peut alors
sembler préférable d’introduire l’autocorrélation entre les
erreurs par :

Et = ρEt−4 + εt , −1 < ρ < 1.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Supposons que nous disposons de 4T observations. La


matrice de variance-covariance de E est

Var [E] = σ 2 Ω ⊗ Id,

où Ω est la matrice définie précédemment, Id est la matrice


identité d’ordre 4 et ⊗ est le produit de Kronecker des matrices.
Donc (Var [E])−1 = Ω−1 ⊗ Id et l’estimateur des moindres
carrés généralisés est donné par :
  h i−1
b
= (F S)0 (Ω−1 ⊗ Id)(F S) (F S)0 (Ω−1 ⊗ Id)X .
e
c
e

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Remarque
Cet estimateur peut être approché par l’estimateur des m.c.o.
obtenu en régressant Xt − ρXt−4 sur Ft − ρFt−4 , St − ρSt−4
pour t = 5, . . . , T .

Remarque
Ces méthodes d’estimation supposent connue la corrélation ρ
et dans une première étape il sera nécessaire d’estimer
celle-ci.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.) Autocorrélation d’ordre 1
Applications Y a-t-il autocorrélation d’ordre 1 ?
Propriétés statistiques des estimateurs Prévision
Utilisations de la méthode de régression Autocorrélation d’ordre supérieur
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Estimateur de ρ
Nous pourrons par exemple estimer le coefficient ρ par
PT
t=5 et et−4
bb
ρb = PT ·
e 2
t=4 t
b

Remarque
Finalement nous pouvons remarquer que le test de l’hypothèse
ρ = 0 fondé sur les signes se généralise immédiatement à
condition de comparer les signes de ebt et e
bt−4 et que la
technique de prévision est identique à condition de considérer
XT +1 − ρXT −3 .

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Applications Difficulté de mise à jour
Propriétés statistiques des estimateurs Changement de régime
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Sommaire
1 Le modèle linéaire
2 Transformation de la série brute
3 Estimateur des moindres carrés ordinaires (m.c.o.)
4 Applications
5 Propriétés statistiques des estimateurs
6 Utilisations de la méthode de régression
7 Autocorrélation des erreurs
8 Deux inconvénients de la méthode des m.c.o.

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Applications Difficulté de mise à jour
Propriétés statistiques des estimateurs Changement de régime
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Résultat
Les estimateurs b b et b
c dépendent du nombre d’observations
effectuées.
Supposons que nous disposons de T observations, X1 , . . . , XT
et que nous héritons d’une observation de plus XT +1 .
bT , b
Il est à noter qu’il n’existe pas de relation simple entre (b cT )
et (b
b T +1 c
,b T +1 ).

Myriam Maumy Désaisonnalisation par la régression linéaire


Le modèle linéaire
Transformation de la série brute
Estimateur des moindres carrés ordinaires (m.c.o.)
Applications Difficulté de mise à jour
Propriétés statistiques des estimateurs Changement de régime
Utilisations de la méthode de régression
Autocorrélation des erreurs
Deux inconvénients de la méthode des m.c.o.

Résultat
Nous renvoyons le lecteur au livre de Gourieroux et Montfort,
Séries temporelles et modèles dynamiques, Economica,
Deuxième édition, 1995.

Myriam Maumy Désaisonnalisation par la régression linéaire

Vous aimerez peut-être aussi