Vous êtes sur la page 1sur 17

Séries chronologiques

Merzougui Mouna
Département de Mathématiques
Faculté des Sciences,
Université de Badji Mokhtar, Annaba
U. B. M. A.

Cours Master1 : PS, Actuariat


Table des matières

1 Introduction et généralités 1

1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Dé…nitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Dé…nition de Processus Aléatoire à temps discret . . . . . . . . . . . 3

1.2.2 Stationnarité et Fonction d’autocorrélation . . . . . . . . . . . . . . . 4


1.2.3 Causalité et inversibilité . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Théorème de décomposition de Wold . . . . . . . . . . . . . . . . . . . . . . 8

1.3.1 Prévision à partir de la représentation de Wold . . . . . . . . . . . . 9

1.3.2 Les opérateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

1.4 Densité spectrale (DS) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

1.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.2 Calcul de la DS : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.3 Périodogramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

i
Chapitre 1

Introduction et généralités

1.1 Introduction

Il y a deux approches pour l’analyse temporelle des séries chronologiques :

1- L’approche traditionnelle ou classique, qui est descriptive, consiste à décomposer la


série Xt en 4 composantes :

a- La tendance, notée Tt , c’est un mouvement persistant de long terme qui traduit l’allure
globale du phénomène qu’il soit la baisse ou la hausse.

b- Le cycle, noté Ct , c’est un e¤et périodique extra annuel.

c- La saisonnalité, notée St , c’est un e¤et périodique intra annuel de période p , il su¢ t


de connaitre ses p premières valeurs S1 ; S2 ;. . . ,Sp (par périodicité on aura :St = St+p )

d- Perturbation aléatoire ou Résidu, noté "t , ce sont des ‡uctuations irrégulières, en


générale, de faible intensité mais de nature aléatoire.

Dans cette approche on suppose que les 3 premières composantes ne sont pas aléatoires,
on peut les représenter par des fonctions déterministes du temps, l’impact stochastique est
restreint aux résidus qui sont modélisé par des variables aléatoires indépendantes ou non
2
corrélé de moyenne 0 et de variance constante : E("t ) = 0; V ("t ) = :

On a 2 modèles de décompositions : -Le modèle Additif :Xt = Tt + Ct + St + "t ou le modèle


Multiplicatif : Xt = Tt Ct St "t : (Un cours détaillé sur comment trouver ces composantes a
été fait pour LP3).

1
CHAPITRE 1. INTRODUCTION ET GÉNÉRALITÉS 2

2-L’analyse moderne est plutôt explicative elle est basée sur les processus aléatoires. En
fait, La valeur de la quantité étudiée Xt est une variable aléatoire et l’ensemble des valeurs
Xt quand t varie est appelé processus aléatoire. (Il y a impact stochastique sur toutes les
composantes de la série). Dans cette approche on suppose qu’il y a un modèle stochastique
qui a généré les données ou la série temporelle. La spéci…cation du modèle est basée sur la
méthodologie de Box et Jenkins (1970) avec le modèle ARM A, qui commence par identi…é le
modèle sur la base de certain graphes statistiques : corrélogrammes simple et partiel, ensuite
l’estimation des paramètres en…n le modèle est validé par des tests statistiques, la procédure
est itérée jusqu’à ce que le modèle satisfait les critères. Le modèle sélectionné est utilisé pour
la prévision.

Exemples : Commenter les graphes : tendance, saisonnalité et type de modèle. (Les séries
sont dans la base de données R ’datasets’)

1.2 Dé…nitions

Une série chronologique (ou série temporelle ou chronique) est une succession d’observations
obtenue séquentiellement au cours du temps, noté par (Xt )t2T : Si T est un intervalle de
nombres réels alors Xt est une série continue et si T est un ensemble discret alors Xt est une
série à temps discret. Dans ce cours, on se basera sur les séries temporelles discrètes. Par
rapport aux autres types de données statistique la particularité des séries chronologique tient
CHAPITRE 1. INTRODUCTION ET GÉNÉRALITÉS 3

à la présence d’une relation d’antériorité qui ordonne l’ensemble des informations. Les dates
d’observation sont souvent équidistantes les unes des autre : on a des séries trimestrielles,
mensuelles,...., etc. C’est en astronomie qu’apparaissent les premières séries temporelles mais
les domaines d’applications sont très larges : biologie, théorie du signal, météorologie, éco-
nomie. Les objectifs des ST : la description, l’explication et la prévision.

1.2.1 Dé…nition de Processus Aléatoire à temps discret

Un processus stochastique est un modèle qui décrit la structure de probabilité d’une suite
d’observation. Soient ( ; F; P) un espace de probabilité, T un ensemble d’indices et (E; E)
un espace mesurable. On appelle processus aléatoire une famille fXt ; t 2 T g de variables
aléatoires à valeurs dans (E; E) indexés par t 2 T:

t : le temps, T Z :processus aléatoire à temps discret et quand T R :processus


aléatoire à temps continu.

On s’intéresse aux processus aléatoire à temps discret et (E; E) = (R; B (R)) est appelé
espace d’état.

Xt : ( ; F; P) ! (E; E)
! ! Xt (!)

Pour ! …xé, Xt (!) est une variable aléatoire. on notera par la suite Xt = Xt (!) :

Xt peut être le prix de stock ou le niveau d’eau dans un lac,...etc, une série temporelle
de n observations : (X1 ; :::; Xn ) est regardé comme une réalisation d’un échantillon parmi
une population in…ni d’échantillons qui aurait pu être généré par ce processus. L’objectif de
l’examen statistique est d’inférer les propriétés de la population à partir de l’échantillon.

Pour une description complète du processus stochastique on doit spéci…er toute les distribu-
tions de probabilités jointes d’ordre n des échantillons : P (Xt1 x1 ; : : : ; Xtn xn ) ; 8t1 ; : : : ; tn
mais pour la plupart des cas c’est di¢ cile, une description partielle est plus pratique est
consiste à spéci…er la moyenne, la variance et la fonction de covariance.
CHAPITRE 1. INTRODUCTION ET GÉNÉRALITÉS 4

1.2.2 Stationnarité et Fonction d’autocorrélation

Une classe importante des modèles stochastiques est les modèles stationnaires qui suppose
que la processus reste en équilibre par rapport à un niveau moyen constant. La stationnarité
joue un rôle central dans la théorie des processus, car elle remplace l’hypothèse d’observation
i.i.d en statistique. Deux notions sont considérées.

Stationnarité forte (au sens stricte) :

Le processus Xt est stationnaire strict si pour toute famille …nie d’instants (t1 ; : : : ; tn ) 2 T
et tout entier s , les lois de probabilités de (Xt1 ; : : : ; Xtn ) et de (Xt1+s ; : : : ; Xtn+s ) sont les
même c-à-d :
L (Xt1 ; : : : ; Xtn ) = L(Xt1+s ; : : : ; Xtn+s ); 8t 2 T; 8s 2 N:

Les propriétés statistiques ne changent pas au cours du temps.(On considère les processus
dont les distributions ne changent pas si le temps est translaté ou décalé).

Exemple :

Il est di¢ cile de montrer la stationnarité forte puisqu’elle exige la caractérisation complète,
i:i:d
mais l’exemple le plus simple est le processus i.i.d : pour fXt g v FX ;

Y
n
P (Xt1 x1 ; : : : ; Xtn xn ) = FX (xi )
i=1

= P (Xt1+s x1 ; : : : ; Xtn+s xn )

Avant de donner la 2ème notion de stationnarité on introduit les dé…nitions suivantes.


Dé…nition1

Soit Xt une série temporelle avec E(Xt2 ) < 1 :

- La fonction moyenne de Xt est t = E(Xt ).

- La fonction covariance de Xt est Cov(Xt ; Xs ) = E((Xt t )(Xs s )) = (t; s). (Mesure


le degré de variation conjointe)

Exemple : Soit fXt g un processus strictement stationnaire, alors : FXt = FXt+s =


CHAPITRE 1. INTRODUCTION ET GÉNÉRALITÉS 5

t = 0 = :
FX0 =) 2 2 2
t = 0 = :

En plus, FXt1 ;Xt2 = FXt1+s ;Xt2 +s = FXt1 t2 ;X0 =) (t1 ; t2 ) = (t1 t2 ; 0) = (t1 t2 ): La
fonction de covariance dépend seulement de t1 t2 :

De manière générale si Xt un processus strictement stationnaire, alors :

-Les moments d’ordre k sont constant : E(Xtk ) = E(Xsk ):

-Stabilité de toutes les lois jointes, en particulier : Cov(Xt ; Xt+h ) = Cov(Xs ; Xs+h ):

Stationnarité faible (de second ordre) :

Le processus Xt est stationnaire d’ordre deux si la moyenne et la covariance sont invariantes


par translation dans le temps, c-à-d :

- E(Xt ) = : (indépendante de t)
2
-V ar (Xt ) = :

-Cov(Xt ; Xt h) = h: (indépendante de t; 8h)

Remarque : La stationnarité stricte implique la stationnarité faible à condition que


V ar (Xt ) existe. Dans le cas gaussien on a l’équivalence.

Exercice : Soit Xt des v.a.i tel que Xt v Exp (1) (la loi exponentielle) si t est pair et
Xt v N (1; 1) si t est impair. Calculer l’espérance, la variance et la covariance de ce processus.
En déduire que la stationnarité faible n’implique pas la stationnarité forte.

Dé…nition2
Soit Xt une série temporelle stationnaire :

-La fonction d’autocovariance (ACV) de Xt au retard h est : h = Cov(Xt ; Xt h ):

-On étude "la mémoire" d’un processus en calculant sa fonction d’autocorrélation (ACF)
Cov(Xt ;Xt h)
de retard h noté h : h =p = h
:
V ar(Xt )V ar(Xt h) 0

Propriétés

1. 0 = V ar (Xt ) :
CHAPITRE 1. INTRODUCTION ET GÉNÉRALITÉS 6

2- h = h ; 8h

3-j hj 0 ; 8h

Par conséquent : La fonction d’autocorrélation véri…e :

1- 0 = 1:

2- h = h ; 8h

3-j h j 1:

On utilisera souvent les relations suivantes :


!
Pm P
n Pm Pn
-Cov ai Xi ; b j Yj = ai bj Cov (Xi ; Yj ) :
i=1 j=1 i=1 j=1

-V ar (Xt ) = Cov (Xt ; Xt ) :

P
n P
n P
n nP1
-V ar Xt = Cov Xt ; Xs = (n jhj) h:
t=1 t=1 s=1 h= (n 1)

Rappel de l’inégalité de Jensen : Si f est une fonction convexe et X une variable


aléatoire tel que E (X) < 1; alors

f (E (X)) E (f (X))

l’inégalité est stricte si f est strictement convexe. (sera utile dans les exercices).

Exemples

1) Bruit blanc :Ces modèles sont très importants car ils sont simples à analyser, facile à
simuler et utiliser comme bloc de construction de modèles plus compliqués.

Soit ("t )t2T un processus stochastique, on dit que ("t )t2T est un bruit blanc faible (resp. fort)
si les trois propriétés suivantes sont véri…er :

1-E("t ) = 0; 8t 2 T:
2
2-V ar ("t ) = ; 8t 2 T:

3-cov ("t ; "s ) = E ("t "s ) = 0; 8t 6= s:

La propriété 3 implique que les "t sont non corrélées entre eux (resp. les "t sont iid). Ce
CHAPITRE 1. INTRODUCTION ET GÉNÉRALITÉS 7

processus est stationnaire, il est sans mémoire.

Notation

-si f"t g est un bruit blanc faible, on notera : f"t g v W N (0; 2


) ou f"t g v BB (0; 2
):

-si f"t g est un bruit blanc fort, on notera : f"t g v iid (0; 2
):

Simulations de 2 bruits blancs avec les lois : N (0; 1) et N (0; 102 ) :

2) Marche aléatoire

"t si t = 1
Soit le processus fXt g dé…ni par : Xt =
Xt 1 + " t si t = 2; 3; :::

Où "t est un bruit blanc, ce processus est appelé marche aléatoire et peut s’écrire sous la
P
t
2
forme : Xt = "i : On peut montrer que E(Xt ) = 0 et Cov(Xt ; Xs ) = min (t; s) :
i=1

Donc une marche aléatoire n’est pas stationnaire car la suite des covariances dépend de t.

Dé…nition : Fonction d’autocorrélation empirique

Soit x1 ; :::; xn des observations d’une série temporelle :

1
P
n
-La moyenne empirique est x = n
xt :
t=1

nPh
1
-La fonction d’autocovariance empirique est bh = n
(xt x) (xt+h x) ; 0 h < n:
t=1
CHAPITRE 1. INTRODUCTION ET GÉNÉRALITÉS 8

bh
-La fonction d’autocorrélation empirique est bh = b0
; 0 h < n:

Le graphe de est appelé corrélogramme.

1.2.3 Causalité et inversibilité

Dé…nition : un processus Xt s’appelle causal s’il peut être représenté sous la forme :

X
1
Xt = i "t i ;
i=0

P
1
2
où "t est un bruit blanc et i < 1:
i=0

P
1
Dé…nition : une représentation causale Xt = i "t i d’un processus stationnaire est
i=0

inversible si :
X
1 X
1
2
"t = i Xt i où i < 1:
i=0 i=0

1.3 Théorème de décomposition de Wold

Le théorème de Wold (1938) est considéré comme théorème fondamentale dans le domaine
des séries temporelles. En vertu de ce théorème, tout processus stochastique Xt stationnaire
au sens faible peut être écrit comme une combinaison linéaire.

Théorème : Tout processus stationnaire d’ordre deux (Xt ; t 2 Z) peut être représenté
sous la forme :
X
1
Xt = i "t i + kt
i=0

P
1
où les paramètres i satisfont 0 = 1; i 2 R; 8i 2 N ; 2
i < 1 et où f"t g v iid (0; 2
):
i=0

On dit que la somme des chocs passés correspond à la composante linéaire stochastique de Xt .
Le terme kt désigne la composante linéaire déterministe telle que Cov(kt ; "t i ) = 0; 8i 2 Z:
CHAPITRE 1. INTRODUCTION ET GÉNÉRALITÉS 9

Remarques

-la représentation de Wold du processus (Xt ; t 2 Z) suppose que l’on ajoute à la somme
pondéré des chocs passés, une composante déterministe kt qui n’est autre que l’espérance du
processus, car
!
X1
E(Xt ) = E i "t i + kt = kt =
i=0

P
1
2
-La condition i < 1 est dite condition de sommabilité des carrés. Elle assure l’existence
i=0

des moments d’ordre deux du processus (Xt ; t 2 Z), sous cette condition, on dit que Xt
converge en moyenne quadratique.

1.3.1 Prévision à partir de la représentation de Wold

On peut prévoir les valeurs futurs de Yt jusqu’en t + h, sachant l’ensemble d’information

passés jusqu’a t, la prévision est notée Ybt (h).

La meilleure prévision possible de la réalisation Yt+h connaissant les valeurs Yt ; Yt 1 ; ::: est
donnée par l’espérance conditionnelle :

Ybt (h) = E (Yt+h =Yt ; Yt 1 ; :::)


!
X
1
= E i "t+h i + ="t ; "t 1 ; ::: :
i=0

L’erreur de prévision à un pas (h = 1) est : Yt+1 Ybt (1) = "t+1 . Cet erreur de prévision est
appelée innovation (l’innovation est la partie de Yt non corrélé au passée de la série).

Lemme :

Soit fZj g une suite de variable aléatoire dé…nit sur l’espace de probabilité ( ; F; P). Sup-
!
P
1 P
1 Pn P
1
posons que E jZj j < 1, alors Zj = lim j= n Zj p.s et E Zj =
j= 1 j= 1 n!+1 j= 1

P
1
E (Zj ) :
j= 1
CHAPITRE 1. INTRODUCTION ET GÉNÉRALITÉS 10

Preuve :
Pn Pn
*On dé…nit la suite Sn = j= n Zj : La suite j= n jZj j est croissante positive donc la limite
Pn P
1
existe dans R [ f+1g : lim j= n Zj = Zj :
j= 1

En utilisant le TCM :
!
X
1 X
1
E jZj j = E jZj j < 1
j= 1 j= 1

P
1 P
1
d’où jZj j < 1 p.s c’est à dire Sn converge absolument vers Zj et lim Sn =
j= 1 j= 1 n!+1

P
1
Zj :
j= 1

!
Pn Pn P
1 P
1
*jSn j = j= n Zj j= n jZj j < E jZj j < 1; en utilisant le TCD : E Zj =
j= 1 j= 1

P
1
E (Zj ) :
j= 1

On donne un rappel sur la convergence en moyenne quadratique.

Rappel : Soit la classe des variable aléatoire appartenant à L2 ; satisfaisant E (X 2 ) < 1:


On rappelle l’inégalité de Cauchy :
p
jE (XY )j E (X 2 ) E (Y 2 ):

Dé…nition : une suite de V.A Xn 2 L2 converge en moyenne quadratique vers la V.A


M:Q
X 2 L2 ; noté Xn ! X si et seulement si

E jXn Xj2 ! 0:
n!1

Pour établir la convergence en M.Q, il est plus facile de véri…er la condition du théorème
suivant :
M:Q
Théorème : Soit la suite Xn 2 L2 , alors 9 X 2 L2 = Xn ! X si et seulement si

E (Xn Xm )2 ! 0 pour m; n ! 1:
CHAPITRE 1. INTRODUCTION ET GÉNÉRALITÉS 11

Les suites véri…ant cette condition sont dite les suites de Cauchy dans L2 et la condition est
appelé le critère de Cauchy pour L2 :

Maintenant, on peut montrer le théorème suivant.

Théorème : Soit la suite de nombres réelles faj get la suite de variables aléatoires fZt g
P
1
véri…ant : jaj j = M < 1 et EZt2 K < 1: Alors, il existe une suite de variable
j= 1
0 1
2
P
1 P
n
aléatoire fXt g =Xt = aj Z t j p.s et lim E @ Xt aj Zt j
A = 0:
j= 1 n!+1 j= n

Preuve :
P
n
*En prenant Sn = aj Zt j , utiliser la même démonstration du lemme précédent pour
j= n

P
1
montrer que Xt = aj Z t j p.s.
j= 1

*Pour montrer la convergence en M.Q, il su¢ t de montrer que

2
X
n X
m
E aj Z t j aj Zt j ! 0 pour m; n ! 1:
j= n j= m

Soit 0 < m < n :

!2 0 12
X
n X
m X
E aj Z t j aj Z t j = E@ aj Z t j A
j= n j= m m<jjj n

X X
= aj ak E (Zt j Zt k )
m<jjj n m<jjj n

X X
jaj j jak j jE (Zt j Zt k )j
m<jjj n m<jjj n

X X q
jaj j jak j E Zt2 j E Zt2 k
m<jjj n m<jjj n

0 12
X
= 0 (Z) + 2
Z
@ jaj jA ! 0:
m;n!1
m<jjj n
CHAPITRE 1. INTRODUCTION ET GÉNÉRALITÉS 12

parce que faj g est absolument sommable.

1.3.2 Les opérateurs

-L’opérateur retard L : Soit Xt une série temporelle, LXt = Xt 1 .

-Lh Xt = Xt h; en particulier on a L0 Xt = Xt .

-Si Xt = c,8t 2 Z avec c 2 R : Li Xt = Li c = c; 8i 2 Z:

-L’opérateur de di¤érence : Xt = Xt Xt 1 = Xt LXt () =1 L:

-Le polynôme retard d’ordre p est représenté par : 'p (L) = 1 '1 L 'p Lp Xt :

1.4 Densité spectrale (DS)

1.4.1 Introduction

La densité spectrale contient la même information que la fonction d’autocovariance, mais


elle est dé…nie dans le domaine des fréquences. Elle permet d’identi…er les principales compo-
santes d’une série : tendance, saison, cycle, etc (e¤et calendrier). L’idée est que les di¤érentes
composantes peuvent être vues comme des oscillations de fréquences plus ou moins élevée.

-Si la fréquence des oscillations est faible !cycle de période très longue = composante
tendancielle

-Si la fréquence est élevée !cycle de période faible (par exemple : une saisonnalité).

On interprète la densité spectrale en étudiant les pics les plus importants. S’il n’y a pas de
pics, il n’y a pas de composantes cycliques dominantes, donc il s’agit d’un BB. S’il y a des
pics, on peut alors réinterpréter les fréquences en termes de temps pour déterminer la durée
du cycle.

Les fréquences sont mesurées en fréquence angulaire notée !. On a les relations suivantes
entre la fréquence angulaire ! et la période de temps T :

2 2
!= () T =
T !
CHAPITRE 1. INTRODUCTION ET GÉNÉRALITÉS 13

2
* Pour des données mensuelles, T = 12 =) ! = 12
= 6 . Ainsi, si l’on observe un pic à la
fréquence ! = 6 , on pourra conclure que la série a une composante périodique de période
12, c’est-à-dire un e¤et saisonnier mensuel.

*Données trimestrielles, la période est T = 4 =) ! = 2 . Si on observe un pic dans la densité


spectrale à cette fréquence, c’est qu’il y a un e¤et trimestriel.

*S’il y a un pic pour des basses fréquences, cela signi…e qu’il y a un cycle de long-terme.

*Si la densité spectrale est élevée voir in…nie à l’origine, cela signale qu’il y a un problème
de non stationnarité.

1.4.2 Calcul de la DS :

Soit Yt un processus stationnaire de moyenne E(Yt ) = et de fonction d’ACV h = E((Yt


)(Yt h )): La densité spectrale de Yt est

1 X
+1
i!h
fY (!) = he ; ! 2 R:
2 h= 1

i!h
où e = cos (!h) i sin (!h) :

Propriétés
i!h
1- fY (!) existe car la série de terme général he est absolument convergente puisque
P
+1
j hj < 1 (car Yt est stationnaire).
h= 1

2- fY (!) est réelle : on a

" #
1 X
+1
i!h
fY (!) = 0 + h e + ei!h
2 h=1

1X
+1
0
= + h cos (!h)
2 h=1

1 X
+1
= h cos (!h) :
2 h= 1
CHAPITRE 1. INTRODUCTION ET GÉNÉRALITÉS 14

(Dans les exercices il est préférable d’utiliser cette 2ème dé…nition).

3- fY (!) est une fonction paire : fY ( !) = fY (!) ; continue, périodique de période 2 :


cos ((! + 2k ) h) = cos (!h) ! fY (! + 2k ) = fY (!) : (On représente la DS sur [0; ]).

4-Il est équivalent de connaitre h; h 2 Z ou fY (!) ; ! 2 R; où


Z
h = fY (!) ei!h d!:

Démontrer ce résultat. Indication : Remplacer f et calculer l’intégrale, vous trouverez h:

Exemple : DS d’un bruit blanc

Soit f"t g v BB (0; 2


) =) 0 = 2
et h = 0 pour h 6= 0: Sa DS est

0
f" (!) =
2
2
= ; 8!
2

donc la DS est constante.

Inversement si Yt est un processus stationnaire dont la DS est constante fY (!) = c; alors ce


processus est un BB :
Z
h = c cos (!h)

= 0 si h 6= 0

Le fait que la fonction f (!) est constante veut dire que la puissance totale est uniformément
distribuée sur toutes les fréquences, cette propriété est la même pour la lumière blanche où
toutes les fréquences (couleurs) sont présente en même quantité et c’est pour cette raison
que ce processus est appelé bruit blanc.

Propriété

P
1
Soit Yt est un processus stationnaire véri…ant : Yt = i "t i , (la décomposition de Wold),
i=0

P
1 P
1
avec le polynôme retard (L) = j
j L ; on a Yt = (L) "t ; où j i j < 1 et f"t g v
j=0 i=0

2
BB (0; ):
CHAPITRE 1. INTRODUCTION ET GÉNÉRALITÉS 15

Alors la DS de Yt est donnée par :

i! 2
fY (!) = e f" (!)
2
i!
= e ei! :
2

Cette formule nous donne une manière alternative pour calculer la DS.

1.4.3 Périodogramme

C’est un estimateur non paramétrique de la DS. Soit la série chronologique de taille T :


y1 ; y2 ; :::; yT , on peut calculer les T 1 ACV empiriques d’après la formule :

8
< 1
P
T
(yt y) (yt h y) ; pour h = 0; 1; :::; T 1
bh = T
t=h+1
:
b h pour h = 1; 2; :::; T + 1

1
P
T
où y est la moyenne de l’échantillon : y = T
yt : Pour ! donné le périodogramme est donné
t=1

par

1 X
T 1
fbY (!) = bh e i!h
:
2 h= T +1

2 j T
Le calcul se fait pour ! j = T
, pour j = 1; 2; :::; M = 2
:

Vous aimerez peut-être aussi