Séries chronologiques.
Licence de Probabilités-Statistiques.
Troisième année
11 mai 2020
Références
[1] Yves Tillé. Résumé du Cours de séries temporelles. Polycopié. 72 pages. 18 janvier 2004
[2] Marc Lavielle. Cours de séries chronologiques. Université Paris Sud. polycopié. 55p
[3] Marc Lavielle. Statistique des processus et applications. Université Paris Sud. polycopié. 52p
[4] M.C Viano & A. Philippe. Cours de Séries Temporelles. Maîtrise d'Économétrie. polycopié.
67p. UST de Lille. 1999 à 2004
[5] A. Charpentier. Cours de Séries Temporelles. Théorie et applications. DESS Actuariat.
Université Paris Dauphine. polycopié. 178p
[6] R. von Sachs & S. Van Bellegem. STAT2414. cours de séries chronologiques. polycopié.211p.
Université Catholique de Louvain. 2005
? page 2
1 Contenu du Programme 3
2 Premiers exercices 4
3 Autres exercices 7
4 Edition Spéciale 10
5 Annexes : Notes de cours 11
A Statistique et statistiques . . . . 11
A.1 En guise de dénition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
A.2 Deux grandes branches en Statistiques . . . . . . . . . . . . . . . . . . . . . . . . 11
A.3 Raisonnement inductif et Statistique inférentielle . . . . . . . . . . . . . . . . . . 11
1 Contenu du Programme
1. Rappels et compléments
(a) Rappels et compléments de Probabilités ( Covergences stochastiques ...)
(b) Rappels et compléments de Statistiques (Histogrammes, Skewness et Kurtosis, Ré-
gression, Tests statistiques et P-Value ...)
(c) Sur le langage R. Le logiciel ITSM. Autres langages spéciques aux séries chronolo-
giques
2. Introduction
(a) Aspects généraux
(b) Approche traditionnelle et approche dynamique
(c) L'analyse descriptive préliminaire
3. L'analyse traditionnelle des séries chronologiques
(a) Modèles (shémas) de décomposition classiques tendance/saisonnalité
(b) Modèles prédictifs (Holt, Winters, ...)
4. Processus stochastiques : notions fondamentales
(a) Processus : généralités
(b) Processus du 2ième ordre
Premières notions. L'espace de Hilbert L2 (Ω, =, P )
Le problème de prédiction
Note : le processus gaussien centré
(c) Présentation des processus stationnaires du 2ième ordre
Premières notions. Exemples usités de processus stationnaires
Théorème de Herglotz. L'aspect fréquentiel des processus stationnaires
Théorème de Wold
Causalité et Inversibilité des processus ARMA
(d) Deux processus non-stationnaires : les processus TS et les processus DS
5. Estimation non-paramétrique au 2ième ordre d'un processus stationnaire
(a) Estimation de l'espérance mathématique et de la fonction de covariance
(b) Le périodogramme. Sur l'estimation de la densité spectrale
6. Estimation du processus ARMA(p,q)
(a) Estimation d'un processus AR(p) par la méthode de Yule-Walker
(b) Estimation du processus ARMA(p,q) par la méthode du MV
7. Modélisation ARMA et prédiction
(a) La construction de modèle selon Box & Jenkins
(b) Identication du modèle
(c) Estimation du processus ARMA. Tests sur les paramètres estimés
(d) Adéquation : Tests of randomness
Tests sur le bruit blanc
Choix par critères d'information
(e) Prédiction d'un processus ARMA(p,q)
(f) What next ?
8. Etude de cas concrets
2 Premiers exercices
Exercice 2 Soit {X (1) , X (2) , ..., X (N )} une série chronologique de longueur N. On désire
ajuster une courbe vériant
k
f (t) = , a, b, k 0 (1)
1 + b exp (−at)
1. On pose g (t) = 1/f (t).
(a) Démontrer la relation
g (t + 1) = βg (t) + α
où α et β sont à déterminer.
(b) Calculer alors k et a. Et b ?
2. Comment pourrait-on vérier la validité d'un ajustement du modèle (1) à cette série
(a) d'abord graphiquement
Exercice 3 Décrire les séries de données algériennes suivantes représentées par leurs time-plots :
{7.4, 4.4, 3.3, 7.6, 3.9, 2.4, 6.9, 4.5, 2.7, 8.2, 4.1, 3.0, 7.5, 3.5, 2.8}
Exercice 5 On considère les opérations ∇p et ∇s dénies sur les entiers par les relations
∇s X (t) = X (t) − X (t − s) , s ≥ 2.
Problème 1 (Analyse traditionnelle) Soit {X (1) , X (2) , ..., X (N )} une série chronologique
trimestrielle de longueur N ; elle est enregistrée dans le tableau à double entrée suivant :
1 2 3 4
1993 2 7 12 7
1994 6 7 16 11
1995 8 12 18 13
1996 10 14 20 13
1. Etude préliminaire
2. Ajustement
(a) On pose T = {1, 2, ..., N }. On désire ajusterà cette série la droite de regression (des
moindres carrés) de X sur T notée ∆ X T telle que
X
T : y = αt + β .
∆
3. Adéquation
4. Extrapolation : quelles sont vos prévisions pour 1997 ? Pour le premier trimestre 1998 ?
1. On utilisera chaque fois que nécessaire le langage R, même dans les autres exercices de cette série.
3 Autres exercices
Exercice 6 Soit ε = {εt , t ∈ Z} un bruit blanc centré de variance σ 2 . Dans tout ce qui suit, a, b
et c sont des nombres réels.
1. Soit X = {Xt , t ∈ Z} un processus vériant
Exercice 7 Etablir si X est un processus stationnaire au 2ième ordre dans chacun des cas sui-
vants ; en donner, s'il y a lieu, la fonction de covariance :
1. Xt = a + bε0 .
2. Xt = cos (ct) εt .
3. Xt = εt εt−1 .
4. Soit maintenant Y = {Yt , t ∈ Z} un processus vériant Yt = (−1)t εt .
(a) Y est-il un processus stationnaire au 2ième ordre ?
(b) Même question pour le processus Z = {Zt , t ∈ Z} déni par la relation
Zt = Yt + εt
Xt = εt + θεt−1
1
Yt = ηt + ( )ηt−1 .
θ
Montrer que X et Y ont même fonction d'auto-corrélation.
Xt = 0.8Xt−2 + εt
Xt = f (t) + εt .
Xt = ρXt−1 + β + εt (∗)
où ρ et β ∈ R. Montrer que
k−1
X k−1
X
k
Xt = ρ Xt−k + β j
ρ + ρj εt−j ; ∀k ∈ N∗ .
j=0 j=0
4 Edition Spéciale
NB : Dans toute la suite, ε = {εt , t ∈ Z} est un processus de bruit blanc centré de variance
σ2.
Exercice 14 Soit ε = {εt , t ∈ Z} un bruit blanc formé de variables i.i.d gaussiennes centrées et
de variance 1. Onse donne ici un processus X = {Xt , t ∈ Z} vériant Xt = εt si t est pair, et
√
Xt = (εt−1 )2 − 1 / 2 si t est impair.
1. Calculer E (εt )4 .
2. Montrer que X est un bruit blanc centré et de variance 1.
Xt = Wt (1 − Wt−1 )Zt
A Statistique et statistiques . . . .
En sciences expérimentales, on peut avoir besoin d'un autre mode de raisonnement ; en eet, soit
E une partie d'un ensemble Ω pour laquelle on dispose d'informations ; on veut étendre sur Ω ces
informations connues sur E seulement : un raisonnement qui permet d'eectuer cette extension 2
s'appelle raisonnement inductif.Ce dernier permet de passer du particulier au général. Ce
degré d'incertitude se mesure en termes de probabilités. E est ici appelé "échantillon" et Ω est
appelé "population". Le terme "inférentielle" tient au fait que ce raisonnement infère (on dit
aussi induit) les propriétés attachées à la partie E vers la population Ω ; on l'appelle souvent
Statistique mathématique.
la série chronologique résultant de l'observation d'un phénomène noté X évolue dans le temps. 0n
recense deux approches pour étudier les séries chronologiques : une approche dite traditionnelle
et une approche dite dynamique.
En approche traditionnelle, on fait l'hypothèse que la série chronologique est produite par
des causes déterministes, indépendantes l'une de l'autre, et un résidu que l'on suppose aléatoire.
La série précédente admettra donc la représentation suivante :
D désigne ici une fonction déterministe du temps ; (t) est le résidu à l'instant t. est ici
considéré comme une erreur d'observation.
est une observation de longueur N d'un processus stochastique X = {X (t) , t ∈ Z}, sensé repré-
senté le phénomène temporel étudié.
oubien
X (t) = f (t)(1 + s(t))(1 + (t)).
projE1 : E(X) → E1
On propose ici la quantité Y = projE1 (X(t0 )). Y est la solution nla plus "proche"o de X(t0 ) au
2
sens des moindres carrés, c'est-à-dire que l'écart quadratique E (Y − X(t0 )) est minimal
n o
parmi tous les nombres E (U − X(t0 ))2 où U ∈ E(X). On rappelle que
n o
E (Y − X(t0 ))2 =k Y − X(t0 ) k2 = d2 (Y, X(t0 )) ;
d () étant la distance induite par le produit scalaire déni précédemment sur L2 (Ω, =, P ).
2ème Solution : soit β la tribu engendrée par les variables aléatoires (X (t) , t ∈ T1 ), ie : β =
∨ (X (t)) et soit L2 (β) l'ensemble des variables β -mesurables de carré intégrable. On sait
t∈T1
que L2 (β) est un sous-espace vectoriel fermé de L2 (Ω, =, P ). On propose ici la quantité
Z = projL2 (β) (X(t0 )). On remarque que Z = E {X(t0 )/β}, qui n'est autre que l'espérance
conditionnelle de X(t0 ) sachant β .
Cette inégalité prouve que Z est meilleure que la 1ère solution Y , mais c'est cette dernière
qui est préférée car elle est facilement calculable. Ce qui n'est pas le cas de la 2ième solution,
car il faut plus d'informations que la connaissance du noyau K et des {X (t) , t ∈ T1 } . Mais
dans le cas particulier important où X est un processus gaussien centré, alors Y = Z .
3. On note ici que si t0 = 0 et T1 = Z∗ nous sommes en présence d'un problème plus couramment appelé
problème d'interpolation.
D.1 processus TS
Considérons un processus X = {Xt , t ∈ Z} vériant :
Xt = f (t) + εt
où ε = {εt , t ∈ Z} est un processus stationnaire au 2nd ordre, et f une fonction (déterministe)
vériant
f: Z → R
t 7−→ f (t)
On remarque que E (Xt ) = f (t) et var (Xt ) = var (εt ) = cste. Le processus X n'est pas sta-
tionnaire en moyenne, mais il est stationnaire en variance. son comportement de long-terme
est déterministe (i.e, il va se comporter comme) f ; c'est ce qu'on appelle un processus TS
[trend stationary] : Un processus TS est un processus que l'on peut rendre station-
naire par une régression sur une tendance déterministe.
D.2 processus DS
Rappel : la marche aléatoire Soit X un processus vériant
Xt = ρXt−1 + β + εt
où ρ et β ∈ R, {εt , t ∈ Z} est stationnaire au 2nd .
Puisque : (∀k ∈ Z)
k−1
X k−1
X
k j
Xt = ρ Xt−k + β ρ + ρj εt−j
j=0 j=0
alors : si |ρ| = 1 , on a
t
X
Xt = X0 + tβ + εj ≡ (∗)
j=1
Si ε est un bruit blanc ( ici centré), alors {Xt , t ∈ Z} est appelée "marche aléatoire " [ avec dérivé
si β 6= 0 , sans dérivé , sinon ]
1. β = 0
(a) E {Xt } = E (X0 ) = µx0 , ∀t
(b) v {xt } = v {x0 } + tj=1 v {εj } = v x0 + tσ 2 ε
P
⇒ la m.a sans dérivé est stationnaire en moyenne mais non stationnaire en variance.
2. β 6= 0
En général : Un processus "DS" possde une tendance (dépend de E(x0 )) donc non stationnaire
en moyenne, de type stationnaire par une régression sur celle [contrairement au processus "TS"]
parce qu'il est non stationnaire en variance [variance de type stochastique :celle de la m.a est
linéaire % temps].
Donc : une opération ∇d de diérenciation peut le rendre stationnaire (d=1,pour la m.a)
∇(xt − xt−1 ) = ∇2 xt
∇d xt = (1 − B)d xt
dénition : Un processus DS est un processus que l'on peut rendre stationnaire par un ltre
aux diérence (1 − B)d .
• si {xt , t ∈ Z} et un tel processus,on aura :
(1 − B)d xt = β + εt ≡ (∗∗)
Vocabulaire : Si x vérie (**),On dit que x est un processus intégré d'ordre d et on écrit :
• Pour un processus MA, sa valeur actuelle dépend de la perturbation actuelle plus une combi-
naison linéaire des perturbations passée.
pour un MA(q), chaque valeur est une moyenne "mobile" des perturbation "choc" les plus
récent ; l'eet des perturbations s'éteint après un certain temps (=q).ce dernier est diérent
d'un processus AR ................mais ne s'éteint pas .
• le processus AR possède une mémoire,xt dépend de xt−1 , lequel dépend de xt−2 ,etc... ;si
xt = Φxtt−1 + εt , "Φ" désigne la force de liaison entre deux valeur successives , si |Φ| < 1
l'eet de chaque perturbation tend à décroitre au cours du temps.
• processus intégré : il rend compte de l'eet cumulatif aectant certaines série chronologique.