Académique Documents
Professionnel Documents
Culture Documents
4ème Année :
Actuariat et Finance
Chapitre 1 : Introduction
1 Préliminaires sur les séries temporelles
2 Exemples de séries temporelles
3 Objectifs de l’analyse d’une série temporelle
4 Tendance, Saisonnalité et Résidus
Séances de TD/TP
• Comment prévoir ?
Certaines données sont faciles et, sur elles, toutes les méthodes
donnent de bonnes prévisions. Tout l'art du statisticien, face à des
données difficiles, est de confronter plusieurs méthodes et de
choisir celle qui convient le mieux.
Préliminaires sur les séries temporelles
Une série temporelle (ou encore une série chronologique) est une
suite finie (X1,..., XT) de données indexées par le temps. L'indice
temps peut être selon les cas la minute, l'heure, le jour, l'année
etc.... Le nombre T est appelé la longueur de la série. La date à
laquelle l’observation est faite est une information importante sur
le phénomène observé.
Résumé
Série chronologique : données mesurées sur une période de
temps. Exemples: valeur d’un titre, taux d’inflation, taux de
chômage, ventes.
Effet cyclique
1.5
1
0.5
0
-0.5 1 3 5 7 9 11 13 15 17 19 21 23 25 27 29
-1
-1.5
Temps
700
600
500
400
300
200
100
0
Jan-49
Jan-50
Jan-51
Jan-52
Jan-53
Jan-54
Jan-55
Jan-56
Jan-57
Jan-58
Jan-59
Jan-60
Effet aléatoire
Modèles
modèle additif
yt = Tt + Ct + St + Rt
modèle multiplicatif
yt = Tt × Ct × St × Rt
Saisonnalité additive
Cas d'un modèle multiplicatif
• Présence de fluctuations saisonnières
• Différentes variations d’amplitude
• + tendance
• + variations accidentelles
140
120
1 00
80
60
40
20
1 6 11 16 21 26
Saisonnalité multiplicative
Méthodes sans modèle
Lissage exponentiel :
Le lissage exponentiel est utilisé pour effectuer une prévision à l’horizon
h ≥ 1, notée YˆT (h ), au vu des observations Y 1 ,Y 2 …,Y T . Cependant la
suite des prévisions à un pas, YˆT (1), T = 1, 2,..., constitue un lissage de
la série. La particularité consiste à accorder aux valeurs passées une
importance qui décroît de manière exponentielle avec le temps, on parle
de facteur d’oubli.
k =0
Ainsi YˆT (h ) est une moyenne pondérée des valeurs passées puisque
γ (1 − γ )∑ ∞= k = 1. Notons que Yˆ (h ) ne dépend pas de h . Cette
k 0 T
β
La prévision YˆT est égale à l’estimateur β
ˆ d’une moyenne constante
T
k =0 1
∞ γ γ (1 − )
(1 − ) ∑ k kY T −k + a
2
− b = 0.
k =0 γ (1 − )
On note S 1 (T ) =YˆT la série lissée introduite à la section 1 et S 2 (T )la
série doublement lissée définie par :
∞ ∞
γ S 2 (γT ) = (1 − )∑
γ S 1 (T − k ) = (1 − ) ∑k Y T −k + (1 − )S (T ).
k 2 k
1
k =0 k =o
S2 (T + 1) = (1 − ) Y + S (T ) + (1 − )S (T ).
2
T +1 2 1
où Y (T ) = [Y ]
t
,… ,Y 1 est le vecteur des observations ordonnées dans le
T
θ
sens inverse du sens habituel, T ( ) = ⎡ ( ) ( )⎤ t
⎣ 1 T ,…γ T ⎦ est le vecteur
des paramètres et Γ (T )est une matrice diagonale avec
Diag {Γ(Tγ )}= (1,γ , …, ).
−1 1−T
La matrice des régresseurs X (T ) est également particulière,
⎛ x (0 ) … (
xr 0 ) ⎞ ⎡ (
x 0 )t ⎤
⎜ 1
⎟ ⎢ ⎥
X (T ) = ⎜ ⎟=⎢ ⎥,
⎜ (− + ) (− + )⎟ ⎢ ( ) ⎥
⎝x1 T 1 x r T 1 ⎠ ⎣ x −T + 1 ⎦ t
où
∞
γ =∑ x (−k ) x (− k ) .
k t
M
k =0
⎣Y T ⎦ ⎢⎣Y (T )⎥⎦ ⎢⎣ 0 ⎥⎦
conduit au résultat.
Rappelons que la prévision estθYˆT (h ) = (T ) x (h ). L’initialisation qui
t
αβα β βˆ + =β(1 − ) ˆ +
T 1 T
ˆ+ − ˆ .
T 1 T
( )
Le modèle de Holt consiste à appliquer ces relations α avec 0 ≤ ≤ 1 et
β 0 ≤ ≤ 1 , sans tenir compte de la liaison α β
entre et γdue à . Le
modèle gagne en souplesse par l’utilisation des deuxαconstantes β et ,
mais perd sa justification par le critère des moindres carrés. Notons que
l’on a :
β YˆT +1 (1) = ˆT +1 + T +1 = YˆT (2 ) + (1 + )⎡⎣Y T +1 −YˆT (1)⎤⎦
α initiales βˆ =Y et ˆ =Y −Y consistent à utiliser la droite
Les valeurs 2 2 2 2 1
passant par (1,Y 1 )et (2,Y 2 )pour prévoir Y 3 (comme dans le lissage
exponentiel double).
β β α β ˆβα+ = ⎡⎣ ˆ + − ˆ ⎤⎦ + (1 − ) ˆ ,
T 1 T 1 T T
SˆT +1 = ⎣Y T +1 − ˆT +1 ⎦ + (1 − )Sˆ
⎡ ⎤
T +1− p ,
α β ouδ , et sont trois constantes à choisir dans [0,1].
♦Pour initialiser les αparamètres
β ˆ et ˆ de la tendance (l’origine est à
p p
β β α β ˆβα +
= ⎡⎣ ˆ + − ˆ ⎤⎦ + (1 − )
T 1 T 1 T T
ˆ = Y T +1 + ( − ) ˆ
β S T +1 ˆ+
1 S T +1− p
T 1
♦Pour les valeurs initiales des paramètres, on utilise
ˆ = Yj = 1,… , p avec les même valeurs
α β ˆ et ˆ
Sj ( − ) − , j pour
ˆp j p ˆ p p
p
que précédemment.
♦Une difficulté, dans l’utilisation de ces modèles, est le choix des
constantes.
♦Dans les écritures retenues, on constatera que les valeurs proches de
1 correspondent ici à un lissage rigide.
Conclusion :
Toutes les méthodes que l'on a vu à l'exception de la dernière sont en
fait des cas particuliers du système de prévision de Box et Jenkins.
Série corrigée des variations saisonnières (Série CVS) :
Les moyennes mobiles permettent de construire des séries
désaisonnalisées sans avoir à faire d'hypothèses contraignantes sur la
série brute. On se place dans le cadre du modèle additif :
Y t = fεt + S t + t , t = 1,…
∼ ,T , t b .b . ( 2)
,
où le mouvement saisonnier est rigoureusement périodique de période p
et défini par les coefficients saisonniers S j , j = 1 , … , p vérifiant
∑ pj =1 S j = 0. Appliquons la moyenne mobile d'ordre p :
M p (Y t ) = M p (f t ) + M p (S t ε) + M p ( t ) = M p (f t ε) + M p ( t ).
En effet la moyenne mobile d'ordre p est clairement égale à la moyenne
arithmétique des valeurs d'une période, elle est donc constante et
M p (S t ) = 0 compte tenu que les coefficients saisonniers "sont centrés"
(de moyenne nulle). La tendance f t étant une fonction à variation lente,
la série M p (f t ) est peu différente de f t . Enfin la partie résiduelle
ε M ( ) doit être voisine de 0 puisqu'elle représente la moyenne de p
p t
= − = 1 p
∑ S k′ , j = 1,…, p .
Sˆ j S j S avec S j
p k =1
La série corrigée des variations saisonnières, notée Y t c est définie sur
toute la période … d'observation, t = 1, ,T , en retranchant à la série brute
l'estimation de la composante saisonnière :
Y ijc = Y ij − Sˆ j j = 1,…, p , i = 1,…, n .
Moyennes mobiles :
Les moyennes mobiles utilisées dans les opérations de
désaisonnalisation sont symétriques et d'ordre fini :
( ) k
Y t M Y tγ ∑ j Yγ t − j , γ − j = j ,
= = j = 1, , k , t = k + 1, ,T − k .
j =− k
Les coefficients cependant peuvent être négatifs (filtre) et l'étude est très
liée à la notion d'équation de récurrence linéaires. Le lissage exponentiel
traité au paragraphe précédent ∞
fait intervenir des moyennes mobiles
d'ordre infini, Yˆ (1) = (1 − ) ∑ kY − .
T T k
k =0
1 Définitions et propriétés :
Il est commode, dans l'étude des propriétés générales des moyennes
mobiles, de considérer des séries doublement infinies Y = {Yt ; t ∈ }
afin d'éliminer les problèmes de bord. Introduisons l'opérateur de retard
(ou de décalage arrière) B (backward) ou L (lag), qui à la série décalée
dans le passé d'une unité de temps BY = {Yt-1 ; t ∈ }. On utilisera
souvent l'élément générique (BY )t , noté B (Y t ) ou BY t , pour désigner
la série BY .
Ainsi une moyenne mobile d'ordre m est une transformation formée
d'une combinaison linéaire réelle des puissances de l'opérateur de retard,
k
M = ∑ B j , − ≠ 0 , m = l + k + 1.
j l k
j =− l
Xt Filtre Yt
S
yt = ∑ ai .xt − r +i
i =1
- ai : coefficients de pondération
- r : décalage temporel
- s : nombre de termes consécutifs de la chronique initiale nécessaires pour
calculer un terme de la nouvelle chronique.
Moyennes
Moyennes mobiles
mobiles centrées
centrées :: cas
cassans
sanssaisonnalité
saisonnalité
Estimation de la composante tendancielle (linéaire)
pour faire apparaître plus clairement la tendance, il faut atténuer la
composante accidentelle.
- on appelle moyenne mobile centrée de longueur impaire (2 k +1) à l’instant t la
valeur moyenne ~xt des observations xt-k, xt-k+1, …, xt, xt+1, …, xt+k :
~
xt = (xt-k + …+ xt- + xt + xt+ + … + xt+k) / (2 k +1)
1 1 i =+ k
~ 1 ∑
xt = + xt +i
2k 1 i = − k
- on appelle moyenne mobile centrée de longueur paire (2 k) à l’instant t la valeur
moyenne ~ xt des observations xt-k, xt-k+1, …, xt, xt+1, …, xt+k , la première et la dernière
étant pondérées par 0.5 :
~
xt = (0.5 xt-k + … + xt- + xt + xt+ + … + 0.5 xt+k) / (2 k)
1 1
1 ⎛ 1 i = k −1
1 ⎞
⎜ xt − k + ∑ xt +i + xt + k ⎟
~
xt = ⎜ ⎟
2k ⎝ 2 i = − ( k −1) 2 ⎠
Exemple
Exemple :: moyennes
moyennes mobiles
mobiles centrées
centrées
~
x3
Remarque : l’avantage des moyennes mobiles est d'atténuer la
composante accidentelle tout en conservant les tendances linéaires :
la série est dite « lissée », et est d'autant plus lissée que la longueur
de la moyenne mobile est élevée.
Exemple
Exemple :: moyennes
moyennes mobiles
mobiles centrées
centrées
1 109.500 10 103.750 19 100.100 28 94.000 37 99.950
2 113.200 11 105.400 20 101.800 29 94.600 38 103.150
3 119.700 12 101.175 21 102.450 30 96.425 39 101.250
4 122.350 13 101.100 22 100.600 31 94.025 40 98.450
5 122.900 14 100.150 23 99.200 32 95.350 41 97.550 Cours du titre Alcatel du 4 janvier 1999
6 118.250 15 96.050 24 99.200 33 94.175 42 100.000 au 5 mars 1999
7 113.550 16 96.950 25 94.375 34 96.600 43 107.050
8 107.700 17 101.000 26 96.350 35 97.250 44 112.900
9 107.400 18 103.000 27 97.250 36 98.500 45 117.400
variations
accidentelles
Exemple
Exemple :: moyennes
moyennes mobiles
mobiles centrées
centrées
Moyennes mobiles de longueur 5 (extrait).
t cours (€) moyenne t cours (€) moyenne
mobile mobile
1 109.50000 42 100.00000 103.19000
2 113.20000 43 107.05000 106.98000
3 119.70000 117.53000 44 112.90000
4 122.35000 119.28000 45 117.40000
3 43
Exemple
Exemple :: moyennes
moyennes mobiles
mobiles centrées
centrées
8 38
Moyennes
Moyennes mobiles
mobiles centrées
centrées ::cas
casavec
avecsaisonnalité
saisonnalité
Principe :
• Calcul des moyennes mobiles en choisissant comme longueur la
période p des variations saisonnières (et plus généralement si leur
longueur est un multiple de la période), de façon à les faire
disparaître.
• Si la moyenne mobile choisie est de longueur différente, les
variations saisonnières ne sont pas toujours éliminées.
• Les moyennes mobiles permettent d’atténuer les variations
accidentelles.
Moyennes
Moyennes mobiles
mobiles centrées
centrées ::cas
casavec
avecsaisonnalité
saisonnalité
xi , j – (ci , j + εi , j ) = vj xi , j – mmi , j ≈ vj
Exemple
Exemple
• Moyennes mobiles de longueur 4
1 trimestre 2 trimestre 3 trimestre 4 trimestre
An 1 103.39678 104.44080
An 2 105.14860 106.25917 107.31233 108.46116
An 3 109.65950 110.47448 111.27404 112.28937
An 4 113.42748 114.58360 115.45379 116.22236
An 5 117.24943 118.38337 119.64839 120.80691
i=n
v′j = ∑ (xi , j − mmi , j )
An 6 121.79719 122.54573 1
n i =1
• Différences entre les observations et les moyennes mobiles
1 trimestre 2 trimestre 3 trimestre 4 trimestre
An 1 5.50932 9.71580 Pour le principe de conservation des aires
An 2 -8.94393 -6.86050 5.45047 10.72334
′
- Calcul des observations corrigées par : xi , j = xi , j − v j
Cas
Cas 22 :: Modèle
Modèle multiplicatif
multiplicatif –– coefficients
coefficients saisonniers
saisonniers
j=1 j=2 j=3 j=4
Saison 1 i=1 x1,1 x1,2 x1,3 x1,4
Ex : années Saison 2 i=2 x2,1 x2,2 x2,3 x2,4
Saison 3 i=3 x3,1 x3,2 x3,3 x3,4
… Période 1 Période 2 Période 3 Période 4 Ex : mois
∀ t = 1, …, T xt = ct (1 + vt) + εt
∀ i = 1, …, n
∀ j = 1, …, p xi , j = ci , j (1 + vj) + εi , j
V j = ∑ (xi , j / mmi , j )
i n
′ 1
Année 2 1.04670 1.09435 0.86524 0.98244
Année 3 1.03904 1.10952 0.86078 0.98848 n i =1
Année 4 1.05411 1.08712 0.85482 0.99847
′ =
Observation corrigée d’un modèle multiplicatif : xi , j xi , j / V j
Série désaisonnalisée (série des observations corrigées) caractérise à la fois
la tendance et la variation accidentelle.
Résumé
Résumé
• Ecart absolu moyen : cette mesure considère l’importance plutôt que le sens
des erreurs de prévision.
T
1
E. A.M = ∑ xt − ~
xt
T t =1
• Ecart carré moyen : déceler une méthode qui fournit plus souvent que les
autres des écarts de prévisions importants.
T
M .S .E = ∑ (xt − ~
x )2
1
T t =1
Conclusion
Conclusion sur
sur les
les méthodes
méthodes
Analyse des composantes Prévision de Xt par
additif
Tendance Ct multiplicatif
Modèle autoprojectif Modèle explicatif
Saisonnalité Vt
Filtre linéaire :
Prévision/estimation Ou
Aléatoire εt sur le passé
Historique récent Historique complet
(MM) (LE)
Processus
Ct=constante Moyennes mobiles Lissage exponentiel Processus aléatoire
stationnaire
ou Ct=a.t+b
Ct=a.t+b
Modèles AR, MA,
Saisonnalité Vt
Estimation Prévision ARMA, SARIMA Saisonnalité Vt
Non Oui
Saisonnalité Vt Constante Ct=a.t+b Non Oui
Forme de Ct Holt-Winters
Non Oui Régression Estimation
linéaire MCO de Ct et Vt
MM simple
estimation MM double
MM centrée non centrée Constante Ct=a.t+b Irrégulière
élimination Vt HW Additif
ω t0 … yt 0
( )
0
ω … yt 0
( )
j
ω yt 0
( )
m
ω ti … yti
( )
0
ω … yt i
( )
j
ω yt
i
( )
m
ω tn … yt n
( )
0
ω … yt n
( )
j
ω yt n
( )
m
Définition :
{y }T
Une série temporelle t t =1 est (la partie de dimension finie d') une
réalisation d’un processus stochastique{yt }.
La réalisation d’un processus stochastique est une fonction T → où
ω t → y t ( ). Le processus sous-jacent est dit avoir généré la série
ω
temporelle. La série…temporelle yω
1
( ), , yT
( ) est généralement notée
y1 , , yT ou simplement yt .
♦Un processus stochastique peut être décrit par la fonction de
distribution commune des toutes les sous-collections de dimension finie
de yt , t ∈ S ⊂ T . En pratique le système complet de distributions est
souvent inconnu et on se cantonne aux premiers et seconds moments.
♦La distribution jointe
… de ( yt , yt −1 , , yt − h ) est généralement
caractérisée par sa fonction d’autocovariance qui représente le lien entre
les valeurs à des dates différentes :
γ
t
(h ) = Cov (y t , yt − h )
= E ⎡⎣(y − )( y − −
t t t h t −h
)⎤⎦
= ∫ ∫ (y t − t )( yt − h − t −h
) f (y ,
t , yt − h )dyt dyt − h ,
µ avec = E [y ] = ∫ y f ( y )dy , l’espérance (ou moyenne)
t t t t t
inconditionnelle de yt .
La fonction d’autocorrelation est donnée par :
γ (h )
ρ (h ) = t
.
γ t
( ) t −h (0 )
t 0
3 Stationnarité :
Définition :
Le processus {y }
T
est dit stationnaire au sens faible, ou stationnaire
t t =1
γ
Lorsqu’ yt est stationnaire t
(h ) = (− h ) = (h ). La sttionnarité est une
t
2
5.Rappels sur les espaces L :
On considère le processus {y } t définit sur l'espace de probabilité
(Ω, M , P ), à valeur dans .
Définition :
L'espace L 2 (Ω, M , P ) est l'espace des variables de carrée intégrable
(variance-covariance finies).
De façon plus générale et plus formelle, on désigne par L p l'espace de
Banach des classes d'équivalence ( pour l'égalité P − presque sûre ) des
= ⎡∫ p ⎤1 p
fonctions mesurables telles que f p ⎣ f dP ⎦ soit finie.
Propriété :
L 2 est un espace de Hilbert, muni du produit scalaire .,. et la norme
associée .
⎧⎪ X ,Y = E (X Y )
⎨
⎪⎩ X
2
= X , X = E (X 2 ) =V (X ) + E (X ) .
2
caractérisé par Yˆ ∈ Η −
et Y Y ˆ ∈ Η ⊥
.
Remarque :
X n converge vers X au sens de L 2 si lim X − X = 0 , c'est-à-dire :
n →∞ n
⎧⎪lim E (X ) = E (X )
n
⎨
⎪⎩limV (X n − X ) = 0.
Modèles Mathématiques
Définition
Définition :: Le
Le but
but poursuivi
poursuivi est
est la
la formulation
formulation d’un
d’un modèle
modèle statistique
statistique
qui
qui soit
soit une
une représentation
représentation congruente
congruente du
du processus
processus
stochastique
stochastique qui génère la série observée.
observée.
Approche
Approche :
IlIl est
est en
en pratique
pratique impossible
impossible de de connaître
connaître la
la distribution
distribution d’une
d’une série
série
temporelle
temporelle {y {ytt}t≥0 , on s’intéresse par conséquent à la modélisation
t≥0 on s’intéresse par conséquent à la modélisation
de la
distribution
distribution conditionnelle
conditionnelle de de {y
{ytt}} via
via sa
sa densité
densité ::
ff(yytt | Yt-1
t-1)
Conditionnée
Conditionnée sur
sur l’historique
l’historique du
du processus
processus
Yt-1
t-1
= (yyt-1t-1,, yyt-2 ,…, y )
t-2,…, y00
IlIl s’agit
s’agit donc
donc d’exprimé
d’exprimé yytt en
en fonction
fonction de
de son
son passé
passé
Présentation des Séries Temporelles
Modèles Mathématiques
Résultat
Résultat ::
L’approche conditionnelle fournit une Décomposition
Prévision Erreur selon laquelle :
Ytt = E[ytt | Yt-1
t-1] + εtt
E[y
E[ytt || Y
Yt-1 ] est
t-1]
est la
la composante
composante de
de yytt qui
qui peut
peut donner
donner lieu
lieu àà une
une
prévision,
prévision, quand
quand l’historique
l’historique du
du processus
processus Y
Yt-1 est
t-1 est
où
où connu
connu
εt représente
représente les
les informations
informations imprévisibles
imprévisibles
Présentation des Séries Temporelles
1.
1. Processus
Processus autorégressifs
autorégressifs d’ordre
d’ordre 1,
1, AR(1)
AR(1) ::
ytt = ayt-1
t-1 + εtt
εtt ~ WN
WN(00,σ
σ22) (bruit
(bruit blanc)
blanc)
La
La valeur
valeur de
de yytt ne
ne dépend
dépend que
que de
de son
son prédécesseur.
prédécesseur. Ses
Ses propriétés
propriétés sont
sont fonction
fonction de
de αα qui
qui
est
est facteur
facteur d’inertie
d’inertie ::
αα == 00 :: yytt est
est imprévisible
imprévisible et
et ne
ne dépend
dépend pas
pas de
de son
son passé,
passé, on
on parle
parle de
de bruit
bruit blanc
blanc
αα Є
Є ]-1,1]
]-1,1] :: yytt est
est stable
stable autour
autour de
de zéro
zéro
|α|
|α| == 11 :: yytt est
est instable
instable et
et ses
ses variations
variations sont
sont imprévisibles
imprévisibles
|α|
|α| << 11 :: yytt est
est explosif
explosif
Équations de Yule-Walker
P
∑r xx ( i − j )a = − r ( j )
i xx j = 1… P
i =1
éq de Yule Walker
⎡ r (0) rxx ( P − 1) ⎤ ⎡ a1 ⎤ ⎡ − rxx (1) ⎤
Écriture sous forme matricielle ⎢ xx ⎥⎢ ⎥ = ⎢ ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢⎣ r ( P − 1) rxx (0) ⎥⎦ ⎢⎣ aP ⎥⎦ ⎢⎣ − rxx ( P ) ⎥⎦
xx
R a r
−1
r=Ra ⇒ a=R r coefficients du filtre blanchisseur
Modèles Mathématiques
1. Processus autorégressifs d’ordre 1, AR(1) :
Modélisation de séries
chronologiques avec la
méthodologie de Box-Jenkins
Cas stationnaire:
ρ (
rk )→ (k
P
)
Cas non-stationnaire:
( ) P
r k →1, 1≤ k ≤ K < n
Autres éléments d’information
Cas stationnaire: Les r(k) comme fonction de k
décroissent à 0 de façon exponentielle
(décroissance vers 0 très rapide).
Cas non-saisonnier: à partir de k = 20, toutes
les autocorrélations devraient être très près de
0.
Cas non-stationnaire: Décroissance des r(k)
de manière linéaire vers 0? Décroissante très
lente? Les r(k) sont toutes de même signes?
Ce sont tous des indices d’un problème de
stationnarité.
Identification: choix de p et de q
Ayant identifié d, on a maintenant comme
modèle { Wt = ∇ d }
Zt .
Important éléments d’information:
Pour un autorégressif, toutes les
autocorrélations partielles s’annulent après un
certain délai.
θ (B )(1 − B )d Z = (B )b , ∀t.
t t
Cependant, le processus t {b } n’est pas un
bruit blanc mais un ARMA ( ~
p , ~)
q . Donc:
φ θ ~ (B )b = ~ (B )a , ∀t.
t t
φ θ b = ~ −1 (B )~ (B )a
t t
Estimation
Dans le modèle:
θ (B θ)(1 − B )d Z = + (B )a , ∀t.
t 0 t
On doit procéder à l’estimation de:
φ φ
Paramètres autorégressifs: 1 ,…, p
θ θ
Paramètres moyenne-mobiles: 1 ,…, q
θParamètre
0
σ Paramètre 2
a
Estimation des paramètres
Etape
Etape 11 :: détermination
détermination de
de l’ordre
l’ordre de
de différenciation
différenciation
Le
Le graphique
graphique de
de la
la fonction
fonction d’auto-corrélation
d’auto-corrélation présente
présente une
une régression
régression lente
lente et
et
linéaire
linéaire typique
typique de
de séries
séries non
non stationnaires
stationnaires ::
Or
Or la
la méthode
méthode ARIMA
ARIMA suppose
suppose que que l’on
l’on travaille
travaille sur
sur une
une série
série stationnaire,
stationnaire,
c’est-à-dire
c’est-à-dire que
que la
la moyenne
moyenne etet la
la variance
variance soient
soient constantes
constantes dans
dans le
le temps.
temps.
On
On va va donc
donc remplacer
remplacer la la série
série originale
originale par
par une
une série
série de
de différences
différences
adjacentes.
adjacentes.
Pour
Pour corriger
corriger la
la non-stationnarité
non-stationnarité desdes valeurs,
valeurs, on
on pourra
pourra utiliser
utiliser une
une
transformation
transformation logarithmique
logarithmique ouou exponentielle.
exponentielle.
Les modèles ARIMA
On
On aa un un écart
écart type
type important
important 17.56.
17.56. Cette
Cette série
série nécessite
nécessite donc
donc d’être
d’être
différenciée.
différenciée.
Une
Une différenciation
différenciation d’ordre
d’ordre 11 suppose
suppose queque lala différence
différence entre
entre 22 valeurs
valeurs
successives
successives de de yy est
est constante.
constante. On
On utilise
utilise donc
donc la
la fonction
fonction suivante
suivante ::
ytt -- yyt-1 = µ + Ɛtt
t-1 = µ
où
où µµ est
est la
la constante
constante du
du modèle
modèle etet représente
représente la
la différence
différence moyenne
moyenne en
en y.
y.
Si
Si µµ == 0,
0, la
la série
série est
est stationnaire.
stationnaire.
Une
Une première
première différenciation
différenciation avec
avec l’application
l’application du
du modèle
modèle ARIMA(0,1,0)
ARIMA(0,1,0) donne
donne
les
les résidus
résidus suivants
suivants ::
La
La série
série semble
semble aa peu
peu près
près stationnaire
stationnaire et
et l’écart
l’écart type
type aa été
été réduit
réduit de
de manière
manière
importante
importante :: 1.54
1.54 au
au lieu
lieu de
de 17.56.
17.56.
Les modèles ARIMA
Si
Si on
on essaie
essaie une
une seconde
seconde différenciation
différenciation en
en appliquant
appliquant un
un modèle
modèle ARIMA(0,2,0).
ARIMA(0,2,0).
Les
Les modèles
modèles d’ordre
d’ordre 22 ne
ne travaillent
travaillent plus
plus sur
sur des
des différences
différences mais
mais sur
sur les
les
différences
différences de
de différence.
différence. On
On utilisera
utilisera alors
alors l’équation
l’équation de
de prédiction
prédiction suivante
suivante ::
yytt -- 2y
2yt-1 + y t-2 == µµ ++ ƐƐtt ou
t-1 + yt-2 encore ytt =
ou encore = µµ ++ 2y
2yt-1 - y t-2 ++ ƐƐtt
t-1 - t-2
on
on obtient
obtient les
les résultats
résultats suivants
suivants ::
Cette
Cette série
série montre
montre des
des signes
signes clairs
clairs de
de sur-différenciation
sur-différenciation etet l’écart
l’écart type
type aa
augmenté
augmenté de de 1.54
1.54 àà 1.81.
1.81. Ceci
Ceci semble
semble indiqué
indiqué que
que l’ordre
l’ordre optimal
optimal de
de
différenciation
différenciation pour
pour cette
cette série
série est
est de
de 1.
1.
Toute
Toute fois
fois ce
ce modèle
modèle devra
devra être
être optimisé
optimisé par
par l’ajout
l’ajout des
des termes
termes AR
AR ouou MA.
MA.
Les modèles ARIMA
Conclusion intermédiaire :
Un
Un modèle
modèle sans
sans différenciation
différenciation suppose
suppose que
que la
la série
série originale
originale est
est
stationnaire.
stationnaire.
Un
Un modèle
modèle avec
avec une
une différenciation
différenciation d'ordre
d'ordre 11 suppose
suppose que
que la
la série
série originale
originale
présente
présente une
une tendance
tendance constante.
constante.
Un
Un modèle
modèle avec
avec une
une différenciation
différenciation d'ordre
d'ordre 22 suppose
suppose que
que la
la série
série originale
originale
présente
présente une
une tendance
tendance variant
variant dans
dans le
le temps.
temps.
Les modèles ARIMA
Etape
Etape 22 :: détermination
détermination des
des termes
termes AR
AR
Analyse
Analyse basée
basée sur
sur l’examen
l’examen des
des fonctions
fonctions d’auto-corrélation
d’auto-corrélation (ACF)
(ACF) et
et d’auto-
d’auto-
corrélations
corrélations partielles
partielles (PACF).
(PACF).
Auto-corrélation
Auto-corrélation est
est la
la corrélation
corrélation d’une
d’une série
série avec
avec elle-même
elle-même selon
selon un
un
décalage
décalage défini.
défini.
Les
Les modèles
modèles autorégressifs
autorégressifs supposent
supposent que
que yytt est
est une
une fonction
fonction linéaire
linéaire des
des
fonctions
fonctions précédentes
précédentes
yytt == µµ ++ Ф
Ф11 yyt-1
t-1
+Ф
Ф22 yyt-2
t-2
+Ф
Ф33 yyt-3 + Ɛt
t-3 + Ɛt
où ƐƐ est
où est le
le choc
choc aléatoire
aléatoire et
et Ф
Ф11,, Ф
Ф22 et
et Ф
Ф33 sont
sont les
les coefficients
coefficients d’auto-régression
d’auto-régression
compris
compris dans
dans l’intervalle
l’intervalle ]-1,1[
]-1,1[
Les modèles ARIMA
Si
Si on
on ajuste
ajuste cette
cette série
série avec
avec un
un modèle
modèle ARIMA(2,1,0)
ARIMA(2,1,0) on
on obtient
obtient les
les fonctions
fonctions
ACF
ACF ET
ET PACF
PACF suivantes
suivantes ::
L’analyse
L’analyse montre
montre que
que lesles coefficients
coefficients AR AR sont
sont significativement
significativement différents
différents dede 00 etet
que
que l’écart
l’écart type
type aa été
été réduit
réduit de
de 10%10% (1.42
(1.42 auau lieu
lieu de
de 1.54).
1.54). L’équation
L’équation de de
prédiction
prédiction aa donc
donc la
la forme suivante :: y
forme suivante ytt = µµ ++ yt-1 + Ф11(y
t-1 + (yt-1 - y t-2)) ++ Ф
t-1 - yt-2 Ф22(y
(yt-2 - y t-3))
t-2 - yt-3
avec
avec µµ == 0.258178,
0.258178, ФФ11 == 0.2524
0.2524 et
et Ф
Ф22 == 0.195572
0.195572
Cette
Cette équation
équation permet
permet d’établir
d’établir le
le graphique
graphique de
de prédictions
prédictions suivant
suivant ::
Les modèles ARIMA
Etape
Etape 33 :: détermination
détermination des
des termes
termes MA
MA
Analyse
Analyse également
également basée
basée sur
sur l’examen
l’examen des
des fonctions
fonctions d’auto-corrélation
d’auto-corrélation (ACF)
(ACF)
et
et d’auto-corrélations
d’auto-corrélations partielles
partielles (PACF).
(PACF).
Les
Les modèles
modèles àà moyenne
moyenne mobile
mobile suggèrent
suggèrent que
que la
la série
série présente
présente des
des
fluctuations
fluctuations autour
autour d’une
d’une valeur
valeur moyenne.
moyenne.
yytt == µµ ++ θθ11 ƐƐt-1 + θ Ɛ t-2 ++ θθ33 ƐƐt-3
t-1 + θ22 Ɛt-2
+Ɛ
t-3 + Ɛtt
où
où θθ11,, θθ22 et
et θθ33 sont
sont les
les coefficients
coefficients de
de moyenne
moyenne mobile.
mobile.
L’analyse
L’analyse des
des différents
différents résultats
résultats va
va montrer
montrer que
que le
le modèle
modèle le le plus
plus pertinent
pertinent
serait
serait un
un ARIMA(0,2,1)
ARIMA(0,2,1) dont
dont l’équation
l’équation de
de prédiction
prédiction serait
serait la
la suivante
suivante ::
yytt == 2y
2yt-1 - y t-2 –– θθ11ƐƐt-1
t-1 - yt-2 t-1
Les modèles ARIMA
Conclusion :
Ces deux modèles peuvent ajuster de manière alternative
la série de départ.
Le choix d'un ou l'autre modèle peut reposer sur des
présupposé théoriques liés au phénomène observé.
La décision n'est pas simple et les cas les plus atypiques
requièrent, outre l'expérience, de nombreuses
expérimentations avec des modèles différents (avec divers
paramètres ARIMA).
Puisque le nombre de paramètres (à estimer) de chaque
type dépasse rarement 2, il est souvent judicieux d'essayer
des modèles alternatifs sur les mêmes données.