Vous êtes sur la page 1sur 48

Module :

Analyse des séries


chronologiques
2ème Semestre Masters: MFEA

Pr. R. EL YAMANI

2020-2021
PLAN DE COURS
1 Généralités sur les séries chronologiques

2 Détection de de la saisonnalité et Décomposition de la série

3 Stationnarité et processus non stationnaires

4 Tests de racine unitaire

5 Identification du processus générateur ARIMA

6 Méthode de Box & Jenkins

7 Modèles ARCH

8 Modèles GARCH
Pr. R. EL YAMANI 2
Pr. R. EL YAMANI

Identification du
processus
générateur
ARIMA
3
PLAN
1. Introduction
2. Partie I: Rappel sur les modèles ARIMA
 Définition
 Applications des modèles ARIMA
 Notion de stationnarité
 Présentation du modèle ARIMA

3. Partie II: cas pratique


4. Conclusion
Pr. R. EL YAMANI

Introduction
Il existe deux catégories de modèles pour rendre compte
d’une série chronologique.
 La première considère que les données sont une fonction
du temps Y=f(t) Cette catégorie de modèle peut être
ajustée par la méthode des moindres carrés, ou
d'autres méthodes itératives.
 La seconde, et qui fera objet de cette séance, cherche
à déterminer chaque valeur de la série en fonction des
valeurs précédentes Y=f(𝑌𝑡−1 ; 𝑌𝑡−2 ;………..).
 C’est le cas des modèles Auto-Regressive-Integrated-
Moving-Average : ARIMA

5
Pr. R. EL YAMANI

Introduction

 On distingue notamment une multitude de modèles


voire modèle AR, MA, ARMA, ARIMA, SARIMA, etc.
 Ces modèles font partie des Processus stochastiques.
 Une série temporelle, quand elle n’est pas
déterministe, comme ce sera le cas dans toutes les
situations que nous rencontrerons, est vue comme une
réalisation d’un processus stochastique.
 Conditions d’utilisation: les modèles AR, MA, ARMA ne sont
représentatifs que de chroniques :
– stationnaires en tendance ;
– corrigées des variations saisonnières.

6
Pr. R. EL YAMANI

Problématique

En procédant à l’analyse par


les modèles ARIMA, Quel
est le modèle le plus
adéquat pour avoir une
bonne qualité de prévision?

7
Pr. R. EL YAMANI

Partie I
Rappel sur
les modèles ARMA
ARIMA
8
Pr. R. EL YAMANI

Rappel AR,MA, ARMA

 Les processus auto-régressif AR(P),les processus


moyenne mobile MA(q) et les processus ARMA(p,q) ont
été introduits comme processus aléatoires stationnaires.

 Il serviront de modèles pour décrire l’évolution des


séries chronologiques (S.C) c-à-d première série
chronologique pourra être vue comme une réalisation de
ce processus ARMA .

9
Pr. R. EL YAMANI

Rappel AR,MA, ARMA


 Le modèle ARMA combine la partie AR et la partie
MA. En autre termes il contient des valeurs passées
Yt-1; Yt-2 ;…….; Yt-p et des erreurs passées et-1 ; et-2….;
et-q

 Équation de ARMA :

𝒑 𝒒

𝒀𝒕 = ෍ 𝝋𝒊 𝒀𝒕−𝟏 + ෍ 𝜽𝒊 𝜺𝒕−𝟏 , ∀ 𝒕 ∈ 𝒁
𝒊=𝟏 𝒊=𝟎

10
Pr. R. EL YAMANI

Les modèles ARIMA: définition

o Pour les modèles ARIMA, c’est le passé de la série (sa


mémoire) qui explique son comportement présent et
futur.

o L'objectif essentiel donc des modèles ARIMA est de


permettre une prédiction de l'évolution présente ou
future d'un phénomène à partir des données du passé.

11
Pr. R. EL YAMANI
Les applications des modèles ARIMA

Corriger les variations


Repérer les Contrôler les processus
saisonnières
tendances et cycles  Il est indispensable
 Pouvoir en déduire
 Grâce aux de dresser une carte
un comportement.
tendances et aux des variables ayant
Celui-ci apportera
cycles, il est une forte influence
des informations
possible d’analyser sur les reste de
supplémentaires afin
les interactions entre l’économie, afin
d’affiner les valeurs
diverses variables, d’anticiper les
saisonnières, et
afin d’atteindre un évolutions possibles
appréhender leurs
équilibre évolutions

12
Pr. R. EL YAMANI

Rappel sur la notion de stationnarité

Série stationnaire Série non stationnaire

Forte stationnarité
Processus de type TS
f 𝒁𝟏 , 𝒁𝟐 , . . , 𝒁𝒕 et Non stationnarité de nature
f 𝒁𝟏+𝒌 , 𝒁𝟐+𝒌 , . . , 𝒁𝒕+𝒌 déterministe
Processus ARMA

Faible stationnarité
Processus de type DS
 E 𝒁𝒊 = 𝝁 ∀𝒊 = 𝟏, … , 𝒕 Non stationnaire de nature
stochastique
 V𝐚𝐫 𝒁𝒊 = 𝝈𝟐 ≠ ∞ ∀𝒊 = 𝟏, … , 𝒕
Processus ARIMA
 C𝐨𝐯 𝒁𝒊 , 𝒁𝒊−𝒌 = 𝒇 𝒌 = 𝝆𝒌
∀𝒊 = 𝟏, … , 𝒕, ∀𝒌 = 𝟏, … , 𝒕
13
Pr. R. EL YAMANI

La différenciation

L'estimation des modèles ARIMA suppose que l'on travaille


sur une série stationnaire.
Ceci signifie que la moyenne de la série est constante dans le
temps, ainsi que la variance.
La meilleure méthode pour éliminer toute tendance est de
différencier, c'est-à-dire de remplacer la série originale par
la série des différences adjacentes.
Une série temporelle qui a besoin d'être différenciée pour
atteindre la stationnarité est considérée comme une version
intégrée d'une série stationnaire (d'où le terme Integrated).

14
Pr. R. EL YAMANI

La différenciation

 Une différenciation d'ordre 1 suppose que la différence entre deux


valeurs successives de Y est constante.
𝒀𝒕 − 𝒀𝒕−𝟏 − 𝝁 + 𝜺𝒕
 μ est la constante du modèle, elle représente la différence moyenne
en Y. Un tel modèle est un ARIMA(0,1,0).
 Il peut être représenté comme un accroissement linéaire en fonction
du temps. Si μ est égal à 0, la série est stationnaire.
 Les modèles d'ordre 2 travaillent non plus sur les différences
brutes, mais sur les différences de différence.
 La seconde différence de Y au moment t est égale à (𝑌𝑡 -𝑌𝑡−1 ) - (𝑌𝑡−1 -
𝑌𝑡−2 ), c'est-à dire à 𝑌𝑡 – 2𝑌𝑡−1 + 𝑌𝑡−2 .
 Un modèle ARIMA(0,2,0) obéira à l’équation de prédiction suivante :
𝒀𝒕 − 𝟐𝒀𝒕−𝟏 + 𝒀𝒕−𝟐 = 𝝁 + 𝜺𝒕
ou encore 𝒀𝒕 = 𝝁 + 𝟐𝒀𝒕−𝟏 − 𝒀𝒕−𝟐 + 𝜺𝒕
15
Pr. R. EL YAMANI

L’auto-régression

Les modèles autorégressifs supposent que Y𝒕 est une fonction

linéaire des valeurs précédentes.


𝒑

𝒀𝒕 = 𝒄 + ෍ 𝝋𝒊 𝒀𝒕−𝟏 + 𝜺𝒕
𝒊=𝟏

Chaque observation est constituée d'une composante aléatoire

(choc aléatoire, ε) et d'une combinaison linéaire des observations

précédentes. φ1, φ2 et φ3 dans cette équation sont les

coefficients d'auto-régression.

Pour un modèle ARIMA(1,1,0) on aura :

𝒀𝒕 − 𝒀𝒕−𝟏 = μ + 𝝋 𝒀𝒕−𝟏 − 𝒀𝒕−𝟐 + 𝜺𝒕

16
Pr. R. EL YAMANI

La moyenne mobile

Les modèles (MA) supposent que chaque point est fonction des
erreurs entachant les points précédant, plus sa propre erreur.

𝒀𝒕 = 𝒆𝒕 - θ𝟏 𝒆𝒕−𝟏 - θ𝟐 𝒆𝒕−𝟐 ….- θ𝒒 𝒆𝒕−𝒒


Comme précédemment cette équation porte soit sur les données
brutes, soit sur les données différenciées si une différenciation a
été nécessaire.
Pour un modèle ARIMA(0,1,1) on aura :
𝒀𝒕 – 𝒀𝒕−𝟏 = μ – θ ε𝒕−𝟏 + ε𝒕

On peut également envisager des modèles mixtes: par exemple un


modèle ARIMA(1,1,1) aura l'équation de prédiction suivante:

Yt = μ + Yt-1 + φ(Yt-1 – Yt-2) - θ1εt-1 + εt

17
Pr. R. EL YAMANI

Les modèles ARIMA

 La classe des modèles ARIMA [Box et Jenkins, 1976] a été


introduite pour reconstituer le comportement de processus
soumis à des chocs aléatoires au cours du temps.

 Les modèles ARIMA permettent de combiner trois types de


processus temporels : les processus autorégressifs (AR), les
processus intégrés (I), et les moyennes mobiles (MA).

 ARIMA (p, d, q), où p est l’ordre du processus autorégressif


AR(p), d le degré d’intégration d’un processus I(d), et q
l’ordre de la moyenne mobile MA(q).

18
Pr. R. EL YAMANI
Les modèles ARIMA permettent de combiner trois
types de processus temporels :

p,d et q désignant respectivement l’ordre du processus


autorégressif, l’ordre d’intégration et l’ordre de la moyenne
mobile.

19
Pr. R. EL YAMANI

Processus
Moyenne
Mobile (MA)

 Le processus est dit autorégressif du


premier ordre et noté AR(1) :

 Un processus AR(2) s’écrit :

20
Pr. R. EL YAMANI

Processus
Moyenne
Mobile (MA)

 Une série chronologique déterminée par


l’effet cumulatif d’une activité appartient à la
classe des processus intégrés.
 Les processus intégrés constituent
l’archétype des séries non stationnaires.
 Un exemple de processus I(1), intégré d’ordre
1, est la marche aléatoire définie par :

21
Pr. R. EL YAMANI

Processus
Moyenne
Mobile (MA)

 L’ordre de la moyenne mobile indique


le nombre de périodes précédentes
incorporées dans la valeur courante.
Ainsi, une moyenne mobile d’ordre 1,
MA(1), est définie par l’équation
suivante :

22
Pr. R. EL YAMNAI

Les étapes du modèle ARIMA

Etape 1 : Identification du modèle (détermination des : p ; d ; q )

Etape 2 : Estimation des paramètres des modèles choisis

Etape 3 : Vérification du diagnostic ( les résidus de l’estimation


sont-ils un bruit blanc)

Si oui Si Non

Etape 4 : Prévision Retourner à l’étape 1

2
Pr. R. EL YAMANI

Partie II
CAS
PRATIQUE

24
Pr. R. EL YAMANI

Application

 Construisons un modèle ARIMA à partir de la série


de l’indice des prix à la consommation, notée
(IPC).
 Les données considérées à cet effet sont
mensuelles et la période retenue pour l’étude va
de janvier 2010 à mars 2014.
 Pour construire le modèle de prévision, nous
allons emprunter la méthodologie de Box-Jenkins,
mais avant tout, nous commençons par l’analyse
exploratoire puis l’analyse de la stationnarité .

25
Pr. R. EL YAMANI

Présentation graphique de la série

IPC
114

113

112

111

110

109

108

107

106
I II III IV I II III IV I II III IV I II III IV I
2010 2011 2012 2013 2014

Pour afficher le graphe : double click sur la série == View = Graph = Ok

26
Pr. R. EL YAMANI

Présentation du corrélogramme de la série


Date: 03/25/20 Time: 21:42
Sample: 2010M01 2014M03
Included observations: 51

Autocorrelation Partial Correlation AC PAC Q-Stat Prob

. |******| . |******| 1 0.891 0.891 42.877 0.000


. |******| .*| . | 2 0.776 -0.081 76.122 0.000
. |***** | . |** | 3 0.722 0.229 105.50 0.000
. |***** | . |*. | 4 0.700 0.109 133.68 0.000
. |***** | . |*. | 5 0.692 0.131 161.86 0.000
. |***** | **| . | 6 0.627 -0.229 185.49 0.000
. |**** | .*| . | 7 0.520 -0.176 202.11 0.000
. |*** | .*| . | 8 0.433 -0.066 213.92 0.000
. |*** | . |*. | 9 0.411 0.162 224.79 0.000
. |*** | . |*. | 10 0.417 0.080 236.27 0.000
. |*** | . | . | 11 0.394 -0.001 246.77 0.000
. |** | .*| . | 12 0.326 -0.088 254.15 0.000
. |** | .*| . | 13 0.236 -0.147 258.10 0.000
. |*. | . | . | 14 0.180 -0.055 260.46 0.000
. |*. | .*| . | 15 0.142 -0.162 261.97 0.000
. |*. | .*| . | 16 0.086 -0.137 262.54 0.000
. | . | . |*. | 17 0.039 0.124 262.66 0.000
. | . | .*| . | 18 -0.037 -0.071 262.78 0.000
.*| . | . | . | 19 -0.104 0.020 263.69 0.000
.*| . | . | . | 20 -0.126 0.051 265.07 0.000
.*| . | . | . | 21 -0.130 0.066 266.60 0.000
.*| . | . | . | 22 -0.142 -0.030 268.49 0.000
.*| . | . |*. | 23 -0.152 0.086 270.72 0.000
.*| . | .*| . | 24 -0.182 -0.128 274.04 0.000

La statistique Q de Ljung-Box confirme ce fait :


Q-Stat = 274,04 (au retard k = 24) > χ2 0,05;24 = 36,41, on refuse l'hypothèse
de nullité des coefficients ρk (la probabilité critique de ce test est indiquée αc =
0,000 < 0,05, donc on refuse H0).
Le processus IPC n'est pas un bruit blanc. A partir des tests de Dickey-Fuller nous
allons examiner si le processus est non stationnaire.
Pour afficher le graphe : double click sur la série == View = Correlogram = Ok
27
Pr. R. EL YAMANI

Test de Dickey-Fuller

 Modèle [1] : xt =φ1xt−1+εt Modèle autorégressif d’ordre 1.


 Modèle [2] : xt =φ1xt−1+β+εt Modèle autorégressif avec constante.

 Modèle [3] : xt =φ1xt−1+bt+c+εt Modèle autorégressif avec tendance.


28
Pr. R. EL YAMANI

Test de Dickey-Fuller

29
Pr. R. EL YAMANI
Test de Dickey-Fuller Augmenté
On commence toujours par le 3ème modèle : viewunit root test  cocher trend and
interceptok
Null Hypothesis: IPC has a unit root
Exogenous: Constant, Linear Trend
Lag Length: 0 (Automatic - based on SIC, maxlag=10)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -3.458961 0.0551


Test critical values: 1% level -4.152511
5% level -3.502373
10% level -3.180699

*MacKinnon (1996) one-sided p-values.

Augmented Dickey-Fuller Test Equation


Dependent Variable: D(IPC)
Method: Least Squares
Date: 03/25/20 Time: 22:16
Sample (adjusted): 2010M02 2014M03
Included observations: 50 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

IPC(-1) -0.401216 0.115993 -3.458961 0.0012


C 43.30663 12.45138 3.478057 0.0011
@TREND("2010M01") 0.045133 0.015443 2.922544 0.0053

Le coefficient de la droite de tendance n’est pas Tendance :


significativement différent de 0 (t∗ = 2,922< t-tabulée 𝑯𝟎 : b = 0
= 3,18 au risque de 5%.), on rejette l’hypothèse d’un
𝑯𝟏 : b ≠ 0
processus TS.
30
Pr. R. EL YAMANI
Test de Dickey-Fuller Augmenté
On passe à l’estimation du modèle 2 : ViewUnit Root test  Cocher
InterceptOk
Null Hypothesis: IPC has a unit root
Exogenous: Constant
Lag Length: 0 (Automatic - based on SIC, maxlag=10)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -1.880982 0.3384


Test critical values: 1% level -3.568308
5% level -2.921175
10% level -2.598551

*MacKinnon (1996) one-sided p-values.

Augmented Dickey-Fuller Test Equation


Dependent Variable: D(IPC)
Method: Least Squares
Date: 03/25/20 Time: 22:23
Sample (adjusted): 2010M02 2014M03
Included observations: 50 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

IPC(-1) -0.085537 0.045475 -1.880982 0.0660


C 9.575699 5.025636 1.905371 0.0627

Le terme constant n’est pas significativement différent Constante :


de 0 (t∗ = 1,90< t-tabulée = 2,89 au risque de 5%), on 𝑯𝟎 : c = 0
rejette l’hypothèse d’un processus DS avec dérive et
tˆφ1 = −1,88 > t-tabulée = −2,92 ; on accepte 𝑯𝟏 : c ≠ 0
l’hypothèse H0 ; le processus n’est pas stationnaire. 31
Pr. R. EL YAMANI
Test de Dickey-Fuller Augmenté

On passe à l’estimation du modèle 1 : ViewUnit Root test  Cocher NoneOk


Null Hypothesis: IPC has a unit root
Exogenous: None
Lag Length: 0 (Automatic - based on SIC, maxlag=10)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic 1.350547 0.9537


Test critical values: 1% level -2.612033
5% level -1.947520
10% level -1.612650

*MacKinnon (1996) one-sided p-values.

Augmented Dickey-Fuller Test Equation


Dependent Variable: D(IPC)
Method: Least Squares
Date: 03/25/20 Time: 22:26
Sample (adjusted): 2010M02 2014M03
Included observations: 50 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

IPC(-1) 0.001096 0.000812 1.350547 0.1830

Racine unitaire :
tˆφ1 = 1,350 > ttabul´e = −1,947 , on
accepte l’hypothèse 𝐻0 ; le processus n’est 𝑯𝟎 : φ1 ≥ 1 Admet une racine unitaire
pas stationnaire.== Il s’agit d’un 𝑯𝟏 : φ1 < 1 N’admet pas une racine unitaire
processus DS sans dérive.
32
Pr. R. EL YAMANI

La série stationnaire
Il faut appliquer le filtre de différence pour stationnariser la série IPC.
Par la commande suivante: Genr DIPC=d(IPC)
Les résultats du test sur la variable différence première (DIPC) sont récapitulés
dans le tableau suivant :
DIPC
Null Hypothesis: DIPC has a unit root
Exogenous: None 2.0
Lag Length: 0 (Automatic - based on SIC, maxlag=10)

t-Statistic Prob.* 1.5


Augmented Dickey-Fuller test statistic -5.723191 0.0000
Test critical values: 1% level -2.613010
1.0
5% level -1.947665
10% level -1.612573

*MacKinnon (1996) one-sided p-values.


0.5

Augmented Dickey-Fuller Test Equation 0.0


Dependent Variable: D(DIPC)
Method: Least Squares
Date: 03/25/20 Time: 22:34 -0.5
Sample (adjusted): 2010M03 2014M03
Included observations: 49 after adjustments
-1.0
Variable Coefficient Std. Error t-Statistic Prob.

DIPC(-1) -0.788206 0.137721 -5.723191 0.0000 -1.5


I II III IV I II III IV I II III IV I II III IV I
2010 2011 2012 2013 2014
33
Pr. R. EL YAMANI

Identification du processus ARIMA

 La série DIPC est stationnaire, on va lui


chercher un modèle ARMA(p,q) pour connaitre
les ordres du modèle ARMA(p,q), nous allons
nous servir de corrélogrammes de la série
stationnaire DIPC.
 En effet le corrélogramme simple
(Autocorrelation) permet d’identifier un
modèle MA(q), alors que le corrélogramme
partiel (Partial Correlation) permet d’identifier
un modèle AR(p).
34
Pr. R. EL YAMANI

Identification du processus ARIMA


Date: 03/25/20 Time: 22:38
Sample: 2010M01 2014M03 Il ne s’agit pas d’une marche au
Included observations: 50 hasard (les probabilités critiques
Autocorrelation Partial Correlation AC PAC Q-Stat Prob de la Q-Stat sont toutes très
1 0.184 0.184 1.7896 0.181
largement inférieures à 0,05), le
2 -0.32... -0.36... 7.4013 0.025 processus est à mémoire, il existe
3 -0.36... -0.25... 14.663 0.002
4 -0.18... -0.22... 16.561 0.002 donc une représentation dans la
5 0.209 0.085 19.079 0.002 classe des processus ARMA.
6 0.246 -0.00... 22.655 0.001
7 -0.03... -0.10... 22.714 0.002
8 -0.21... -0.12... 25.651 0.001 On va prendre en considération
9 -0.15... -0.06... 27.184 0.001 que les décalages qui sont
1... 0.090 0.023 27.714 0.002
1... 0.256 0.086 32.094 0.001 significativement différents de
1... 0.231 0.188 35.757 0.000
1... -0.20... -0.15... 38.586 0.000
zéro.
1... -0.23... 0.074 42.514 0.000
1... -0.09... -0.05... 43.183 0.000  Dans la colonne de la fonction
1... 0.011 -0.10... 43.192 0.000
1... 0.140 -0.07... 44.743 0.000
d’autocorrélation, on trouve :
1... 0.037 -0.06... 44.857 0.000 MA(2) et MA(3).
1... -0.11... -0.09... 46.042 0.000
2... -0.10... -0.09... 47.015 0.001
2... 0.008 -0.05... 47.021 0.001
 Dans la colonne de la fonction
2... 0.051 -0.16... 47.261 0.001 d’autocorrélation partielle, on
2... 0.083 -0.04... 47.925 0.002
2... 0.069 0.014 48.395 0.002 trouve : AR(2).
35
Pr. R. EL YAMANI

Estimations
 Comme il s’agit de processus ARIMA (2,1,3), les schémas ci-
dessous nous serviront de guide pour les estimations.
MA(1) MA(2) MA(3)
AR(2)
MA(2) MA(3)

MA(3)
AR(1)
MA(1) MA(2) MA(3)

MA(2) MA(3)

MA(3)

36
Pr. R. EL YAMANI

Estimation
Pour estimer le processus ARIMA (2,1,3), nous optons pour la régression SET WISE.
Modèle à estimer Commande sur Eviews
Modèle AR(1) equation arima1.ls dipc ar(1)
Modèle AR(1) AR(2) equation arima2.ls dipc ar(1) ar(2)
Modèle AR(1) AR(2) MA(1) equation arima3.ls dipc ar(1) ar(2) ma(1)
Modèle AR(1) AR(2) MA (1) MA(2) equation arima4.ls dipc ar(1) ar(2) ma(1) ma(2)
Modèle AR(1) AR(2) MA(1) MA(2) MA(3) equation arima5.ls dipc ar(1) ar(2) ma(1) ma(2)
ma(3)
Modèle AR(1) AR(2) MA(2) MA(3) equation arima6.ls dipc ar(1) ar(2) ma(2) ma(3)
Modèle AR(1) AR(2) MA(3) equation arima7.ls dipc ar(1) ar(2) ma(3)
Modèle AR(1) MA(1) equation arima8.ls dipc ar(1) ma(1)
Modèle AR(1) MA(1) MA(2) equation arima9.ls dipc ar(1) ma(1) ma(2)
Modèle AR(1) MA(1) MA(2) MA(3) equation arima10.ls dipc ar(1) ma(1) ma(2)
ma(3)
37
Pr. R. EL YAMANI

Estimations
Modèle à estimer Commande sur Eviews
Modèle AR(1) MA(1) MA(2) MA(3) equation arima11.ls dipc ar(1) ma(1) ma(2) ma(3)
Modèle AR(1) MA(2) MA(3) equation arima12.ls dipc ar(1) ma(2) ma(3)
Modèle AR(1) MA(3) equation arima13.ls dipc ar(1) ma(3)
Modèle AR(2) equation arima14.ls dipc ar(2)
Modèle AR(2) MA(1) equation arima15.ls dipc ar(2) ma(1)
Modèle AR(2) MA(1) MA(2) equation arima16.ls dipc ar(2) ma(1) ma(2)
Modèle AR(2) MA(2) equation arima17.ls dipc ar(2) ma(2)
Modèle AR(2) MA(2) MA(3) equation arima18.ls dipc ar(2) ma(2) ma(3)
Modèle AR(2) MA(3) equation arima19.ls dipc ar(2) ma(3)
Modèle MA(1) equation arima20.ls dipc ma(1)
Modèle MA (1) MA(2) equation arima21.ls dipc ma(1) ma(2)
Modèle MA(2) equation arima22.ls dipc ma(2)
Modèle MA(2) MA(3) equation arima23.ls dipc ma(2) ma(3)
Modèle MA(3) equation arima24.ls dipc ma(3)
38
Donc, on est censé d’estimer 24 modèles
Pr. R. EL YAMANI

Estimations
Après l’estimation des différents modèles, l’analyse de la
significativité des coefficients (Tous les coefficients doivent être
significatifs) nous conduit à conserver les quatre modèles ci-
après qui ont donné des résultats satisfaisants:

Modèle AR(1) AR(2) MA(1) MA(2)


Modèle AR(2)
Modèle MA(1)
Modèle MA(2)

39
Pr. R. EL YAMANI

Choix du processus optimal


D’après les critères d’information (AIC et SC), il ressort que le modèle AR(1)
AR(2) MA(1) MA(2) dispose d’une qualité supérieure (Ie modèle a les critères
d’infirmation AIC et CS les plus petits et le R² le plus grand ).
Le fait de retenir ce modèle ne signifie pas que les autres modèles ne peuvent
pas être utilisés pour la prévision. Ces critères n’accordent au modèle retenu
qu’une certaine prééminence sur les autres.

Akaike info Schwarz


Modèle criterion criterion R²
(AIC) (SC)
Modèle AR(1) AR(2) MA(1) MA(2) 1.805970 1.99717 0.28684

Modèle AR(2) 1.927274 2.00375 0.06025

Modèle MA(1) 1.937621 2.014102 0.04873

Modèle MA(2) 1.895060 1.971541 0.091688

D’où le modèle ARIMA (p=2; d=1; q=2) est celui le plus adéquat
40
pour modéliser notre série.
Pr. R. EL YAMANI

Estimation du modèle retenu


Dependent Variable: DIPC
Method: ARMA Maximum Likelihood (BFGS)
Date: 03/28/20 Time: 14:22
Sample: 2010M02 2014M03
Included observations: 50
Convergence achieved after 21 iterations
Coefficient covariance computed using outer product of gradients

Variable Coefficient Std. Error t-Statistic Prob.

AR(1) 0.879324 0.051972 16.91921 0.0000


0.0000
AR(2) -0.965954 0.031950 -30.23314 0.0000
0.0000
MA(1) -0.851779 0.133144 -6.397444 0.0000
0.0000
MA(2) 0.766336 0.122679 6.246689 0.0000
0.0000
SIGMASQ 0.280572 0.064821 4.328408 0.0001

R-squared 0.286846 Mean dependent var 0.124000


Adjusted R-squared 0.223454 S.D. dependent var 0.633603
S.E. of regression 0.558343 Akaike
Akaike info
info criterion
criterion 1.805970
1.805970
Sum squared resid 14.02860 Schwarz
Schwarz criterion
criterion 1.997173
1.997173
Log likelihood -40.14926 Hannan-Quinn criter. 1.878781
Durbin-Watson stat 1.788233

Les coefficients estimés sont tous statistiquement significatif comme l’atteste la


statistique de student.
 Donc:

DIPC = 0,879324 * DIPCt-1 - 0,965954*DIPCt-2 - 0,851779 *εt-1 +0. 280572 *εt-2


41
Pr. R. EL YAMANI

Corrélogramme des résidus:


Date: 03/28/20 Tim e: 15:30
Sam ple: 2010M01 2014M03
Included obs ervations : 50

Pour obtenir le corrélogramme des Autocorrelation Partial Correlation AC PAC Q-Stat Prob

residus: 1
2
0.017
-0.07...
0.017
-0.07...
0.0149
0.3388
0.903
0.844
1) Restimer l’ équation du modèle 3
4
0.057
-0.17...
0.061
-0.18...
0.5215
2.2405
0.914
0.692
retenu: ls dipc ar(1) ar(2) ma(1) 5
6
-0.14...
-0.14...
-0.13...
-0.18...
3.4289
4.6243
0.634
0.593
ma(2); 7
8
-0.08...
0.082
-0.09...
0.033
5.0290
5.4434
0.656
0.709
2) Double clic sur Resid (la série 9 0.133 0.093 6.5678 0.682
1... 0.074 0.028 6.9242 0.733
des résidus= 1... 0.023 -0.03... 6.9599 0.802
1... 0.160 0.146 8.7180 0.727
ViewCorrelogramm 1... -0.18... -0.17... 11.067 0.605
1... -0.05... 0.041 11.274 0.664
1... 0.009 0.007 11.280 0.733
1... -0.15... -0.06... 13.105 0.665
1... -0.06... -0.10... 13.429 0.707
1... -0.05... -0.11... 13.630 0.753
1... -0.07... -0.14... 14.101 0.778

Le corrélogramme de la série des résidus montre qu’aucun terme n’est extérieur aux
deux intervalles de confiance (Toutes les probabilités sont supérieures à 0,05).
On accepte l’hypothèse que la série des résidus est un bruit blanc.
La série des indices de prix à la consommation (IPC) est valablement représenté par un
ARIMA(2,1,2).
42
Analyse de la validité du processus Pr. R. EL YAMANI

retenu:
La phase de validation est plus importante, elle nécessite le plus
souvent un retour à la phase d’identification.
Pour valider le processus retenu, on doit réaliser les tests suivants:

1. Test d’autoccorélation;

2. Test d’heteroscedasticite;

3. Test de normalité.

43
Analyse de la validité du processus Pr. R. EL YAMANI

retenu:
1. Test d’autoccorélation Table01
Date: 03/28/20 Time: 15:50
Sample: 2010M01 2014M03
Included observations: 50
Analyse du corrélogramme des résidus: Q-statistic probabilities adjusted for 4 ARMA terms

Cliquer sur l’équation du modele Autocorrelation Partial Correlation AC PAC Q-Stat Prob

retenu=ViewResidual Diagnostics 1 0.017 0.017 0.0149

 Correlogramm -Q-StatisticsOK 2
3
-0.07...
0.057
-0.07...
0.061
0.3388
0.5215
4 -0.17... -0.18... 2.2405
5 -0.14... -0.13... 3.4289 0.064
6 -0.14... -0.18... 4.6243 0.099
7 -0.08... -0.09... 5.0290 0.170
8 0.082 0.033 5.4434 0.245
9 0.133 0.093 6.5678 0.255
Le correlogramme des résidus indique 1... 0.074 0.028 6.9242 0.328

que toutes les probabilités sont 1...


1...
0.023
0.160
-0.03...
0.146
6.9599
8.7180
0.433
0.367
supérieures à 0,05. 1...
1...
-0.18...
-0.05...
-0.17...
0.041
11.067
11.274
0.271
0.337
Donc il s’agit d’un processus sans 1... 0.009 0.007 11.280 0.420
1... -0.15... -0.06... 13.105 0.361
mémoire (Absence d’autocorrélation). 1... -0.06... -0.10... 13.429 0.415
1... -0.05... -0.11... 13.630 0.478
1... -0.07... -0.14... 14.101 0.518
2... -0.00... -0.13... 14.104 0.591
2... 0.065 -0.01... 14.484 0.633
2... -0.03... -0.12... 14.570 0.691
2... 0.008 -0.06... 14.576 0.749
2... 0.126 0.008 16.154 0.707

44
Analyse de la validité du processus Pr. R. EL YAMANI

retenu:
2. Test d’heteroscedasticité Table02
Date: 03/28/20 Time: 15:59
Sample: 2010M01 2014M03
Included observations: 50

Analyse du corrélogramme des résidus


Autocorrelation Partial Correlation AC PAC Q-Stat Prob

au carré : 1
2
0.065
-0.06...
0.065
-0.06...
0.2244
0.4187
0.636
0.811
Cliquer sur l’équation du modele 3
4
0.097
-0.10...
0.106
-0.13...
0.9411
1.6159
0.815
0.806
retenu=ViewResidual Diagnostics 5 -0.11... -0.08... 2.3174 0.804
6 0.005 -0.00... 2.3191 0.888
 Correlogramm Squared 7 0.137 0.155 3.4580 0.840

ResidualOK
8 -0.00... -0.02... 3.4602 0.902
9 -0.13... -0.14... 4.5445 0.872
1... 0.093 0.078 5.1101 0.884
1... -0.06... -0.05... 5.3483 0.913

Le correlogramme des résidus au carré 1...


1...
0.101
0.086
0.191
-0.00...
6.0491
6.5746
0.914
0.923
indique que toutes les probabilités sont 1...
1...
0.209
0.056
0.234
-0.01...
9.7288
9.9649
0.782
0.822
supérieures à 0,05. 1...
1...
-0.12...
0.072
-0.05...
0.065
11.107
11.512
0.803
0.829
Donc aucun terme n’est 1... -0.02... 0.000 11.560 0.869
1... -0.10... -0.03... 12.515 0.862
significativement diff é rent de 0. 2... -0.02... -0.11... 12.571 0.895

Les résidus sont alors 2...


2...
0.032
-0.14...
0.054
-0.21...
12.663
14.726
0.920
0.874
homoscédastiques 2...
2...
-0.13...
0.134
0.000
0.024
16.357
18.159
0.840
0.795

Les résidus ne sont pas autocorrélés et ils sont homoscédastiques


== les résidus constituent un bruit blanc 45
Analyse de la validité du processus Pr. R. EL YAMANI

retenu:
2. Test de normalité 7
Graph01
Series: Residuals
6 Sample 2010M02 2014M03
Observations 50
5
Mean 0.140152
Median 0.100020
4 Maximum 1.223541
Minimum -0.967247
3 Std. Dev. 0.515999
Skewness 0.118797
2 Kurtosis 2.453675

1 Jarque-Bera 0.739422
Probability 0.690934
0
-1.0 -0.8 -0.6 -0.4 -0.2 0.0 0.2 0.4 0.6 0.8 1.0 1.2

Analyse de la normalité des résidus :


Cliquer sur l’équation du modele retenu=ViewResidual Diagnostics 
Histogram-Normality TestOK

Le test de normalité: Les résidus sont-ils guassiens?


La statistique de Jarque-Bera (JB=0,739422<χ2 =5.99 ) indique une probabilité
critique de 0,6909>0,05, nous acceptons l’hypothese de normalité des résidus.

= La représentation est validée le processus de IPC est donc un bruit


blanc gaussien. 46
Pr. R. EL YAMANI

Conclusion

 Les modèles ARIMA sont, en théorie, la classe la plus générale de


modèles pour prévoir une série temporelle que l'on peut faire par
différenciation.
 ARIMA est une méthode rigoureuse, basée sur des algorithmes,
permettant de faire des prévisions, notamment sur des séries
temporelles.
 La qualité d’une prévision dépend en grande partie du choix porté sur
plusieurs méthodes.
 Elle dépend également de «l’art» du prévisionniste d’intégrer un
ensemble de connaissances et de déceler dans une foule
d’informations celles qui sont les plus indiquées à donner des
prédictions probantes.
47
Pr. R. EL YAMANI

BIBLIOGRAPHIE

 Régie Bourbonnais,(2018), « Econometrie »


10ème édition, Dunod Paris.
 Jean-Paul Tsasa Vangu ,(2010),
« Statistique appliquée», CCAM.
 Georges Bresson, Alain Pirotte, (1995), «
Econométrie des séries temporelles ».
 Michel Tarraza & Régie Bourbonnais,
(2010), « Analyse des séries temporelles »,
«3ème édition, Dunod Paris.
48

Vous aimerez peut-être aussi