Vous êtes sur la page 1sur 49

Séries chronologiques : Prévisions avec

un modèle ARMA

Master Finance Islamique


Année : 2017/2018

Elaboré par : Encadré par :

- ELAMRANI Jihane - Mr. DOUMI Karim


- HELLAOUI Yousra
- KHARBOUCH Doha
- MRIGA Salem
- ELHARHARI Youssef

1
Table des matières
Chapitre 1 : Généralités sur les séries chronologique ......................................... 4
Rappelle sur les séries chronologiques …………….....………………………………………4
1 Définition d’une série chronologique…………………………………………………………….4

2 Les composantes d’une série chronologique.......................................................….5

3 Modélisation d'une série chronologique………….……………………………………………7

Prévision par les méthodes de lissage exponentielle...........................…...9

1 Lissage exponentiel simple ..........................................................................…...10

2 Lissage exponentiel double….………………………………………………………………….10

3Méthode de Holt Winters……………………………………………………………………..….10

Processus stochastique………………….……………………………………………………………12

Processus stationnaire………………………….…………………………………………………….13

Processus non stationnaire…………………………………………………………………………14

Conclusion………………………………………………………………………………………………….…17

Chapitre 2 : Les Processus ARIMA ................................................................... 18


 Les étapes de la méthode de BOX-JENKINS ......................................................................... 26
1- Identification :....................................................................................................................... 26
2- Estimation des paramètres d’un modèle ARIMA ........................................................ 30
3- Le diagnostic : ....................................................................................................................... 31
4- La prévision : ......................................................................................................................... 32
Chapitre 3 Partie empirique ............................................................................. 35
Application de la méthode de Box-Jenkins (Modélisation ARIMA) sur SPSS ... 35
Conclusion ……………………………………………………………………………………………………………………………………….48

Bibliographie ………………………………..…………………………………………………………………………………………………49

2
Introduction :
Une série chronologique, ou série temporelle, est une série d'observations
ordonnées chronologiquement. Elles se rencontrent naturellement dans une grande
variété de domaines. On peut citer : l'économie (taux de chômage, PNB …), la finance
(cours d'action, taux d'intérêt, …), l'écologie (pollution à l'ozone, au CO, …), le
transport (avec l'exemple célèbre du trafic aérien international), la démographie…).

Les objectifs d'étude sont multiples. La prévision est sans doute le but le plus
fréquent. Il s'agit de prévoir les valeurs futures d'une variable grâce aux valeurs
observées dans le présent et le passé de cette même variable ; la problématique n'est
donc pas la même qu'en régression où l'on cherche à prévoir le niveau d'une variable
(la réponse) en fonction du niveau d'autres variables (les prédicteurs).

Nous allons à présent étudier de façon de plus précise ce qu’est un processus non
stationnaire. Il existe en effet deux sorte de non stationnarité : la non stationnarité
déterministe et la non stationnarité stochastique. Nous verrons que suivant l’origine
du non stationnarité, il convient d’adopter une méthode de stationnarisation
particulière.
La seconde partie de ce chapitre sera ensuite consacrée à la présentation des
principaux tests de non stationnarité. Il s’agit alors de définir une stratégie empirique
permettant de vérifier si les processus sont stationnaires ou au contraire s’il est
nécessaire de les stationnariser et quelle est alors la méthode appropriée.

3
Chapitre 1 : Généralités sur les séries chronologique

Le but de ce chapitre est d’introduire la notion de processus temporel et plus


particulièrement la classe des processus ARMA qui sont particulièrement utiles pour
décrire le comportement des séries temporelles univariées. Cette présentation
suppose que l’on définisse au préalable un certain nombre de notions essentielles à
l’analyse des séries temporelles, et en particulier la notion de stationnarité.

I. Rappelle sur les séries chronologiques :

1. Définition d’une série chronologique

Une série chronologique (Yt, t Є T) est une suite d’observations d’une variable y à
différentes dates t. Habituellement T est dénombrable, de sorte que t = 1,2,……….,T.

Le but de l’analyse des séries temporelles (séries chronologiques) est de s’intéresser à


la dynamique d’une variable. Cette dernière est importante pour au moins deux
raisons :

 D’un point de vue économétrique, on ne peut relier que deux variables qui
ont des propriétés similaires, en particulier une même stabilité ou instabilité
 Les propriétés mathématiques permettant de relier deux variables
dépendent de leur dynamique

Exemple :

On a relevée les chiffres d’affaires trimestriels, exprimées en K€, d’une entreprise


au cours des années 2012 `a 2015. Ceux-ci sont présentés dans le tableau suivant.

Présentation graphique :

4
Ici, le nombre d’années est n = 4, le nombre de périodes par année est p = 4 et on a
y1 = 20, y2 = 25, y3 = 50, y4 = 70, y5 = 35, . . ., y16 = 170

Objectif d’une série chronologique:

 De décomposer une série chronologique en composantes générale saisonnière


et aléatoire afin de l’analyser;
 D’estimer les composantes de la série chronologique
 Prédire les valeurs futures de la série

2. Les composantes d’une série chronologique

Le but de la décomposition d’une série est de distinguer dans l’évolution de la série


une tendance <générale> des variations stationnaires qui se répètent
chaque année et des variations accidentelles imprévisibles.

L’intérêt de ceci est d’une part de mieux comprendre de mieux décrire


l’évolution de la série et d’autres part de prévoir son évolution (a partir de la
tendance et des variations saisonnières.

Yt = f (Tt; St; Ct ; εt)


 La tendance Tt : La tendance correspond à l’évolution à long terme de la
série, l’évolution fondamentale de la série. Exemple : augmentation du
chiffre d’affaire de 2007 à 2017

5
 Les variations saisonnières St : Les variations saisonnières sont des
fluctuations périodiques à l’intérieur d’une année, et qui se reproduisent de
façon plus ou moins permanente d’une année sur l’autre.

 Cycle Ct : composante de moyen terme avec un intervalle de répétition plus.

 Les variations accidentelles ou résiduelles : εt. Les variations


accidentelles sont des fluctuations irrégulières et imprévisibles. Elles sont
supposées en général de faible amplitude. Elles proviennent de circonstances
non prévisibles : catastrophes naturelles, crise boursière, grèves.

6
3. Modélisation d’une série chronologique

Le modèle générale
Yt =Tt+ Ct+ St +It

.
St : est la composante
Tt : désigne Ct : est le cycle. saisonnière et It : est l’irrégulier,
la tendance C’est un mouvement représente les regroupant toutes
qui lisse, quasi fluctuations infra – les fluctuations plus
représente périodique autour de annuelles qui se ou moins erratiques
l’évolution la tendance répètent de manière non prises en
présentant des plus ou moins régulière compte dans les
de long
phases de d’année en année. composantes
terme de la
croissance et de énumérées (résidu)
série.
récession.

a) Modèle additif :

Définition
On parle de modèle additif lorsque la série chronologique y = yt se décompose sous la
forme
yt = tt + st + Ɛt;

ou tt désigne la composante tendance générale, st désigne la composante


saisonnière ;ct le cycle et Ɛt désigne la composante aléatoire de la série au temps t.

7
Remarque
Rappelons que la composante saisonnière est supposée p-périodique (i.e. sk+p = sk,
pour tout k) et d’influence nulle sur une année (i.e. s1 + s2 + · · · + sp = 0 pour le
modèle additif). La composante aléatoire est supposée négligeable (i.e. Ɛt = 0, pour
tout t, pour le modèle additif).

Critère

Pour savoir si le modèle additif est adapté, on trace les lignes polygonales passant
par les pics positifs d’une part et négatifs d’autre part. Si celles-ci sont proches de
droites et si la largeur de la bande délimitée par celles-ci est essentiellement
constante, on choisit d’utiliser le modèle additif

Graphiquement :

b) Modèle multiplicatif :

Définition
On parle de modèle multiplicatif lorsque la série chronologique y = yt se décompose
sous la forme :

yt = tt × st × Ɛt;
Ou tt désigne la composante tendance générale, st désigne la composante saisonnière
et Ɛt désigne la composante aléatoire de la série au temps t.

Remarque
Rappelons que la composante saisonnière est supposée p-périodique (i.e. sk+p = sk,
pour tout k) et d’influence nulle sur une année (i.e. s1 × s2 × · · · × sp = 1 pour le
modèle multiplicatif). La composante aléatoire est supposée négligeable (i.e. Ɛt ’ 1,
pour tout t, pour le modèle multiplicatif).

8
Critère
Pour savoir si le modèle multiplicatif est adapté, on trace les lignes polygonales
passant par les pics positifs d’une part et négatifs d’autre part. Si celles-ci sont
proches de droites et si la largeur de la bande délimitée par celles-ci est clairement
croissante ou décroissante, on choisit d’utiliser le modèle multiplicatif.

II. Prévision par les méthodes de lissage exponentiel :

Le lissage exponentiel est une classe de méthodes de lissage de séries


chronologiques dont l'objectif est la prévision à court terme. Ces méthodes sont
fondées sur une hypothèse fondamentale : chaque observation à l’instant t dépend
des observations précédentes et d'une variation accidentelle, et cette dépendance est
plus ou moins stable dans le temps.

Le lissage exponentiel simple ne s'applique qu'aux séries sans tendance ni


saisonnalité. Les extensions de la méthode - méthodes de Holt et de Holt-Winters –
permettent de tenir compte de la présence d'une tendance et/ou d'une saisonnalité.

1) Lissage exponentiel simple :

Disposant d’une série temporelle Y1, . . . , Yn, l’objectif du lissage exponentiel est
d’estimer la valeur Yn+h non encore observée. Nous noterons Ŷn,h cette
prévision. Etant donnée une constante de lissage 0 < α < 1, on définit la prévision
par lissage exponentiel simple :

Ŷn,h = αYn + (1-α) Ŷn-1,h


La prévision est une moyenne de toutes les observations passées, pondérée de sorte
que plus l’observation soit ancienne moins elle ait d’importance. Une constante de
lissage α proche de 0 (≤ 0.3) donne une importance significative aux observations

9
éloignées, tandis qu’un α proche de 1 (≥ 0.7) tend à négliger ces observations
éloignées.

Remarque : la prévision Ŷn,h ne dépend pas de h .

2) Lissage exponentiel double :

On ajuste au voisinage de l’instant n une droite d’équation Yt = a1+ a2(t - n).


La prévision par lissage exponentiel double est :

â1(n) = â1(n - 1) + ̂a2(n - 1) + α(2 - α)(Yn - Ŷn-1,1),

â2(n) = â2(n - 1) + α(2 - α)(Yn - Ŷn-1,1),

Où â1(n) et â2(n) sont les estimations des paramètres a1 et a2 lorsque l’on a


observé la série jusqu’à la n-ème réalisation. Les valeurs initiales étant â1(0) = x1 et
â2(0) = Y2 - Y1

Remarque : comme pour le lissage exponentiel simple, l’estimateur de la prévision


est la meilleure approximation au sens des moindres carrés pondérés.

3) Méthode de Holt-Winters

 Méthode non saisonnière

Comme la méthode de lissage exponentiel double, celle de Holt-Winters non


saisonnière revient à estimer au voisinage de l’instant n une droite

yt = a1 + a2(t - n).

La prévision prend la forme Ŷn,h = â1(n) + â2(n)h.

La variante par rapport à la méthode de lissage exponentiel double est au niveau des
formules de mise à jour dans l’estimation des paramètres a1 et a2. Soient deux
constantes de lissages 0 < α < 1 et 0 < β < 1. Les formules de mise à jour sont :

â1(n) = αYn + (1 - α) [ â1(n - 1) + â2(n - 1)],

â2(n) = β [â1(n) - â1(n - 1)] + (1 - β)â2(n - 1).

 Méthode saisonnière additive

On cherche maintenant à ajuster au voisinage de l’instant n une droite d’équation


yt = a1 + a2(t - n) + st, où st est une composante périodique de période T.

Les formules récursives de mise à jour sont :

â1(n) = α (xn - ŝn-T ) + (1 - α) [â1(n - 1) + â2(n - 1)],

â2(n) = β [â1(n) - â1(n - 1)] + (1 - β)â2(n - 1),


10
ŝn = γ[xn - â1(n)] + (1 - γ)̂sn-T .

Les prévisions sont de la forme :

Ŷn,h = â1 + â2h + ŝn+h-T 1 ≤ h ≤ T,

Ŷn,h = â1 + â2h + ŝn+h-2T T + 1 ≤ h ≤ 2T.µ et ainsi de suite pour h ≥ 2T


.

Les trois constantes de lissages, α, β et γ ont le même effet que précédemment, plus
elles sont petites et plus l’importance des données éloignées est significative. Elles
agissent respectivement sur les paramètres a1, a2 et st. Se référer à Gouriéroux et
Monfort 1983 [5] pour les valeurs d’initialisation.

 Méthode saisonnière multiplicative

On ajuste au voisinage de l’instant n une droite d’équation :

yt = [a1 + a2(t - n)] × st, où st est une composante périodique de


période T .

Les formules récursives de mise à jour sont :

â1(n) = α Yn ŝn-T + (1 - α)[ â1(n - 1) + â2(n - 1)],

â2(n) = β [â1(n) - â1(n - 1)] + (1 - β)â2(n - 1),

ŝn = γ Yn â1(n) + (1 - γ) ŝn-T .

Les prévisions sont de la forme : Ŷn,h = [â1 + â2h]ŝn+h-T 1 ≤ h ≤ T, Ŷn,h = [â1


+ â2h] ŝn+h-2T T + 1 ≤ h ≤ 2T. Se référer également à [5] pour les valeurs
d’initialisation.

11
III. Processus stochastique

a) Définition :
Est une collection de variables aléatoire Yt indexées dans le temps.
Un processus stochastique Yt est une famille de variables aléatoires réelles
(Yt)t∈Θ, ou Θ ⊂ R est appelé l’espace des temps.

 Si Θ ⊂ Z, le processus est dit à temps discret ; Yt=Y1, Y2, Y3,….YT


 Si Θ est un intervalle de R, le processus est dit à temps continu Ytϵ R

Evidemment, pour modéliser et analyser les séries chronologiques on


utilise les processus à temps discret.

 Yt=Yt-1 + Ɛt
 Yt-Yt-1=Ɛt => ∆Yt =Ɛt ou Ɛt est un bruit blanc iid (indépendamment
identiquement distribué)

b) Bruit blanc :
Un type particulier de processus stochastiques stationnaires: processus
purement
aléatoires ou processus bruit blanc.
Un processus est dit de bruit blanc si :

 Sa moyenne est nulle : E(Ɛt)=0


 Sa variance est constante : Var(Ɛt)=ƃ2=cst
 le terme aléatoire du MC est supposé être un processus de bruit
blanc; noté Ɛt ~NID(0, ƃ2) c-a-d est distribué indépendamment et
identiquement comme une distribution normale avec une moyenne
nulle et une variance constante

Si l’espérance est nulle, le bruit blanc est centré, et si les


variables aléatoires sont gaussiennes, le bruit blanc est
gaussien

12
IV. Processus stationnaire

Un processus stochastique est dit stationnaire si sa moyenne et sa variance sont


constantes dans le temps et la valeur de la covariance entre les deux périodes de
temps ne dépend pas du temps auquel la covariance est calculée.

 Processus fortement stationnaire(ou au sens strict) : la distribution de


probabilité est invariante par translation de l’axe du temps

 Processus faiblement stationnaire (ou stationnaire à l’ordre 2) :


permanence des deux premiers moments (conditions utilisées en
pratique).

Un processus Yt et dit stationnaire si :

 Moyenne du processus est nulle : E(Yt) = µ <sans biais>


 Variance invariable dans le temps : Var(Yt) = E (Yt - µ)= ƃ2
 L’auto-covariance ne dépend que de la distance entre deux points
dans le temps et non d’une date particulière :
Cov(Yt,Yt-k) = E(Yt - µ)(Yt-1 - µ) =ƿt c.-à-d que la covariance
est indépendante du temps.
 Un bruit blanc est processus stationnaire Ɛt ~NID (0, ƃ2)
a) Fonction d’auto-corrélation FAC :

La fonction d’auto-corrélation FAC est la fonction notée ρk qui mesure la


corrélation de la série avec elle-même décalée de k périodes.

Nous pouvons en déduire que :

ρ0 = 1 et -1 ≤ ρk ≤ 1 ∀ k

ȳ:la moyenne de la série calculée sur (n période)

n: nombre d’observation

13
NB: il exige de recalculer pour chaque terme les moyennes et les variances pour cela
on calcule la FAC d’échantillonnage.

On peut faire l’identification des caractéristiques stochastique d’une série


chronologique, si elle est stationnaire. L’étude de stationnarité se faire par l’étude des
fonctions d’auto-corrélation

b) Fonction d’auto-corrélation partielle (FACP):

La fonction d’auto-corrélation partielle ; mesure la corrélation entre yt et yt-k,


l’influence des autres variables (yt-1, yt-2,…,yt-k+1) ayant été retirée.

V. Processus non stationnaire

Un processus non stationnaire est un processus qui ne satisfait pas les conditions
de stationnarité. Ainsi, l’origine de la non stationnarité peut provenir d’une
dépendance du moment d’ordre un (l’espérance) par rapport au temps et/ou
d’une dépendance de la variance ou des auto-covariances par rapport au
temps.
Ce sont des séries les plus rencontrées dans la pratique. Une chronique ne vérifiant
pas les trois hypothèses de stationnarité :

 E(Yt) = µ <sans biais>



Var(Yt) = E (Yt - µ)= ƃ2
 Cov(Yt,Yt-k) = E(Yt - µ)(Yt-1 - µ) =ƿt

Est dite non stationnaire. Il faudra donc la stationnariser avant son


estimation.
La méthode de stationnarisation dépend de la source de non stationnarité.
 Il existe deux types de processus non stationnaire

a) Processus Trend Stationary (DS) :


Cette méthode permet de supprimer les tendances et saisonnalité d’une série
temporelle sans les estimer.

Soit ∆T l’opérateur qui associe : (Yt - Yt-T) à (Yt) :

∆T(Yt) = Yt - Yt-T
 Un processus DS présente un non stationnarité de type aléatoire. Pour
stationnariser un processus DS, on utilise le filtre aux différences de la série et
elle même décaler de k périodes.

14
 Exemple la marche aléatoire sans dérive β=0 : Yt = Yt-1 + Ɛt
Yt=Yt-2+ Ɛt-1+ Ɛt
Yt=Yt-3+ Ɛt-2+ Ɛt-1+ Ɛt
Yt=Yt-k+ Ʃ Ɛt-k+1

En k=t Yt=Y0+ Ʃ Ɛt-k+1 Yt=Y0+ Ʃ Ɛt-1 en calcule l’espérance de Yt

E(Yt)=E(Y0+ Ʃ Ɛt-1) = E(Y0)+E(Ʃ Ɛt-1)=E(Y0)=Y0 or E(Ʃ Ɛt-1)=0

Donc E(Yt)=Y0 l’espérance est stationnaire


Généralement :

 Le processus DS sans dérive est non stationnaire car on a :

Var(yt) = Var ∑ εi = ∑ Var(εi) = ∑ σ²ε = t σ²ε .

 On constate que la variance du processus DS sans dérive dépend du


temps t.

Plus t →∞ et plus Var(yt) →∞

 Exemple la marche aléatoire avec dérive β≠0 : Yt = Yt-1 +βt+ Ɛt

Par récurrence, on obtient (dans le cas avec dérive) :


y1 = y0 + β + ε1
y2 = y1 + β + ε2 = y0 + β + ε1 + β + ε2 = y0 + 2β + ε1 + ε2
yt = y0 + βt + ∑εi où εi ~> iid(0, σ² ε)

 Le processus DS avec dérive est non stationnaire car on a E(yt) = y0 +


βt qui dépend du temps t. Plus t →∞ et plus E(yt) →∞

15
b). Processus Differency Stationary (TS) :
Le processus trend stationnary s’écrit :

Yt = α + βt +Ɛt

La série chronique la constante du modèle la tendance l’erreur (bruit


blanc)

Ou Ɛt représente l’erreur du modèle à la date t.

Il représente une non stationnarité de nature déterministe, le processus TS est non


stationnaire car :

E(Yt)=E (α + βt +Ɛt)

E(Yt)=E(α) +E (βt)+E(Ɛt)

Or E (Ɛt)=0 l’espérance de l’erreur suit une loi indépendante du temps.

E(α)= α = constante sans biais E (βt)=tE(β)= βt

Donc E(Yt)= α + βt l’espérance dépend du temps t.

Le processus Yt peut être stationnarisé en retranchant à Yt la valeur estimée𝛂̂ + 𝛃̂𝒕


par la
méthode des Moindres Carrés Ordinaires MCO.
Ce qu’on doit faire, c’est d’éliminer la tendance. On estime les paramètres α et β par
le MCO : Yt =α+βt+ Ɛt ou Yt : la variable endogène du modèle et t : la variable
exogène.

Or α̂=ȳ- β̂ t et β̂=cov(t,Y)/var(t). On calcule les estimations de Yt par


le modèle puis on les soustrait aux Yt observés.
 Remarque : Les propriétés de stationnarité ou de non stationnarité des
séries utilisées déterminent le type de modélisation et les propriétés
asymptotiques des méthodes économétriques correspondantes.

16
Conclusion

Les séries temporelles sont considérées à tort comme étant une branche exclusive de
l'économétrie. Cette dernière est une discipline qui est relativement jeune alors que
les séries temporelles ont été utilisées bien avant en Astronomie (1906), en
météorologie (1968) etc. L'objet des séries temporelles est l'étude des variables au
cours du temps. Par conséquent, même s'ils n'ont pas été à l'origine de cette
discipline, ce sont les économètres qui ont assuré les grandes avancées
qu'à connues cette discipline .C'est pour cette raison que certaines considèrent (à
tort) les séries temporelles comme étant exclusivement une branche de l'économétrie

17
Chapitre 2 : Les Processus ARIMA

Il existe deux catégories de modèles pour rendre compte d'une série temporelle.
Les premiers considèrent que les données sont une fonction du temps (y = f(t)). Cette
catégorie de modèle peut être ajustée par la méthode des moindres carrés, ou d'autres
méthodes itératives. L'analyse des modèles par transformée de Fourier est une
version sophistiquée de ce type de modèle.
Une seconde catégorie de modèles cherche à déterminer chaque valeur de la série
en fonction des valeurs qui la précède (yt = f(yt-1, yt-2, …)). C'est le cas des modèles
ARIMA ("Auto-Regressive – Integrated – Moving Average"). Cette catégorie de
modèles a été popularisée et formalisée par Box et Jenkins (1976).

Les processus autorégressifs (AR) supposent que chaque point peut être prédit
par la somme pondérée d'un ensemble de points précédents, plus un terme aléatoire
d'erreur.

Le processus d'intégration (I) suppose que chaque point présente une différence
constante avec le point précédent.

Les processus de moyenne mobile(MA) supposent que chaque point est


fonction des erreurs entachant les points précédant, plus sa propre erreur.
Un modèle ARIMA est étiqueté comme modèle ARIMA (p,d,q), dans lequel :

p est le nombre de termes auto-régressifs


d est le nombre de différences
q est le nombre de moyennes mobiles.

II. les applications des modèles ARIMA

 Repérer les tendances et cycles:

Grace aux tendances et aux cycles, il est ainsi possible d’analyser les interactions
entres diverses variables, afin d’atteindre un équilibre.

 Corriger des variations saisonnières:

En comparant le niveau saisonnier entre deux années par exemple, on va pouvoir en


déduire un comportement. Celui-ci apportera des informations supplémentaires
indispensable afin d’affiner les valeurs saisonnières, et appréhender leurs évolutions

18
 Contrôler les processus:

Il est indispensable de dresser une carte des variables ayant une forte influence sur
les reste de l’économie, afin d’anticiper les évolutions possibles.

1) Modèle AR (Auto Régressif) :

a) Formulation

Dans le processus autorégressif d’ordre p, l’observation présente yt est générée par


une moyenne pondérée des observations passées jusqu’à la p-ième période sous la
forme suivante:

AR(1) : yt = θ1 yt−1 + εt
AR(2) : yt = θ1 yt−1 + θ2 yt−2 + εt
.. . .
AR(p) : yt = θ1 yt−1 + θ2 yt−2 + . . . + θp yt−p + εt (1)

où θ1,θ2,. . . ,θp sont des paramètres à estimer positifs ou négatifs, εt est un aléa
gaussien.

Nous pouvons ajouter à ce processus une constante qui ne modifie en rien les
propriétés stochastiques.
L’équation (1) peut aussi s’écrire à l’aide de l’opérateur décalage D :

(1 − θ1D − θ2D2 − . . . − θpDp)yt = εt

b) Caractéristiques des corrélogrammes :

Il est démontré que le corrélo-gramme simple d’un processus AR(p) est caractérisé
par une décroissance géométrique de ses termes de type :
ρk = ρk
On peut obtenir deux sortes de correlo-gramme suivant si ρ est positif ou négatif

19
2) Modèle MA (Moving Average : Moyenne Mobile) :

a) Formulation

Dans le processus de moyenne mobile d’ordre q, chaque observation yt est générée


par une moyenne pondérée d’aléas jusqu’à la q-ième période.

MA(1) : yt = εt − α1εt−1
MA(2) : yt = εt − α1εt−1 − α2εt−2
...
MA(q) : yt = εt − α1εt−1 − α2εt−2 − . . . − αqεt−q (2)

où α1,α2,. . . ,αq sont des paramètres pouvant être positifs ou négatifs et εt est un aléa
gaussien.

L’équation (2) peut aussi s’écrire :

(1 − α1D − α2D2 − . . . − αqDq)εt = yt .

Dans ce processus, tout comme dans le modèle auto-régressif AR, les aléas sont
supposés être engendrés par un processus de type bruit blanc. Nous pouvons
interpréter le modèle MA comme étant représentatif d’une série chronologique
fluctuant autour de sa moyenne de manière aléatoire, d’où le terme de moyenne
mobile car celle-ci, en lissant la série, gomme le bruit créé par l’aléa.

Il est à noter qu’il y a équivalence entre un processus MA(1) et un processus AR


d’ordre p infini :

MA(1) = AR(∞).

b) Caractéristiques des corrélo-grammes :

Le corrélo-gramme simple d’un processus MA(q) est de la forme générale :

20
C’est-à-dire que seuls les q premiers termes du corrélogramme simple sont
significativement différents de0.
Le corrélogramme partiel est caractérisé par une décroissance géométrique des
retards.

L'auto-corrélogramme de Y devient:

3) Modèle ARMA (mélange de processus AR et MA) :

a) Formulation

Les modèles ARMA sont donc représentatifs d’un processus généré par un
combinaison des valeurs passées et des erreurs passées. Ils sont définis par
l’équation :
ARMA (p,q) :
(1 − θ1D − θ2D2 − . . . − θpDp)yt = (1 − α1D − α2D2 − . . . − αqDq)εt
Nous avons :
ARMA(1,0) = AR(1);ARMA(0,1) = MA(1).
Dans le cas d’un processus ARMA (p, q) avec constante :

yt = μ + θ1xt−1 + θ2xt−2 + ... + θpxt−p + εt − α1εt−1 −α2εt−2 − ... − αqεt−q

21
L’espérance du processus est donnée1 par : E(xt ) = μ
(1 − θ1 − θ2 − ... − θp)
Donc connaissant l’espérance du processus (SPSS calcule directement l’espérance du
processus), la constante du processus ARMA est déterminée par :

μ = E(xt ) × (1 − θ1 − θ2 − ... − θp)

b) Caractéristiques des corrélo-grammes :

Les corrélo-grammes simples et partiels sont, par voie de conséquence, un mélange


des deux corrélo-grammes des processus AR et MA purs. Il s’avère ainsi plus délicat
d’identifier ces processus à partir de l’étude des fonctions d’auto-corrélation
empiriques.
Le tableau 2 synthétise les caractéristiques, en termes de corrélo-grammes, des
processus AR, MA et ARMA.

Tableau 2 – Résumé des propriétés des fonctions d’auto-corrélation


simple et partielle

22
Processus Fonction auto- Fonction auto-
corrélation simple corrélation partielle
Décroissance exponentielle Pic significatif pour le
AR(1) (θ1 > 0) ou sinusoïdale premier retard: Positif si
amortie (θ1 < 0) θ1 > 0 et négatif si θ1
< 0,
les autres coefficients nuls
pour des retards > 1
Décroissance exponentielle Pics significatifs pour
AR(2) ou sinusoïdale selon les le premier et second
signes de θ1 et θ2 retards, les autres
coefficients sont nuls pour
des retards > 2
Décroissance exponentielle Pics significatifs pour les p
AR(p) et/ou sinusoïdale premiers retards, les
autres coefficients sont
nuls
pour des retards > p
Pic significatif pour le Décroissance exponentielle
MA(1) premier retard : (α1 > 0) ou
positif si α1 < 0 et négatif sinusoïdale amortie (α1 <
si α1 > 0. 0)
Les autres coefficients sont
nuls pour des retards > 1
Pics significatifs pour le Décroissance exponentielle
MA(2) premier et second retards. ou sinusoïdale selon les
Les autres coefficients signes de α1 et α2
sont nuls pour des retards
>2
Pics significatifs pour les q Décroissance exponentielle
MA(q) premiers retards. Les et/ou sinusoïdale
autres coefficients nuls
pour des retards > q
Décroissance géométrique Décroissance exponentielle
ARMA (1, 1) à partir du premier retard, (α1 > 0) ou sinusoïdale
le signe est déterminé par amortie (α1 < 0)
θ1 – α1
Décroissance exponentielle Décroissance exponentielle
ARMA (p, q) ou sinusoïdale amortie ou sinusoïdale amortie
tronquée après tronquée après
(q – p) retards p – q retards

23
4) Différenciation.

L'estimation des modèles ARIMA suppose que l'on travaille sur une série
stationnaire. Ceci signifie que la moyenne de la série est constante dans le temps,
ainsi que la variance.
La meilleure méthode pour éliminer toute tendance est de différencier, c'est-à-dire de
remplacer la série originale par la série des différences adjacentes. Une série
temporelle qui a besoin d'être différenciée pour atteindre la stationnarité est
considérée comme une version intégrée d'une série stationnaire (d'où le terme
Integrated).

La correction d'une non-stationnarité en termes de variance peut être réalisée par des
transformation de type logarithmique (si la variance croît avec le temps) ou à
l'inverse exponentielle. Ces transformations doivent être réalisées avant la
différenciation.

Une différenciation d'ordre 1 suppose que la différence entre deux valeurs successives
de y est constante.
yt – yt-1 = μ + ε t

μ est la constante du modèle, et représente la différence moyenne en y.


Un tel modèle est un ARIMA (0,1,0). Il peut être représenté comme un accroissement
linéaire en fonction du temps.

Si μ est égal à 0, la série est stationnaire.

Les modèles d'ordre 2 travaillent non plus sur les différences brutes, mais sur les
différences de différence. La seconde différence de y au moment t est égale à
(yt -yt-1 ) - (yt-1 - yt-2),
c'est-à dire
yt – 2yt-1 + yt-2.

Un modèle ARIMA (0,2,0) obéira à l’équation de prédiction suivante :

yt – 2yt-1 + yt-2 = μ + ε t
ou encore:

yt = μ + 2yt-1 - yt-2 + ε t

24
5) Signification des paramètres des modèles ARIMA

L'objectif essentiel des modèles ARIMA est de permettre une prédiction de l'évolution
future d'un phénomène. Son développement dans le domaine de l'économétrie est
basé sur ce principe. On en verra plus loin une illustration.

Un autre intérêt, peut-être plus essentiel en ce qui concerne la recherche scientifique,


est de comprendre la signification théorique de ces différents processus. Il est clair
cependant que cette interprétation dépend de la nature du phénomène étudié, et des
modèles dont le chercheur dispose pour en rendre compte.

- Un processus non différencié à bruit blanc (ARIMA (0,0,0) suggère des


fluctuations aléatoires autour d'une valeur de référence. Cette valeur de référence
peut être considérée comme une caractéristique stable du système étudié (trait de
personnalité, mémoire, capacité stabilisée, etc..)

- Un processus de moyenne mobile suggère que la valeur de référence évolue


d'une mesure à l'autre. Plus précisément, la valeur de référence est fonction de la
valeur de référence précédente et de l'erreur ayant entaché la mesure précédente.

- Un processus auto-régressif suggère que le phénomène étudié n'est pas


déterminé par une valeur de référence. C'est la performance précédente (ou les
performances précédentes) qui déterminent entièrement la performance présente.

III. METHODOLOGIE DE BOX ET JENKINS

La méthodologie de BOX JENKINS pour analyser une série chronologique


représente la réponse statistique à ce problème. Il s’agit de choisir dans la vaste classe
des modèles ARIMA le modèle reproduisant au mieux la série étudiée. La panoplie
statistique habituelle peut s’appliquer : estimation des paramètres du modèle, tests
d’hypothèse, analyse des résidus, identification d’observations atypiques, prévision.

Lorsque les données ont une structure probabiliste suffisamment stable au cours du
temps et sont assez nombreuses pour permettre une estimation de cette structure,
l’approche BOX JENKINS permet d’obtenir les prévisions les plus précises.

La théorie sous-jacente à la méthodologie de BOX JENKINS est complexe, elle est


cependant indispensable à une bonne utilisation des logiciels. Il faut avoir en
mémoire les propriétés des modèles ARIMA pour pouvoir choisir le modèle adapté
aux données. Nous Présentons donc les résultats théoriques essentiels dans une
première partie.

L’objectif de cet exposé est de permettre une bonne utilisation des logiciels
d’analyse d’une série chronologique à l’aide de la méthode de BOX JENKINS.
25
 Les étapes de la méthode de BOX-JENKINS

1- Identification :

On suppose qu’on a éliminé les composantes saisonnières de la série chronologique,


car ils nécessitent un autre ensemble de paramètres.

Il faut identifier la décomposition retenue de la série chronologique selon les 3 types


de processus en spécifiant les paramètres p,d,q du modèle ARIMA(p,d,q) .Avant
d’identifier ces paramètres, il convient tout d’abord vérifier la stationnarité de la
série.
 Un processus est dit faiblement stationnaire si son espérance et sa variance
sont constantes et sa covariance ne dépend que de l’intervalle de temps.

Si la série n’est pas stationnaire c.à.d. si la moyenne de la série varie sur le court
terme ou que la variabilité de la série est plus élevée sur certaines périodes que sur
d’autres, Il faut les rendre stationnaire.
Pour les rendre stationnaire, la transformation la plus courante est la différenciation
de la série c.à.d. chaque valeur de la série est remplacée par la différence de cette
valeur et celle qui la précède.

La stationnarité une fois obtenue, l’étape suivante consiste à analyser le graphe de la


fonction d’auto-corrélation (FAC) et celui d’auto-corrélation partielle (FAP) pour
déterminer (p,d,q) du modèle.
Le paramètre d est fixé par le nombre de différenciation effectuées pour rendre la
série stationnaire, généralement d n’excède pas 2. Une fois ce paramètre fixé, il
convient de spécifier l’ordre p du processus AR et q du processus MA, les corrélo-
grammes (graphes FAC et FAP) permettent selon leurs aspects d’identifier
correctement les paramètres p et q, généralement ces valeurs n’excédent pas 2 eux
aussi.

La fonction d’auto-corrélation (FAC) constitue l’ensemble des auto-corrélations de la


série :
Ρk = corr (Yt, Yt-k)
Calculée pour des décalages d’ordre k, le décalage maximum de k admissible pour
que le coefficient d’auto-corrélation ait un ses est k = n /3 (avec n : le nombre
d’observation temporelle).
La fonction d’autocorrélation partielle (FAP) est constituée par l’ensemble des auto-
corrélations partielles, il mesure la corrélation entre les variables Yt et Yt-k.
Les corrélo-grammes affichent les intervalles de confiance à 95% qui permettent de
déterminer quels sont les coefficients statistiquement significatifs à prendre en
compte.

26
L’interprétation des corrélo-grammes pour la spécification des processus AR et
MA est généralement gouvernée par les règles suivantes :
 les processus autorégressifs d’ordre p, AR(p), présentent une fonction
d’auto-corrélation dont les valeurs décroissent exponentiellement avec
des alternances possibles de valeurs positives et négatives ; leur
fonction d’auto-corrélation partielle présente exactement p pics aux p
premières valeurs du corrélo-gramme d’auto-corrélation partielle.
 les processus de moyenne mobile d’ordre q, MA(q), présentent
exactement q pics aux q premières valeurs du corrélo-gramme de la
fonction d’auto-corrélation et des valeurs exponentiellement
décroissantes de la fonction d’auto-corrélation partielle.
 si la fonction d’auto-corrélation décroît trop lentement, on conseille de
différencier la série avant l’identification du modèle.

Généralement :

L’identification consiste à spécifier les trois paramètres p; d; q du modèle


ARIMA (p,d,q). La stationnarité du modèle est d’abord testée par étude graphique,
de corrélo-gramme et test de dickey fuller augmenté. Si la série n’est pas
stationnaire, il convient de la transformer stationnaire. L’ordre d’intégration "d " est
le nombre de fois que la série initiale a été différenciée pour obtenir la stationnarité.
Les auto-corrélations et les auto*corrélations partielles permettent d’estimer les
ordres p et q pour les modèles AR et MA :

1. Les auto-corrélations partielles sont nulles au delà de l’ordre p.


2. Les auto-corrélations sont nulles au dela de l’ordre q.

27
 Test de Dickey Fuller simple :

Dickey et Fuller sont les premiers à fournir un ensemble d’outils statistiques formels pour
détecter la présence d’une racine unitaire dans un processus autorégressif du premier ordre, ce
test permet de tester l’hypothèse.

H0 : Le modèle a une racine unitaire,

H1 : le modèle n’a pas de racine unitaire.

Ce test est regroupé en 4 cas :

Pour simplifier, on écrira :

Nous pouvons résumer la stratégie d’ADF à partir de schéma suivant :

28
29
2- Estimation des paramètres d’un modèle ARIMA
L’estimation des paramètres d’un modèle ARIMA (p,d,q) lorsque p; d; q sont
supposés connus peut se réalise par différentes méthodes dans le domaine temporel,
et parmi ces méthodes on a :

1. Maximum de vraissemblance.
2. Dans le cas q = 0, on utilise les équations de Yule Walker.

Plusieurs logicielles informatiques impliquent ces méthodes d’estimation d’un


modèle ARIMA (Eviews, Spss,...), notamment les méthodes du maximum de
vraissemblance.

 Critères de choix des modèles

Souvent il n’est pas facile de déterminer un modèle unique. Le modèle qui


est finalement choisi et celui qui minimiser l’un des critères à partir T observations.

Critère standard

• L’erreur absolue moyenne (Mean Absolute Error)

• L’erreur quadratique moyenne (Mean Squared Error) :

• La racine carrée de l’erreur quadratique moyenne (Root Mean Square Error)

30
• Ecart absolu moyen en pourcentage (Mean Absolute Percent Error) :

Plus la valeur de ces critères est faible, plus le modèle estimé est proche des
observations.

3- Le diagnostic :

Dans cette étape finale du triptyque identification-estimation-diagnostic de la


méthode de Box Jenkins, les principales vérifications à effectuer portent sur les
éléments suivants :

 les valeurs des fonctions d’auto-corrélation et d’auto-corrélation partielle de la


série des résidus doivent être toutes nulles ; si les auto-corrélations d’ordre 1
ou 2 diffèrent significativement de 0, alors la spécification (p,d,q) du modèle
ARIMA est probablement inadaptée.

 les résidus ne doivent présenter aucune configuration déterministe : leurs


caractéristiques doivent correspondre à celle d’un bruit blanc. Une statistique
couramment utilisée pour tester un bruit blanc est le Q’ de Box et Ljung

31
4- La prévision :

C’est la dernière étape de la méthodologie de Box et Jenkins. Connaissant l’horizon


de prévision (h), la prévision faite en T pour la date T+h est donnée par :
Cette expression représente la meilleure prévision de la série Y conditionnellement {
l’ensemble d’information disponible { la date t.

Ou encore : Le terme signifie que la valeur de Yt est prévue sur base des observations
passées Yt-1, Yt-2, … en utilisant la valeur estimée des coefficients.
Notez que la prévision et l’estimation des effets causaux sont des objectifs très
différents.

Pour un modèle de prévision, par exemple :

- Le coefficient de détermination corrigé a beaucoup d’importance, alors que le biais


d’omission n’est pas vraiment un problème.

- On ne cherche pas {interpréter les coefficients d’un modèle de prévision (c’est ce


que l’on qualifie également d’économétrie sans théorie), ce qui importe c’est la
validité externe du modèle.

- Le modèle estimé sur des données du passé (prédiction) doit être valable dans le
futur (prévision).

Résumé :

La méthodologie de Box et Jenkins permet de déterminer le modèle ARIMA


adéquat pour la modélisation d’une série chronologique, donc il s’agit de construire
un modèle restituant le mieux possible le comportement d’une série temporelle.
Cette méthodologie suggère quatre étapes : l’identification, l’estimation, la validation
et la prévision du modèle.

32
33
Conclusion

Parmi ses principaux objectifs figurent la détermination de tendances au sein de ces


séries ainsi que la stabilité des valeurs (et de leur variation) au cours du temps. C'est
de la déception des prévisions issues des modèles structurels d'inspiration
keynésienne qu'est née la théorie des séries temporelles telles qu'on l'a connait
aujourd'hui. Et sur ce point, c'est la publication de l'ouvrage de Box et Jenkins en
1970 qui a été décisive. En effet, dans l'ouvrage les deux auteurs développent le très
populaire modèle ARMA (Auto Regressive Moving Average).

34
Chapitre 3 Partie empirique

I. Application de la méthode de Box-Jenkins (Modélisation


ARIMA) sur SPSS

Nous intéressons à appliquer la méthode de Box-Jenkins sur des données réel noté
« PSIA » qui représente la quantité vendues des Profit Sharing Investissement
Account (comptes d’investissement MOUDARABA et MOUCHARAKA), les
données considérées sont mensuelles et la période retenue pour l’étude est de
janvier 2011 à août 2015.

• Une série chronologique assez longue

{ Y1, Y2, Y3…..., Yn }


(n  56).

Objectif : Prévoir la quantité vendue des PSIA de septembre 2015 jusqu'à


aout 2020.

Tableau :

Moisn Années 2011 2012 2013 2014 2015


janvier 582 606 776 875 890
fevrier 510 555 709 786 828
mars 573 588 769 912 926
avril 417 623 729 992 936
mai 545 673 651 871 890
juin 625 638 749 901 916
juillet 656 706 771 925 900
août 554 619 744 854 892
septembre 545 661 758 911
octobre 593 707 777 911
novembre 529 707 730 867
décembre 592 738 778 959

35
Avant de construire le modèle de prévision, nous commençons par l’analyse de
graphique de la série puis l’analyse de la stationnarité à l’aide du diagramme
séquentiel.

On remarque que le type des données est mensuel donc il nous faut éliminer l’effet
saisonnier.

1ere étape : Etudier la stationnarité

Diagrammes
Analyse Prévision
séquentiels

Résultat obtenu :

36
Interprétation :

On remarque a travers le diagramme séquentiel que notre série n’est pas stationnaire
parce qu’elle est générer par une volatilité temporelle d’une part d’autre par on
remarque que la série ne contient pas une moyenne constante E(Yt)= µ et son
variance n’est pas constante var(Yt)= σ² t ∈ Z.
2eme étape : Vérification de la non stationnarité par l’analyse des auto-
corrélogrammes FAC et FACP.

37
autocorr-
Analyse Prévisions
élations

Résultat obtenu :
Fonction d’auto-corrélation FAC

Fonction d’auto-corrélation partielle FACP:

38
Interprétation :

Le corrélo-gramme du FAC diminue lentement vers 0 qui représente la valeur prise


par la FAC en fonction de nombre de retard <périodicité>

Remarque : l’auto-corrélogramme mesure la corrélation de la série avec elle-même


décalée de k période, dans le cas ou l’autocorrélogramme n’est pas décroissant on dis
que il y a un absence de Cut off c.-à-d. la série n’est pas stationnaire en tendance .

Pour le FACP on voit un pic au niveau du 1er retard d’auto-corrélogramme


partiel, on dit que notre série est générée par un modèle AR.

3eme étape : Rendre la série stationnaire la méthode de différentiation,


processus Trend Stationnary DS.

Cette méthode permet de supprimer les tendances et saisonnalité de notre série sans
l’estimer d=1 ARIMA (0, 1,0).

39
diagrammes
Analyse Prévisions
séquentiels

Résultat obtenu :

40
Interprétation :

D’après le diagramme séquentiel en remarque que notre série est devienne


stationnaire ; elle est généré par une moyenne nulle E(Yt)= µ=0 et une variance
constante var(Yt)= σ².

La serie fluctue autour de sa moyenne nulle et sa variance constante.

4eme étape : Analyse d’auto-correlogramme simple et partiel FAC et FACP


pour déterminer l’ordre p,d,q de processus ARIMA

Autocorr-
Analyse Prévisions
élation

la série DPSIA est stationnaire on cherche un modèle ARIMA (p,d,q) qui représente
cette série pour identifier le processus qui représente au mieux notre série , on
examine les auto-corrélations simple et partiel ( FAC et FACP) pour déterminer le
nombre de retards p de processus AR(p) et q de processus MA(q).

 Détermination de moyenne mobile MA q :

Résultat obtenu

41
Interprétation :

Les auto-corrélations simples qui ne dépassent pas les limites de seuil de confiance
α=0,05 sont considérées comme nulles et par conséquent doivent être négligées.

D’après le correlo-gramme d’auto-corrélation simple FAC on voit quatre pics qui sort
de l’intervalle de confiance Lag(1,3,6,9), alors on choisis les pics qui minimisent les
critères d’akaike et schwarz .

On constate qu’on est devant un processus ARIMA d’ordre q = 1 avec auto-


corrélation de -0.410 processus MA(1).

42
 Détermination d’Auto Régressif AR p:

Pour déterminer « p » on utilise le corrélo-gramme d’auto-corrélation partielle


FACP.

Interprétation :

Les auto-corrélations partiels qui ne dépassent pas les limites de seuil de confiance
α=0,05 sont considérées comme nulles et par conséquent doivent être négligées.

D’après le correlo-gramme d’auto-corrélation partie lFACP on voit trois pics qui sort
de l’intervalle de confiance Lag(p=1p=,2,p=5), alors on choisis les pics qui
minimisent les critères d’akaike et schwarz .

On choisit toujours l’ordre le plus grand avec la valeur min .

On constate qu’on est devant un processus ARIMA d’ordre p= 2 et p=5 sans p=1
avec auto-corrélation de -0.438 et -0.293 processus AR(2) et AR(5).

On peut conclure de cette étape que c’est un processus ARIMA (2,1, 1).et

ARIMA (5, 1,1)

43
5eme étape : Estimation des paramètres du modèle pour le modèle
ARIMA(2,1,1)

Crée un
Analyse Prévisions
modele

Il est nécessaire de vérifier l’hypothèse d’un bruit blanc pour les résiduels. Cette
vérification se fait par le test de Ljung-Box. L’hypothèse du bruit blanc est jugée
acceptable si sig. est supérieure à 0,05.

Estimation des paramètres

Modèle Nombre de Statistiques de Ljung-Box Q(18) Nombre de


variables qualité valeurs
indépendantes d'ajustement du éloignées
modèle

R-deux Statistiques DDL Sig.


stationnaire

Qt PSIA-Modèle_1 0 ,328 13,740 15 ,545 0

Dans notre cas 0,545 est supérieur à 0,05 donc l’hypothèse du bruit blanc est validé.

Cette étape consiste essentiellement à juger si le modèle choisit est acceptable. Pour
se faire deux méthodes sont possible :

44
1ere méthode : analyse de corrélo-gramme des FAC résiduel et des
FACP résiduel

Interprétation :

Tous les pics des FAC et FACP résiduels sont à l’intérieur de l’intervalle de
confiance donc l’hypothèse de Bruit Blanc est significative , le modèle étudier est
acceptable .

2eme méthode : analyse du tableau des paramètres du modèle ARIMA

45
Estimation SE t Sig.

Constante 6,239 3,942 1,583 ,120

Lag 1 -,721 ,269 -2,679 ,010


AR
Qt PSIA-Modèle_1 Qt PSIA Aucune transformation Lag 2 -,492 ,147 -3,347 ,002

Différence 1

MA Lag 1 -,166 ,310 -,535 ,595

On choisis la signification qui est proche de 0


A partir de ce tableau on remarque qu’in y a deux paramètres non significatifs qui
doivent être supprimés afin d’adapter le modèle de telle sorte a ce qu’il soit
significatif (p=1 et q=1).
AR(2) et MA(0) modèle ARIMA(2,1,0).

 Estimation des paramètres du modèle pour le modèle ARIMA(5,1,1)

Méthode : analyse du tableau des paramètres du modèle ARIMA(5,1,1,)

Paramètres du modèle ARIMA

Estimation SE t Sig.

Constante 6,925 2,350 2,947 ,005

Lag 1 -,726 ,393 -1,849 ,071

Lag 2 -,603 ,266 -2,270 ,028

AR Lag 3 -,323 ,262 -1,234 ,223


Qt PSIA-Modèle_1 Qt PSIA Aucune transformation
Lag 4 -,418 ,163 -2,568 ,013

Lag 5 -,364 ,150 -2,420 ,019

Différence 1

MA Lag 1 -,109 ,424 -,258 ,798

On choisis la signification qui est proche de 0


A partir de ce tableau on remarque qu’in y a cinq paramètres non significatifs qui
doivent être supprimés afin d’adapter le modèle de telle sorte a ce qu’il soit
significatif (p=1,2,3,5 et q=1).
AR(2) et MA(0) modèle ARIMA(4,1,0).

46
6eme étape : équation du modèle ARIMA (5, 1, 0)

Yt = -0,418 (Yt-4 – 6,925) -0,364(Yt-5 – 6,925) + 6,925

Yt =- 0,418 Yt-4 – 0,364 Yt-5 + 12, 34035

5ème étape : graphe de la série et prévisions

 Ajustement : Les prévisions du modèle pour la période d’estimation ;


 UCL et LCL : Les intervalles de confiance pour la période de prévision.

47
Le tableau des prévisions s’affiche dans la feuille des résultats.

Conclusion
Notre travail est basé sur l’application de la méthode de Box-Jenkins sur des
données réelles noté « PSIA » qui représente la quantité vendues des produits des
comptes d’investissement (MOUDARABA ET MOUCHARAKA), avant de
prévoir, en utilisant les modèles ARIMA, à l’aide de test d’ADF, les auto-corrélation,
les auto-corrélation partiels et les critères d’information notamment AIC et BIC.

On peut conclure à des valeurs prévisionnelles et des résultats satisfaisants et


homogènes qui nous confortent dans notre conviction que la méthode utilisée est la
plus adéquate pour effectuer notre étude.

48
Bibliographie
Charpentier, A. (2004). Cours des séries temporelles. Théorie et
Applications.
Université de Paris.
Méthode Statistiques En gestion : Michel Tenenhaus Professeur au
Groupe HEC, édition Dunod
Régie Bourbonnais : Econométrie manuel et exercices corrigés
4ème édition
Econométrie : Claudio Araujo, Jean-François Brun, JeanLouis
Combès
IBM SPSS Forecasting
Analyse chronologique, louis phlips, Ronald blomme, carinevandet
gerghe louvaiun la neuve : cabay 1981
Méthodes de prévision, Bernard Coutrot et Fernand Droesberke,
paris presses universitaire de France 1984
Jack Johnston et John DINARDO « Méthodes économétriques
Box, G.E.P., Jenkins, G.M. et Reinsel, G.C. (2008). Time Series
Analysis, Forcasting and Control, Fourth Edition. WILEY, New
Jersey.
Brouks, CH. (2008). Introductory Econometrics for Finance, Third
Edition. Cambridge University Press, New Yourk
Quelques articles- cours d’internet

49

Vous aimerez peut-être aussi