Vous êtes sur la page 1sur 24

Présenté par :

MALI Abderrahmane

[LES SERIES CHRONOLOGIQUES : PRÉVISION


MIFTAH Hiba
CHEMLAL Zakaria
BOURAS Hajar

À PARTIR D’UN MODELE ARIMA]


Encadré par :
MR. DOUMI Karim
Sommaire
Introduction aux séries chronologiques......................................................................................................3
1. Définition d'une série chronologique:..............................................................................................3
2. Les composants d'une chronique :...................................................................................................3
Section 1 : Les méthodes de prévisions.......................................................................................................5
1. Les méthodes qualitatives :..............................................................................................................5
2. Les méthodes quantitatives :............................................................................................................5
3. Comment construire un modèle de prévision :................................................................................7
Section 2 : Technique descriptive décomposition des chroniques.............................................................8
1. Définition :........................................................................................................................................8
2. Historique :.......................................................................................................................................9
3. Principe des méthodes de lissage exponentiel :...............................................................................9
4. Caractéristiques des méthodes de lissage exponentiel :................................................................10
5. Les différents lissages exponentiels :..............................................................................................10
6. Choix des paramètres de lissage :...................................................................................................11
Section 3 : Les modèles ARIMA.................................................................................................................12
I. Introduction au modèle ARIMA :....................................................................................................12
II. La méthodologie de BOX et JENKINS :............................................................................................14
1- Identification :............................................................................................................................15
2- Estimation :................................................................................................................................16
3- Le diagnostic :............................................................................................................................16
Section 4 : Application sur SPSS : prix de tomates....................................................................................17
1ère étape : étude de stationnarité de la série.........................................................................................17
2ème étape : Détermination des ordres p et q du processus ARIMA........................................................18
3ème étape : estimation des paramètres du modèle................................................................................20
4ème étape : équation du modèle ARIMA (3, 0, 0) sans p = 2...................................................................23
5ème étape : graphe de la série et prévisions...........................................................................................23
Introduction aux séries chronologiques 

1. Définition d'une série chronologique:


Une série chronologique ou une chronique est un ensemble d'observations d'une
grandeur donnée, ordonnées dans le temps. L'ordre des données y est évidemment
essentiel.

Les données ne sont pas indépendantes entre elles (c.à.d. que ce qui ce passe
aujourd'hui fonctionne essentiellement de ce qui s'est passé hier car si le présent ou le
futur sont déconnectés totalement du passé il n'y aura pas de méthodes de prévisions
possibles) L'ordre est important parce que le passé détermine le futur et parce qu'il
peut y avoir auto-corrélation c'est à dire que l'observation Yt est corrélée avec Yt-1 ou
Yt-2, ...

L'objectif de l'analyse des chroniques :

- Description/ explication d'un phénomène: ex. chômage.


- Prévision : ex. consommation d'électricité, les ventes.
- Etude de la dynamique: ex. cours d'actions.

2. Les composants d'une chronique :


- Trend/Tendance: comportement de long terme (la durée diffère selon le cas
étudié) ou l'évolution globale. La tendance est souvent linéaire ou exponentielle.
- Saisonnier : effets répétés dans l'année/fluctuations périodiques. Mais le
terme saisonnier ne fait pas allusion au saison dans son sens concret mais
plutôt un cycle annuel c'est à dire des variations en fonction des trimestres,
des mois, ...

- Irrégulier: Un effet à court terme et aléatoire et qu'on ne peut pas expliquer.


Section 1 : Les méthodes de prévisions

1. Les méthodes qualitatives :


(Etude de marché, les sondages, les enquêtes, Delphi, panel d'experts...) ce sont des
méthodes qui ne sont pas basées sur les chiffres mais sur la connaissance de
l'environnement tels que l'opinion des commerçants qui ont une connaissance sur le
marché dans le but de faire des prévisions de la demande des clients. C'est une
indication fondamentale pour réaliser des prévisions fiables par le rapprochement
des analyses quantitatives avec les estimations qualitatives.

2. Les méthodes quantitatives :

- L’ajustement par la méthode des points extrêmes : La méthode des points


extrêmes est une méthode d’ajustement linéaire d’équation y = a x + b
déterminée à partir des coordonnées des deux points extrêmes d’une série
d’observations sur la période analysée.

- L'ajustement par la méthode des moindres carrés : il s'agit de rechercher les


paramètres de la fonction Y = F(x) qui rendent la plus faible possible la somme
des carrés des distances entre la valeur observée yi de la variable et sa valeur
ajustée yi'.

Cette méthode a pour objectif d'ajuster les données statistiques par une droite de la
forme y = Bx + C. Il s'agit de déterminer les paramètres B et C de la droite d'ajustement.

Le coefficient directeur de la droite des moindres carrées B ainsi est obtenu:

- les moyennes mobiles: Cette méthode est utilisée pour établir des prévisions
qui présentent des fluctuations régulières. Elle consiste à dégager une
tendance générale et une tendance saisonnière. Elle repose sur le calcul des
moyennes mobiles à partir des valeurs observées.
Cette méthode touche les phénomènes accidentels en permettant un lissage des
informations observées, mais elle élimine des informations en début et en fin de série.
Par ailleurs, elle ne donne pas une droite d'équation connue qui peut facilement se
prêter à des prévisions. C'est pourquoi l'ajustement par la méthode des moindres carrés
est préféré.

- Les moyennes mobiles centrées: La méthode consiste à remplacer chaque


observation par la moyenne d'un groupe d'observation dont elle est le centre.

- Ajustement par les coefficients saisonniers (TREND): c'est une approche où


le prévisionniste peut disposer d'un véritable catalogue d'estimations, qu'il
comparera aux approches effectuées pour établir une prévision.

On recherche d'abord l'équation du trend par la méthode des moindres carrés (équation
de la forme Y = Bx + C), puis on calcule à partir de cette équation des valeurs ajustées
correspondantes à chaque période pour trouver par la suite les coefficients saisonniers
(coef sai = valeur observée/ valeur ajustée) et enfin calculer un coefficient moyen
permettant de faire des prévisions fiables.

- Ajustement par la méthode des totaux mobiles: La méthode des totaux


consiste à annuler la composante saisonnière des données pour procéder à
l'étude de la tendance.

La méthode des totaux mobiles permet de " lisser " les données c'est à dire d'éliminer
l'impact de la saisonnalité sur les variables. Cette méthode est la plus utilisée pour
procéder à la correction des variations saisonnières que ce soit par les entreprises ou par
les instituts économiques surtout.

Le but de la méthode est de dégager une tendance générale dans le cas d'une série
chronologique à variations saisonnières. Pour cela on effectue l'ajustement, non pas sur
les valeurs de la série elles-mêmes mais sur les totaux mobiles obtenus, successivement,
à partir des dites valeurs.
3. Comment construire un modèle de prévision :

- Etape 1 : Construire un modèle qui correspond bien aux données historiques


à partir des valeurs observées Yt ce qui va permettre de calculer des
prévisions.

Yt = Valeur réelle observée de Y à l'instant t.

Ft = Prévision de Yt

Et = Yt - Ft = erreur de prévision.

- Etape 2 : mesurer l'erreur c'est à dire comment valider le modèle de


prévision? : Comparer ce que donne le modèle à ce que est connu déjà, puis
appliquer le modèle au passé et comparer son résultat avec ce qui s'est
réellement passé et par la suite procéder à la mesure de l'écart qui est
l'erreur.

- Etape 3 : Utiliser le modèle qui a donné l'erreur la plus faible pour faire des
prévisions.
Section 2 : Technique descriptive
décomposition des chroniques

1. Définition :
Technique statistique utilisée afin de calculer des prévisions à l’aide d’une courbe
exponentielle. Dès lors que les coefficients de pondération des observations diminuent
géométriquement avec l’éloignement de ces observations, les valeurs récentes ont une
plus grande importance.

- La formule est la suivante :

Le coefficient alpha, compris entre 0 et 1, s’applique à la dernière réalisation. C’est la


constante de lissage (ou coefficient de lissage) que l'on s'est choisie. Évidemment, si elle
est égale à 1, on ne fait que reporter en t + 1 l’observation de la période t.

Le coefficient (1 – α) s’applique quant à lui à la prévision précédente… qui ne s’est


probablement pas réalisée (que l’art de la prévision est difficile !…).

Notez bien que la présentation de cette formule est un peu déstabilisante puisque t est
le moment où la prévision a été faite et non celui où elle doit se réaliser. Ceci n'est pas
gênant dans la mesure où l'on reporte en t + 1 une valeur obtenue pour t.

- Si vous avez l’impression qu’on marche sur la tête en se basant sur des erreurs
pour prévoir l’avenir, la formule suivante vous paraîtra plus normale, bien
qu’elle revienne au même :

En choisissant α = 0,3, la dernière observation est donc pondérée à 30 %, la précédente à


0,3 × 0,7 = 21 %, celle d’avant à 14,7 % et ainsi de suite jusqu’au début de la série (ce
n’est évidemment pas cette formule qu’on s’amuse à programmer !) L'un des avantages
de cette présentation est de comprendre pourquoi on appelle ce lissage EXPONENTIEL
(décroissance exponentielle des pondérations lorsqu'on remonte dans le temps).
Enfin, il est évident que la prévision n'a pour horizon que t + 1. Toutes les prévisions à
horizon plus lointain seraient exactement les mêmes...Quelques détails techniques
restent à régler.

- La prévision initiale :

En raison de la formule récurrente du LES, on est obligé de CHOISIR une valeur à partir
de laquelle les prévisions seront effectuées. Cette valeur n’a que peu d’importance si la
série est longue. On prend souvent la moyenne des deux ou trois premières
observations mais ce choix est arbitraire. Les logiciels non spécialisés en prévision
utilisent la première valeur.

2. Historique :
Les méthodes de prévision se sont développées au cours de la seconde moitié du XXe
siècle. La méthode de lissage exponentiel simple a été introduite par Brown en 1962.Elle
a ensuite été généralisée par Holt et Winters. Ces méthodes sont largement diffusées et
utilisées. Leur succès est dû à la fois à leur simplicité et à la qualité des prévisions
obtenues.

3. Principe des méthodes de lissage exponentiel :


 Les méthodes de lissage exponentiel sont des méthodes de prévision à court
terme.

 Elles supposent que le phénomène étudié ne dépend que de ses valeurs passées.

 Ce sont des méthodes d'extrapolation qui donnent un poids prépondérant aux


valeurs récentes : les coefficients de pondération décroissent exponentiellement
en remontant dans le temps.

 Chacune des méthodes dépend d'un ou plusieurs paramètres (paramètres de


lissage) compris entre 0 et 1.

 Le poids de chacune des valeurs passées se calcule à partir de ces paramètres.


4. Caractéristiques des méthodes de lissage exponentiel :
- Simplicité des calculs
- Petit nombre des données à garder en mémoire
- Elles permettent de travailler sur des séries courtes ou changeantes de
structure.

 Cependant, on considère que :

- Pour une série sans saisonnalité, un historique d'au moins observations est
nécessaire
- Pour une série avec saisonnalité, un historique d'au moins années est nécessaire
(au moins 16 observations pour une série trimestrielle, au moins 48 observations
pour une série mensuelle).

 Le succès de ces méthodes est dû à :


- Leur simplicité
- La qualité des prévisions obtenues.

5. Les différents lissages exponentiels :


 Le lissage exponentiel simple dépend d'un seul paramètre de lissage

 Le lissage de Holt dépend de deux paramètres : l'un relatif au niveau, l'autre à la


tendance

 Le lissage de Winters dépend de trois paramètres : l'un relatif au niveau, un autre


relatif à la tendance, et le dernier à la saisonnalité.
6. Choix des paramètres de lissage :

Cours d'une action (en DH)

Interprétation :

- illustration du choix de la valeur des paramètres de lissage

Pour cette série «Cours d'une action série sans tendance, ni saisonnalité, mais avec un
changement de niveau, on a réalisé deux lissages exponentiels simples (le LES nécessite
le choix d'un seul paramètre) :

- avec un paramètre de lissage α= 0.4


- avec un paramètre de lissage α= 0.9

Pour un paramètre de lissageα=0.9, on s'adapte beaucoup plus vite au changement de


niveau que pour un paramètre α=0.4

Les pondérations décroissent exponentiellement en remontant le passé. La décroissance


est d'autant plus rapide que le paramètre de lissage est élevé.

Pour un paramètre de lissage égal à 0.9 les pondérations des premières observations
sont donc beaucoup plus faibles que pour un paramètre de lissage égal à 0.4

C'est la raison pour laquelle on s'adapte beaucoup plus rapidement à un changement de


niveau avec un paramètre de lissage élevé.
Section 3 : Les modèles ARIMA
BOX et JENKINS ont proposé au cours des années 1970 une démarche systématique
permettant d’aboutir au choix d’un modèle de type ARIMA.

Ce modèle a été introduit pour reconstituer le comportement d’un processus soumis à


des chocs aléatoires au cours du temps c.à.d. entre deux observation successives d’un
série de mesures portant sur l’activité du processus, un événement aléatoire appelé
perturbation, vient affecter le comportement temporel de ce processus, ainsi modifier
les valeurs de la série chronologique des observations.

Le modèle ARIMA permet de combiner 3 types de processus temporels :

- Le processus autorégressif (AR autoregressive)


- Le processus intégrés (I integrated)
- Les moyennes mobiles (MA moving average)

Dans le cas le plus général, un modèle ARIMA combine 3 types de processus aléatoire. La
contribution de chacun d’eux est précisée par la notation ARIMA (p,d,q) où p est l’ordre
de processus autorégressif Ar (p) , d est le degrés d’intégration du processus I (d), et q
est l’ordre de la moyenne mobile MA (q).

I. Introduction au modèle ARIMA :


1- Les processus autorégressifs : ( AR )
Chaque valeur de la série est une combinaison linéaire des valeurs précédentes.

Si la valeur de la série à l’instant t, Yt ne dépend que de la valeur précédente Yt-1 à une


perturbation aléatoire prés εt, le processus est dit autorégressif du premier ordre AR(1)
quand :

Yt = Yt-1 x φ1 + εt

Ce même processus est dit autorégressif du 2ème ordre AR (2) quand :

Yt = Yt-1 x φ1 + Yt-2 x φ2 + εt
Le coefficient de régression φ exprime la force de liaison linéaire entre deux valeurs
successives. Si la valeur du coefficient de régression φ est entre -1 et 1, l’effet de chaque
perturbation εt aléatoire sur le système tend à décroitre au cours du temps.

On peut dire qu’un processus autorégressif possède une mémoire au sens ou chaque
valeur est corrélée à l’ensemble des valeurs qui la précède, c.à.d. la valeur à l’instant t de
Yt est en fonction de la valeur précédente Yt-1 qui est elle-même fonction de Yt-2.

2- Les processus intégrés : ( I )


Une série chronologique déterminée par l’effet cumulatif d’une activité appartient à la
classe des processus intégrés.

Par exemple : le stock est modifié à chaque instant par les entrées « 
approvisionnements » et les sorties «consommations », cependant le niveau moyen de
ces stocks dépends essentiellement de l’effet cumulé des changements instantanés sur
la période entre les deux inventaires. Sur le court terme la valeur des stocks fluctue avec
des aléas importants, alors que sur le long terme, le niveau de la série reste inchangé.
Même si le comportement d’une série est erratique c.à.d. instable, les différences d’une
observation à l’autre peuvent être relativement faibles.

Cette stationnarité de la série des différences, pour un processus intégré, est une
caractéristique importante du point de vue de l’analyse statistique des séries
chronologiques (on va détailler ça dans la partie méthodologie).

Un exemple de processus I(1), intégré d’ordre 1  :

I (1)  : Yt = Yt-1 + εt

εt est le bruit blanc c.à.d. un processus stationnaires dont les accroissements sont
indépendants et stationnaire (c.à.d. la même chose se reproduit dans le temps)

Un processus intégrés est dit d’ordre 1 si la série des différences premières est
stationnaire I (1).

Le processus intégrés est dit marche aléatoire, car c’est un processus autorégressif
d’ordre 1 dont le coefficient de régression est égal à 1, c.à.d. elle ne possède de
mémoire que pour la série précédente.
3- Les processus de moyennes mobiles : ( MA )
Un processus de moyennes mobiles est la combinaison linéaire entre la perturbation
courante εt avec une ou plusieurs perturbations précédentes.

L’ordre de la moyenne mobile indique le nombre de périodes précédentes incorporées


dans la valeur courante.

Ainsi, une moyenne mobile d’ordre 1, MA(1), est définie par l’équation suivante :

MA (1)  : Yt = εt – φ x εt-1

La différence entre moyenne mobile et autorégressif :

- Le processus des moyennes mobiles prend les moyennes pondérées des plus
récentes perturbations, et la perturbation aléatoire affecte la série pour un
nombre fini d’observation (qui est l’ordre de la moyenne) puis au delà de cette
valeur, elle cesse brutalement d’exercer une quelconque influence.
- Le processus autorégressif prend des moyennes pondérées des valeurs
précédentes, et l’effet de la perturbation décroit tout au long de la série au fur et
à mesure que le temps s’écoule.

II. La méthodologie de BOX et JENKINS :


On utilise ses 3 types de processus : autorégressif, intégrés et moyenne mobile pour
construire un modèle restituant (une représentation fidèle) le comportement d’une
série temporelle. Selon une procédure basée sur 3 étapes :

- Identification
- Estimation
- Diagnostic

Il convient de réitérer (c.à.d. refaire) ses étapes jusqu’à ce que le résultat soit
satisfaisant.

1- Identification :
On suppose qu’on a éliminé les composantes saisonnières de la série chronologique, car
ils nécessitent un autre ensemble de paramètres.

Il faut identifier la décomposition retenue de la série chronologique selon les 3 types de


processus en spécifiant les paramètres p,d,q du modèle ARIMA(p,d,q)
Avant d’identifier ces paramètres, il convient tout d’abord vérifier la stationnarité de la
série.
- Un processus est dit faiblement stationnaire si son espérance et sa variance sont
constantes et sa covariance ne dépend que de l’intervalle de temps.

Si la série n’est pas stationnaire c.à.d. si la moyenne de la série varie sur le court terme
ou que la variabilité de la série est plus élevée sur certaines périodes que sur d’autres, Il
faut les rendre stationnaire.
Pour les rendre stationnaire, la transformation la plus courante est la différenciation de
la série c.à.d. chaque valeur de la série est remplacée par la différence de cette valeur et
celle qui la précède.

La stationnarité une fois obtenue, l’étape suivante consiste à analyser le graphe de la


fonction d’autocorrélation (FAC) et celui d’autocorrélation partielle (FAP) pour
déterminer (p,d,q) du modèle.
Le paramètre d est fixé par le nombre de différenciation effectuées pour rendre la série
stationnaire, généralement d n’excède pas 2. Une fois ce paramètre fixé, il convient de
spécifier l’ordre p du processus AR et q du processus MA, les corrélogrammes (graphes
FAC et FAP) permettent selon leurs aspects d’identifier correctement les paramètres p et
q, généralement ces valeurs n’excédent pas 2 eux aussi.

La fonction d’autocorrélation (FAC) constitue l’ensemble des autocorrélations de


la série :
Ρk = corr (Yt, Yt-k)
Calculée pour des décalages d’ordre k, le décalage maximum de k admissible pour
que le coefficient d’autocorrélation ait un ses est k = n /3 (avec n : le nombre
d’observation temporelle).
La fonction d’autocorrélation partielle (FAP) est constituée par l’ensemble des
autocorrélations partielles, il mesure la corrélation entre les variables Yt et Yt-k.
Les corrélogrammes affichent les intervalles de confiance à 95% qui permettent
de déterminer quels sont les coefficients statistiquement significatifs à prendre en
compte.

L’interprétation des corrélogrammes pour la spécification des processus AR et MA


est généralement gouvernée par les règles suivantes :
• les processus autorégressifs d’ordre p, AR(p), présentent une fonction
d’autocorrélation dont les valeurs décroissent exponentiellement avec des
alternances possibles de valeurs positives et négatives ; leur fonction
d’autocorrélation partielle présente exactement p pics aux p premières valeurs du
corrélogramme d’autocorrélation partielle ;
• les processus de moyenne mobile d’ordre q, MA(q), présentent exactement q pics aux
q premières valeurs du corrélogramme de la fonction d’autocorrélation et des valeurs
exponentiellement décroissantes de la fonction d’autocorrélation partielle ;
• si la fonction d’autocorrélation décroît trop lentement, on conseille de différencier la
série avant l’identification du modèle.

2- Estimation :

La procédure ARIMA du module SPSS Séries chronologiques permet selon un algorithme


rapide d’estimation du maximum de vraisemblance, d’estimer les coefficients du modèle
que vous avez identifié au préalable en fournissant les paramètres p, q et d. L’exécution
de la procédure ajoute de nouvelles séries chronologiques représentant les valeurs
ajustées ou prédites par le modèle.

3- Le diagnostic :

Dans cette étape finale du triptyque identification-estimation-diagnostic de la méthode


de Box et Jenkins, les principales vérifications à effectuer portent sur les éléments
suivants :

- les valeurs des fonctions d’auto-corrélation et d’auto-corrélation partielle de la


série des résidus doivent être toutes nulles ; si les auto-corrélations d’ordre 1 ou 2
diffèrent significativement de 0, alors la spécification (p,d,q) du modèle ARIMA est
probablement inadaptée.

- les résidus ne doivent présenter aucune configuration déterministe : leurs


caractéristiques doivent correspondre à celle d’un bruit blanc. Une statistique
couramment utilisée pour tester un bruit blanc est le Q’ de Box et Ljung

Section 4 : Application sur SPSS : prix de


tomates

La série chronologique suivante représente les prix des tomates dans le marché de gros
d’OUJDA 1/2010-11/2013.

Moi 01 02 03 04 05 06 07 08 09 10 11 12
s
2010 3,00 6,00 7,50 12 8,50 4,00 2,20 1,80 2,50 5,00 6,60 6,00
2011 5,00 4,50 4,00 2,00 2,00 2,50 2,50 4,00 2,50 2,00 1,50 3,60
2012 5,00 2,50 4,00 2,80 2,50 3,80 3,00 2,50 2,80 6,00 2,80 7,00
2013 3,50 3,60 2,30 2,70 3,40 3,80 2,70 2,50 3,40 3,80 3,00 -

L’objectif est de prévoir les prix de tomates dans le marché de gros d’Oujda de
décembre 2013 jusqu’à décembre 2014 à partir du processus ARIMA.

1ère étape : étude de stationnarité de la série


Analyse èPrévision è Diagramme séquentiel

L’étude de stationnarité de la série se fait sur le programme « EVIEWS », sur SPSS on se


contentera de jeter un coup d’œil sur l’allure du diagramme.
D’après le graphe, cette série semble être stationnaire vu qu’elle ne présente pas une
rupture de tendance d’une part, d’autre part, on remarque que la volatilité des valeurs
ne s’accroit pas au file du temps. On peut dire maintenant qu’on est devant un
processus ARIMA (p, 0, q).

2ème étape : Détermination des ordres p et q du processus ARIMA


Analyse  Prévision  autocorrélation

Pour cette étape, on utilise les corrélogrammes des fonctions d’autocorrélations et


d’autocorrélation partielle.

 Détermination de q :

Le corrélogramme d’autocorrélation nous permet de déterminer l’ordre q du processus.


Les autocorrélations qui ne dépassent pas les limites de confiance sont considérées
comme nulles et par conséquent doivent être négligées.

On constate qu’on est devant un processus ARIMA d’ordre q = 1.

 Détermination de p :

Pour déterminer « p » on utilise le corrélogramme d’autocorrélation partielle.

Même démarche, on néglige les autocorrélations inferieures aux limites de confiance.


Donc on peut constater que p=3.

N.B : - On choisit toujours l’ordre le plus grand, que ce soit pour FAC ou le FAP ;

- p = 3 inclue les 3 valeurs 1, 2 et 3.

On peut conclure de cette étape que c’est un processus ARIMA (3, 0, 1).
3ème étape : estimation des paramètres du modèle
Analyse  Prévision  créer un modèle

Il est nécessaire de vérifier l’hypothèse d’un bruit blanc pour les résiduels. Cette
vérification se fait par le test de Ljung-Box. L’hypothèse du bruit blanc est jugée
acceptable ssi sig. est supérieure à 0,05.

Dans notre cas 0,801 est supérieur à 0,05 donc l’hypothèse du bruit blanc est
acceptable.

Cette étape consiste essentiellement à juger si le modèle choisit est acceptable. Pour se
faire deux méthodes sont possible :

 Méthode basée sur le corrélogramme des FAC résiduel et des FAP résiduel  :
Ce modèle est acceptable puisque toutes les FAC et FAP résiduels sont inferieur au seuil
critique.

 Méthode basée sur le tableau des paramètres du modèle :

Sur ce tableau, le degré de signification de (l’erreur) doit être proche de zéro.

A partir de ce tableau on remarque qu’in y a deux paramètres non significatifs qui


doivent être supprimés afin d’adapter le modèle de telle sorte a ce qu’il soit
significatif (p=2 et q=1).
On est tenue d’estimer à nouveau les paramètres du modèle ARIMA (3, 0,0) sans p = 2.
La syntaxe de ce 2ème modèle s’écrit comme suit :

Les résultats obtenus sont les suivant :

On accepte ce modèle ARIMA (3, 0,0) sans p = 2 pour cette série des prix de tomates.

4ème étape : équation du modèle ARIMA (3, 0, 0) sans p = 2


En utilisant le tableau des paramètres du modèle on peut écrire l’équation du modèle.

Yt = 0,635 (Yt-1 – 3,769) -0,314 (Yt-3 – 3,769) + 3,769

Yt = 0,635 Yt-1 – 0,314 Yt-3 + 2,559


5ème étape : graphe de la série et prévisions

Avec :

- Ajustement : Les prévisions du modèle pour la période d’estimation ;


- UCL et LCL : Les intervalles de confiance pour la période de prévision.

Tableau de prévisions :

Moi 01 02 03 04 05 06 07 08 09 10 11 12
s
2013 - - - - - - - - - - - 3,4
2014 3,5 3,9 3,9 4,0 3,9 3,8 3,7 3,7 3,7 3,8 3,8 3,8

Remarque : en cas d’existence de plusieurs modèles acceptables, le choix se fait sur la


base du BIC Standardisée, RMSE, MAPE (pourcentage d’erreur absolue maximum), MAE
(erreur absolue maximum) avec :
- RMSE : racine carrée du MSE (Mean Square Error, erreur quadratique moyenne)
c’est la moyenne arithmétique des carrés des écarts entre les prévisions et les
observations ;
- MAE : (Mean Absolute Error) c’est la moyenne arithmétique des valeurs absolues
des écarts.
- MAPE : (Mean Absolute Percentage Error, L’erreur absolue moyenne en
pourcentage) c’est la moyenne des écarts en valeur absolue par rapport aux
valeurs observées.
- BIC standardisé : criteres d’information bayésien.
Le modèle le plus pertinent est celui dont les valeurs des critères de choix sont les plus
faibles.