Académique Documents
Professionnel Documents
Culture Documents
Faculté de Mathématiques
Mémoire
En vue de l’obtention du Diplôme de MASTER
Modélisation Stochastique et Prévision en Recherche Opérationnelle
(MSPRO)
Thème
Etude prévisionnelle des ventes des carburants terre dans la région
centre du pays
La consommation des produits pétroliers ra¢ nés a connu une forte augmentation ces
dernières années2 , sous l’e¤et conjugué de plusieurs facteurs. Citons parmi ces facteurs la
forte croissance économique et les grands projets lancés (politique d’investissement de l’Etat
dans di¤érents secteurs), l’accroissement de la population nationale, les besoins en énergie
électrique et tout particulièrement, l’expansion du parc automobile.
Dans le but d’analyser l’évolution des ventes des carburants (essence normale, essence
super, essence sans plomb et gasoil) de l’entreprise NAFTAL, nous nous intéressons à
l’élaboration des modèles de prévision qui peuvent être utilisés dans la compréhension de
l’évolution des ventes de chaque carburant par rapport à son historique.
Mots-clés : Prévision, Modèle SARIMA, mélange de modèle, Modèle MAR, Modèle MPAR.
i
Dédicace
Mes très chers parents, qui m’ont toujours aidé et soutenu pour arriver au terme de
mes études.
Tous mes amis, en particulier mes copains de chambre : Hichem SOUISSI , Ramzi
DAOUS et Faouzi BEN AMOUR sur qui j’ai toujours pu compter.
Tous les gens que j’aime et dont je n’ai pas cité les noms.
MANAA Abderrahmen.
ii
Remerciements
Avant tout, je remercie Allah le tout puissant qui m’a donné la force, le courage, la
volonté et la patience pour accomplir ce modeste travail.
Je tiens en premier lieu à exprimer mes plus vifs remerciements à mon encadreur Mon-
sieur HAMDI Fayçal, pour son aide, sa patience et le soutien moral qu’il n’a cessé de me
prodiguer tout au long de la réalisation de ce travail.
Je ne saurais oublier de remercier tous mes professeurs et toutes les personnes ayant
contribué de près ou de loin à l’aboutissement de ce travail.
Pour …nir mes derniers mots de remerciements vont tout naturellement à ma famille et
mes amis.
iii
Table des matières
Résumé i
Dédicace ii
Remerciements iii
Introduction 1
1 Préliminaires 4
1.1.2 Stationnarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 Ergodicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
iv
Table des matières
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
v
Table des matières
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.5 Modélisation de la série des ventes carburants par la classe des modèles MPAR129
Conclusion 144
Bibliographie 153
vi
Liste des Figures
vii
LISTE DES FIGURES
4.22 Représentation graphique des séries estimés, réelle et celle des résidus . . . . . . . 111
4.30 Représentation graphique des séries estimés, réelle et celle des résidus . . . . . . . 125
viii
Liste des …gures
4.45 Densité prédictive pour l’horizon 1 aux instants t = 120 et t = 150 . . . . . . . . 142
4.46 Densité prédictive pour l’horizon 1 aux instants t = 100 et t = 200 . . . . . . . . 143
4.47 Densité prédictive pour l’horizon 1 aux instants t = 130 et t = 140 . . . . . . . . 143
4.48 Densité prédictive pour l’horizon 1 aux instants t = 110 et t = 170 . . . . . . . . 143
ix
Liste des Tables
4.1 Résultat de simulation pour 1000 réplications d’un modèle M AR(3; 2; 1; 3), avec
n = 200 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.2 Résultat de simulation pour 1000 réplications d’un modèle M AR(3; 2; 1; 3), avec
n = 500 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.3 Résultat de simulation pour 1000 réplications d’un modèle MAR(3,2,1,3), avec n=1000 73
4.4 Résultat de simulation pour 1000 réplications d’un modèle MAR(2,1,1), avec n=200 73
4.5 Résultat de simulation pour 1000 réplications d’un modèle MAR(2,1,1), avec n=500 73
4.6 Résultat de simulation pour 1000 réplications d’un modèle MAR(2,1,1), avec n=1000 74
x
LISTE DES TABLES
xi
LISTE DES TABLES
4.57 Résultat d’estimation d’un modèle SARIM A(0; 1; 13)(1; 1; 1)6 . . . . . . . . . . 123
4.64 Les valeurs du critère BIC des di¤érents modèles estimés . . . . . . . . . . . . 130
xii
Liste des tables
4.66 Les valeurs du critère BIC des di¤érents modèles estimés . . . . . . . . . . . . 134
4.68 Les valeurs du critère BIC des di¤érents modèles estimés . . . . . . . . . . . . 136
4.70 Les valeurs du critère BIC des di¤érents modèles estimés . . . . . . . . . . . . 139
4.73 Prévisions et réalisations des ventes d’essence sans plomb (unité TM ) . . . . . . 148
xiii
Introduction
Le développement d’une nation réside non seulement dans la disponibilité des ressources
humaines de qualité, mais aussi des ressources naturelles. L’une des ressources naturelles les
plus recherchées est le carburant, un produit de première nécessité dans le monde entier, et
à la base de toutes les activités économiques.
La consommation des produits pétroliers ra¢ nés a connu une forte augmentation ces
dernières années sous l’e¤et conjugué de plusieurs facteurs, à savoir la forte croissance
économique et les grands projets lancés (politique d’investissement de l’Etat dans di¤érents
secteurs), l’accroissement de la population nationale, les besoins en énergie électrique et tout
particulièrement l’expansion du parc automobile. En e¤et, la mobilité au sens large est dev-
enue le trait dominant de la société avec le véhicule particulier comme symbole prépondérant,
et en passant d’un produit de luxe rare à un objet massivement distribué, l’automobile est
devenue un élément incontournable. Cependant, ce besoin légitime de mobilité des personnes
et des marchandises, une caractéristique essentielle du monde moderne, a d’importantes im-
plications qu’il est nécessaire de prendre en charge, notamment la préoccupation de concilier
la satisfaction du besoin de mobilité avec celui d’une rationalité économique en relation avec
le marché des carburants.
A cet égard, l’idée d’investir dans le secteur des hydrocarbures qui occupe une place
stratégique dans l’économie algérienne, et joue le rôle de locomotive pour la relance économique,
reste toujours d’actualité, surtout dans le domaine de la distribution des produits pétroliers
où les enjeux de pro…tabilité sont majeurs.
NAFTAL est une société par action, elle est chargée principalement de la distribution et la
commercialisation des produits pétroliers et dérivés sur le marché national. La Branche Car-
burant est l’une des quatre Branches de NAFTAL, elle a pour mission l’approvisionnement,
le stockage et la livraison des carburants aviation, marine et terre.
1
Introduction
A…n de mieux s’adapter aux nouveaux enjeux économiques, notamment la mise en oeu-
vre de nouvelles capacités de production (construction de 5 nouvelles ra¢ neries à Biskra,
Ghardaïa, Tiaret, Hassi Messaoud et Skikda ; exercice 2020), et dans le but de garder sa po-
sition de leader dans un marché qui évolue dans un contexte concurrentiel, NAFTAL cherche
à assurer une meilleure maîtrise de la demande du marché national en hydrocarbures, ce qui
lui permettra d’écarter des risques de pénuries, d’éviter des pertes …nancières et de garantir
comme objectif la satisfaction de sa clientèle.
En vue de ces objectifs, NAFTAL se doit de moderniser ses méthodes de gestion en ayant
recours, entre autre, à un outil essentiel qui est la statistique. L’action ou la prise de décision
repose toujours sur les prévisions, dans ce cas, la statistique est au service de la prévision.
Une entreprise doit prendre en considération l’outil statistique qui est considéré aujourd’hui
comme …able puisqu’il peut fournir une représentation et une bonne interprétation des don-
nées économiques. Etablir des prévisions régulières permet de suivre l’évolution du marché,
du moins à court terme.
Dans ce sens, une étude nous a été con…ée, elle consiste à trouver des modèles de prévision
à court terme pour les ventes des carburants terre, et à établir une comparaison avec la
méthode actuellement utilisée au sein de l’entreprise NAFTAL. Cette méthode se basera
principalement sur les taux de croissance des ventes de carburants qui donnent la tendance
générale de l’évolution de ces ventes (hausse, baisse ou stabilité).
Par conséquent, notre problématique s’énonce comme suit " Quelle méthode prévision-
nelle conviendrait à la gestion des ventes des carburants de l’entreprise NAFTAL ? "
Notre étude se basera sur les ventes des quatre produits suivants : essence Super, essence
Sans Plomb, essence Normale et Gasoil dans la région centre du pays. Le problème posé
relève d’un phénomène économique qui évolue en fonction du temps, il fait donc appel aux
séries chronologiques. Le but de l’analyse des séries chronologiques est le développement
des modèles permettant de décrire leur comportement et de résoudre les problèmes liés à la
prévision. Pour induire ces modèles, on propose d’utiliser deux classes; la classe des modèles
SARIMA et la classe du mélange de modèles autoregressifs (MAR), qui a été introduit par
Wong et Li en 2000, a…n de pouvoir mieux modéliser des séries …nancières en présence de ses
faits stylisés, comme : le regroupement de volatilité, l’excès du kurtosis, la multimodalité et
le changement de régimes.
2
Introduction
Dans le but d’atteindre l’objectif de notre travail, nous avons choisis de le présenter en
deux parties : nous commencerons la première partie par un rappel de quelques notions
de base sur les processus stochastiques d’une part. D’autre part, nous allons étudier la
classe du mélange de modèles autorégressifs (MAR), et sa généralisation qui est la clasese du
mélange de modèles autorégressifs périodiques (MPAR). La deuxième partie est consacrée
à l’application; l’étude de perfermance de l’algorithme EM pour les deux modèles (MAR,
MPAR), l’application de la méthde de Box et Jenkus, la modélisation de nos séries des ventes
carburants par la classe des modèles MPAR et la représentation de la méthode appliquée au
sein de NAFTAL.
Finalement, nous achevons notre étude par une comparaison générale entre les deux
méthodologies et la méthode appliqué au sein de NAFTAL.
3
C
p
ha i tr
e 1
Préliminaires
Sommaire
1.1 Concepts Fondamentaux des Processus Stochastiques . . . . . 4
1.1.2 Stationnarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 Ergodicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
4
1.1. Concepts Fondamentaux des Processus Stochastiques
1.1.2 Stationnarité
La stationnarité d’une série temporelle est une propriété fondamentale. Elle indique si
les caractéristiques de celui-ci changent avec le temps ou non. Si le processus n’est pas
stationnaire alors les informations recueillies dans les données peuvent être mal interprétées.
Dé…nition 2 Un processus stochastique fYt ; t 2 Zg est dit strictement (ou fortement) sta-
tionnaire si pour tout n 2 N ; et pour tout n-uplet (t1 ; t2 ; :::; tn ) ; tel que t1 t2 ::: tn ;
ti 2 Z i = 1; :::; n la distribution conjointe du vecteur (Yt1 +h ; Yt2 +h ; :::; Ytn +h ) est la même
que celle de (Yt1 ; Yt2 ; :::; Ytn ) 8h 2 Z. Autrement dit, si on a:
5
1.1. Concepts Fondamentaux des Processus Stochastiques
cette raison, on a besoin d’un concept de stationnarité moins fort et qui peut être rencontré
dans la pratique.
Dé…nition 3 Un processus stochastique fYt ; t 2 Zg est dit stationnaire au second ordre, s’il
est du second ordre dont la moyenne et la fonction d’autocovariance sont stables, …nies et
independantes du temps i.e.
1) E (Yt2 ) < 1 8t 2 Z:
2) E (Yt ) = (moyenne constante) 8t 2 Z:
3) cov (Yt ; Yt+h ) = E ((Yt E (Yt )) (Yt+h E (Yt+h ))) = (h) 8h; t 2 Z:
1.1.3 Ergodicité
Pour estimer la loi d’un processus, on cherche à accumuler de l’information en faisant
tendre le nombre d’observations vers l’in…ni. Pour que ce mécanisme d’accumulation fonc-
tionne, il faut que le processus ait une mémoire …nie. C’est-à-dire qu’à partir d’un certain
nombre d’observations, il n’y ait plus d’informations nouvelles, mais simplement con…rma-
tion des informations passées. Par exemple dans le problème de l’estimation de la moyenne,
on veut que la moyenne empirique soit un estimateur consistant et que la variance de cet
estimateur tende vers zéro. On se rend compte que si un processus est cyclique, ce qui revient
à dire que des observations très éloignées peuvent être corrélées entre elles, on n’arrivera pas
à accumuler de l’information. Cette propriété de limitation de la mémoire d’un processus
s’appelle ergodicité
Un processus stochastique est ergodique si ses moments peuvent être obtenus comme des
moyennes à partir d’une seule de ses réalisations. Ceci doit être vrai en particulier pour les
moments d’ordre un et deux. On peut donc a¢ rmer que pour qu’un processus soit ergodique,
il doit nécessairement être faiblement stationnaire.
1P n
P lim yk = =1
n!1 n k=1
on peut distinguer deux types d’ergodicité, l’ergodicité forte par la convergence presque
sûre et l’ergodicité faible par la convergence en probabilité ou en moyenne quadratique.
6
1.1. Concepts Fondamentaux des Processus Stochastiques
avec Yn et Bn sont des vecteurs aléatoires dé…nis en Rd , les matrices An sont de dimension
d d, et le processus f(An ; Bn ) ; n 2 Zg est strictement stationnaire et ergodique.
Un résultat porte sur l’existence des conditions nécessaires et su¢ santes d’une solution
stationnaire unique de cette équation, qui a été établi par Brandt (1986) est donné par le
théorème suivant
1
= inf E log kA0 A 1 :::A nk ;n 2 N
n+1
7
1.1. Concepts Fondamentaux des Processus Stochastiques
P
+1
yn = An An 1 :::An k+1 Bn k
k=0
A noter que si on se place dans le cas où le processus f(An ; Bn ) ; n 2 Zg est i.i.d, alors
l’équation (1.1) satisfera un modèle autoregessif généralisé comme il est dé…nié par la suite.
où f(An ; Bn ) ; n 2 Zg est une suite de variables aléatoires i.i.d dé…nies sur un espace mesuré
( ; A; P ) à valeurs dans Rd : La solution de cette équation est une suite de variables aléatoires
de Rd pour laquelle (1.2) est véri…ée.
8
C
ha pi
tr
e 2
Mélange de modèles autorégressifs
Sommaire
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1 Introduction
Les distributions de mélanges ont été étudiés depuis longtemps, mais l’adoption de la
philosophie de mélange dans les modèles de séries chronologiques a une histoire relativement
courte.
9
2.2. Mélange de modèles autorégressifs
Notre intérêt sur le modèle MAR dans ce chapitre, est de donner les propriétés proba-
bilistes, l’estimation de ces paramètres par la méthode du maximum de vraiesemblance en
passant par l’algorithme EM, et la présentation de quelques critères de séléction du modèle.
Quand Z ne prend qu’un ensemble …ni de valeurs f1; :::; Kg, alors la distribution de Z est
discrète et a¤ecte une probabilité positive à chacune de ces valeurs. Dans ce cas l’integrale
est remplacée par une somme pour donner une densité de mélange …ni. Cette densité est
donnée par
P
K
f (y) = k k (y)
k=1
Une dé…nition d’un mélange de modèles autoregressifs (MAR), qui peut être dé…ni soit
10
2.3. Étude probabiliste du modèle MAR
au moyen d’une équation aux di¤érences stochastique, soit par sa fonction de répartition
conditionnelle sur le passé jusqu’au temps t
X
K
B yt k;0 k;i yt i
C XK
"t;k
F (yt jFt 1) = B i=1 C= (2.1)
k @ k
A k
k
k=1 k=1
ou, altenativement, si le processus fyt ; t 2 Zg évolue en fonction d’une équation aux dif-
férences stochastique:
8
>
> P
p1
>
> 1;0 + 1;i yt i + "t;1 avec une probabilité 1
>
> i=1
>
> Pp2
>
< 2;0 + 2;i yt i + "t;2 avec une probabilité 2
yt = i=1 (2.2)
>
> ..
>
> .
>
>
>
> P
pK
>
: K;0 + K;i yt i + "t;K avec une probabilité K
i=1
avec
11
2.3. Étude probabiliste du modèle MAR
avec
pk
X
t;k = k;0 + k;i yt i ; k = 1; :::; K
i=1
Cette espérance conditionnelle peut ne pas être le meilleur prédicteur des valeurs futures,
car le calcul de l’espérance conditionnelle tient compte toutes les distributions du mélange,
or que yt provient d’une seule distribution.
Preuve.
En e¤et, d’après la dé…nition on a
X
K
yt t;k
F (yt jFt 1) = k
k
k=1
X
K
k yt t;k
f (yt jFt 1) = '
k k
k=1
yt t;k
En utilisant la changement de variable zt = k
Alors,
X
K Z X
K
k
E (yt jFt 1) = k (zt k + t;k ) ' (zt ) dzt = k t;k
k
k=1 R k=1
Car Z Z
E (zt ) = zt ' (zt ) dzt = 0 et ' (zt ) dzt = 1
R R
La variance conditionnelle de notre processus fyt ; t 2 Zg est donnée par ses moments
d’ordre un et deux conditionnelles:
X
K X
K XK
2 2 2
V ar (yt jFt 1) = k k + k t;k ( k t;k )
k=1 k=1 k=1
12
2.3. Étude probabiliste du modèle MAR
Preuve.
En e¤et, on sait
Z X
K Z
k yt t;k
E yt2 jFt 1 = yt2 f (yt jFt 1 ) dyt = yt2 ' dyt
k k
R k=1 R
yt t;k
On utilise le même changement de variable zt = k
; on obtient
X
K Z
k
E yt2 jFt 1 = k zt2 + 2zt k t;k + 2
t;k ' (zt ) dzt
k
k=1 R
0 1
X
K Z Z Z
= k
@ 2
k zt2 ' (zt ) dzt + 2
t;k ' (zt ) dzt + 2 k t;k zt ' (zt ) dzt A
k=1 R R R
X
K
2 2
= k k + t;k
k=1
Donc,
2
V ar (yt jFt 1) = E yt2 jFt 1 E (yt jFt 1)
X
K XK
2 2 2
= k k + t;k ( k t;k )
k=1 k=1
Théorème 4 (Wong & Li, 2000) Une condition nécessaire et su¢ sante pour que le proces-
sus fyt ; t 2 Zg suivant un modèle M AR(K; p1 ; p2 ; :::; pK ) soit stationnaire au premier ordre
est que toutes les racines du polynomes :
p
!
X X
K
i
1 k k;i z = 0;
i=1 k=1
soient en module strictement inférieure à l’unité, où k;i = 0 pour i > pk et p = max (pi ):
1 i K
13
2.3. Étude probabiliste du modèle MAR
Preuve.
On a
pk
X
K X
E (yt jFt 1) = k ( k;0 + k;i yt i ); k = 1; :::; K
k=1 i=1
Alors
pk
!
X
K X
E(yt ) = E(E (yt jFt 1 )) =E k ( k;0 + k;i yt i )
k=1 i=1
X
K
= k ( k;0 + k;1 E (yt 1 ) + ::: + k;pk E (yt pk ))
k=1
X
K X
K X
K
= k k;0 + k k;1 E (yt 1 ) + ::: + k k;pk E (yt pk )
k=1 k=1 k=1
XK XK X
K
= k k;0 + k k;1 t 1 + ::: + k k;pk t pk
k=1 k=1 k=1
p
!
X
K X X
K
= k k;0 + k k;i t i (2.3)
k=1 i=1 k=1
Avec t i = E (yt i ) ; k;i = 0; pour i > pk et p = max (pi ): ainsi, une condition nécessaire
1 i K
et su¢ sante pour que l’équation aux di¤érences non homogène d’ordre p admet une solution
…nie est que toutes les racines du polynome
p
!
X X
K
i
1 k k;i z =0
i=1 k=1
Théorème 5 (Wong & Li, 2000) Supposons que le processus fyt ; t 2 Zg suivant un mod-
èle M AR(K; 1; 1; :::; 1) soit stationnaire au premier ordre. Une condition nécessaire et su¤-
isante pour que ce processus fyt ; t 2 Zg soit stationnaire au second ordre est:
2 2 2
1 1;1 + 2 2;1 + ::: + K K;1 <1
Preuve.
Supposons que notre processus fyt ; t 2 Zg suivant un modèle M AR(K; 1; 1; :::; 1) soit sta-
tionnaire au premier ordre. On a
X
K
E yt2 jFt 1 = k
2
k + 2
k;t
k=1
XK
2 2 2 2
= k k + k;o +2 k;o k;1 yt 1 + k;1 yt 1
k=1
14
2.3. Étude probabiliste du modèle MAR
2
avec t;k = k;o + k;1 yt 1 : Par suite
X
K
2 2 2
= k k + k;o +2 k;o k;1 E (yt 1 ) + k;1 E yt2 1 ;
k=1
où
X
K
2 2
0 = k( k + k;o +2 k;o k;1 E (yt 1 ))
k=1
XK
2
1 = k k;1 ;
k=1
On constate à partir de l’équation (2.4) que le moment d’ordre deux satisfait une équation
au di¤érence non homogène d’ordre un. Alors une condition nécessaire et su¢ sante pour
que le processus fyt ; t 2 Zg soit stationnaire au second ordre est que les racines du polynome
caractéristique
z 1 =0
2 2 2
j 1j = 1 1;1 + 2 2;1 + ::: + K K;1 <1
Théorème 6 (Wong & Li, 2000) Supposons que la processus fyt ; t 2 Zg satisfait une représen-
tation M AR(K; 2; 2; :::; 2) et stationnaire au premier ordre. Les condition nécessaire et su¤-
isante pour que fyt ; t 2 Zg soit stationnaire du seconde ordre sont :
où
P
K P
K
X
K 2( k k;1 k;2 )( k k;1 ) X
K
2 k=1 k=1 2
1 = k k;1 + et 2 = k k;2 :
P
K
k=1 1 k k;1
k=1
k=1
15
2.3. Étude probabiliste du modèle MAR
Preuve. Supposons que notre processus fyt ; t 2 Zg suivant un modèle M AR(K; 2; 2; :::; 2)
est stationnaire au premier ordre, et sans perdre la généralité on suppose que k;0 = 0: On a
!
XK
E yt2 = E E yt2 jFt 1 = E k
2 2
k + k;t
k=1
!
X
K
2
2
=E k k +( k;0 + k;1 yt 1 + k;2 yt 2 )
k=1
!
X
K
2
2 2 2
=E k k +( k;0 + k;1 yt 1 ) + 2( k;0 + k;1 yt 1 ) k;2 yt 2 + k;2 yt 2
k=1
X
K
2 2 2
= k( k + k;0 +2 k;0 k;1 E (yt 1 ) + k;1 E yt2 1 +2 k;0 k;2 E (yt 2 )
k=1
2
+2 k;1 k;2 E (yt 1 yt 2 ) + k;2 E yt2 2 )
avec
X
K
2 2 2
a0 = k( k + k;0 +2 k;0 k;1 E (yt 1 ) + k;1 E yt2 1 )
k=1
X
K X
K
2
a1 = k k;1 ; a2 = 2 k k;1 k;2
k=1 k=1
XK
2
a3 = k k;2 :
k=1
On pose
t;0 = E yt2 et t;1 = E (yt yt 1 ) :
Alors
16
2.3. Étude probabiliste du modèle MAR
P
K P
K
avec b = k k;0 E (yt 2 ) = k k;0 E (yt )
k=1 k=1
Si le processus fyt ; t 2 Zg est stationnaire au second ordre, alors t 1;1 = t 2;1 et
X
K X
K X
K
D’où
!
X
K X
K
1 k k;2 t 1;1 =b+ k k;1 t 1;0
k=1 k=1
PK
b+ k k;1
k=1
t 1;1 = t 1;0
PK
1 k k;2
k=1
b B k k;1 C
B k=1 C
= a0 + a2 + B a1 + a2 C t 1;0 + a3 t 2;0
P
K @ PK A
1 k k;2 1 k k;2
k=1 k=1
b
P
K
2 k=1
k k;1 k;2
k=1
k k;1
P
K
2
où 0 = a0 + a2 P
K ; 1 = k k;1 +2 P
K et 2 = k k;2
1 k k;2 k=1 1 k k;2 k=1
k=1 k=1
Donc, le moment d’ordre deux satisfait une équation linéaire aux di¤érences non homogène
d’ordre deux. Alors une condition nécessaire et su¢ sante pour que le processus fyt ; t 2 Zg
soit stationnaire au seconde ordre est que toutes les racines du polnome caractéristique
z2 1z 2 =0
17
2.3. Étude probabiliste du modèle MAR
Dans le cas général, les conditions de stationnarité au seconde ordre sont plus compliquées
en suivant la méthode de Wong et Li (2000). Saikkonen (2007) a proposé le théorème suivant
qui donne une conditions su¢ sante pour un modèle M AR(; p1 ; p2 ; :::; pK ):
Nous allons lancer maintenant le théorème de Boshnakov (2009), qui donne une condition
nécessaire et su¢ sante de la stationnarité au seconde ordre pour un modèle M AR(; p1 ; p2 ; :::; pK ):
0
Pour t 0; soit Yt = (yt ; :::; yt p+1 ) ; un vecture de p valeurs de notre série fyt ; t 2 Zg :
où
0
t+1;zt+1 = "t+1;zt+1 ; 0; :::; 0
0
czt+1 = zt+1 ;0 ; 0; :::; 0
où
dzt+1 = czt+1 1 + Azt+1 1
18
2.3. Étude probabiliste du modèle MAR
Or
où
= var dzt+1
Q = var t+1;zt+1
1 =Q+
Théorème 8 (Boshnakov, 2009) Soient A A + E Uzt+1 Ct;t Uz0 t+1 < 1 et 1 est une
matrice dé…nie positive ou semi dé…nie positive.
Le processus fyt ; t = 1 p; :::; 0; 1; :::g, est stationnaire au second ordre si et seulement si le
vecteur initial (y0 ; y 1 ; :::; y1 p )0 muni d’une moyenne 1; où est un scalaire, et la matrice
de variance-covariance C0;0 , soit solution de l’équation
où A A + E Uzt+1 Ct;t Uz0 t+1 est le maximum des modules des valeurs propres de la
matrice A A + E Uzt+1 Ct;t Uz0 t+1 :
19
2.3. Étude probabiliste du modèle MAR
0
0 0
Soit Yt = (yt ; yt 1 ; :::; yt p+1 ) et Bt = "t + 0;t ; 0(p 1) 1 ; où 0p 1 désigne par la suite
le vecteur nul de dimension p et
0 1
t;1 t;p 1 t;p
At = @ A
Ip 1 0(p 1) 1
p p
P
pk P
K P
K
où "t;k = yt k;0 k;i yt i ; "t = "t;k 1(zt;k =1) ; t;i = k;i 1(zt;k =1) ; et Zt;k est une
i=1 k=1 k=1
ieme
variable aléatoire égale à 1 si yt est généré à partir du k composante du mélange, et 0
sinon.
Y t = At Y t 1 + Bt ; t 2 Z (2.6)
P
pk
A1 ) Les processus f"t;k ; t 2 Zg k = 1; :::; K; où "t;k = yt k;0 k;i yt i sont i.i.d. avec
i=1
2
une moyenne nulle et une variance égale à k:
Dans ce qui vient apès, la constante est dé…nie comme l’exposant de Lyapunov associée a
la matrice fAt ; t 2 Zg qui est donné par
1
= inf E (log kAn An 1 :::A1 k)
n2N n
où k:k est une norme matricielle quelconque dans Rp : Ainsi, nous allons énoncer le résultat
qui donne une condition su¢ sante pour la stationnarité stricte du modèle MAR.
convergent presque sûrement, et le processus fyt ; t 2 Zg donné par yt = [1; 0; :::; 0]1 p Yt est
l’unique solution strictement stationnaire et ergodique de les équations (2.2).
Preuve. Sous les hypothèses A1 . E log+ kA1 k et E log+ kB1 k sont les deux …nie, où
log+ (jxj) = max (log (jxj) ; 0) Ainsi, le résultat découle du théorème de Brandt (1986).
20
2.3. Étude probabiliste du modèle MAR
P
p P
K
(h) = k k;i jh ij h = 1; :::; p
i=1 k=1
pour h = 0
(0) = Var (yt )
P
K
= E yt h k k;t
k=1
PK
= E yt h k ( k;0 + k;1 yt 1 + ::: + k;pk yt pk )
k=1
P
K
= k ( k;0 E (yt h) + k;1 E (yt h yt 1 ) + ::: + k;pk E (yt h yt pk ))
k=1
PK
= k ( k;1 (jh 1j) + k;2 (jh 2j) + ::: + k;pk (jh pk j))
k=1
P
K P
pk
(h) = E (yt yt h) = k k;i (jh ij) ; h = 1; :::; p (2.7)
k=1 i=1
21
2.3. Étude probabiliste du modèle MAR
(h) Pp P
K (jh ij)
(h) = h = = k k;i
(0) i=1 k=1 (0)
P
p P
K
= k k;i jh ij h = 1; :::; p
i=1 k=1
On utilise la distribution prédictive au deuxième pas F (yt+2 jFt ) pour illustrer ces ap-
proches.
Dans l’approche naïve, on utilise tous simplement la prévision au premier pas y^t+1 =
E (yt+1 jFt ) comme la vraie valeur de yt+1 : On obtient
Cette approche est simple, mais elle néglige toute l’information fournie par la forme de
distribution au premier pas. Concernant le modèle MAR, l’information perdue peut être
importante car F (yt+1 jFt ) peut être multimodale. Une meilleure approche est de calculer
la distribution prédictive au deuxième pas par son expression exacte
R
F (yt+2 jFt ) = F (yt+2 jFt ; yt+1 )dF (yt+1 jFt )
Cette intégration peut être analytiquement intraitable, mais on peut toujours utiliser une
méthode numérique pour l’évaluer. Cependant, une approximation de Monte-Carlo pour la
distribution prédictive exacte peut être plus adéquate. Cette dernière au deuxième pas est
donnée par
1P N
j
F (yt+2 jFt ) = F (yt+2 Ft ; yt+1 )
N j=1
j
où yt+1 ; j = 1; :::; N sont échantillonnés à partir de F (yt+1 jFt )
22
2.4. Estimation des paramètres d’un modèle MAR
une matrice des variables aléatoires (i.i.d) non observées, où Zt est un K-vecture dont la
k ieme composante vaut 1 si yt est issue de la k ieme composante de la fonction de distribu-
0
tion conditionnelle, et elle vaut 0 ailleurs. Soient = ( 1; 2 ; :::; K 1) ; (K 1)-vecteur
0
des probabilités, k = ( k;0 ; k;1; ; :::; k;pk ; k) ; k = 1; :::; K; les vecteurs des paramètres,
0 0
et = ( 0; 0
1 ; :::; K ) le vecteur des paramètres a estimé. La fonction de vraisemblance
(conditionnelle) est donnée par
Q
n Q
K
l(Y; Z j ) = [P (Zt;k = 1) f (yt jFt 1 ; Zt;k = 1; )]Zt;k
t=p+1k=1
Zt;k
Q
n Q
K
Zt;k 1 1 "2t;k
= k p exp
t=p+1k=1 k 2 2 k2
Zt;k
Q
n Q
K
k 1 "2t;k
= p exp
t=p+1k=1 k 2 2 k2
où
"t;k = yt k;0 k;1 yt 1 ::: k;pk yt pk
P
n P
K P
K P
K p PK Zt;k "2
t;k
L(Y; Z j ) = Zt;k log( k) Zt;k log( k ) Zt;k log( 2 ) 2
t=p+1 k=1 k=1 k=1 k=1 2 k
@L @ P
n P
K
= Zt;k log( k)
@ k @ k t=p+1k=1
@ P
n P1
K P1
K
= Zt;k log( k ) + Zt;K log 1 k
@ k t=p+1 k=1 k=1
D’où
@L Pn Zt;k Zt;K
= k = 1; :::; K 1 (2.8)
@ k t=p+1 k K
23
2.4. Estimation des paramètres d’un modèle MAR
et
@L @ P n K Zt;k "2
P t;k
= 2
@ k;i @ k;i t=p+1 k=1 2 k
P Zt;k u(yt ; i)"t;k
n
= 2
k = 1; :::; K i = 1; :::; pk
t=p+1 k
où 8
< 1 si i = 0
u(yt ; i) =
: y si i > 0
t i
Et en…n
@L @ P n P
K PK Zt;k "2
t;k
= Zt;k log( k ) 2
@ k @ k t=p+1 k=1 k=1 2 k
P
n Zt;k Zt;k "2t;k 2 k
= 4
t=p+1 k 2 k
@L Pn Z
t;k "2t;k
= 2
1 k = 1; :::; K (2.9)
@ k t=p+1 k k
Etape E
On suppose que est connue. On remplace les valeurs non observées Z par leurs espérance
conditionnelle par rapport aux paramètre et aux valeurs observées Y: Dans ce cas l’espérance
condionnelle de Zt est simplement la probabilité conditionnelle que l’observation yt provient
de la k ieme composante de la distribution du mélange, sachant et Y . Soit t;k l’espérance
conditionnelle de la k ieme composante de Zt . Ainsi l’équation de l’étape E est donnée par
= P (Zt;k = 1 jFt 1 ; )
P (Zt;k = 1) f (yt jZt;k = 1; Ft 1 ; )
=
P
K
P (Zt;l = 1) f (yt jZt;l = 1; Ft 1 ; )
l=1
Dans l’étape E, le vecteur est remplacé par ^ obtenu à l’étape M précédente de l’algorithme
EM.
24
2.4. Estimation des paramètres d’un modèle MAR
Etape M
Supposons que les données manquantes soient connues. Les estimations des paramètres
peuvent être obtenues en maximisant la fonction log-vraisemblance complète, L:Ceci peut
être accompli par la résolution du système d’équations suivants
8
>
> @L
=0
>
< @ k
@L
=0
>
>
@ k;i
>
: @L = 0
@ k
On a
@L Pn Zt;k Zt;K
=0, = 0 k = 1; :::; K
@ k t=p+1 k K
P
n Z
t;k P n Z
t;K
, = k = 1; :::; K
t=p+1 k t=p+1 K
1 P
n 1 Pn
, Zt;k = Zt;K k = 1; :::; K
k t=p+1 K t=p+1
P
n
k P
n
t;k = t;K k = 1; :::; K: (2.10)
t=p+1 K t=p+1
Par suite
P
n P
K P
K
k P
n
t;k = t;K ;
t=p+1k=1 k=1 K t=p+1
et comme
P
K P
K
t;k = 1 et k = 1;
k=1 k=1
alors
1 P
n
K = t;K :
n p t=p+1
Remplaçons cette expression dans (2.10), on obtient
1 P
n
^k = t;k k = 1; :::; K
n p t=p+1
On a égalemenet
25
2.4. Estimation des paramètres d’un modèle MAR
@L Pn Z u(y ; i)"
t;k t t;k
=0, 2
= 0 k = 1; :::; K i = 0; :::; pk
@ k;i t=p+1 k
P
n
, Zt;k u(y t ; i) (yt k;0 k;1 yt 1 ::: k;pk yt pk ) = 0
t=p+1
Pn P
n
, Zt;k u(y t ; i)y t = (Z t;k u(y t ; i) k;0 +Z t;k u(y t ; i) k;1 yt 1 +::: + Z t;k u(y t ; i) k;pk yt pk )
t=p+1 t=p+1
Pn Pn P pk
, Zt;k u(y t ; i)y t = Zt;k u(y t ; i) k;j u(y t ; j)
t=p+1 t=p+1j=0
Pn Ppk Pn
, Zt;k u(y t ; i)y t = k;j Zt;k u(y t ; i)u(y t ; j) k = 1; :::; K i = 0; :::; pk :
t=p+1 j=0 t=p+1
P
n P
pk
^ P
n
t;k yt u(y t ; i) = k;j t;k u(y t ; i)u(y t ; j) k = 1; :::; K i = 0; :::; pk
t=p+1 j=0 t=p+1
bk = Ak ^k k = 1; :::; K (2.11)
avec 0 1
P
n
0 1
t;k yt u(y t ; 0)
B t=p+1 C ^k;0
B n C B C
B P C B ^ C
B t;k yt u(y t ; 1) C B C
B C ^k = B k;1 C
bk = B t=p+1 C et B .. C
B .. C B . C
B . C @ A
B n C
@ P A ^k;p
t;k yt u(y t ; pk ) k
t=p+1
0 1
P
n P
n P
n
t;k t;k u(y t ; 1) t;k u(y t ; pk )
B C
B n t=p+1 t=p+1 t=p+1 C
B P P
n P
n C
B t;k u(y t ; 1) t;k u(y t ; 1)u(y t ; 1) t;k u(y t ; pk )u(y t ; 1) C
B C
Ak = B t=p+1 t=p+1 t=p+1 C
B .. .. .. .. C
B . . . . C
B n C
@ P P
n Pn A
t;k u(y t ; pk ) t;k u(y t ; 1)u(y t ; pk ) t;k u(y t ; pk )u(y t ; pk )
t=p+1 t=p+1 t=p+1
telque k = 1; :::; K; et 8
< 1 si i = 0
u(y t ; i) =
: y si i > 0
t i
^k = A 1 bk k = 1; :::; K
k
26
2.4. Estimation des paramètres d’un modèle MAR
@L Pn Z
t;k "2t;k
=0, 2
1 = 0 k = 1; :::; K
@ k t=p+1 k k
n Zt;k "2
P P
n Z
t;k t;k
, 3
= k = 1; :::; K
t=p+1 k t=p+1 k
Pn Pn
, Zt;k "2t;k = 2
k Zt;k k = 1; :::; K
t=p+1 t=p+1
ce qui donne
P
n
Zt;k "2t;k
2 t=p+1
k= Pn k = 1; :::; K
Zt;k
t=p+1
En remplaçant les Zt;k k = 1; :::; K par leurs estimations t;k , ainsi que les k;i i = 1; :::; pk
par leurs estimations ^k;i ; on aura donc
8 P
n 2 91=2
>
> yt ^k;0 ^k;1 yt ::: ^k;p yp >
>
< t;k 1 k k =
t=p+1
^k = P
n k = 1; :::; K
>
> >
>
: t;k ;
t=p+1
Remarque 1
Les estimations des paramètres sont alors obtenues en itérant ces deux étapes jusqu’à la con-
vergence.
L’évaluation de la performance de l’algorithme EM se fait par quelques expériences de sim-
ulation.
D’après ce principe, la matrice d’information observée Iobs peut être calculée à partir de
la matrice d’information complète Ic ; et de la matrice d’information manquante Im ; par la
relation
@2L @L
Iobs = Ic Im = E j ;Y Var j ;Y
@ @ 0 =^ @ =^
27
2.4. Estimation des paramètres d’un modèle MAR
Pour k = 1; :::; K 1 on a
@2L @ P
n Zt;k Zt;K
=
@ k2 @ k t=p+1 k K
P
n Zt;k Zt;K
= 2 + 2
t=p+1 k K
Pour k = 1; :::; K
@2L @ P
n Z
t;k "2t;k
= 1
@ k2 @ k t=p+1 k
2
k
Pn Z
t;k 3"2t;k
= 2 2
1
t=p+1 k k
28
2.4. Estimation des paramètres d’un modèle MAR
est une matrice diagonale par bloc, et les éléments diagonaux (i.e. les matrices Ick k =
0; :::; K) sont dé…nis comme suit:
@2L
Ic0 = E j ;Y = fIc0 (k; l)gk;l=1;:::;K 1
@ @ 0
pour k = 1; :::; K 1 on a
@2L P
n Zt;k Zt;K
Ic0 (k; k)= E j ;Y =E + j ;Y
@ k2 t=p+1
2
k
2
K
P
n E (Zt;k j ; Y ) E (Zt;K j ; Y )
= 2
+ 2
t=p+1 k K
P
n
t;k t;K
= 2
+ 2
t=p+1 k K
pour k; l = 1; :::; K 1; k 6= l on a
@2L P
n Z
t;K
Ic0 (k; l)= E j ;Y =E 2
j ;Y
@ l@ k t=p+1 K
P
n E (Z
t;K j ; Y ) P
n
t;K
= 2
= 2
t=p+1 K t=p+1 K
Et la matrice Ick ; k = 1; :::; K est une matrice carrée de dimension pk + 2 est dé…niée par
@2L
Ick = E j ;Y = fIck (i; j)gi;j=1;:::;pk +2
@ k @ k0
29
2.4. Estimation des paramètres d’un modèle MAR
pour i; j = 0; :::; pk on a
@2L P
n Zt;k u(yt ; i)u(yt ; j)
Ick (i + 1; j + 1)= E j ;Y =E 2
j ;Y
@ k;i @ k;j t=p+1 k
P
n
t;k u(yt ; i)u(yt ; j)
= 2
t=p+1 k
Pour i = pk + 2 et j = pk + 2; on a
@2L P
n Z
t;k 3"2t;k
Ick (pk + 2; pk + 2)= E j ;Y =E 1 j ;Y
@ k2 t=p+1
2
k
2
k
P
n E (Z
t;k j ; Y ) 3"2t;k
= 2 2
1
t=p+1 k k
P
n
t;k 3"2t;k
= 2 2
1
t=p+1 k k
pour i = 0; :::; pk et j = pk + 2
@2L
Ick (i + 1; pk + 2)= I ck (pk + 2; i + 1) = E j ;Y
@ k @ k;i
P
n 2Z u(y ; i)"
t;k t t;k
=E 3
j ;Y
t=p+1 k
P
n 2
t;k u(yt ; i)"t;k
= 3
t=p+1 k
@L
Im00 = var j ;Y = fIm00 (k; l)gk;l=1;:::;K 1
@
30
2.4. Estimation des paramètres d’un modèle MAR
pour k = 1; :::; K 1; on a
@L P
n Zt;k Zt;K
Im00 (k; k)= var j ;Y = var j ;Y
@ t=p+1 k K
P
n Zt;k Zt;K P
n P
n Zt;k Zt;K Zt0 ;k Zt0 ;K
= var j ;Y +2 cov ; j ;Y
t=p+1 k K t=p+1t0 =p+1 k K k K
t6=t0
P
n Zt;k Zt;K Zt;k Zt;K
= var j ;Y + var j ;Y 2 cov ; j ;Y
t=p+1 k K k K
P
n
t;k (1 t;k ) t;K (1 t;K ) 2 t;k t;K
= 2
+ 2
+
t=p+1 k K k K
cov (Zt;k ; Zt0 ;k ) = 0 8t0 6= t; (i.e. la variable aléatoire fZt t 2 Zg est indépendante et iden-
tiquement distribuée (i.i.d.)).
@L @L P
n Zt;k Zt;K P
n Zt;l Zt;K
Im00 (k; l)= cov ; j ;Y = cov ; j ;Y
@ k @ l t=p+1 k K t=p+1 l K
P
n Pn Zt;k Zt;K Zt;l Zt;K
= cov ; j ;Y
t=p+1t0 =p+1 k K l K
P
n Zt;k Zt;K Zt;l Zt;K
= cov ; j ;Y
t=p+1 k K l K
P
n P
n Zt;k Zt;K Zt0 ;l Zt0 ;K
+ cov ; j ;Y
t=p+1t0 =p+1 k K l K
t6=t0
P
n Zt;k Zt;K Zt;l Zt;K
= cov ; j ;Y
t=p+1 k K l K
P
n
t;k t;K t;l t;K t;k t;l t;K (1 t;K )
= + + 2
t=p+1 k K l K k l K
La matrice Imkk est une matrice carrée de dimension pk + 2; dé…nie pour k = 1; :::; K comme
suit
@L
Imkk = var j ;Y = fImkk (i; j)gi;j=1;:::;pk +2
@ k
31
2.4. Estimation des paramètres d’un modèle MAR
pour j; i = 0; :::; pk on a
@L @L
Imkk (i + 1; j + 1)= cov ; j ;Y
@ k;i @ k;j
Pn Z u(y ; i)"
t;k t t;k P
n Z u(y ; j)"
t;k t t;k
= cov 2
; 2
j ;Y
t=p+1 k t=p+1 k
P
n Zt;k u(yt ; j)"t;k Zt;k u(yt ; j)"t;k
= cov 2
; 2
j ;Y
t=p+1 k k
P
n Zt;k u(yt ; j)"t;k Zt0 ;k u(yt0 ; j)"t0 ;k
+ cov 2
; 2
j ;Y
t;t0 =p+1 k k
t6=t0
P
n Zt;k u(yt ; j)"t;k Zt;k u(yt ; j)"t;k
= cov 2
; 2
j ;Y
t=p+1 k k
n var (Zt;k j ; Y ) u(yt ; i)u(yt ; j)"2
P t;k
= 4
t=p+1 k
2
P
n t;k (1 t;k ) u(yt ; i)u(yt ; j)"t;k
= 4
t=p+1 k
pour j = pk + 2 et i = pk + 2 on a
@L
Imkk (pk + 2; pk + 2)= var j ;Y
@ k
P
n Z
t;k "2t;k
= var 2
1 j ;Y
t=p+1 k k
2
P
n
t;k (1 t;k ) "2t;k
= 2 2
1
t=p+1 k k
Pour i = 0; :::; pk et j = pk + 2 on a
@L @L
Imkk (i + 1; pk + 2)= I mkk (pk + 2; i + 1) = cov ; j ;Y
@ k;i @ k
P
n Z u(y ; i)"
t;k t t;k P
n Z
t;k "2t;k
= cov 2
; 2
1 j ;Y
t=p+1 k t=p+1 k k
P
n Zt;k u(yt ; i)"t;k Zt;k "2t;k
= cov 2
; 2
1 j ;Y
t=p+1 k k k
P
n Zt;k u(yt ; i)"t;k Zt0 ;k "2t0 ;k
+ cov 2
; 2
1 j ;Y
t;t0 =p+1 k k k
t6=t0
P
n var (Z
t;k j ; Y ) u(yt ; i)"t;k "2t;k
= 3 2
1
t=p+1 k k
P
n
t;k (1 t;k ) u(yt ; i)"t;k "2t;k
= 3 2
1
t=p+1 k k
32
2.4. Estimation des paramètres d’un modèle MAR
@L @L
Imk0 = cov ; j ;Y = fImk0 (i; j)g(i;j)2f1;:::;pk +2g f1;:::;K 1g
@ k @ k
@L @L
Imk0 (i + 1; k)= cov ; j ;Y
@ k;i @ k
Pn Z u(y ; i)"
t;k t t;k P
n Zt;k Zt;K
= cov 2
; j ;Y
t=p+1 k t=p+1 k K
P
n Z u(y ; i)"
t;k t t;k P
n Z
t;k
= cov 2
; j ;Y
t=p+1 k t=p+1 k
P
n Z u(y ; i)"
t;k t t;k P
n Z
t;K
cov 2
; j ;Y
t=p+1 k t=p+1 K
P
n var (Zt;k j ; Y ) u(yt ; i)"t;k cov (Zt;k ; Zt;K j ; Y ) u(yt ; i)"t;k
= 2 2
t=p+1 k k k K
P
n 1 t;k t;K t;k u(yt ; i)"t;k
= + 2
t=p+1 k K k
@L @L Pn Z u(y ; i)"
t;k t t;k Pn Zt;l Zt;K
Imk0 (i + 1; l)= cov ; j ; Y = cov 2
; j ;Y
@ k;i @ l t=p+1 k t=p+1 l K
P Zt;k u(yt ; i)"t;k P Zt;l
n n
= cov 2
; j ;Y
t=p+1 k t=p+1 l
P
n Z u(y ; i)"
t;k t t;k P
n Z
t;K
cov 2
; j ;Y
t=p+1 k t=p+1 K
P
n cov (Zt;k ; Zt;l j ; Y ) u(yt ; i)"t;k cov (Zt;k ; Zt;K j ; Y ) u(yt ; i)"t;k
= 2 2
t=p+1 k l k K
P
n
t;K t;l t;k u(yt ; i)"t;k
= 2
t=p+1 K l k
33
2.4. Estimation des paramètres d’un modèle MAR
Pour i = pk + 2; et l = k; on a
@L @L
Imk0 (pk + 2; k)= cov ; j ;Y
@ k @ k
P
n Z
t;k "2t;k P
n Zt;k Zt;K
= cov 2
1 ; j ;Y
t=p+1 k k t=p+1 k K
Pn Z
t;k "2t;k P
n Z
t;k
= cov 2
1 ; j ;Y
t=p+1 k k t=p+1 k
Pn Z
t;k "2t;k P
n Z
t;K
cov 2
1 ; j ;Y
t=p+1 k k t=p+1 K
P
n var (Zt;k j ; Y ) cov (Zt;k ; Zt;K j ; Y ) "2t;k
= 2
1
t=p+1 k k k K k
P
n 1 t;k t;K t;k "2t;k
= + 2
1
t=p+1 k K k k
Pour i = pk + 2; et l 6= k on a
@L @L
Imk0 (pk + 2; k)= cov ; j ;Y
@ k @ l
P
n Z
t;k "2t;k P
n Zt;l Zt;K
= cov 2
1 ; j ;Y
t=p+1 k k t=p+1 l K
Pn Z
t;k "2t;k P
n Z
t;l
= cov 2
1 ; j ;Y
t=p+1 k k t=p+1 l
Pn Z
t;k "2t;k P
n Z
t;K
cov 2
1 ; j ;Y
t=p+1 k k t=p+1 K
P
n cov (Zt;k ; Zt;l j ; Y ) cov (Zt;k ; Zt;K j ; Y ) "2t;k
= 2
1
t=p+1 k k k K k
P
n
t;K t;l t;k "2t;k
= 2
1
t=p+1 K l k k
@L @L
ImK0 = cov ; j ;Y = fImk0 (i; j)g(i;j)2f1;:::;pk +2g f1;:::;K 1g
@ k @
34
2.4. Estimation des paramètres d’un modèle MAR
@L @L
ImK0 (i + 1; k)= cov ; j ;Y
@ K;i @ k
P
n Z
t;K u(yt ; i)"t;K P
n Zt;k Zt;K
= cov 2
; j ;Y
t=p+1 K t=p+1 k K
P
n Z
t;K u(yt ; i)"t;K P
n Z
t;k
= cov 2
; j ;Y
t=p+1 K t=p+1 k
P
n Z
t;K u(yt ; i)"t;K P
n Z
t;K
cov 2
; j ;Y
t=p+1 K t=p+1 K
P
n cov (Zt;k ; Zt;K j ; Y ) u(yt ; i)"t;K var (Zt;K j ; Y ) u(yt ; i)"t;K
= 2 2
t=p+1 K k K K
P
n
t;k 1 t;K t;K u(yt ; i)"t;K
= 2
t=p+1 k K K
et pour i = pK + 2; et k = 1; :::; K 1; on a
@L @L
ImK0 (pK + 2; k)= cov ; j ;Y
@ K @ k
Pn Z
t;K "2t;K P
n Zt;k Zt;K
= cov 2
1 ; j ;Y
t=p+1 K K t=p+1 k K
Pn Z
t;K "2t;K P
n Z
t;k
= cov 2
1 ; j ;Y
t=p+1 K K t=p+1 k
Pn Z
t;K "2t;K P
n Z
t;K
cov 2
1 ; j ;Y
t=p+1 K K t=p+1 K
P
n cov (Zt;k ; Zt;K j ; Y ) var (Zt;K j ; Y ) "2t;K
= 2
1
t=p+1 K k K K K
P
n
t;k 1 t;K t;K "2t;K
= 2
1
t=p+1 k K K K
La matrice Imkl pour k = 2; :::; K et l = 1; :::; K 1 est une matrice de (pk + 2) (pl + 2)
donnée par
@L @L
Imkl = cov ; j ;Y = fImkl (i; j)g(i;j)2f1;:::;pk +2g f1;:::;pl +2g
@ k @ l
35
2.4. Estimation des paramètres d’un modèle MAR
@L @L
Imkl (i + 1; j + 1)= cov ; j ;Y
@ k;i @ l;j
Pn Z u(y ; i)"
t;k t t;k P
n Z u(y ; j)"
t;l t t;l
= cov 2
; 2
j ;Y
t=p+1 k t=p+1 l
P
n cov (Z ; Z j ; Y ) u(y ; i)u(y ; j)" "
t;k t;l t t t;k t;l
= 2 2
t=p+1 k l
P
n
t;k t;l u(yt ; i)u(yt ; j)"t;k "t;l
= 2 2
t=p+1 k l
Pour i = pk + 2 et j = pk + 2 on a
@L @L
Imkl (pK + 2; pK + 2)= cov ; j ;Y
@ k @ l
P
n Z
t;k "2t;k P
n Z
t;l "2t;l
= cov 2
1 ; 2
1 j ;Y
t=p+1 k k t=p+1 l l
P
n cov (Zt;k ; Zt;l j ; Y ) "2t;k "2t;l
= 2
1 2
1
t=p+1 k l k l
P
n
t;k t;l "2t;k "2t;l
= 2
1 2
1
t=p+1 k l k l
Pour i = 0; :::; pk et j = pk + 2 on a
@L @L
Imkl (i + 1; pK + 2)= cov ; j ;Y
@ k;i @ l
Pn Z u(y ; i)"
t;k t t;k P
n Z
t;l "2t;l
= cov 2
; 2
1 j ;Y
t=p+1 k t=p+1 l l
P
n cov (Zt;k ; Zt;l j ; Y ) u(yt ; i)"t;k "2t;l
= 2 2
1
t=p+1 k l l
P
n
t;k t;l u(yt ; i)"t;k "2t;l
= 2 2
1
t=p+1 k l l
Pour i = pk + 2 et j = 0; :::; pk on a
@L @L
Imkl (pK +2; j + 1)= cov ; j ;Y
@ k @ l;j
P
n Z
t;k "2t;k P
n Z u(y ; j)"
t;l t t;l
= cov 2
1 ; 2
j ;Y
t=p+1 k k t=p+1 l
P
n cov Z ; Z j ; Y u(y ; j)"
t;k t;l t t;l "2t;k
= 2 2
1
t=p+1 k l k
P
n t;k t;l u(y t ; j)"t;l "2t;k
= 2 2
1
t=p+1 k l k
36
2.4. Estimation des paramètres d’un modèle MAR
Les critères de sélection de modèle considérés ici sont le critère de l’information baysi-
enne (BIC)(Shwarz 1978) et le critère d’information d’Akaike AIC (Akaike, 1973). Ces
deux critères sont dé…nis comme moins deux fois la fonction log-vraisemblance maximisée
plus un terme de pénalité. Pour le BIC, le terme de pénalité est le logarithme du nombre
d’observations multiplié par le nombre de paramètres estimés, alors que pour l’AIC, le terme
de pénalité est le double du nombre de paramètres estimes.
Les expressions des critères AIC ; BIC et BIC dé…nis par Wong et Li (2000) sont
données par
P
K
BIC = 2l + log (n pmax ) 3K 1+ pk
k=1
P
K
BIC = 2l + log(n pmax ) 3K 1+ pk
k=1
P
K
AIC = 2l + 2 3K 1+ pk
k=1
avec l représente la fonction log-vraisemblance maximisée (observée) qui est donnée au-
tomatiquement par l’algorithme EM sans introduire le vecteur aléatoire non observé Z. La
fonction l est dé…nie par
P
n P
n d
l = log ff (yt jFt 1 )g = log F (yt jFt 1)
t=p+1 t=p+1 dyt
L’objectif est de choisir K et les ordres des composantes pk qui minimisent ces critères.
37
C
ha pi
tr
e 3
Mélange de modèles autorégressifs
périodiques
Sommaire
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
38
3.1. Introduction
3.1 Introduction
Les modèles de séries temporelles avec des paramètres périodiques (saisonniers) ont reçu
une grande attention en raison de leur large application dans divers domaines tels que la
climatologie, l’hydrologie, la sociologie, et l’économie.
Plusieurs modèles linéaires ont été proposés dans la littérature des séries chronologique
dont les plus utilIsés, les modèles autorégressifs moyenne mobile périodique (PARMA). Ces
modèles peuvent être considérés comme une alternative prometteuse des modèles SARIMA
pour représenter des séries chronologique avec une structure d’autocorrélation périodique.
A…n de captuer ces caractéristique, Shao (2006) a proposé une généralisation de la classe
MAR, en introduisant la classe du mélange de modèles autorégressifs périodiques (MPAR).
39
3.2. Les processus périodiquement corrélés
Le plus petit entier S positif véri…ant cette proprieté est appelé période du processus.
Le plus petit entier positif S véri…ant (3.1) est appelé la période du processus.
(s)
h = (t; t h) = (s; s h)
Propriété La fonction d’autocovariance d’un processus S-périodique fyt ; t 2 Zg, véri…e les
deux propriétés suivantes
(s+ S) (s)
h = h
et
(s) (s+h)
h = h
Dé…nition 11 On dit que f"t ; t 2 Zg est processus bruit blac périodique, s’il véri… les con-
ditions suivantes:
(1) E ("t ) = 0
40
3.3. Mélange de modèles autorégressifs périodiques
P
p
yt = 0;t + i;t yt i + "t t2Z
i=1
2
où f"t ; t 2 Zg est un bruit blac périodique de variance s: Les coe¢ cients i;s et la variance
2
s, sont des fonctions périodiques en s de période S, i.e. i;s+ S = i;s ; i = 0; :::; p; et
2 2
s+ S = s ; 8s; 2 Z:
où
(k) (k)
Les paramètres t;i et t sont des fonctions périodiques en t, de période S (i.e.
(k) (k) (k) (k) (k)
s+ S;i = s;i et s+ S = s ) tel que s > 0; k = 1; K et s = 1; S
(k)
Les proportions ; k = 1; :::; K sont strictement positifs et leur somme vaut 1.
P
K
(k) P
pk
(k) (k)
yt = t;0 + t;i yt i + "t 1 (k)
Zt =1
;t 2 Z
k=1 i=1
n o
(k) (k)
avec "t ; t 2 Z c’est une variable aléatoire de moyenne nulle et de variance t .
41
3.4. Etude probabiliste du modèle MPAR
pk
X
K X
K X
(k) (k) (k) (k)
E (yt jFt 1) = t;0 + t;i yt i ; t2Z
k=1 k=1 i=1
En e¤et, on pose
pk
(k)
X (k)
t;k = t;0 + t;i yt i ; k = 1; :::; K; t 2 Z
i=1
d’après la dé…nition on a
! !
X
K (k)
"t
(k) X
K (k)
yt t;k
f (yt jFt 1) = (k)
' (k)
= (k)
' (k)
k=1 t t k=1 t t
Alors,
X
K (k) Z
(k) (k)
E (yt jFt 1) = (k) t zt t + t;k ' (zt ) dzt
k=1 t
R
pk
X
K X
K X
(k) (k) (k) (k)
= t;0 + t;i yt i , t2Z
k=1 k=1 i=1
Car Z Z
E (zt ) = zt ' (zt ) dzt = 0 et ' (zt ) dzt = 1
R R
La variance conditionnelle de notre processus fyt ; t 2 Zg est donnée par ses moments d’ordre
un et deux conditionnelles:
2
V ar (yt jFt 1) = E yt2 jFt 1 E (yt jFt 1)
X
K
(k)
2 XK
(k) 2 (k) 2
= t + t;k ( t;k )
k=1 k=1
42
3.4. Etude probabiliste du modèle MPAR
En e¤et, on sait
Z Z !
X
K (k)
yt t;k
E yt2 jFt 1 = yt2 f (yt jFt 1 ) dyt = (k)
yt2 ' (k)
dyt
k=1 t t
R R
yt t;k
On utilise le même changement de variable zt = (k) ; on obtient
t
X
K (k) Z 2
(k) (k) (k)
E yt2 jFt 1 = (k) t zt t + 2zt t t;k + 2
t;k ' (zt ) dzt
k=1 t
R
0 1
X
K
2
Z Z Z
= (k) @ (k)
t zt2 ' (zt ) dz t + 2
t;k ' (zt ) dz t +2
(k)
t t;k zt ' (zt ) dz t A
k=1 R R R
X
K
(k)
2
(k) 2
= t + t;k
k=1
Donc,
2
V ar (yt jFt 1) = E yt2 jFt 1 E (yt jFt 1)
X
K
(k)
2 XK
(k) 2 (k) 2
= t + t;k ( t;k )
k=1 k=1
Théorème 10 (Shao, 2006) Une condition nécessaire et su¢ sante pour qu’un processus
fyt ; t 2 Zg suivant un modèle M P ARS (K; p1 ; p2 ; :::; pK ) soit périodiquement stationnaire au
premier ordre est que les racines de l’équation déterminante
p
!
X
det A0 Al z l 6= 0 (3.3)
l=1
43
3.4. Etude probabiliste du modèle MPAR
X
K
(k) (k)
(Al )i;j = i;lS+i j ; pour l = 1; :::; p (3.5)
k=1
et p est le plus petit entier supérieur ou égal à p=S; tel que p = max (pk ) :
1 k K
Preuve.
(k)
Sans perdre de généralité, on suppose que t;0 = 0:
0
Considérons le vecteur aléatoire de dimension S suivant = ( S+1 ; S+2 ; :::; S+S ) ;
telque S+s = E (y S+s ), s = 1; :::; S.
Il est clair que l’esperance conditionnelle de yt , sachant le passé jusqu’au temps t 1 est
donnée par
pk
X
K X
(k) (k)
E (y S+s jFt 1)= s;i yt S+s , t2Z
k=1 i=1
alors
= E (y
S+s S+s ) = E (E (y S+s jFt 1 ))
p
( )
X XK
(k) (k)
S+s = s;i S+s i pour s = 1; :::; S (3.6)
i=1 k=1
Après quelques manipulations sur les indices, on peut écrire l’expression (3.6) sous forme
matricielle
A0 = A1 1 + A2 2 + ::: + Ap p (3.7)
Une condition nécessaire et su¢ sante pour que l’équation au di¤érence homogène (3.7) a une
solution stable, …nie et indépendante de , est que les racines de l’équation véri…ent
p
!
X
det A0 Al z l = 0
l=1
44
3.4. Etude probabiliste du modèle MPAR
Un résultat équivalent et similaire à celui de Shao a été donné par Bentarzi et Hamdi (2008
a et b) et Bentarzi et Merzougui (2011) concernat la condition de la stationnarité périodique
d’un processus M P ARS (K; p1 ; p2 ; :::; pK )
P
K
(k) (k)
où ai (t) = i;s ; i = 1; :::; p, sont périodique de période S:
k=1
Nous allons étudier une condition nécessaire et su¢ sante pour que l’équation aux dif-
férences linéaire non homogène périodique de période p (3.9) admet une solution …nie et
independante de s. A…n d’établir la condition de la stationnarité périodique d’un proces-
sus M P ARS (K; p1 ; p2 ; :::; pK ), on de…nie pour tout T 2 Z; le vecteur colonne périodique
a0 (T ) = (a0 (pT ) ; a0 (pT 1) ; :::; a0 (pT p + 1))0 et les deux matrices A0;T et A1;T de di-
mension p p, suivantes
8
>
> 1 si i = j
>
<
(A0;T )i;j = aj i (pT i + 1) si i < j
>
>
>
: 0 si i > j
et 8
< a (pT i + 1) si i j
p i+j
(A1;T )i;j =
: 0 si i < j
Posons S 2 N le plus petit entier tel que pS soit le plus petit multiple commun de p et S, il
est clair que les deux matrices A0;T et A1;T sont périodique en T de période S. En utilisant
ces notations, nous pouvons énoncer le résultat suivant.
soient en module strictement inférieure à l’unité, (i.e. jzj < 1) avec la matrice =
AS;01 AS;1 AS 1 1;0 AS 1;1 A1;01 A1;1 : Par ailleurs, l’experession du moment d’ordre un
45
3.4. Etude probabiliste du modèle MPAR
0
où T = pT ; pT 1 ; :::; pT (p 1) ; avec CT = AT;01 cT ; la matrice périodique BT = AT;01 AT;1 ;
¯
cT = (a0 (pT ) ; a0 (pT 1) ; :::; a0 (pT p + 1))
Preuve.
a) Condition nécessaire et su¢ sante
0
En utilisant, pour chaque T 2 Z; les p-vecteurs périodiques, T = pT ; pT 1 ; :::; pT (p 1)
et cT = (a0 (pT ) ; a0 (pT 1) ; :::; a0 (pT p + 1)) ; nous pouvons reécrire l’équation (3.9) sous
forme d’une équation au di¤érence d’ordre un, p-variée et S-périodique comme suit
T = BT T 1 + CT ; T 2 Z (3.11)
où la matrice BT = AT;01 AT;1 et le vecteur colonne CT = AT;01 cT . Il est clair que la condition
¯
nécessaire pour que cette dernière équation aux di¤érences linéaires non homogène possède
SQ1
une solution …nie, c’est-à-dire que toutes les racines du polynôme Iz BS j = 0; z 2 C
j=0
soient en module strictement inférieur à l’unité.
Par conséquent, le vecteur périodique T d’un M P ARS (K; p1 ; p2 ; :::; pK ) est donné, sous la
condition (3.10) par
! !
SP1 rQ1
1
T = (I ) BT j CT r + CT ;T 2 Z
j=0 j=0 ¯ ¯
La condition de stationnarité du second ordre pour une série temporelle M P ARS (K; 1; 1; :::; 1)
peut être obtenue de manière similaire.
46
3.4. Etude probabiliste du modèle MPAR
Théorème 11 (Shao, 2006) Supposons que notre processus fyt ; t 2 Zg suivant un M P ARS (K; 1; 1; :
est stationnaire au premier ordre. Ainsi, il est stationnaire de second ordre si seulement si
Q
S P
K
(k) (k)
2
s;1 <1 (3.12)
s=1 k=1
Preuve.
0 s
Soit =( 1+ S ; 2+ S ; :::; S+ S ) ; telque 0 = E y 2S+s , s = 1; :::; S.
Comme
P
K 2 X
K
s (k) (k) s 1 (k) (k) 2
0= i;s 0 + s
k=1 k=1
En e¤et,
Z Z !
X
K (k)
yt t;k
E yt2 jFt 1 = yt2 f (yt jFt 1 ) dyt = (k)
yt2 ' (k)
dyt
k=1 t t
R R
(k)
t;k = t;1 yt 1 ; k = 1; :::; K; t 2 Z
X
K (k) Z 2 2
(k) (k) (k) (k) (k)
E yt2 jFt 1 = (k) t zt t + 2zt t t;1 yt 1 + t;1 yt 1 ' (zt ) dzt
k=1 t
R
0 1
X
K
2
Z 2
Z
= (k) @ (k)
t zt2 ' (zt ) dz t +
(k)
t;1 yt 1 ' (zt ) dz t A +
k=1 R R
0 1
X
K Z
(k) @2 (k) (k)
t t;1 yt 1 zt ' (zt ) dz t A
k=1 R
X
K
(k)
2 X
K
(k)
2
(k) (k)
= t + t;1 yt 1
k=1 k=1
s
0 = E y 2S+s = E E y 2S+s jFt 1
X
K X
K
2
(k) (k) 2 (k) (k)
= s + s;1 E y 2S+s 1
k=1 k=1
P
K 2 X
K
(k) (k) s 1 (k) (k) 2
= s;i 0 + s
k=1 k=1
De façon analogue à l’équation (3.7), on peut dé…nir une équation au di¤érence non homogène
2
B0 = B1 1 +
47
3.4. Etude probabiliste du modèle MPAR
2
P
K
(k) (k)
2 P
K
(k) (k)
2 P
K
(k) (k)
2
où = 1 ; 2 ; :::; S et les matrices B0 et B1 sont
k=1 k=1 k=1
dé…nies comme suit
8
>
> 1 si i = j
>
>
< P
K 2
(k) (k)
(B0 )i;j = i;i j si i > j
>
> k=1
>
>
: 0 ailleurs
X
K
(k)
2
(k)
(B1 )i;j = i;S+i j ;
k=1
Remarque 3 On peut obtenir avec l’inégalité de Jensen(1) que l’inégalité (3.12) implique
l’inégalité (3.8). Par conséquent, un processus M P ARS (K; 1; 1; :::; 1) est stationnaire au
premier et au second ordre s’il satisfait l’inégalité (3.12).
P
K
(k) P
pk
(k) (k)
yt = t;0 + t;i yt i + t "t 1 Zt
(k)
=1
;t 2 Z (3.13)
k=1 i=1
(k) (k)
où "t = t "t ; f"t ; t 2 Zg est une suite de variables iid de moyenne nulle et de variance
unité.
(1)
Inégalité de Jensen : Soit f une fonction convexe sur un intervalle réel I et X une variable aléatoire à
valeurs dans I, dont l’espérance E(X) existe. Alors f (E(X)) E(f (X))
48
3.4. Etude probabiliste du modèle MPAR
Comme dans de nombreux modèles de séries chronologiques, il est utile d’écrire (3.13)
sous la forme d’une représentation autorégressive généralisée. Nous avons
Y t = At Y t 1 + Bt ; t 2 Z (3.14)
où
0
Yt = (yt ; yt 1 ; :::; yt p+1 )
0
P
K
(k)
Bt = at;0 + "t t 1 Z (k) =1 ; 0; :::; 0
t
k=1
et 0 1
at;1 at;p 1 at;p
At = @ A
Ip 1 0(p 1) 1
p p
est une matrice aléatoire de dimension (pp), et (At ; Bt ) est une suite de variables aléatoires
PK
(k)
independantes et périodiquemmet distribuées (i.p.d), avec at;i = t;i 1 Z (k) =1 ; pour t 2 Z
t
k=1
0 0 0
et i = 1; :::; p. Le pS-processus aléatoire fYt ; t 2 Zg dé…ni par Yt = YSt+1 ; :::; YSt+S est
¯ ¯
un processus autorégressif généralisé. Il satisfait l’équation suivante
Yt = At Yt 1 + Bt ; t 2 Z (3.15)
¯ ¯ ¯ ¯
où 0 1
0p p : : : 0p p ASt+1
B C
B C
B0p p : : : 0p p ASt+2 ASt+1 C
B C
At = B .. .. .. C
¯ B . . . C
B C
@ SQ1 A
0p p : : : 0p p ASt+S s
s=0
et 0 1
BSt+1
B C
B C
B ASt+2 BSt+1 + BSt+2 C
B C
Bt = B .. C
¯ B . C
B C
@P Q
S 1 s 1 A
ASt+S BSt+S s
s=0 =0
Dans ce qui est suit, la constante est dé…nie comme l’exposant de lyapunov associé à la
suite de martices aléatoires A=fAt ; t 2 Zg
¯ ¯
1
= inf E (log kAn An 1 : : : A1 k)
n2N n ¯ ¯ ¯
où k:k est une norme matricielle quelconque dans RpS . La condition su¢ sante de la sta-
tionnarité périodique stricte du modèle M P AR(K; p1 ; p2 ; :::; pK ) est donnée par le théorème
suivant
49
3.5. Structure d’autocorrélation
Théorème 12 (Hamdi, 2015) Le modèle (3.14) admit une solution non anticipative et
périodiquement strictement stationnaire donnée par la première composante de
P1 Q
n
Yt = At i B (3.16)
¯ n=1 i=1¯ ¯t n
si est strictement négatif, ou la série (3.16) converge presque sûrement pour tout t 2 Z.
De plus, le processus solution est unique et périodiquement ergodique.
Q
S
PE [2]
AS
<1
s=0 s jSt =
Alors le modèle MPAR (3.13), admet une solution non anticipative, unique et péridiquement
strictement stationnaire. Cette solution est aussi périodiquemt ergodique satisfait E (yt2 ) <
1:
Où 0 1
aS s;1 aS s;p 1 aS s;p
AS s =@ A
Ip 1 0(p 1) 1
p p
0 1
(1) [2] (1) [2]
E AS s jSt = 1 ::: E AS s jSt = 1
B C
B .. .. C
PE [2] =B . . C
AS s jSt = @ A
(K) [2] (K) [2]
E AS s jSt = K ::: E AS s jSt = K
[2]
et AS s = AS s AS s (produit de Kronecker) et St est une variable aléatoire à valeurs
dans f1; 2; :::; Kg. St est égale à k si l’observation yt est générée par la k ieme composante du
mélange.
50
3.5. Structure d’autocorrélation
(k)
où p = max pk et s;i = 0 pour i > pk :
1 k K
pour h = 0
(s)
0 = Var (y S+s )
E (y S+s y S+s h ) = E (E(y S+s y S+s h jFt 1 )) = E (y S+s h E(y S+s jFt 1 ))
pk
!
X
K X
(k) (k)
=E y S+s h S+s;i y S+s i
k=1 i=1
pk
K X
X
(k) (k)
= S+s;i E (y S+s h y S+s i )
k=1 i=1
pk
XK X
(k) (k) (s i)
= S+s;i i h :
k=1 i=1
(k)
Posons p = max pk et s;i = 0 pour i > pk ; alors
1k K
p
(s)
K X
X
(k) (k) (i h)
h = E (y S+s y S+s h) = s;i s i ; h = 1; :::; p (3.17)
k=1 i=1
q q
(s) (s h)
En divisant (3.17) par 0 0 on trouve
p
(s) X
K X (s i)
(h) h (k) (k) i h
s =q q = s;i q q
(s) (s h) (s) (s h)
0 0 k=1 i=1 0 0
p
X
K X
(k) (k) (s i)
= s;i i h :
k=1 i=1
51
3.6. Estimation des paramètres d’un modèle MPAR
00 0 0 0 0 0 0
Soit également, le vacteur des paramètres = 1;1 ; :::; S;1 ; 1;2 ; :::; S;2 ; :::; 1;K ; :::; S;K ,
;
(k) (k) (k) (k) (1) (2) (K 1) 0
où s;k = s;0 ; s;1 ; :::; s;pk ; s et = ; ; :::; : Pour une réalisation donnée
y = (y1 ; y2 ; :::; yn ) : La fonction log-vraisemblance conditionnelle du vecteur de paramètre
peut être exprimée de la manière suivante
0 2
1
(k)
P
n P
K "t
(k) B C
_ (k) (k)
L y; zt @log log t 2A (3.18)
¯ t=p+1k=1
2
(k)
t
et n = s2 + 2 S; où 8
< n
si s2 6= S
S
2 =
: n
1 si s2 = S
S
où bxc désigne le plus grand entier inférieur ou égal à x. Ensuite, nous pouvons réécrire
52
3.6. Estimation des paramètres d’un modèle MPAR
Etape E
Dans la (i + 1)ieme itération, les paramètres sont supposées connues, et = (i)
; et les vari-
(k)
ables manquantes Zt sont remplacées par leur espérance conditionnelle, que l’observation
yt provient de la k ieme composante de la distribution du mélange, sachant (i)
et Ft 1 . Cette
espérance conditionnelle est donnée par
(k) (k)
s+ S =E 1 Zs+
(k) jFt 1 ; = E Zs+ S jFt 1 ;
S =1
(k)
= P Zs+ S = 1 jFt 1 ;
(k) (k)
P Zs+ S = 1 f ys+ S Zs+ S = 1; Ft 1 ;
=
P
K
(k) (k)
P Zs+ S = 1 f ys+ S Zs+ S = 1; Ft 1 ;
k=1
(k)
(k) (k) "s+ S
1= s ' (k)
s
= , k = 1; :::; K:
P
K
(l) (l)
(l)
"s+ S
1= s ' (l)
l=1 s
Etape M
Consiste à estimer les paramètres de notre modèle, sous l’hypothèse que les données man-
quantes soient connues. Pour cela nous devons maximiser la fonction log-vraisemblance en
résolvant les équations @L( )
@ (k)
= 0; @L((k)) = 0 et @L( )
(k) = 0. Les solutions ^ des équations sont
@ s;i @ s
53
3.6. Estimation des paramètres d’un modèle MPAR
n Z (k)
P n Z (K)
P
t t
) (k)
= (K)
k = 1; ::::; K 1
t=p+1 t=p+1
(k) (k)
les Zt sont inconnues, on les remplace par leurs estimations t , on aura
P
n
(k)
(k) P
n
(K)
t = (K) t k = 1; ::::; K 1 (3.20)
t=p+1 t=p+1
alors
P
n P
K
(k) P
K (k) P
n
(K)
t = (K) t
t=p+1k=1 k=1 t=p+1
P
K
(k) P
K
(k)
on sait que t = 1 et = 1; donc
k=1 k=1
1 P
n
(K)
n p= (K) t
t=p+1
(K) 1 P
n
(K)
= t
n p t=p+1
(k)
en remplaçant cette dernière expression dans (3.20) on aura l’estimation de
1 P
n
(k)
^ (k) = t k = 1; :::; K 1
n p t=p+1
@L( ) @L( )
et le calcul des dérivées (k) et (k) , se fait à l’aide de la fonction log-vraiesemblence (3.19).
@ s @ s;i
et 8
< si s s2
2
4 =
: 1 si s > s2
2
@L( ) @L( )
donc les dérivées (k) et (k) sont donées par
@ s @ s;i
0 2
1
(k)
B "s+
(k)
@L ( ) P4 Z
s+ S S C
(k)
= (k) @ 2 1A
@ s = 3 s (k)
s
54
3.6. Estimation des paramètres d’un modèle MPAR
et
(k) (k)
@L ( ) P
4 Z
s+ S u(ys+ S ; i)"s+ S
(k)
= 2
@ s;i = 3 (k)
s
avec 8
< 1 si i = 0
u(ys+ S ; i) =
: y si i > 0
s+ S i
@L ( )
(k)
= 0 k = 1; :::; K; s = 1; :::; S; i = 1; :::; pk
@ s;i
(k) (k)
P
4 Z
s+ S u(ys+ S ; i)"s+ S
, 2 =0
= 3 (k)
s
P
4
(k) (k) (k) (k)
, Zs+ S u(y s+ S ; i) ys+ S s;0 s;1 yt 1 ::: s;pk ys+ S pk =0
= 3
P
4
(k) P
4
(k) (k) (k) (k)
, Zs+ S u(y s+ S ; i)y s+ S = Zs+ S u(y s+ S ; i) s+ S;0 +Z s+ S u(y s+ S ; i) s;1 ys+ S 1 +:::
= 3 = 3
(k) (k)
+Z s+ S u(y s+ S ; i) s;pk ys+ S pk
P
4
(k) P
4 P
pk
(k) (k)
, Zs+ S u(y s+ S ; i)y s+ S = Zs+ S s;j u(y s+ S ; i)u(y s+ S ; j)
= 3 = 3 j=0
(k) (k)
on remplace les Zs+ S par leurs estimations s+ S
P
4
(k) P
pk P4
(k) (k)
s+ S y s+ S u(y s+ S ; i)= s+ S s;j u(y s+ S ; i)u(y s+ S ; j) k = 1; :::; K;
= 3 j=0 = 3
s = 1; :::; S; i = 1; :::; pk
où 0 1
P
4
(k) 0 1
B = s+ S ys+ S u(ys+ S ; 0)C (k)
B 43 C B s;0 C
B P (k) (k) C B C
B s+ S s+ S u(ys+ S ; 1) C
C B (k)
C
B
=B C
^(k) s;1
bs;k =B =3 C, s B .. C
B .. C B . C
B . C @ A
B 4 C
@ P (k) A (k)
s;pk
s+ S ys+ S u(ys+ S ; pk )
= 3
55
3.6. Estimation des paramètres d’un modèle MPAR
et
0 1
P
4
(k) P
4
(k) P
4
(k)
B s+ S s+ S ys+ S 1 s+ S ys+ S pk C
B 4 = 3 = 3 = 3 C
B P (k) P
4
(k) P
4
(k) C
B s+ S ys+ S 1 s+ S ys+ S 1 ys+ S 1 s+ S ys+ S pk ys+ S 1
C
B C
As;k =B =3 = 3 = 3 C
B .. .. .. .. C
B . . . . C
B 4 C
@ P (k) P
4
(k) P
4
(k) A
s+ S ys+ S pk s+ S ys+ S 1 ys+ S pk s+ S ys+ S pk ys+ S pk
= 3 = 3 = 3
avec 8
< 1 si i = 0
u(ys+ S ; i) =
: y si i > 0
s+ S i
(k)
En…n, l’estimation de est donné par s ;
0 2
1
(k)
@L ( ) Pn Z (k) "s+ S
s+ S B C
(k)
=0, (k) @ 2 1A = 0 k = 1; :::; K et s = 1; :::; S
@ s t=p+1 s (k)
s
2
(k) (k)
P
n Zs+ S "s+ S n Z (k)
P s+ S
, 3 = (k)
k = 1; :::; K et s = 1; :::; S
t=p+1 (k) t=p+1 s
s
ce qui donne
P
4
(k) (k)
2
Zs+ S "s+ S
(k) 2 = 3
s = P
4
k = 1; :::; K et s = 1; :::; S
(k)
Zs+ S
= 3
s = 1; :::; S; i = 1; :::; pk
56
3.6. Estimation des paramètres d’un modèle MPAR
où les formules pour calculer les matrices Ic et Im sont données dans le paragraphe suivant.
pour k = 1; :::; K 1 on a
!!
@2L @ X
n
Zt
(k)
Zt
(K)
=
@( (k) )2 @ (k) (k) (K)
t=p+1
!
X
n
Zt
(k)
Zt
(K)
= +
( (k) )2 ( (K) )2
t=p+1
X
n
Zt
(K)
=
( (K) )2
t=p+1
(k)
- Les dérivées secondes par rapport à s;i
57
3.6. Estimation des paramètres d’un modèle MPAR
(k) (k)
- Les dérivées secondes par rapport aux s et s;i
pour k = 1; :::; K
0 0 2
11
(k)
@L ( ) @ BX
4 (k)
Zs+ S B "s+ S CC
2 = (k) @ (k) @ 2 1AA
@
(k)
s
@ s = 3 s (k)
s
0 2
1
(k)
X Zs+ S B 3 "s+ S
4 (k)
C
= 2 @ 2 1A
(k) (k)
= 3 s s
X
4 (k) (k)
2Zs+ S u(ys+ S ; i)"s+ S
= 3
(k)
= 3 s
- Comme pour le modèle MAR, il est claire que la matrice d’information complète Ic
d’un modèle MPAR est une matrice diagonale donnée par
0 1
I( )
B C
B C
B I ( 1;1 ) C
B C
B ... C
B C
B C
B C
B I ( S;1 ) C
Ic = B
B ..
C
C
B . C
B C
B C
B I ( 1;K ) C
B C
B ... C
B C
@ A
I( S;K )
58
3.6. Estimation des paramètres d’un modèle MPAR
@2L ( )
I( )
=E j ;Y = Ik;l
@ @ 0 k;l=1;:::;K 1
pour k = 1; :::; K 1 on a
! ! !
( ) @2L X
n
Zt
(k) (K)
Zt
Ik;k =E 2 j ;Y =E 2
+ 2
j ;Y
@ ( (k) ) t=p+1 k K
0 (k) (K)
1
Xn E Zt j ; Y E Zt j ;Y
= @ + A
2 (K) )2
t=p+1 ( (k) ) (
!
X
n (k)
t
(K)
t
= +
( (k) )2 ( (K) )2
t=p+1
pour k; l = 1; :::; K 1; k 6= l on a
!
( ) @2L X
n
Zt
(K)
Ik;l =E j ;Y =E j ;Y
@ (l) @ (k) ( (K) )2
t=p+1
(K)
X
n E Zt j ;Y X
n (K)
t
= =
( (K) )2 ( (K) )2
t=p+1 t=p+1
Et la matrice I ( s;k ) ; k = 1; :::; K est une matrice carrée de dimension p + 2 est dé…niée par
k
!
@2L ( s;k )
I ( s;k ) = E 0
j ; Y = Ii;j
@ s;k @ s;k i;j=1;:::;pk +2
pour i; j = 0; :::; pk on a
0 1
!
BX
4 (k)
( s;k ) @2L Zs+ S u(ys+ S ; i)u(ys+ S ; j) C
Ii+1;j+1 = E (k) (k)
j ;Y = E@ 2 j ;Y A
@ s;i @ s;j = 3
(k)
s
X
4 (k)
s+ S u(ys+ S ; i)u(ys+ S ; j)
= 2
(k)
= 3 s
59
3.6. Estimation des paramètres d’un modèle MPAR
pour i; j = pk + 2; on a
0 1 0 0 2
1 1
(k)
BX B 3 "s+
4 (k)
( s;k ) B @L ( ) C Zs+ S S C C
Ipk +2;pk +2 = E @ 2 j ;Y A = E@ 2 @ 2 1A j ; Y A
(k) (k) (k)
@ s = 3 s s
0 2
1
(k) (k)
X
4 E Zs+ S j ;Y B3 "s+ S C
= 2 @ 2 1A
(k) (k)
= 3 s s
0 2
1
(k)
X B 3 "s+
4 (k)
s+ S S C
= 2 @ 2 1A
(k) (k)
= 3 s s
pour i = 0; :::; pk et j = pk + 2
!
( s;k ) ( s;k ) @2L
Ii+1;pk +2 = Ipk +2;i+1 = E (k) (k)
j ;Y
@ s @ s;i
0 1
BX
4 (k) (k)
2Zs+ S u(ys+ S ; i)"s+ S C
= E@ 3 j ;Y A
(k)
= 3 s
X
4
2
(k) (k)
s+ S u(ys+ S ; i)"s+ S
= 3
(k)
= 3 s
- D’autre part, la matrice d’information manquante Im est une matrice symétrique, alors
il su¢ t d’évoluer la matrice triangulaire inférieure
0 1
I( ; )
B C
B ( 1;1 ; ) C
BI I ( 1;1 ; 1;1 ) C
B C
B .. .. ... C
B . . C
B C
B ( S;1 ; ) C
BI I ( S;1 ; 1;1 ) I ( S;1 ; S;1 ) C
Im = BB C
.. .. .. .. C
B . . . . C
B C
B ( 1;K ; ) ( 1;K ; 1;1 ) C
BI I I ( 1;K ; S;1 ) I ( 1;K ; 1;K ) C
B C
B .. .. .. .. .. C
B . . . . . C
@ A
I ( S;K ; ) I ( S;K ; 1;1 ) I ( S;K ; S;1 ) I ( S;K ; 1;K ) I( S;K ; S;K )
La matrice I ( ; )
est de dimension (K 1) (K 1) telle que
@L ( ; )
I( ; )
= var j ;Y = Ik;l
@ (k) k;l=1;:::;K 1
60
3.6. Estimation des paramètres d’un modèle MPAR
pour k = 1; :::; K 1; on a
! !
( ; ) @L X
n
Zt
(k)
Zt
(K)
Ik;k = var j ;Y = var j ;Y
@ (k) t=p+1
(k) (K)
! !
X
n
Zt
(k)
Zt
(K) X
n X
n
Zt
(k)
Zt
(K) (k)
Zt0
(K)
Zt0
= var (k) (K)
j ;Y +2 cov (k) (K)
; (k) (K)
j ;Y
t=p+1 t=p+1 t0 =p+1
t6=t0
! ! !!
X
n
Zt
(k)
Zt
(K)
Zt
(k)
Zt
(K)
= var (k)
j ;Y + var (K)
j ;Y 2 cov (k)
; (K)
j ;Y
t=p+1
0 (k) (k) (K) (K)
1
X
n
t 1 t t 1 t 2
(k) (K)
= @ + + t t A
( (k) )2 ( (K) )2 (k) (K)
t=p+1
n o
(k) (k) (k)
cov Zt ; Zt0 = 0 8t0 6= t; (i.e. la variable aléatoire Zt t 2 Z est indépendante et
identiquement distribuée (i.i.d.)).
( ; ) @L @L
Ik;l = cov ; j ;Y
@ (k) @ (l)
! n ! !
Xn (k)
Zt Zt
(K) X Zt
(l)
Zt
(K)
= cov (k) (K)
; (l) (K)
j ;Y
t=p+1 t=p+1
!
X
n X
n (k)
Zt
(K)
Zt
(l)
Zt
(K)
Zt
= cov (k) (K)
; (l) (K)
j ;Y
t=p+1 t0 =p+1
!
(k) (K) (l) (K)
Pn Zt Zt Zt Zt
= t=p+1 cov (k) (K)
; (l) (K)
j ;Y
!
X
n X
n
Zt
(k)
Zt
(K) (l)
Zt0 Zt0
(K)
+ cov (k) (K)
; (l) (K)
j ;Y
t=p+1 t0 =p+1
t6=t0
!
X
n
Zt
(k)
Zt
(K)
Zt
(l)
Zt
(K)
= cov (k) (K)
; (l) (K)
j ;Y
t=p+1
0 (K) (K)
1
X
n (k) (K) (l) (K) (k) (l)
t 1 t
= @ t t
+ t t t t
+ A
(k) (K) (l) (K) (k) (l)
( (K) )2
t=p+1
@L ( s;k ; )
I( ) = var
s;k ; s;k s;k
j ;Y = Ii;j
@ s;k i;j=1;:::;pk +2
61
3.6. Estimation des paramètres d’un modèle MPAR
pour j = pk + 2 et i = pk + 2 on a
( s;k ; s;k ) @L
Ipk +2;pk +2 = var (k)
j ;Y
0@ s
0 1 1
2
(k)
B X Zs+ S B "s+
4 (k)
S C C
= var @ (k) @ 2 1A j ; Y A
s (k)
= 3 s
0 2
12
(k) (k) (k)
X4
s+ S 1 s+ S B "s+ S C
= 2 @ 2 1A
(k) (k)
= 3 s s
62
3.6. Estimation des paramètres d’un modèle MPAR
pour i = 0; :::; pk et j = pk + 2 on a
!
( s;k ; s;k ) ( s;k ; s;k ) @L @L
Ii+1;pk +2 = Ipk +2;i+1 = cov (k)
; (k)
j ;Y
@ s;i @ s
0 0 2
1 1
(k)
BX
4
Zs+ S u(ys+ S ; i)"s+ S X
(k) (k) 4 (k)
Zs+ S B "s+ S C C
= cov @ 2 ; (k) @ 2 1A j ; Y A
(k) s (k)
= 3 s = 3 s
0 0 2
1 1
(k)
X B "s+
4 (k) (k) (k)
B Zs+ S u(ys+ S ; i)"s+ S Zs+ S S C C
= cov @ 2 ; (k) @ 2 1A j ; Y A
(k) s (k)
= 3 s s
0 2
1
(k) (k) (k)
X
4 var Zs+ S j ;Y u(ys+ S ; i)"s+ S B "s+ S C
= 3 @ 2 1A
(k) (k)
= 3 s s
0 2
1
(k) (k) (k) (k)
X4
s+ S 1 s+ S u(ys+ S ; i)"s+ S B "s+ S C
= 3 @ 2 1A
(k) (k)
= 3 s s
@L @L ( s;k ; )
I( s;k ; ) = cov ; j ;Y = Ii;j
@ s;k @ (k) (i;j)2f1;:::;pk +2g f1;:::;K 1g
63
3.6. Estimation des paramètres d’un modèle MPAR
(k) (k)
X
4 var Zs+ S j ;Y u(ys+ S ; i)"s+ S
= 2
(k) (k)
= 3 s
64
3.6. Estimation des paramètres d’un modèle MPAR
pour i = pk + 2; et l = k; on a
( s;k ; ) @L @L
Ipk +2;k = cov j ;Y (k)
;
@ s @ (k)
0 0 1 1
(k)
2 !
B X Zs+ S B "s+ C X
4 (k) 4 (k) (K)
S Zs+ S Zs+ S C
= cov @ (k) @ 2 1A ; (k) (K)
j ;Y A
s (k)
= 3 s = 3
0 0 2
1 1
(k)
BX
4 (k)
Zs+ S B "s+ S C X
4 (k)
Zs+ S C
= cov @ (k) @ 2 1A ; (k)
j ;Y A
s (k)
= 3 s = 3
0 0 2
1 1
(k)
BX
4 (k)
Zs+ S B "s+ S C X
4 (K)
Zs+ S C
cov @ (k) @ 2 1A ; (K)
j ;Y A
s (k)
= 3 s = 3
0 (k)
1 0 (k) 2
1
X
4 var Zs+ S j ;Y cov (Zt;k ; Zt;K j ; Y ) A B "s+ S C
= @ @ 1A
(k) (k) (k) (K) 2
s s (k)
= 3 s
0 1
! (k)
2
X 4
1
(k) (K) (k)
B "s+ S C
s+ S s+ S s+ S
= (k)
+ (K) (k) @ 2 1A
s (k)
= 3 s
Pour i = pk + 2; et l 6= k on a
( s;k ; ) @L @L
Ipk +2;k = cov j ;Y(k)
;
@ @ (l) s
0 0 1 1
(k)
2 !
B X Zs+ S B "s+ C X
4 (k) 4 (l) (K)
S Zs+ S Zs+ S C
= cov @ (k) @ 2 1A ; (l) (K)
j ;Y A
s (k)
= 3 s = 3
0 0 2
1 1
(k)
BX B "s+ C X
4 (k) 4 (l)
Zs+ S S Zs+ S C
= cov @ (k) @ 2 1A ; (l)
j ;Y A
s (k)
= 3 s = 3
0 0 2
1 1
(k)
BX
4 (k)
Zs+ S B "s+ S C X
4 (K)
Zs+ S C
cov @ (k) @ 2 1A ; (K)
j ;Y A
s (k)
= 3 s = 3
65
3.6. Estimation des paramètres d’un modèle MPAR
@L @L ( s;K ; )
I( s;K ; ) = cov ; j ;Y = Ii;j
@ s;k @ (i;j)2f1;:::;pk +2g f1;:::;K 1g
66
3.6. Estimation des paramètres d’un modèle MPAR
et pour i = pK + 2; et k = 1; :::; K 1; on a
( s;K ; ) @L @L
IpK +2;k = cov j ;Y (K)
;
@ s @ (k)
0 0 1 1
(K)
2 !
B X Zs+ S B "s+ S C X
4 (K) 4 (k) (K)
Zs+ S Zs+ S C
= cov @ (K) @ 2 1A ; (k) (K)
j ;Y A
s (K)
= 3 s = 3
0 0 2
1 1
(K)
BX
4 (K)
Zs+ S B "s+ S C X
4 (k)
Zs+ S C
= cov @ (K) @ 2 1A ; (k)
j ;Y A
s (K)
= 3 s = 3
0 0 2
1 1
(K)
BX
4 (K)
Zs+ S B "s+ S C X
4 (K)
Zs+ S C
cov @ (K) @ 2 1A ; (K)
j ;Y A
s (K)
= 3 s = 3
donnée par
@L @L ( s;k ; )
I( ) = cov
s;k ; s;l s;l
; j ;Y = Ii;j
@ s;k @ s;l (i;j)2f1;:::;pk +2g f1;:::;pl +2g
X
4 (k) (l) (k) (l)
s+ S s+ S u(ys+ S ; i)u(ys+ S ; j)"s+ S "s+ S
= 2 2
(k) (l)
= 3 s s
67
3.6. Estimation des paramètres d’un modèle MPAR
pour i = pk + 2 et j = pk + 2 on a
( s;k ; s;l ) @L @L
Ipk +2;pk +2 = cov (l)
j ;Y (k)
;
0@ s @ s
0 1 0 1 1
2 2
(k) (l)
B X Zs+ S B "s+ C X B "s+
4 (k) 4 (l)
S Zs+ S S C C
= cov @ (k) @ 2 1A ; (l) @ 2 1A j ; Y A
s (k) s (l)
= 3 s = 3 s
0 2
10 2
1
(k) (l) (k) (l)
X
4 cov Zs+ S ; Zs+ S j ;Y B "s+ S CB "s+ S C
= (k) (l) @ 2 1A @ 2 1A
s s (k) (l)
= 3 s s
( )
X
4 (k)
s+ S
(l)
s+ S "2t;k "2t;l
= (k) (l) 2
1 2
1
= 3 s s k l
pour i = 0; :::; pk et j = pk + 2 on a
!
( s;k ; s;l ) @L @L
Ii+1;pk +2 = cov (k)
; (l)
j ;Y
@ s;i @ s
0 0 2
1 1
(l)
BX
4
Zs+ S u(ys+ S ; i)"s+ S X
(k) (k) 4 (l)
Zs+ S B "s+ S C C
= cov @ 2 ; (l) @ 2 1A j ; Y A
(k) s (l)
= 3 s = 3 s
0 0 2
11
(k) (l) (k) (l)
X
4
B cov Zs+ S ; Zs+ S j ;Y u(ys+ S ; i)"s+ S B "s+ S CC
= @ 2 @ 2 1AA
(k) (l) (l)
= 3 s s s
0 2
1
(l)
X 4 (k) (l) (k) "s+ S
s+ S s+ S u(ys+ S ; i)"s+ S B C
= 2 @ 2 1A
(k) (l) (l)
= 3 s s s
pour i = pk + 2 et j = 0; :::; pk on a
!
( s;k ; s;l ) @L @L
Ipk +2;j+1 = cov (k)
; (l)
j ;Y
@ s @ s;j
0 0 2
1 1
(k)
B X Zs+ S B
4 (k) "s+ S C X Zs+ S u(ys+ S ; j)"s+
4 (l) (l)
C
S
= cov @ (k) @ 2 1A ; 2 j ;Y A
s (k) (l)
= 3 s = 3 s
0 2
1
(k) (l) (l) (k)
X
4 cov Zs+ S ; Zs+ S j ;Y u(ys+ S ; j)"s+ S B "s+ S C
= 2 @ 2 1A
(k) (l) (k)
= 3 s s s
0 2
1
(k)
X B "s+
4 (k) (l) (l)
s+ S s+ S u(ys+ S ; j)"s+ S S C
= 2 @ 2 1A
(k) (l) (k)
= 3 s s s
68
3.6. Estimation des paramètres d’un modèle MPAR
Où f (yt jFt 1) est donné par la dé…nition (3.2) d’un modèle MPAR.
Ils ont montré que la fonction log-vraisemblance maximisée (observée) L a une meilleure
performance dans le choix du bon modèle que la fonction log-vraisemblance maximisée L;
et donc ils ont suggéré d’utiliser L pour le calcul AIC et BIC. Dans notre cas d’un modèle
MPAR, nous pouvons également adopter le même critère, où l’AIC et le BIC sont dé…nis
comme !!
X
K
AIC = 2L + 2 K 1+S 2K + pk
k=1
et !!
X
K
BIC = 2L + K 1+S 2K + pk log (n p)
k=1
Pour les critères AIC et BIC , sont donnés par
!!
X
K
AIC = 2L + 2 K 1+S 2K + pk
k=1
et !!
X
K
BIC = 2L + K 1+S 2K + pk log (n p)
k=1
69
C
ha pi
tr
e 4
Etude de Simulation et Application
Sommaire
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
70
4.1. Introduction
4.1 Introduction
Dans ce chapitre, nous allons e¤ectuer une étude de simulation pour évaluer la perfor-
mance de la méthode du maximum de vraisemblance (MV) via l’algorithme EM pour les
deux modèles MAR et MPAR.
Nous essayons, par la suite, de montrer à travers la modélisation de quatre (04) séries
réelles l’utilité et la capacité des modèles MPAR de capturer, en plus de la saisonnalité saisie
par le modèle SARIMA, le changement de régime, la multimodalité et l’excés de kurtosis. Il
s’agit de la modélisation des ventes des quatre carburants (essence normale, essence super,
essence sans plomb et gasoil) dans la région centre du pays.
71
4.2. La performance de l’algorithme EM dans les modèles MAR
Table 4.1: Résultat de simulation pour 1000 réplications d’un modèle M AR(3; 2; 1; 3), avec n = 200
k k k k0 k1 k2 k3
Table 4.2: Résultat de simulation pour 1000 réplications d’un modèle M AR(3; 2; 1; 3), avec n = 500
k k k k0 k1 k2 k3
1 VV 0; 4000 1:000 0:0000 0:9000 0:6000
ME 0:4013 0:9921 0:0004 0:8999 0:5999
ETE 0:0291 0:0748 0:0911 0:0097 0:0114
ETT 0:0278 0:0727 0:0908 0:0083 0:0087
2 VV 0:3000 1:0000 0:0000 0:5000
ME 0:2994 0:9908 0:0014 0:4998
ETE 0:0248 0:0747 0:1047 0:0105
ETT 0:0241 0:0735 0:0993 0:0082
3 VV 0:3000 5:0000 5:0000 1:5000 0:7400 0:1200
ME 0:2993 4:9146 5:0440 1:4949 0:7413 0:1185
ETE 0:0264 0:3247 0:5182 0:0553 0:0628 0:0592
ETT 0:0259 0:3211 0:5023 0:0542 0:0605 0:0550
72
4.2. La performance de l’algorithme EM dans les modèles MAR
Table 4.3: Résultat de simulation pour 1000 réplications d’un modèle MAR(3,2,1,3), avec n=1000
k k k k0 k1 k2 k3
1 VV 0; 4000 1:000 0:0000 0:9000 0:6000
ME 0:4011 0:9981 0:0021 0:9001 0:6002
ETE 0:0204 0:0528 0:0692 0:0065 0:0076
ETT 0:0196 0:0509 0:0639 0:0056 0:0059
2 VV 0:3000 1:0000 0:0000 0:5000
ME 0:2995 0:9944 0:0010 0:4999
ETE 0:0174 0:0529 0:0759 0:0069
ETT 0:0170 0:0520 0:0699 0:0056
3 VV 0:3000 5:0000 5:0000 1:5000 0:7400 0:1200
ME 0:2995 4:9511 5:0269 1:4985 0:7392 0:1189
ETE 0:0180 0:2332 0:3491 0:0383 0:0432 0:0381
ETT 0:0182 0:2273 0:3529 0:0366 0:0411 0:0371
Table 4.4: Résultat de simulation pour 1000 réplications d’un modèle MAR(2,1,1), avec n=200
k k k k0 k1
Table 4.5: Résultat de simulation pour 1000 réplications d’un modèle MAR(2,1,1), avec n=500
k k k k0 k1
73
4.3. La performance de l’algorithme EM dans les modèles MPAR
Table 4.6: Résultat de simulation pour 1000 réplications d’un modèle MAR(2,1,1), avec n=1000
k k k k0 k1
1 VV 0; 5000 5:000 0:0000 0:5000
ME 0:4999 4:9822 0:0013 0:4941
ETE 0:0232 0:1725 0:2405 0:0385
ETT 0:0236 0:1677 0:2372 0:0375
2 VV 0:5000 1:0000 0:0000 1:1000
ME 0:5001 0:9979 0:0006 1:0993
ETE 0:0232 0:0515 0:0576 0:0077
ETT 0:0236 0:0526 0:0578 0:0078
Les valeurs initiales entrant dans l’algorithme EM sont les vraies valeurs des modèles
MAR souhaités à estimer. On constate que les valeurs estimées sont proches des vraies
valeurs (les variances, les proportions du mélange et les coe¢ cients autorégressifs). Ainsi,
l’écart-type empirique et l’écart-type théoriques se rapprochent de zéro, au fur et mesure
que la taille de la série augmente, ce qui re‡ète la consistance empirique des estimations
obtenues par la méthode des maximum de vraisemblance en passant par l’algorithme EM.
74
4.3. La performance de l’algorithme EM dans les modèles MPAR
75
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Nous pouvons constater à partir des Tables (4.7) et (4.8), que les biais de l’estimation et
les écart-types empirique obtenues sont généralement assez petits, même pour des séries de
petite taille. Les biais et écarts-types empiriques tendent vers zéro. Ainsi, la performance
de l’algorithme EM est conservée.
Il est important de noter que le repli des ventes d’essence normale revient au fait qu’il soit
un produit pétrolier énergétique très polluant. De plus, des résultats d’analyse de moteurs de
véhicules en fonctionnement au sein de laboratoires automobiles ont montré que ce carburant
altère le bon fonctionnement des moteurs à cause des oxydes de plomb qui s’accumulent sur
les parois de la chambre à combustion.
76
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
A partir du graphe, on remarque l’existence d’un e¤et saisonnier par un pic au niveau
de chaque année, cela signi…e une haute consommation d’essence normale en juillet et août,
par contre une baisse dans les autres mois.
L’analyse du corrélogramme simple et partiel la (Table 4.9), nous indique une non sta-
tionnarité de la série. En e¤et, la fonction d’autocorrélation simple ne décroît pas de manière
rapide vers zéro et le premier terme du corrélogramme partiel est très important (0:979) :
Ceci nous mène à tester l’existence d’une tendance déterministe ou stochastique par l’emploi
du test de racine unitaire.
Pour la saisonnalité, il est nécessaire d’appliquer des tests de saisonnalité a…n de con…rmer
ou d’in…rmer les résultats de l’examen visuel.
77
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
d’ordre 12.
Si la valeur de Fisher calculé (Fcal ) < Fisher tabulé (Ftab ), on accepte H0 , sinon on rejette
H0 :
= 1 L12 EN ORt
78
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
79
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Fcal = 0:161 < Ftab = 1:84; on accepte H0 , donc la série n’est pas saisonnière.
Fcal = 17:312 > Ftab = 1:72; on rejette H0 , donc la série est tendancielle.
Le résultat de l’a¢ chage pour la série DEN ORt est reproduit sur la Table (4.13).
80
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
On applique un simple test de Student sur la signi…cativité de la tendance. Il est claire que
d’après la Table (4.13) la tendance est signi…cativement di¤erent de zéro, car la statistique
calculée de la tendance est égale, en valeur absolue à 2:318 qui est supérieure à 1:96 au seuil
5%. Cela signi…e que le modèle (3) est adapté, la série est non stationnaire de type TS(1) .
81
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Donc pour stationnariser cette série il reste de lui retrancher la tendance (l’expression
4.2).
DDEN ORt = DEN ORt y(t) (4.2)
82
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Estimation
On procède à l’estimation de plusieurs modèles en acceptant les modèles où les coe¢ cients
sont signi…cativement di¤érents de zéro, en comparant toujours les t-statistiques (en valeur
absolue) avec la valeur tabulée de student.
En utilisant la méthode de moindre carré pour estimer les paramètres d’un modèle
SARIM A; on a trouvé deux modèles candidats à savoir le modèle SARIM A(2; 0; 1)(0; 1; 1)12
83
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
et SARIM A(2; 0; 0)(2; 1; 0)12 dont les résultats de l’estimation des deux modèles sont réper-
toriés respectivement dans la Tables (4.15) et (4.16).
Puis on a choisi celui qui minimise le critère AIC ou celui de BIC. Le meilleur modèle
identi…é selon ces deux critères, est le modèle SARIM A(2; 0; 1)(0; 1; 1)12
Validation du modèle
Dans le but de savoir si le processus qui génère la série DDEN ORt est bien estimé par
le modèle SARIM A(2; 0; 1)(0; 1; 1)12 , on va e¤ectué plusieurs tests sur les paramètres et les
résidus représentant l’écart entre la valeur réelle et la valeur estimé par le modèle proposé.
84
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
La représentation du cercle unitaire et la table des inverses des racines des polynomes de
retards AR et M A est la suivante
Les racines des deux polynômes autoregressif et moyenne mobile sont supérieures en
module à 1, car leurs inverses calculés, par EVIEWS 8, sont tous inférieurs à 1 (voir la Table
(4.17)), ainsi les conditions de stationnarité et d’inversibilité sont véri…ées.
85
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Le corrélogramme des résidus du modèle SARIM A(2; 0; 1)(0; 1; 1)12 montre que les résidus
forment un bruit blanc, car tous les termes sont à intérieure de l’intervalle de con…ance (il-
lustré par une bande en pointillés sur le graphique), on va appliquer le test de Box-Lujng(1)
pour l’ordre K = 28 tel que
2
La statatistique de test vaut Qstats = 27:786 est inférieure à 0:95 (28 3) = 36; 41, d’où
les résidus sont non corrélés.
(1)
Sous Eviews noté Q-stats
86
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Figure 4.6: Graphique des séries estimée, réelle et celle des résidus
A partir de la représentation graphique des séries estimée, réelle et celle des résidus
(Figure (4.6)), on trouve que le modèle estimé ajuste bien la série des ventes d’essence
normale car les graphes de la série réelle et de la série estimée évoluent de la même manière
dans le temps.
87
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Du corrélogramme des résidus aux carrés (Table (4.20)), on remarque que les carrés des
résidus sont non corrélés entre eux, ce qui signi…e une absence d’un e¤et ARCH.
Pour con…rmer absence de l’e¤et ARCH sur les résidus, on va applique son test.
88
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
On conclut que le modèle estimé SARIM A(2; 0; 1)(0; 1; 1)12 est valide pour représenter
la série EN ORt et il s’ecrit comme la suite :
89
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
brut.
Table 4.22: Prévisions calculées à partir du modèle estimé (unité de mesure TM )
Dates Valeurs Prévisionnelles
Janv-17 6351.28
Févr-17 5382.45
Mars-17 7388.06
Avr-17 7479.85
Mai-17 8315.10
Juin-17 8304.31
Juil-17 10135.40
Août-17 10641.82
sept-17 10084.11
Oct-17 10326.84
Nov-17 9568.71
Déc-17 10285.41
90
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Notons que le gasoil est un carburant très prisé pour son bas prix (se distinguant par un
écart signi…catif par rapport au prix des essences, ainsi qu’une faible évolution du niveau des
prix) et pour ses utilisations multiples, à savoir dans le secteur de l’industrie, de l’agriculture
et des transports (accroissement des opérateurs activant dans le domaine du transport
routier), ainsi que dans les ménages. Cela engendre une forte consommation de ce car-
burant, dopée notamment par une croissance considérable du parc automobile doté d’un
moteur diesel.
91
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
L’analyse du corrélogramme simple et partiel (Table 4.23),nous indique une non station-
narité de la série LGSLt . En e¤et, la fonction d’autocorrélation simple ne décroît pas de
manière rapide vers zéro et le premier terme du corrélogramme partiel est très important
(0; 957). Ceci nous mène à tester l’existence d’une tendance déterministe ou stochastique
par l’emploi du test de racine unitaire.
92
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
93
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Remarque 4
Le test de saisonnalité de Fisher est faible par rapport au e¤et tendancielle, alors pour
con…rmer que la série n’admet pas un tendance, on applique le test de Dickey Fuller.
94
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Le résultat de l’a¢ chage pour la série DGSLt est reproduit sur la Table (4.27)
Il nous faut donc à présent tester la nullité du coe¢ cient de la tendance par un simple
test de Student. La statistique calculée de la tendance est égale, en valeur absolue, à 2:583 et
qui est supérieure à 1:96. ce qui implique que la série est non stationnaire de type tendance
déterministe (TS).
Estimation de la tendance
On a estimé l’équation d’ajustement y (t) qui est donné par
96
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Table 4.29: Résultat d’estimation d’un modèle SARIM A(7; 0; 3)(3; 1; 0)6
Validation du modèle
Test sur les paramètres
On constate que tous les paramètres du modèle sont signi…cativement di¤érents de zéro.
En e¤et les statistiques de Student associées à chaque coe¤…cient sont en valeur absolue
supérieures à 1:96, ce qui est con…rmé par les probabilités de nullité des coe¢ cients qui sont
tous inférieurs à 0:05:
97
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Les racines des deux polynômes autoregressif et moyenne mobile sont supérieures en
module à 1, car leurs inverses calculés par EVIEWS 8 sont tous inférieurs à 1 (voir Figure
4.30), ainsi les conditions de stationnarité et d’inversibilité sont véri…ées.
98
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
graphes de la série réelle et de la série estimée évoluent de la même manière dans le temps.
Figure 4.14: Graphique des séries estimée, réelle et celle des résidus
Test de Ljung-Box
Du corrélogramme de la série résiduelle calculée à partir du modèle SARIMA estimé
(Table 4.32), on remarque que tout les termes d’autocorrélation et autocorrélation partielle
sont à l’intérieur de l’intervalle de con…ance. De plus, on remarque que la statistique de
Ljung-Box (Q-stat) associée à l’ordre d’autocorrélation h = 24 est égale à Qstat = 17:577 qui
2
est inférieure à la valeur théorique du 0:95 (24 9) = 24:99 au seuil 5%, d’où les résidus sont
non corrélés.
99
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
On conclut que les résidus forment un bruit blanc. Il reste à savoire si la distribution de
ce bruit est gaussienne ou pas.
Du corrélogramme des résidus aux carrés (Table 4.33), on remarque que les carrés des
résidus sont non corrélés entre eux, ce qui signi…e une absence d’un e¤et ARCH.
100
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Pour con…rmer absence de l’e¤et ARCH sur les résidus, on va applique son test.
On conclut que le modèle estimé SARIM A(7; 0; 3)(3; 1; 0)6 est valide pour représenter
101
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
102
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Il faut savoir que l’augmentation des ventes d’essence sans plomb est le résultat des
mesures développées par le gouvernement visant à réduire la pollution atmosphérique par
le plomb émanant du tra…c urbain, à travers la généralisation progressive de l’utilisation de
l’essence sans plomb en Algérie. A titre d’exemple, citons le programme de réhabilitation
des ra¢ neries d’Alger, d’Arzew et de Skikda dont l’achèvement a pour …nalité, dans le court
terme, une augmentation des capacités de production d’essence sans plomb.
103
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Test de saisonnalité
Le test de Fisher va nous permettre d’a¢ rmer ou d’in…rmer l’hypothèse de saisonnalité
d’ordre 6.
104
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Fcal = 5:756 > Ftab = 2:268; on rejette H0 , donc la série est saisonnière.
Fcal = 1165:4 > Ftab = 1:507; on rejette H0 , donc la série est tendancielle.
Désaisonnalisation de la série LP Bt
À …n de traiter l’e¤et saisonnier sur la série LP Bt , on va appliquer l’opérateur de dif-
férenciation saisonnière d’ordre 6 en utilisant la formule suivante
DLP Bt = LP Bt LP Bt 6 = (1 L6 )LP Bt
105
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Du corrélogramme, on constate des pics importants aux retards p=1, 6, 12, ... ce que
laisse supposer que la série reste encore saisonnière. Par conséquent, on teste la saisonnalité
une deuxieme fois.
106
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Le résultat de l’a¢ chage pour la série DLP Bt est reproduit sur la …gure.
On remarque que la statistique t ^ = 5:76 est inférieure à 3:433 au seuil 5%. l’hypothèse
H0 est rejetée, donc la série ne posséde pas de racine unitaire.
107
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Estimation de la tendance
On a estimé un polynome d’ajustement d’ordre 1 y (t) qui est donné par
108
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Validation du modèle
Test sur les paramètres
On constate que tous les paramètres du modèle sont signi…cativement di¤érents de zéro.
En e¤et les statistique de Student associées à chaque coe¤…cient sont en valeur absolue
supérieurs à 1:96, ce qui est con…rmé par les probabilités de nullité des coe¢ cients qui sont
tous inférieurs à 0:05:
109
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Les racines des deux polynômes autoregressif et moyenne mobile sont supérieures en
module à 1, car leurs inverses calculés par EVIEWS 8 sont tous inférieurs à 1 (voir Figure
4.43), ainsi les conditions de stationnarité et d’inversibilité sont véri…ées.
110
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Figure 4.22: Représentation graphique des séries estimés, réelle et celle des résidus
Test de Ljung-Box
Du corrélogramme de la série résiduelle calculée à partir du modèle SARIMA estimé
(Table 4.45), on remarque que la majorité des termes d’autocorrélation et autocorrélation
partielle sont à l’intérieur de l’intervalle de con…ance. De plus, on remarque que la statistique
de Ljung-Box (Q-stat) associé à l’ordre d’autocorrélation h = 34 est égale à Qstat = 31:713:
2
qui est inférieure à la valeur théorique du 0:95 (34 8) = 38:88 au seuil 5%, d’où les résidus
sont non corrélés.
111
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
On conclut que les résidus forment un bruit blanc. Il reste à savoire si la distribution de
ce bruit est gaussienne ou pas.
Du corrélogramme des résidus aux carrés (Table 4.46), on remarque que les carrés des
résidus sont non corrélés entre eux, ce qui signi…e une absence d’un e¤et ARCH.
112
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
On conclut que le modèle estimé SARIM A(2; 0; 2) (5; 1; 0)6 est valide pour représenter
113
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Prévision
Une fois que le modèle est validé, nous pouvons faire des prévisions des valeurs futures pour
un horizon h. Pour cela, nous n’avons qu’à remplacer t par t + h dans l’équation. Les valeurs
prédites pour un horizon h = 12 de la série P Bt (i.e. de Jan 2017 à Déc 2017) sont données
dans la Table (4.48).
114
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Il est important de noter que l’accroissement des ventes d’essence super est due à l’augmentation
du parc automobile national, qui a atteint à l’heure actuelle plus de 5 millions de véhicules.
115
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
116
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Le test montre que la statistique t ^ = 0:962 est supérieure à la valeur critique 3:433
relative au seuil 5%. Par consequent, l’hypothèse H0 est acceptée, donc la série LSP Rt
possède de racine unitaire.
Il nous faut donc à présent tester la nullité du coe¢ cient de la tendance conditionnelle-
ment à la présence d’une racine unitaire. On a ecrit un programme pour obtenir la valeur
de la statistique de Fisher qui est égale à 0:818; est inférieure à la valeur critique 6:34 tabulé
par Dickey Fuller relative au seuil 5%: Ainsi, on accepte l’hypothèse nulle ( ; c; ) = (0; c; 0).
Il faut donc recommencer ce test à partir du modèle incluant uniquement une constante.
P
12
Modèle (2): LSP Rt = LSP Rt 1+c+ i LSP Rt i + "t
i=1
117
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Le test montre que la statistique t ^ = 0:976 est supérieure à la valeur critique 3:876
relative au seuil 5%. Par consequent, l’hypothèse H0 est acceptée, donc la série LSP Rt
possède de racine unitaire.
Il nous faut donc à présent tester la nullité du coe¢ cient de la constante conditionnelle-
ment à la présence d’une racine unitaire. On a ecrit un programme pour obtenir la valeur
de la statistique de Fisher qui est égale à 3:458 est inférieure à la valeur critique 4:63 tabulé
par Dickey Fuller relative au seuil 5%: Ainsi, on accepte l’hypothèse nulle (c; ) = (0; 0). Il
faut donc recommencer ce test à partir du modèle (1) sans constante, ni tendance.
P
12
Modèle (1) : LSP Rt = LSP Rt 1+ i LSP Rt i + "t
i=1
118
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Le test montre que la statistique t ^ = 2:382 est supérieure à la valeur critique 1:942
relative au seuil 5%. Par consequent, l’hypothèse H0 est acceptée, donc la série LSP Rt
possède de racine unitaire.
Finalement, selon le test de Dickey Fuller Augmenté, on conclut que notre série est issue
d’un processus non stationnaire, de type I(1) et peut être représentée par une pure marche
aléatoire.
119
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Le corrélogramme simple (Figure 4.53), montre des retards importants aux niveaux des
termes 6; 12; 18; ::: qui sont multiples de 6: Le corrélogramme partiel attribut des pics signi-
…catifs pour quelques retards.
Pour a¢ rmer ou in…rmer l’existence d’une saisonnalité d’ordre 6, nous appliquons le test
de Fisher à la série DLSPR, les réssultats du test sont donnés dans la Table (4.54).
120
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
121
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Une deuxième application du test de saisonnalité nous permet de nous assurer, si l’e¤et
saisonnier a disparu.
Remarque 5
Concernant cette série (SP Rt ); l’application de la même procédure que les autres série (i.e.
122
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Table 4.57: Résultat d’estimation d’un modèle SARIM A(0; 1; 13)(1; 1; 1)6
La validation du modèle
Les racines des deux polynômes autoregressif et moyenne mobile sont supérieures en
module à 1, car leurs inverses calculés par EVIEWS 8 sont tous inférieurs à 1 (voir Figure
123
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
124
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Figure 4.30: Représentation graphique des séries estimés, réelle et celle des résidus
Test de Ljung-Box
Du corrélogramme de la série résiduelle calculée à partir du modèle SARIMA estimé
(Table 4.60), on remarque que tout les termes d’autocorrélation et autocorrélation partielle
sont à l’intérieur de l’intervalle de con…ance. De plus, on remarque que la statistique de
Ljung-Box (Q-stat) associé à l’ordre d’autocorrélation h = 30 est égale à Qstat = 31:675; qui
2
est inférieure à la valeur théorique du 0:95 (30 5) = 37:65 au seuil 5%. D’où, les résidus
sont non corrélés.
125
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
On conclut que les résidus forment un bruit blanc. Il reste à savoire si la distribution de
ce bruit est gaussienne ou pas.
Du corrélogramme des résidus aux carrés (Table 4.61), on remarque que les carrés des
résidus sont non corrélés entre eux, ce qui signi…e une absence d’un e¤et ARCH.
126
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
Pour con…rmer absence de l’e¤et ARCH sur les résidus, on va applique son test.
On conclut que le modèle estimé SARIM A(0; 1; 13) (1; 1; 1)6 est valide pour représenter
127
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant
128
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR
Dans cette section, nous essaierons de modéliser, encore une fois, nos séries des ventes
carburants terre de la région centre du pays (EN ORt ; GSLt ; P Bt et SP Rt ), que nous avons
déjà modélisées par la classe des modèles SARIMA dans la section précédante. Pour ce faire,
nous avons établi un ensemble de programmes sous Matlab, a…n de
2. Estimer les paramètres des modèles par la méthode du maximum de vraisemblance via
l’algorithme EM.
4. Calculer le critère BIC des modèles candidats a…n de sélectionner le bon modèle.
129
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR
Identi…cation
Nous avons utilisé le critère BIC pour identi…er le meilleur modèle MPAR qui représente
bien la série du rendement (di¤érenciation logarithmique). Nous avons estimé plusieurs
modèles MPAR 6-périodique candidats. Dans la Table (4.64), nous avons présenté quelques
modèles estimés avec leurs BIC :
Table 4.64: Les valeurs du critère BIC des di¤érents modèles estimés
Modèle BIC
M P AR6 (2; 3; 3) 562; 015
M P AR6 (2; 4; 4) 568; 877
M P AR6 (2; 2; 2) 686; 309
M P AR6 (3; 3; 3) 529; 450
Il est clair que le meilleur modèle MPAR estimé, selon le critère BIC ; est le modèle
130
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR
M P AR6 (2; 2; 2) dont les paramètres sont données dans la Table (4.65)
Table 4.65: Les paramètres du modèle M P AR6 (2; 2; 2)
(k) (k) (k) (k) (k)
s;0 s;1 s;2 s
Validation du modèle
A…n de pouvoire valider le modèle M P AR6 (2; 2; 2), nous allons appliquer les di¤érent
tests suivant
(le calcul a été fait à l’aide d’un programme sur matlab), donc d’après le théorème (13), les
paramétres estimés véri…ent la condition de stationnarité périodique du seconde ordre. Par
conséquent, le modèle est périodiquement stationnaire. De plus, les paramètres estimés non
nuls (voir Table 4.65), sont tous signi…cativement di¤érents de zéro, cela a été con…rmé par
le test de Student en utilisant la matrice d’information de Fisher.
131
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR
Le corrélogramme des résidus (Figure 4.34), montre que les résidus peuvent être considérés
comme un bruit blanc car presque tous les pics sont à l’intérieur de l’intervalle de con…ance.
Pour con…rmer l’hypothèse de non corrélation des résidus, on applique le test de Ljung-
Box. La statistique du test pour un retard h = 50, Qstat est égale à 60:42 qui est inférieure à
2
la valeur tabulée, 50 = 67:50 au seuil 5%; ce qui nous permet de conclure la non corrélation
de la série résiduelle.
p
t_stat = "t n p = 0:2743
132
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR
qui est inférieure à la valeur critique 1:96 au seuil 5%: Par consequent, on accepte l’hypothèse
de la nullité de la moyenne des résidus.
Identi…cation
Dans cette série du rendement, nous avons également utilisé le même critère BIC pour
identi…er les ordres du meilleur modèle à estimer. On a estimé plusieurs modèles MPAR 12-
périodique candidats. Dans la Table (4.66), nous avons présenté quelques modèles estimés
133
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR
Le meilleur modèle MPAR estimé, selon le critère BIC est le modèle M P AR12 (2; 1; 1) :
Table 4.67: Les paramètres du modèle M P AR12 (2; 1; 1)
(1) (1) (1) (1) (2) (2) (2) (2)
s;0 s;1 s s;0 s;1 s
Validation du modèle
Test sur les paramètres
Nous avons
Q
6
PE [2]
A6
= 1:76e 9<1
s=0 s jSt =
donc d’après le Théorème 13, les paramétres estimés véri…ent la condition de stationnarité
périodique du seconde ordre. Par conséquent, le modèle M P AR12 (2; 1; 1) est périodique-
ment stationnaire. De plus, les paramètres estimés non nuls (voir Table 4.67), sont tous
signi…cativement di¤érents de zéro, cela a été con…rmé par le test de Student en utilisant la
matrice d’information de Fisher.
134
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR
A…n de con…rmer l’hypothèse de non corrélation des résidus, on applique le test de Ljung-
Box. La statistique du test pour un retard h = 60, Qstat est égale à 55:35 qui est inférieure à
2
la valeur tabulée 60 = 79:08 au seuil 5%; ce qui nous permet de conclure la non corrélation
de la série résiduelle.
p
t_stat = "t n p = 0:0238
qui est inférieure à la valeur critique 1:96 au seuil 5%: Par consequent, on accepte l’hypothèse
de la nullité de la moyenne des résidus.
135
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR
Identi…cation
Nous avons utilisé le critère BIC pour identi…er le meilleur modèle MPAR qui représente
bien la série étudiée. Nous avons estimé plusieurs modèles MPAR 6-périodique candidats.
La Table (4.68) présente quelques modèles estimés avec leurs BIC :
Table 4.68: Les valeurs du critère BIC des di¤érents modèles estimés
Modèle BIC
M P AR6 (3; 1; 1; 1) 410; 197
M P AR6 (2; 3; 3) 470; 506
M P AR6 (2; 2; 2) 468; 321
136
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR
Il est clair que le meilleur modèle MPAR estimé, selon le critère BIC ; est le modèle
M P AR6 (2; 3; 3) :
Table 4.69: Les paramètres du modèle M P AR6 (2; 3; 3)
(k) (k) (k) (k) (k) (k)
s;0 s;1 s;2 s;3 s
Validation du modèle
A…n de pouvoire valider le modèle M P AR6 (2; 3; 3), nous allons appliquer les di¤érent
tests suivant
donc d’après le Théorème 13, les paramétres estimés véri…ent la condition de stationnarité
périodique du seconde ordre. Par conséquent, le modèle est périodiquement stationnaire. De
plus, les paramètres estimés non nuls (voir Table 4.69), sont tous signi…cativement di¤érents
de zéro, celà a été con…rmé par le test de Student en utilisant la matrice d’information de
Fisher.
137
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR
comme un bruit blanc car presque tous les pics sont à l’intérieur de l’intervalle de con…ance.
p
t_stat = "t n p = 0:0022
qui est inférieure à la valeur critique 1:96 au seuil 5%: Par consequent, on accepte l’hypothèse
de la nullité de la moyenne des résidus..
138
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR
Identi…cation
Nous avons utilisé le critère BIC pour identi…er le meilleur modèle MPAR qui représente
bien la série étudiée. On a estimé plusieurs modèles MPAR 12-périodique candidats. La
Table (4.70) présente quelques modèles estimés avec leurs BIC :
Table 4.70: Les valeurs du critère BIC des di¤érents modèles estimés
Modèle BIC
M P AR12 (2; 1; 1) 3634:80
M P AR12 (2; 2; 2) 3648:90
M P AR12 (2; 3; 3) 3626:40
139
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR
Il est clair que le meilleur modèle MPAR estimé, selon le critère BIC ; est le modèle
M P AR12 (2; 3; 3) :
4 1379 1:80 0:936 0:438 43:8 916:6 0:79 0:45 0:34 409:0
(50:05) (0:048) (0:034) (0:012) (14:08) (267:3) (0:332) (0:203) (0:122) (84:16)
Validation du modèle
A…n de pouvoire valider le modèle M P AR12 (2; 3; 3), nous allons appliquer les di¤érent
tests suivant
140
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR
A…n de con…rmer l’hypothèse de non corrélation des résidus, on applique le test de Ljung-
Box. La statistique du test pour un retard h = 30, Qstat est égale à 36:98 qui est inférieure à
2
la valeur tabulée, 30 = 43:77 au seuil 5%; ce qui nous permet de conclure la non corrélation
de la série résiduelle.
p
t_stat = "t n p = 0:2121
qui est inférieure à la valeur critique 1:96 au seuil 5%: Par consequant, on accepte l’hypothèse
de la nullité de la moyenne des résidus.
141
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR
30
30
25
25
20 20
15 15
10 10
5 5
y 120=0,0784 y 150=0,0613
0 0
-0.1 -0.05 0 0.05 0.1 0.15 0.2 0.25 -0.2 -0.15 -0.1 -0.05 0 0.05 0.1 0.15 0.2 0.25 0.3
Figure 4.45: Densité prédictive pour l’horizon 1 aux instants t = 120 et t = 150
142
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR
La fonction prédictive pour l'horizon 1, à l'instant t=100 ( DPB ) La fonction prédictive pour l'horizon 1, à l'instant t=200 (DPB)
200 18
16
14
150
12
10
100
8
6
50
4
y 100=0.0506 2
y 200=-0,076
0 0
0.02 0.04 0.06 0.08 0.1 0.12 0.14 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3
Figure 4.46: Densité prédictive pour l’horizon 1 aux instants t = 100 et t = 200
La fonction prédictive pour l'horizon 1, à l'instant t=130 (DGSL) La fonction prédictive pour l'horizon 1, à l'instant t=140 (DGSL)
25 25
20 20
15 15
10 10
5 5
y 140=-0,0372
y 130=-0,0061
0 0
-0.2 -0.15 -0.1 -0.05 0 0.05 0.1 0.15 0.2 0.25 0.3 -0.25 -0.2 -0.15 -0.1 -0.05 0 0.05 0.1 0.15 0.2 0.25
Figure 4.47: Densité prédictive pour l’horizon 1 aux instants t = 130 et t = 140
-3 -3
x 10 La fonction prédictive pour l'horizon 1, à l'instant t=110 (DENOR) x 10 La fonction prédictive pour l'horizon 1, à l'instant t=170 (DENOR)
3 3
2.5 2.5
2 2
1.5 1.5
1 1
0.5 0.5
y 110=1638 y 170=932,8
0 0
-2000 -1500 -1000 -500 0 500 1000 1500 2000 2500 3000 -2000 -1500 -1000 -500 0 500 1000 1500 2000 2500 3000
Figure 4.48: Densité prédictive pour l’horizon 1 aux instants t = 110 et t = 170
143
Conclusion
Le marché algérien des hydrocarbures connaît une croissance relativement forte, ceci est
certainement dû à la croissance de la demande du produit, compte tenu de l’évolution con-
tinue du secteur des transports, l’augmentation du parc automobile national et l’accroissement
démographique. Pour ces raisons, de nombreuses …lières sont mises en avant a…n de prendre
la relève des carburants pétroliers, nous assistons ainsi à l’émergence de technologies énergé-
tiques moins polluantes qui feront des années à venir celles de la diversi…cation des sources
énergétiques renouvelables (éolienne, solaire,. . . ). En e¤et, la nécessité de prévoir un substi-
tut au pétrole, la place future de l’énergie nucléaire ou encore la possibilité de recourir aux
énergies alternatives constituent quelques-uns des grands questionnements qui structurent
aujourd’hui le débat énergétique.
Par conséquent, NAFTAL doit prendre toutes les mesures qui s’imposent pour s’adapter
aux conditions de fonctionnement d’un marché compétitif, assurer le maintien de ses parts
de marché et poursuivre la croissance du niveau de ses activités.
Notre étude à porter donc sur l’analyse des séries chronologiques représentant l’évolution
les ventes des essences super, sans plomb, normale et de gasoil réalisées dans la région cen-
tre du pays. L’analyse permet de construire des modèle mathématique qui expliquera le
phénomène de l’évolution des ventes dans le temps. Nous avons proposé dans un premier
temps d’étudier ces séries à travers de l’approche économétriques basée sur la classe des
modèles SARIMA de Box et Jenkins et la classe du mélange de modèles autorégressifs péri-
odiques (MPAR). Cette dernière est adéquate pour capturer beaucoup de caractéristiques de
séries chronologiques, en particulier le changement de régime, la périodicité, les événements
extrêmes et la grande kurtosis.
144
4.6. Présentation de la méthode prévisionnelle appliquée par NAFTAL
La méthode utilisée à cet e¤et est empirique car elle se base principalement sur les taux
de croissance des ventes de carburants qui donnent la tendance générale de l’évolution de ces
ventes (hausse, baisse ou stabilité). Partant des informations extraites de l’historique des
ventes des produits carburants, NAFTAL procède à l’établissement de ses prévisions comme
suit
- Chaque année (au mois de septembre de l’exercice N), la Direction exécutive SPE
(Stratégie, Plani…cation et Economie) en concertation avec la Branche Commercialisa-
tion, arrête les prévisions de ventes au titre de la clôture de l’exercice N et les prévisions
initiales des cinq prochaines années.
- Les prévisions de l’exercice N+1 sont détaillées par la Branche Commercialisation par
produit et par wilaya, et consolidées par District Commercialisation, par centre de
distribution et par produit.
- Une série de réunions régionales est organisée entre les Directions Exploitation de la
Branche Carburants et la Direction Approvisionnement et Distribution de la Branche
Commercialisation a…n d’arrêter la source d’approvisionnement des CDD en désignant
le CDS (Centre De Stockage) de rattachement.
145
4.6. Présentation de la méthode prévisionnelle appliquée par NAFTAL
Après la modèlisation des di¤érents modèles (SARIMA et MPAR) pour les quatre séries
(SP Rt , P Bt ; GSLt et EN ORt ) nous pouvons maintenant comparer les prévisions de ces
modèles estimés avec celle applique au sein de NAFTAL, tels que les résultats sont donnes
dans les Tables (4.72)-(4.75)
146
Table 4.72: Prévisions et réalisations des ventes d’essence super (unité TM )
Pré B-J Pré MPAR Pré NAFTAL Réalisation
147
Juin-17 66779:68 58666:50 62744:37 106332:28 74408:40 64769:99
Juil-17 72638:16 59588:87 66891:30 119088:74 76185:33 71250:38
Août-17 70512:48 64114:39 70180:39 133789:66 78004:68 71648:04
sept-17 69359:76 59875:59 64526:04 150591:20 79867:49 68360:28
Oct-17 68353:89 57001:01 65829:55 169757:15 81774:78 70095:19
Nov-17 67123:51 55183:77 63756:36 191553:84 83727:62 68916:32
Déc-17 70159:55 53552:84 65566:76 216322:19 85727:09 69814:71
4.6. Présentation de la méthode prévisionnelle appliquée par NAFTAL
Table 4.73: Prévisions et réalisations des ventes d’essence sans plomb (unité TM )
Pré B-J Pré MPAR Pré NAFTAL Réalisation
148
Juin-17 56495:79 74266:73 67468:66 44681:66 60247:62 56474:24
Juil-17 61573:63 81423:44 75464:56 42985:51 62312:57 64234:29
Août-17 59747:98 92542:05 75464:56 41353:75 64991:93 65637:54
sept-17 57982:37 69107:49 60804:46 39783:93 58948:44 62021:32
Oct-17 56165:70 71354:69 70786:13 38273:70 66338:02 62611:10
Nov-17 54975:45 67739:07 67199:32 36820:81 61612:40 60323:81
Déc-17 61233:38 71354:69 67199:32 35423:06 53901:76 60983:78
4.6. Présentation de la méthode prévisionnelle appliquée par NAFTAL
Table 4.74: Prévisions et réalisations des ventes de gasoil (unité TM )
Pré B-J Pré MPAR Pré NAFTAL Réalisation
149
Juin-17 241742:43 74266:73 252460:51 260435:40 230916:19 234414:30
Juil-17 227357:35 81423:44 232120:08 261505:37 229259:56 244850:31
Août-17 250140:12 92542:05 219478:62 262947:62 233166:98 257448:53
sept-17 226269:72 69107:49 243533:58 264582:96 237496:96 237059:42
Oct-17 243378:27 71354:69 234922:30 265643:41 241834:80 244218:94
Nov-17 238992:13 67739:07 233984:49 266921:56 246251:86 242889:67
Déc-17 248562:17 71354:69 242561:39 268044:99 233446:94 244662:24
4.6. Présentation de la méthode prévisionnelle appliquée par NAFTAL
Table 4.75: Prévisions et réalisations des ventes d’essence normale (unité TM )
Prév B-J Pré MPAR Pré NAFTAL Réalisation
150
Juin-17 8304:31 1958 7310 5052 7683:51 6049:32
Juil-17 10135:40 2718 7270 6028:6 7111:98 7124:32
Août-17 10641:82 3028 7260 7433:2 7714:48 7184:59
sept-17 10084:11 878 7530 8706:8 7079:33 6755:95
Oct-17 10326:84 2238 7460 8553:2 7748:90 7005:14
Nov-17 9568:71 2008 6250 5826:8 7043:05 6702:70
Déc-17 10285:41 2468 6450 4037:2 7787:15 6805:14
4.6. Présentation de la méthode prévisionnelle appliquée par NAFTAL
4.6. Présentation de la méthode prévisionnelle appliquée par NAFTAL
151
4.6. Présentation de la méthode prévisionnelle appliquée par NAFTAL
- Les prévisions obtenues par la modélisation MPAR, sont plus …ables que celles obtenues
par la modélisation SARIMA.
Rappelant que Wong et Li (2000), ont souligné que l’espérance conditionnelle peut ne pas
être le meilleur prédicteur des valeurs futures, car le calcul de l’espérance conditionnelle
tient compte toutes les distributions du mélange, or que fyt ; t 2 Zg provient d’une seule
distribution.
D’après les Figures (4.49)-(4.52), nous constatons que les modèles MPAR ajustent nos
séries mieux que les modèles SARIMA.
Pour plus de précision dans les prévisions de ventes des carburants terre, il serait
souhaitable d’utiliser la fonction prédictive au pas m.
152
Bibliographie
[1] Akaïke, H. (1973). Information theory and an extension of the maximum likelihood
principle. In the Second International Symposium on Information Theoru, eds. B. N.
Petrov and Csake, F., Hungary : Akademiai Kiado, pp. 267-281.
[3] Aliat, B., and Hamdi, F. (2017). On markov-switching periodic arma models. Com-
munications in Statistics-Theory and Methods, (just-accepted).
[6] Bentrzi, M. and Hamdi, F. (2008 a). Mixture periodic autoregressive conditional
heteroskedastic models. Computational. Statistics and Data Analysis. 53, 1-16.
[7] Bentrzi, M. and Hamdi, F. (2008 b). Mixture Periodic Autoregression with Periodic
ARCH Errors. Advances and Applications in Statistics, 8, 219-246.
153
Bibliographie
[11] Boshnakov G. N. (2011). On …rst and second order stationarity of random coe¢ cient
models. Linear Algebra and its Applications, 434, 415-423.
[12] Brandt, A. (1986). The stochastic equation Yn+1 = An Yn + Bn with stationary coef-
…cients. Advances in Applied Probability, 18.01, 211-220.
[14] Hamdi, F. (2015). A note on the order selection of mixture periodic autoregressive
models. In Modeling, Simulation, and Applied Optimization (ICMSAO), 2015 6th In-
ternational Conference on (pp. 1-6). IEEE.
[15] Karlin, S., and Taylor, H. M. (1975). A …rst course in stochastic processes Acad-
emic. New York.
[16] Lanna, M. and Saikkonen, P. (2003). Modeling the U.S. short-term interest rate
by mixture autoregressive processes. Journal of Financial Econometrics 1, 96 -125.
[17] Louis, T.A. (1982), Finding the observed information matrix when using the EM
algorithme. Journal of the Royal Statistical Society B 44, 226-233.
[19] Shao, Q. (2006). Mixture periodic autoregressive time series models. Statistics &
Probability Letters. 76, 609–618.
154