Vous êtes sur la page 1sur 168

République Algérienne Démocratique et Populaire

Ministère de l’Enseignement Supérieur et de la Recherche Scientifique


Université des Sciences et de la Technologie Houari Boumediene

Faculté de Mathématiques

Département de Recherche Opérationnelle

Mémoire
En vue de l’obtention du Diplôme de MASTER
Modélisation Stochastique et Prévision en Recherche Opérationnelle
(MSPRO)

Thème
Etude prévisionnelle des ventes des carburants terre dans la région
centre du pays

Présenté par : MANAA Abderrahmen

Soutenu le 20 juin 2017, devant le jury composé de :

Présidente : RABEHI-IGGUI Nadia USTHB


Rapporteur : HAMDI Fayçal USTHB
Examinatrice : GATT Fella UMB Boumerdes
Invité : GHERRAMOU Samir NAFTAL

Code Mémoire : 12/MSPRO/2017


Résumé

La consommation des produits pétroliers ra¢ nés a connu une forte augmentation ces
dernières années2 , sous l’e¤et conjugué de plusieurs facteurs. Citons parmi ces facteurs la
forte croissance économique et les grands projets lancés (politique d’investissement de l’Etat
dans di¤érents secteurs), l’accroissement de la population nationale, les besoins en énergie
électrique et tout particulièrement, l’expansion du parc automobile.

Dans le but d’analyser l’évolution des ventes des carburants (essence normale, essence
super, essence sans plomb et gasoil) de l’entreprise NAFTAL, nous nous intéressons à
l’élaboration des modèles de prévision qui peuvent être utilisés dans la compréhension de
l’évolution des ventes de chaque carburant par rapport à son historique.

L’analyse nous permet de construire des modèles mathématiques qui expliqueront le


phénomène de l’évolution des ventes dans le temps. Nous avons proposé dans un premier
temps, d’étudier ces séries à travers l’approche économétrique basée sur la classe des modèles
SARIMA de Box et Jenkins et la classe du mélange de modèles autorégressifs périodiques
(MPAR). Cette dernière est adéquate pour capturer beaucoup de caractéristiques de séries
chronologiques, en particulier le changement de régime, la périodicité, les événements ex-
trêmes et la grande kurtosis.

Mots-clés : Prévision, Modèle SARIMA, mélange de modèle, Modèle MAR, Modèle MPAR.

i
Dédicace

Je dédie ce modeste travail à

Mes très chers parents, qui m’ont toujours aidé et soutenu pour arriver au terme de
mes études.

Mes frères, mes sœurs et toute ma famille pour leurs encouragements.

Tous mes amis, en particulier mes copains de chambre : Hichem SOUISSI , Ramzi
DAOUS et Faouzi BEN AMOUR sur qui j’ai toujours pu compter.

Tous les gens que j’aime et dont je n’ai pas cité les noms.

MANAA Abderrahmen.

ii
Remerciements

Avant tout, je remercie Allah le tout puissant qui m’a donné la force, le courage, la
volonté et la patience pour accomplir ce modeste travail.

Je tiens en premier lieu à exprimer mes plus vifs remerciements à mon encadreur Mon-
sieur HAMDI Fayçal, pour son aide, sa patience et le soutien moral qu’il n’a cessé de me
prodiguer tout au long de la réalisation de ce travail.

J’adressons mes remerciements à mon encadreur à l’entreprise NAFTAL Monsieur GHER-


RAMOU Samir d’avoir accepté de m’encadrer et de m’avoir facilité mon travail avec des
conseils et remarques instructives.

J’exprime ici ma profonde gratitude à Madame RABEHI-IGGUI Nadia, Maître de


Conférences à l’USTHB pour m’avoir fait l’honneur de présider mon jury de mémoire.

Je remercie vivement Madame GATT Fella, Maitre assistante à l’université de M’hamed


Bougara Boumerdes qui a bien voulu faire partie du jury.

Je ne saurais oublier de remercier tous mes professeurs et toutes les personnes ayant
contribué de près ou de loin à l’aboutissement de ce travail.

Pour …nir mes derniers mots de remerciements vont tout naturellement à ma famille et
mes amis.

iii
Table des matières

Résumé i

Dédicace ii

Remerciements iii

Table des matières iv

Liste des …gure vii

Liste des Tables x

Introduction 1

1 Préliminaires 4

1.1 Concepts Fondamentaux des Processus Stochastiques . . . . . . . . . . . . . 4

1.1.1 Processus du second ordre . . . . . . . . . . . . . . . . . . . . . . . . 5

1.1.2 Stationnarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.1.3 Ergodicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.1.4 Equations aux di¤érences stochastiques . . . . . . . . . . . . . . . . . 7

2 Mélange de modèles autorégressifs 9

2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2.2 Mélange de modèles autorégressifs . . . . . . . . . . . . . . . . . . . . . . . . 10

iv
Table des matières

2.3 Étude probabiliste du modèle MAR . . . . . . . . . . . . . . . . . . . . . . . 11

2.3.1 Espérance et variance conditionnelle . . . . . . . . . . . . . . . . . . 11

2.3.2 Conditions de stationnarité du premier et deuxième ordre . . . . . . . 13

2.3.3 Condition de stationnarité stricte . . . . . . . . . . . . . . . . . . . . 19

2.3.4 Structure d’autocorrélation . . . . . . . . . . . . . . . . . . . . . . . . 21

2.3.5 Fonction prédictive au pas m . . . . . . . . . . . . . . . . . . . . . . 22

2.4 Estimation des paramètres d’un modèle MAR . . . . . . . . . . . . . . . . . 23

2.4.1 Estimation du maximum de vraisemlance via l’algorithme EM . . . . 23

2.4.2 Estimation de l’erreur standard . . . . . . . . . . . . . . . . . . . . . 27

2.4.3 Calcul de la matrice d’information . . . . . . . . . . . . . . . . . . . 28

2.4.4 Critère de sélection d’un modèle MAR . . . . . . . . . . . . . . . . . 37

3 Mélange de modèles autorégressifs périodiques 38

3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

3.2 Les processus périodiquement corrélés . . . . . . . . . . . . . . . . . . . . . . 39

3.2.1 Processus périodiques au sens strict . . . . . . . . . . . . . . . . . . . 39

3.2.2 Processus périodiquement corrélé . . . . . . . . . . . . . . . . . . . . 40

3.2.3 Fonction d’autocovariance d’un processus périodiquement corrélé . . . 40

3.3 Mélange de modèles autorégressifs périodiques . . . . . . . . . . . . . . . . . 41

3.4 Etude probabiliste du modèle MPAR . . . . . . . . . . . . . . . . . . . . . . 42

3.4.1 Espérance et variance conditionnelle . . . . . . . . . . . . . . . . . . 42

3.4.2 Conditions de stationnarité périodique du premier et deuxième ordre 43

3.4.3 Condition de stationnarité périodique stricte . . . . . . . . . . . . . . 48

3.5 Structure d’autocorrélation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

3.6 Estimation des paramètres d’un modèle MPAR . . . . . . . . . . . . . . . . 52

v
Table des matières

3.6.1 Estimation du maximum de vraisemlance via l’algorithme EM . . . . 52

3.6.2 Estimation de l’erreur standard . . . . . . . . . . . . . . . . . . . . . 57

3.6.3 Calcul de la matrice d’inforamtion observée . . . . . . . . . . . . . . 57

3.6.4 Critère de sélection d’un modèle MPAR . . . . . . . . . . . . . . . . 69

4 Etude de Simulation et Application 70

4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

4.2 La performance de l’algorithme EM dans les modèles MAR . . . . . . . . . . 71

4.3 La performance de l’algorithme EM dans les modèles MPAR . . . . . . . . . 74

4.4 Application de la modélisation SARIMA à la modilisation de la vente du


carburant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

4.4.1 La série des ventes d’essence normale . . . . . . . . . . . . . . . . . . 76

4.4.2 La série des ventes de Gas-oil . . . . . . . . . . . . . . . . . . . . . . 90

4.4.3 La série des ventes d’essence sans plomb . . . . . . . . . . . . . . . . 102

4.4.4 La série des ventes d’essence super . . . . . . . . . . . . . . . . . . . 115

4.5 Modélisation de la série des ventes carburants par la classe des modèles MPAR129

4.5.1 Modélisation de la série SP Rt . . . . . . . . . . . . . . . . . . . . . . 129

4.5.2 Modélisation de la série P Bt . . . . . . . . . . . . . . . . . . . . . . . 133

4.5.3 Modélisation de la série GSLt . . . . . . . . . . . . . . . . . . . . . . 136

4.5.4 Modélisation de la série EN ORt . . . . . . . . . . . . . . . . . . . . . 139

4.5.5 Les distributions prédictives pour l’horizon un . . . . . . . . . . . . . 142

Conclusion 144

4.6 Présentation de la méthode prévisionnelle appliquée par NAFTAL . . . . . . 145

Bibliographie 153

vi
Liste des Figures

4.1 Représentation graphique de la série EN ORt . . . . . . . . . . . . . . . . . . . 76

4.2 Représentation graphique de la série DEN ORt . . . . . . . . . . . . . . . . 79

4.3 Graphe de DDEN ORt avec ajustement . . . . . . . . . . . . . . . . . . . . . . 82

4.4 Graphe de la série DDEN ORt . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

4.5 Réprésentation graphique des inverses des racines. . . . . . . . . . . . . . . . . . 85

4.6 Graphique des séries estimée, réelle et celle des résidus . . . . . . . . . . . . . . 87

4.7 Test de normalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

4.8 Graphe de la série réelle EN ORt avec les prévisons. . . . . . . . . . . . . . . . . 90

4.9 Représentation graphique de la série GSLt . . . . . . . . . . . . . . . . . . . . . 91

4.10 Représentation graphique de la série transformée LGSLt . . . . . . . . . . . . . 92

4.11 Représentation graphique de la série désaisonnalisée DGSLt . . . . . . . . . . . 93

4.12 Graphe de DGSLt avec ajustement. . . . . . . . . . . . . . . . . . . . . . . . . 96

4.13 Réprésentation graphique des inverses des racines. . . . . . . . . . . . . . . . . . 98

4.14 Graphique des séries estimée, réelle et celle des résidus . . . . . . . . . . . . . . 99

4.15 Histogramme de la série résiduelle. . . . . . . . . . . . . . . . . . . . . . . . . . 100

4.16 Graphe de la série réelle GSLt avec les prévisons. . . . . . . . . . . . . . . . . . 102

4.17 Représentation graphique de la série P B t . . . . . . . . . . . . . . . . . . . . . 103

4.18 Représentation graphique de la série LP Bt transformée . . . . . . . . . . . . . . 103

4.19 Représentation graphique de la série DLP Bt di¤érenciée . . . . . . . . . . . . . 105

vii
LISTE DES FIGURES

4.20 Graphe de DLP Bt avec ajustement. . . . . . . . . . . . . . . . . . . . . . . . . 108

4.21 Représentation graphique des inverses des racines. . . . . . . . . . . . . . . . . . 110

4.22 Représentation graphique des séries estimés, réelle et celle des résidus . . . . . . . 111

4.23 Histogramme de la série résiduelle. . . . . . . . . . . . . . . . . . . . . . . . . . 112

4.24 Graphe de la série réelle P Bt avec les prévisons. . . . . . . . . . . . . . . . . . . 115

4.25 Représentation graphique de la série SP Rt . . . . . . . . . . . . . . . . . . . . 115

4.26 Représentation graphique de la série transformée LSP Rt . . . . . . . . . . . . . 116

4.27 Représentation garaphique de la série DLSP Rt . . . . . . . . . . . . . . . . . . 120

4.28 Représentation graphique de la série désaisonnalisée DSP Rt . . . . . . . . . . . 121

4.29 Réprésentation graphique des inverses des racines. . . . . . . . . . . . . . . . . . 124

4.30 Représentation graphique des séries estimés, réelle et celle des résidus . . . . . . . 125

4.31 Histogramme de la série résiduelle. . . . . . . . . . . . . . . . . . . . . . . . . . 126

4.32 Graphe de la série réelle SP Rt avec les prévisions . . . . . . . . . . . . . . . . . 128

4.33 Histogramme de la série SP Rt et DSP Rt . . . . . . . . . . . . . . . . . . . . . 130

4.34 corrélogramme de la série résiduelle . . . . . . . . . . . . . . . . . . . . . . . . 132

4.35 Représentation graphique de la série réelle et ajustée . . . . . . . . . . . . . . . 133

4.36 Histogramme de la série P Bt et DP Bt . . . . . . . . . . . . . . . . . . . . . . . 133

4.37 corrélogramme de la série résiduelle . . . . . . . . . . . . . . . . . . . . . . . . 135

4.38 Représentation graphique de la série réelle et ajustée . . . . . . . . . . . . . . . 136

4.39 Histogramme de la série P Bt et DP Bt . . . . . . . . . . . . . . . . . . . . . . . 136

4.40 corrélogramme de la série résiduelle . . . . . . . . . . . . . . . . . . . . . . . . 138

4.41 Représentation graphique de la série réelle et ajustée . . . . . . . . . . . . . . . 139

4.42 Hstogramme de la série EN ORt et DEN ORt . . . . . . . . . . . . . . . . . . . 139

4.43 corrélogramme de la série résiduelle . . . . . . . . . . . . . . . . . . . . . . . . 141

viii
Liste des …gures

4.44 Représentation graphique de la série réelle et ajustée . . . . . . . . . . . . . . . 142

4.45 Densité prédictive pour l’horizon 1 aux instants t = 120 et t = 150 . . . . . . . . 142

4.46 Densité prédictive pour l’horizon 1 aux instants t = 100 et t = 200 . . . . . . . . 143

4.47 Densité prédictive pour l’horizon 1 aux instants t = 130 et t = 140 . . . . . . . . 143

4.48 Densité prédictive pour l’horizon 1 aux instants t = 110 et t = 170 . . . . . . . . 143

4.49 Représentation de la série SP Rt réelle et ajustées . . . . . . . . . . . . . . . . . 151

4.50 Représentation de la série P Bt réelle et ajustées . . . . . . . . . . . . . . . . . . 151

4.51 Représentation de la série GSLt réelle et ajustées . . . . . . . . . . . . . . . . . 151

4.52 Représentation de la série EN ORt réelle et ajustées . . . . . . . . . . . . . . . . 152

ix
Liste des Tables

4.1 Résultat de simulation pour 1000 réplications d’un modèle M AR(3; 2; 1; 3), avec
n = 200 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

4.2 Résultat de simulation pour 1000 réplications d’un modèle M AR(3; 2; 1; 3), avec
n = 500 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

4.3 Résultat de simulation pour 1000 réplications d’un modèle MAR(3,2,1,3), avec n=1000 73

4.4 Résultat de simulation pour 1000 réplications d’un modèle MAR(2,1,1), avec n=200 73

4.5 Résultat de simulation pour 1000 réplications d’un modèle MAR(2,1,1), avec n=500 73

4.6 Résultat de simulation pour 1000 réplications d’un modèle MAR(2,1,1), avec n=1000 74

4.7 Résultats de 1000 simulations pour un modèle M P AR2 (2; 1; 1) . . . . . . . . . . 75

4.8 Résultats de 1000 simulations pour un modèle M P AR2 (2; 2; 1) . . . . . . . . . . 75

4.9 Corrélogramme de la série EN ORt . . . . . . . . . . . . . . . . . . . . . . . . . 77

4.10 Test de Fisher appliqué à la série EN ORt . . . . . . . . . . . . . . . . . . . . . 78

4.11 Corrélogramme de la série DEN ORt . . . . . . . . . . . . . . . . . . . . . . . 79

4.12 Test de Fisher appliqué à la série DN RM Lt . . . . . . . . . . . . . . . . . . . . 80

4.13 Résultats du test ADF pour le Modèle (3) . . . . . . . . . . . . . . . . . . . . . 81

4.14 Corrélogramme de la série ajustée DDEN ORt . . . . . . . . . . . . . . . . . . 83

4.15 Résultat d’estimation du modèle SARIM A(2; 0; 1)(0; 1; 1)12 . . . . . . . . . . . . 84

4.16 Résultat d’estimation du modèle SARIM A(2; 0; 0)(2; 1; 0)12 . . . . . . . . . . . . 84

4.17 Racines des polynômes caractéristiques. . . . . . . . . . . . . . . . . . . . . . . 85

x
LISTE DES TABLES

4.18 Corrélogramme de la série résiduelle . . . . . . . . . . . . . . . . . . . . . . . . 86

4.19 Test de nullité de la moyenne . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

4.20 Corrélogramme des carrées des résidus . . . . . . . . . . . . . . . . . . . . . . . 88

4.21 Résultats du test d’e¤et ARCH sur la série résiduelle . . . . . . . . . . . . . . . 89

4.22 Prévisions calculées à partir du modèle estimé (unité de mesure TM ) . . . . . . . 90

4.23 Corrélogramme de la série LGSLt . . . . . . . . . . . . . . . . . . . . . . . . . 92

4.24 Test de Fisher appliqué a la série LGSLt . . . . . . . . . . . . . . . . . . . . . 93

4.25 Corréogramme de la série désaisonnalisée DGSLt . . . . . . . . . . . . . . . . . 94

4.26 Test de Fisher appliqué à la série désaisonnalisée DGSLt . . . . . . . . . . . . . 94

4.27 Résultats du test ADF pour le Modèle (3) . . . . . . . . . . . . . . . . . . . . . 95

4.28 Corrélogramme de la série DGSLt ajustée . . . . . . . . . . . . . . . . . . . . 96

4.29 Résultat d’estimation d’un modèle SARIM A(7; 0; 3)(3; 1; 0)6 . . . . . . . . . . . 97

4.30 Racines des polynômes caractéristiques. . . . . . . . . . . . . . . . . . . . . . . 98

4.31 Test de la nullité de la maoyenne . . . . . . . . . . . . . . . . . . . . . . . . . . 99

4.32 Corrélogramme de la série résiduelle . . . . . . . . . . . . . . . . . . . . . . . . 100

4.33 Corrélogramme des carrés des résidus . . . . . . . . . . . . . . . . . . . . . . . 101

4.34 Résultats du test d’e¤et ARCH sur la série résiduelle . . . . . . . . . . . . . . . 101

4.35 Prévisions calculées à partir du modèle estimé (unité de mesure TM ) . . . . . . . 102

4.36 Corrélogramme de la série LP Bt . . . . . . . . . . . . . . . . . . . . . . . . . . 104

4.37 Test de Fisher appliqué à la série LP Bt . . . . . . . . . . . . . . . . . . . . . . 104

4.38 Corrélogramme de la série DLP Bt di¤érenciée . . . . . . . . . . . . . . . . . . 106

4.39 Test de Fisher appliqué à la série DLP Bt . . . . . . . . . . . . . . . . . . . . . 106

4.40 Résultats du test ADF pour le Modéle (3) . . . . . . . . . . . . . . . . . . . . . 107

4.41 Corrélogramme de la série DLP BTt . . . . . . . . . . . . . . . . . . . . . . . . 108

xi
LISTE DES TABLES

4.42 Résultat d’estimation du modèle SARIM A(2; 0; 2)(5; 1; 0)6 . . . . . . . . . . . . 109

4.43 Racines des polynômes caractéristique. . . . . . . . . . . . . . . . . . . . . . . . 110

4.44 Test de la nullité de la moyenne . . . . . . . . . . . . . . . . . . . . . . . . . . 111

4.45 Corrélogramme de la série résiduelle . . . . . . . . . . . . . . . . . . . . . . . . 112

4.46 Corrélogramme des carrés des résidus . . . . . . . . . . . . . . . . . . . . . . . 113

4.47 Résultats du test d’e¤et ARCH sur la série résiduelle . . . . . . . . . . . . . . . 113

4.48 Prévisions calculées à partir du modèle estimé (unité de mesure TM ) . . . . . . . 114

4.49 Corrélogramme de la série LSP Rt . . . . . . . . . . . . . . . . . . . . . . . . . 116

4.50 Résultats du test ADF pour le Modèle (3) . . . . . . . . . . . . . . . . . . . . . 117

4.51 Résultats du test ADF pour le Modèle (2) . . . . . . . . . . . . . . . . . . . . . 118

4.52 Résultats du test ADF pour le Modèle (1) . . . . . . . . . . . . . . . . . . . . . 119

4.53 Corrélogramme de la série DLSP Rt . . . . . . . . . . . . . . . . . . . . . . . . 120

4.54 Test de Fisher appliqué à la série DLSP Rt . . . . . . . . . . . . . . . . . . . . 121

4.55 Corrélogramme de la série désaisonnalisée DSP Rt . . . . . . . . . . . . . . . . . 122

4.56 Test de Fisher appliqué à la série DSP Rt . . . . . . . . . . . . . . . . . . . . . 122

4.57 Résultat d’estimation d’un modèle SARIM A(0; 1; 13)(1; 1; 1)6 . . . . . . . . . . 123

4.58 Racines des polynômes caractéristiques. . . . . . . . . . . . . . . . . . . . . . . 124

4.59 Test de la mullité de la moyenne . . . . . . . . . . . . . . . . . . . . . . . . . . 125

4.60 Corrélogramme de la série résiduelle . . . . . . . . . . . . . . . . . . . . . . . . 126

4.61 Corrélogramme des carrés des résidus . . . . . . . . . . . . . . . . . . . . . . . 127

4.62 Résultats du test d’e¤et ARCH sur la série résiduelle . . . . . . . . . . . . . . . 127

4.63 Prévisions calculées à partir du modèle estimé (unité de mesure TM ) . . . . . . . 128

4.64 Les valeurs du critère BIC des di¤érents modèles estimés . . . . . . . . . . . . 130

4.65 Les paramètres du modèle M P AR6 (2; 2; 2) . . . . . . . . . . . . . . . . . . . . 131

xii
Liste des tables

4.66 Les valeurs du critère BIC des di¤érents modèles estimés . . . . . . . . . . . . 134

4.67 Les paramètres du modèle M P AR12 (2; 1; 1) . . . . . . . . . . . . . . . . . . . . 134

4.68 Les valeurs du critère BIC des di¤érents modèles estimés . . . . . . . . . . . . 136

4.69 Les paramètres du modèle M P AR6 (2; 3; 3) . . . . . . . . . . . . . . . . . . . . 137

4.70 Les valeurs du critère BIC des di¤érents modèles estimés . . . . . . . . . . . . 139

4.71 Les paramètres du modèle M P AR12 (2; 3; 3) . . . . . . . . . . . . . . . . . . . . 140

4.72 Prévisions et réalisations des ventes d’essence super (unité TM ) . . . . . . . . . 147

4.73 Prévisions et réalisations des ventes d’essence sans plomb (unité TM ) . . . . . . 148

4.74 Prévisions et réalisations des ventes de gasoil (unité TM ) . . . . . . . . . . . . . 149

4.75 Prévisions et réalisations des ventes d’essence normale (unité TM ) . . . . . . . . 150

xiii
Introduction

Le développement d’une nation réside non seulement dans la disponibilité des ressources
humaines de qualité, mais aussi des ressources naturelles. L’une des ressources naturelles les
plus recherchées est le carburant, un produit de première nécessité dans le monde entier, et
à la base de toutes les activités économiques.

La consommation des produits pétroliers ra¢ nés a connu une forte augmentation ces
dernières années sous l’e¤et conjugué de plusieurs facteurs, à savoir la forte croissance
économique et les grands projets lancés (politique d’investissement de l’Etat dans di¤érents
secteurs), l’accroissement de la population nationale, les besoins en énergie électrique et tout
particulièrement l’expansion du parc automobile. En e¤et, la mobilité au sens large est dev-
enue le trait dominant de la société avec le véhicule particulier comme symbole prépondérant,
et en passant d’un produit de luxe rare à un objet massivement distribué, l’automobile est
devenue un élément incontournable. Cependant, ce besoin légitime de mobilité des personnes
et des marchandises, une caractéristique essentielle du monde moderne, a d’importantes im-
plications qu’il est nécessaire de prendre en charge, notamment la préoccupation de concilier
la satisfaction du besoin de mobilité avec celui d’une rationalité économique en relation avec
le marché des carburants.

A cet égard, l’idée d’investir dans le secteur des hydrocarbures qui occupe une place
stratégique dans l’économie algérienne, et joue le rôle de locomotive pour la relance économique,
reste toujours d’actualité, surtout dans le domaine de la distribution des produits pétroliers
où les enjeux de pro…tabilité sont majeurs.

NAFTAL est une société par action, elle est chargée principalement de la distribution et la
commercialisation des produits pétroliers et dérivés sur le marché national. La Branche Car-
burant est l’une des quatre Branches de NAFTAL, elle a pour mission l’approvisionnement,
le stockage et la livraison des carburants aviation, marine et terre.

1
Introduction

A…n de mieux s’adapter aux nouveaux enjeux économiques, notamment la mise en oeu-
vre de nouvelles capacités de production (construction de 5 nouvelles ra¢ neries à Biskra,
Ghardaïa, Tiaret, Hassi Messaoud et Skikda ; exercice 2020), et dans le but de garder sa po-
sition de leader dans un marché qui évolue dans un contexte concurrentiel, NAFTAL cherche
à assurer une meilleure maîtrise de la demande du marché national en hydrocarbures, ce qui
lui permettra d’écarter des risques de pénuries, d’éviter des pertes …nancières et de garantir
comme objectif la satisfaction de sa clientèle.

En vue de ces objectifs, NAFTAL se doit de moderniser ses méthodes de gestion en ayant
recours, entre autre, à un outil essentiel qui est la statistique. L’action ou la prise de décision
repose toujours sur les prévisions, dans ce cas, la statistique est au service de la prévision.
Une entreprise doit prendre en considération l’outil statistique qui est considéré aujourd’hui
comme …able puisqu’il peut fournir une représentation et une bonne interprétation des don-
nées économiques. Etablir des prévisions régulières permet de suivre l’évolution du marché,
du moins à court terme.

Dans ce sens, une étude nous a été con…ée, elle consiste à trouver des modèles de prévision
à court terme pour les ventes des carburants terre, et à établir une comparaison avec la
méthode actuellement utilisée au sein de l’entreprise NAFTAL. Cette méthode se basera
principalement sur les taux de croissance des ventes de carburants qui donnent la tendance
générale de l’évolution de ces ventes (hausse, baisse ou stabilité).

Par conséquent, notre problématique s’énonce comme suit " Quelle méthode prévision-
nelle conviendrait à la gestion des ventes des carburants de l’entreprise NAFTAL ? "

Notre étude se basera sur les ventes des quatre produits suivants : essence Super, essence
Sans Plomb, essence Normale et Gasoil dans la région centre du pays. Le problème posé
relève d’un phénomène économique qui évolue en fonction du temps, il fait donc appel aux
séries chronologiques. Le but de l’analyse des séries chronologiques est le développement
des modèles permettant de décrire leur comportement et de résoudre les problèmes liés à la
prévision. Pour induire ces modèles, on propose d’utiliser deux classes; la classe des modèles
SARIMA et la classe du mélange de modèles autoregressifs (MAR), qui a été introduit par
Wong et Li en 2000, a…n de pouvoir mieux modéliser des séries …nancières en présence de ses
faits stylisés, comme : le regroupement de volatilité, l’excès du kurtosis, la multimodalité et
le changement de régimes.

2
Introduction

Dans le but d’atteindre l’objectif de notre travail, nous avons choisis de le présenter en
deux parties : nous commencerons la première partie par un rappel de quelques notions
de base sur les processus stochastiques d’une part. D’autre part, nous allons étudier la
classe du mélange de modèles autorégressifs (MAR), et sa généralisation qui est la clasese du
mélange de modèles autorégressifs périodiques (MPAR). La deuxième partie est consacrée
à l’application; l’étude de perfermance de l’algorithme EM pour les deux modèles (MAR,
MPAR), l’application de la méthde de Box et Jenkus, la modélisation de nos séries des ventes
carburants par la classe des modèles MPAR et la représentation de la méthode appliquée au
sein de NAFTAL.

Finalement, nous achevons notre étude par une comparaison générale entre les deux
méthodologies et la méthode appliqué au sein de NAFTAL.

3
C
p
ha i tr
e 1
Préliminaires

Sommaire
1.1 Concepts Fondamentaux des Processus Stochastiques . . . . . 4

1.1.1 Processus du second ordre . . . . . . . . . . . . . . . . . . . . . . . 5

1.1.2 Stationnarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.1.3 Ergodicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.1.4 Equations aux di¤érences stochastiques . . . . . . . . . . . . . . . 7

1.1 Concepts Fondamentaux des Processus Stochas-


tiques
L’analyse d’une série chronologique consiste à trouver un bon modèle mathématique
décrivant le mécanisme ayant donné lieu à cette série temporelle, dont son objectif est de
donner la description des principales propriétés du processus générateur de cette série. Cette
série ce n’est autre qu’une partie d’une trajectoire de ce processus.

Dé…nition 1 Soit T un ensemble d’indice. On appelle processus stochastique dé…ni sur


T , à valeur dans l’espace mesurable (E; B) le terme X = ; A; P; (Xt )t2T constitué par la
donnée d’un espace probabilisé ( ; A; P) et une famille (Xt )t2T de variables aléatoires dé…nies
sur ( ; A; P) à valeurs dans (E; B):

4
1.1. Concepts Fondamentaux des Processus Stochastiques

- ( ; A; P) est appelé espace probabilisé de base du processus.

- (E; B) est l’espace de phase ou espace des états.

- Pour tout ! 2 ; l’application t ! Xt de T dans E est appelée trajectoire du processus.

1.1.1 Processus du second ordre


Un processus aléatoire fYt ; t 2 Zg est dit du second ordre (ou encore de carré intégrable)
si et seulement si ses deux premiers moments existent et sont …nis, i.e. E (Yt ) < 1 et
E (Yt2 ) < 1; t 2 Z:

Ainsi que sa fonction d’autocovariance est donnée par

cov (Yt ; Yt+h ) = E ((Yt E (Yt )) (Yt+h E (Yt+h ))) 8h; t 2 Z

1.1.2 Stationnarité
La stationnarité d’une série temporelle est une propriété fondamentale. Elle indique si
les caractéristiques de celui-ci changent avec le temps ou non. Si le processus n’est pas
stationnaire alors les informations recueillies dans les données peuvent être mal interprétées.

Un processus stochastique fYt ; t 2 Zg est stationnaire si les propriétés probabilistes ne


changent pas au cours du temps. Néanmoins, on distingue deux types de stationnarité, la
stationnarité au second ordre (ou la stationnarité faible ou encore la stationnarité au sens
large) et la stationnarité stricte (ou la stationnarité forte).

Dé…nition 2 Un processus stochastique fYt ; t 2 Zg est dit strictement (ou fortement) sta-
tionnaire si pour tout n 2 N ; et pour tout n-uplet (t1 ; t2 ; :::; tn ) ; tel que t1 t2 ::: tn ;
ti 2 Z i = 1; :::; n la distribution conjointe du vecteur (Yt1 +h ; Yt2 +h ; :::; Ytn +h ) est la même
que celle de (Yt1 ; Yt2 ; :::; Ytn ) 8h 2 Z. Autrement dit, si on a:

P (Yt1 y1 ; :::; Ytn yn ) = P (Yt1 +h y1 ; :::; Ytn +h yn ) ;

8 (t1 ; t2 ; :::; tn ) 2 Zn ; 8 (y1 ; y2 ; :::; yn ) 2 Rn et 8h 2 Z


Il est utile de noter que toutes les caractéristiques (c’est à dire tous les moments) d’un
processus strictement stationnaire sont invariantes dans le temps. Cette dé…nition de la
stationnarité est, cependant, trop forte et très exigeante. En e¤et, elle se repose sur la
connaissance de la loi conjointe du processus qui ne peut pas être connue en pratique. Pour

5
1.1. Concepts Fondamentaux des Processus Stochastiques

cette raison, on a besoin d’un concept de stationnarité moins fort et qui peut être rencontré
dans la pratique.

Dé…nition 3 Un processus stochastique fYt ; t 2 Zg est dit stationnaire au second ordre, s’il
est du second ordre dont la moyenne et la fonction d’autocovariance sont stables, …nies et
independantes du temps i.e.
1) E (Yt2 ) < 1 8t 2 Z:
2) E (Yt ) = (moyenne constante) 8t 2 Z:
3) cov (Yt ; Yt+h ) = E ((Yt E (Yt )) (Yt+h E (Yt+h ))) = (h) 8h; t 2 Z:

1.1.3 Ergodicité
Pour estimer la loi d’un processus, on cherche à accumuler de l’information en faisant
tendre le nombre d’observations vers l’in…ni. Pour que ce mécanisme d’accumulation fonc-
tionne, il faut que le processus ait une mémoire …nie. C’est-à-dire qu’à partir d’un certain
nombre d’observations, il n’y ait plus d’informations nouvelles, mais simplement con…rma-
tion des informations passées. Par exemple dans le problème de l’estimation de la moyenne,
on veut que la moyenne empirique soit un estimateur consistant et que la variance de cet
estimateur tende vers zéro. On se rend compte que si un processus est cyclique, ce qui revient
à dire que des observations très éloignées peuvent être corrélées entre elles, on n’arrivera pas
à accumuler de l’information. Cette propriété de limitation de la mémoire d’un processus
s’appelle ergodicité

Un processus stochastique est ergodique si ses moments peuvent être obtenus comme des
moyennes à partir d’une seule de ses réalisations. Ceci doit être vrai en particulier pour les
moments d’ordre un et deux. On peut donc a¢ rmer que pour qu’un processus soit ergodique,
il doit nécessairement être faiblement stationnaire.

Théorème 1 (Karlin et Taylor, 1975) Soit fyt ; t 2 Zg un processus strictement station-


naire et ergodique avec une moyenne …nie . Alors

1P n
P lim yk = =1
n!1 n k=1

on peut distinguer deux types d’ergodicité, l’ergodicité forte par la convergence presque
sûre et l’ergodicité faible par la convergence en probabilité ou en moyenne quadratique.

6
1.1. Concepts Fondamentaux des Processus Stochastiques

Dé…nition 4 (Ergodicité forte) Un processus fyt ; t 2 Zg strictement stationnaire est dit


ergodique si
P ((:::; y 1 ; y0 ; y1 ; :::) 2 A) = 0 ou 1

pour chaque ensemble A T invariant.


avev, T est une transformation T : RZ ! RZ et le sous ensemble A RZ est dit T invariant
si T (A) = A:

Pour un processus du second ordre, on dé…nie l’ergodicité faible comme suit

Dé…nition 5 (Ergodicité faible) Soit fyt ; t 2 Zg un processus stationnaire au second or-


dre, tel que E (yt ) = < 1 et var (yt ) = 2 < 1 pour tout t 2 Z.
Pn
Soit y = n1 yt la moyenne temporelle. Si y converge en probabilité vers quand n ! 1,
t=1
alors y fyt ; t 2 Zg est ergodique pour la moyenne.

1.1.4 Equations aux di¤érences stochastiques


Les équations aux di¤érences stochastiques interviennent dans certaines classes de mod-
èles souvent utilisés dans la littérature de l’analyse des séries chronologiques. D’une autre
façon, la plupart des modèle de series chronologique peuvent être exprimés sous la forme de
l’équation suivante
Yn+1 = An+1 Yn + Bn+1 ; n 2 Z (1.1)

avec Yn et Bn sont des vecteurs aléatoires dé…nis en Rd , les matrices An sont de dimension
d d, et le processus f(An ; Bn ) ; n 2 Zg est strictement stationnaire et ergodique.

Un résultat porte sur l’existence des conditions nécessaires et su¢ santes d’une solution
stationnaire unique de cette équation, qui a été établi par Brandt (1986) est donné par le
théorème suivant

Théorème 2 (Brandt, 1986) Soit f(An ; Bn ) ; n 2 Zg un processus strictement stationnaire


ergodique tel que E log+ kA0 k et E log+ kB0 k sont toutes les deux …nies. Supposons que
le plus grand exposant de Lyapounov dé…ni par

1
= inf E log kA0 A 1 :::A nk ;n 2 N
n+1

7
1.1. Concepts Fondamentaux des Processus Stochastiques

est strictement négatif.


Alors, pour tout n 2 Z; la série

P
+1
yn = An An 1 :::An k+1 Bn k
k=0

converge presque sûrement, et le processus fyn ; n 2 Zg est l’unique solution stationnaire de


(1.1)

A noter que si on se place dans le cas où le processus f(An ; Bn ) ; n 2 Zg est i.i.d, alors
l’équation (1.1) satisfera un modèle autoregessif généralisé comme il est dé…nié par la suite.

Dé…nition 6 Un modèle autorégressif généralisé est un modèle de la forme

Yn+1 = An+1 Yn + Bn+1 ; n 2 Z (1.2)

où f(An ; Bn ) ; n 2 Zg est une suite de variables aléatoires i.i.d dé…nies sur un espace mesuré
( ; A; P ) à valeurs dans Rd : La solution de cette équation est une suite de variables aléatoires
de Rd pour laquelle (1.2) est véri…ée.

Théorème 3 (Bougerol et Picard, 1992) considérons le modèle (1.2). Supposons que


ce modèle est irrédudtible et qu’il a une solution strictement stationnaire et non anticipative
fyn ; n 2 Zg. Alors on

(a) A0 A 1 :::A n converge vers 0 presque sûrement lorsque n ! 1

(b) Pour tout entier n,


P
Yn = An An 1 :::An i+1 Bn i
i 0

converge presque sûrement.

(c) Cette solution est l’unique solution strictement stationnaire de (1.2).

8
C
ha pi
tr
e 2
Mélange de modèles autorégressifs

Sommaire
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2.2 Mélange de modèles autorégressifs . . . . . . . . . . . . . . . . . 10

2.3 Étude probabiliste du modèle MAR . . . . . . . . . . . . . . . . 11

2.3.1 Espérance et variance conditionnelle . . . . . . . . . . . . . . . . . 11

2.3.2 Conditions de stationnarité du premier et deuxième ordre . . . . . 13

2.3.3 Condition de stationnarité stricte . . . . . . . . . . . . . . . . . . . 19

2.3.4 Structure d’autocorrélation . . . . . . . . . . . . . . . . . . . . . . 21

2.3.5 Fonction prédictive au pas m . . . . . . . . . . . . . . . . . . . . . 22

2.4 Estimation des paramètres d’un modèle MAR . . . . . . . . . . 23

2.4.1 Estimation du maximum de vraisemlance via l’algorithme EM . . 23

2.4.2 Estimation de l’erreur standard . . . . . . . . . . . . . . . . . . . . 27

2.4.3 Calcul de la matrice d’information . . . . . . . . . . . . . . . . . . 28

2.4.4 Critère de sélection d’un modèle MAR . . . . . . . . . . . . . . . . 37

2.1 Introduction
Les distributions de mélanges ont été étudiés depuis longtemps, mais l’adoption de la
philosophie de mélange dans les modèles de séries chronologiques a une histoire relativement
courte.

9
2.2. Mélange de modèles autorégressifs

Le modèle de mélange de distributions gaussiennes de transition (GMTD) a été introduit


pour la première fois par Le et al, en 1996; a…n de capturer les propriétés de non linéarité
et non gaussienne, les valeurs aberrantes, les valeurs explosives et les points ruptures. Les
modèles (GMTD) ont été généralisés par Wong et Li en 2000; aux mélange des modèles au-
torégressifs (MAR), qui constitue de K composantes, où chacune est un modèle autorégressif
stationnaire ou non stationnaire. Il posséde un certain nombre de propriétés intéressantes
qui fait du modèle MAR un candidat rassurant pour la modélisation non linéaire de séries
temporelles. La première, il est possible qu’un mélange d’un processus stationnaire avec
un autre non stationnaire résulte un processus stationnaire. La deuxième, la distribution
conditionnelle de la série temporelle change sa forme dans le temps, cette distribution peut
être multimodale. On s’attend également que la distribution marginale de la série temporelle
peut être multimodale. La troisième, les modèles MAR peuvent capturer l’hétéroscédasticité
conditionnelle (Engle, 1982), ce qui est commun dans certaines séries temporelle …nancières.

Notre intérêt sur le modèle MAR dans ce chapitre, est de donner les propriétés proba-
bilistes, l’estimation de ces paramètres par la méthode du maximum de vraiesemblance en
passant par l’algorithme EM, et la présentation de quelques critères de séléction du modèle.

2.2 Mélange de modèles autorégressifs


Dé…nition 7 (mélange de distributions) Une densité de mélange correspend à la super-
position de densités plus simples. Soit Y et Z deux variables aléatoires et soint (y jz ) la
densite de la distribution de Y conditionnellement à Z et h(z) la densité de la distribution
de Z. La forme générale de la densité de mélange s’ecrit comme suit
R
f (y) = (y jz ) h(z)dz

Quand Z ne prend qu’un ensemble …ni de valeurs f1; :::; Kg, alors la distribution de Z est
discrète et a¤ecte une probabilité positive à chacune de ces valeurs. Dans ce cas l’integrale
est remplacée par une somme pour donner une densité de mélange …ni. Cette densité est
donnée par
P
K
f (y) = k k (y)
k=1

où k (y) = (y jZ = k ) et k = P (Z = k) : Les probabilité k sont appelées proportions du


mélange et sont strictement positifs. Leur somme vaut un.

Une dé…nition d’un mélange de modèles autoregressifs (MAR), qui peut être dé…ni soit

10
2.3. Étude probabiliste du modèle MAR

au moyen d’une équation aux di¤érences stochastique, soit par sa fonction de répartition
conditionnelle sur le passé jusqu’au temps t

Dé…nition 8 Un processus fyt ; t 2 Zg, suit un mélange de K modéles autorégressifs, d’ordre


p1 ; p2 ; :::; pK ; noté M AR(K; p1 ; p2 ; :::; pK ) si sa fonction de répartition conditionnelle F (yt jFt 1)

est donnée par:


0 1
P
pk

X
K
B yt k;0 k;i yt i
C XK
"t;k
F (yt jFt 1) = B i=1 C= (2.1)
k @ k
A k
k
k=1 k=1

ou, altenativement, si le processus fyt ; t 2 Zg évolue en fonction d’une équation aux dif-
férences stochastique:
8
>
> P
p1
>
> 1;0 + 1;i yt i + "t;1 avec une probabilité 1
>
> i=1
>
> Pp2
>
< 2;0 + 2;i yt i + "t;2 avec une probabilité 2
yt = i=1 (2.2)
>
> ..
>
> .
>
>
>
> P
pK
>
: K;0 + K;i yt i + "t;K avec une probabilité K
i=1

avec

f"t;k ; t 2 Zg une variable aléatoire i.i.d de moyenne nulle et de variance k:

(:) est la densité de la loi normale centrée réduite.

F (yt jFt 1) est la densité conditionnelle de yt ; sachant l’information passée du proces-


sus jusqu’au temps t 1.

Les proportions k; k = 1; :::; K sont strictement positifs et leur somme vaut 1.

2.3 Étude probabiliste du modèle MAR


2.3.1 Espérance et variance conditionnelle
L’espérance conditionnelle d’un processus fyt ; t 2 Zg qui suit un mélange de modèles
autoregressif M AR(K; p1 ; p2 ; :::; pK ) est donné par la formule suivante
pk
X
K X X
K
E (yt jFt 1) = k ( k;0 + k;i yt i ) = k t;k
k=1 i=1 k=1

11
2.3. Étude probabiliste du modèle MAR

avec
pk
X
t;k = k;0 + k;i yt i ; k = 1; :::; K
i=1

Cette espérance conditionnelle peut ne pas être le meilleur prédicteur des valeurs futures,
car le calcul de l’espérance conditionnelle tient compte toutes les distributions du mélange,
or que yt provient d’une seule distribution.

Preuve.
En e¤et, d’après la dé…nition on a

X
K
yt t;k
F (yt jFt 1) = k
k
k=1

Et la densité conditionnelle correspondant à F (yt jFt 1) c’est :

X
K
k yt t;k
f (yt jFt 1) = '
k k
k=1

où ' (:) est la densité de la loi normale centrée réduite.


Par conséquent, on a
Z X
K Z
k yt t;k
E (yt jFt 1) = yt f (yt jFt 1 ) dyt = yt ' dyt
k k
R k=1 R

yt t;k
En utilisant la changement de variable zt = k

Alors,
X
K Z X
K
k
E (yt jFt 1) = k (zt k + t;k ) ' (zt ) dzt = k t;k
k
k=1 R k=1

Car Z Z
E (zt ) = zt ' (zt ) dzt = 0 et ' (zt ) dzt = 1
R R

La variance conditionnelle de notre processus fyt ; t 2 Zg est donnée par ses moments
d’ordre un et deux conditionnelles:
X
K X
K XK
2 2 2
V ar (yt jFt 1) = k k + k t;k ( k t;k )
k=1 k=1 k=1

12
2.3. Étude probabiliste du modèle MAR

Preuve.
En e¤et, on sait
Z X
K Z
k yt t;k
E yt2 jFt 1 = yt2 f (yt jFt 1 ) dyt = yt2 ' dyt
k k
R k=1 R

yt t;k
On utilise le même changement de variable zt = k
; on obtient
X
K Z
k
E yt2 jFt 1 = k zt2 + 2zt k t;k + 2
t;k ' (zt ) dzt
k
k=1 R
0 1
X
K Z Z Z
= k
@ 2
k zt2 ' (zt ) dzt + 2
t;k ' (zt ) dzt + 2 k t;k zt ' (zt ) dzt A
k=1 R R R
X
K
2 2
= k k + t;k
k=1

Donc,
2
V ar (yt jFt 1) = E yt2 jFt 1 E (yt jFt 1)

X
K XK
2 2 2
= k k + t;k ( k t;k )
k=1 k=1

2.3.2 Conditions de stationnarité du premier et deuxième ordre


Les conditions de la stationnarité du premier ordre d’un processus fyt ; t 2 Zg suivant
un modèle M AR(K; p1 ; p2 ; :::; pK ) est donnée par le théorème (4), mais pour les conditions
de stationnarité au seconde ordre dans le cas général est plus compliquée avec l’approche
qui se base sur les termes d’autocovariances. On présente selon cette dernière approche
les conditions de stationnarité de second ordre des modèles MAR pour les cas du modèle
M AR(K; 1; 1; :::; 1) et M AR(K; 2; 2; :::; 2) dans les théorèmes (5) et (6), respectivement

Théorème 4 (Wong & Li, 2000) Une condition nécessaire et su¢ sante pour que le proces-
sus fyt ; t 2 Zg suivant un modèle M AR(K; p1 ; p2 ; :::; pK ) soit stationnaire au premier ordre
est que toutes les racines du polynomes :
p
!
X X
K
i
1 k k;i z = 0;
i=1 k=1

soient en module strictement inférieure à l’unité, où k;i = 0 pour i > pk et p = max (pi ):
1 i K

13
2.3. Étude probabiliste du modèle MAR

Preuve.
On a
pk
X
K X
E (yt jFt 1) = k ( k;0 + k;i yt i ); k = 1; :::; K
k=1 i=1

Alors
pk
!
X
K X
E(yt ) = E(E (yt jFt 1 )) =E k ( k;0 + k;i yt i )
k=1 i=1
X
K
= k ( k;0 + k;1 E (yt 1 ) + ::: + k;pk E (yt pk ))
k=1
X
K X
K X
K
= k k;0 + k k;1 E (yt 1 ) + ::: + k k;pk E (yt pk )
k=1 k=1 k=1
XK XK X
K
= k k;0 + k k;1 t 1 + ::: + k k;pk t pk
k=1 k=1 k=1
p
!
X
K X X
K
= k k;0 + k k;i t i (2.3)
k=1 i=1 k=1
Avec t i = E (yt i ) ; k;i = 0; pour i > pk et p = max (pi ): ainsi, une condition nécessaire
1 i K
et su¢ sante pour que l’équation aux di¤érences non homogène d’ordre p admet une solution
…nie est que toutes les racines du polynome
p
!
X X
K
i
1 k k;i z =0
i=1 k=1

soient en module strictement inférieure à unité.

Théorème 5 (Wong & Li, 2000) Supposons que le processus fyt ; t 2 Zg suivant un mod-
èle M AR(K; 1; 1; :::; 1) soit stationnaire au premier ordre. Une condition nécessaire et su¤-
isante pour que ce processus fyt ; t 2 Zg soit stationnaire au second ordre est:
2 2 2
1 1;1 + 2 2;1 + ::: + K K;1 <1

Preuve.
Supposons que notre processus fyt ; t 2 Zg suivant un modèle M AR(K; 1; 1; :::; 1) soit sta-
tionnaire au premier ordre. On a
X
K
E yt2 jFt 1 = k
2
k + 2
k;t
k=1
XK
2 2 2 2
= k k + k;o +2 k;o k;1 yt 1 + k;1 yt 1
k=1

14
2.3. Étude probabiliste du modèle MAR

2
avec t;k = k;o + k;1 yt 1 : Par suite

E yt2 = E E yt2 jFt 1

X
K
2 2 2
= k k + k;o +2 k;o k;1 E (yt 1 ) + k;1 E yt2 1 ;
k=1

E yt2 = 0 + 1E yt2 1 (2.4)


X
K
2 2
0 = k( k + k;o +2 k;o k;1 E (yt 1 ))
k=1
XK
2
1 = k k;1 ;
k=1

On constate à partir de l’équation (2.4) que le moment d’ordre deux satisfait une équation
au di¤érence non homogène d’ordre un. Alors une condition nécessaire et su¢ sante pour
que le processus fyt ; t 2 Zg soit stationnaire au second ordre est que les racines du polynome
caractéristique
z 1 =0

soient en module inférieure à l’unité, i.e.

2 2 2
j 1j = 1 1;1 + 2 2;1 + ::: + K K;1 <1

Théorème 6 (Wong & Li, 2000) Supposons que la processus fyt ; t 2 Zg satisfait une représen-
tation M AR(K; 2; 2; :::; 2) et stationnaire au premier ordre. Les condition nécessaire et su¤-
isante pour que fyt ; t 2 Zg soit stationnaire du seconde ordre sont :

2 + 1 < 1; 2 1 < 1; j 2 j < 1;


P
K P
K

X
K 2( k k;1 k;2 )( k k;1 ) X
K
2 k=1 k=1 2
1 = k k;1 + et 2 = k k;2 :
P
K
k=1 1 k k;1
k=1
k=1

15
2.3. Étude probabiliste du modèle MAR

Preuve. Supposons que notre processus fyt ; t 2 Zg suivant un modèle M AR(K; 2; 2; :::; 2)
est stationnaire au premier ordre, et sans perdre la généralité on suppose que k;0 = 0: On a
!
XK
E yt2 = E E yt2 jFt 1 = E k
2 2
k + k;t
k=1
!
X
K
2
2
=E k k +( k;0 + k;1 yt 1 + k;2 yt 2 )
k=1
!
X
K
2
2 2 2
=E k k +( k;0 + k;1 yt 1 ) + 2( k;0 + k;1 yt 1 ) k;2 yt 2 + k;2 yt 2
k=1
X
K
2 2 2
= k( k + k;0 +2 k;0 k;1 E (yt 1 ) + k;1 E yt2 1 +2 k;0 k;2 E (yt 2 )
k=1
2
+2 k;1 k;2 E (yt 1 yt 2 ) + k;2 E yt2 2 )

= a0 + a1 E yt2 1 + a2 E (yt 1 yt 2 ) + a3 E yt2 2 ; (2.5)

avec
X
K
2 2 2
a0 = k( k + k;0 +2 k;0 k;1 E (yt 1 ) + k;1 E yt2 1 )
k=1
X
K X
K
2
a1 = k k;1 ; a2 = 2 k k;1 k;2
k=1 k=1
XK
2
a3 = k k;2 :
k=1

On pose
t;0 = E yt2 et t;1 = E (yt yt 1 ) :

Alors

t 1;1 = E (yt 1 yt 2 ) = E (yt 2 E (yt 1 jFt 1 ))


!
X
K
=E yt 2 k ( k;0 + k;1 yt 2 + k;2 yt 3 )
k=1
X
K X
K X
K
= k k;0 E (yt 2 ) + k k;1 E yt2 2 + k k;2 E (yt 2 yt 3 )
k=1 k=1 k=1
X
K XK
=b+ k k;1 t 2;0 + k k;2 t 2;1
k=1 k=1

16
2.3. Étude probabiliste du modèle MAR

P
K P
K
avec b = k k;0 E (yt 2 ) = k k;0 E (yt )
k=1 k=1
Si le processus fyt ; t 2 Zg est stationnaire au second ordre, alors t 1;1 = t 2;1 et

X
K X
K X
K

t 1;1 = k k;0 E (yt 2 ) + k k;1 t 2;0 + k k;2 t 2;1


k=1 k=1 k=1
X
K XK
=b+ k k;1 t 1;0 + k k;2 t 1;1
k=1 k=1

D’où
!
X
K X
K
1 k k;2 t 1;1 =b+ k k;1 t 1;0
k=1 k=1
PK
b+ k k;1
k=1
t 1;1 = t 1;0
PK
1 k k;2
k=1

En remplaçant cette dernière relation dans (2.5), on obtient

t;0 = a0 + a1 t 1;0 + a2 t 1;1 + a3 t 2;0


0 1
P
K
Bb + k k;1 C
B k=1 C
= a0 + a1 t 1;0 + a2 B t 1;0 C + a3 t 2;0
@ PK A
1 k k;2
k=1
0 1
P
K

b B k k;1 C
B k=1 C
= a0 + a2 + B a1 + a2 C t 1;0 + a3 t 2;0
P
K @ PK A
1 k k;2 1 k k;2
k=1 k=1

t;0 = 0 + 1 t 1;0 + 2 t 2;0


! !
P
K P
K

b
P
K
2 k=1
k k;1 k;2
k=1
k k;1
P
K
2
où 0 = a0 + a2 P
K ; 1 = k k;1 +2 P
K et 2 = k k;2
1 k k;2 k=1 1 k k;2 k=1
k=1 k=1

Donc, le moment d’ordre deux satisfait une équation linéaire aux di¤érences non homogène
d’ordre deux. Alors une condition nécessaire et su¢ sante pour que le processus fyt ; t 2 Zg
soit stationnaire au seconde ordre est que toutes les racines du polnome caractéristique

z2 1z 2 =0

soient en module inférieure à l’unité

2 + 1 < 1; 2 1 < 1 et j 2 j < 1

17
2.3. Étude probabiliste du modèle MAR

Dans le cas général, les conditions de stationnarité au seconde ordre sont plus compliquées
en suivant la méthode de Wong et Li (2000). Saikkonen (2007) a proposé le théorème suivant
qui donne une conditions su¢ sante pour un modèle M AR(; p1 ; p2 ; :::; pK ):

Théorème 7 (Saikkonen, 2007) Soit fyt ; t 2 Zg un processus suivant un mélange de mod-


èles autoregressifs M AR(K; p1 ; p2 ; :::; pK ). Alors pour que ce processus soit stationnaire au
second ordre, il faut que
P
K
k Ak Ak <1
k=1

où (A) désigne le rayon spectral de la matrice A, est le produit de Kronecker et Ak est


donnée par 0 1
k;1 k;p 1 k;p
Ak = @ A
Ip 1 0(p 1) 1

Nous allons lancer maintenant le théorème de Boshnakov (2009), qui donne une condition
nécessaire et su¢ sante de la stationnarité au seconde ordre pour un modèle M AR(; p1 ; p2 ; :::; pK ):

Soit A l’éspérance de Azt sachant que Azt = Ak ; si zt = k; alors


P
K
A = E (Azt ) = k Ak
k=1

0
Pour t 0; soit Yt = (yt ; :::; yt p+1 ) ; un vecture de p valeurs de notre série fyt ; t 2 Zg :

Alors, le processus vectoriel fYt ; t 2 Zg est d’ordre un

Yt+1 = czt+1 + Azt+1 Yt + t+1;zt+1 ;


0
t+1;zt+1 = "t+1;zt+1 ; 0; :::; 0
0
czt+1 = zt+1 ;0 ; 0; :::; 0

On pose = E (yt ) ; alors E (Yt ) = 1; ainsi pour le processus centré

Yt+1 1 = dzt+1 + Azt+1 (Yt 1) + t+1;zt+1 ;


dzt+1 = czt+1 1 + Azt+1 1

18
2.3. Étude probabiliste du modèle MAR

Or

var (Yt+1 1) = var dzt+1 + Azt+1 (Yt 1) + t+1;zt+1

= var dzt+1 + var Azt+1 (Yt 1) + var t+1;zt+1 ;

Ct+1;t+1 = + E Azt+1 Ct;t A0zt+1 + Q

= E Azt+1 Ct;t A0zt+1 + 1;

Ct;s = cov (Yt ; Ys )

= var dzt+1

Q = var t+1;zt+1

1 =Q+

En utilisant la variable centrée Uzt+1 = Azt A, on obtient


n o
0
E Azt Ct;t A0zt = E A + Uzt+1 Ct;t A + Uzt+1

= ACt;t A0 + E Uzt+1 Ct;t Uzt+1 :

Théorème 8 (Boshnakov, 2009) Soient A A + E Uzt+1 Ct;t Uz0 t+1 < 1 et 1 est une
matrice dé…nie positive ou semi dé…nie positive.
Le processus fyt ; t = 1 p; :::; 0; 1; :::g, est stationnaire au second ordre si et seulement si le
vecteur initial (y0 ; y 1 ; :::; y1 p )0 muni d’une moyenne 1; où est un scalaire, et la matrice
de variance-covariance C0;0 , soit solution de l’équation

C0;0 = AC0;0 A0 + E Uzt+1 C0;0 Uz0 t+1 + 1

où A A + E Uzt+1 Ct;t Uz0 t+1 est le maximum des modules des valeurs propres de la
matrice A A + E Uzt+1 Ct;t Uz0 t+1 :

2.3.3 Condition de stationnarité stricte


Le modèle MAR présenter sous les équations (2.2) peut être représenté comme un modèle
autorégréssif généralisé avec des coé¢ cients i.i.d., a…n d’être dans le cadre de Bougerol et
Picard (1992).

19
2.3. Étude probabiliste du modèle MAR

0
0 0
Soit Yt = (yt ; yt 1 ; :::; yt p+1 ) et Bt = "t + 0;t ; 0(p 1) 1 ; où 0p 1 désigne par la suite
le vecteur nul de dimension p et
0 1
t;1 t;p 1 t;p
At = @ A
Ip 1 0(p 1) 1
p p

P
pk P
K P
K
où "t;k = yt k;0 k;i yt i ; "t = "t;k 1(zt;k =1) ; t;i = k;i 1(zt;k =1) ; et Zt;k est une
i=1 k=1 k=1
ieme
variable aléatoire égale à 1 si yt est généré à partir du k composante du mélange, et 0
sinon.

Le modèle (2.2) peut s’écrire comme

Y t = At Y t 1 + Bt ; t 2 Z (2.6)

Le modèle MAR est considéré comme un mélange de K processus autorégressif, mais il y


a aucune information concernant la structure d’independance. Nous faisons les hypothèses
suivantes vont nous aider a clari…é la structure probabiliste du modèle.

P
pk
A1 ) Les processus f"t;k ; t 2 Zg k = 1; :::; K; où "t;k = yt k;0 k;i yt i sont i.i.d. avec
i=1
2
une moyenne nulle et une variance égale à k:

Dans ce qui vient apès, la constante est dé…nie comme l’exposant de Lyapunov associée a
la matrice fAt ; t 2 Zg qui est donné par
1
= inf E (log kAn An 1 :::A1 k)
n2N n
où k:k est une norme matricielle quelconque dans Rp : Ainsi, nous allons énoncer le résultat
qui donne une condition su¢ sante pour la stationnarité stricte du modèle MAR.

Théorème 9 (Aknouche, 2011) Sous l’hypothèse A1 et <0


La série
P
1 nQ1
Yt = At i Bt n t2Z
n=0 i=1

convergent presque sûrement, et le processus fyt ; t 2 Zg donné par yt = [1; 0; :::; 0]1 p Yt est
l’unique solution strictement stationnaire et ergodique de les équations (2.2).

Preuve. Sous les hypothèses A1 . E log+ kA1 k et E log+ kB1 k sont les deux …nie, où
log+ (jxj) = max (log (jxj) ; 0) Ainsi, le résultat découle du théorème de Brandt (1986).

20
2.3. Étude probabiliste du modèle MAR

2.3.4 Structure d’autocorrélation


Comme le modèle MAR est un mélange de modèles AR, alors les autocorrélations des
séries chronologiques générée par le modèle MAR devrait être semblable de celui d’un modèle
AR, et elles satisfont un système d’équations similaire aux équations de Yule-Walker pour
un processus AR classique.

La fonction d’autocorrélation d’un processus fyt ; t 2 Zg stationnaire au second ordre


suivant un modèle M AR(K; p1 ; p2 ; :::; pK ) au retard h, notée (h) est donnée par:

P
p P
K
(h) = k k;i jh ij h = 1; :::; p
i=1 k=1

où k;i = 0 pour i > pk et p = max pk


1 k K

Preuve. Sous l’hypothése E (yt ) = E (yt h) =0


On aura
(h) = cov(yt yt h) = E (yt yt h) h = 1; :::; pk ; k = 1; :::; K

pour h = 0
(0) = Var (yt )

E (yt yt h) = E (E(yt h yt jFt 1 )) = E (yt h E(yt jFt 1 ))

P
K
= E yt h k k;t
k=1
PK
= E yt h k ( k;0 + k;1 yt 1 + ::: + k;pk yt pk )
k=1
P
K
= k ( k;0 E (yt h) + k;1 E (yt h yt 1 ) + ::: + k;pk E (yt h yt pk ))
k=1
PK
= k ( k;1 (jh 1j) + k;2 (jh 2j) + ::: + k;pk (jh pk j))
k=1

Posons p = max pk ; alors


1k K

P
K P
pk
(h) = E (yt yt h) = k k;i (jh ij) ; h = 1; :::; p (2.7)
k=1 i=1

21
2.3. Étude probabiliste du modèle MAR

En divisant (2.7) par (0) on trouve

(h) Pp P
K (jh ij)
(h) = h = = k k;i
(0) i=1 k=1 (0)
P
p P
K
= k k;i jh ij h = 1; :::; p
i=1 k=1

2.3.5 Fonction prédictive au pas m


Le calcul de la fonction prédictive au premier pas F (yt+1 jFt ) est basé sur la dé…nition du
modèle. Le calcul de la fonction prédictive F (yt+m jFt ) au pas m n’est pas direct. Wong et
Li (2000) ont présenté trois approches pour le calcul des distributions au pas m: l’approche
naïve, exacte et l’approche Monte Carlo.

On utilise la distribution prédictive au deuxième pas F (yt+2 jFt ) pour illustrer ces ap-
proches.

Dans l’approche naïve, on utilise tous simplement la prévision au premier pas y^t+1 =
E (yt+1 jFt ) comme la vraie valeur de yt+1 : On obtient

F (yt+2 jFt ) = F (yt+2 jFt ; yt+1 = y^t+1 )

Cette approche est simple, mais elle néglige toute l’information fournie par la forme de
distribution au premier pas. Concernant le modèle MAR, l’information perdue peut être
importante car F (yt+1 jFt ) peut être multimodale. Une meilleure approche est de calculer
la distribution prédictive au deuxième pas par son expression exacte

R
F (yt+2 jFt ) = F (yt+2 jFt ; yt+1 )dF (yt+1 jFt )

Cette intégration peut être analytiquement intraitable, mais on peut toujours utiliser une
méthode numérique pour l’évaluer. Cependant, une approximation de Monte-Carlo pour la
distribution prédictive exacte peut être plus adéquate. Cette dernière au deuxième pas est
donnée par
1P N
j
F (yt+2 jFt ) = F (yt+2 Ft ; yt+1 )
N j=1
j
où yt+1 ; j = 1; :::; N sont échantillonnés à partir de F (yt+1 jFt )

22
2.4. Estimation des paramètres d’un modèle MAR

2.4 Estimation des paramètres d’un modèle MAR


2.4.1 Estimation du maximum de vraisemlance via l’algorithme
EM
Dans cette section, on va discuter le problème de l’estimation des paramètres d’un modèle
MAR en utilisant l’algorithme EM (Dempster et al., 1977). Supposons que les observations
Y = (y1 ; :::; yn ) sont issues du modèle MAR dé…ni par (2.1). Soit Z = (Z1 ; Z2 ; :::; Zn )K n

une matrice des variables aléatoires (i.i.d) non observées, où Zt est un K-vecture dont la
k ieme composante vaut 1 si yt est issue de la k ieme composante de la fonction de distribu-
0
tion conditionnelle, et elle vaut 0 ailleurs. Soient = ( 1; 2 ; :::; K 1) ; (K 1)-vecteur
0
des probabilités, k = ( k;0 ; k;1; ; :::; k;pk ; k) ; k = 1; :::; K; les vecteurs des paramètres,
0 0
et = ( 0; 0
1 ; :::; K ) le vecteur des paramètres a estimé. La fonction de vraisemblance
(conditionnelle) est donnée par

Q
n Q
K
l(Y; Z j ) = [P (Zt;k = 1) f (yt jFt 1 ; Zt;k = 1; )]Zt;k
t=p+1k=1
Zt;k
Q
n Q
K
Zt;k 1 1 "2t;k
= k p exp
t=p+1k=1 k 2 2 k2
Zt;k
Q
n Q
K
k 1 "2t;k
= p exp
t=p+1k=1 k 2 2 k2


"t;k = yt k;0 k;1 yt 1 ::: k;pk yt pk

D’où la fonction log-vraisemblence (conditionnelle) est dé…nie par

P
n P
K P
K P
K p PK Zt;k "2
t;k
L(Y; Z j ) = Zt;k log( k) Zt;k log( k ) Zt;k log( 2 ) 2
t=p+1 k=1 k=1 k=1 k=1 2 k

Les premières dérivées de la fonction log-vraisemblence par rapport à sont

@L @ P
n P
K
= Zt;k log( k)
@ k @ k t=p+1k=1

@ P
n P1
K P1
K
= Zt;k log( k ) + Zt;K log 1 k
@ k t=p+1 k=1 k=1

D’où
@L Pn Zt;k Zt;K
= k = 1; :::; K 1 (2.8)
@ k t=p+1 k K

23
2.4. Estimation des paramètres d’un modèle MAR

et
@L @ P n K Zt;k "2
P t;k
= 2
@ k;i @ k;i t=p+1 k=1 2 k
P Zt;k u(yt ; i)"t;k
n
= 2
k = 1; :::; K i = 1; :::; pk
t=p+1 k

où 8
< 1 si i = 0
u(yt ; i) =
: y si i > 0
t i

Et en…n
@L @ P n P
K PK Zt;k "2
t;k
= Zt;k log( k ) 2
@ k @ k t=p+1 k=1 k=1 2 k

P
n Zt;k Zt;k "2t;k 2 k
= 4
t=p+1 k 2 k

@L Pn Z
t;k "2t;k
= 2
1 k = 1; :::; K (2.9)
@ k t=p+1 k k

L’algorithme EM constitue de deux étapes, l’étape E (Expectation) et l’étape M (Maxi-


mization), il nous permet de trouver l’estimation des paramètres d’un modèle MAR par la
maximisation de sa fonction de log-vraisemblance complète.

Etape E
On suppose que est connue. On remplace les valeurs non observées Z par leurs espérance
conditionnelle par rapport aux paramètre et aux valeurs observées Y: Dans ce cas l’espérance
condionnelle de Zt est simplement la probabilité conditionnelle que l’observation yt provient
de la k ieme composante de la distribution du mélange, sachant et Y . Soit t;k l’espérance
conditionnelle de la k ieme composante de Zt . Ainsi l’équation de l’étape E est donnée par

t;k = E 1(Zt;k =1) jFt 1 ; = E (Zt;k jFt 1 ; )

= P (Zt;k = 1 jFt 1 ; )
P (Zt;k = 1) f (yt jZt;k = 1; Ft 1 ; )
=
P
K
P (Zt;l = 1) f (yt jZt;l = 1; Ft 1 ; )
l=1

k (1= k ) ' ("k;t = k )


= k = 1; :::; K
P
K
l (1= l ) ' ("l;t = l )
l=1

Dans l’étape E, le vecteur est remplacé par ^ obtenu à l’étape M précédente de l’algorithme
EM.

24
2.4. Estimation des paramètres d’un modèle MAR

Etape M
Supposons que les données manquantes soient connues. Les estimations des paramètres
peuvent être obtenues en maximisant la fonction log-vraisemblance complète, L:Ceci peut
être accompli par la résolution du système d’équations suivants
8
>
> @L
=0
>
< @ k
@L
=0
>
>
@ k;i
>
: @L = 0
@ k

On a

@L Pn Zt;k Zt;K
=0, = 0 k = 1; :::; K
@ k t=p+1 k K
P
n Z
t;k P n Z
t;K
, = k = 1; :::; K
t=p+1 k t=p+1 K
1 P
n 1 Pn
, Zt;k = Zt;K k = 1; :::; K
k t=p+1 K t=p+1

en remplaçant les Zt;k par leurs estimations t;k ; on aura donc

P
n
k P
n
t;k = t;K k = 1; :::; K: (2.10)
t=p+1 K t=p+1

Par suite
P
n P
K P
K
k P
n
t;k = t;K ;
t=p+1k=1 k=1 K t=p+1

et comme
P
K P
K
t;k = 1 et k = 1;
k=1 k=1

alors
1 P
n
K = t;K :
n p t=p+1
Remplaçons cette expression dans (2.10), on obtient

1 P
n
^k = t;k k = 1; :::; K
n p t=p+1

On a égalemenet

25
2.4. Estimation des paramètres d’un modèle MAR

@L Pn Z u(y ; i)"
t;k t t;k
=0, 2
= 0 k = 1; :::; K i = 0; :::; pk
@ k;i t=p+1 k
P
n
, Zt;k u(y t ; i) (yt k;0 k;1 yt 1 ::: k;pk yt pk ) = 0
t=p+1
Pn P
n
, Zt;k u(y t ; i)y t = (Z t;k u(y t ; i) k;0 +Z t;k u(y t ; i) k;1 yt 1 +::: + Z t;k u(y t ; i) k;pk yt pk )
t=p+1 t=p+1
Pn Pn P pk
, Zt;k u(y t ; i)y t = Zt;k u(y t ; i) k;j u(y t ; j)
t=p+1 t=p+1j=0
Pn Ppk Pn
, Zt;k u(y t ; i)y t = k;j Zt;k u(y t ; i)u(y t ; j) k = 1; :::; K i = 0; :::; pk :
t=p+1 j=0 t=p+1

On remplace toujours les Zt;k par leurs estimations t;k

P
n P
pk
^ P
n
t;k yt u(y t ; i) = k;j t;k u(y t ; i)u(y t ; j) k = 1; :::; K i = 0; :::; pk
t=p+1 j=0 t=p+1

ce qui est équivalent au système matriciel suivant

bk = Ak ^k k = 1; :::; K (2.11)

avec 0 1
P
n
0 1
t;k yt u(y t ; 0)
B t=p+1 C ^k;0
B n C B C
B P C B ^ C
B t;k yt u(y t ; 1) C B C
B C ^k = B k;1 C
bk = B t=p+1 C et B .. C
B .. C B . C
B . C @ A
B n C
@ P A ^k;p
t;k yt u(y t ; pk ) k
t=p+1
0 1
P
n P
n P
n
t;k t;k u(y t ; 1) t;k u(y t ; pk )
B C
B n t=p+1 t=p+1 t=p+1 C
B P P
n P
n C
B t;k u(y t ; 1) t;k u(y t ; 1)u(y t ; 1) t;k u(y t ; pk )u(y t ; 1) C
B C
Ak = B t=p+1 t=p+1 t=p+1 C
B .. .. .. .. C
B . . . . C
B n C
@ P P
n Pn A
t;k u(y t ; pk ) t;k u(y t ; 1)u(y t ; pk ) t;k u(y t ; pk )u(y t ; pk )
t=p+1 t=p+1 t=p+1

telque k = 1; :::; K; et 8
< 1 si i = 0
u(y t ; i) =
: y si i > 0
t i

La résolution du système linéaire (2.11) nous donne les solutions

^k = A 1 bk k = 1; :::; K
k

26
2.4. Estimation des paramètres d’un modèle MAR

En…n, il nous reste à estimer les k k = 1; :::; K

@L Pn Z
t;k "2t;k
=0, 2
1 = 0 k = 1; :::; K
@ k t=p+1 k k
n Zt;k "2
P P
n Z
t;k t;k
, 3
= k = 1; :::; K
t=p+1 k t=p+1 k
Pn Pn
, Zt;k "2t;k = 2
k Zt;k k = 1; :::; K
t=p+1 t=p+1

ce qui donne
P
n
Zt;k "2t;k
2 t=p+1
k= Pn k = 1; :::; K
Zt;k
t=p+1

En remplaçant les Zt;k k = 1; :::; K par leurs estimations t;k , ainsi que les k;i i = 1; :::; pk
par leurs estimations ^k;i ; on aura donc

8 P
n 2 91=2
>
> yt ^k;0 ^k;1 yt ::: ^k;p yp >
>
< t;k 1 k k =
t=p+1
^k = P
n k = 1; :::; K
>
> >
>
: t;k ;
t=p+1

Remarque 1
Les estimations des paramètres sont alors obtenues en itérant ces deux étapes jusqu’à la con-
vergence.
L’évaluation de la performance de l’algorithme EM se fait par quelques expériences de sim-
ulation.

2.4.2 Estimation de l’erreur standard


Wong et Li (2000) ont proposé d’utiliser le principe de l’information manquate (Louis,
1982), pour calculer les erreurs standards des estimations.

D’après ce principe, la matrice d’information observée Iobs peut être calculée à partir de
la matrice d’information complète Ic ; et de la matrice d’information manquante Im ; par la
relation
@2L @L
Iobs = Ic Im = E j ;Y Var j ;Y
@ @ 0 =^ @ =^

La matrice de variance-covariance de l’estimateur ^ est donnée par l’inverse de la matrice

27
2.4. Estimation des paramètres d’un modèle MAR

d’information observée Iobs . La variance de l’estimateur ^ K est donnée par


P1
K P1
K P1KP1
K
var (^ K ) = var 1 ^k = var (^ k ) + cov (^ k ; ^ l )
k=1 k=1 k=1 l=1
l6=k

2.4.3 Calcul de la matrice d’information


On va traiter dans cette section, comment calculer la matrice d’information complète
ainsi que la matrice d’information manquante d’un modèle MAR. Tout d’abord, on calcule
les dérivées secondes de la fonction log-vraisemblance par rapport au paramètre :

- Les dérivées secondes par rapport à :

Pour k = 1; :::; K 1 on a
@2L @ P
n Zt;k Zt;K
=
@ k2 @ k t=p+1 k K
P
n Zt;k Zt;K
= 2 + 2
t=p+1 k K

Pour k; l = 1; :::; K 1 avec k 6= l; on a


@2L @ Pn Zt;k Zt;K
=
@ l@ k @ l t=p+1 k K
P
n Z
t;K
= 2
t=p+1 K

- Les dérivées secondes par rapport à k;i :

Pour k; l = 1; :::; K et i; j = 0; :::; pk


@2L @ P
n Z u(y ; i)"
t;k t t;k
= 2
@ k;i @ k;j @ k;j t=p+1 k
P
n Zt;k u(yt ; i)u(yt ; j)
= 2
t=p+1 k

- Les dérivées secondes par rapport aux k et k;i :

Pour k = 1; :::; K
@2L @ P
n Z
t;k "2t;k
= 1
@ k2 @ k t=p+1 k
2
k
Pn Z
t;k 3"2t;k
= 2 2
1
t=p+1 k k

28
2.4. Estimation des paramètres d’un modèle MAR

Pour k = 1; :::; K; i = 0; :::; pk

@2L @ Pn Z u(y ; i)"


t;k t t;k
= 2
@ k @ k;i @ k t=p+1 k
P 2Zt;k u(yt ; i)"t;k
n
= 3
t=p+1 k

Les restes des dérivées sont nulles.

- On peut maintenant donner la matrice d’information complète Ic par:


0 1
Ic0
B C
B C
B Ic1 C
B
Ic = B C
.. C
B . C
@ A
IcK

est une matrice diagonale par bloc, et les éléments diagonaux (i.e. les matrices Ick k =
0; :::; K) sont dé…nis comme suit:

La matrice Ic0 est une matrice carrée de dimension K 1 telleque :

@2L
Ic0 = E j ;Y = fIc0 (k; l)gk;l=1;:::;K 1
@ @ 0

pour k = 1; :::; K 1 on a

@2L P
n Zt;k Zt;K
Ic0 (k; k)= E j ;Y =E + j ;Y
@ k2 t=p+1
2
k
2
K
P
n E (Zt;k j ; Y ) E (Zt;K j ; Y )
= 2
+ 2
t=p+1 k K
P
n
t;k t;K
= 2
+ 2
t=p+1 k K

pour k; l = 1; :::; K 1; k 6= l on a

@2L P
n Z
t;K
Ic0 (k; l)= E j ;Y =E 2
j ;Y
@ l@ k t=p+1 K
P
n E (Z
t;K j ; Y ) P
n
t;K
= 2
= 2
t=p+1 K t=p+1 K

Et la matrice Ick ; k = 1; :::; K est une matrice carrée de dimension pk + 2 est dé…niée par

@2L
Ick = E j ;Y = fIck (i; j)gi;j=1;:::;pk +2
@ k @ k0

29
2.4. Estimation des paramètres d’un modèle MAR

pour i; j = 0; :::; pk on a

@2L P
n Zt;k u(yt ; i)u(yt ; j)
Ick (i + 1; j + 1)= E j ;Y =E 2
j ;Y
@ k;i @ k;j t=p+1 k
P
n
t;k u(yt ; i)u(yt ; j)
= 2
t=p+1 k

Pour i = pk + 2 et j = pk + 2; on a

@2L P
n Z
t;k 3"2t;k
Ick (pk + 2; pk + 2)= E j ;Y =E 1 j ;Y
@ k2 t=p+1
2
k
2
k
P
n E (Z
t;k j ; Y ) 3"2t;k
= 2 2
1
t=p+1 k k
P
n
t;k 3"2t;k
= 2 2
1
t=p+1 k k

pour i = 0; :::; pk et j = pk + 2

@2L
Ick (i + 1; pk + 2)= I ck (pk + 2; i + 1) = E j ;Y
@ k @ k;i
P
n 2Z u(y ; i)"
t;k t t;k
=E 3
j ;Y
t=p+1 k
P
n 2
t;k u(yt ; i)"t;k
= 3
t=p+1 k

- De plus, la matrice d’information manquante Im est une matrice symétrique, il su¢ t


alors d’évoluer la matrice triangulaire inférieure
0 1
I
B m00 C
B C
B Im10 Im11 C
B C
B C
Im = B Im20 Im21 Im22 C
B C
B .. .. .. .. C
B . . . . C
@ A
ImK0 ImK1 ImK2 ImKK

ces éléments sont dé…nis comme suit:

La matrice Im00 est une matrice carré de dimension K 1 telle que

@L
Im00 = var j ;Y = fIm00 (k; l)gk;l=1;:::;K 1
@

30
2.4. Estimation des paramètres d’un modèle MAR

pour k = 1; :::; K 1; on a

@L P
n Zt;k Zt;K
Im00 (k; k)= var j ;Y = var j ;Y
@ t=p+1 k K
P
n Zt;k Zt;K P
n P
n Zt;k Zt;K Zt0 ;k Zt0 ;K
= var j ;Y +2 cov ; j ;Y
t=p+1 k K t=p+1t0 =p+1 k K k K
t6=t0
P
n Zt;k Zt;K Zt;k Zt;K
= var j ;Y + var j ;Y 2 cov ; j ;Y
t=p+1 k K k K
P
n
t;k (1 t;k ) t;K (1 t;K ) 2 t;k t;K
= 2
+ 2
+
t=p+1 k K k K

cov (Zt;k ; Zt0 ;k ) = 0 8t0 6= t; (i.e. la variable aléatoire fZt t 2 Zg est indépendante et iden-
tiquement distribuée (i.i.d.)).

Pour k; l = 1; :::; K 1 tel que k 6= l on a

@L @L P
n Zt;k Zt;K P
n Zt;l Zt;K
Im00 (k; l)= cov ; j ;Y = cov ; j ;Y
@ k @ l t=p+1 k K t=p+1 l K
P
n Pn Zt;k Zt;K Zt;l Zt;K
= cov ; j ;Y
t=p+1t0 =p+1 k K l K
P
n Zt;k Zt;K Zt;l Zt;K
= cov ; j ;Y
t=p+1 k K l K
P
n P
n Zt;k Zt;K Zt0 ;l Zt0 ;K
+ cov ; j ;Y
t=p+1t0 =p+1 k K l K
t6=t0
P
n Zt;k Zt;K Zt;l Zt;K
= cov ; j ;Y
t=p+1 k K l K
P
n
t;k t;K t;l t;K t;k t;l t;K (1 t;K )
= + + 2
t=p+1 k K l K k l K

La matrice Imkk est une matrice carrée de dimension pk + 2; dé…nie pour k = 1; :::; K comme
suit
@L
Imkk = var j ;Y = fImkk (i; j)gi;j=1;:::;pk +2
@ k

31
2.4. Estimation des paramètres d’un modèle MAR

pour j; i = 0; :::; pk on a

@L @L
Imkk (i + 1; j + 1)= cov ; j ;Y
@ k;i @ k;j
Pn Z u(y ; i)"
t;k t t;k P
n Z u(y ; j)"
t;k t t;k
= cov 2
; 2
j ;Y
t=p+1 k t=p+1 k
P
n Zt;k u(yt ; j)"t;k Zt;k u(yt ; j)"t;k
= cov 2
; 2
j ;Y
t=p+1 k k
P
n Zt;k u(yt ; j)"t;k Zt0 ;k u(yt0 ; j)"t0 ;k
+ cov 2
; 2
j ;Y
t;t0 =p+1 k k
t6=t0
P
n Zt;k u(yt ; j)"t;k Zt;k u(yt ; j)"t;k
= cov 2
; 2
j ;Y
t=p+1 k k
n var (Zt;k j ; Y ) u(yt ; i)u(yt ; j)"2
P t;k
= 4
t=p+1 k
2
P
n t;k (1 t;k ) u(yt ; i)u(yt ; j)"t;k
= 4
t=p+1 k

pour j = pk + 2 et i = pk + 2 on a

@L
Imkk (pk + 2; pk + 2)= var j ;Y
@ k
P
n Z
t;k "2t;k
= var 2
1 j ;Y
t=p+1 k k
2
P
n
t;k (1 t;k ) "2t;k
= 2 2
1
t=p+1 k k

Pour i = 0; :::; pk et j = pk + 2 on a

@L @L
Imkk (i + 1; pk + 2)= I mkk (pk + 2; i + 1) = cov ; j ;Y
@ k;i @ k
P
n Z u(y ; i)"
t;k t t;k P
n Z
t;k "2t;k
= cov 2
; 2
1 j ;Y
t=p+1 k t=p+1 k k
P
n Zt;k u(yt ; i)"t;k Zt;k "2t;k
= cov 2
; 2
1 j ;Y
t=p+1 k k k
P
n Zt;k u(yt ; i)"t;k Zt0 ;k "2t0 ;k
+ cov 2
; 2
1 j ;Y
t;t0 =p+1 k k k
t6=t0

P
n var (Z
t;k j ; Y ) u(yt ; i)"t;k "2t;k
= 3 2
1
t=p+1 k k
P
n
t;k (1 t;k ) u(yt ; i)"t;k "2t;k
= 3 2
1
t=p+1 k k

32
2.4. Estimation des paramètres d’un modèle MAR

La matrice Imk0 ; est une matrice de dimension (pk + 2) (K 1) dé…nie par

@L @L
Imk0 = cov ; j ;Y = fImk0 (i; j)g(i;j)2f1;:::;pk +2g f1;:::;K 1g
@ k @ k

pour i = 0; :::; pk et k = 1; :::; K 1 on a

@L @L
Imk0 (i + 1; k)= cov ; j ;Y
@ k;i @ k
Pn Z u(y ; i)"
t;k t t;k P
n Zt;k Zt;K
= cov 2
; j ;Y
t=p+1 k t=p+1 k K
P
n Z u(y ; i)"
t;k t t;k P
n Z
t;k
= cov 2
; j ;Y
t=p+1 k t=p+1 k
P
n Z u(y ; i)"
t;k t t;k P
n Z
t;K
cov 2
; j ;Y
t=p+1 k t=p+1 K
P
n var (Zt;k j ; Y ) u(yt ; i)"t;k cov (Zt;k ; Zt;K j ; Y ) u(yt ; i)"t;k
= 2 2
t=p+1 k k k K
P
n 1 t;k t;K t;k u(yt ; i)"t;k
= + 2
t=p+1 k K k

Pour i = 0; :::; pk et k; l = 1; :::; K 1 avec l 6= k on a

@L @L Pn Z u(y ; i)"
t;k t t;k Pn Zt;l Zt;K
Imk0 (i + 1; l)= cov ; j ; Y = cov 2
; j ;Y
@ k;i @ l t=p+1 k t=p+1 l K
P Zt;k u(yt ; i)"t;k P Zt;l
n n
= cov 2
; j ;Y
t=p+1 k t=p+1 l
P
n Z u(y ; i)"
t;k t t;k P
n Z
t;K
cov 2
; j ;Y
t=p+1 k t=p+1 K
P
n cov (Zt;k ; Zt;l j ; Y ) u(yt ; i)"t;k cov (Zt;k ; Zt;K j ; Y ) u(yt ; i)"t;k
= 2 2
t=p+1 k l k K
P
n
t;K t;l t;k u(yt ; i)"t;k
= 2
t=p+1 K l k

33
2.4. Estimation des paramètres d’un modèle MAR

Pour i = pk + 2; et l = k; on a

@L @L
Imk0 (pk + 2; k)= cov ; j ;Y
@ k @ k
P
n Z
t;k "2t;k P
n Zt;k Zt;K
= cov 2
1 ; j ;Y
t=p+1 k k t=p+1 k K

Pn Z
t;k "2t;k P
n Z
t;k
= cov 2
1 ; j ;Y
t=p+1 k k t=p+1 k

Pn Z
t;k "2t;k P
n Z
t;K
cov 2
1 ; j ;Y
t=p+1 k k t=p+1 K

P
n var (Zt;k j ; Y ) cov (Zt;k ; Zt;K j ; Y ) "2t;k
= 2
1
t=p+1 k k k K k
P
n 1 t;k t;K t;k "2t;k
= + 2
1
t=p+1 k K k k

Pour i = pk + 2; et l 6= k on a

@L @L
Imk0 (pk + 2; k)= cov ; j ;Y
@ k @ l
P
n Z
t;k "2t;k P
n Zt;l Zt;K
= cov 2
1 ; j ;Y
t=p+1 k k t=p+1 l K

Pn Z
t;k "2t;k P
n Z
t;l
= cov 2
1 ; j ;Y
t=p+1 k k t=p+1 l

Pn Z
t;k "2t;k P
n Z
t;K
cov 2
1 ; j ;Y
t=p+1 k k t=p+1 K

P
n cov (Zt;k ; Zt;l j ; Y ) cov (Zt;k ; Zt;K j ; Y ) "2t;k
= 2
1
t=p+1 k k k K k
P
n
t;K t;l t;k "2t;k
= 2
1
t=p+1 K l k k

La matrice ImK0 est une matrice de dimension (pk + 2) (K 1) ; donnée par

@L @L
ImK0 = cov ; j ;Y = fImk0 (i; j)g(i;j)2f1;:::;pk +2g f1;:::;K 1g
@ k @

34
2.4. Estimation des paramètres d’un modèle MAR

Pour i = 0; :::; pK et k = 1; :::; K 1; on aura

@L @L
ImK0 (i + 1; k)= cov ; j ;Y
@ K;i @ k
P
n Z
t;K u(yt ; i)"t;K P
n Zt;k Zt;K
= cov 2
; j ;Y
t=p+1 K t=p+1 k K
P
n Z
t;K u(yt ; i)"t;K P
n Z
t;k
= cov 2
; j ;Y
t=p+1 K t=p+1 k
P
n Z
t;K u(yt ; i)"t;K P
n Z
t;K
cov 2
; j ;Y
t=p+1 K t=p+1 K
P
n cov (Zt;k ; Zt;K j ; Y ) u(yt ; i)"t;K var (Zt;K j ; Y ) u(yt ; i)"t;K
= 2 2
t=p+1 K k K K
P
n
t;k 1 t;K t;K u(yt ; i)"t;K
= 2
t=p+1 k K K

et pour i = pK + 2; et k = 1; :::; K 1; on a

@L @L
ImK0 (pK + 2; k)= cov ; j ;Y
@ K @ k
Pn Z
t;K "2t;K P
n Zt;k Zt;K
= cov 2
1 ; j ;Y
t=p+1 K K t=p+1 k K

Pn Z
t;K "2t;K P
n Z
t;k
= cov 2
1 ; j ;Y
t=p+1 K K t=p+1 k

Pn Z
t;K "2t;K P
n Z
t;K
cov 2
1 ; j ;Y
t=p+1 K K t=p+1 K

P
n cov (Zt;k ; Zt;K j ; Y ) var (Zt;K j ; Y ) "2t;K
= 2
1
t=p+1 K k K K K
P
n
t;k 1 t;K t;K "2t;K
= 2
1
t=p+1 k K K K

La matrice Imkl pour k = 2; :::; K et l = 1; :::; K 1 est une matrice de (pk + 2) (pl + 2)
donnée par

@L @L
Imkl = cov ; j ;Y = fImkl (i; j)g(i;j)2f1;:::;pk +2g f1;:::;pl +2g
@ k @ l

35
2.4. Estimation des paramètres d’un modèle MAR

Pour i = 0; :::; pk et j = 0; :::; pl on a

@L @L
Imkl (i + 1; j + 1)= cov ; j ;Y
@ k;i @ l;j
Pn Z u(y ; i)"
t;k t t;k P
n Z u(y ; j)"
t;l t t;l
= cov 2
; 2
j ;Y
t=p+1 k t=p+1 l
P
n cov (Z ; Z j ; Y ) u(y ; i)u(y ; j)" "
t;k t;l t t t;k t;l
= 2 2
t=p+1 k l
P
n
t;k t;l u(yt ; i)u(yt ; j)"t;k "t;l
= 2 2
t=p+1 k l

Pour i = pk + 2 et j = pk + 2 on a

@L @L
Imkl (pK + 2; pK + 2)= cov ; j ;Y
@ k @ l
P
n Z
t;k "2t;k P
n Z
t;l "2t;l
= cov 2
1 ; 2
1 j ;Y
t=p+1 k k t=p+1 l l
P
n cov (Zt;k ; Zt;l j ; Y ) "2t;k "2t;l
= 2
1 2
1
t=p+1 k l k l
P
n
t;k t;l "2t;k "2t;l
= 2
1 2
1
t=p+1 k l k l

Pour i = 0; :::; pk et j = pk + 2 on a

@L @L
Imkl (i + 1; pK + 2)= cov ; j ;Y
@ k;i @ l
Pn Z u(y ; i)"
t;k t t;k P
n Z
t;l "2t;l
= cov 2
; 2
1 j ;Y
t=p+1 k t=p+1 l l
P
n cov (Zt;k ; Zt;l j ; Y ) u(yt ; i)"t;k "2t;l
= 2 2
1
t=p+1 k l l
P
n
t;k t;l u(yt ; i)"t;k "2t;l
= 2 2
1
t=p+1 k l l

Pour i = pk + 2 et j = 0; :::; pk on a

@L @L
Imkl (pK +2; j + 1)= cov ; j ;Y
@ k @ l;j
P
n Z
t;k "2t;k P
n Z u(y ; j)"
t;l t t;l
= cov 2
1 ; 2
j ;Y
t=p+1 k k t=p+1 l
P
n cov Z ; Z j ; Y u(y ; j)"
t;k t;l t t;l "2t;k
= 2 2
1
t=p+1 k l k
P
n t;k t;l u(y t ; j)"t;l "2t;k
= 2 2
1
t=p+1 k l k

36
2.4. Estimation des paramètres d’un modèle MAR

2.4.4 Critère de sélection d’un modèle MAR


Le et al en 1996 ont proposé d’utiliser le critère BIC comme outil de sélection du modèle
GMTD. Ils ont également utilisé la fonction log-vraisemblance pour comparer le modèle
GMTD avec le modèle autorégressif moyenne mobile intégrée (ARIMA). Wong et Li (2000)
ont utilisé une approche similaire pour la sélection du modèle MAR.

Les critères de sélection de modèle considérés ici sont le critère de l’information baysi-
enne (BIC)(Shwarz 1978) et le critère d’information d’Akaike AIC (Akaike, 1973). Ces
deux critères sont dé…nis comme moins deux fois la fonction log-vraisemblance maximisée
plus un terme de pénalité. Pour le BIC, le terme de pénalité est le logarithme du nombre
d’observations multiplié par le nombre de paramètres estimés, alors que pour l’AIC, le terme
de pénalité est le double du nombre de paramètres estimes.

Les expressions des critères AIC ; BIC et BIC dé…nis par Wong et Li (2000) sont
données par

P
K
BIC = 2l + log (n pmax ) 3K 1+ pk
k=1
P
K
BIC = 2l + log(n pmax ) 3K 1+ pk
k=1
P
K
AIC = 2l + 2 3K 1+ pk
k=1

avec l représente la fonction log-vraisemblance maximisée (observée) qui est donnée au-
tomatiquement par l’algorithme EM sans introduire le vecteur aléatoire non observé Z. La
fonction l est dé…nie par

P
n P
n d
l = log ff (yt jFt 1 )g = log F (yt jFt 1)
t=p+1 t=p+1 dyt

et l représente la fonction log-vraisemblance maximisée qui contient le vecteur aléatoire non


observé Z calculée à partir de la densité de probabilité (conditionnelle) du modèle MAR. La
fonction l est dé…nie par
n P
P K log(2 ) "2t;k
l= Zt;k log( k) log( k )
t=p+1k=1 2 2 k2

L’objectif est de choisir K et les ordres des composantes pk qui minimisent ces critères.

37
C
ha pi
tr
e 3
Mélange de modèles autorégressifs
périodiques

Sommaire
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

3.2 Les processus périodiquement corrélés . . . . . . . . . . . . . . . 39

3.2.1 Processus périodiques au sens strict . . . . . . . . . . . . . . . . . 39

3.2.2 Processus périodiquement corrélé . . . . . . . . . . . . . . . . . . . 40

3.2.3 Fonction d’autocovariance d’un processus périodiquement corrélé . 40

3.3 Mélange de modèles autorégressifs périodiques . . . . . . . . . 41

3.4 Etude probabiliste du modèle MPAR . . . . . . . . . . . . . . . 42

3.4.1 Espérance et variance conditionnelle . . . . . . . . . . . . . . . . . 42

3.4.2 Conditions de stationnarité périodique du premier et deuxième ordre 43

3.4.3 Condition de stationnarité périodique stricte . . . . . . . . . . . . 48

3.5 Structure d’autocorrélation . . . . . . . . . . . . . . . . . . . . . 50

3.6 Estimation des paramètres d’un modèle MPAR . . . . . . . . . 52

3.6.1 Estimation du maximum de vraisemlance via l’algorithme EM . . 52

3.6.2 Estimation de l’erreur standard . . . . . . . . . . . . . . . . . . . . 57

38
3.1. Introduction

3.6.3 Calcul de la matrice d’inforamtion observée . . . . . . . . . . . . . 57

3.6.4 Critère de sélection d’un modèle MPAR . . . . . . . . . . . . . . . 69

3.1 Introduction
Les modèles de séries temporelles avec des paramètres périodiques (saisonniers) ont reçu
une grande attention en raison de leur large application dans divers domaines tels que la
climatologie, l’hydrologie, la sociologie, et l’économie.

Plusieurs modèles linéaires ont été proposés dans la littérature des séries chronologique
dont les plus utilIsés, les modèles autorégressifs moyenne mobile périodique (PARMA). Ces
modèles peuvent être considérés comme une alternative prometteuse des modèles SARIMA
pour représenter des séries chronologique avec une structure d’autocorrélation périodique.

Malgré son adéquation pour capturer la périodicité, la formulation PARMA se rélève


restreinte et souvent inadéquate en présence de certaines caractéristiques telles que le re-
groupement de la volatilité, la lourdeur des queues des distributions, l’excès de kurtosis, le
changement de régime et la multimodalité.

A…n de captuer ces caractéristique, Shao (2006) a proposé une généralisation de la classe
MAR, en introduisant la classe du mélange de modèles autorégressifs périodiques (MPAR).

Nous étudions, dans ce chapitre, quelques propriétés probabilistes du modèle MPAR


telle que la stationnarité périodique (stricte et au second ordre). Nous étudions également
le problème de l’estimation des paramètres par la méthode du maximum dee vraisemblance
via l’algorithme EM.

3.2 Les processus périodiquement corrélés


La dé…nition d’un processus périodiquement corrélé a été introduite, dans la littérature
de l’étude des processus stochastiques, par Gladyshev (1961).

3.2.1 Processus périodiques au sens strict


Dé…nition 9 Le processus fyt ; t 2 Zg est dit strictement périodique (ou périodique au sens
fort) s’il existe un entier S positif tel que pour tout entier positif n et pour toute suite
t1 ; t2 ; :::; tn , ti 2 Z i = 1; :::; n la distribution conjointe de (yt1 ; yt2 ; :::; ytn ) est la même que
celle de (yt1 + S ; yt2 + S ; :::; ytn + S ),8 2 Z:

39
3.2. Les processus périodiquement corrélés

Le plus petit entier S positif véri…ant cette proprieté est appelé période du processus.

3.2.2 Processus périodiquement corrélé


Dé…nition 10 Le processus du second ordre, fyt ; t 2 Zg est dit périodiquement corrélé s’il
existe un entier positif S tel que pour tout s1 ; s2 et 2 Z, on a

E (ys+ S ) = E (ys ) et cov (ys1 + S ; ys2 + S ) = cov (ys1 ; ys2 ) (3.1)

Le plus petit entier positif S véri…ant (3.1) est appelé la période du processus.

3.2.3 Fonction d’autocovariance d’un processus périodiquement


corrélé
Considérons un processus fyt ; t 2 Zg, centré et périodiquement corrélé, de période S.
Soient pour tout t 2 Z l’entier positif s; s = 1; 2; :::; S, et l’entier 2 Z tel que t = s + S:
(s)
La fonction d’autocovariance d’ordre h et relative à la sieme saison, noté h ; est dé…nit par

(s)
h = (t; t h) = (s; s h)

= cov (yt ; yt h) ; s = 1; :::S et h 2 Z

Propriété La fonction d’autocovariance d’un processus S-périodique fyt ; t 2 Zg, véri…e les
deux propriétés suivantes
(s+ S) (s)
h = h

et
(s) (s+h)
h = h

Dé…nition 11 On dit que f"t ; t 2 Zg est processus bruit blac périodique, s’il véri… les con-
ditions suivantes:

(1) E ("t ) = 0

(2) var ("t ) = t est une fonction périodique en t

(3) le processus f"t ; t 2 Zg est un processus non corrélé.

Dé…nition 12 (Modèle autorégressif périodique (PAR)) Un processus du second or-


dre fyt ; t 2 Zg est dit autorégresif S-périodique d’ordre p; noté P ARS (p), s’il est solution de

40
3.3. Mélange de modèles autorégressifs périodiques

l’équation aux di¤érences stochastique

P
p
yt = 0;t + i;t yt i + "t t2Z
i=1

2
où f"t ; t 2 Zg est un bruit blac périodique de variance s: Les coe¢ cients i;s et la variance
2
s, sont des fonctions périodiques en s de période S, i.e. i;s+ S = i;s ; i = 0; :::; p; et
2 2
s+ S = s ; 8s; 2 Z:

3.3 Mélange de modèles autorégressifs périodiques


Maintenant, on va donner une dé…nition pour un mélange de modèle autorégressifs péri-
odiques.

Dé…nition 13 Un processus stochastique fyt ; t 2 Zg suit un mélange de modèles autorégres-


sifs S-périodique, avec K composants, et d’ordres p1 ; p2 ; :::; pK ; noté M P ARS (K; p1 ; p2 ; :::; pK )
si l’est dé…ni par 8
>
> P
K (k) "t
(k)
< f (yt jFt 1) = (k) ' (k)
k=1 t t
Ppk t2Z (3.2)
>
> (k) (k) (k)
: "t = y t t;0 t;i yt i
i=1

' (:) est la densité de la loi normale centrée réduite

f (: jFt 1) est la dencité conditionnelle de yt ; sachant l’information passée du processus


yt jusqu’au temps t 1.

Ft 1 la -algebre engendée par le passé du processus yt jusqu’au moment t

(k) (k)
Les paramètres t;i et t sont des fonctions périodiques en t, de période S (i.e.
(k) (k) (k) (k) (k)
s+ S;i = s;i et s+ S = s ) tel que s > 0; k = 1; K et s = 1; S

(k)
Les proportions ; k = 1; :::; K sont strictement positifs et leur somme vaut 1.

où bien si le processus yt évolue en fonction l’équation aux di¤érences stochastique:

P
K
(k) P
pk
(k) (k)
yt = t;0 + t;i yt i + "t 1 (k)
Zt =1
;t 2 Z
k=1 i=1
n o
(k) (k)
avec "t ; t 2 Z c’est une variable aléatoire de moyenne nulle et de variance t .

41
3.4. Etude probabiliste du modèle MPAR

3.4 Etude probabiliste du modèle MPAR


3.4.1 Espérance et variance conditionnelle
L’espérance conditionnelle d’un processus fyt ; t 2 Zg qui suit un mélange de modèles
autoregressifs périodiques M P ARS (K; p1 ; p2 ; :::; pK ) est donné par la formule suivante

pk
X
K X
K X
(k) (k) (k) (k)
E (yt jFt 1) = t;0 + t;i yt i ; t2Z
k=1 k=1 i=1

En e¤et, on pose
pk
(k)
X (k)
t;k = t;0 + t;i yt i ; k = 1; :::; K; t 2 Z
i=1
d’après la dé…nition on a
! !
X
K (k)
"t
(k) X
K (k)
yt t;k
f (yt jFt 1) = (k)
' (k)
= (k)
' (k)
k=1 t t k=1 t t

où ' (:) est la densité de la loi normale centrée réduite.


Par conséquent, on a
Z Z !
X
K (k)
yt t;k
E (yt jFt 1) = yt f (yt jFt 1 ) dyt = (k)
yt ' (k)
dyt
k=1 t t
R R
yt t;k
En utilisant la changement de variable zt = (k)
t

Alors,
X
K (k) Z
(k) (k)
E (yt jFt 1) = (k) t zt t + t;k ' (zt ) dzt
k=1 t
R
pk
X
K X
K X
(k) (k) (k) (k)
= t;0 + t;i yt i , t2Z
k=1 k=1 i=1

Car Z Z
E (zt ) = zt ' (zt ) dzt = 0 et ' (zt ) dzt = 1
R R

La variance conditionnelle de notre processus fyt ; t 2 Zg est donnée par ses moments d’ordre
un et deux conditionnelles:

2
V ar (yt jFt 1) = E yt2 jFt 1 E (yt jFt 1)

X
K
(k)
2 XK
(k) 2 (k) 2
= t + t;k ( t;k )
k=1 k=1

42
3.4. Etude probabiliste du modèle MPAR

En e¤et, on sait
Z Z !
X
K (k)
yt t;k
E yt2 jFt 1 = yt2 f (yt jFt 1 ) dyt = (k)
yt2 ' (k)
dyt
k=1 t t
R R

yt t;k
On utilise le même changement de variable zt = (k) ; on obtient
t

X
K (k) Z 2
(k) (k) (k)
E yt2 jFt 1 = (k) t zt t + 2zt t t;k + 2
t;k ' (zt ) dzt
k=1 t
R
0 1
X
K
2
Z Z Z
= (k) @ (k)
t zt2 ' (zt ) dz t + 2
t;k ' (zt ) dz t +2
(k)
t t;k zt ' (zt ) dz t A
k=1 R R R
X
K
(k)
2
(k) 2
= t + t;k
k=1

Donc,
2
V ar (yt jFt 1) = E yt2 jFt 1 E (yt jFt 1)

X
K
(k)
2 XK
(k) 2 (k) 2
= t + t;k ( t;k )
k=1 k=1

3.4.2 Conditions de stationnarité périodique du premier et deux-


ième ordre
Nous allons chercher dans cette section, les conditions de la stationnarité du premier et
second ordre pour un processus fyt ; t 2 Zg suivant un modèle M P ARS (K; p1 ; p2 ; :::; pK )
avec sa fonction de densité conditionnelle donnée par (3.2)

Condition de stationnarité périodique du premier ordre

Théorème 10 (Shao, 2006) Une condition nécessaire et su¢ sante pour qu’un processus
fyt ; t 2 Zg suivant un modèle M P ARS (K; p1 ; p2 ; :::; pK ) soit périodiquement stationnaire au
premier ordre est que les racines de l’équation déterminante
p
!
X
det A0 Al z l 6= 0 (3.3)
l=1

sont à l’intérieur du cercle unitaire, où les matrices


8
>
> 1 si i = j
>
>
< P K
(k) (k)
(A0 )i;j = i;i j si i > j (3.4)
>
> k=1
>
>
: 0 ailleurs

43
3.4. Etude probabiliste du modèle MPAR

X
K
(k) (k)
(Al )i;j = i;lS+i j ; pour l = 1; :::; p (3.5)
k=1

et p est le plus petit entier supérieur ou égal à p=S; tel que p = max (pk ) :
1 k K

Preuve.
(k)
Sans perdre de généralité, on suppose que t;0 = 0:
0
Considérons le vecteur aléatoire de dimension S suivant = ( S+1 ; S+2 ; :::; S+S ) ;
telque S+s = E (y S+s ), s = 1; :::; S.
Il est clair que l’esperance conditionnelle de yt , sachant le passé jusqu’au temps t 1 est
donnée par
pk
X
K X
(k) (k)
E (y S+s jFt 1)= s;i yt S+s , t2Z
k=1 i=1

alors
= E (y
S+s S+s ) = E (E (y S+s jFt 1 ))
p
( )
X XK
(k) (k)
S+s = s;i S+s i pour s = 1; :::; S (3.6)
i=1 k=1

Après quelques manipulations sur les indices, on peut écrire l’expression (3.6) sous forme
matricielle
A0 = A1 1 + A2 2 + ::: + Ap p (3.7)

les matrices fAi ; 0 i p g sont dé…nies en (3.4) et (3.5).

Une condition nécessaire et su¢ sante pour que l’équation au di¤érence homogène (3.7) a une
solution stable, …nie et indépendante de , est que les racines de l’équation véri…ent
p
!
X
det A0 Al z l = 0
l=1

sont à l’intérieure du cercle unitaire.

Remarque 2 Lorsque p = 1; la condition de stationnarité (3.3) est simpli…ée à


Q
S P
K
(k) (k)
s;i <1 (3.8)
s=1 k=1

En particulier, si K = 1, alors fyt ; t 2 Zg devient une série temporelle P AR (1) ; et la


condition de stationnarité au premier ordre coïncide avec celle établie par Ula et Smadi
(1997).

44
3.4. Etude probabiliste du modèle MPAR

Un résultat équivalent et similaire à celui de Shao a été donné par Bentarzi et Hamdi (2008
a et b) et Bentarzi et Merzougui (2011) concernat la condition de la stationnarité périodique
d’un processus M P ARS (K; p1 ; p2 ; :::; pK )

L’espérance non-conditionnelle du processus fyt ; t 2 Zg satisfaisant la représentation (3.2)


est clairement donnée par
p
X
t = E (yt ) = a0 (t) + ai (t) t i, t2Z (3.9)
i=1

P
K
(k) (k)
où ai (t) = i;s ; i = 1; :::; p, sont périodique de période S:
k=1

Nous allons étudier une condition nécessaire et su¢ sante pour que l’équation aux dif-
férences linéaire non homogène périodique de période p (3.9) admet une solution …nie et
independante de s. A…n d’établir la condition de la stationnarité périodique d’un proces-
sus M P ARS (K; p1 ; p2 ; :::; pK ), on de…nie pour tout T 2 Z; le vecteur colonne périodique
a0 (T ) = (a0 (pT ) ; a0 (pT 1) ; :::; a0 (pT p + 1))0 et les deux matrices A0;T et A1;T de di-
mension p p, suivantes
8
>
> 1 si i = j
>
<
(A0;T )i;j = aj i (pT i + 1) si i < j
>
>
>
: 0 si i > j

et 8
< a (pT i + 1) si i j
p i+j
(A1;T )i;j =
: 0 si i < j
Posons S 2 N le plus petit entier tel que pS soit le plus petit multiple commun de p et S, il
est clair que les deux matrices A0;T et A1;T sont périodique en T de période S. En utilisant
ces notations, nous pouvons énoncer le résultat suivant.

Proposition 1 (Bentarzi et Hamdi, 2008 a) Le processus fyt ; t 2 Zg satisfaisant un mod-


èle M P ARS (K; p1 ; p2 ; :::; pK ) est périodiquement stationnaire en moyenne si et seulement si
toutes racines du polynôme de degré p = max pk
1 k K

jIz j=0 z2C (3.10)

soient en module strictement inférieure à l’unité, (i.e. jzj < 1) avec la matrice =
AS;01 AS;1 AS 1 1;0 AS 1;1 A1;01 A1;1 : Par ailleurs, l’experession du moment d’ordre un

45
3.4. Etude probabiliste du modèle MPAR

est, sous cette condition, donnée par


! !
SP1 rQ1
1
T = (I ) BT j C + CT ;T 2 Z
j=0 j=0 ¯T r
¯

0
où T = pT ; pT 1 ; :::; pT (p 1) ; avec CT = AT;01 cT ; la matrice périodique BT = AT;01 AT;1 ;
¯
cT = (a0 (pT ) ; a0 (pT 1) ; :::; a0 (pT p + 1))

Preuve.
a) Condition nécessaire et su¢ sante
0
En utilisant, pour chaque T 2 Z; les p-vecteurs périodiques, T = pT ; pT 1 ; :::; pT (p 1)

et cT = (a0 (pT ) ; a0 (pT 1) ; :::; a0 (pT p + 1)) ; nous pouvons reécrire l’équation (3.9) sous
forme d’une équation au di¤érence d’ordre un, p-variée et S-périodique comme suit

T = BT T 1 + CT ; T 2 Z (3.11)

où la matrice BT = AT;01 AT;1 et le vecteur colonne CT = AT;01 cT . Il est clair que la condition
¯
nécessaire pour que cette dernière équation aux di¤érences linéaires non homogène possède
SQ1
une solution …nie, c’est-à-dire que toutes les racines du polynôme Iz BS j = 0; z 2 C
j=0
soient en module strictement inférieur à l’unité.

b) Expression de la moyenne périodique


Par S 1 remplacement successifs dans (3.11) et en tenant compte de la périodicité de la
matrice BT et du vecteur CT , nous obtenons
!
SP1 rQ1
(I ) T = CT + BT j CT r; T 2Z
¯ j=0 j=0 ¯

Par conséquent, le vecteur périodique T d’un M P ARS (K; p1 ; p2 ; :::; pK ) est donné, sous la
condition (3.10) par
! !
SP1 rQ1
1
T = (I ) BT j CT r + CT ;T 2 Z
j=0 j=0 ¯ ¯

Condition de stationnarité périodique du second ordre

La condition de stationnarité du second ordre pour une série temporelle M P ARS (K; 1; 1; :::; 1)
peut être obtenue de manière similaire.

46
3.4. Etude probabiliste du modèle MPAR

Théorème 11 (Shao, 2006) Supposons que notre processus fyt ; t 2 Zg suivant un M P ARS (K; 1; 1; :
est stationnaire au premier ordre. Ainsi, il est stationnaire de second ordre si seulement si
Q
S P
K
(k) (k)
2
s;1 <1 (3.12)
s=1 k=1

Preuve.
0 s
Soit =( 1+ S ; 2+ S ; :::; S+ S ) ; telque 0 = E y 2S+s , s = 1; :::; S.
Comme
P
K 2 X
K
s (k) (k) s 1 (k) (k) 2
0= i;s 0 + s
k=1 k=1

En e¤et,
Z Z !
X
K (k)
yt t;k
E yt2 jFt 1 = yt2 f (yt jFt 1 ) dyt = (k)
yt2 ' (k)
dyt
k=1 t t
R R

pour pk = 1; k = 1; :::; K on obtient

(k)
t;k = t;1 yt 1 ; k = 1; :::; K; t 2 Z

X
K (k) Z 2 2
(k) (k) (k) (k) (k)
E yt2 jFt 1 = (k) t zt t + 2zt t t;1 yt 1 + t;1 yt 1 ' (zt ) dzt
k=1 t
R
0 1
X
K
2
Z 2
Z
= (k) @ (k)
t zt2 ' (zt ) dz t +
(k)
t;1 yt 1 ' (zt ) dz t A +
k=1 R R
0 1
X
K Z
(k) @2 (k) (k)
t t;1 yt 1 zt ' (zt ) dz t A
k=1 R
X
K
(k)
2 X
K
(k)
2
(k) (k)
= t + t;1 yt 1
k=1 k=1

s
0 = E y 2S+s = E E y 2S+s jFt 1

X
K X
K
2
(k) (k) 2 (k) (k)
= s + s;1 E y 2S+s 1
k=1 k=1

P
K 2 X
K
(k) (k) s 1 (k) (k) 2
= s;i 0 + s
k=1 k=1

De façon analogue à l’équation (3.7), on peut dé…nir une équation au di¤érence non homogène

2
B0 = B1 1 +

47
3.4. Etude probabiliste du modèle MPAR

2
P
K
(k) (k)
2 P
K
(k) (k)
2 P
K
(k) (k)
2
où = 1 ; 2 ; :::; S et les matrices B0 et B1 sont
k=1 k=1 k=1
dé…nies comme suit
8
>
> 1 si i = j
>
>
< P
K 2
(k) (k)
(B0 )i;j = i;i j si i > j
>
> k=1
>
>
: 0 ailleurs

X
K
(k)
2
(k)
(B1 )i;j = i;S+i j ;
k=1

Remarque 3 On peut obtenir avec l’inégalité de Jensen(1) que l’inégalité (3.12) implique
l’inégalité (3.8). Par conséquent, un processus M P ARS (K; 1; 1; :::; 1) est stationnaire au
premier et au second ordre s’il satisfait l’inégalité (3.12).

3.4.3 Condition de stationnarité périodique stricte


A…n de pouvoir commencer l’étude de la stationnarité stricte, on doit faire appel au
modèle autoregressif généralisé pour référer au résultat de Bougerol et Picard (1992). Notons
que, le modèle MPAR peut être considéré comme un mélange de K autorégressif périodique,
mais nous avons aucune information sur sa structure de dépendance. Nous mettons donc
le hypothèse suivante qui spéci…e sa structure de probabilité. Soient fZt ; t 2 Zg ; où Zt =
(1) (2) (K)
Zt ; Zt ; :::; Zt suite des variables aléatoires indépendantes et identiquement distribuées
(k)
(i.i.d.), dont chaque composante Zt k = 1; :::; K est égale à un si l’observation yt est générée
par la k ieme composante de la distribution conditionnelle, et zéro ailleurs. Le processus
MPAR a été dé…ni par sa distribution conditionnelle (3.2), il est possible de le représenté par
une équation aux di¤érences stochastiques

P
K
(k) P
pk
(k) (k)
yt = t;0 + t;i yt i + t "t 1 Zt
(k)
=1
;t 2 Z (3.13)
k=1 i=1

(k) (k)
où "t = t "t ; f"t ; t 2 Zg est une suite de variables iid de moyenne nulle et de variance
unité.
(1)
Inégalité de Jensen : Soit f une fonction convexe sur un intervalle réel I et X une variable aléatoire à
valeurs dans I, dont l’espérance E(X) existe. Alors f (E(X)) E(f (X))

48
3.4. Etude probabiliste du modèle MPAR

Comme dans de nombreux modèles de séries chronologiques, il est utile d’écrire (3.13)
sous la forme d’une représentation autorégressive généralisée. Nous avons

Y t = At Y t 1 + Bt ; t 2 Z (3.14)


0
Yt = (yt ; yt 1 ; :::; yt p+1 )
0
P
K
(k)
Bt = at;0 + "t t 1 Z (k) =1 ; 0; :::; 0
t
k=1
et 0 1
at;1 at;p 1 at;p
At = @ A
Ip 1 0(p 1) 1
p p
est une matrice aléatoire de dimension (pp), et (At ; Bt ) est une suite de variables aléatoires
PK
(k)
independantes et périodiquemmet distribuées (i.p.d), avec at;i = t;i 1 Z (k) =1 ; pour t 2 Z
t
k=1
0 0 0
et i = 1; :::; p. Le pS-processus aléatoire fYt ; t 2 Zg dé…ni par Yt = YSt+1 ; :::; YSt+S est
¯ ¯
un processus autorégressif généralisé. Il satisfait l’équation suivante

Yt = At Yt 1 + Bt ; t 2 Z (3.15)
¯ ¯ ¯ ¯
où 0 1
0p p : : : 0p p ASt+1
B C
B C
B0p p : : : 0p p ASt+2 ASt+1 C
B C
At = B .. .. .. C
¯ B . . . C
B C
@ SQ1 A
0p p : : : 0p p ASt+S s
s=0
et 0 1
BSt+1
B C
B C
B ASt+2 BSt+1 + BSt+2 C
B C
Bt = B .. C
¯ B . C
B C
@P Q
S 1 s 1 A
ASt+S BSt+S s
s=0 =0

Dans ce qui est suit, la constante est dé…nie comme l’exposant de lyapunov associé à la
suite de martices aléatoires A=fAt ; t 2 Zg
¯ ¯
1
= inf E (log kAn An 1 : : : A1 k)
n2N n ¯ ¯ ¯
où k:k est une norme matricielle quelconque dans RpS . La condition su¢ sante de la sta-
tionnarité périodique stricte du modèle M P AR(K; p1 ; p2 ; :::; pK ) est donnée par le théorème
suivant

49
3.5. Structure d’autocorrélation

Théorème 12 (Hamdi, 2015) Le modèle (3.14) admit une solution non anticipative et
périodiquement strictement stationnaire donnée par la première composante de

P1 Q
n
Yt = At i B (3.16)
¯ n=1 i=1¯ ¯t n

si est strictement négatif, ou la série (3.16) converge presque sûrement pour tout t 2 Z.
De plus, le processus solution est unique et périodiquement ergodique.

Sous la représentation autorégressive généralisée (3.14) du modèle MPAR, nous pouvons


lancer une résultat qui donne la condition su¢ sante de la stationnarité de second ordre dans
le cas général.

Théorème 13 Supposons que E j"t j2 < 1; et le rayon spectral

Q
S
PE [2]
AS
<1
s=0 s jSt =

Alors le modèle MPAR (3.13), admet une solution non anticipative, unique et péridiquement
strictement stationnaire. Cette solution est aussi périodiquemt ergodique satisfait E (yt2 ) <
1:
Où 0 1
aS s;1 aS s;p 1 aS s;p
AS s =@ A
Ip 1 0(p 1) 1
p p
0 1
(1) [2] (1) [2]
E AS s jSt = 1 ::: E AS s jSt = 1
B C
B .. .. C
PE [2] =B . . C
AS s jSt = @ A
(K) [2] (K) [2]
E AS s jSt = K ::: E AS s jSt = K
[2]
et AS s = AS s AS s (produit de Kronecker) et St est une variable aléatoire à valeurs
dans f1; 2; :::; Kg. St est égale à k si l’observation yt est générée par la k ieme composante du
mélange.

3.5 Structure d’autocorrélation


La fonction d’autocorrélation d’un processus yt stationnaire au second ordre suivant un
(s)
modèle M P AR(K; p1 ; p2 ; :::; pK ) au retard h estrelative à la sieme période, notée h est
donnée par :
(s) P
p P
K
(k) (s i)
h = k s;i i h h = 1; :::; p
i=1 k=1

50
3.5. Structure d’autocorrélation

(k)
où p = max pk et s;i = 0 pour i > pk :
1 k K

Preuve. Sous l’hypothése E (y S+s ) = E (y S+s h ) = 0:


On aura
(s)
h = cov(y S+s y S+s h ) = E (y S+s y S+s h ) h = 1; :::; p

pour h = 0
(s)
0 = Var (y S+s )

E (y S+s y S+s h ) = E (E(y S+s y S+s h jFt 1 )) = E (y S+s h E(y S+s jFt 1 ))
pk
!
X
K X
(k) (k)
=E y S+s h S+s;i y S+s i
k=1 i=1
pk
K X
X
(k) (k)
= S+s;i E (y S+s h y S+s i )
k=1 i=1
pk
XK X
(k) (k) (s i)
= S+s;i i h :
k=1 i=1

(k)
Posons p = max pk et s;i = 0 pour i > pk ; alors
1k K

p
(s)
K X
X
(k) (k) (i h)
h = E (y S+s y S+s h) = s;i s i ; h = 1; :::; p (3.17)
k=1 i=1

q q
(s) (s h)
En divisant (3.17) par 0 0 on trouve

p
(s) X
K X (s i)
(h) h (k) (k) i h
s =q q = s;i q q
(s) (s h) (s) (s h)
0 0 k=1 i=1 0 0
p
X
K X
(k) (k) (s i)
= s;i i h :
k=1 i=1

La fonction d’autocorrélation fournit une mesure du degré de dépendance entre deux


variables de la série séparées par des unités de temps h.
(s)
La propriété de la symétrie n’est pas véri…ée dans le cas des modèles MPAR i.e. h 6=
(s)
h.

51
3.6. Estimation des paramètres d’un modèle MPAR

3.6 Estimation des paramètres d’un modèle MPAR


3.6.1 Estimation du maximum de vraisemlance via l’algorithme
EM
L’estimation des paramètres du modèle M P AR(K; p1 ; p2 ; :::; pK ) peut être facilement
réalisée en maximisant la fonction de vraisemblance conditionnelle, en utilisant l’algorithme
EM (Dempster et al, 1977). Notons par y= (y1 ; y2 ; :::; yn ; Z1 ; Z2 ; :::; Zn ) et Z = (Z1 ; Z2 ; :::; Zn )
¯
le vecteur contenant respectivement les données complètes et les données manquantes, où
(1) (2) (K) (k)
Zt = Zt ; Zt ; :::; Zt est un vecteur de dimension K; dont chaque composante Zt ;
k = 1; :::; K est égale à 1 si l’observation yt est générée par la k ieme composante du modèle
et 0 ailleurs.

00 0 0 0 0 0 0
Soit également, le vacteur des paramètres = 1;1 ; :::; S;1 ; 1;2 ; :::; S;2 ; :::; 1;K ; :::; S;K ,
;
(k) (k) (k) (k) (1) (2) (K 1) 0
où s;k = s;0 ; s;1 ; :::; s;pk ; s et = ; ; :::; : Pour une réalisation donnée
y = (y1 ; y2 ; :::; yn ) : La fonction log-vraisemblance conditionnelle du vecteur de paramètre
peut être exprimée de la manière suivante
0 2
1
(k)
P
n P
K "t
(k) B C
_ (k) (k)
L y; zt @log log t 2A (3.18)
¯ t=p+1k=1
2
(k)
t

Soit t = s + S, pour s = 1; :::; S, = 1; :::; 1 , p + 1 = s1 + 1 S pour 1 s1 S avec


8
< p+1
si s 6= S
S 1
1 =
: p+1
1 si s1 = S
S

et n = s2 + 2 S; où 8
< n
si s2 6= S
S
2 =
: n
1 si s2 = S
S

où bxc désigne le plus grand entier inférieur ou égal à x. Ensuite, nous pouvons réécrire

52
3.6. Estimation des paramètres d’un modèle MPAR

(3.18) sous la forme suivante


0 2
1
(k)
P
S P
K
B "s+ 1 S C
_
(k) (k) (k)
L y; zs+ 1S
@log log s 2 A (3.19)
¯ s=s1 k=1
2
(k)
s
0 2
1
(k)
P
S P
2 1 P
K
B "s+ S C
(k) (k) (k)
+ zs+ S @log log s 2A
s=1 = 1 +1k=1 (k)
2 s
0 2
1
(k)
P
s2 P
K
B "s+ 2 S C
(k) (k) (k)
+ zs+ 2S
@log log s 2 A
s=1k=1 (k)
2 s

Pour estimer les paramètres par maximisant la fonction log-vraisemblance, on utilise


l’algorithme EM, qui constitue de deux étapes

Etape E
Dans la (i + 1)ieme itération, les paramètres sont supposées connues, et = (i)
; et les vari-
(k)
ables manquantes Zt sont remplacées par leur espérance conditionnelle, que l’observation
yt provient de la k ieme composante de la distribution du mélange, sachant (i)
et Ft 1 . Cette
espérance conditionnelle est donnée par

(k) (k)
s+ S =E 1 Zs+
(k) jFt 1 ; = E Zs+ S jFt 1 ;
S =1

(k)
= P Zs+ S = 1 jFt 1 ;
(k) (k)
P Zs+ S = 1 f ys+ S Zs+ S = 1; Ft 1 ;
=
P
K
(k) (k)
P Zs+ S = 1 f ys+ S Zs+ S = 1; Ft 1 ;
k=1
(k)
(k) (k) "s+ S
1= s ' (k)
s
= , k = 1; :::; K:
P
K
(l) (l)
(l)
"s+ S
1= s ' (l)
l=1 s

Etape M
Consiste à estimer les paramètres de notre modèle, sous l’hypothèse que les données man-
quantes soient connues. Pour cela nous devons maximiser la fonction log-vraisemblance en
résolvant les équations @L( )
@ (k)
= 0; @L((k)) = 0 et @L( )
(k) = 0. Les solutions ^ des équations sont
@ s;i @ s

53
3.6. Estimation des paramètres d’un modèle MPAR

les estimations des paramètres, plus précisément, on a alors,


!
(k) (K)
@L ( ) Pn Zt Zt
=0) = 0 k = 1; ::::; K 1
@ (k) t=p+1
(k) (K)

n Z (k)
P n Z (K)
P
t t
) (k)
= (K)
k = 1; ::::; K 1
t=p+1 t=p+1

(k) (k)
les Zt sont inconnues, on les remplace par leurs estimations t , on aura
P
n
(k)
(k) P
n
(K)
t = (K) t k = 1; ::::; K 1 (3.20)
t=p+1 t=p+1

alors
P
n P
K
(k) P
K (k) P
n
(K)
t = (K) t
t=p+1k=1 k=1 t=p+1

P
K
(k) P
K
(k)
on sait que t = 1 et = 1; donc
k=1 k=1

1 P
n
(K)
n p= (K) t
t=p+1

(K) 1 P
n
(K)
= t
n p t=p+1

(k)
en remplaçant cette dernière expression dans (3.20) on aura l’estimation de

1 P
n
(k)
^ (k) = t k = 1; :::; K 1
n p t=p+1

@L( ) @L( )
et le calcul des dérivées (k) et (k) , se fait à l’aide de la fonction log-vraiesemblence (3.19).
@ s @ s;i

Pour simpli…er les calculs, soit


8
< si s s1
1
3 =
: +1 si s < s1
1

et 8
< si s s2
2
4 =
: 1 si s > s2
2

@L( ) @L( )
donc les dérivées (k) et (k) sont donées par
@ s @ s;i

0 2
1
(k)
B "s+
(k)
@L ( ) P4 Z
s+ S S C
(k)
= (k) @ 2 1A
@ s = 3 s (k)
s

54
3.6. Estimation des paramètres d’un modèle MPAR

et
(k) (k)
@L ( ) P
4 Z
s+ S u(ys+ S ; i)"s+ S
(k)
= 2
@ s;i = 3 (k)
s

avec 8
< 1 si i = 0
u(ys+ S ; i) =
: y si i > 0
s+ S i

(k) (k) (k)


Les estimations des paramètres s;0 ; s;1 ; :::; s;pk pour s = 1; :::; S et k = 1; :::; K sont
obtenus comme suit

@L ( )
(k)
= 0 k = 1; :::; K; s = 1; :::; S; i = 1; :::; pk
@ s;i

(k) (k)
P
4 Z
s+ S u(ys+ S ; i)"s+ S
, 2 =0
= 3 (k)
s

P
4
(k) (k) (k) (k)
, Zs+ S u(y s+ S ; i) ys+ S s;0 s;1 yt 1 ::: s;pk ys+ S pk =0
= 3

P
4
(k) P
4
(k) (k) (k) (k)
, Zs+ S u(y s+ S ; i)y s+ S = Zs+ S u(y s+ S ; i) s+ S;0 +Z s+ S u(y s+ S ; i) s;1 ys+ S 1 +:::
= 3 = 3

(k) (k)
+Z s+ S u(y s+ S ; i) s;pk ys+ S pk
P
4
(k) P
4 P
pk
(k) (k)
, Zs+ S u(y s+ S ; i)y s+ S = Zs+ S s;j u(y s+ S ; i)u(y s+ S ; j)
= 3 = 3 j=0

(k) (k)
on remplace les Zs+ S par leurs estimations s+ S

P
4
(k) P
pk P4
(k) (k)
s+ S y s+ S u(y s+ S ; i)= s+ S s;j u(y s+ S ; i)u(y s+ S ; j) k = 1; :::; K;
= 3 j=0 = 3

s = 1; :::; S; i = 1; :::; pk

ce qui est équivalent au système matriciel suivant

bs;k = As;k ^(k)


s k = 1; :::; K et s = 1; :::; S (3.21)

où 0 1
P
4
(k) 0 1
B = s+ S ys+ S u(ys+ S ; 0)C (k)
B 43 C B s;0 C
B P (k) (k) C B C
B s+ S s+ S u(ys+ S ; 1) C
C B (k)
C
B
=B C
^(k) s;1
bs;k =B =3 C, s B .. C
B .. C B . C
B . C @ A
B 4 C
@ P (k) A (k)
s;pk
s+ S ys+ S u(ys+ S ; pk )
= 3

55
3.6. Estimation des paramètres d’un modèle MPAR

et

0 1
P
4
(k) P
4
(k) P
4
(k)
B s+ S s+ S ys+ S 1 s+ S ys+ S pk C
B 4 = 3 = 3 = 3 C
B P (k) P
4
(k) P
4
(k) C
B s+ S ys+ S 1 s+ S ys+ S 1 ys+ S 1 s+ S ys+ S pk ys+ S 1
C
B C
As;k =B =3 = 3 = 3 C
B .. .. .. .. C
B . . . . C
B 4 C
@ P (k) P
4
(k) P
4
(k) A
s+ S ys+ S pk s+ S ys+ S 1 ys+ S pk s+ S ys+ S pk ys+ S pk
= 3 = 3 = 3

avec 8
< 1 si i = 0
u(ys+ S ; i) =
: y si i > 0
s+ S i

La résolution du système linéaire (3.21) nous donne les solutions

^(k) = A 1 bs;k k = 1; :::; K et s = 1; :::; S


s s;k

(k)
En…n, l’estimation de est donné par s ;
0 2
1
(k)
@L ( ) Pn Z (k) "s+ S
s+ S B C
(k)
=0, (k) @ 2 1A = 0 k = 1; :::; K et s = 1; :::; S
@ s t=p+1 s (k)
s
2
(k) (k)
P
n Zs+ S "s+ S n Z (k)
P s+ S
, 3 = (k)
k = 1; :::; K et s = 1; :::; S
t=p+1 (k) t=p+1 s
s

ce qui donne
P
4
(k) (k)
2
Zs+ S "s+ S
(k) 2 = 3
s = P
4
k = 1; :::; K et s = 1; :::; S
(k)
Zs+ S
= 3

(k) (k) (k)


En remplaçant les Zs+ S k = 1; :::; K par leurs estimations t , ainsi que les s;i i = 1; :::; pk
(k)
par leurs estimations ^s;i on obtient pour k = 1; :::; K et s = 1; :::; S
8P4 2 91=2
>
> (k)
ys+ ^(k) ^(k) ys+ ::: ^(k) ys+ >
>
< s+ S S s;0 s;1 S 1 s;pk S pk =
=
^s(k) = 3
P k = 1; :::; K;
>
>
4
(k) >
>
: s+ S ;
= 3

s = 1; :::; S; i = 1; :::; pk

56
3.6. Estimation des paramètres d’un modèle MPAR

3.6.2 Estimation de l’erreur standard


Par le principe de Louis (1982), l’erreur standard (théorique) des paramètres estimés peut
être calculée par la matrice d’information des données observée Iobs . La matrice d’information
observée Iobs , peut être déterminée à partir de la matrice d’information complète Ic , et la
matrice d’information manquante Im , avec la relation suivante
@2L @L
Iobs = Ic Im = E j ;Y Var j ;Y
@ @ 0 =^ @ =^

où les formules pour calculer les matrices Ic et Im sont données dans le paragraphe suivant.

La matrice de variance-covariance des estimations de ^ est donnée par l’inverse de la


matrice d’information observée Iobs . La variance de l’estimateur ^ K est donnée par
! K 1
X1
K X X1 K
K X1
(K) (k) (k)
var ^ = var 1 ^ = var ^ + cov ^ (k) ; ^ (l)
k=1 k=1 k=1 l=1
l6=k

3.6.3 Calcul de la matrice d’inforamtion observée


Comme on a traité dans le cas d’un modèle MAR, on va donné les formules pour le
calcul de la matrice d’information complète ainsi que la matrice d’information manquante,
d’un modèle MPAR. Dans un premier lieu, on donne les dérivées secondes de la fonction
log-vraisemblance (3.19) par rapport aux paramètres.

Les dérivées secondes par rapport à

pour k = 1; :::; K 1 on a
!!
@2L @ X
n
Zt
(k)
Zt
(K)
=
@( (k) )2 @ (k) (k) (K)
t=p+1
!
X
n
Zt
(k)
Zt
(K)
= +
( (k) )2 ( (K) )2
t=p+1

pour k; l = 1; :::; K 1 avec k 6= l; on a


!!
@2L @ X
n
Zt
(k)
Zt
(K)
=
@ (l) @ (k) @ (l)
t=p+1
(k) (K)

X
n
Zt
(K)
=
( (K) )2
t=p+1

(k)
- Les dérivées secondes par rapport à s;i

57
3.6. Estimation des paramètres d’un modèle MPAR

pour k; l = 1; :::; K, i; j = 0; :::; pk et s = 1; :::; S


0 1
@ B X Zs+ S u(ys+ S ; i)"s+ S C
4 (k) (k)
@2L
(k) (k)
= (k) @ 2 A
@ s;i @ s;j @ s;j = 3
(k)
s
0 1
X 4 (k)
B Zs+ S u(ys+ S ; i)u(ys+ S ; j) C
= @ 2 A
(k)
= 3 s

(k) (k)
- Les dérivées secondes par rapport aux s et s;i

pour k = 1; :::; K
0 0 2
11
(k)
@L ( ) @ BX
4 (k)
Zs+ S B "s+ S CC
2 = (k) @ (k) @ 2 1AA
@
(k)
s
@ s = 3 s (k)
s
0 2
1
(k)
X Zs+ S B 3 "s+ S
4 (k)
C
= 2 @ 2 1A
(k) (k)
= 3 s s

pour k = 1; :::; K; i = 0; :::; pk et s = 1; :::; S


0 1
B X Zs+ S u(ys+ S ; i)"s+
4 (k) (k)
@2L @ SC
(k) (k)
= (k) @ 2 A
@ s @ s;i @ s = 3
(k)
s

X
4 (k) (k)
2Zs+ S u(ys+ S ; i)"s+ S
= 3
(k)
= 3 s

- Comme pour le modèle MAR, il est claire que la matrice d’information complète Ic
d’un modèle MPAR est une matrice diagonale donnée par
0 1
I( )
B C
B C
B I ( 1;1 ) C
B C
B ... C
B C
B C
B C
B I ( S;1 ) C
Ic = B
B ..
C
C
B . C
B C
B C
B I ( 1;K ) C
B C
B ... C
B C
@ A
I( S;K )

58
3.6. Estimation des paramètres d’un modèle MPAR

Dans la matrice Ic , le bloc I ( )


est une matrice carrée de dimension K 1 dé…nie par

@2L ( )
I( )
=E j ;Y = Ik;l
@ @ 0 k;l=1;:::;K 1

pour k = 1; :::; K 1 on a
! ! !
( ) @2L X
n
Zt
(k) (K)
Zt
Ik;k =E 2 j ;Y =E 2
+ 2
j ;Y
@ ( (k) ) t=p+1 k K
0 (k) (K)
1
Xn E Zt j ; Y E Zt j ;Y
= @ + A
2 (K) )2
t=p+1 ( (k) ) (
!
X
n (k)
t
(K)
t
= +
( (k) )2 ( (K) )2
t=p+1

pour k; l = 1; :::; K 1; k 6= l on a
!
( ) @2L X
n
Zt
(K)
Ik;l =E j ;Y =E j ;Y
@ (l) @ (k) ( (K) )2
t=p+1
(K)
X
n E Zt j ;Y X
n (K)
t
= =
( (K) )2 ( (K) )2
t=p+1 t=p+1

Et la matrice I ( s;k ) ; k = 1; :::; K est une matrice carrée de dimension p + 2 est dé…niée par
k
!
@2L ( s;k )
I ( s;k ) = E 0
j ; Y = Ii;j
@ s;k @ s;k i;j=1;:::;pk +2

pour i; j = 0; :::; pk on a
0 1
!
BX
4 (k)
( s;k ) @2L Zs+ S u(ys+ S ; i)u(ys+ S ; j) C
Ii+1;j+1 = E (k) (k)
j ;Y = E@ 2 j ;Y A
@ s;i @ s;j = 3
(k)
s

X
4 (k)
s+ S u(ys+ S ; i)u(ys+ S ; j)
= 2
(k)
= 3 s

59
3.6. Estimation des paramètres d’un modèle MPAR

pour i; j = pk + 2; on a
0 1 0 0 2
1 1
(k)
BX B 3 "s+
4 (k)
( s;k ) B @L ( ) C Zs+ S S C C
Ipk +2;pk +2 = E @ 2 j ;Y A = E@ 2 @ 2 1A j ; Y A
(k) (k) (k)
@ s = 3 s s
0 2
1
(k) (k)
X
4 E Zs+ S j ;Y B3 "s+ S C
= 2 @ 2 1A
(k) (k)
= 3 s s
0 2
1
(k)
X B 3 "s+
4 (k)
s+ S S C
= 2 @ 2 1A
(k) (k)
= 3 s s

pour i = 0; :::; pk et j = pk + 2
!
( s;k ) ( s;k ) @2L
Ii+1;pk +2 = Ipk +2;i+1 = E (k) (k)
j ;Y
@ s @ s;i
0 1
BX
4 (k) (k)
2Zs+ S u(ys+ S ; i)"s+ S C
= E@ 3 j ;Y A
(k)
= 3 s

X
4
2
(k) (k)
s+ S u(ys+ S ; i)"s+ S
= 3
(k)
= 3 s

- D’autre part, la matrice d’information manquante Im est une matrice symétrique, alors
il su¢ t d’évoluer la matrice triangulaire inférieure
0 1
I( ; )
B C
B ( 1;1 ; ) C
BI I ( 1;1 ; 1;1 ) C
B C
B .. .. ... C
B . . C
B C
B ( S;1 ; ) C
BI I ( S;1 ; 1;1 ) I ( S;1 ; S;1 ) C
Im = BB C
.. .. .. .. C
B . . . . C
B C
B ( 1;K ; ) ( 1;K ; 1;1 ) C
BI I I ( 1;K ; S;1 ) I ( 1;K ; 1;K ) C
B C
B .. .. .. .. .. C
B . . . . . C
@ A
I ( S;K ; ) I ( S;K ; 1;1 ) I ( S;K ; S;1 ) I ( S;K ; 1;K ) I( S;K ; S;K )

ces éléments sont dé…nis comme suit:

La matrice I ( ; )
est de dimension (K 1) (K 1) telle que
@L ( ; )
I( ; )
= var j ;Y = Ik;l
@ (k) k;l=1;:::;K 1

60
3.6. Estimation des paramètres d’un modèle MPAR

pour k = 1; :::; K 1; on a
! !
( ; ) @L X
n
Zt
(k)
Zt
(K)
Ik;k = var j ;Y = var j ;Y
@ (k) t=p+1
(k) (K)

! !
X
n
Zt
(k)
Zt
(K) X
n X
n
Zt
(k)
Zt
(K) (k)
Zt0
(K)
Zt0
= var (k) (K)
j ;Y +2 cov (k) (K)
; (k) (K)
j ;Y
t=p+1 t=p+1 t0 =p+1
t6=t0
! ! !!
X
n
Zt
(k)
Zt
(K)
Zt
(k)
Zt
(K)
= var (k)
j ;Y + var (K)
j ;Y 2 cov (k)
; (K)
j ;Y
t=p+1
0 (k) (k) (K) (K)
1
X
n
t 1 t t 1 t 2
(k) (K)
= @ + + t t A
( (k) )2 ( (K) )2 (k) (K)
t=p+1

n o
(k) (k) (k)
cov Zt ; Zt0 = 0 8t0 6= t; (i.e. la variable aléatoire Zt t 2 Z est indépendante et
identiquement distribuée (i.i.d.)).

Pour k; l = 1; :::; K tel que k 6= l on a

( ; ) @L @L
Ik;l = cov ; j ;Y
@ (k) @ (l)
! n ! !
Xn (k)
Zt Zt
(K) X Zt
(l)
Zt
(K)
= cov (k) (K)
; (l) (K)
j ;Y
t=p+1 t=p+1
!
X
n X
n (k)
Zt
(K)
Zt
(l)
Zt
(K)
Zt
= cov (k) (K)
; (l) (K)
j ;Y
t=p+1 t0 =p+1
!
(k) (K) (l) (K)
Pn Zt Zt Zt Zt
= t=p+1 cov (k) (K)
; (l) (K)
j ;Y
!
X
n X
n
Zt
(k)
Zt
(K) (l)
Zt0 Zt0
(K)
+ cov (k) (K)
; (l) (K)
j ;Y
t=p+1 t0 =p+1
t6=t0
!
X
n
Zt
(k)
Zt
(K)
Zt
(l)
Zt
(K)
= cov (k) (K)
; (l) (K)
j ;Y
t=p+1
0 (K) (K)
1
X
n (k) (K) (l) (K) (k) (l)
t 1 t
= @ t t
+ t t t t
+ A
(k) (K) (l) (K) (k) (l)
( (K) )2
t=p+1

La matrice I ( s;k ; s;k ) est une matrice carrée de dimension (p + 2)


k (pk + 2) dé…nie pour
k = 1; :::; K et s = 1; :::; S comme suit

@L ( s;k ; )
I( ) = var
s;k ; s;k s;k
j ;Y = Ii;j
@ s;k i;j=1;:::;pk +2

61
3.6. Estimation des paramètres d’un modèle MPAR

pour j; i = 0; :::; pk et s = 1; :::; S on a


!
( s;k ; s;k ) @L ( ) @L ( )
Ii+1;j+1 = cov (k)
; (k)
j ;Y
@ s;i @ s;j
0 1
BX Zs+ S u(ys+ S ; i)"s+ S X
4 (k) (k) 4 (k) (k)
Zs+ S u(ys+ S ; j)"s+ S C
= cov @ 2 ; 2 j ;Y A
(k) (k)
= 3 s = 3 s
0 1
X4
BZ
(k) (k)
u(ys+ S ; i)"s+ S
(k) (k)
Zs+ S u(ys+ S ; j)"s+ S C
= cov @ s+ S 2 ; 2 j ;Y A
(k) (k)
= 3 s s
2
(k) (k)
X var Zs+ S j ;Y u(ys+ S ; i)u(ys+ S ; j) "s+
4
S
= 4
(k)
= 3 s
2
(k) (k) (k)
X
4
s+ S 1 s+ S u(ys+ S ; i)u(ys+ S ; j) "s+ S
= 4
(k)
= 3 s

pour j = pk + 2 et i = pk + 2 on a

( s;k ; s;k ) @L
Ipk +2;pk +2 = var (k)
j ;Y
0@ s
0 1 1
2
(k)
B X Zs+ S B "s+
4 (k)
S C C
= var @ (k) @ 2 1A j ; Y A
s (k)
= 3 s
0 2
12
(k) (k) (k)
X4
s+ S 1 s+ S B "s+ S C
= 2 @ 2 1A
(k) (k)
= 3 s s

62
3.6. Estimation des paramètres d’un modèle MPAR

pour i = 0; :::; pk et j = pk + 2 on a
!
( s;k ; s;k ) ( s;k ; s;k ) @L @L
Ii+1;pk +2 = Ipk +2;i+1 = cov (k)
; (k)
j ;Y
@ s;i @ s
0 0 2
1 1
(k)
BX
4
Zs+ S u(ys+ S ; i)"s+ S X
(k) (k) 4 (k)
Zs+ S B "s+ S C C
= cov @ 2 ; (k) @ 2 1A j ; Y A
(k) s (k)
= 3 s = 3 s
0 0 2
1 1
(k)
X B "s+
4 (k) (k) (k)
B Zs+ S u(ys+ S ; i)"s+ S Zs+ S S C C
= cov @ 2 ; (k) @ 2 1A j ; Y A
(k) s (k)
= 3 s s
0 2
1
(k) (k) (k)
X
4 var Zs+ S j ;Y u(ys+ S ; i)"s+ S B "s+ S C
= 3 @ 2 1A
(k) (k)
= 3 s s
0 2
1
(k) (k) (k) (k)
X4
s+ S 1 s+ S u(ys+ S ; i)"s+ S B "s+ S C
= 3 @ 2 1A
(k) (k)
= 3 s s

La matrice I ( s;k ; ) ; est une matrice de dimension (p + 2)


k (K 1) dé…nie par

@L @L ( s;k ; )
I( s;k ; ) = cov ; j ;Y = Ii;j
@ s;k @ (k) (i;j)2f1;:::;pk +2g f1;:::;K 1g

63
3.6. Estimation des paramètres d’un modèle MPAR

pour i = 0; :::; pk et k = 1; :::; K 1 on a


!
( s;k ; ) @L @L
Ii+1;k = cov ;
(k) @ (k)
j ;Y
@ s;i
0 1
!
BX Zs+ S u(ys+ S ; i)"s+ S X
4 (k) (k) 4 (k) (K)
Zs+ S Zs+ S C
= cov @ 2 ; (k) (K)
j ;Y A
(k)
= 3 s = 3
0 1
BX Zs+ S u(ys+ S ; i)"s+ S X
4 (k) (k) 4 (k)
Zs+ S C
= cov @ 2 ; (k)
j ;Y A
(k)
= 3 s = 3
0 1
BX Zs+ S u(ys+ S ; i)"s+ S X
4 (k) (k) 4 (K)
Zs+ S C
cov @ 2 ; (K)
j ;Y A
(k)
= 3 s = 3

(k) (k)
X
4 var Zs+ S j ;Y u(ys+ S ; i)"s+ S
= 2
(k) (k)
= 3 s

(k) (K) (k)


X
4 cov Zs+ S ; Zs+ S j ;Y u(ys+ S ; i)"s+ S
2
(k) (K)
= 3 s
!
X
4
1
(k)
s+ S
(K)
s+ S
(k) (k)
s+ S u(ys+ S ; i)"s+ S
= (k)
+ (K) 2
(k)
= 3 s

Pour i = 0; :::; pk et k; l = 1; :::; K 1 avec l 6= k on a


!
( s;k ; ) @L @L
Ii+1;l = cov (k)
; j ;Y
@ s;i
@ (l)
0 1
!
BX Zs+ S u(ys+ S ; i)"s+ S X
4 (k) (k) 4 (l) (K)
Zs+ S Zs+ S C
= cov @ 2 ; (l) (K)
j ;Y A
(k)
= 3 s = 3

(k) (l) (k)


X
4 cov Zs+ S ; Zs+ S j ;Y u(ys+ S ; i)"s+ S
= 2
(k) (l)
= 3 s

(k) (K) (k)


cov Zs+ S ; Zs+ S j ;Y u(ys+ S ; i)"s+ S
2
(k) (K)
s
0 1
!
X
4
B
(K)
s+ S
(l)
s+ S
(k) (k)
s+ S u(ys+ S ; i)"s+ S C
= @ (K) (l) 2 A
(k)
= 3 s

64
3.6. Estimation des paramètres d’un modèle MPAR

pour i = pk + 2; et l = k; on a

( s;k ; ) @L @L
Ipk +2;k = cov j ;Y (k)
;
@ s @ (k)
0 0 1 1
(k)
2 !
B X Zs+ S B "s+ C X
4 (k) 4 (k) (K)
S Zs+ S Zs+ S C
= cov @ (k) @ 2 1A ; (k) (K)
j ;Y A
s (k)
= 3 s = 3
0 0 2
1 1
(k)
BX
4 (k)
Zs+ S B "s+ S C X
4 (k)
Zs+ S C
= cov @ (k) @ 2 1A ; (k)
j ;Y A
s (k)
= 3 s = 3
0 0 2
1 1
(k)
BX
4 (k)
Zs+ S B "s+ S C X
4 (K)
Zs+ S C
cov @ (k) @ 2 1A ; (K)
j ;Y A
s (k)
= 3 s = 3

0 (k)
1 0 (k) 2
1
X
4 var Zs+ S j ;Y cov (Zt;k ; Zt;K j ; Y ) A B "s+ S C
= @ @ 1A
(k) (k) (k) (K) 2
s s (k)
= 3 s
0 1
! (k)
2
X 4
1
(k) (K) (k)
B "s+ S C
s+ S s+ S s+ S
= (k)
+ (K) (k) @ 2 1A
s (k)
= 3 s

Pour i = pk + 2; et l 6= k on a

( s;k ; ) @L @L
Ipk +2;k = cov j ;Y(k)
;
@ @ (l) s
0 0 1 1
(k)
2 !
B X Zs+ S B "s+ C X
4 (k) 4 (l) (K)
S Zs+ S Zs+ S C
= cov @ (k) @ 2 1A ; (l) (K)
j ;Y A
s (k)
= 3 s = 3
0 0 2
1 1
(k)
BX B "s+ C X
4 (k) 4 (l)
Zs+ S S Zs+ S C
= cov @ (k) @ 2 1A ; (l)
j ;Y A
s (k)
= 3 s = 3
0 0 2
1 1
(k)
BX
4 (k)
Zs+ S B "s+ S C X
4 (K)
Zs+ S C
cov @ (k) @ 2 1A ; (K)
j ;Y A
s (k)
= 3 s = 3

0 (k) (l) (k) (K)


1 0 (k) 2
1
X4 cov Zs+ S ; Zs+ S j ;Y cov Zs+ S ; Zs+ S j ;Y "s+
AB C
S
= @ @ 1A
(k) (l) (k) (K) 2
s s (k)
= 3 s
0 1
! (k)
2
X
4 (K) (l) (k)
B "s+ S C
s+ S s+ S s+ S
= (K) (l) (k) @ 2 1A
s (k)
= 3 s

65
3.6. Estimation des paramètres d’un modèle MPAR

La matrice I ( s;K ; ) est une matrice de dimension (p + 2)


k (K 1) ; donnée par

@L @L ( s;K ; )
I( s;K ; ) = cov ; j ;Y = Ii;j
@ s;k @ (i;j)2f1;:::;pk +2g f1;:::;K 1g

pour i = 0; :::; pK et k = 1; :::; K 1; on aura


!
( s;K ; ) @L @L
Ii+1;k = cov (K)
; j ;Y
@ s;i
@ (k)
0 1
!
B X Zs+ S u(ys+ S ; i)"s+ X
4 (K) (K) 4 (k) (K)
S Zs+ S Zs+ S C
= cov @ 2 ; (k) (K)
j ;Y A
(K)
= 3 s = 3
0 1
BX Zs+ S u(ys+ S ; i)"s+ S X
4 (K) (K) 4 (k)
Zs+ S C
= cov @ 2 ; (k)
j ;Y A
(K)
= 3 s = 3
0 1
B X Zs+ S u(ys+ S ; i)"s+ X
4 (K) (K) 4 (K)
S Zs+ S C
cov @ 2 ; (K)
j ;Y A
(K)
= 3 s = 3
00 1 1
(k) (K) (K)
X B cov
4 Zs+ S ; Zs+ S j ;Y var Zs+ S j ;Y (K)
u(ys+ S ; i)"s+ S C
= @@ (k) (K)
A
2 A
(K)
= 3 s
!
X
4 (k)
s+ S 1
(K)
s+ S
(K) (K)
s+ S u(ys+ S ; i)"s+ S
= (k) (K) 2
(K)
= 3 s

66
3.6. Estimation des paramètres d’un modèle MPAR

et pour i = pK + 2; et k = 1; :::; K 1; on a

( s;K ; ) @L @L
IpK +2;k = cov j ;Y (K)
;
@ s @ (k)
0 0 1 1
(K)
2 !
B X Zs+ S B "s+ S C X
4 (K) 4 (k) (K)
Zs+ S Zs+ S C
= cov @ (K) @ 2 1A ; (k) (K)
j ;Y A
s (K)
= 3 s = 3
0 0 2
1 1
(K)
BX
4 (K)
Zs+ S B "s+ S C X
4 (k)
Zs+ S C
= cov @ (K) @ 2 1A ; (k)
j ;Y A
s (K)
= 3 s = 3
0 0 2
1 1
(K)
BX
4 (K)
Zs+ S B "s+ S C X
4 (K)
Zs+ S C
cov @ (K) @ 2 1A ; (K)
j ;Y A
s (K)
= 3 s = 3

0 (k) (K) (K)


1 0 (k) 2
1
X
4 cov Zs+ S ; Zs+ S j ;Y var Zs+ S j ;Y "s+
AB C
S
= @ @ 1A
(K) (k) (K) (K) 2
s s (k)
= 3 s
0 1
! (k)
2
X4 (k)
1
(K) (K)
B "s+ S C
s+ S s+ S s+ S
= (k) (K) (K) @ 2 1A
s (k)
= 3 s

La matrice I ( s;k ; s;l ) pour k = 2; :::; K et l = 1; :::; K 1 est une matrice de (p + 2) (p + 2)


k l

donnée par

@L @L ( s;k ; )
I( ) = cov
s;k ; s;l s;l
; j ;Y = Ii;j
@ s;k @ s;l (i;j)2f1;:::;pk +2g f1;:::;pl +2g

pour i = 0; :::; pk et j = 0; :::; pl on a


!
( s;k ; s;l ) @L @L
Ii+1;j+1 = cov (k)
; (l)
j ;Y
@ s;i @ s;j
0 1
BX Zs+ S u(ys+ S ; i)"s+ S X
4 (k) (k) 4 (l) (l)
Zs+ S u(ys+ S ; j)"s+ S C
= cov @ 2 ; 2 j ;Y A
(k) (l)
= 3 s = 3 s

(k) (l) (k) (l)


X
4 cov Zs+ S ; Zs+ S j ;Y u(ys+ S ; i)u(ys+ S ; j)"s+ S "s+ S
= 2 2
(k) (l)
= 3 s s

X
4 (k) (l) (k) (l)
s+ S s+ S u(ys+ S ; i)u(ys+ S ; j)"s+ S "s+ S
= 2 2
(k) (l)
= 3 s s

67
3.6. Estimation des paramètres d’un modèle MPAR

pour i = pk + 2 et j = pk + 2 on a

( s;k ; s;l ) @L @L
Ipk +2;pk +2 = cov (l)
j ;Y (k)
;
0@ s @ s
0 1 0 1 1
2 2
(k) (l)
B X Zs+ S B "s+ C X B "s+
4 (k) 4 (l)
S Zs+ S S C C
= cov @ (k) @ 2 1A ; (l) @ 2 1A j ; Y A
s (k) s (l)
= 3 s = 3 s
0 2
10 2
1
(k) (l) (k) (l)
X
4 cov Zs+ S ; Zs+ S j ;Y B "s+ S CB "s+ S C
= (k) (l) @ 2 1A @ 2 1A
s s (k) (l)
= 3 s s
( )
X
4 (k)
s+ S
(l)
s+ S "2t;k "2t;l
= (k) (l) 2
1 2
1
= 3 s s k l

pour i = 0; :::; pk et j = pk + 2 on a
!
( s;k ; s;l ) @L @L
Ii+1;pk +2 = cov (k)
; (l)
j ;Y
@ s;i @ s
0 0 2
1 1
(l)
BX
4
Zs+ S u(ys+ S ; i)"s+ S X
(k) (k) 4 (l)
Zs+ S B "s+ S C C
= cov @ 2 ; (l) @ 2 1A j ; Y A
(k) s (l)
= 3 s = 3 s
0 0 2
11
(k) (l) (k) (l)
X
4
B cov Zs+ S ; Zs+ S j ;Y u(ys+ S ; i)"s+ S B "s+ S CC
= @ 2 @ 2 1AA
(k) (l) (l)
= 3 s s s
0 2
1
(l)
X 4 (k) (l) (k) "s+ S
s+ S s+ S u(ys+ S ; i)"s+ S B C
= 2 @ 2 1A
(k) (l) (l)
= 3 s s s

pour i = pk + 2 et j = 0; :::; pk on a
!
( s;k ; s;l ) @L @L
Ipk +2;j+1 = cov (k)
; (l)
j ;Y
@ s @ s;j
0 0 2
1 1
(k)
B X Zs+ S B
4 (k) "s+ S C X Zs+ S u(ys+ S ; j)"s+
4 (l) (l)
C
S
= cov @ (k) @ 2 1A ; 2 j ;Y A
s (k) (l)
= 3 s = 3 s
0 2
1
(k) (l) (l) (k)
X
4 cov Zs+ S ; Zs+ S j ;Y u(ys+ S ; j)"s+ S B "s+ S C
= 2 @ 2 1A
(k) (l) (k)
= 3 s s s
0 2
1
(k)
X B "s+
4 (k) (l) (l)
s+ S s+ S u(ys+ S ; j)"s+ S S C
= 2 @ 2 1A
(k) (l) (k)
= 3 s s s

68
3.6. Estimation des paramètres d’un modèle MPAR

3.6.4 Critère de sélection d’un modèle MPAR


Il existe di¤érents critères pour choisir les ordres d’autorégressifs appropriés pk ; k =
1; :::; K; des composants d’un modèle MPAR et le nombre de mélange K. Le problème de
la sélection du modèle dans les modèles mélange autorégressifs invariant dans le temps a
récemment reçu beaucoup d’attention. Certains critères, tels que le critère de l’information
baysienne BIC (Shwarz 1978) et le critère d’information d’akaike AIC (Akaike, 1973), et
leurs versions adoptées, ont été étudiés par plusieurs auteurs. Dans le cadre d’un modèle
MAR, Wong et Li (2000) ont souligné qu’il existe deux choix de la fonction log-vraisemblance
maximisée pour AIC et BIC. Le premier est dé…ni comme
0 2
1
(k)
X X (k) B
n K
log(2 ) "t C
(k)
L= zt @log (k) log t 2A
2 (k)
t=p+1 k=1 2 t

Le second est calculé à partir de la fonction de densité de probabilité conditionnelle du


modèle MAR et est dé…ni comme
X
n X
n
d
L = log (f (yt jFt 1 )) = log F (yt jFt 1)
t=p+1 t=p+1
dyt

Où f (yt jFt 1) est donné par la dé…nition (3.2) d’un modèle MPAR.

Ils ont montré que la fonction log-vraisemblance maximisée (observée) L a une meilleure
performance dans le choix du bon modèle que la fonction log-vraisemblance maximisée L;
et donc ils ont suggéré d’utiliser L pour le calcul AIC et BIC. Dans notre cas d’un modèle
MPAR, nous pouvons également adopter le même critère, où l’AIC et le BIC sont dé…nis
comme !!
X
K
AIC = 2L + 2 K 1+S 2K + pk
k=1
et !!
X
K
BIC = 2L + K 1+S 2K + pk log (n p)
k=1
Pour les critères AIC et BIC , sont donnés par
!!
X
K
AIC = 2L + 2 K 1+S 2K + pk
k=1

et !!
X
K
BIC = 2L + K 1+S 2K + pk log (n p)
k=1

69
C
ha pi
tr
e 4
Etude de Simulation et Application

Sommaire
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

4.2 La performance de l’algorithme EM dans les modèles MAR . 71

4.3 La performance de l’algorithme EM dans les modèles MPAR . 74

4.4 Application de la modélisation SARIMA à la modilisation de


la vente du carburant . . . . . . . . . . . . . . . . . . . . . . . . . 76

4.4.1 La série des ventes d’essence normale . . . . . . . . . . . . . . . . . 76

4.4.2 La série des ventes de Gas-oil . . . . . . . . . . . . . . . . . . . . . 90

4.4.3 La série des ventes d’essence sans plomb . . . . . . . . . . . . . . . 102

4.4.4 La série des ventes d’essence super . . . . . . . . . . . . . . . . . . 115

4.5 Modélisation de la série des ventes carburants par la classe des


modèles MPAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129

4.5.1 Modélisation de la série SP Rt . . . . . . . . . . . . . . . . . . . . . 129

4.5.2 Modélisation de la série P Bt . . . . . . . . . . . . . . . . . . . . . 133

4.5.3 Modélisation de la série GSLt . . . . . . . . . . . . . . . . . . . . . 136

4.5.4 Modélisation de la série EN ORt . . . . . . . . . . . . . . . . . . . 139

4.5.5 Les distributions prédictives pour l’horizon un . . . . . . . . . . . 142

70
4.1. Introduction

4.1 Introduction
Dans ce chapitre, nous allons e¤ectuer une étude de simulation pour évaluer la perfor-
mance de la méthode du maximum de vraisemblance (MV) via l’algorithme EM pour les
deux modèles MAR et MPAR.

Nous essayons, par la suite, de montrer à travers la modélisation de quatre (04) séries
réelles l’utilité et la capacité des modèles MPAR de capturer, en plus de la saisonnalité saisie
par le modèle SARIMA, le changement de régime, la multimodalité et l’excés de kurtosis. Il
s’agit de la modélisation des ventes des quatre carburants (essence normale, essence super,
essence sans plomb et gasoil) dans la région centre du pays.

4.2 La performance de l’algorithme EM dans les mod-


èles MAR
Nous avons e¤ectué une étude de simulation pour (MV). Nous proposons d’appliquer
cette méthode sur des séries générées à partir d’un modèle MAR donné par (2.1), à deux
et à trois composantes et pour plusieurs tailles (n=200, 500, 1000). Pour analyser l’e¤et de
la taille de la série, le nombre de composantes et l’ordre de chaque modèle sur l’estimation
des paramètres, nous avons considéré deux modèles (MAR(3,2,1,3) et MAR(2,1,1)). Pour
chaque modèle, nous avons simulé 1000 séries. Les vraies valeurs (VV) des paramètres de
processus MAR générateur des séries, la moyenne empirique (ETE) et l’écart-type théorique
(ETT) (calculé à partir de la matrice d’information observée), de leurs estimations pour
1000 séries sont reportés les Tables (4.1)-(4.6).

71
4.2. La performance de l’algorithme EM dans les modèles MAR

Table 4.1: Résultat de simulation pour 1000 réplications d’un modèle M AR(3; 2; 1; 3), avec n = 200
k k k k0 k1 k2 k3

1 VV 0; 4000 1:000 0:0000 0:9000 0:6000


ME 0:4015 0:9773 0:0082 0:9004 0:6005
ETE 0:0470 0:1270 0:1522 0:0180 0:0220
ETT 0:0444 0:1166 0:1459 0:0142 0:0153
2 VV 0:3000 1:0000 0:0000 0:5000
MM 0:2995 0:9765 0:0063 0:5003
ETE 0:0403 0:1314 0:1781 0:0193
ETT 0:0384 0:1197 0:1595 0:0145
3 VV 0:3000 5:0000 5:0000 1:5000 0:7400 0:1200
MM 0:2990 4:7193 5:1349 1:4848 0:7351 0:1196
ETE 0:0433 0:5520 0:8895 0:1101 0:1215 0:1125
ETT 0:0413 0:4988 0:8018 0:0939 0:1055 0:0955

Table 4.2: Résultat de simulation pour 1000 réplications d’un modèle M AR(3; 2; 1; 3), avec n = 500
k k k k0 k1 k2 k3
1 VV 0; 4000 1:000 0:0000 0:9000 0:6000
ME 0:4013 0:9921 0:0004 0:8999 0:5999
ETE 0:0291 0:0748 0:0911 0:0097 0:0114
ETT 0:0278 0:0727 0:0908 0:0083 0:0087
2 VV 0:3000 1:0000 0:0000 0:5000
ME 0:2994 0:9908 0:0014 0:4998
ETE 0:0248 0:0747 0:1047 0:0105
ETT 0:0241 0:0735 0:0993 0:0082
3 VV 0:3000 5:0000 5:0000 1:5000 0:7400 0:1200
ME 0:2993 4:9146 5:0440 1:4949 0:7413 0:1185
ETE 0:0264 0:3247 0:5182 0:0553 0:0628 0:0592
ETT 0:0259 0:3211 0:5023 0:0542 0:0605 0:0550

72
4.2. La performance de l’algorithme EM dans les modèles MAR

Table 4.3: Résultat de simulation pour 1000 réplications d’un modèle MAR(3,2,1,3), avec n=1000
k k k k0 k1 k2 k3
1 VV 0; 4000 1:000 0:0000 0:9000 0:6000
ME 0:4011 0:9981 0:0021 0:9001 0:6002
ETE 0:0204 0:0528 0:0692 0:0065 0:0076
ETT 0:0196 0:0509 0:0639 0:0056 0:0059
2 VV 0:3000 1:0000 0:0000 0:5000
ME 0:2995 0:9944 0:0010 0:4999
ETE 0:0174 0:0529 0:0759 0:0069
ETT 0:0170 0:0520 0:0699 0:0056
3 VV 0:3000 5:0000 5:0000 1:5000 0:7400 0:1200
ME 0:2995 4:9511 5:0269 1:4985 0:7392 0:1189
ETE 0:0180 0:2332 0:3491 0:0383 0:0432 0:0381
ETT 0:0182 0:2273 0:3529 0:0366 0:0411 0:0371

Table 4.4: Résultat de simulation pour 1000 réplications d’un modèle MAR(2,1,1), avec n=200
k k k k0 k1

1 VV 0; 5000 5:000 0:0000 0:5000


ME 0:5006 4:9231 0:0349 0:4768
ETE 0:0544 0:3789 0:5820 0:0844
ETT 0:0532 0:3734 0:5381 0:0854
2 VV 0:5000 1:0000 0:0000 1:1000
ME 0:4994 0:9808 0:0006 1:0986
ETE 0:0544 0:1215 0:1369 0:0199
ETT 0:0532 0:1184 0:1326 0:0187

Table 4.5: Résultat de simulation pour 1000 réplications d’un modèle MAR(2,1,1), avec n=500
k k k k0 k1

1 VV 0; 5000 5:000 0:0000 0:5000


ME 0:5004 4:9559 0:0027 0:4884
ETE 0:0336 0:2363 0:3434 0:0557
ETT 0:0335 0:2364 0:3356 0:0532
2 VV 0:5000 1:0000 0:0000 1:1000
ME 0:4996 0:9900 0:0045 1:1000
ETE 0:0336 0:0742 0:0814 0:0111
ETT 0:0335 0:0743 0:0819 0:0112

73
4.3. La performance de l’algorithme EM dans les modèles MPAR

Table 4.6: Résultat de simulation pour 1000 réplications d’un modèle MAR(2,1,1), avec n=1000
k k k k0 k1
1 VV 0; 5000 5:000 0:0000 0:5000
ME 0:4999 4:9822 0:0013 0:4941
ETE 0:0232 0:1725 0:2405 0:0385
ETT 0:0236 0:1677 0:2372 0:0375
2 VV 0:5000 1:0000 0:0000 1:1000
ME 0:5001 0:9979 0:0006 1:0993
ETE 0:0232 0:0515 0:0576 0:0077
ETT 0:0236 0:0526 0:0578 0:0078

Les valeurs initiales entrant dans l’algorithme EM sont les vraies valeurs des modèles
MAR souhaités à estimer. On constate que les valeurs estimées sont proches des vraies
valeurs (les variances, les proportions du mélange et les coe¢ cients autorégressifs). Ainsi,
l’écart-type empirique et l’écart-type théoriques se rapprochent de zéro, au fur et mesure
que la taille de la série augmente, ce qui re‡ète la consistance empirique des estimations
obtenues par la méthode des maximum de vraisemblance en passant par l’algorithme EM.

4.3 La performance de l’algorithme EM dans les mod-


èles MPAR
Dans cette section, on étudie la performance de l’algorithme EM sur des séries générées
par des modèles MPAR, de di¤érents ordres et périodes et pour di¤érentes tailles (n=200,500
et 1000). Pour chaque modèle, on a considéré 1000 simulations. Les vraies valeurs (VV)
des paramètres de processus générateurs des séries, la moyenne empirique (ME), l’écart
type empirique (ETE) et l’écart type théorique (ETT) de leurs paramètres pour les 1000
simulations sont reportés dans les tables (4.7) et (4.8)

74
4.3. La performance de l’algorithme EM dans les modèles MPAR

Table 4.7: Résultats de 1000 simulations pour un modèle M P AR2 (2; 1; 1)


n=200 n = 500 n=1000
VV ME ETE ETT ME ETE ETT ME ETE ETT
(1)
0:5 :5031 :0606 :0588 :4988 :0360 :0369 :4995 :0262 :0260
(1)
1;0 1:5 1:5069 :1758 :1685 1:4986 :1097 :1076 1:5031 :0757 :0756
(1)
1;1 0:6 :6000 :0132 :0121 :6004 :0078 :0076 :6003 :0053 :0053
(1)
2;0 0:9 :8923 :8812 :8262 :8686 :5051 :5086 :8682 :3514 :3604
(1)
2;1 0:9 :8936 :1661 :1328 :9012 :0844 :0827 :8998 :0584 :0587
(1)
1 1:0 :9643 :1286 :1232 :9887 :0811 :0798 :9906 :0564 :0559
(1)
2 4:0 3:9090 :8428 :7360 3:9313 :4805 :4589 3:9756 :3459 :3242
(2)
0:5 :4969 :0606 :0588 :5012 :0360 :0369 :5005 :0262 :0260
(2)
1;0 0:0 :0151 :1802 :1689 :0041 :1092 :1068 :0013 :0764 :0757
(2)
1;1 0:3 :2997 :0129 :0119 :2997 :0079 :0075 :3000 :0054 :0053
(2)
2;0 0:0 :0894 2:4958 2:3998 :0056 1:4979 1:4810 :0064 1:0431 1:0471
(2)
2;1 0:7 :6776 :4227 :4151 :6933 :2412 :2475 :7029 :1685 :1730
(2)
1 1:0 :9568 :1335 :1231 :9814 :0817 :0791 :9906 :0555 :0559
(2)
2 16 15:661 1:8265 1:7932 15:823 1:1107 1:1351 15:921 :8284 :8078

Table 4.8: Résultats de 1000 simulations pour un modèle M P AR2 (2; 2; 1)


n=200 n = 500 n=1000
VV ME ETE ETT ME ETE ETT ME ETE ETT
(1)
0; 3 :3064 :0750 :0720 :3035 :0460 :0461 :2998 :0307 :0316
(1)
1;0 0:0 :0066 :4184 :3053 :0052 :2313 :2037 :0012 :1510 :1425
(1)
1;1 0:5 :4917 :1491 :0942 :4957 :0731 :0627 :5017 :0472 :0429
(1)
1;2 0:6 :6169 :3016 :2159 :5930 :1734 :1527 :6037 :1173 :1065
(1)
2;0 0:0 :0167 :9119 :8045 :0092 :4933 :4844 :0011 :3534 :3423
(1)
2;1 0:9 :8999 :8166 :7096 :8992 :4185 :3997 :9126 :2803 :2783
(1)
2;2 0:2 :2156 :4576 :3768 :1866 :2054 :2029 :2055 :1387 :1402
(1)
1 1:0 :8094 :2524 :2018 :9294 :1633 :1434 :9659 :1093 :1017
(1)
2 4:0 3:7549 :6347 :5906 3:8932 :4041 :3870 3:9500 :2776 :2774
(2)
0:7 :6936 :0750 :0720 :6965 :0460 :0461 :7002 :0307 :0316
(2)
1;0 0:0 :0021 :1852 :1644 :0089 :1067 :1037 :0012 :0732 :0720
(2)
1;1 0:2 :2034 0:0626 :0552 :2018 :0379 :0346 :2014 :0257 :0240
(2)
1;2 0:0
(2)
2;0 0:0 :0003 :1609 :1498 :0025 :0941 :0940 :0001 :0660 :0659
(2)
2;1 0:7 :7086 :1313 :1174 :7022 :0739 :0736 :7019 :0524 :0511
(2)
2;2 0:0 :0000 :0399 :0000 :0017 :0255 :0000 :0002 :0174 :0000
(2)
1 1:0 :9542 :1266 :1122 :9842 :0761 :0729 :9946 :0522 :0515
(2)
2 1:0 :9744 :1511 :1376 :9899 :0889 :0873 :9961 :0633 :0604

75
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Nous pouvons constater à partir des Tables (4.7) et (4.8), que les biais de l’estimation et
les écart-types empirique obtenues sont généralement assez petits, même pour des séries de
petite taille. Les biais et écarts-types empiriques tendent vers zéro. Ainsi, la performance
de l’algorithme EM est conservée.

4.4 Application de la modélisation SARIMA à la mod-


ilisation de la vente du carburant
4.4.1 La série des ventes d’essence normale
L’analyse de la série brute

Considérons la série EN ORt qui représente l’évolution mensuelle de la vente d’essence


normale dans la région centre du pays, sur une période allant de janvier 2000 à décembre
2016.

Avant de procéder à la modélisation de la série EN ORt , la représentation graphique


nous donne une idée générale sur la nature et les caractéristiques générales de cette série
(tendance, saisonnalité, ...).

Figure 4.1: Représentation graphique de la série EN ORt

Il est important de noter que le repli des ventes d’essence normale revient au fait qu’il soit
un produit pétrolier énergétique très polluant. De plus, des résultats d’analyse de moteurs de
véhicules en fonctionnement au sein de laboratoires automobiles ont montré que ce carburant
altère le bon fonctionnement des moteurs à cause des oxydes de plomb qui s’accumulent sur
les parois de la chambre à combustion.

76
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Les pays producteurs de véhicules automobiles ayant interdit l’utilisation de l’essence


normale, l’importation de nouveaux véhicules nous met dans l’obligation de ne pas utiliser
ce carburant pour le bon fonctionnement des moteurs et la diminution de la pollution.

A partir du graphe, on remarque l’existence d’un e¤et saisonnier par un pic au niveau
de chaque année, cela signi…e une haute consommation d’essence normale en juillet et août,
par contre une baisse dans les autres mois.

Table 4.9: Corrélogramme de la série EN ORt

L’analyse du corrélogramme simple et partiel la (Table 4.9), nous indique une non sta-
tionnarité de la série. En e¤et, la fonction d’autocorrélation simple ne décroît pas de manière
rapide vers zéro et le premier terme du corrélogramme partiel est très important (0:979) :
Ceci nous mène à tester l’existence d’une tendance déterministe ou stochastique par l’emploi
du test de racine unitaire.

Pour la saisonnalité, il est nécessaire d’appliquer des tests de saisonnalité a…n de con…rmer
ou d’in…rmer les résultats de l’examen visuel.

Test de saisonnalité de Fisher


Le test de Fisher va nous permettre d’a¢ rmer ou d’in…rmer l’hypothèse de saisonnalité

77
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

d’ordre 12.

Test d’in‡uence du facteur ligne : Il s’agit de tester l’hypothèse

H0 : "l’e¤et saisonnier est nul" vs H1 : "il existe une saisonnalité"

Si la valeur de Fisher calculé (Fcal ) < Fisher tabulé (Ftab ), on accepte H0 , sinon on rejette
H0 :

Table 4.10: Test de Fisher appliqué à la série EN ORt

Test d’in‡uence de facteur ligne (mois) :


Fcal = 3:813 > Ftab = 1:84; on rejette H0 , donc la série est saisonnière.

Test d’in‡uence de facteur colonne (années) :


Fcal = 196:42 > Ftab = 1:70; on rejette H0 , donc la série est tendancielle.

Désaisonnalisation de la série EN ORt


A…n de traiter l’e¤et saisonnier sur la série EN ORt , on va appliquer l’opérateur de
di¤érenciation saisonnière d’ordre 12 en utilisant la formule suivante :

Notons DEN ORt la série désaisonnalisée.

DEN ORt = EN ORt EN ORt 12

= 1 L12 EN ORt

De la même manière on va analyser le graphe et le corrélogramme de la série désaison-


nalisé, puis on applique le test de Dickey Fuller augmenté sur la série.

78
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Figure 4.2: Représentation graphique de la série DEN ORt

Table 4.11: Corrélogramme de la série DEN ORt

L’examen du graphe (4.2) après élimination de la saisonnalité, montre la disparition des


pics réguliers, ce qui signi…e la disparition de l’e¤et période. Cela est con…rmé par une deux-
ième application du test de saisonnalité. Nous constatons également que le corrélogramme
de la série DEN ORt Table (4.11), ne présente plus de structure caractérisant une série non
stationnaire (pas de décroissance lente).

79
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Test de saisonnalité de Fisher


Une deuxième application du test de Fisher nous permet d’assurer si l’e¤et saisonnier a
disparu.

Table 4.12: Test de Fisher appliqué à la série DN RM Lt

Test d’in‡uence de facteur ligne (mois) :

Fcal = 0:161 < Ftab = 1:84; on accepte H0 , donc la série n’est pas saisonnière.

Test d’in‡uence de facteur colonne (années) :

Fcal = 17:312 > Ftab = 1:72; on rejette H0 , donc la série est tendancielle.

Maintenant pour con…rmer ou in…rmer l’hypothèse de la stationnarité de la série dé-


saisonnalisée DEN ORt , on applique le test de Dickey-Fuller Augmenté.

Test de Dickey-Fuller Augmenté


On applique le test de Dikey Fuller sur la série, qui nécessite tout d’abord de sélectionner
le nombre de retard p qui minimise le critère d’Akaïke ou celui de Schwarz (de telle façon
que les résidus sont des bruits blanc), on prend la valeur p = 0. On va estimer les paramétres
des trois modèles.

On commence séquentiellement par le modèle qui contient la tendance, la constante et


le coe¢ cient.

Modèle(3): DEN ORt = DEN ORt 1 + t + c + "t

Le résultat de l’a¢ chage pour la série DEN ORt est reproduit sur la Table (4.13).

80
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Table 4.13: Résultats du test ADF pour le Modèle (3)

D’après la Table (4.13), la statistique de test de Dickey-Fuller t ^ = 6:462 est inférieure


à la valeur critique tabulée 3:433 au seuil 5%. Par conséquent, on rejette l’hypothèse nulle
de racine unitaire, la série DEN ORt ne possède pas de racine unitaire.

On applique un simple test de Student sur la signi…cativité de la tendance. Il est claire que
d’après la Table (4.13) la tendance est signi…cativement di¤erent de zéro, car la statistique
calculée de la tendance est égale, en valeur absolue à 2:318 qui est supérieure à 1:96 au seuil
5%. Cela signi…e que le modèle (3) est adapté, la série est non stationnaire de type TS(1) .

Donc pour ramener la série stationnaire, on faire un ajustement. Le meilleur polynôme


obtenu est d’ordre 2 selon les critère de AIC, BIC et HQC. Il est représenté dans la Figure
(4.3)

L’expression polynomialle d’ajustement est donné par cette formule:

y(t) = 63:55t + 0:34t2 (4.1)


(1)
Trend stationary

81
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Figure 4.3: Graphe de DDEN ORt avec ajustement

Donc pour stationnariser cette série il reste de lui retrancher la tendance (l’expression
4.2).
DDEN ORt = DEN ORt y(t) (4.2)

Figure 4.4: Graphe de la série DDEN ORt

82
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Table 4.14: Corrélogramme de la série ajustée DDEN ORt

Identi…cation et Estimation du modèle


Identi…cation
Cette étape est e¤ectuée par l’etude de deux fonctions d’autocorrélation simple et par-
tielle de la série DDEN ORt .

Du corrélogramme associé à la série Table (4.14), on remarque que la fonction d’autocorrélation


simple posséde des termes signi…cativement di¤érents de zéro (i.e. au retard p = 1; 2 et 3),
et la fonction d’autocorrélation partielle posséde aussi des termes signi…cativement di¤érents
de zéro (i.e. au retard p = 1 et 2).

Estimation
On procède à l’estimation de plusieurs modèles en acceptant les modèles où les coe¢ cients
sont signi…cativement di¤érents de zéro, en comparant toujours les t-statistiques (en valeur
absolue) avec la valeur tabulée de student.

En utilisant la méthode de moindre carré pour estimer les paramètres d’un modèle
SARIM A; on a trouvé deux modèles candidats à savoir le modèle SARIM A(2; 0; 1)(0; 1; 1)12

83
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

et SARIM A(2; 0; 0)(2; 1; 0)12 dont les résultats de l’estimation des deux modèles sont réper-
toriés respectivement dans la Tables (4.15) et (4.16).

Table 4.15: Résultat d’estimation du modèle SARIM A(2; 0; 1)(0; 1; 1)12

Table 4.16: Résultat d’estimation du modèle SARIM A(2; 0; 0)(2; 1; 0)12

Puis on a choisi celui qui minimise le critère AIC ou celui de BIC. Le meilleur modèle
identi…é selon ces deux critères, est le modèle SARIM A(2; 0; 1)(0; 1; 1)12

Validation du modèle

Dans le but de savoir si le processus qui génère la série DDEN ORt est bien estimé par
le modèle SARIM A(2; 0; 1)(0; 1; 1)12 , on va e¤ectué plusieurs tests sur les paramètres et les
résidus représentant l’écart entre la valeur réelle et la valeur estimé par le modèle proposé.
84
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Test sur les paramètres


D’après la Table (4.15), on remarque que les paramètres du modèle sont signi…cativement
di¤érents de zéro, En e¤et, les valeurs de la statistiques de Student associées à chaque
paramètre sont en valeur absolue supérieure à la valeur tabulée 1:96 au seuil 5%, ce qui est
con…rmé par la probabilités de nullité des coe¢ cients, toutes inférieures à 0:05

La représentation du cercle unitaire et la table des inverses des racines des polynomes de
retards AR et M A est la suivante

Figure 4.5: Réprésentation graphique des inverses des racines.

Table 4.17: Racines des polynômes caractéristiques.

Les racines des deux polynômes autoregressif et moyenne mobile sont supérieures en
module à 1, car leurs inverses calculés, par EVIEWS 8, sont tous inférieurs à 1 (voir la Table
(4.17)), ainsi les conditions de stationnarité et d’inversibilité sont véri…ées.

85
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Test sur les résidus


On analyse maintenant les résidus à partir de leurs fonctions d’autocorrélation simple et
partielle.

Table 4.18: Corrélogramme de la série résiduelle

Le corrélogramme des résidus du modèle SARIM A(2; 0; 1)(0; 1; 1)12 montre que les résidus
forment un bruit blanc, car tous les termes sont à intérieure de l’intervalle de con…ance (il-
lustré par une bande en pointillés sur le graphique), on va appliquer le test de Box-Lujng(1)
pour l’ordre K = 28 tel que

H0 : 1 = 2 = ::: = K =0 vs H1 : 9j 2 f1; 2; :::; Kg ; j 6= 0

2
La statatistique de test vaut Qstats = 27:786 est inférieure à 0:95 (28 3) = 36; 41, d’où
les résidus sont non corrélés.
(1)
Sous Eviews noté Q-stats

86
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Figure 4.6: Graphique des séries estimée, réelle et celle des résidus

A partir de la représentation graphique des séries estimée, réelle et celle des résidus
(Figure (4.6)), on trouve que le modèle estimé ajuste bien la série des ventes d’essence
normale car les graphes de la série réelle et de la série estimée évoluent de la même manière
dans le temps.

Test de nullité de la moyenne


On accepte l’hypothèse de nullité de la moyenne des résidus, car la statistique de student
jSt j = 0:291 est inférieure à 1:96 (voir la Table (4.19)).

Table 4.19: Test de nullité de la moyenne

Test de normalité des résidus


De l’histogramme de la série résiduelle (Figure (4.7)), on remarque que la statistique de
2
Jarque-Berra qui est égale à 55:44 est supérieure à la valeur théorique de 0:95 (2) = 5:99; au
seuil de 5%. Donc on rejette l’hypothèse de normalité des résidus.

87
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Figure 4.7: Test de normalité

Du corrélogramme des résidus aux carrés (Table (4.20)), on remarque que les carrés des
résidus sont non corrélés entre eux, ce qui signi…e une absence d’un e¤et ARCH.

Table 4.20: Corrélogramme des carrées des résidus

Pour con…rmer absence de l’e¤et ARCH sur les résidus, on va applique son test.

Test d’e¤et ARCH


On accepte l’hypothèse d’homoscédasticité (la variance est constante), car la statistique
du test K R2 = 0:302 (K: nombre d’observation) qui est inférieure à 2
0:95 (1) = 3; 841:

88
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Table 4.21: Résultats du test d’e¤et ARCH sur la série résiduelle

On conclut que le modèle estimé SARIM A(2; 0; 1)(0; 1; 1)12 est valide pour représenter
la série EN ORt et il s’ecrit comme la suite :

1 + 0:416L2 1 L12 EN ORt + 63:55t + 0:34t2 = (1 + 0:468L) 1 0:92L12 "t


Prévision
Les prévisions sont calculées pour un horizon h = 12, c’est-à-dire, pour la période allant
de janvier 2017 à décembre 2017. A…n de calculer les prévisions de la série EN ORt , nous
devons d’abord calculer les prévisions de la série transformée DDEN ORt sur la base du
modèle estimé, puis nous procédons au changement nécessaire consistant à rendre la saison
et la tendance déterministe a…n d’obtenir les prévisions de ventes d’essence normale en terme

89
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

brut.
Table 4.22: Prévisions calculées à partir du modèle estimé (unité de mesure TM )
Dates Valeurs Prévisionnelles
Janv-17 6351.28
Févr-17 5382.45
Mars-17 7388.06
Avr-17 7479.85
Mai-17 8315.10
Juin-17 8304.31
Juil-17 10135.40
Août-17 10641.82
sept-17 10084.11
Oct-17 10326.84
Nov-17 9568.71
Déc-17 10285.41

Figure 4.8: Graphe de la série réelle EN ORt avec les prévisons.

4.4.2 La série des ventes de Gas-oil


On considère GSLt la série qui représente l’évolution mensuelle de la vente de gas-oil
dans la région centre du pays, sur une période allant de janvier 2000 à décembre 2016.

90
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

L’analyse de la série brute

Figure 4.9: Représentation graphique de la série GSLt

Notons que le gasoil est un carburant très prisé pour son bas prix (se distinguant par un
écart signi…catif par rapport au prix des essences, ainsi qu’une faible évolution du niveau des
prix) et pour ses utilisations multiples, à savoir dans le secteur de l’industrie, de l’agriculture
et des transports (accroissement des opérateurs activant dans le domaine du transport
routier), ainsi que dans les ménages. Cela engendre une forte consommation de ce car-
burant, dopée notamment par une croissance considérable du parc automobile doté d’un
moteur diesel.

La représentation graphique de la série GSLt (Figure 4.9)présente une non stationnarité


au sens de la moyenne et de la variance, caractérisée par une variabilié par rapport au temp.

On va appliquer une transformatoin logarithmique pour stabiliser la variance, le graphe


de la série transformée LGSLt ; est donnée par la Figure (4.10).

91
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Figure 4.10: Représentation graphique de la série transformée LGSLt

Table 4.23: Corrélogramme de la série LGSLt

L’analyse du corrélogramme simple et partiel (Table 4.23),nous indique une non station-
narité de la série LGSLt . En e¤et, la fonction d’autocorrélation simple ne décroît pas de
manière rapide vers zéro et le premier terme du corrélogramme partiel est très important
(0; 957). Ceci nous mène à tester l’existence d’une tendance déterministe ou stochastique
par l’emploi du test de racine unitaire.

92
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Test de saisonnalité de Fisher


Test d’in‡uence de facteur ligne (mois):
Fcal = 3:959 > Ftab = 2:268; on rejette H0 , donc la série est saisonnière.

Test d’in‡uence de facteur colonne (années):


Fcal = 191:233 > Ftab = 1:507; on rejette H0 , donc la série est tendancielle.

Table 4.24: Test de Fisher appliqué a la série LGSLt

Désaisonnalisation de la série LGSLt


À …n de traiter l’e¤et saisonnier sur la série LGSLt , on va appliquer l’opérateur de
di¤érenciation saisonnière d’ordre 6 en utilisant la formule suivante

Notons DGSLt la série désaisonnalisée

DGSLt = LGSLt LGSLt 6 = (1 L6 )LGSLt

La représentation graphique et le corrélogramme de la série di¤érenciée sont donées par

Figure 4.11: Représentation graphique de la série désaisonnalisée DGSLt

93
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Table 4.25: Corréogramme de la série désaisonnalisée DGSLt

Test de saisonnalié de Fisher


Une deuxième application du test de Fisher nous permet d’assurer si l’e¤et saisonnier a
disparu.

Table 4.26: Test de Fisher appliqué à la série désaisonnalisée DGSLt

Test d’in‡uence de facteur ligne (mois):


Fcal = 0:021 < Ftab = 2:270; on accepte H0 , donc la série n’est pas saisonnière.

Test d’in‡uence de facteur colonne (années):


Fcal = 1:346 < Ftab = 1:509; on accepte H0 , donc la série n’est pas tendancielle.

Remarque 4
Le test de saisonnalité de Fisher est faible par rapport au e¤et tendancielle, alors pour
con…rmer que la série n’admet pas un tendance, on applique le test de Dickey Fuller.

94
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Test de Dickey Fuller


On applique le test de Dikey Fuller sur la série, qui nécessite tout d’abord de sélectionner
le nombre de retard p qui minimise le critère d’Akaïke ou celui de Schwarz. On prend la
valeur p = 6. On va estimer les paramétres des trois modèles.

On commence séquentiellement par le modèle qui contient la tendance, la constante et


les coe¢ cients.
P
6
Modèle (3) : DGSLt = GSLt 1+ i DGSLt i + t + c + "t avec f"t ; t 2 Zg est un
i=1
2
processus stationnaire i.i.d 0; "t :

Le résultat de l’a¢ chage pour la série DGSLt est reproduit sur la Table (4.27)

Table 4.27: Résultats du test ADF pour le Modèle (3)

D’après la Table (4.27), la statistique de Student t ^ = 7:730 est inférieure à la valeur


critique tabulée par Dickey Fuller 3:433 au seuil 5%: Par conséquent, on rejette l’hypothèse
nulle de racine unitaire ( = 0) : la série DGSLt ne possède pas de racine unitaire.

Il nous faut donc à présent tester la nullité du coe¢ cient de la tendance par un simple
test de Student. La statistique calculée de la tendance est égale, en valeur absolue, à 2:583 et
qui est supérieure à 1:96. ce qui implique que la série est non stationnaire de type tendance
déterministe (TS).

Donc pour stationnariser cette série il faut estimer un ajustement.


95
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Estimation de la tendance
On a estimé l’équation d’ajustement y (t) qui est donné par

y (t) = 0:000826t 4:20 10 6 t2

puis, on retranche la tendance


DGSLTt = DGSLt y(t)

Figure 4.12: Graphe de DGSLt avec ajustement.

Table 4.28: Corrélogramme de la série DGSLt ajustée

Finalement, on peut conclure que la série DGSLTt est stationnaire.

96
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Identi…cation et Estimation du modèle


Identi…cation
D’après le corrélogramme de la série stationnaire DGSLTt (Table 4.28), on remarque que
la fonction d’autocorrélation simple possède des valeurs importantes aux retards p = 1; 6; 7; :::
et que la fonction d’autocorrélation partielle possède des valeurs importantes aux retards
q = 1; 2; 6; :::: On a réussi à trouver un modèle admissible SARIM A(7; 0; 3)(3; 1; 0)6 :Le
résultat de l’estimation de ce modèle est donné par la Table (4.29)

Table 4.29: Résultat d’estimation d’un modèle SARIM A(7; 0; 3)(3; 1; 0)6

Validation du modèle
Test sur les paramètres
On constate que tous les paramètres du modèle sont signi…cativement di¤érents de zéro.
En e¤et les statistiques de Student associées à chaque coe¤…cient sont en valeur absolue
supérieures à 1:96, ce qui est con…rmé par les probabilités de nullité des coe¢ cients qui sont
tous inférieurs à 0:05:

97
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Figure 4.13: Réprésentation graphique des inverses des racines.

Table 4.30: Racines des polynômes caractéristiques.

Les racines des deux polynômes autoregressif et moyenne mobile sont supérieures en
module à 1, car leurs inverses calculés par EVIEWS 8 sont tous inférieurs à 1 (voir Figure
4.30), ainsi les conditions de stationnarité et d’inversibilité sont véri…ées.

Tests sur les résidus


A partir de la représentation graphique des séries estimée, réelle et celle des résidus
(Figure 4.14), on trouve que le modèle estimé ajuste bien la série des ventes de gasoil car les

98
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

graphes de la série réelle et de la série estimée évoluent de la même manière dans le temps.

Figure 4.14: Graphique des séries estimée, réelle et celle des résidus

Test de nullité de la moyenne


On accepte l’hypothèse de nullité de la moyenne des résidus, car la statistique de student
jSt j = 0:272 est inférieure à 1:96 (voir la Table 4.31).

Table 4.31: Test de la nullité de la maoyenne

Test de Ljung-Box
Du corrélogramme de la série résiduelle calculée à partir du modèle SARIMA estimé
(Table 4.32), on remarque que tout les termes d’autocorrélation et autocorrélation partielle
sont à l’intérieur de l’intervalle de con…ance. De plus, on remarque que la statistique de
Ljung-Box (Q-stat) associée à l’ordre d’autocorrélation h = 24 est égale à Qstat = 17:577 qui
2
est inférieure à la valeur théorique du 0:95 (24 9) = 24:99 au seuil 5%, d’où les résidus sont
non corrélés.

99
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Table 4.32: Corrélogramme de la série résiduelle

On conclut que les résidus forment un bruit blanc. Il reste à savoire si la distribution de
ce bruit est gaussienne ou pas.

Test de Normalité sur les résidus


De l’histogramme de la série résiduelle (Figure 4.15), on constate que la statistique de
Jarque et Berra égale à 6:793 est supérieure à la valeur critique tabulé de la Khi-deux
2
0:95 (2) = 5:99. Donc on rejette l’hypothèse de normalité des résidus.

Figure 4.15: Histogramme de la série résiduelle.

Du corrélogramme des résidus aux carrés (Table 4.33), on remarque que les carrés des
résidus sont non corrélés entre eux, ce qui signi…e une absence d’un e¤et ARCH.

100
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Table 4.33: Corrélogramme des carrés des résidus

Pour con…rmer absence de l’e¤et ARCH sur les résidus, on va applique son test.

Test d’e¤et ARCH


On accepte l’hypothèse d’homoscédasticité (la variance est constante), car la statistique
du test K R2 = 4:038 (K: nombre d’observation) qui est inférieure à 2
0:95 (2) = 5; 99:

Table 4.34: Résultats du test d’e¤et ARCH sur la série résiduelle

On conclut que le modèle estimé SARIM A(7; 0; 3)(3; 1; 0)6 est valide pour représenter

101
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

la série GSLt et il s’ecrit comme suit

1 1:33L1 + 0:73L2 0:15L7 1 L6 1 + 0:77L6 + 0:29L12 + 0:41L18 GSLt

+ exp 0:0003589t 1:824 10 6 t2 = 1 + 1:12L1 0:57L2 0:29L3 "t


Prévision
Les prévisions de la série GSLt pour un horizon h = 12 sont données dans le tableau suivant

Table 4.35: Prévisions calculées à partir du modèle estimé (unité de mesure TM )


Dates Valeurs Prévisionnelles
Janv-17 227831:42
Févr-17 216366:48
Mars-17 236102:60
Avr-17 249415:55
Mai-17 260464:88
Juin-17 241742:43
Juil-17 227357:35
Août-17 250140:12
sept-17 226269:72
Oct-17 243378:27
Nov-17 238992:13
Déc-17 248562:17

Figure 4.16: Graphe de la série réelle GSLt avec les prévisons.

4.4.3 La série des ventes d’essence sans plomb


La série P Bt représente l’évolution mensuelle de la vente d’essence sans plomb dans la
région centre du pays, sur une période allant de janvier 2000 à décembre 2016.

102
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

L’analyse de la série brute

Figure 4.17: Représentation graphique de la série P B t

Il faut savoir que l’augmentation des ventes d’essence sans plomb est le résultat des
mesures développées par le gouvernement visant à réduire la pollution atmosphérique par
le plomb émanant du tra…c urbain, à travers la généralisation progressive de l’utilisation de
l’essence sans plomb en Algérie. A titre d’exemple, citons le programme de réhabilitation
des ra¢ neries d’Alger, d’Arzew et de Skikda dont l’achèvement a pour …nalité, dans le court
terme, une augmentation des capacités de production d’essence sans plomb.

De la représentation graphique (Figure 4.17)de la série P Bt présente une non stationnarité


au sens de la moyenne et la variance, caractérisée par une variabilié par rapport au temp.

On va appliquer une transformatoin logarithmique pour stabiliser la variance, le graphe


de la série transformée noté LP Bt est donnée par la Figure (4.18).

Figure 4.18: Représentation graphique de la série LP Bt transformée

103
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

On remarque que la transformation diminue l’hétéroscédasticité et stabilise la variance.

Table 4.36: Corrélogramme de la série LP Bt

A vu d’oeil, la série LP Bt n’est pas stationnière. En e¤et, la fonction d’autocorrélation


simple ne décroît pas de manière rapide vers zéro et le premier terme du corrélogramme par-
tiel est très important (0:977): Ceci me mène à tester l’existence d’une tendance déterministe
ou stochastique par l’emploi du test de racine unitaire.

Test de saisonnalité
Le test de Fisher va nous permettre d’a¢ rmer ou d’in…rmer l’hypothèse de saisonnalité
d’ordre 6.

Table 4.37: Test de Fisher appliqué à la série LP Bt

Test d’in‡uence de facteur ligne (mois):

104
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Fcal = 5:756 > Ftab = 2:268; on rejette H0 , donc la série est saisonnière.

Test d’in‡uence de facteur colonne (années):

Fcal = 1165:4 > Ftab = 1:507; on rejette H0 , donc la série est tendancielle.

Désaisonnalisation de la série LP Bt
À …n de traiter l’e¤et saisonnier sur la série LP Bt , on va appliquer l’opérateur de dif-
férenciation saisonnière d’ordre 6 en utilisant la formule suivante

Notons DLP Bt la série désaisonnalisée

DLP Bt = LP Bt LP Bt 6 = (1 L6 )LP Bt

La représentation graphique et le corrélogramme de la série di¤érenciée sont respective-


ment donées par Figure (4.19) et la Table (4.38).

Figure 4.19: Représentation graphique de la série DLP Bt di¤érenciée

105
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Table 4.38: Corrélogramme de la série DLP Bt di¤érenciée

Du corrélogramme, on constate des pics importants aux retards p=1, 6, 12, ... ce que
laisse supposer que la série reste encore saisonnière. Par conséquent, on teste la saisonnalité
une deuxieme fois.

Table 4.39: Test de Fisher appliqué à la série DLP Bt

Test d’in‡uence de facteur ligne (mois):


Fcal = 0:059 < Ftab = 2:270; on accepte H0 , donc la série n’est pas saisonnière.

Test d’in‡uence de facteur colonne (années):


Fcal = 0:0259 < Ftab = 1:516; on accepte H0 , donc la série n’admet pas une tendance.

Maintenant il me reste de veri…e si la stationnarité de la série ou pas par le test de racine


unitaire.

106
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Test de Dikey Fuller


On applique le test de Dikey Fuller sur la série, qui nécessite tout d’abord de sélectionner
le nombre de retard p qui minimise le critère d’Akaïke ou celui de Schwarz, on prend la valeur
p = 6. On va estimer les paramétres des trois modèles.

On commence séquentiellement par le modèle qui contient la tendance, la constante et


les coe¢ cients.
P
6
Modèle (3) : DLP Bt = DLP Bt 1+ i DLP Bt i + t + c + "t
i=1

Le résultat de l’a¢ chage pour la série DLP Bt est reproduit sur la …gure.

Table 4.40: Résultats du test ADF pour le Modéle (3)

On remarque que la statistique t ^ = 5:76 est inférieure à 3:433 au seuil 5%. l’hypothèse
H0 est rejetée, donc la série ne posséde pas de racine unitaire.

En faisant un test de Student pour tester la signi…cativité de la tendance, la t-statistique


de Student associee à la tendance est égale en valeur absolue à 3:782 qui est supérieure à la
valeur tabulée 1:96, donc on rejette H0 , le processus est de type TS.

Donc pour stationnariser cette série il faut faire un ajustement.

107
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Estimation de la tendance
On a estimé un polynome d’ajustement d’ordre 1 y (t) qui est donné par

y (t) = 0:302 0:001361t

Par suite, on retranche la tendance

DLP BTt = DLP Bt y(t)

Figure 4.20: Graphe de DLP Bt avec ajustement.

Table 4.41: Corrélogramme de la série DLP BTt

Finalement, on conclut que la série DLP BTt est st ationnaire

108
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Identi…cation et Estimation du modèle


Identi…cation
Après la stationnarisation de la série brute, il convient maintenant d’estimer le modèle
susceptible. D’après le corrélogramme simple et partiel de la série stationnaire, on remarque
que la fonction d’autocorrélation simple et partielle possède des pics importants pour les
retards 1; 6; 12; 18; ::: On a trouvé le modéle admissible SARIM A(2; 0; 2) (5; 1; 0)6 ; le résultat
de l’esimation est donné dans la Table (4.42).

Table 4.42: Résultat d’estimation du modèle SARIM A(2; 0; 2)(5; 1; 0)6

Validation du modèle
Test sur les paramètres
On constate que tous les paramètres du modèle sont signi…cativement di¤érents de zéro.
En e¤et les statistique de Student associées à chaque coe¤…cient sont en valeur absolue
supérieurs à 1:96, ce qui est con…rmé par les probabilités de nullité des coe¢ cients qui sont
tous inférieurs à 0:05:

109
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Figure 4.21: Représentation graphique des inverses des racines.

Table 4.43: Racines des polynômes caractéristique.

Les racines des deux polynômes autoregressif et moyenne mobile sont supérieures en
module à 1, car leurs inverses calculés par EVIEWS 8 sont tous inférieurs à 1 (voir Figure
4.43), ainsi les conditions de stationnarité et d’inversibilité sont véri…ées.

Tests sur les résidus


A partir de la représentation graphique des séries estimés, réelle et celle des résidus
(Figure 4.22), on trouve que le modèle estimé ajuste bien la série des ventes d’essence sans
plomb car les graphes de la série réelle et de la série estimée évoluent de la même manière
dans le temps.

110
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Figure 4.22: Représentation graphique des séries estimés, réelle et celle des résidus

Test de nullité de la moyenne


On accepte l’hypothèse de nullité de la moyenne des résidus, car la statistique de student
jSt j = 0:619 est inférieure à 1:96 (voir Table 4.31).

Table 4.44: Test de la nullité de la moyenne

Test de Ljung-Box
Du corrélogramme de la série résiduelle calculée à partir du modèle SARIMA estimé
(Table 4.45), on remarque que la majorité des termes d’autocorrélation et autocorrélation
partielle sont à l’intérieur de l’intervalle de con…ance. De plus, on remarque que la statistique
de Ljung-Box (Q-stat) associé à l’ordre d’autocorrélation h = 34 est égale à Qstat = 31:713:
2
qui est inférieure à la valeur théorique du 0:95 (34 8) = 38:88 au seuil 5%, d’où les résidus
sont non corrélés.

111
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Table 4.45: Corrélogramme de la série résiduelle

On conclut que les résidus forment un bruit blanc. Il reste à savoire si la distribution de
ce bruit est gaussienne ou pas.

Test de Normalité sue les résidus


De l’histogramme de la série résiduelle (Figure 4.23), on constate que la statistique de
2
Jarque et Berra égale à 210:41 est supérieure à la valeur critique tabulé 0:95 (2) = 5:99: Donc
on rejette l’hypothèse de normalité des résidus.

Figure 4.23: Histogramme de la série résiduelle.

Du corrélogramme des résidus aux carrés (Table 4.46), on remarque que les carrés des
résidus sont non corrélés entre eux, ce qui signi…e une absence d’un e¤et ARCH.

112
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Table 4.46: Corrélogramme des carrés des résidus

Pour con…rmer l’abssance d’e¤et ARCH on va appliquer son test.

Test d’e¤et ARCH


On accepte l’hypothèse d’homoscédasticité (la variance est constante), car la statistique
du test K R2 = 0:007 (voir Table 4.47) (K: nombre d’observation) qui est inférieure à
2
0:95 (1) = 3; 841:

Table 4.47: Résultats du test d’e¤et ARCH sur la série résiduelle

On conclut que le modèle estimé SARIM A(2; 0; 2) (5; 1; 0)6 est valide pour représenter

113
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

la série P Bt et il s’ecrit comme suit

1 0:69L1 0:19L2 1 L6 1 + 0:95L6 + 0:63L12 + 0:57L18 + 0:49L24 + 0:41L30 P Bt

+ exp (0:302 0:001361t) = 1 + 0:40L1 "t

Prévision

Une fois que le modèle est validé, nous pouvons faire des prévisions des valeurs futures pour
un horizon h. Pour cela, nous n’avons qu’à remplacer t par t + h dans l’équation. Les valeurs
prédites pour un horizon h = 12 de la série P Bt (i.e. de Jan 2017 à Déc 2017) sont données
dans la Table (4.48).

Table 4.48: Prévisions calculées à partir du modèle estimé (unité de mesure TM )


Dates Valeurs Prévisionnelles
Janv-17 53968.56
Févr-17 52600.53
Mars-17 55800.59
Avr-17 54402.12
Mai-17 57187.55
Juin-17 56495.79
Juil-17 61573.63
Août-17 59747.98
sept-17 57982.37
Oct-17 56165.70
Nov-17 54975.45
Déc-17 61233.38

114
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Figure 4.24: Graphe de la série réelle P Bt avec les prévisons.

4.4.4 La série des ventes d’essence super


La série SP Rt représente l’évolution mensuelle de la vente d’essence super dans la région
centre du pays, sur une période allant de janvier 2000 à décembre 2016.
L’analyse de la série brute

Figure 4.25: Représentation graphique de la série SP Rt

Il est important de noter que l’accroissement des ventes d’essence super est due à l’augmentation
du parc automobile national, qui a atteint à l’heure actuelle plus de 5 millions de véhicules.

De la représentation graphique (Figure 4.25) la série SP Rt présente une non stationnarité


au sens de moyenne et de la variance, caractérisé par une variabilié par rapport au temp.

115
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

On va applique une transformation logarithmique. Le graphe de la série tranformée notée


LSP Rt est donnée par la Figure (4.26)

Figure 4.26: Représentation graphique de la série transformée LSP Rt

On remarque que la transformation diminue l’hétéroscédasticité et stabilise la variance.

Table 4.49: Corrélogramme de la série LSP Rt

A vu d’oeil, la série LSP Rt n’est pas stationnière. En e¤et, la fonction d’autocorrélation


simple ne décroît pas de manière rapide vers zéro et le premier terme du corrélogramme
partiel est très important (0:981): Ceci nous mène à tester l’existence d’une tendance déter-
ministe ou stochastique par l’emploi du test de racine unitaire.

116
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Test de Dickey Fuller Augmenté


On applique le test de Dikey Fuller sur la série, qui nécessite tout d’abord de sélectionner
le nombre de retard p qui minimise le critère d’Akaïke ou celui de Schwarz. On prend la
valeur p = 12. On va estimer les paramétres des trois modèles.

On commence séquentiellement par le modèle qui contient la tendance, la constante et


les coe¢ cients.
P
12
Modèle (3) : LSP Rt = LSP Rt 1+ i LSP Rt i + t + c + "t
i=1

Table 4.50: Résultats du test ADF pour le Modèle (3)

Le test montre que la statistique t ^ = 0:962 est supérieure à la valeur critique 3:433
relative au seuil 5%. Par consequent, l’hypothèse H0 est acceptée, donc la série LSP Rt
possède de racine unitaire.

Il nous faut donc à présent tester la nullité du coe¢ cient de la tendance conditionnelle-
ment à la présence d’une racine unitaire. On a ecrit un programme pour obtenir la valeur
de la statistique de Fisher qui est égale à 0:818; est inférieure à la valeur critique 6:34 tabulé
par Dickey Fuller relative au seuil 5%: Ainsi, on accepte l’hypothèse nulle ( ; c; ) = (0; c; 0).
Il faut donc recommencer ce test à partir du modèle incluant uniquement une constante.
P
12
Modèle (2): LSP Rt = LSP Rt 1+c+ i LSP Rt i + "t
i=1

117
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Table 4.51: Résultats du test ADF pour le Modèle (2)

Le test montre que la statistique t ^ = 0:976 est supérieure à la valeur critique 3:876
relative au seuil 5%. Par consequent, l’hypothèse H0 est acceptée, donc la série LSP Rt
possède de racine unitaire.

Il nous faut donc à présent tester la nullité du coe¢ cient de la constante conditionnelle-
ment à la présence d’une racine unitaire. On a ecrit un programme pour obtenir la valeur
de la statistique de Fisher qui est égale à 3:458 est inférieure à la valeur critique 4:63 tabulé
par Dickey Fuller relative au seuil 5%: Ainsi, on accepte l’hypothèse nulle (c; ) = (0; 0). Il
faut donc recommencer ce test à partir du modèle (1) sans constante, ni tendance.
P
12
Modèle (1) : LSP Rt = LSP Rt 1+ i LSP Rt i + "t
i=1

118
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Table 4.52: Résultats du test ADF pour le Modèle (1)

Le test montre que la statistique t ^ = 2:382 est supérieure à la valeur critique 1:942
relative au seuil 5%. Par consequent, l’hypothèse H0 est acceptée, donc la série LSP Rt
possède de racine unitaire.

Finalement, selon le test de Dickey Fuller Augmenté, on conclut que notre série est issue
d’un processus non stationnaire, de type I(1) et peut être représentée par une pure marche
aléatoire.

Donc, on va appliquer l’opérateur de di¤érenciation ordinaire selon la formule suivante :

DLSP Rt = LSP Rt LSP Rt ( 1)

La représentation graphique et le corrélogramme de la série di¤érenciée sont donées,


respectivement, par la Figure (4.27) et la table (4.53).

119
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Figure 4.27: Représentation garaphique de la série DLSP Rt

Table 4.53: Corrélogramme de la série DLSP Rt

Le corrélogramme simple (Figure 4.53), montre des retards importants aux niveaux des
termes 6; 12; 18; ::: qui sont multiples de 6: Le corrélogramme partiel attribut des pics signi-
…catifs pour quelques retards.

Pour a¢ rmer ou in…rmer l’existence d’une saisonnalité d’ordre 6, nous appliquons le test
de Fisher à la série DLSPR, les réssultats du test sont donnés dans la Table (4.54).

120
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Table 4.54: Test de Fisher appliqué à la série DLSP Rt

Test d’in‡uence de facteur ligne (mois):


Fcal = 4:058 > Ftab = 2:270; on rejette H0 , donc la série est saisonnière.

Test d’in‡uence de facteur colonne (années):


Fcal = 0:153 < Ftab = 1:516; on rejette H0 , donc la série n’est pas tendancielle.
Désaisonnalisation de la série DLSP Rt
À …n de traiter l’e¤et saisonnier sur la série DLSP Rt , on va appliquer l’opérateur de
di¤érenciation saisonnière d’ordre 6 en utilisant la formule suivante:

Notons DSP Rt la série désaisonnalisée

DSP Rt = DLSP Rt DLSP Rt 6 = (1 L6 )DLSP Rt

La représentation graphique et le corrélogramme de la série di¤érenciée sont, respective-


ment, données par la Figure (4.28) et la table (4.55).

Figure 4.28: Représentation graphique de la série désaisonnalisée DSP Rt

121
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Table 4.55: Corrélogramme de la série désaisonnalisée DSP Rt

Une deuxième application du test de saisonnalité nous permet de nous assurer, si l’e¤et
saisonnier a disparu.

Table 4.56: Test de Fisher appliqué à la série DSP Rt

Test d’in‡uence de facteur ligne (mois):


Fcal = 0:021 < Ftab = 2:272; on rejette H0 , donc la série n’est pas saisonnière.

Test d’in‡uence de facteur colonne (années):


Fcal = 0:111 < Ftab = 1:525; on rejette H0 , donc la série n’est pas tendancielle.

Finalement,nous pouvons conclure que la série DSP Rt est stationnaire. il convient à


présent de passer à la phase d’identi…cation et estimation du modèle.

Remarque 5
Concernant cette série (SP Rt ); l’application de la même procédure que les autres série (i.e.

122
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

di¤érenciation saisonnière puis l’application du test de Duckey Fuller) ne mène pas à un


modèle adéquat, c’est pour cela on a traité inversement, la racine unitaire ensuite la saison-
nalité.

Identi…cation et Estimation du modèle


Après la stationnarisation de la série brute, il convient maintenant d’estimer le modèle
susceptible. De l’examen du corrélogramme simple et partiel de cette série (Table 4.55), on
remarque que la fonction d’autocorrélation simple et partielle possède des pics importants
pour les retards 1; 6; 11; 12; 13; ::: On a procédé à l’etimation des paramètres d’un modéle
SARIMA, où on a réussi à trouver qu’un seul modèle admissible SARIM A(0; 1; 13) (1; 1; 1)6 .
Le résultat de l’estimation est donné dans la Table (4.57).

Table 4.57: Résultat d’estimation d’un modèle SARIM A(0; 1; 13)(1; 1; 1)6

La validation du modèle

Test sur les paramètres


On constate que tous les paramètres du modèle sont signi…cativement di¤érents de zéro
(voir Table 4.57). En e¤et, les statistique de Student associées à chaque coe¤…cient sont
en valeur absolue supérieurs à 1:96, ce qui est con…rmé par les probabilités de nullité des
coe¢ cients qui sont toutes inférieurs à 0:05:

Les racines des deux polynômes autoregressif et moyenne mobile sont supérieures en
module à 1, car leurs inverses calculés par EVIEWS 8 sont tous inférieurs à 1 (voir Figure

123
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

4.58). Ainsi, les conditions de stationnarité et d’inversibilité sont véri…ées.

Figure 4.29: Réprésentation graphique des inverses des racines.

Table 4.58: Racines des polynômes caractéristiques.

Test sur les résidus


A partir de la représentation graphique de la série estimé, réelle et celle des résidus
(Figure 4.30), on remarque que le modèle explique bien la série.

124
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Figure 4.30: Représentation graphique des séries estimés, réelle et celle des résidus

Test de nullité de la moyenne


On accepte l’hypothèse de nullité de la moyenne des résidus, car la statistique de student
jSt j = 1:172 est inférieure à 1:96 (voir Table 4.59).

Table 4.59: Test de la mullité de la moyenne

Test de Ljung-Box
Du corrélogramme de la série résiduelle calculée à partir du modèle SARIMA estimé
(Table 4.60), on remarque que tout les termes d’autocorrélation et autocorrélation partielle
sont à l’intérieur de l’intervalle de con…ance. De plus, on remarque que la statistique de
Ljung-Box (Q-stat) associé à l’ordre d’autocorrélation h = 30 est égale à Qstat = 31:675; qui
2
est inférieure à la valeur théorique du 0:95 (30 5) = 37:65 au seuil 5%. D’où, les résidus
sont non corrélés.

125
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Table 4.60: Corrélogramme de la série résiduelle

On conclut que les résidus forment un bruit blanc. Il reste à savoire si la distribution de
ce bruit est gaussienne ou pas.

Test de Normalité sue les résidus


De l’histogramme de la série résiduelle (Figure 4.31), on constate que la statistique de
2
Jarque et Berra égale à 6:959 est supérieure à la valeur critique tabulé 0:95 (2) = 5:99: Donc
on rejette l’hypothèse de normalité des résidus.

Figure 4.31: Histogramme de la série résiduelle.

Du corrélogramme des résidus aux carrés (Table 4.61), on remarque que les carrés des
résidus sont non corrélés entre eux, ce qui signi…e une absence d’un e¤et ARCH.

126
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

Table 4.61: Corrélogramme des carrés des résidus

Pour con…rmer absence de l’e¤et ARCH sur les résidus, on va applique son test.

Test d’e¤et ARCH


On accepte l’hypothèse d’homoscédasticité (la variance est constante), car la statistique
du test K R2 = 0:003 (voir Table 4.62) qui est inférieure à 2
0:95 (1) = 3; 841:

Table 4.62: Résultats du test d’e¤et ARCH sur la série résiduelle

On conclut que le modèle estimé SARIM A(0; 1; 13) (1; 1; 1)6 est valide pour représenter

127
4.4. Application de la modélisation SARIMA à la modilisation de la vente du carburant

la série SP Rt et il s’ecrit comme suit :

1 L6 (1 L) 1 + 0:52L6 SP Rt = 1 0:268L11 0:266L13 1 L6 " t


Prévision
Une fois que le modèle est validé, nous pouvons faire des prévisions des valeurs futures
pour un horizon h. Pour cela, nous n’avons qu’à remplacer t par t + h dans l’équation. Les
valeurs prédites pour un horizon h = 12 de la série SP Rt (i.e. de Jan. 2017 à Déc. 2017)
sont données dans la Table (4.63).
Table 4.63: Prévisions calculées à partir du modèle estimé (unité de mesure TM )
Dates Valeurs Prévisionnelles
Janv-17 62872:89
Févr-17 63150:78
Mars-17 67512:34
Avr-17 67722:74
Mai-17 68831:81
Juin-17 66779:68
Juil-17 72638:16
Août-17 70512:48
sept-17 69359:76
Oct-17 68353:89
Nov-17 67123:51
Déc-17 70159:55

Figure 4.32: Graphe de la série réelle SP Rt avec les prévisions

128
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR

4.5 Modélisation de la série des ventes carburants par


la classe des modèles MPAR
Lorsque les autocorrélations ne dépendent pas que de l’écart mais dépendent aussi du
canal, la désaisonalisation au sens de Box et Jenkins ne su¢ t plus pour absorber la périod-
icité. Là, il faut faire appel à des modèles périodiques, i.e, ceux dont les coe¢ cients ne sont
plus constants, comme dans les modèles classiques, mais plutôt évolutifs dans le temps de
façon périodique.

Dans cette section, nous essaierons de modéliser, encore une fois, nos séries des ventes
carburants terre de la région centre du pays (EN ORt ; GSLt ; P Bt et SP Rt ), que nous avons
déjà modélisées par la classe des modèles SARIMA dans la section précédante. Pour ce faire,
nous avons établi un ensemble de programmes sous Matlab, a…n de

1. Tester la stationnarité au seconde ordre.

2. Estimer les paramètres des modèles par la méthode du maximum de vraisemblance via
l’algorithme EM.

3. Tester la signi…cativité des paramètres estimés en utilisant la matrice d’information de


Fisher.

4. Calculer le critère BIC des modèles candidats a…n de sélectionner le bon modèle.

5. Calculer la série ajustée ainsi que la série résiduelle.

6. Appliquer le test de la nullité de la moyenne.

7. Appliquer le test de portemanteau.

8. Calculer la fonction prédictive à un seul pas.

4.5.1 Modélisation de la série SP Rt


A partir de l’histogramme de la série SP Rt (Figure 4.33), nous constatons que la distri-
bution empirique de notre série est multimodale, ce qui nous conduit à utiliser la classe de
mélange de modèle autorégressifs périodique (MPAR) pour modéliser la série DSP Rt dé…nie
par DSP Rt = log SP Rt log SP Rt 1 :

129
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR

Figure 4.33: Histogramme de la série SP Rt et DSP Rt

Identi…cation
Nous avons utilisé le critère BIC pour identi…er le meilleur modèle MPAR qui représente
bien la série du rendement (di¤érenciation logarithmique). Nous avons estimé plusieurs
modèles MPAR 6-périodique candidats. Dans la Table (4.64), nous avons présenté quelques
modèles estimés avec leurs BIC :
Table 4.64: Les valeurs du critère BIC des di¤érents modèles estimés
Modèle BIC
M P AR6 (2; 3; 3) 562; 015
M P AR6 (2; 4; 4) 568; 877
M P AR6 (2; 2; 2) 686; 309
M P AR6 (3; 3; 3) 529; 450

Il est clair que le meilleur modèle MPAR estimé, selon le critère BIC ; est le modèle

130
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR

M P AR6 (2; 2; 2) dont les paramètres sont données dans la Table (4.65)
Table 4.65: Les paramètres du modèle M P AR6 (2; 2; 2)
(k) (k) (k) (k) (k)
s;0 s;1 s;2 s

s=1 0:0803 0:465 0:0179


(0:0120) (0:1458) (0:0036)

s=2 0:019 0:9320 1:4220 6:13e 17


(0:0001) (0:0010) (0:0002) (0:0010)
k=1 s=3 0; 36 0:406 0:264 0; 0169
(0:0416) (0:0670) (0:0878) (0:0031)
s=4 0:041 0:499 0:2335 0; 0082
(0:0043) (0:1058) (0:0293) (0:0020)
s=5 0:009 0:4113 0; 0054
(0:0021) (0:0744) (0:0014)
s=6 0:0651 0; 0795
(0:0208) (0:0141)
s=1 0:067 0; 0416
(0:0131) (0:0093)
s=2 0:791 0:708 0; 0532
(0:1547) (0:1485) (0:0069)
k=2 s=3 0; 64 0:043 0:572 0:617 0; 0078
(0:0416) (0:0030) (0:0366) (0:0486) (0:0023)
s=4 0:3800 0; 0533
(0:1553) (0:0080)
s=5 0:878 0; 0356
(0:1295) (0:0054)
s=6 0:0449 0:3359 0:5694 0; 0077
(0:0025) (0:0609) (0:0603) (0:0028)

Validation du modèle
A…n de pouvoire valider le modèle M P AR6 (2; 2; 2), nous allons appliquer les di¤érent
tests suivant

Test sur les paramètres


Nous avons
Q
6
PE [2]
A6
= 0:0102 < 1
s=0 s jSt =

(le calcul a été fait à l’aide d’un programme sur matlab), donc d’après le théorème (13), les
paramétres estimés véri…ent la condition de stationnarité périodique du seconde ordre. Par
conséquent, le modèle est périodiquement stationnaire. De plus, les paramètres estimés non
nuls (voir Table 4.65), sont tous signi…cativement di¤érents de zéro, cela a été con…rmé par
le test de Student en utilisant la matrice d’information de Fisher.

Test sur les résidus


Pour qu’on puisse faire nos tests sur les résidus, on doit d’abord calculer la série résiduelle

131
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR

"^t standardisé qui est donnée par la formule suivante

(k) ys+ S y^s+ S


"^s+ S = (k)
; k = 1; :::; K
^s

(l) (k)
y^s+ S = E ys+ S Ft 1 ; max s+ S = s+ S ,
1 l K
s
(l) (k)
^s(k) = var ys+ S Ft 1 ; max s+ S = s+ S :
1 l K

Figure 4.34: corrélogramme de la série résiduelle

Le corrélogramme des résidus (Figure 4.34), montre que les résidus peuvent être considérés
comme un bruit blanc car presque tous les pics sont à l’intérieur de l’intervalle de con…ance.

Pour con…rmer l’hypothèse de non corrélation des résidus, on applique le test de Ljung-
Box. La statistique du test pour un retard h = 50, Qstat est égale à 60:42 qui est inférieure à
2
la valeur tabulée, 50 = 67:50 au seuil 5%; ce qui nous permet de conclure la non corrélation
de la série résiduelle.

Test de nullité de la moyenne des résidus


La statistique de Student est donnée par

p
t_stat = "t n p = 0:2743

132
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR

qui est inférieure à la valeur critique 1:96 au seuil 5%: Par consequent, on accepte l’hypothèse
de la nullité de la moyenne des résidus.

Figure 4.35: Représentation graphique de la série réelle et ajustée

4.5.2 Modélisation de la série P Bt


A partir de l’histogramme de la série P Bt (Figure 4.36), nous constatons que la distri-
bution empirique de notre série est multimodale, ce qui nous conduit à utiliser la classe de
mélange de modèle autorégressifs périodique (MPAR) pour modéliser la série DP Bt dé…nie
par DP Bt = log P Bt log P Bt 1 :

Figure 4.36: Histogramme de la série P Bt et DP Bt

Identi…cation
Dans cette série du rendement, nous avons également utilisé le même critère BIC pour
identi…er les ordres du meilleur modèle à estimer. On a estimé plusieurs modèles MPAR 12-
périodique candidats. Dans la Table (4.66), nous avons présenté quelques modèles estimés

133
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR

avec leurs BIC :


Table 4.66: Les valeurs du critère BIC des di¤érents modèles estimés
Modèle BIC
M P AR12 (2; 1; 1) 723; 782
M P AR12 (3; 1; 1; 1) 134; 686
M P AR12 (2; 3; 3) 665; 823

Le meilleur modèle MPAR estimé, selon le critère BIC est le modèle M P AR12 (2; 1; 1) :
Table 4.67: Les paramètres du modèle M P AR12 (2; 1; 1)
(1) (1) (1) (1) (2) (2) (2) (2)
s;0 s;1 s s;0 s;1 s

s=1 0; 0590 0; 1595 0:257 0; 0163


(0:0138) (0:0108) (0:0388) (0:0065)
s=2 0; 1099 0:857 0; 0305 0; 1524 0:3814 5; 52e 15
(0:0083) (0:0540) (0:0058) 0:0000 (0:0000) (0:0000)
s=3 0; 072 0; 0563 0; 017 0:121 0; 0053
(0:0263) (0:0116) (0:0052) (0:0167) (0:0020)
s=4 0; 0809 0:663 0; 0205 0; 0466 0:4411 0; 0006
(0:0071) (0:0953) (0:0040) (0:0003) (0:0095) (0:0002)
s=5 0; 0753 0:390 0; 0087 0; 0461
(0:0052) (0:0458) (0:0017) (0:0197)
s=6 0; 738 0; 2256 1:421 0; 0405 0; 2623 0; 1099 0:437 0; 0175
(0:0342) (0:0222) (0:4683) (0:0095) (0:0342) (0:0084) (0:1540) (0:0063)
s=7 0; 0573 0; 2056 0:826 0; 0065
(0:0125) (0:0071) (0:0376) (0:0023)
s=8 0; 0610 0; 215 0:609 0; 0062
(0:0144) (0:0028) (0:0402) (0:0017)
s=9 0:698 0; 0425 0; 059 0:305 0; 0038
(0:1300) (0:0091) (0:0021) (0:0150) (0:0014)
s = 10 0; 051 0; 0525 0; 046 3:8618 1; 46e 14
(0:0155) (0:0103) (0:0000) (0:0000) (0:0000)
s = 11 0; 0416 0:211 0; 0216 0; 1241
(0:0070) (0:0295) (0:0047) (0:0452)
s = 12 0; 0835 0:784 0; 1027 0; 422 1:1880 0; 0880
(0:0376) (0:3649) (0:0240) (0:0454) (0:4716) (0:0322)

Validation du modèle
Test sur les paramètres
Nous avons
Q
6
PE [2]
A6
= 1:76e 9<1
s=0 s jSt =

donc d’après le Théorème 13, les paramétres estimés véri…ent la condition de stationnarité
périodique du seconde ordre. Par conséquent, le modèle M P AR12 (2; 1; 1) est périodique-
ment stationnaire. De plus, les paramètres estimés non nuls (voir Table 4.67), sont tous
signi…cativement di¤érents de zéro, cela a été con…rmé par le test de Student en utilisant la
matrice d’information de Fisher.

134
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR

Test sur les résidus


Le corrélogramme de la série résiduelle (Figure 4.37), montre que les résidus peuvent être
considérés comme un bruit blanc, car presque tous les pics sont à l’intérieur de l’intervalle
de con…ance.

A…n de con…rmer l’hypothèse de non corrélation des résidus, on applique le test de Ljung-
Box. La statistique du test pour un retard h = 60, Qstat est égale à 55:35 qui est inférieure à
2
la valeur tabulée 60 = 79:08 au seuil 5%; ce qui nous permet de conclure la non corrélation
de la série résiduelle.

Figure 4.37: corrélogramme de la série résiduelle

Test de nullité de la moyenne des résidus


La statistique de Student est donnée par

p
t_stat = "t n p = 0:0238

qui est inférieure à la valeur critique 1:96 au seuil 5%: Par consequent, on accepte l’hypothèse
de la nullité de la moyenne des résidus.

135
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR

Figure 4.38: Représentation graphique de la série réelle et ajustée

4.5.3 Modélisation de la série GSLt


A partir de l’histogramme de la série GSLt (Figure 4.39), nous constatons que la distri-
bution empirique de notre série est multimodale, ce qui nous conduit à utiliser la classe de
mélange de modèle autorégressifs périodique (MPAR) pour modéliser la série DGSLt dé…nie
par DGSLt = log GSLt log GSLt 1 :

Figure 4.39: Histogramme de la série P Bt et DP Bt

Identi…cation
Nous avons utilisé le critère BIC pour identi…er le meilleur modèle MPAR qui représente
bien la série étudiée. Nous avons estimé plusieurs modèles MPAR 6-périodique candidats.
La Table (4.68) présente quelques modèles estimés avec leurs BIC :
Table 4.68: Les valeurs du critère BIC des di¤érents modèles estimés
Modèle BIC
M P AR6 (3; 1; 1; 1) 410; 197
M P AR6 (2; 3; 3) 470; 506
M P AR6 (2; 2; 2) 468; 321

136
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR

Il est clair que le meilleur modèle MPAR estimé, selon le critère BIC ; est le modèle
M P AR6 (2; 3; 3) :
Table 4.69: Les paramètres du modèle M P AR6 (2; 3; 3)
(k) (k) (k) (k) (k) (k)
s;0 s;1 s;2 s;3 s

s=1 0; 052 0:7069 0; 0263


(0:0091) (0:1726) (0:0045)
s=2 1:726 0:983 0:971 0; 0694
(0:4104) (0:3390) (0:4211) (0:0117)
k=1 s=3 0; 49 0; 015 0:477 0:477 0; 0149
(0:0496) (0:0055) (0:0650) (0:1058) (0:0038)
s=4 0; 009 0:693 0:219 0:489 0; 0097
(0:0039) (0:0579) (0:0463) (0:0999) (0:0023)
s=5 0; 014 1:422 1:157 0:5398 0; 0088
(0:0036) (0:0470) (0:0466) (0:0409) (0:0022)
s=6 0; 0608
(0:0123)
s=1 0; 0412 0:774 0:372 0; 0184
(0:0059) (0:1220) (0:1300) (0:0041)
s=2 0:993 0:572 0; 0103
(0:0449) (0:0522) (0:0030)
k=2 s=3 0; 51 0; 0521 0:442 0; 0446
(0:0496) (0:0157) (0:2024) (0:0087)
s=4 0; 0599
(0:0101)
s=5 0; 0354 0:357 0:446 0:162 0; 0221
(0:0075) (0:1201) (0:1912) (0:0771) (0:0035)
s=6 0:7925 0:8197 0; 0223
(0:1759) (0:1606) (0:0061)

Validation du modèle
A…n de pouvoire valider le modèle M P AR6 (2; 3; 3), nous allons appliquer les di¤érent
tests suivant

Test sur les paramètres


Nous avons
Q
6
PE [2]
A6
= 0:1403
s=0 s jSt =

donc d’après le Théorème 13, les paramétres estimés véri…ent la condition de stationnarité
périodique du seconde ordre. Par conséquent, le modèle est périodiquement stationnaire. De
plus, les paramètres estimés non nuls (voir Table 4.69), sont tous signi…cativement di¤érents
de zéro, celà a été con…rmé par le test de Student en utilisant la matrice d’information de
Fisher.

Test sur les résidus


Le corrélogramme des résidus (Figure 4.40) montre que les résidus peuvent être considérés

137
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR

comme un bruit blanc car presque tous les pics sont à l’intérieur de l’intervalle de con…ance.

A…n de con…rmer l’hypothèse de non corrélation périodique des résidus, on applique le


test de Ljung-Box. La statistique du test pour un retard h = 40, Qstat est égale à 45:49 qui
2
est inférieure à la valeur tabulée 40 = 55:75 au seuil 5%; ce qui nous permet de conclure la
non corrélation de la série résiduelle.

Figure 4.40: corrélogramme de la série résiduelle

Test de nullité de la moyenne des résidus


La statistique de Student est donnée par

p
t_stat = "t n p = 0:0022

qui est inférieure à la valeur critique 1:96 au seuil 5%: Par consequent, on accepte l’hypothèse
de la nullité de la moyenne des résidus..

138
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR

Figure 4.41: Représentation graphique de la série réelle et ajustée

4.5.4 Modélisation de la série EN ORt


A partir de l’histogramme de la série EN ORt (Figure 4.42), nous constatons que la
distribution empirique de notre série est multimodale, ce qui nous conduit à utiliser la classe
de mélange de modèle autorégressifs périodique (MPAR) pour modéliser la série DEN ORt
dé…nie par DEN ORt = log EN ORt log EN ORt 1 :

Figure 4.42: Hstogramme de la série EN ORt et DEN ORt

Identi…cation
Nous avons utilisé le critère BIC pour identi…er le meilleur modèle MPAR qui représente
bien la série étudiée. On a estimé plusieurs modèles MPAR 12-périodique candidats. La
Table (4.70) présente quelques modèles estimés avec leurs BIC :
Table 4.70: Les valeurs du critère BIC des di¤érents modèles estimés
Modèle BIC
M P AR12 (2; 1; 1) 3634:80
M P AR12 (2; 2; 2) 3648:90
M P AR12 (2; 3; 3) 3626:40

139
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR

Il est clair que le meilleur modèle MPAR estimé, selon le critère BIC ; est le modèle
M P AR12 (2; 3; 3) :

Table 4.71: Les paramètres du modèle M P AR12 (2; 3; 3)


(1) (1) (1) (1) (1) (1) (2) (2) (2) (2) (2) (2)
s s;0 s;1 s;2 s;3 s s;0 s;1 s;2 s;3 s

1 6335 1:81 2:18 2:03 423:1 0:262 0:462 360:1


(398:8) (0:125) (0:190) (0:282) (115:7) (0:122) (0:070) [96:91]

2 623:9 0:33 0:07 0:063 71:62 0:84 816:5


(67:21) (0:016) (0:013) (0:019) (22:12) (0:256) (208:2)

3 386:1 304:6 0:59 0:33 0:02 18:4


(89:95) (17:19) (0:170) (0:006) (0:004) (5:757)

4 1379 1:80 0:936 0:438 43:8 916:6 0:79 0:45 0:34 409:0
(50:05) (0:048) (0:034) (0:012) (14:08) (267:3) (0:332) (0:203) (0:122) (84:16)

5 900:2 1:06 0:70 198:7 482 0:45 116:0


(227:1) (0:117) (0:184) (49:56) (91:35) (0:051) (28:68)

6 0; 45 1651 1:47 988:4 0; 55 1035 1:409 1:94 139:8


(0:0381) (495:6) (0:714) (240:5) (0:0381) (73:82) (0:099) (0:142) (37:42)

7 692:4 0:32 0:297 0:225 10:88 616:5


(8:469) (0:003) (0:007) (0:005) (3:012) (136:8)

8 656:6 1:30 0:524 392:2 1558 1:43 0:20 371:9


(329:2) (0:209) (0:218) (100:1) (239:9) (0:317) (0:100) (87:73)

9 6567 0:54 1:781 0:413 182:2 0:34 0:95 0:69 427:6


(124:8) (0:068) (0:214) (0:065) (48:17) (0:156) (0:267) (0:185) (108:5)

10 0:242 0:195 0:42 281:2 14467 0:63 0:810 1:837 835:8


(0:118) (0:096) (0:190) (72:45) (516:9) (0:306) (0:368) (0:564) (220:7)

11 114:5 0:99 1:86 1:577 20:83 532:5 0:275 439:2


(20:19) (0:007) (0:020) (0:011) (7:616) (209:6) (0:108) (88:99)

12 5417 2:34 2:02 1:26 482:4 1:92 946:0


(257:1) (0:150) (0:148) (0:182) (132:9) (0:391) (235:1)

Validation du modèle
A…n de pouvoire valider le modèle M P AR12 (2; 3; 3), nous allons appliquer les di¤érent
tests suivant

Test sur les paramètres


Nous avons
Q
6
PE [2]
A6
= 0:0993 < 1
s=0 s jSt =

donc, d’après le théorème 13 les paramétres estimés véri…ent la condition de stationnarité


périodique du seconde ordre. Par conséquent, le modèle est périodiquement stationnaire. De
plus, les paramètres estimés non nuls (voir Table 4.71), sont tous signi…cativement di¤érents
de zéro, cela a été con…rmé par le test de Student en utilisant la matrice d’information de
Fisher.

140
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR

Test sur les résidus


Le corrélogramme des résidus (Figure 4.43), montre que les résidus peuvent être con-
sidérés comme un bruit blanc, car presque tous les pics sont à l’intérieur de l’intervalle de
con…ance.

A…n de con…rmer l’hypothèse de non corrélation des résidus, on applique le test de Ljung-
Box. La statistique du test pour un retard h = 30, Qstat est égale à 36:98 qui est inférieure à
2
la valeur tabulée, 30 = 43:77 au seuil 5%; ce qui nous permet de conclure la non corrélation
de la série résiduelle.

Figure 4.43: corrélogramme de la série résiduelle

Test de nullité de la moyenne des résidus


La statistique de Student est donnée par

p
t_stat = "t n p = 0:2121

qui est inférieure à la valeur critique 1:96 au seuil 5%: Par consequant, on accepte l’hypothèse
de la nullité de la moyenne des résidus.

141
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR

Figure 4.44: Représentation graphique de la série réelle et ajustée

4.5.5 Les distributions prédictives pour l’horizon un


Les …gures (4.45)-(4.48) permettent de voir les distributions prédictives d’un seul pas établir
à partir des modèles MPAR estimés aux instants (t = 120 et t = 150 pour la série SP Rt ,
t = 100 et t = 200 pour la série P Bt ; t = 130 et t = 140 pour la série GSLt et t = 110
et t = 170 pour la série EN ORt ). Dans ce cas d’application, les distributions prédictives
estimées présentent des changements dans la forme à travers le temps de la distribution
conditionnelle. Elle est parfois unimodale et d’autres fois bimodale.
La fonction prédictive pour l'horizon 1, à l'instant t=120 (DSPR)
35 La fonction prédictive pour l'horizon 1, à l'instant t=150 (DSPR)
35

30
30

25
25

20 20

15 15

10 10

5 5
y 120=0,0784 y 150=0,0613

0 0
-0.1 -0.05 0 0.05 0.1 0.15 0.2 0.25 -0.2 -0.15 -0.1 -0.05 0 0.05 0.1 0.15 0.2 0.25 0.3

Figure 4.45: Densité prédictive pour l’horizon 1 aux instants t = 120 et t = 150

142
4.5. Modélisation de la série des ventes carburants par la classe des modèles MPAR

La fonction prédictive pour l'horizon 1, à l'instant t=100 ( DPB ) La fonction prédictive pour l'horizon 1, à l'instant t=200 (DPB)
200 18

16

14
150
12

10
100
8

6
50
4

y 100=0.0506 2
y 200=-0,076

0 0
0.02 0.04 0.06 0.08 0.1 0.12 0.14 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3

Figure 4.46: Densité prédictive pour l’horizon 1 aux instants t = 100 et t = 200
La fonction prédictive pour l'horizon 1, à l'instant t=130 (DGSL) La fonction prédictive pour l'horizon 1, à l'instant t=140 (DGSL)
25 25

20 20

15 15

10 10

5 5
y 140=-0,0372
y 130=-0,0061

0 0
-0.2 -0.15 -0.1 -0.05 0 0.05 0.1 0.15 0.2 0.25 0.3 -0.25 -0.2 -0.15 -0.1 -0.05 0 0.05 0.1 0.15 0.2 0.25

Figure 4.47: Densité prédictive pour l’horizon 1 aux instants t = 130 et t = 140
-3 -3
x 10 La fonction prédictive pour l'horizon 1, à l'instant t=110 (DENOR) x 10 La fonction prédictive pour l'horizon 1, à l'instant t=170 (DENOR)
3 3

2.5 2.5

2 2

1.5 1.5

1 1

0.5 0.5
y 110=1638 y 170=932,8
0 0
-2000 -1500 -1000 -500 0 500 1000 1500 2000 2500 3000 -2000 -1500 -1000 -500 0 500 1000 1500 2000 2500 3000

Figure 4.48: Densité prédictive pour l’horizon 1 aux instants t = 110 et t = 170

143
Conclusion

Le marché algérien des hydrocarbures connaît une croissance relativement forte, ceci est
certainement dû à la croissance de la demande du produit, compte tenu de l’évolution con-
tinue du secteur des transports, l’augmentation du parc automobile national et l’accroissement
démographique. Pour ces raisons, de nombreuses …lières sont mises en avant a…n de prendre
la relève des carburants pétroliers, nous assistons ainsi à l’émergence de technologies énergé-
tiques moins polluantes qui feront des années à venir celles de la diversi…cation des sources
énergétiques renouvelables (éolienne, solaire,. . . ). En e¤et, la nécessité de prévoir un substi-
tut au pétrole, la place future de l’énergie nucléaire ou encore la possibilité de recourir aux
énergies alternatives constituent quelques-uns des grands questionnements qui structurent
aujourd’hui le débat énergétique.

Seulement, le secteur des hydrocarbures reste l’élément fondamental du secteur énergé-


tique et la colonne vertébrale de l’économie algérienne.

Par conséquent, NAFTAL doit prendre toutes les mesures qui s’imposent pour s’adapter
aux conditions de fonctionnement d’un marché compétitif, assurer le maintien de ses parts
de marché et poursuivre la croissance du niveau de ses activités.

Notre étude à porter donc sur l’analyse des séries chronologiques représentant l’évolution
les ventes des essences super, sans plomb, normale et de gasoil réalisées dans la région cen-
tre du pays. L’analyse permet de construire des modèle mathématique qui expliquera le
phénomène de l’évolution des ventes dans le temps. Nous avons proposé dans un premier
temps d’étudier ces séries à travers de l’approche économétriques basée sur la classe des
modèles SARIMA de Box et Jenkins et la classe du mélange de modèles autorégressifs péri-
odiques (MPAR). Cette dernière est adéquate pour capturer beaucoup de caractéristiques de
séries chronologiques, en particulier le changement de régime, la périodicité, les événements
extrêmes et la grande kurtosis.

144
4.6. Présentation de la méthode prévisionnelle appliquée par NAFTAL

4.6 Présentation de la méthode prévisionnelle appliquée


par NAFTAL
Les produits issus de l’exploitation des ressources nationales en gaz naturel et en pétrole
brut jouent un rôle majeur dans la satisfaction des besoins énergétiques du marché national.
La forte croissance économique et les grands projets lancés ont induit une demande accrue
et soutenue en produits pétroliers ra¢ nés.

A titre d’exemple, la consommation en carburants de type gasoil et essences (normale,


super et sans plomb) du parc automobile national a considérablement augmenté du fait de
l’acquisition de millions de nouveaux véhicules (légers et lourds).

La méthode utilisée à cet e¤et est empirique car elle se base principalement sur les taux
de croissance des ventes de carburants qui donnent la tendance générale de l’évolution de ces
ventes (hausse, baisse ou stabilité). Partant des informations extraites de l’historique des
ventes des produits carburants, NAFTAL procède à l’établissement de ses prévisions comme
suit

- Chaque année (au mois de septembre de l’exercice N), la Direction exécutive SPE
(Stratégie, Plani…cation et Economie) en concertation avec la Branche Commercialisa-
tion, arrête les prévisions de ventes au titre de la clôture de l’exercice N et les prévisions
initiales des cinq prochaines années.

- Les prévisions de l’exercice N+1 sont détaillées par la Branche Commercialisation par
produit et par wilaya, et consolidées par District Commercialisation, par centre de
distribution et par produit.

- La Direction Commercialisation établit la déglobalisation mensuelle par District Com-


mercialisation, par Centre De Distribution (CDD) et par produit de l’exercice N+1.

- Ces prévisions sont Communiquées à la Branche Carburants de NAFTAL.

- Une série de réunions régionales est organisée entre les Directions Exploitation de la
Branche Carburants et la Direction Approvisionnement et Distribution de la Branche
Commercialisation a…n d’arrêter la source d’approvisionnement des CDD en désignant
le CDS (Centre De Stockage) de rattachement.

145
4.6. Présentation de la méthode prévisionnelle appliquée par NAFTAL

- Ces prévisions d’approvisionnement constitueront la demande prévisionnelle du marché


national en carburants exprimée par la Branche Carburants auprès de SH/Com (SONATRACH
activité Commercialisation).

Après la modèlisation des di¤érents modèles (SARIMA et MPAR) pour les quatre séries
(SP Rt , P Bt ; GSLt et EN ORt ) nous pouvons maintenant comparer les prévisions de ces
modèles estimés avec celle applique au sein de NAFTAL, tels que les résultats sont donnes
dans les Tables (4.72)-(4.75)

146
Table 4.72: Prévisions et réalisations des ventes d’essence super (unité TM )
Pré B-J Pré MPAR Pré NAFTAL Réalisation

Le mode 2ieme régime L’esp cod 2ieme régime

Janv-17 62872:89 65514:33 65435:76 66451:27 64901:38 67787:16 54234:52


Févr-17 63150:78 70152:32 67025:21 71727:12 66451:27 64542:93 50843:81
Mars-17 67512:34 65278:90 69482:08 77926:72 68038:17 68834:78 58113:04
Avr-17 67722:74 62443:92 62493:89 85924:49 69662:97 68331:01 60454:05
Mai-17 68831:81 60308:25 63756:36 95275:14 72672:92 70249:24

147
Juin-17 66779:68 58666:50 62744:37 106332:28 74408:40 64769:99
Juil-17 72638:16 59588:87 66891:30 119088:74 76185:33 71250:38
Août-17 70512:48 64114:39 70180:39 133789:66 78004:68 71648:04
sept-17 69359:76 59875:59 64526:04 150591:20 79867:49 68360:28
Oct-17 68353:89 57001:01 65829:55 169757:15 81774:78 70095:19
Nov-17 67123:51 55183:77 63756:36 191553:84 83727:62 68916:32
Déc-17 70159:55 53552:84 65566:76 216322:19 85727:09 69814:71
4.6. Présentation de la méthode prévisionnelle appliquée par NAFTAL
Table 4.73: Prévisions et réalisations des ventes d’essence sans plomb (unité TM )
Pré B-J Pré MPAR Pré NAFTAL Réalisation

Le mode 1er régime L’esp cod 2ieme régime

Janv-17 53968:56 59839:33 57263:48 53944:90 52355:82 56689:46 51825:26857


Févr-17 52600:53 69384:47 57034:89 52240:76 45525:07 54341:91 49100:05333
Mars-17 55800:59 68283:16 63794:25 50167:28 52497:37 58742:30 51430:68762
Avr-17 54402:12 67199:32 59362:52 48287:03 56095:92 62672:33 56526:82857
Mai-17 57187:55 69941:78 67468:66 46444:73 57412:56 64367:68

148
Juin-17 56495:79 74266:73 67468:66 44681:66 60247:62 56474:24
Juil-17 61573:63 81423:44 75464:56 42985:51 62312:57 64234:29
Août-17 59747:98 92542:05 75464:56 41353:75 64991:93 65637:54
sept-17 57982:37 69107:49 60804:46 39783:93 58948:44 62021:32
Oct-17 56165:70 71354:69 70786:13 38273:70 66338:02 62611:10
Nov-17 54975:45 67739:07 67199:32 36820:81 61612:40 60323:81
Déc-17 61233:38 71354:69 67199:32 35423:06 53901:76 60983:78
4.6. Présentation de la méthode prévisionnelle appliquée par NAFTAL
Table 4.74: Prévisions et réalisations des ventes de gasoil (unité TM )
Pré B-J Pré MPAR Pré NAFTAL Réalisation

Le mode 1er régime L’esp cod 1er régime

Janv-17 227831:42 59839:33 245882:76 253371:01 246178 238013:64 184779:05


Févr-17 216366:48 69384:47 226343:74 250373:76 243265:84 236211:85 188887:40
Mars-17 236102:60 68283:16 245882:76 255099:80 243265:84 239832:23 222994:58
Avr-17 249415:55 67199:32 242367:42 256968:84 242100:96 246114:64 225739:98
Mai-17 240464:88 69941:78 248453:28 257637:83 234593:64 254483:96

149
Juin-17 241742:43 74266:73 252460:51 260435:40 230916:19 234414:30
Juil-17 227357:35 81423:44 232120:08 261505:37 229259:56 244850:31
Août-17 250140:12 92542:05 219478:62 262947:62 233166:98 257448:53
sept-17 226269:72 69107:49 243533:58 264582:96 237496:96 237059:42
Oct-17 243378:27 71354:69 234922:30 265643:41 241834:80 244218:94
Nov-17 238992:13 67739:07 233984:49 266921:56 246251:86 242889:67
Déc-17 248562:17 71354:69 242561:39 268044:99 233446:94 244662:24
4.6. Présentation de la méthode prévisionnelle appliquée par NAFTAL
Table 4.75: Prévisions et réalisations des ventes d’essence normale (unité TM )
Prév B-J Pré MPAR Pré NAFTAL Réalisation

Le mode 1er régime L’esp cod 2ieme régime

Janv-17 6351:28 1608 6826 4509:5 7191:59 6636:22 6474:96


Févr-17 6382:45 1558 6746 7442:6 7630:56 6006:35 6306:49
Mars-17 7388:06 2648 7466 5600 7167:80 6601:35 7175:36
Avr-17 7479:85 2448 7466 7083 7655:64 6778:38 7855:46
Mai-17 8315:10 2428 8070 8168 7141:36 7140:54

150
Juin-17 8304:31 1958 7310 5052 7683:51 6049:32
Juil-17 10135:40 2718 7270 6028:6 7111:98 7124:32
Août-17 10641:82 3028 7260 7433:2 7714:48 7184:59
sept-17 10084:11 878 7530 8706:8 7079:33 6755:95
Oct-17 10326:84 2238 7460 8553:2 7748:90 7005:14
Nov-17 9568:71 2008 6250 5826:8 7043:05 6702:70
Déc-17 10285:41 2468 6450 4037:2 7787:15 6805:14
4.6. Présentation de la méthode prévisionnelle appliquée par NAFTAL
4.6. Présentation de la méthode prévisionnelle appliquée par NAFTAL

Figure 4.49: Représentation de la série SP Rt réelle et ajustées

Figure 4.50: Représentation de la série P Bt réelle et ajustées

Figure 4.51: Représentation de la série GSLt réelle et ajustées

151
4.6. Présentation de la méthode prévisionnelle appliquée par NAFTAL

Figure 4.52: Représentation de la série EN ORt réelle et ajustées

Nous constatons d’après les Tables (4.72)-(4.75):

- La méthode de Box-Jenkins ajuste mieux les réalisations des produits de NAFTAL.

- Les prévisions obtenues par la modélisation MPAR, sont plus …ables que celles obtenues
par la modélisation SARIMA.

Rappelant que Wong et Li (2000), ont souligné que l’espérance conditionnelle peut ne pas
être le meilleur prédicteur des valeurs futures, car le calcul de l’espérance conditionnelle
tient compte toutes les distributions du mélange, or que fyt ; t 2 Zg provient d’une seule
distribution.

D’après les Figures (4.49)-(4.52), nous constatons que les modèles MPAR ajustent nos
séries mieux que les modèles SARIMA.

Pour plus de précision dans les prévisions de ventes des carburants terre, il serait
souhaitable d’utiliser la fonction prédictive au pas m.

152
Bibliographie

[1] Akaïke, H. (1973). Information theory and an extension of the maximum likelihood
principle. In the Second International Symposium on Information Theoru, eds. B. N.
Petrov and Csake, F., Hungary : Akademiai Kiado, pp. 267-281.

[2] Aknouche, A. (2011). Recursive online EM estimation of mixture autoregressions.


Journal of Statistical Computation and Simulation. Taylor and Francis, 1-14.

[3] Aliat, B., and Hamdi, F. (2017). On markov-switching periodic arma models. Com-
munications in Statistics-Theory and Methods, (just-accepted).

[4] Bentrzi, M. (2009). Cours de Séries Chronologiques saisonnières, Master modélisation


stochastique et Prévision en Recherche Opérationnelle USTHB.

[5] Bentrzi, M. and Djeddou, L. (2014), On Mixture Periodic Vector Autoregressive


Models, Communications in Statistics- Simulation and Computation, 43, 2325-2352.

[6] Bentrzi, M. and Hamdi, F. (2008 a). Mixture periodic autoregressive conditional
heteroskedastic models. Computational. Statistics and Data Analysis. 53, 1-16.

[7] Bentrzi, M. and Hamdi, F. (2008 b). Mixture Periodic Autoregression with Periodic
ARCH Errors. Advances and Applications in Statistics, 8, 219-246.

[8] Bentrzi, M. and Merzougui, M. (2011). Moments of Mixture Periodic Autoregres-


sive Models. Communication in Statistics- Theory and Methods, Taylor and Francis,
40, 3937-3947.

[9] Bougerol, P. and Picard, N. (1992). Strict stationarity of generalized autoregressive


processes. Annals of Probability 20, 1714-1730.

[10] Boshnakov G. N. (2009). Analytic expressions for predictive in mixture autoregres-


sive models. Statistics and Probability Letters, 79, 1704-1709.

153
Bibliographie

[11] Boshnakov G. N. (2011). On …rst and second order stationarity of random coe¢ cient
models. Linear Algebra and its Applications, 434, 415-423.

[12] Brandt, A. (1986). The stochastic equation Yn+1 = An Yn + Bn with stationary coef-
…cients. Advances in Applied Probability, 18.01, 211-220.

[13] Hamdi, F. (2008), Modèles Espace d’Etats et Processus Périodiquement Corrélés,


Thèse de doctorat, USTHB, Alger, Algérie.

[14] Hamdi, F. (2015). A note on the order selection of mixture periodic autoregressive
models. In Modeling, Simulation, and Applied Optimization (ICMSAO), 2015 6th In-
ternational Conference on (pp. 1-6). IEEE.

[15] Karlin, S., and Taylor, H. M. (1975). A …rst course in stochastic processes Acad-
emic. New York.

[16] Lanna, M. and Saikkonen, P. (2003). Modeling the U.S. short-term interest rate
by mixture autoregressive processes. Journal of Financial Econometrics 1, 96 -125.

[17] Louis, T.A. (1982), Finding the observed information matrix when using the EM
algorithme. Journal of the Royal Statistical Society B 44, 226-233.

[18] Saikkonen, P. (2007). Stability of mixtures of vector autoregressions with autoregres-


sive conditional heteroskedasticity. Statistica Sinica 17, 221-239.

[19] Shao, Q. (2006). Mixture periodic autoregressive time series models. Statistics &
Probability Letters. 76, 609–618.

[20] Wong, C. S. and Li, W. K. (2000). On a mixture autoregressive model. Journal of


the Royal Statistical Society B62, 95–115.

154

Vous aimerez peut-être aussi