Vous êtes sur la page 1sur 32

République du Sénégal

Un peuple - Un but - Une foi

MINISTERE DE L’ECONOMIE, DES FINANCES ET DU


PLAN
AGENCE NATIONALE DE LA STATISTIQUE ET DE LA
DEMOGRAPHIE

Lk,

ECOLE NATIONALE Dcskl


DE LA STATISTIQUE ET DE
L’ANALYSE ECONOMIQUE

PROJET ECONOMETRIE DES SERIES TEMPORELLES :

Modélisation du IPC du Sénégal

Rédigé par :
ASSELOKA E. Amadou R.
DIAW Abdou Aziz
Elèves Ingénieurs Statisticiens Economiste
Sous l’encadrement de :
Mr. Fofana, enseignant à l’ENSAE de

Septembre 2020
Table of Contents
I. Modelisation Univariée ................................................................................................................................... 2
1 L’IPC dans l’UEMOA .......................................................................................................................................... 3
2 Stationnarisation de la chronique de l’IPC .............................................................................................. 4
2.1. Stationnarisation ...................................................................................................................................... 4
2.2. Tests de stationnarité ............................................................................................................................. 5
2.3. Examen de l’ACF et de la PACF et identification du modèle .................................................... 8
Convergence ............................................................................................................................................... 13
2.4. Estimation des paramètres ............................................................................................................... 13
2.5. Analyse des résidus : Blancheur des résidus.............................................................................. 14
Affectation résidus ................................................................................................................................... 14
Test de nullité des moyennes .............................................................................................................. 14
Test d’homoscédasticité des résidus ................................................................................................ 15
Non-autocorrélation des résidus........................................................................................................ 16
2.6. Choix du modèle avec les critères de choix ................................................................................ 16
2.7. Prévision de l’IPI ................................................................................................................................... 18
II. Modélisation multivariée ........................................................................................................................... 19
1. Familiatisation avec les données ........................................................................................................ 19
1.1. Choix des variables .......................................................................................................................... 19
1.2 Etude des évolutions ........................................................................................................................ 22
1.3 Etude de la saisonnalité .................................................................................................................. 23
1.4 Etude de la stationnarité ................................................................................................................ 24
2. Modélisation ............................................................................................................................................... 26
2.1 Choix de retard ................................................................................................................................... 26
2.2 Test de cointégration ....................................................................................................................... 27
2.3 Estimation SVEC ................................................................................................................................ 28
Conclusion............................................................................................................................................................. 31
Introduction
Dans un contexte où les économies deviennent de plus en plus interdépendantes, il parait difficile
pour les pays sous-développés de lutter efficacement et de manière durable contre l’inflation. En
effet, en dehors des politiques endogènes aux pays, l’inflation peut être importée des autres pays
par le biais de consommations de biens et services essentiellement importés ou fortement
dépendants des prix internationaux. L’inflation traduit l’évolution des prix dans l’économie. Elle
est calculée par le biais de l’indice de prix à la consommation qui est d’ailleurs le proxy
généralement utilisé dans l’étude de l’inflation.

Par ailleurs, la Réforme Institutionnelle de l'UMOA et de la BCEAO, entrée en vigueur le 1er avril
2010, a fixé un objectif explicite de stabilité des prix. Le cadre mis en œuvre est essentiellement
une définition de la stabilité des prix comme une variation annuelle de l'Indice Harmonisé des Prix
à la Consommation (IHPC) comprise entre un (1) et trois (3) pour cent.

Ainsi, l’inflation est un facteur central dans une économie et il est important de voir le cadre qui
régis son comportement. Généralement, l’étude des déterminants de l’inflation est effectué selon
2 approches : les fonctions de consommation et les agrégats monétaire et financier. Dans la
présente étude, il est proposé l’approche par les fonctions de consommation.

Cette étude se subdivise en deux parties. La première est la modélisation univariée de l’IPC de
janvier 1997 à juillet 2020. La seconde partie est axée sur l’analyse multivarié de l’IPC en fonction
des différents postes de consommation.
I. Modelisation Univariée

1 L’IPC dans l’UEMOA


Le graphique ci-dessous montre l’évolution de l’IPC dans l’UEMOA. On remarque clairement la
tendance ascendante de l’IPC entre 1997 et 2020. La saisonnalité est moins apparente mais nous
verrons dans la suite s’il y a réellement une saisonnalité à travers des tests.
2 Stationnarisation de la chronique de l’IPC
2.1. Stationnarisation
L’existence de tendance est moins claire avec l’observation seule de la chronique. Cependant nous
pouvons vérifier l’existence de tendance avec le test de Mann-Kendall.
##
## Correlated Seasonal Mann-Kendall Test
##
## data: BASE.ini2
## z = 6.2151, p-value = 2.565e-10
## alternative hypothesis: true S is greater than 0
## sample estimates:
## S varS
## 2464.0 157176.7

La p-value est inférieurs à 0.05 donc on rejette l’hypothèse qu’il n’existe pas de tendance. Nous
appliquerons donc le filtre 1-B pour enlever la tendance.

Concernant la saisonnalité, Le HEGY test se base sur le test de la significativité des


racines unitaires avec la décomposition des polynômes (1 − 𝐵 4 ) et (1 − 𝐵12 ), pour
des donn?es semestrielles et mensuelles
respectivement(
𝑐𝑓. 𝐴𝑛𝑎𝑙𝑦𝑠𝑒 𝑑𝑒𝑠 𝑠? 𝑟𝑖𝑒𝑠 𝑡𝑒𝑚𝑝𝑜𝑟𝑒𝑙𝑙𝑒𝑠, 𝑅? 𝑔𝑖𝑠 𝐵𝑜𝑢𝑟𝑏𝑜𝑛𝑛𝑎𝑖𝑠 𝑒𝑡 𝑀𝑖𝑐ℎ𝑒𝑙 𝑇𝑒𝑟𝑟𝑎𝑧𝑎).

𝐻0 : 𝜆𝑘 = 0
{
𝐻1 : 𝜆𝑘 ≠ 0
Où les 𝜆𝑘 sont les paramètres de la régression.

Dans la table sous dessous, on peut remarquer que tous les paramètres 𝜆𝑘 sont significatifs, donc
on retient qu’il y a une saisonnalité annuelle pour la variable en question. Ceci étant, nous allons
désaisonnaliser la série grâce au filtre 1 − 𝐵12.
## statistic p-value
## t_1 -1.071037 0.6844959
## t_2 -4.560307 0.0000000
## F_3:4 26.619796 0.0000000
## F_5:6 22.723984 0.0000000
## F_7:8 23.648448 0.0000000
## F_9:10 31.850849 0.0000000
## F_11:12 19.235864 0.0000000
## F_2:12 357.331080 0.0000000
## F_1:12 344.920714 0.0000000

2.2. Tests de stationnarité


La saisonnalité et la tendance étant annulées, on effectue un test de stationnarité sur la chronique
obtenue après dessaisonalisation afin de rechercher toutes autres causes de non-stationnarité. Le
test de DICKEY-FULLER Augmenté et de PHILLIPS-PERRON vérifie la présence d’une racine
unité dans la chronique, cause de non-stationnarité. Au regard des p − valeur < 0.05, on rejette
l’hypothèse selon laquelle notre série possède une racine unité.
##
## Augmented Dickey-Fuller Test
##
## data: data
## Dickey-Fuller = -4.765, Lag order = 6, p-value = 0.01
## alternative hypothesis: stationary

##
## Phillips-Perron Unit Root Test
##
## data: data
## Dickey-Fuller = -13.895, Truncation lag parameter = 4, p-value = 0.01

Les deux tests précédents confirment l’absence d’une racine unité dans notre chronique (IPI), donc
la chronique obtenue après désaisonnalisation est stationnaire. Confirmons ce premier résultat par
le test de stationnarité de KPSS qui suppose quant à lui la stationnarité en hypothèse nulle.
##
## KPSS Test for Level Stationarity
##
## data: data
## KPSS Level = 0.025562, Truncation lag parameter = 4, p-value = 0.1

Au regard de la p − value > 0.05, on ne rejette pas l’hypothèse selon laquelle la série est
stationnaire. Le test de KPSS confirme la stationnarité de la chronique.

La série stationnarisée est ainsi représentée dans le graphique ci-dessus :


La chronique étant stationnaire, l’idée, par la suite, est de trouver le meilleur modèle s’ajustant le
mieux aux observations de cette chronique stationnarisée. Il est à noter que, quelque soit la forme
du modèle retenu, il est possible de réécrire le modèle final sous la forme souhaitée en se servant
de la causalité ou de l’inversibilité du processus stationnaire obtenu. On s’intéresse par la suite à
la PACF et à l’ACF de la série désaisonnalisé et sans tendance pour déterminer les ordres
maximum du processus stationnaire obtenu.
2.3. Examen de l’ACF et de la PACF et identification du modèle

L’examen de l’ACF et de la PACF du processus stationnaire obtenu suggère qmax = 0 comme


ordre maximum de la partie MA et pmax = 0 comme ordre maximum de la partie AR. On note
aussi que Pmax = 3 et Qmax = 1. Nous aurons donc à construire tous les 8 modèles SARIMA(p,
1, q)(P, 1,Q)12 et voir si les paramètres sont significativement différents de 0, aprés avoir verifier
dabord leur convergence.
Convergence

#V?rification de la convergence des mod?les


MODELE1$fit$code

## [1] 0

MODELE2$fit$code

## [1] 0

MODELE3$fit$code

## [1] 0

MODELE4$fit$code

## [1] 0

MODELE5$fit$code

## [1] 0

MODELE6$fit$code

## [1] 0

MODELE7$fit$code

## [1] 0

MODELE8$fit$code

## [1] 0

Tous les 8 modèles convergent.

2.4. Estimation des paramètres


L’estimation des paramètres des modèles engendrés a fourni des coefficients dont il est impératif
de tester la significativité. Nous avons testé la significativité des paramètres et ceci permis de faire
d’exclure les modèles inadéquats ou les moins appropriés pour les données. Après le test de
significativité, 4 modèles ont émergé parmi les 8 qu’on avait au départ. Ces modèles ont tous leurs
paramètres significatifs. Une estimation sera statistiquement non significative (considéré comme
nulle) si l’intervalle de confiance à 95% de l’estimation contient zéro. Pour cela on utilise la
statistique de Fisher.
#Vérification de la convergence des modèles
abs(MODELE1$ttable[,1])>1.96*MODELE1$ttable[,2] #Nprobleme

## logical(0)

abs(MODELE2$ttable[,1])>1.96*MODELE2$ttable[,2]

## [1] TRUE

abs(MODELE3$ttable[,1])>1.96*MODELE3$ttable[,2]

## [1] TRUE

abs(MODELE4$ttable[,1])>1.96*MODELE4$ttable[,2] #sar false

## sar1 sma1
## FALSE TRUE

abs(MODELE5$ttable[,1])>1.96*MODELE5$ttable[,2]

## sar1 sar2
## TRUE TRUE

abs(MODELE6$ttable[,1])>1.96*MODELE6$ttable[,2] #enlev

## sar1 sar2 sma1


## FALSE FALSE TRUE

abs(MODELE7$ttable[,1])>1.96*MODELE7$ttable[,2]

## sar1 sar2
## TRUE TRUE

abs(MODELE8$ttable[,1])>1.96*MODELE8$ttable[,2] #enlever

## sar1 sar2 sma1


## FALSE FALSE TRUE

#on garde les modeles 2, 3, 5, 7

2.5. Analyse des résidus : Blancheur des résidus


Affectation résidus
Les résidus doivent suivent un bruit blanc, c’est à dire de moyenne nulle, de variance constante et
non autocorrélés.

Test de nullité des moyennes


Le test de la nullité des moyennes consiste à vérifier la première hypothèse de la blacheur des
résidus.
## [1] TRUE

## [1] TRUE

## [1] TRUE

## [1] TRUE

Après avoir fait le test sur tous les 4 modèles qui avaient passées l’étape de la convergence et de
la significativité des paramètres, il semble que tous les modèles ont leurs résidus de moyennes
significativement nulles. Dès lors passons au test de la deuxième hypothèse qui l’homoscédasticité
des erreurs.

Test d’homoscédasticité des résidus


Pour tester la variance constante, on peut appliquer le test de White. On entreprend une analyse de
régression auxiliaire : celle-ci régresse les résidus au carré du modèle de régression original sur un
ensemble de régresseurs (qui sont dans notre cas les résidus même retardés) qui contiennent les
régresseurs originaux ainsi que leurs carrés et leurs produits croisés.
##
## White Neural Network Test
##
## data: RESIDU.MODELE2
## X-squared = 2.8181, df = 2, p-value = 0.2444

##
## White Neural Network Test
##
## data: RESIDU.MODELE3
## X-squared = 1.6561, df = 2, p-value = 0.4369

##
## White Neural Network Test
##
## data: RESIDU.MODELE5
## X-squared = 3.4576, df = 2, p-value = 0.1775

##
## White Neural Network Test
##
## data: RESIDU.MODELE7
## X-squared = 5.3004, df = 2, p-value = 0.07064

Après avoir fait le test sur tous les 4 modèles qui avaient passées l’étape précédente,il semble que
tous les modèles ont leurs résidus homoscédastiques. Il reste donc de vérifier la non-
autocorrélation des erreurs.
Non-autocorrélation des résidus
Dans ce point nous allons vérifier si les résidus des différents modèles sélectionnés sont non
autocorrélés. Pour ce faire nous allons utiliser le test de Box-Pierce. Le test Box-Pierce est utilisé
pour vérifier s’il existe une autocorrélation dans une série temporelle.
##
## Box-Pierce test
##
## data: RESIDU.MODELE2
## X-squared = 149.66, df = 82, p-value = 7.448e-06

##
## Box-Pierce test
##
## data: RESIDU.MODELE3
## X-squared = 57.385, df = 83, p-value = 0.9856

##
## Box-Pierce test
##
## data: RESIDU.MODELE5
## X-squared = 113.34, df = 83, p-value = 0.01512

##
## Box-Pierce test
##
## data: RESIDU.MODELE7
## X-squared = 77.802, df = 83, p-value = 0.6406

Le test de Box-Pierce montre des aurocorrélations pour tous les modèles sauf pour les modèles
SARIMA(0,1,0)(1,1,0)12, SARIMA(0,1,0)(2,1,0)12. On continuera avec eux en se basant
maintenant sur les critères de choix.

2.6. Choix du modèle avec les critères de choix


Au vue des critères de choix nous constatons que le modèle SARIMA(0,1,0)(2,1,0)12 la plupart
des critères. C’est le modele que nous utiliserons pour les previsions.
2.7. Prévision de l’IPI
II. Modélisation multivariée
Dans cette partie, nous modélisons l’indice de prix à la consommation (IPC) avec les composantes
d’indice de prix de différents postes de fonction des dépenses. Cette modélisation peut qualifié
d’approche endogène. En effet, les variables explicatives sont déjà des composantes du calcul de
l’IPC. Cette même approche a déjà été utilisé par l’ANSD Ils sont au nombre de 12 comme indiqué
dans le tableau suivant:

Variables Libellés des variables


IPalim Indice des prix de la fonction alimentation
Iphabi Indice des prix de la fonction habillement
IPloge Indice des prix de la fonction logement
Ipameu Indice des prix de la fonction Ameublement
IPSan Indice des prix de la fonction Sante
IPTrans Indice des prix de la fonction Transport
IPLois Indice des prix de la fonction Loisirs
Ipensei Indice des prix de la fonction Enseignement
Iprest Indice des prix de la fonction Hotels et restaurants
Ipautre Indice des prix de la fonction Autres biens et services
Ipboiss Indice des prix de la fonction Boissons alcoolisees, Tabac et
stupefiants
Ipcom Indice des prix de la fonction Communication

1. Familiarisation avec les données


Pour nous familiariser avec les nouvelles variables explicatives, nous effectuons des études
d’évolution et de stationnarité. Toutefois, il est important d’effectuer, avant tout, une sélection des
variables afin d’obtenir un modèle multivarié moins complexe. Des plus, le test de cointégration
de Johansen qui n’est pas tabulé pour plus de 10 variables.

1.1. Choix des variables


a. Analyse des composantes principales (ACP)
L’analyse des composantes principales nous permet de voir le comportement d’ensemble des
fonctions de dépenses dans le temps. De plus, on pourra sélectionner alors les variables qui
contribuent le plus dans la formation des axes. Ainsi, toutes les variables explicatives sont en
variables actives alors que la variable IPC est mise en supplémentaire avec la variable année. Ceci
nous permet de ressortir l’évolution dans le temps.

Les trois axes principaux restituent 97% de l’information totale dans les variables explicatives. On
peut distinguer, à travers le premier et deuxième nuage de la figure ci-dessous, trois périodes. Ces
trois périodes peuvent renvoyer à des changements de structure de préférence dans les fonctions
de dépenses en biens et services.

En faisant abstraction des aberrations, c’est à dire des périodes qui glissent dans nos groupes
latents, nous constituons trois groupes à partir du premier nuage (axes 1 et 2).

• Le premier groupe concerne les périodes de 1997 à 2001, qui correspond à une période de
famine dans la zone sahélo-sahélienne et la dévaluation du FCFA.

• La deuxième phase concerne les périodes de 2002 à 2007. Ceci peut s’assimiler à la sortie
de la période de famine et l’avant changement de base des indices de prix.

• La troisième phase peut s’assimiler à l’après changement Ceci peut s’expliquer par la
nouvelle loi de 2007 sur le changement de base des indices de prix.

Ce même découpage ressort dans le deuxième nuage (axes 1 et 2). Ainsi, nous nous concentrons
sur les variables contribuantes le plus sur ces axes. On remarquerait que le premier axe représente
les fonctions de dépenses de première nécessité, le seconde axe représente les fonctions de
dépenses de seconde nécessité comme la communication et l’habillement et le troisième axe
représente les fonctions de dépenses en biens et services de luxe comme le loisir et la boisson. Les
trois variables les plus contributives sur le premier axe sont retenues sont: Indice des prix de la
fonction Hotels et restaurant, Indice des prix de la fonction Enseignement , Indice des prix de la
fonction logement . Aussi, on retient les 2 premières des axes 2 et 3: Indice des prix de la fonction
Communication et Indice des prix de la fonction Loisirs.

Ce résultat concorde bien avec les variables sélectionnées par l’ANSD dans son document sur "
les déterminants de l’inflation : approche par les fonctions de consommation “.
Struture des fonctions dans le temps et contribution des variables
b. Inférence bayésienne
Pour appuyer les choix des variables, on estime une inférence bayésienne qui donne les poids des
différentes variables. Ces poids représentent la probabilité que la présence de la variable rende le
modèle meilleur.

Ainsi, cette méthode donne des variables différentes de la méthode précédente. Cependant, étant
donné que certaines des meilleures variables sont corrélées entre elles, on privilégie la méthode
précédente. Ceci est judicieux car on prend en compte les autres dimensions des postes des
dépenses.

Les méthodes de sélection ont ainsi menées à une sélection de 5 variables explicatives en plus de
celle dépendante. Soit 6 variables pour aboutir à la modélisation multivariée.

1.2 Etude des évolutions


Pour davantage connaître les variables explicatives, il est nécessaire de voir leurs évolutions qu’on
approchera à celle de la variable dépendante, IPC.

Aussi, nous appliquons la fonction logarithmique sur toutes les variables afin de pouvoir
interpréter les résultats en termes d’élasticité des prix. On note que cette transformation n’affecte
pas remarquablement la distribution et la tendance des variables (voir figure).

La lecture du graphique ci-dessous indique, d’abord, que les variables indices de prix des fonctions
enseignement, logement et hotels et restaurants sont celles qui soutiennent en grande partie
l’évolution de l’IPC depuis 1997 jusqu’en 2020. Ensuite, la fonction de communication est celle
qui varie le plus. Cependant, cette forte variation n’atteint pas presque pas l’évolution de l’IPC. La
fonction de communication n’a commencé à s’ajuster à l’IPC qu’à partir de 2010. Ce résultat est
en grande partie expliqué par l’avènement des téléphones portables qui sont devenus très
accessibles à partir des années 2010. Aussi, l’indice des prix de la fonction loisir n’a commencé à
s’ajuster à l’IPC qu’au debut des années 2010.

Struture des fonctions dans le temps et contribution des variables

1.3 Etude de la saisonnalité


La saisonnalité peut être définie comme la répétition d’un schéma dans la série avec une fréquence
bien déterminée. Celle-ci peut influencer la forme du modèle. Il est important de les détecter et de
les spécifier plus tard dans le modèle multivarié. Pour statuer sur la saisonnalité des variables
explicatives retenues, les tests de Friedman et de Kruskall-Wallis sont effectués.

Les 2 tests réalisés indiquent que seules les variables de fonction d’enseignement et celle de
logements sont saisonniers avec la variable IPC. Il a déjà été établi que la variable IPC est
saisonnière avec une fréquence de 12 mois. Pour estimer l’ordre de saisonnalité des 2 variables,
on utilise le test de HEGY.
Tests de saisonnalité des séries à niveau
Friedman Kruskall-Wallis
test test
IPC TRUE TRUE
IP_restau FALSE FALSE
IP_ensei TRUE TRUE
IP_loge TRUE TRUE
IP_com FALSE FALSE
IP_Loisir FALSE FALSE

Tests de HEGY sur


Le test de Hylleberg, Engle, Granger and Yoo ou le HEGY test constituent à décomposer le
polynôme 1 − 𝐵12 et à tester la significativité des racines unitaires.
𝐻0 : 𝜆𝑘 = 0
{
𝐻1 : 𝜆𝑘 ≠ 0
Les résultats indiquent que les toutes les racines unitaires sont significatives. L’ordre le plus
éloigné est alors considéré. On conclue que les 2 variables sont saisonnières d’ordre 12.

Test de HEGY sur IP enseignement et IP logement


statistic p-value statistic p-value
t_1 -2,70 0,05 -2,40 0,30
t_2 -4,64 0,00 -4,53 0,00
F_3:4 21,37 0,00 24,11 0,00
F_5:6 14,50 0,00 34,64 0,00
F_7:8 17,11 0,00 33,28 0,00
F_9:10 28,22 0,00 30,34 0,00
F_11:12 24,12 0,00 14,93 0,00
F_2:12 59,89 0,00 420,15 0,00
F_1:12 63,53 0,00 385,18 0,00

1.4 Etude de la stationnarité


Le concepte de stationnarité renvoie au comportement de la variable autour de sa moyenne et à
l’uniformité de la dispertion des observation (stationnarité en variance). La stationnarité est
incontournable pour choisir la forme du modèle. Pour vérifier son existence, les tests de Dickey-
Fuller, de KPSS et celui de Phillips-Perron (Dickey-Fuller Z-alpha ) sont d’une grande utilité. Les
tests de Dickey-Fuller et de Phillips-Perron sont des tests dont l’hypothèse nulle est la non
stationnarité. Par contre, le test de KPSS se base sur l’hypothèse nulle de stationnarité. Le tableau
ci-dessous fait le récapitulatif des décisions.

Tests de stationnarité des séries à niveau


Tous les trois tests indiquent une non stationnarité des variables à niveau. Par conséquent, on
procède à une différentiation des séries.

Tests de stationnarité sur les variables explicatives


IP IP IP IP
Hypothese IP
enseigneme logemen communicatio loisi
null restau
nt t n r
Augmented non
0,78 0,58 0,64 0,85 0,01
Dickey Fuller Stationarity
kpss Stationarity 0,01 0,01 0,01 0,01 0,01
non
Phillips-Perron 0,8 0,39 0,91 0,93 0,01
Stationarity

Tests de stationnarité des séries differentié


Après différentiation des series, tous les tests accepte l’hypothèse de stationnarité. On conclue alrs
que les variables sont intégrées du même ordre.

Tests de stationnarité sur les variables différentiées


IP IP IP IP
Hypothese IP
enseigneme logeme communicati loisi
null restau
nt nt on r
Augmented non
0,01 0,01 0,01 0,01 0,01
Dickey Fuller Stationarity
kpss Stationarity 0,1 0,1 0,1 0,1 0,1
non
Phillips-Perron 0,01 0,01 0,01 0,01 0,01
Stationarity
Evolution avant et après différentiation

2. Modélisation
Cette partie est consacrée à l’estimation du modèle multivarié. Pour ce faire, on détermine,
d’abord, l’ordre p du modèle VAR. Ensuite, on effectue un teste de cointégration pour statuer sur
l’existence de causalité multidirectionnelle. Enfin, on éffectue l’estimation avec le modèle qui
convient le mieux.

2.1 Choix de retard


Pour choisir le retard, on effectue une estimation VAR (vectorial auto-régression) sur les variables
différenticié avec un ordre maximal égal à 10 retards. Autrement dit, on estime 10 modèles VAR.
L’étape suivante consiste alors à sélectionner le meilleur modèle et retenir le retard de celui-ci
comme l’ordre du modèle final.

Le tableau ci-dessous montre que les ordres 3 et 9 sont les optimaux de 1 à 10. Il aurait été
intéressant de voir les résidus duquel remplie les conditions de normalité, de non autoccrélation
afin de confirmer que les innovations sont des bruits blancs. Compte tenu de la lourdeur de calcul
et des interprétation, on retient l’odre 3.

Les ordres meilleurs du VAR selon des critères


ordre p
AIC(n) 9
HQ(n) 3
SC(n) 3
FPE(n) 9

2.2 Test de cointégration


On parle de la cointégration losque une ou plusieurs variables présente une même composante
déterministe ou aléatoire (non stationnarité). Ces variables sont dites cointégrées d,’ordre 1 ( 𝐼(1)
) lorqu’il existe un processus stationnaire, combinaison linéaire des variables.s

Le test de Johansen nous indique qu’il existe une relation de causalité d’ordre 1.
##
## ######################
## # Johansen-Procedure #
## ######################
##
## Test type: maximal eigenvalue statistic (lambda max) , with linear trend
##
## Eigenvalues (lambda):
## [1] 0.13165576 0.05112894 0.02264611 0.01390298
##
## Values of teststatistic and critical values of test:
##
## test 10pct 5pct 1pct
## r <= 3 | 3.92 6.50 8.18 11.65
## r <= 2 | 6.41 12.91 14.90 19.19
## r <= 1 | 14.70 18.90 21.07 25.75
## r = 0 | 39.53 24.78 27.14 32.14
##
## Eigenvectors, normalised to first column:
## (These are the cointegration relations)
##
## IPC.l3 IP_ensei.l3 IP_loge.l3 IP_com.l3
## IPC.l3 1.00000000 1.0000000 1.000000 1.000000
## IP_ensei.l3 0.04124261 -2.9697154 1.742823 -2.829364
## IP_loge.l3 -1.12038369 2.6140792 1.461794 1.055894
## IP_com.l3 0.06229976 -0.1177397 -1.783190 -2.380544
##
## Weights W:
## (This is the loading matrix)
##
## IPC.l3 IP_ensei.l3 IP_loge.l3 IP_com.l3
## IPC.d -0.08647655 -0.001656299 -0.0009221341 -1.991889e-04
## IP_ensei.d 0.03806538 0.015087820 -0.0006446054 3.052785e-04
## IP_loge.d 0.11672000 -0.007513264 -0.0014884364 -5.300758e-05
## IP_com.d -0.39050385 -0.026113550 -0.0011838694 5.334802e-03
Comme les séries sont toutes intégrées d’ordre 1, on peut songer au model à correction d’erreur
(MCE ou ECM). EN plus de cela, le test de Johansen nous a rélevé une causalité d’ordre 1, ceci
étant, on choisie finalement un modèle SVEC (structural vector errors corrections).

NB: pour l’estimation du modèle, les variables IP_loisi et IP_restaurant afin de pouvoir rendre
le modèle identifiable.

2.3 Estimation SVEC


Pour estimer le SVEC, il est important de contraindre certains paramètres pour rendre la procédure
de Johansen. Pour cela, nous supposons que certaines variables n’ont pas d’influence sur les autres
variables à court et/ou long terme.

a. Etudes des élasticités long termes et cours termes


Ces matrices permettent de voir comment les structures d’élasticité directe et croisée à
court terme et à long terme. Les éléments diagonaux représentent les impacts directe d’une
période à une autre. Ainsi, une augmentation d’un 1% de l’IPC conduit une augmentation
généralisée de IPC à 31% dans le court terme alors qu’à long terme elle est de 44%.
Matrice d’impact de court terme (en %)
IPC IP_ensei IP_loge IP_com
IPC 31,00 8,00 5,00 22,00
IP_ensei -7,00 54,00 2,00 -10,00
IP_loge 49,00 3,00 25,00 -30,00
IP_com -76,00 0,00 272,00 100,00

Matrice d’impact de long terme (en %)


IPC IP_ensei IP_loge IP_com
IPC 44,00 0,00 0,00 0,00
IP_ensei -19,00 64,00 1,00 0,00
IP_loge 35,00 4,00 15,00 0,00
IP_com -56,00 26,00 261,00 0,00

NB : les éléments nuls sont les paramètres contraints pour la procédure de Johansen.

b. Etude des chocs


En opérant un changement de 0,08 à 0,09 , soit une augmentation de 1%, sur l’IP de la fonction
enseignement, un choc se répercute sur toutes les autres variables comme indiquer par les graphs
suivant :
Conclusion
Au terme de cette analyse, on retient que l’inflation est un facteur qui est essentiellement soutenu
par les prix de logement, de la communication, de l’enseignement, de loisir et de l’hôtel et
restaurants. Toutefois, les contraintes du modèle ont mené à l’utilisation de trois variables
uniquement. Ces trois variables se sont révélées être des véritables leviers qui pourraient aider
dans la régulation de l’inflation. De plus, à long terme tout comme à court terme, l’IPC est
fortement élastique aux variations des indices de prix de fonction enseignement, logement et
communication.

Vous aimerez peut-être aussi