Vous êtes sur la page 1sur 32

2015 / 2016 Pratique de

l’économétrie
des séries
chronologiques à
travers des
exemples
Econométrie des séries
chronologiques

SOUSSI NOUFAIL OUTMANE


FSJES AGDAL
Université Mohamed V Agdal
FSJES Rabat Agdal
Cycle Master Année 2015-2016
Filière : **

Semestre «S1» : Econométrie des séries chronologiques


Pratique de l’économétrie des séries chronologiques à travers des exemples

© Soussi Noufail Outmane

Mesurer pour comprendre

Plan du cours :

1. Introduction
2. Les séries chronologiques : introduction, premières définitions,
3. Estimation et élimination de la tendance et de la saisonnalité
4. Modélisation des séries chronologiques stationnaires et non stationnaires : ARMA, ARIMA
5. Les modèles de cointégration et modèles à correction d’erreurs
6. …

Travaux dirigés

1. Généralités : commentaires des relations économiques et passage aux relations


économétriques
2. Exercices : série .., série ..

Bibliographie :

1. …

1
Introduction :

L’économétrie des séries temporelles, discipline quantitative dédiée à l’économie, a reçu trois prix
Nobel au cours de la dernière décennie. Avérée comme science, elle oscille entre un cadre de réflexion
économique et un univers conceptuel mathématique. L’économétrie des séries temporelles est un
domaine de l’économétrie tout d’abord, et de l’économie en tant qu’elle apporte une mesure dans le
temps des phénomènes économiques. Elle se caractérise par des analyses souvent complexes, et qui
sont perçues comme étanches par bon nombre d’économistes. Pourtant, la preuve de leur utilité n’est
plus à faire : cette discipline s’est vue décerner trois prix Nobel d’économie : Clive GRANGER et
Robert ENGLE en 2003, puis Christopher SIMS en 2011. Notre propos ici est de rendre compte de
l’importance de cette analyse et de traiter le côté pratique de cette science.

Maintenant que vous êtes des étudiants du Master, bien sûr orientés vers l’économie et la finance, vous
vous placez dans la peau de l’analyste qui sait «faire parler» des chiffres financiers avec des méthodes
scientifiques. Votre intérêt ici est de «tester» des théories à l’aide des données empiriques observées
moyennant des outils économétriques. Ces données en question peuvent être de nature distincte et
avoir des sources variées et différentes :

1. Les données peuvent être expérimentales dans le sens où elles sont issues d’un fait réel ; par
exemple l’évolution des indices de prix de la production industrielle, ou encore celui de la
cotation de titres d’une société sur le marché casablancais.
2. Les données peuvent être aussi non expérimentales si elles sont issues d’exercices de
simulation ; par exemple générées par un processus qui ne reflète pas la réalité d’une activité
financière.

Ensuite nous pouvons définir trois types de données :

1. Les données dites en coupes transversales


2. Les données dites de panels
3. Les données dites chronologiques ou « séries temporelles »

Ces données exprimées en chiffres « quantitatives » ou modalités « qualitatives » correspondent à des


observations qui peuvent être structurées (on peut contrôler son évolution), mais aussi elles peuvent
suivre une marche aléatoire, comme souvent observé en finance.

De là peut surgir le principal problème de l’économètre « trouver les données » fiable et en quantité
suffisante. De même les sources de données que doivent manipuler l’économètre doivent être de
sources différentes, selon leurs disponibilités (organismes, enquêtes personnelles, administrations ou
simulations…).

Par ailleurs, outre ces problèmes de nature et de disponibilité, les relations économiques et financières
sont caractérisées par le nombre de variables et de relations entre ces variables. En effet, une donnée
est dite univariée si elle est observée en même temps, et elle est multivariée si plusieurs variables y
sont associées.

Etant donnée un échantillon tirée à partir d’une base de donnée économique ou financière, on peut
extraire à la base plusieurs informations statistiques descriptives donnant un premier aperçu sur la
nature de la structuration de ces données. D’ailleurs, cette étape est primordiale pour tout économètre.

L’économétrie sert donc à tester empiriquement les relations économiques et financières entre les
variables. En finance comme en économie en général, il existe des modèles économétriques relevant
2
des théories financières (par exemple : le modèle de marché, le modèle MEDAF « capital assets price
market » etc.…).

En finance les chiffres jouent également un rôle très important, non seulement parce qu’ils sont
générés par des comportements financiers, mais parce qu’on peut déterminer leurs tendances et leurs
évolutions dans le temps. En plus il est généralement question en finance de tester les différentes
théories à partir des données empiriques de nature financières.

Les champs d’application de l’économétrie en finance sont divers et de natures différentes dont les
objectifs peuvent être résumé de la façon suivante :

1. Déterminer le prix du risque.


2. Estimer empiriquement le risque.
3. Appréhender empiriquement le degré d’efficience du marché.
4. Mesurer la performance du portefeuille.
5. Analyser de la volatilité.

Toutefois il est important pour assimiler les techniques économétriques et les appliquer sur les
diverses sources de données, d’avoir principalement des prés-requis en termes de statistiques,
probabilité, et techniques quantitatives à utiliser comme outil permettant la structuration, l’analyse et
l’interprétation des données financières et économiques…. Outre ces prés-requis, il faut l’associé à une
manipulation exacte des logiciels d’économétrie. En effet, il existe une multitude de logiciels
d’économétrie, je cite principalement Eviews que je recommande, à interface facile, et offre plusieurs
techniques et méthodes (sans passer obligatoirement par le développement), mais il est payant. Le
logiciel R qui de plus en plus trouve de la place car il est d’abord fait partie des logiciel dits «libre» à
cause de sa gratuité et surtout que son noyau est ouvert au développement communautaire. R est une
suite intégrée de logiciels nécessaires à la manipulation des données, aux calculs numériques et à la
présentation graphique de fonctions.

Ce support correspond approximativement aux enseignements en Master sciences économiques et de


gestion, est rédigé en fonction d’un étudiant attentif. Il ne vient pas du néant, je me suis appuyer sur
différentes références et ouvrages reconnus dans la discipline. Mais aussi des ressources en ligne qui
sont de plus en plus présents aujourd’hui dans la diffusion de la connaissance.

Notre intérêt est cependant pédagogique, et de répondre à certaines difficultés soulevées chez les
étudiants. Malgré les références riches dans la matière, mais ils n’arrivent pas à appliquer leurs
connaissance dans la pratique. Toutefois le but est d’essayer de présenter nos propos de manière
pratique, et d’éviter si nécessaire les lourdes démonstrations et concepts appartenant aux sciences
dures, qui sont présentées ici dans un langage plus ou moins simplifié et rigoureux.

Enfin, selon l’expression consacrée, ce support n’engage que son auteur. Toutes suggestions et
commentaires qui peuvent l’améliorer sont le bienvenu.

3
Les séries chronologiques : introduction, premières définitions

Introduction & notation

Les séries temporelles constituent une branche de l’économétrie dont l'objet est l'étude des variables au
cours du temps. Parmi ses principaux objectifs figurent la détermination de tendances au sein de ces
séries ainsi que la stabilité des valeurs (et de leur variation) au cours du temps. On distingue
notamment les modèles linéaires (principalement AR et MA, pour Auto-Regressive et Moving
Average) des modèles conditionnels (notamment ARCH, pour Auto-Regressive Conditional
Heteroskedasticity).

Historiquement se sont les astronomes qui les premiers ont travaillé sur les séries chronologiques. La
reproduction ci-après est tiré d’un manuscrit du dixième siècle, représentant l’inclinaison des orbites
des planètes en fonction du temps. C’est en particulier grâce à ce genre de données que Kepler a pu
énoncer ses lois sur le mouvement des planètes.

Ces visualisations graphiques ont permis, grâce aux différents outils mathématiques mis en place à
partir du dix-huitième siècle de mettre en place les premiers techniques d’analyse des séries
chronologiques, parmi lesquelles l’analyse harmonique. Si les phénomènes astronomiques permettent
l’utilisation de cette théorie, c’est parce que des cycles parfaitement réguliers sont observés. Toutefois,
cette méthode s’est révélée très compliquée à mettre en œuvre en sciences humaines.

Deux articles en 1927 ont ouvert une autre voie : l’article de Yule1 qui a introduit dans la littérature les
modèles autorégressif, et en même année celui de Slutsky2 qui a introduit les moyennes mobiles, mais
son article écrit en russe n’a été traduit qu’en 1937 en anglais. Les processus introduit par Yule
deviendront les processus AR(p) et ceux introduit par Slutsky les processus MA(q).

L’étude des séries chronologiques semble avoir atteint sa maturité au cours des années 70 où des
développements significatifs sont apparus. En 1970, Box et Jenkins ont publié leur ouvrage « Time
series analysis, forecasting and control » montrant que l’étude des séries temporelles à l’aide de
processus de type ARMA (obtenus en associant les écritures des processus AR et MA) pouvait
s’appliquer à de nombreux domaines, et pouvait être facilement implémentée informatiquement.

Les modèles intégrés sont les très présent dans les séries économiques et financières dès los que les
séries sont stationnaires.

1
Udny Yule, G, 1927, « On a Method of Investigating Periodicities in Disturbed Series, with Special Reference to
Wolfer's Sunspot Numbers » in Philosophical Transactions of the Royal Society of London. Series A, Containing
Papers of a Mathematical or Physical Character, Volume 226, pp. 267-298
2
Slutsky, Eugen, 1927, « The Summation of Random Causes as a Source of Cyclic Processes », Problems of
Economic Conditions 3 (1). Moscow: Conjuncture Institute.
4
Rappel des concepts techniques & étude d’une série chronologique

Chronique : Synonyme : série chronologique, série temporelle.

Une chronique est une suite finie de valeurs numériques représentant l’évolution d’une variable
aléatoire indexé par le temps. C’est une suite d’observation des variables à des intervalles de temps
réguliers. Autrement, pour une chronique, les observations doivent être consécutives et d’une
fréquence identique. L’objet des séries temporelles est donc l’étude des processus temporels.

A titre illustratif, l’évolution des indices boursiers ou des prix d’actifs financiers, des données
économiques ou financières des entreprises, des agrégats macroéconomiques, des ventes et achats de
biens ou celle des productions agricoles ou industrielles sont, parmi tant d’autres, des chroniques qui
intéressent particulièrement les économistes et les financiers. Donc, une chronique n’est que la
réalisation d’un processus aléatoire.

Reste le grand objectif de l’étude des séries chronologique est la modélisation des processus afin de
faire des prévisions. Par exemple le faite de connaitre les ventes prévisionnelles sur un marché peut
aider à ajuster la production de produit en question.

Nous allons pour cela appliquer quatre étapes importantes :

1. Présenter la série chronologique


2. Modélisation de la série chronologique
3. Calcul des trois composantes de la chronique
4. Faire de prévisions

En effet, Le traitement des séries temporelles peut avoir plusieurs objectifs.


1. Isoler et estimer une tendance,
2. Isoler et estimer une composante saisonnière, et désaisonnaliser la série,
3. Réaliser une prévision pour des valeurs inconnues manquantes, futures ou passées,
4. Construire un modèle explicatif en termes de causalité,
5. Déterminer la durée d’un cycle.

Pour commencer nous allons présenter un exemple illustratif qui va nous accompagner durant le
chapitre suivant.

Soit la série chronologique sui correspond aux ventes enregistrés pendant la période 2006-2009, les
données sont trimestrielles (en Milliers de DHS) sont présentées dans le tableau suivant :

2006 2007 2008 2009


Trimestre 1 30 32 33 35
Trimestre 2 11 12 13 14
Trimestre 3 12 13 15 17
Trimestre 4 36 37 39 41

5
Estimation et élimination de la tendance et de la saisonnalité

But

L'étude des séries chronologiques sert à faire de la prévision à court, moyen et long terme. Il existe des
méthodes prévisionnelles quantitatives et qualitatives. Les méthodes quantitatives se subdivisent en
deux catégories. Il y a les méthodes d'extrapolation qui produisent des prévisions sur le principe d'une
corrélation de la variable étudiée avec le temps et les méthodes explicatives qui reposent sur les
corrélations entre la variable étudiée et différentes variables explicatives.

Analyse graphique

Comme il a été précédemment présenté on va commencer par l’analyse graphique à partir de


l’observation du diagramme de dispersion de la série chronologique.

On note une série temporelle de la manière suivante : (𝑌𝑡 )1≤𝑡≤𝑛 ;𝑛=16


50

40

30

20

10

0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19

Une fois le dessin est établi, il parait bien que cette une fonction compliquée à étudier et a en ressortir
avec des prévisions en utilisant les méthodes usuelles déjà étudiées. Donc lorsqu’on est d’habitude en
face d’un problème, on essaie de le décomposer en plusieurs composantes en en étudié chacune
d’elles.

Composantes

Pour notre série chronologique il existe principalement quatre composantes fondamentales :

1. La composante tendancielle ou tendance (trend) : cette composante porte sur les changements
de croissance ou de décroissance tout au long de la série.
2. La composante cyclique : cet aspect de la série fait référence à la présence d’une certaine
récurrence et peut s'observer généralement sur des intervalles de plusieurs années.
3. La composante saisonnière (saison) : il s'agit de la présence ou non d’un effet périodique qui
se rapporte à une année (trimestres, semestres etc.)
4. La composante aléatoire (erreur) : cette caractéristique d’une série chronologique constitue la
partie non expliquée par la tendance, le cycle ou la saisonnalité. Des événements rares qui
peuvent difficilement être prédits sont souvent à l'origine de ces fluctuations.

6
A partir de ces quatre3 composante il faut maintenant déterminer le modèle statistique (ou le schéma)
adéquat ; en effet, il existe une multitude de modèles statistiques, il suffit de connaitre les différentes
opérations arithmétiques. Par exemple :

1. Le modèle multiplicatif : 𝑌𝑡 = 𝑆𝑡 × 𝐶𝑡 + 𝜀𝑡
2. Le modèle multiplicatif deuxième type : 𝑌𝑡 = 𝑆𝑡 × 𝐶𝑡 × 𝜀𝑡
3. Le modèle additif : 𝑌𝑡 = 𝑆𝑡 + 𝐶𝑡 + 𝜀𝑡
4. Le modèle mixte
5. Le modèle linéaire, Le modèle polynomiale, le modèle exponentiel, etc.
6. Il y a des modèles plus compliqués détecter à l’aide des logiciels spécialisé comme Eviews,
Stata, etc.

Avec : 𝑆𝑡 , elle présente la composante saisonnière


𝐶𝑡 , elle présente la composante relative au Trend
𝜀𝑡 , elle présente la composante aléatoire.

Pour notre exemple nous avons choisi le modèle ou le schéma multiplicatif, car à partir de la
représentation graphique de la série chronologique, on peut remarquer que le deux droites délimitant
les maxima et les minima se croisent (dans le cas du modèle additif les limites supérieur et inférieur de
la série seront des droites parallèles).
La troisième étape de notre analyse est d’étudier chaque composante.

La composante Trend ou Tendance

Question importante : comment on obtient cette tendance ?

La tendance est un lieu géométrique simple qui peut être une droite ou une courbe. Et on est toujours
en présence d’une période qui peut être un mois, un trimestre, un semestre, etc. Donc une périodique
qui se réfère à une année. La détection du Trend se fait en utilisant la :

Première méthode :
On constate à partir de l’analyse graphique que la série chronologique est oscille autour d’une droite,
on conclut donc que le trend est une droite.

Deuxième méthode :
On constate sur le dessin que les pics des maxima et des minima peuvent s’ajuster sur une droite :
donc le trend est une droite.
L’interprétation de cette tendance est très importance, elle nous renseigne si la série évolue, et présente
un indicateur solide pour la prise de décision.

Traitons le cas où le Trend est une Droite


Maintenant quand a déterminé le trend, on devra le calculer par la méthode des Moindres carrés
ordinaires (MCO). Nous allons calculer la droite de trend qui prend la forme suivante :
𝐶𝑡 = 𝑎𝑡𝑖 + 𝑏 + 𝜀𝑡
Pour cela nous calculons les paramètres du modèle de régression simple par les formules suivantes :

3
Généralement on retient trois composantes (trend, saison, perturbation).
7
𝑐𝑜𝑣(𝑡, 𝐶𝑡 )
𝑎̂ =
{ 𝑣𝑎𝑟(𝑡)
̂
𝑏 = 𝐶̅ − 𝑎 × 𝑡 ̅

Notre équation estimée prend la forme de : 𝐶𝑡 = 𝑎̂𝑡𝑖 + 𝑏̂

D’où : 𝐶𝑡 = 0,4647𝑡𝑖 + 20,425 (voir le chapitre de la régression Simple pour plus de précision)

On s’attend, en ce qui concerne la représentation graphique, que cette droite passe par le milieu, car
cette la droite qui ajuste au mieux les différentes observations des ventes. Et puisque la pente est
positive la tendance est haussière.

Donc nous pouvons construire notre tableau et le graphique associé.


𝑌𝑡 𝐶𝑡 50
30 20,8897059
40
11 21,3544118
12 21,8191176 30
36 22,2838235
20
32 22,7485294
12 23,2132353 10
13 23,6779412
0
37 24,1426471 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
33 24,6073529
13 25,0720588
15 25,5367647
39 26,0014706
35 26,4661765
14 26,9308824
17 27,3955882
41 27,8602941

Nous allons poursuivre la même démarche que pour la recherche de la tendance, c'est-à-dire nous
avions deux paramètres inconnus à calculer à savoir la pente et l’ordonnée à l’origine. Maintenant
pour la recherche des composantes saisonnières associées aux données trimestrielles, comme c’est le
cas de notre exemple il s’agit de quatre saisons en référence à une année. On les appelle, les
coefficients saisonniers et ils sont obtenus grâce à la formule suivante :
1 𝑌𝑡
𝑠𝑖 = ∑
𝑐𝑎𝑟𝑑(𝑇𝑖 ) 𝐶𝑡
Pour les coefficients saisonniers nous avons quatre :
𝑇1 = {1;5; 9; 13}
4 coefficients 𝑇2 = {2;6; 10; 14}
saisonniers 𝑇3 = {3;7; 11; 15}
{𝑇4 = {4;8; 12; 16}
Donc nous avons :
𝑆𝑡 = 𝑠 2 ; 𝑡𝜖𝑇𝑖
Par exemple pour le calcul du coefficient saisonnier relatif à la deuxième saison :

8
1 𝑌𝑡
𝑆2 = 𝑠 2 = ∑
𝑐𝑎𝑟𝑑(𝑇2 ) 𝐶𝑡

1 𝑌2 𝑌6 𝑌10 𝑌14
= ( + + + )
4 𝐶2 𝐶6 𝐶10 𝐶14
Avec par exemple 𝐶2 = 0,4647 × (2) + 20,425
𝑌𝑡 𝐶𝑡
2006 1 30 20,8897059
2 11 21,3544118 𝐶2
3 12 21,8191176
4 36 22,2838235
2007 5 32 22,7485294
6 12 23,2132353 𝐶6
7 13 23,6779412
8 37 24,1426471
2008 9 33 24,6073529
10 13 25,0720588 𝐶10
11 15 25,5367647
12 39 26,0014706
2009 13 35 26,4661765
14 14 26,9308824 𝐶14
15 17 27,3955882
16 41 27,8602941
1 11 12 13 14
= ( + + + )
4 21,354 23,213 25,072 26,931
𝑆2 = 𝑠 2 = 0,52
2
Bien sur 𝑆14 = 𝑆10 = 𝑆6 = 𝑆2 = 𝑠 = 0,52
De la même manière nous pouvons calculer les autres coefficients saisonniers et le résultat est le
suivant :
𝑆1 = 𝑆5 = 𝑆9 = 𝑆13 = 𝑠1 = 1,38

𝑆3 = 𝑆7 = 𝑆11 = 𝑆15 = 𝑠 3 = 0,58

𝑆4 = 𝑆8 = 𝑆12 = 𝑆16 = 𝑠 4 = 1,53


La détermination de la variable « vente » corrigée des variations saisonnières s’effectue à partir de la
relation suivante :
𝑌𝑡
𝑌𝑐𝑣𝑠,𝑡 = ; 1≤𝑡≤𝑛
𝑆𝑡
𝑌 14
Par exemple pour 𝑡 = 14, nous avons : 𝑌𝑐𝑣𝑠,14 = 𝑆14 = 0,52 = 27,05
14

Voir le tableau des données récapitulées ci-dessous pour voir les calculs de 𝑌𝑐𝑣𝑠,𝑡

La troisième composante est la composante aléatoire : 𝜀𝑡 = 𝑌𝑡 − 𝑆𝑡 × 𝐶𝑡

Le calcul de cette composante est simple et automatique d’après la formule ci-dessus, calculons par
exemple l’erreur relative à la période 14.

9
𝜀14 = 𝑌14 − 𝑆14 × 𝐶14

𝜀14 = 14 − 0,52 × 26,931 = 0,06

Tableau des données récapitulées


𝑌𝑡 𝐶𝑡 𝑆𝑡 𝜀𝑡 𝑌𝑐𝑣𝑠,𝑡
2006 1 30 20,8897059 1,38 1,24 21,7932045
2 11 21,3544118 0,52 -0,05 21,2517546
3 12 21,8191176 0,58 -0,58 20,8068107
4 36 22,2838235 1,53 1,91 23,5308615
2007 5 32 22,7485294 1,38 0,68 23,2460848
6 12 23,2132353 0,52 -0,02 23,1837323
7 13 23,6779412 0,58 -0,66 22,5407116
8 37 24,1426471 1,53 0,06 24,1844965
2008 9 33 24,6073529 1,38 -0,87 23,972525
10 13 25,0720588 0,52 0,02 25,11571
11 15 25,5367647 0,58 0,27 26,0085134
12 39 26,0014706 1,53 -0,78 25,4917666
2009 13 35 26,4661765 1,38 -1,43 25,4254053
14 14 26,9308824 0,52 0,06 27,0476877
15 17 27,3955882 0,58 1,20 29,4763152
16 41 27,8602941 1,53 -1,62 26,7990367

Nous pouvons maintenant passer à la présentation graphique de la série brute, son trend et la série
corrigée des variations saisonnières :

50 Yt Ct Yt cvs

40

30

20

10

0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

Ce graphique montre naturellement les variations (à la baisse respectivement à la hausse) des ventes
enregistrées dont la courbe est verte par rapport à la droite de la tendance ; cependant les ventes
enregistrent une hausse lorsque la courbe verte dépasse la droite du trend indépendamment des
variations saisonnières, et respectivement enregistrent une baisse lorsque cette courbe est au-dessous
de la droite du trend. Cette analyse permet bien évidement de voir l’évolution stricte des ventes
indépendamment de l’évolution saisonnière.

10
Nous allons nous intéresser maintenant à une autre forme que peut prendre le Trend.

Traitons le cas où le Trend est une courbe

Nous proposant la méthode des moyennes mobiles (courbe de la moyenne mobile = Smooth) qui est
une méthode de lissage.

Une moyenne mobile est un outil intéressant pour lisser une série temporelle et donc pour enlever une
composante saisonnière. On utilise de préférence des moyennes mobiles non-pondérées d’ordre égal à
la période, par exemple d’ordre 7 pour des données journalières, d’ordre 12 pour des données
mensuelles. Par exemple, pour enlever la composante saisonnière due au jour de la semaine, on peut
appliquer une moyenne mobile non-pondérée d’ordre 7.

Nous allons sans tarder appliquer cette méthode et nous allons distinguer deux cas de figure possible ;
cas où la périodicité est d’ordre impaire (m=3 par exemple), et c’est le plus simple ; et le cas où l’ordre
est paire (m=4 par exemple) ; Pour les composantes saisonnières d’une période paire, il n’existe pas de
moyennes mobiles centrées non-pondérées. Il existe deux types de moyenne mobile centrée pondérée.

Prenons comme exemple les données suivantes, où est enregistré dans le tableau qui suit les variations
de l’indice des prix d’une marchandise de 1980 jusqu’au 1987.

1980 1981 1982 1983 1984 1985 1986 1987


Trimestre1 295 324,7 372,9 354 333,7 323,2 304,3 312,5
Trimestre2 317,5 323,7 380,9 345,7 323,9 342,9 285,9 336,1
Trimestre3 314,9 322,5 353 319,5 312,8 300,2 292,3 295,5
Trimestre4 321,4 332,9 348,9 317,6 310,2 309,8 298,7 318,4

Nous avons des observations périodiques faisant référence au trimestre, donc nous avons quatre
trimestres 𝑚 = 4 (qui représente un chiffre paire).

La période est paire et égale à m (m = 4 pour des données trimestrielles), on utilise une moyenne
mobile d’ordre impaire accordant un demi-poids aux deux extrémités :

IP MM MMC
1980 Trimestre1 295 312,2=1/4*(295+317,5+314,9+321,4)
Trimestre2 317,5
312,2
Trimestre3 314,9 315,9
319,6
Trimestre4 321,4 320,4
321,2
1981 Trimestre1 324,7 322,1
323,1
Trimestre2 323,7 324,5 322,1=1/2(321,2+323,1)
326,0
Trimestre3 322,5 332,0
338,0
Trimestre4 332,9 345,2 Chaque trimestre est affecté du même
352,3 poids, mais cette méthode
1982 Trimestre1 372,9 356,1
359,9 est moins avantageuse car la
Trimestre2 380,9 361,9 moyenne mobile est plus étendue.
363,9
Trimestre3 353 361,6 Donc, plus des données seront
359,2
Trimestre4 348,9 354,8 « perdues » aux extrémités de la
350,4 série.
1983 Trimestre1 354 346,2
342,0
Trimestre2 345,7 338,1
334,2
Trimestre3 319,5 331,7

11
Trimestre4 317,6 329,1 326,4
1984 Trimestre1 333,7 323,7 322,8
Trimestre2 323,9 322,0 321,1
Trimestre3 312,8 320,2 318,8
Trimestre4 310,2 317,5 319,9
1985 Trimestre1 323,2 322,3 320,7
Trimestre2 342,9 319,1 319,1
Trimestre3 300,2 319,0 316,7
Trimestre4 309,8 314,3 307,2
1986 Trimestre1 304,3 300,1 299,1
Trimestre2 285,9 298,1 296,7
Trimestre3 292,3 295,3 296,3
Trimestre4 298,7 297,4 303,6
1987 Trimestre1 312,5 309,9 310,3
Trimestre2 336,1 310,7 313,2
Trimestre3 295,5 315,6
Trimestre4 318,4

Le graphique de la série brute et la série corrigée des variations saisonnières par la Méthode des
Moyennes mobiles d’ordre paire :

390

370

350

330

310

290

270

250
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32

Donc il est clair que dans le cas où la périodicité est impaire le calcul de la moyenne mobile non
pondérée se fait de manière naturelle.

12
Exercices résolus : les séries chronologiques

Exercice

Définir les concepts suivant ainsi que leurs fonctions : (a) une série chronologique ; (b) la
périodicité ; (c) comment peut-on représenter graphiquement la série chronologique ; (d) la
tendance, les variations saisonnières et les variations accidentelles ; (e) le modèle additif ; (f) le
Modèle multiplicatif.

(a) Une série chronologique est une variable statistique dont les observations sont repérées dans le
temps. Les séries chronologiques sont extrêmement utilisées dans les sciences sociales et, en
particulier, en économie.
(b) Les séries chronologiques peuvent être annuelles, trimestrielles, mensuelles, hebdomadaires,
journalières et même infra-journalières. À l’inverse, certaines données sont disponibles
beaucoup plus rarement. On aura alors des observations sporadiques qui permettront de
retracer l’évolution sur une longue période, mais avec une périodicité irrégulière.
(c) Pour représenter graphiquement les séries chronologiques, on mettra toujours le temps en
abscisse et les valeurs de la variable en ordonnée. La représentation la plus habituelle est le
nuage de points. Mais il est fréquent que l’on relie les points entre eux. Les exemples des
figures 1 à 3 illustrent ce dernier point.
(d) L’observation des séries chronologiques permet de distinguer trois composantes principales.
La première de ces composantes, la tendance ou trend, donne le sens de l’évolution sur la
durée. La seconde composante, ce sont les variations saisonnières ou périodiques. La troisième
composante, ce sont les variations accidentelles ou encore la composante aléatoire (erreur).
Ces trois composantes ne sont pas toujours simultanément présentes dans une série
chronologique. Certaines séries n’ont pas de tendance, d’autres n’ont aucune composante
périodique. D’autres enfin, ne connaissent aucune variation accidentelle.
(e) L’observation des séries chronologiques permet de distinguer deux grand types de série :
celles qui se conforment au modèle multiplicatif et celles qui se conforment au modèle additif.
Dans le modèle additif, les variations autour du trend demeurent dans une bande de variation à
peu près constante. Dans le modèle multiplicatif, au contraire, les variations autour du trend
s’amplifient.

Modèle additif Modèle multiplicatif

13
Exercice

Soit le tableau suivant, qui donne l’évolution d’une série chronologique en fonction du
temps, repéré par l’indice t. Déterminer le trend par la régression linéaire.

t 0 1 2 3 4 5 6
z 4 3 9 10 11 16 15

Le graphique en « nuages de points » de cette série chronologique est illustré par la figure suivante.

20 Le graphique de la série chronologique z

15

10

0
0 1 2 3 4 5 6 7

On calcule les coefficients a et b de la droite de régression :


Nous allons déterminer le trend de cette série par une droite 𝑦 = 𝑎𝑥 + 𝑏, en calculant les
coefficients d’après les formules suivantes :
𝑐𝑜𝑣(𝑡, 𝑧)
𝑎̂ =
{ 𝑣𝑎𝑟(𝑡)
𝑏̂ = 𝑧̅ − 𝑎̂ × 𝑡̅
Rappelées ci-après (ou t tient le rôle de x et z celui de y).

𝒕𝒊 𝒛𝒊 𝒛𝒊 × 𝒕𝒊 𝒕𝒊 ² 𝒛𝒊 × 𝒕𝒊 ² 20
Le graphique de la série chronologique z avec tendance
0 4 0 0 0
1 3 3 1 3 15
2 9 18 4 36
3 10 30 9 90 z = f(t) = 2,18t + 3,2
10
R² = 0,9014
4 11 44 16 176
5 16 80 25 400 5
6 15 90 36 540
21 68 265 91 1245 0
0 1 2 3 4 5 6 7

265 − 7 × 3 × 9.714 61
𝑎̂ = = = 2,18
91 − 7 × 3² 28

𝑏̂ = 9.714 − 2.17 × 3 = 3,2

On obtient donc l’équation du trend suivante : 𝑧𝑡 = 𝑎̂𝑡 + 𝑏̂ = 2,18𝑡 + 3,2

14
Modélisation des séries chronologiques stationnaires et non stationnaires :

ARMA, ARIMA

Introduction

Rappelons le, Une série chronologique (𝑌𝑡 , 𝑡 ∈ 𝑇) est une suite d’observations d’une variable
𝑌 à différentes dates 𝑡. Habituellement 𝑇 est dénombrable, de sorte que 𝑡 = 1,2, … … … . , 𝑇.

Le but de l’analyse des séries temporelles (séries chronologiques) est de s’intéresser à la


dynamique d’une variable. Cette dernière est importante pour au moins deux raisons : d’un
point de vue économétrique, on ne peut relier que deux variables qui ont des propriétés
similaires, en particulier une même stabilité ou instabilité ; les propriétés mathématiques
permettant de relier deux variables dépendent de leur dynamique.

Une série temporelle peut concerner des données macroéconomiques (Masse monétaire, PIB,
inflation,……), microéconomiques (nombre d’employés d’une entreprise, ventes, …..),
politiques (nombre de votants, nombre de votes nuls,….), démographiques (âge moyen des
habitants d’une localité, leur taille,…..), financières ( Indice BRVM composite, cours d’une
action,.. ). La périodicité de la série importe peu. Il peut s’agir de mesures annuelles,
semestrielles, mensuelles etc.

Le premier objectif de ce cours est de modéliser la partie aléatoire d’une série temporelle.
Dans la première partie du cours, nous avons vu qu’une série temporelle X peut s’écrire sous
la forme simplifiée :

𝑌𝑡 = 𝐶𝑡 + 𝑆𝑡 + 𝜀𝑡
Avec 𝐶𝑡 et 𝑆𝑡 des séries déterministes représentant respectivement la tendance et la
saisonnalité et 𝜀𝑡 une série aléatoire représentant le résidu ou bruit. Dans le cadre du cours,

 Nous avions vu comment isoler les parties déterministes.


 Nous avions proposé des techniques pour les estimer.
 Nous avions supposé que la série 𝜀𝑡 était un bruit blanc.
 Enfin nous vérifions qu’une fois tendance et saisonnalité supprimées, le résidu était
bien un bruit blanc.

Nous allons nous intéresser dans ce cours à la partie aléatoire (𝜀𝑡 ) de la série temporelle et
travailler dans un cadre plus général que le précèdent : nous ne supposerons plus que ( 𝜀𝑡 ) est
un bruit blanc mais qu’il est seulement stationnaire ; ce qui signifie grossièrement que sa
moyenne, sa variance et son autocovariance sont constantes au cours du temps. A noter que le
seul fait de supprimer la tendance et la saisonnalité ne rend pas nécessairement la série
résiduelle stationnaire puisque cela n’affecte pas la variance et l’autocovariance qui doivent
être constantes pour un processus stationnaire. Nous proposerons des techniques de
modélisation de ce type de processus. En d’autre terme, on aimerait maintenant aller plus loin
et proposer un modèle capable de reproduire le « comportement » des données de façon
analogue. Ici cependant la tâche est bien différente puisque les données ne sont pas
déterministes. Il faudra choisir le modèle le plus simple possible avec le nombre le plus petit

15
de paramètres possibles. Cela nous amènera à considérer tout particulièrement une famille de
processus linéaires très couramment employée, les processus ARMA. Nous verrons ensuite
comment faire de la prédiction à partir de ces séries.

A partir de maintenant, la série résiduelle sera notée 𝑿𝒕 au lieu de 𝜺𝒕 .

En pratique, les séries temporelles résiduelles ne sont pas nécessairement stationnaires. Un


prétraitement est alors nécessaire pour supprimer la tendance et la saisonnalité d’une part
comme usuellement mais aussi pour « stationnariser » la série résiduelle. Une fois la série
« stationnarisée » analysée, et les valeurs futures prédites, il sera ensuite nécessaire de revenir
à la série initiale. Néanmoins, toutes les séries résiduelles obtenues de la sorte ne sont pas
nécessairement stationnaires : il peut arriver que la variance d’un processus varie au cours du
temps. C’est le cas des séries ARCH ou plus généralement GARCH. Nous verrons comment
procéder dans le cadre de telles séries.

Dans chacun des cas, une fois le modelé choisi, on estime les paramètres inconnus à partir des
observations. Des tests permettent ensuite de vérifier que le modèle identifié est bien adapté
aux observations. Enfin, le modèle identifie peut servir à résoudre des problèmes de contrôle,
de détection, d’interpolation ou de prédiction des valeurs futures de 𝜺𝒕 .

Processus stochastique

16
L’autocorrélation

Dans un modèle d’autocorrélation particulièrement simple a été largement adopté. Dans ce


modèle, les aléas 𝑋𝑡 sont supposés obéir au processus autorégressif d’ordre un, ou AR(1).

𝑋𝑡 = 𝜌𝑋𝑡 − 1 + 𝜀𝑡; 𝜀𝑡 ~ 𝐼𝐼𝐷(0; 𝜔²); |𝜌| < 1

Ce processus aléatoire indique que l’aléa au temps t, 𝑋𝑡, est égal a une certaine fraction 𝜌 de
l’aléa au temps t – 1. Plus un nouvel alea ou innovation 𝜀𝑡 qui est homoscédastique et
indépendant de toutes les innovations passées ou futures.

Ainsi à chaque période, une partie de l’aléa correspond à l’aléa de la période précédente,
quelque peu diminué et peut-être de signe différent et une partie correspond à l’innovation 𝜀𝑡.

On appelle la condition |𝜌| < 1 condition de stationnarité. Elle garantit que la variance de
𝑋𝑡 tend vers une valeur limite, 𝜎², plutôt que de diverger lorsque 𝑡 augmente. En substituant
successivement à 𝑋𝑡 − 1, 𝑋𝑡 − 2, 𝑋𝑡 − 3, et ainsi de suite, nous voyons que

𝑋𝑡 = 𝜌𝑋𝑡 − 1 + 𝜀𝑡

STATIONNARITE, BRUIT BLANC ET MARCHE ALEATOIRE

Processus stationnaire

La stationnarité est un concept clé pour la validité d’une régression sur séries temporelles.
D’un point de vue statistique, la stationnarité suppose que le passé est comparable au présent
et au futur. Ainsi, une série chronologique est stationnaire, au sens strict, si sa distribution de
probabilité ne change pas au cours du temps : cette définition forte de la stationnarité implique
que la distribution jointe (𝑋𝑟+1 , 𝑋𝑟+2 , . . . , 𝑋𝑟+𝑛 ) ne dépende pas de 𝑟; si c’est le cas, on
conclut que 𝑋𝑡 est non stationnaire.

Par ailleurs (définition faible de la stationnarité), un processus temporel 𝑋𝑡 est stationnaire si


:

i. 𝐸[𝑋𝑡 ] = 𝜇, pour tout 𝑡 : c’est-à-dire la série stationnaire en


moyenne.
ii. 𝑉𝑎𝑟[𝑋𝑡 ] ≡ 𝐸(𝑋𝑡 ²) = 𝜎², pour tout 𝑡 : c’est-à-dire la série est stationnaire en
variance.
iii. 𝐶𝑜𝑣[𝑋𝑡 , 𝑋𝑡+𝑘 ] ≡ 𝐸[(𝑋𝑡 – 𝜇) (𝑋𝑡+𝑘 – 𝜇)] = 𝛾𝑘 : l’autocovariance ou la covariance
entre deux périodes 𝑡 et 𝑡 + 𝑘** est uniquement fonction de la différence des temps 𝑘.

Un processus est stationnaire si celui-ci n’a ni trend, ni saisonnalité et de ce fait, fluctue


autour d’une moyenne constante. Il apparait donc sue la stationnarité est une exigence qui
assure l’utilisation du modèle en dehors de la période sur laquelle il a été estimé.

17
Un processus stationnaire possède de volatile lorsqu’il possède certaines réalisations qui
s’écartent sensiblement de la moyenne constante.

Processus non-stationnaire

Une chronique qui ne vérifie pas les hypothèses ci-dessus est dite non stationnaire. Donc, il
faudra la stationnariser avant l’estimation. La méthode de stationnarisation dépend de la
source de la non stationnarité. Pour identifier cette source, le modèle suivant doit être testé :

𝑋𝑡 = 𝛼0 + 𝛼𝑖 𝑋𝑡−𝑖 + 𝛼𝑗 𝑡 + 𝜀𝑡

En estimant ce modèle :

Décision Type de modèle Processus Méthode de stationnarisation


αi est significatif Trend and Trend Ecart à la tendance
Intercept Stationnary
(TS)
αi est non significatif et Intercept Differency Filtre aux différences
α0 est significatif Stationnary
αi est non significatif et None (ni Trend, (DS)
α0 est non significatif ni Intercept)

Procédure :

Si le modèle est un TS 1/ Estimer le modèle 𝑋𝑡 = 𝛼0 + 𝛼𝑗 𝑡 + 𝜀𝑡


2/ Générer les résidus 𝜀̂𝑡
3/ Tester 𝜀̂𝑡 si est stationnaire

Si le modèle est un DS : il faut différencier ou intégrer 𝑋𝑡 « d » fois pour obtenir une


chronique stationnaire, soit 𝑋𝑡 → 𝐼(𝑑).

Un processus DS non-stationnaire 𝑋𝑡 est intégré d’ordre d, noté I(d), si en le différenciant «d»


fois, on obtient un processus stationnaire.

Considérations pratiques pour apprécier la stationnarité d’une série.

On dispose d’une trajectoire d’une série temporelle {𝑦𝑡 } et on veut se faire une première idée
de la stationnarité de cette série par l’observation du chronogramme de la trajectoire. Une
condition nécessaire de stationnarité est que la moyenne et la variance de la série soient
constantes. Elle implique donc que le graphe de la série en fonction du temps montre un
niveau moyen à peu près constant et des fluctuations à peu près de même ampleur autour de la
moyenne supposée, quelle que soit la date autour de laquelle on examine la série. Examinons
quelques séries pour nous faire une opinion sur leur stationnarité éventuelle.

Exemples (Outils graphiques pour la stationnarité)

18
1. Une série stationnaire a une moyenne constante. Considérons le cours de l’action
Danone. Imaginons un intervalle de 200 points environ et faisons glisser cet intervalle.
Il est manifeste que pour cette série la moyenne dépend de t : elle n’est donc pas
stationnaire. En résumé, si le niveau d’une série fluctue peu autour d’un niveau moyen
sur un petit intervalle de temps mais que ce niveau moyen change avec la position de
l’intervalle, on peut conclure que la série n’est pas stationnaire.

2. Une série stationnaire a une variance constante. Ce qui veut dire que l’ampleur de la
fluctuation de la série reste la même sur un petit intervalle de temps, quel que soit cet
intervalle. Le nombre de morts sur les routes au Maroc décroît avec le temps et montre
une variabilité, donc une variance, qui diminue. Cette série n’est donc pas stationnaire.

19
20
Test de stationnarité (test de racine unitaire)

L’approche de la stationnarisation par écart à une tendance à donner lieu à deux traditions, se
distinguant par le mode de spécification et d’estimation de cette tendance. Alternativement,
la tendance peut être spécifiée et estimée comme une fonction déterministe du temps. Cette
spécification de la tendance peut être linéaire [You 1978], quadratique [Perloff et Wachter
1979] ou, peu prendre en compte des inflexions mois régulières, linéaire par morceaux
[J.Artus1977].

Test de Dickey- Fuller

Les tests de Dickey-Fuller (DF) permettent de mettre en évidence le caractère stationnaire ou


non d’une chronique par la détermination d’une tendance déterministe ou stochastique.

Les tests de Dickey-Fuller permette non seulement de détecter l’existence d’une tendance
(test de racine unitaire, « Unit Root Test »), mais aussi de déterminer la bonne manière de
stationnariser une chronique pour ce faire deux processus sont distingués:

 Les processus TS (tend stationnary) qui représente une non-stationnarité de type


déterministe.
 Les processus DS (Differency stationnary) pour les processus non stationnaires
aléatoires.

De manière générale, pour stationnariser un processus TS, la bonne méthode est celle des
moindres carrés ordinaires; pour un processus DS, il faut employer le filtre aux différences.
Le choix d’un processus DS ou TS comme structure de la chronique n’est donc pas neutre.

Le test de Dickey-Fuller simple consiste à estimer par les MCO les trois modèles :
[1] 𝑌1𝑡 – 𝑌1𝑡−1 = 𝐷𝑌1𝑡 = (𝛷1 – 1 ) 𝑌1𝑡−1

[2] 𝑌1𝑡 – 𝑌1𝑡−1 = 𝐷𝑌1𝑡 = (𝛷1 – 1 ) 𝑌1𝑡−1 + 𝑐

[3] 𝑌1𝑡 – 𝑌1𝑡−1 = 𝐷𝑌1𝑡 = (𝛷1 – 1 ) 𝑌1𝑡−1 + 𝑐 + 𝑏𝑡

Les modèles servent de base à la construction de ces tests sont au nombre de trois. Le principe
des tests est simple: si l’hypothèse 𝐻0 : 𝛷1 = 1 est retenue dans l’un de ces trois modèles,
le processus est alors non stationnaire.

Tests de Dickey-Fuller Augmentés

Dans les modèles précédents, utilisés pour les tests de Dickey-Fuller simples, le processus 𝜉𝑡
est, par hypothèse, un bruit blanc. Or il n’y a aucune raison pour que, à priori, l’erreur soit non
corrélée; On appelle tests de Deckey-Fuller Augmentés (ADF) la prise en compte de cette
hypothèse.
Les tests ADF sont fondés, sous l’hypothèse alternative 𝛷1 < 1, sur l’estimation par les
MCO des trois modèles:

21
Modèle [4] : 𝛥𝑌1𝑡 = 𝜌𝑌1𝑡−1 – ∑ 𝛷𝑗𝛥𝑌1𝑡−𝑠−1 + 𝜉𝑡
Modèle [5] : 𝛥𝑌1𝑡 = 𝜌𝑌1𝑡−1 – ∑ 𝛷𝑗𝛥𝑌1𝑡−𝑠−1 + 𝑐 + 𝜉𝑡
Modèle [6] : 𝛥𝑌1𝑡 = 𝜌𝑌1𝑡−1 – ∑ 𝛷𝑗𝛥𝑌1𝑡−𝑠−1 + 𝑐 + 𝑏𝑡 + 𝜉𝑡

Avec j variant de 2 jusqu’au 𝑝 ; et 𝜉𝑡 ~ 𝑖. 𝑖. 𝑑

Le test se déroule de manière similaire aux tests DF, seules les tables statistiques différentes.
La valeur de p peut être déterminée selon les critères de Akaike ou de schwarz, ou encore, en
partant d’une valeur suffisamment importante de p, on estime un modèle à p-1 retards, puis à
p-2 retards, jusqu’à ce que le coefficient du piéme retard soit significatif.

METHODOLOGIE DE BOX ET JENKINS

La méthodologie de Box et Jenkins permet de déterminer le processus ARMA adéquat pour la


modélisation d’une chronique. La méthodologie BJ suggère quatre étapes, à noter :
l’identification, l’estimation, la validation et la prévision.

 L’identification : cette première étape consiste à trouver les valeurs p et q des


processus ARMA en se basant sur l’étude des fonctions d’autocorrélation simple
et d’autocorrélation partielle.
 L’estimation : après avoir identifié les valeurs p et q d’un ou plusieurs processus
ARMA, il sera question d’estimer les coefficients aux termes autorégressifs et
moyenne mobile.
 La validation : après avoir estimé les différents processus ARMA, il convient à
présent de valider ces modèles, en servant d’une part, des tests de significativité
des paramètres (test de student) pour les coefficients et d’autre part, les tests
d’hypothèse nulle d’homoscédasticité (tests ARCH, White, Breusch-Pagan) et
d’hypothèse nulle d’autocorrélation pour les résidus (tests de Box-Pierce, Ljung-
Box, Breusch-Godfrey)

Autrement, l’étape de validation du modèle consiste à tester si les résidus sont de bruits
blancs. Au cas où les résidus sont de bruits blancs ; il faudra que la série de résidus soit
stationnaire (fluctuant autour d’une moyenne constante nulle) et par ailleurs, après application
des tests Box-Pierce et ARCH, que l’on rejette les hypothèses alternatives.

22
Présentation de tests de cointégration et de tests de causalité de Granger

Le concept de cointégration introduit par Granger4 (1981), Granger et Weiss5 (1983) puis
Engle et Granger6 (1997) permet de préciser la réalité et la nature des divergences entre deux
séries théoriquement liées entre elles et la notion de causalité (Granger 7 (1969)), offre
aujourd’hui un cadre assez rigoureux pour étudier la direction de la causalité
(unidirectionnelle ou bidirectionnelle) entre deux variables8.

Afin d’apprécier le caractère causal ou bi-causal des séries temporelles et de mettre en


évidence des relations de cointégration, plusieurs démarches économétriques sont engagées.
Dans un premier temps, il est nécessaire de mener des tests de stationnarité sur les séries
temporelles, pour tester l’ordre d’intégration des séries. Ensuite, en retenant l’approche
d’Engle et Granger9 avec deux variables, on étudiera la causalité éventuelle entre les
indicateurs du commerce retenus pour cette étude et le PIB. Enfin, en reprenant le modèle
théorique, on retiendra l’approche de Johansen10 pour examiner les relations de cointégration
entre les séries temporelles à long terme et à court terme.

Ordre d’intégration des séries et les tests de stationnarité

Tout d’abord, il faut déterminer la stationnarité des séries à travers des «tests de stationnarité»
ou des «tests de racine unitaire»11, pour éviter le problème de régressions fallacieuses
(Spurious Regression) soulevé par Granger et Newbold (1974)12. En effet, les tests de
causalité et cointégration sont très sensibles à la stationnarité des séries (Stock et Watson,

4
Granger Clive, (1981), Some Properties of Time Series Data and Their Use in Econometric Model Specification,
Journal of Econometrics 16, pp.121-130.

5
Granger, C. W. J., & A. A. Weiss (1983), Time Series Analysis of Error-Correcting Models, in Studies in
Econometrics, Time Series, and Multivariate Statistics, New York: Academic Press, pp. 255-278.

6
Robert F. Engle and C. W. J. Granger, (1997), Co-Integration and Error Correction: Representation, Estimation,
and Testing, Econometrica, Vol. 55, No. 2, The Econometric Society, pp. 251-276

7
Granger C. W. J., (1969), op cit.

8
Bourbonnais (2009), Econométrie, Dunod, 7ème édition, Paris. Voir aussi Éric DOR (2009).

9
Engle and Granger (1987), Cointegration and Error- Correction: Representation, Estimation and Testing,
Econometrica 55, pp. 251 - 276.

10
Greene William H. (2003), Econometric Analysis 5th Ed, New York University, Prentice Hall, Upper Saddle
River, New Jersey

11
Pour plus de détails sur les tests de stationnarité, on peut se référer à Phillips et Xiao (1998) ou à Salanié
(1999).

12
Granger, C. W., Newbold, P., (1974), Spurious regression in econometrics, Journal of Econometrics, vol. 2, pp.
11-20.

23
1989)13 et la plupart des séries macroéconomiques ne sont pas stationnaires en niveau (Nelson
et Plosser, 1982)14.

Les tests de Dickey-Fuller (DF) ou de Philipps et Perron (PP) permettent non seulement de
mettre en évidence le caractère stationnaire ou non d’une série temporelle par la détermination
d’une tendance (test de racine unitaire) mais aussi de déterminer la bonne manière de
stationnariser la série15.

Pour examiner la stationnarité des séries de données, on peut recourir aux tests de Dickey-
Fuller augmentés (ADF) qui valident ou non la présence d’une racine unitaire et en prenant en
compte l’hypothèse d’erreurs sériellement corrélées16.

En considérant la série chronologique :

Xt : Xt = ρXt−1 + ut

Avec 0 ≤ 𝜌 ≤ 1

On déduit que :

𝑋𝑡 − 𝑋𝑡−1 = (1 − 𝜌)𝑋𝑡−1 + 𝑢𝑡

Soit ∆𝑋𝑡 = 𝜗𝑋𝑡−1 + 𝑢𝑡

Avec 𝜗 = 1 − 𝜌 et donc −1 ≤ 𝜗 ≤ 0 .

Les tests de Dickey-Fuller augmentés, qui consistent à introduire des variables


supplémentaires (∆Xt−p ), avec l’hypothèse sous-jacente que l’autocorrélation des résidus a
pour cause l’absence de variables retardées différenciées dans l’équation, s’appuient sur trois
modèles de base :

- le modèle (1) sans constante ni tendance déterministe :


p

Xt = ρXt−1 + ∑ ψj ΔXt−j + ut (1.3)


j=1

Ou encore

13
Stock, J.H., Watson, M.W., (1989), New indexes of coincident and leading economic indicators, NBER
Macroeconomics Annual, pp. 351-393.

14
Nelson, C.R., Plosser, C.I., (1982), Trends and random walks In Macroeconomic Time Series, Journal of
Monterey Economics, 10, pp.139-162.

15
Bourbonnais R., (2009), op cit. Et Voir aussi Éric DOR (2009) op cit.

16
Pollock D.S.G. (1999), A Handbook of Time-Series Analysis, Signal Processing and Dynamics, Queen Mary and
West old College, The University of London UK, Academic Press.

24
p

∆Xt = ϑXt−1 + ∑ ψj ΔXt−j + ut


j=1

- le modèle (2) avec constante (b), mais sans tendance déterministe (mt ):
𝑝

𝑋𝑡 = 𝑏 + 𝜌𝑋𝑡−1 + ∑ 𝜓𝑗 𝛥𝑋𝑡−𝑗 + 𝑢𝑡 (1.4)


𝑗=1

Ou encore
𝑝

∆𝑋𝑡 = 𝑏 + 𝜗𝑋𝑡−1 + ∑ 𝜓𝑗 𝛥𝑋𝑡−𝑗 + 𝑢𝑡


𝑗=1

- le modèle (3) avec constante (b) et tendance déterministe (mt ) :


p

X t = mt + b + ρXt−1 + ∑ ψj ΔXt−j + ut (1.5)


j=1

Ou encore :
p

∆Xt = mt + b + ϑXt−1 + ∑ ψj ΔXt−j + ut


j=1

Le test s’écrit alors : H0 : ϑ = 0 contre H1 : ϑ < 0 .

Si l’hypothèse nulle est retenue dans l’un de ces trois modèles à partir de la méthode des
moindres carrés ordinaires, le processus est alors non stationnaire.

Phillips et Perron proposent une méthode non paramétrique pour corriger la présence
d’autocorrélation, en ajoutant un facteur de correction. Dans la même logique que le test de
Dickey-Fuller, ce test repose sur les trois modèles suivants :

₋ ∆Xt = ϑXt−1 + ut (1.6)

₋ ∆Xt = ϑXt−1 + b + ut
(1.7)
₋ ∆Xt = ϑXt−1 + b + mt + ut (1.8)

Si l’hypothèse nulle H0 : ϑ = 0 est retenue dans l’un des trois modèles, le processus est
considéré comme stationnaire.

Si le coefficient est significativement différent de zéro, alors l’hypothèse que X contienne une
racine unitaire est rejetée. Le rejet de l’hypothèse nulle implique que la série est stationnaire.
Dans ce cas, si la statistique ADF ou PP calculée est plus grande que la valeur critique de
McKinnon’s, alors l’hypothèse nulle n’est pas rejetée. On en conclut que la variable
considérée n’est pas stationnaire et possède une racine unitaire.

25
Cette procédure est appliquée une nouvelle fois après avoir transformé les séries considérées
en différence première. Si l’hypothèse nulle de non-stationnarité est rejetée, il est possible de
conclure que la série est intégrée d’ordre 1. Il faut alors la différencier une fois pour la rendre
stationnaire.

En outre, pour que les tests ADF ou les tests PP soient performants, il est important de choisir
l’ordre de retard, pour ne pas réduire la puissance du test (de rejeter l’hypothèse nulle de
racine unitaire). Les logiciels économétriques17 calculent le nombre optimal de retards en
fonction des critères proposés, en référence au «Schwartz Info Criteriun» et au «Bartlett
Kernel».

Le constat de stationnarité en différence première des séries permet d’entreprendre des tests
de causalité au sens de Granger pour mettre en évidence les relations causales entre deux
variables économiques.

Tests de causalité au sens de Granger entre deux variables

Selon Granger18 (1969), il s’agit simplement de déterminer si une variable x «cause selon
Granger» une variable y. La procédure consiste à observer tout d’abord dans quelle mesure les
valeurs passées de y arrivent à expliquer la valeur actuelle de y et d’analyser par la suite la
consolidation de l’estimation lorsque l’on prend en considération des valeurs retardées de la
variable x. Alors, on dit que la variable y est «causée au sens de Granger» si la variable x est
déterminante dans l’estimation de y, ou encore, si les coefficients des valeurs retardées de la
variable x sont significativement différents de zéro. Une double causalité peut apparaître, si
on doit accepter les deux hypothèses que y cause x et que x cause y ; on parle de boucle
rétroactive «feedback effect19».

Soit le modèle VAR(p) pour lequel les variables Yt et Xt sont stationnaires et ε1t , ε2t des
bruits blancs.

Dans (1.5), les hypothèses du test sont :


p p
(1.10)
Yt = α1 + ∑ β1t Yt−i + ∑ γ1i Xt−i + ε1t
i=1 i=1

- H0 : Xt ne cause pas Yt ,γ1i = 0 (pour tout i)


p p
Xt = α2 + ∑ β2t Yt−i + ∑ γ2i Xt−i + ε2t
i=1 i=1

17
Nombreux sont les logiciels qui effectuent ces calcules (R, RATS, LIMDEP, STATA, SPSS, TSP,….), pour notre
cas ils sont effectués par logiciel Eviews version 7 et Version 8.

18
Granger C. W. J., (1969), op cit.
19
Khalid SEKKAT, (1989), L’analyse de causalité comme méthode de détermination des filières industrielle,
Annal d’Economie et de Statistique, N°14, pp. 191-223.

26
- H0 : Yt ne cause pas Xt , β1i = 0 (pour tout i)

Pour effectuer le test de causalité de Granger20, les séries doivent être stationnaires et le
nombre de retards p doit être déterminé avec précision, puisque peu de retards entraînent une
erreur de spécification et trop de retards21, un gaspillage des observations et réduit le nombre
de degrés de liberté. Le choix du nombre de retards du VAR (mlag) se basera sur le critère
d’Akaik (AIC), celui de Schwarz (SC), du Likelihood Ration (LR) et celui de Hannan-Quinn
(HQ). Nous prendrons également en considération l’approche de Lütkepohl22 (2007) pour
limiter le nombre de retards à 6. Pour chaque pays, en prenant en compte les critères
mentionnés précédemment, on déterminera la longueur du décalage retenu et on effectuera
des tests de causalité au sens de Granger.

Tests de cointégration et le modèle à correction d’erreur

L’analyse de cointégration23 permet alors d’identifier les relations économiques de long terme
entre plusieurs variables et d’éviter le risque de régressions fallacieuses 24. A court terme, deux
séries peuvent avoir une évolution divergente, notamment en raison du caractère de non-
stationnarité, mais elles évoluent ensemble à long terme. Il est possible que certaines variables
soient I(1) et que les combinaisons linéaires de ces variables soient I(0). L’analyse de
cointégration est importante, car si des variables non stationnaires sont cointégrées,
l’estimation d’un modèle VAR en différences premières peut être erronée en raison de l’effet
d’une tendance commune25. Le problème consiste donc à déterminer si les séries d’un modèle
sont cointégrées, et à estimer la relation de long terme, puis de court terme entre les variables
considérées.

Identification des Relations de cointégration

20
Clive W. J. Granger, (2001), Essays in Econometrics Collected Papers of Clive W. J. Granger Volume I: Spectral
Analysis, Seasonality, Nonlinearity, Methodology, and Forecasting, Cambridge University Press, pp. 1-554.

21
Helmut Lütkepohl, Markus Krätzig, (2004), Applied Time Series Econometrics, Cambridge University Press,
The Edinburgh Building, Cambridge, UK.

22
Helmut Lütkepohl, (2007), New Introduction to Multiple Time Series Analysis, 764 pages.
23
Soren Johansen, (1996), Likelihood-Based Inference in Cointegrated Vector Autoregressive Models (Advanced
Texts in Econometrics, Oxford University Press, USA, pp 1-280.

24
Caner, M., Hansen, B.E., (2001), Threshold Autoregression With A Unit Root, Econometrica vol 69, pp.1565–
1596.

25
I Gusti Ngurah Agung (2009), Time Series Data Analysis Using Eviews, John Wiley & Sons (Asia), Singapore

27
Dans notre étude, les tests seront menés dans un modèle 𝑉𝐴𝑅(𝑝), où p représente le retard, Si
l’on suppose que p = 1, on obtient :

Yt = A1 Yt−1 + εt

Le test de cointégration de Johansen26 (1988) permet de déterminer le nombre de relations de


cointégration à partir de deux tests fondés sur les valeurs propres d’une matrice. La procédure
se subdivise en deux étapes27 : le calcul de deux résidus, puis le calcul de la matrice
permettant le calcul des valeurs propres.

L’estimation se base sur l’équation suivante :

∆Yt = A0 + B1 ∆Yt−1 + B2 ∆Yt−2 + ⋯ + BP−1 ∆Yt−P+1 + πYt−1 + ε


p
Où les matrices Bi sont des fonctions des matrices Ai et π = (∑i=1 Ai − I). La matrice π peut
s’écrire sous la forme π = αβ′ où α est la force de rappel vers l’équilibre et β contient les
relations de cointégration 𝑟.

Au cours de la première étape, deux régressions sont effectuées :

̂0 + A
1 - ∆Yt = A ̂ 1 ∆Yt−1 + A
̂ 2 ∆Yt−2 + ⋯ + A
̂ P ∆Yt−P + ut

̂0 + A
2 - ∆Yt = A ̂ 1 ∆Yt−1 + A
̂ 2 ∆Yt−2 + ⋯ + A
̂ P ∆Yt−P + νt

Yt est un vecteur de dimension (𝑘 × 1)constitué des 𝑘 variables (𝑦1𝑡 , 𝑦2𝑡 , . . , 𝑦𝑘𝑡 ), A0 est un
vecteur de dimension (𝑘 × 1) et Ai est un vecteur de dimension (𝑘 × 𝑘).

ut et νt sont alors les matrices des résidus de dimension (𝑘, 𝑛) avec 𝑘, le nombre de variables
et 𝑛 le nombre d’observations.

Au cours de la seconde étape, le calcul de quatre matrices des variances-covariances de


dimension (𝑘 × 𝑘) est effectué à partir des résidus ut et νt . Ensuite les 𝑘 valeurs propres de
la matrice M de dimension (𝑘 × 𝑘) sont extraites.

Le premier test développé par Johansen est le test de la trace. Une statistique est calculée :
𝑘

𝜆𝑡𝑟𝑎𝑐𝑒 = −𝑛 ∑ 𝐿𝑛(1 − 𝜆𝑖 )
𝑖=𝑟+1

26
Erik Hjalmarsson and Pär Österholm, (2007), Testing for Cointegration Using the Johansen Methodology
when Variables are Near Integrated, IMF Working Paper, WP/07/141, International Monetary Fund, pp. 1-19.
27
Pollock D.S.G. (1999), A Handbook of Time-Series Analysis, Signal Processing and Dynamics, Queen Mary and
West old College, The University of London UK, Academic Press.

28
Avec 𝑛, le nombre d’observations, 𝜆𝑖 la ième valeur propre de la matrice M, 𝑘 le nombre de
variables et 𝑟, le rang de la matrice. Cette statistique suit une loi de probabilité similaire à un
𝜒 2 (table de Johansen et Juselius (1990)28). Plusieurs cas de figures peuvent apparaître :

- Le rang de la matrice π est égal à 0 (𝑟 = 0), soit 𝐻0 : 𝑟 = 0 et 𝐻1 : 𝑟 > 0 ; si on rejette


𝐻0 on exécute le test suivant,
- Le rang de la matrice π est égal à 1 (𝑟 = 1), soit 𝐻0 : 𝑟 = 1 et 𝐻1 : 𝑟 > 1 ; si on rejette
𝐻0 on exécute le test suivant,
- Le rang de la matrice π est égal à 2 (𝑟 = 2), soit 𝐻0 : 𝑟 = 2 et 𝐻1 : 𝑟 > 2 ; la procédure
s’arrête lorsque 𝐻0 est acceptée.

Le second test de la valeur propre maximale s’appuie sur la statistique suivante :

𝜆𝑚𝑎𝑥 = −𝑛𝐿𝑜𝑔(1 − 𝜆𝑟+1 ) avec 𝑟 = 0,1,2 ….

Ce test fonctionne également par exclusion d’hypothèses alternatives et s’effectue de manière


séquentielle. L’hypothèse nulle de la statistique de la valeur propre maximale coïncide avec
celle de la statistique de la trace, mais son hypothèse alternative assume qu’il y a 𝑟 + 1
relations de cointégration entre les séries. L’idée est d’améliorer le pouvoir du test en limitant
l’alternative à un rang de cointégration qui est juste un de plus que sous l’hypothèse nulle.

Avant de mener les tests de relations cointégrantes, il convient tout d’abord de déterminer
l’introduction potentielle des termes déterministes (constance et tendance) à la fois dans la
relation de cointégration de long terme et dans la dynamique de court terme. Il faut également
tester l’ordre du VAR, en se référant principalement aux généralisations multivariées du
critère d’Akaike (AIC), mais également au critère de Schwarz (SC), du Likelihood Ration
(LR) et celui de Hannan-Quinn (HQ), afin de choisir le nombre de décalages approprié. Dans
l’application de la méthode de Johansen29 (1995), cinq modèles sont proposés30. Les séries de
données considérées peuvent comporter une moyenne non nulle et un trend déterministe
(linéaire) ou même quadratique. La détermination des termes déterministes et du modèle
retenu dans l’analyse de cointégration s’appuie sur des raisonnements économiques qui visent
à juger du caractère tendanciel des séries, sur le degré de significativité du «trend» et de la
constante au cours des tests de racine unitaire, sur les critères du maximum de vraisemblance
et d’Akaike qui mettent en évidence le modèle le plus approprié. Le «Likelihood Ratio» (LR)
est défini par :

28
Russell Davidson, James G. Mackinnon, (2003), Econometric Theory and Methods, Oxford University Press.
29
Johansen, S. (1995), Likelihood Based Inference in Cointegrated Vector Error Correction Models, Oxford
University Press, Oxford.

30
Les modèles : a) Absence de constance et de tendance dans le modèle VAR ainsi que dans l'équation de
cointégration; b) Absence de constance et de tendance dans le modèle VAR, mais l'équation de cointégration
comprend une constante; c) Présence de constance dans le modèle VAR et aussi dans l'équation de
cointégration ; d) Absence de tendance dans le modèle VAR, et présence de constance et de tendance dans
l'équation de cointégration ; e) Existence d‘une tendance quadratique dans les données.

29
𝑄(𝑟) = −𝑇 ∑𝑘𝑖=𝑟+1(𝐿𝑜𝑔(1 − 𝜆𝑖 )) pour 𝑟 = 0,1,2 … . 𝑘 − 1 où 𝜆𝑖 est la ième valeur propre. La
sélection du modèle et le choix de l’ordre peut se faire par le test du ratio de vraisemblance,
au regard du degré de significativité du 𝜒 2 et du nombre de degrés de liberté. Pour chaque
équation du VAR, on effectue un test de Wald pour savoir si une variable endogène peut être
considérée comme exogène.

Présentation du modèle vectoriel à correction d’erreur

D’après le théorème de représentation de Granger, l’existence d’un système cointégré


implique la présence d’un mécanisme à correction d’erreur qui restreint les écarts par rapport
à l’équilibre de long terme. La présence de relations de cointégration permet alors d’estimer
un modèle à correction d’erreur vectoriel (VECM). Les modèles à correction d’erreur
permettent de reproduire la dynamique d’ajustement vers l’équilibre de long terme. La
principale caractéristique du VECM est sa capacité à corriger tout déséquilibre qui pourrait
impacter le système d’une période à une autre. Le terme de correction d’erreur prend en
compte ces déséquilibres et guide les variables du système vers le retour à l’équilibre. Ce
mécanisme force la déviation de court terme à revenir à la période suivante en fonction de
l’équilibre à une période donnée. Le modèle à correction d’erreur peut s’écrire de la manière
suivante :

∆xt = α1 zt−1 + lagged(∆xt , ∆yt ) + ε1t (1.11)

∆yt = α2 zt−1 + lagged(∆xt , ∆yt ) + ε2t

zt−1 représente le terme à correction d’erreur issu de l’estimation de la relation de


cointégration. ε est le terme d’erreur stationnaire. |α1 | + |α2 | ≠ 0

Avant d’appliquer les modèles à correction d’erreur, des tests de causalité de Granger sont
effectués sur les variables pour voir si les statistiques sont significativement différentes de
zéro selon le test standard du χ² . Ensuite, on applique des tests de stationnarité pour
confirmer que les résidus sont I(0). Les estimations des modèles à correction d’erreur
permettent d’analyser le paramètre du terme à correction d’erreur (erreur standard entre
parenthèses et le t-statistique entre crochets), la dépendance des variables par rapport aux
autres variables décalées et la qualité de l’estimation du modèle (R² et la statistique de Fisher).

30
31

Vous aimerez peut-être aussi