Vous êtes sur la page 1sur 33

Université de Bouaké Année universitaire 2019-2020

ECONOMETRIE DES SERIES


TEMPORELLES

- SUPPORT DE COURS

- EXERCICES avec Indications de correction

Licence 3 Sciences Economiques


Université de Bouaké Année universitaire 2019-2020

Licence 3 Sciences Economiques

ECONOMETRIE DES SERIES TEMPORELLES

Cours de Dr. N’GUESSAN N’Da Philippe

1
SOMMAIRE

INTRODUCTION GENERALE (3)

CHAPITRE 1 : LES COMPOSANTES ET CARACTERISTIQUES D’UNE SERIE


TEMPORELLE (6)

I- Introduction (6)
II- Les composantes d’une série temporelle (6)
III- Les caractéristiques d’une série temporelle (8)

CHAPITRE 2 : PROCESSUS ALEATOIRES STATIONNAIRES ET PROCESSUS


ARMA (17)

I- Introduction (17)
II- Définition d’un processus stochastique (17)
III- Les processus stationnaires (18)
IV- Les fonctions d’autocorrélation (21)
V- La classe des processus ARMA linéaires et stationnaires (23)

CHAPITRE 3 : LA METHODOLOGIE DE BOX ET JENKINS (25)

I- L’identification (25)
II- L’estimation des paramètres (26)
III- Tests de validation et choix de modèle (27)

BIBLIOGRAPHIE (29)

2
Introduction générale
L’économétrie n’est pas assimilable uniquement à la statistique économique ou aux méthodes
mathématiques appliquées à l’économie. Elle se définit comme la conjonction de la théorie
économique, de la statistique et des mathématiques.

Elle permet d’étudier les phénomènes économiques à partir de l’observation statistique des
grandeurs pertinentes pour décrire ces phénomènes. Son objectif est d’exprimer des relations
entre les variables économiques sous une forme permettant la détermination de ces dernières à
partir des données observées. On supposera par exemple que la relation entre la dépense de
logement D d’un ménage et son revenu R peut s’exprimer par une relation affine

𝐷 = 𝐷0 + 𝑎𝑅,

où 𝐷0 est la dépense minimale indépendante du revenu et a la fraction du revenu consacrée au


logement.

L’économétrie construit donc des modèles, c’est-à-dire des schématisations ou des


présentations formalisées des phénomènes à l’aide de relations mathématiques, dont les
variables sont des grandeurs économiques. Elle étudie aussi les méthodes statistiques
permettant l’estimation de ces relations (la détermination 𝐷0 et a) ainsi que les procédés de
validation empirique conduisant à accepter ou à rejeter les hypothèses de la théorie
économique. Son but est donc de proposer les meilleures estimations possibles des paramètres
des modèles qui lui sont soumis, dans l’optique de contribuer à la validation des théories
économiques.

L’intégration de la théorie économique, de la statistique et des mathématiques est devenue


réalisable du fait de la disponibilité des données, de sources d’information de plus en plus
nombreuses et variées, de fondements théoriques bien établis et grâce à l’essor de l’outil
informatique. La seule exploitation des données ne peut expliquer un phénomène
économique ; il est indispensable d’avoir une base économique théorique solide pour en
établir les fondements. Les mathématiques formalisent les principes énoncés par la théorie
économique, tandis que les techniques statistiques exploitent les données disponibles et
valident empiriquement le cadre théorique, celui-ci pouvant à son tour être influencé par les
conclusions empiriques. De ce fait chacun des points de vue de la statistique, de la théorie
économique et des mathématiques est une condition nécessaire, mais non suffisante en elle-
même, à une compréhension réelle des relations quantitatives dans la vie économique. C’est
donc la conjonction de ces trois éléments, ou encore l’usage des méthodes mathématiques et
statistiques en économie qui constitue l’économétrie.

L’étude empirique des phénomènes économiques est réalisée grâce à une formalisation
mathématique rigoureuse de la théorie économique et sa confrontation aux données par
l’utilisation des techniques statistiques. L’économétrie est ainsi une branche de la théorie
économique en charge de la quantification et de la vérification, mais elle constitue également
une branche de la statistique mathématique dans la mesure où elle développe des méthodes
originales d’analyse de données.

3
La pratique de l’économétrie exige donc l’utilisation de données. Les données statistiques en
économie peuvent se présenter sous trois formes : données en coupes transversales, séries
temporelles, données de panel.

En microéconométrie, une base de données est le plus souvent une enquête ou un fichier
administratif contenant l’observation d’un ensemble de variables pour une population
d’individus statistiques. Les enquêtes sont produites par les instituts nationaux de statistiques
(enquête niveau de vie des ménages de l’INS, recensement général de la population et de
l’habitat, enquête conditions de vie des ménages de l’INSEE) ou par des instituts de sondage
(enquête de consommation d’un bien, d’utilisation d’une application sur le téléphone
portable). Les fichiers issus de ces enquêtes sont du type individus/variables, et donnent pour
chaque individu de la base des informations sur les variables retenues (par exemple l’âge, le
niveau d’éducation, le revenu, la dépense consacrée au transport, la catégorie socio-
professionnelle, etc.). Ces informations, qui sont collectées à un moment donné (ou à un
point du temps), sur un échantillon de la population, constituent des données en coupes
transversales ou coupes instantanées.

Parfois les mêmes individus sont observés plusieurs fois au cours du temps : on parle alors de
données de panel ou longitudinales. Ces données sont caractérisées par leur double
dimension individuelle (i) et temporelle (t). Plus précisément elles sont constituées
d’observations retraçant les comportements d’un ensemble d’individus (ménages, pays,
régions, entreprises, etc.) suivis pendant plusieurs périodes. Par exemple le nombre de
naissances enregistrées par an et par département de 1980 à 2010. Dans des données de panel,
si on fixe l’individu observé, on obtient la série temporelle le concernant, tandis que si on fixe
la période examinée, on obtient une coupe transversale pour l’ensemble des individus.

En macroéconométrie et en économétrie financière, on observe généralement les grandeurs


(PIB, inflation, importations, indices de prix, taux de change, etc.) au cours de différentes
périodes de temps. On parle alors de séries temporelles ou séries chronologiques.

Une série temporelle est constituée d’une variable observée à des dates régulières, et donne
donc l’évolution dans le temps d’une variable (niveau des prix, cours d’une devise, etc.).Il
peut s’agir d’une série chronologique réelle ou d’une suite théorique de variables aléatoires
indicées dans le temps. Différentes périodicités sont généralement disponibles : mensuelle,
trimestrielle, annuelle, etc. Les séries temporelles sont des données sur la même unité
d’observation à de multiples instants du temps. Par exemple le PIB de la Côte-d’Ivoire sur 20
ans, la consommation par tête dans un Etat durant une année (périodicité hebdomadaire).

Les séries temporelles diffèrent des données en coupes transversales dans la mesure où
l’ordre des données importe, et la notion d’échantillon aléatoire est plus discutable, car on n’a
qu’une seule réalisation. Une série temporelle est ainsi une suite finie d’observations
correspondant à la même variable, et indexées par le temps. On représente en général les
séries temporelles sur des graphiques de valeurs (ordonnées) en fonction du temps (abscisses).

Les séries temporelles peuvent être observées de manière continue ou de manière discrète.
Les modèles de la finance par exemple reposent souvent sur une hypothèse de temps continu,

4
car sur un marché boursier ou un marché de devises, le grand nombre de transactions et donc
l’abondance des données fait que les transactions paraissent très rapprochées. Cela peut
permettre l’utilisation de modèles où le temps est continu et non discrétisé en périodes.

Par contre les données macroéconomiques sont typiquement des données observées à temps
discret à un intervalle du mois, du trimestre ou même de l’année.

Certains problèmes spécifiques posés par les séries temporelles tels que l’identification et le
retrait de la tendance, la correction des variations saisonnières, la détection de rupture, la
séparation entre le court et le long terme, le repérage des tendances et cycles, nécessitent la
mise au point d’un certain nombre de techniques pour le traitement économétrique. Ces
données sont en effet rarement indépendantes au cours du temps.

L’économétrie des séries temporelles consiste donc en l’analyse de la dynamique des


variables considérées, plus précisément leur évolution, la propagation de la variation de l’une
d’entre elles sur les autres, leurs causalités, leur variations saisonnières, etc. Le point de vue le
plus simple est le traitement d’une unique variable observée à des périodes différentes.
L’objectif premier est donc d’analyser la nature des dépendances temporelles dans les séries,
c’est-à-dire la manière dont la valeur en t est liée aux valeurs précédemment observées. Un
des postulats de base de ces approches est donc l’existence de telles dépendances. De ce fait
une série temporelle composée de valeurs successives non corrélées (c’est-à-dire un bruit
blanc) est considérée comme un cas limite.

Les séries temporelles permettent de construire des modèles de prévision, d’estimer des effets
causaux dynamiques, de mesurer les relations économiques et analyser des politiques mises
en œuvre. Le but poursuivi est donc la formulation d’un modèle statistique qui soit une
représentation congruente du processus stochastique (inconnu) qui a généré la série observée.
Par représentation congruente, on entend un modèle qui soit conforme aux données sous tous
les angles mesurables et testables.

Dans ce cours introductif, nous nous intéressons à l’étude univariée et à la modélisation des
séries temporelles stationnaires. Nous présentons d’abord les composantes et caractéristiques
d’une série temporelle (Chapitre 1) avant d’analyser ensuite les processus aléatoires
stationnaires (Chapitre 2) et enfin la méthodologie de Box et Jenkins (Chapitre 3).

5
CHAPITRE 1 : LES COMPOSANTES ET CARACTERISTIQUES D’UNE
SERIE TEMPORELLE

I : Introduction

Une règle générale dans l’analyse des séries temporelles consiste à regarder les données avant
d’effectuer le moindre calcul. Il est toujours utile, en première analyse, de représenter
l’évolution temporelle d’un phénomène à l’aide d’un graphique ayant en ordonnées la valeur
du phénomène économique et en abscisses le temps.
L’examen graphique des séries chronologiques (𝑦𝑖 , 1 ≤ 𝑖 ≤ 𝑛) permet de dégager, lorsqu’on
envisage une période de temps suffisamment longue, un certain nombre de composantes
fondamentales de l’évolution des grandeurs étudiées. Il faut alors analyser ces composantes,
en les dissociant les unes des autres, c’est-à-dire en considérant la série comme résultant de la
combinaison de différentes composantes, telle que chacune d’elles ait une évolution simple.

II : Les composantes d’une série temporelle

Une série temporelle peut présenter une tendance (ou trend), des variations saisonnières, des
cycles, des fluctuations irrégulières, des variations accidentelles et des points de changement.

1) La tendance(𝑓𝑖 , 1 ≤ 𝑖 ≤ 𝑛) représente l’évolution à long terme de la grandeur


étudiée, et traduit l’aspect général de la série. Elle se représente comme une fonction
du temps, et peut être linéaire ou non linéaire (quadratique, logistique, etc.).
Tendance linéaire : 𝑌𝑡 = 𝑎 + 𝑏𝑡
Tendance quadratique :𝑌𝑡 = 𝑎 + 𝑏𝑡 + 𝑐𝑡 2
1
Tendance logistique : 𝑌𝑡 = 𝑘+𝑎𝑏𝑡 , 𝑏 > 0

2) Les variations saisonnières(𝑠𝑖 , 1 ≤ 𝑖 ≤ 𝑛) sont liées au rythme imposé par les


saisons météorologiques (production agricole, consommation d’électricité, demande
de parapluies, etc.) ou encore par des activités économiques et sociales (fêtes,
vacances, soldes, etc.). Mathématiquement ce sont des fonctions périodiques, c’est-à-
dire qu’il existe un entier 𝑝 appelé période, tel que 𝑠𝑖 = 𝑠𝑖+𝑝 , ∀𝑖 ≥ 1.
Cette composante est entièrement déterminée par ses 𝑝 premières valeurs 𝑠1 , 𝑠2 , … , 𝑠𝑝 . La
composante saisonnière a une périodicité connue.
On rencontre aussi des phénomènes pour lesquels la période peut elle-même varier. On parle
alors de cycles.

3) Les cycles(𝑐𝑖 , 1 ≤ 𝑖 ≤ 𝑛) regroupent des variations à période moins précise autour de


la tendance, par exemple les phases économiques d’expansion et de récession. Ces
phases durent généralement plusieurs années, mais n’ont pas de durée fixe. Un cycle
est un phénomène approximativement périodique. Sans informations spécifiques, il est

6
généralement difficile de dissocier la tendance du cycle. Ainsi dans le cadre de ce
cours la composante tendance regroupera pour la plupart du temps aussi les cycles.

4) Les fluctuations irrégulières / bruit (𝑒𝑖 , 1 ≤ 𝑖 ≤ 𝑛) sont des variations de faible


intensité, de courte durée et de nature aléatoire. Ce qui signifie, dans un cadre
purement descriptif, qu’elles ne sont pas complètement explicables. En effet, elles ne
sont pas clairement visibles dans les graphiques, à cause de leur faible intensité par
rapport aux autres composantes.
5) Les variations accidentelles, ou observations aberrantes sont des valeurs isolées
anormalement élevées ou faibles et de courte durée. Ces variations brusques de la série
sont généralement explicables (tempête, mesures institutionnelles favorables, etc.). La
plupart du temps, ces accidents sont intégrés dans les séries des bruits ou fluctuations
irrégulières.
6) Les points de changement sont des points où la série change complètement d’allure,
par exemple de tendance. Ils sont normalement explicables, et imposent une analyse
séparée de la série, par morceaux.

En résumé, nous considérerons une série temporelle comme issue de la combinaison de trois
composantes :

(𝑓𝑖 , 1 ≤ 𝑖 ≤ 𝑛) la tendance (intégrant éventuellement un cycle) ;


(𝑠𝑖 , 1 ≤ 𝑖 ≤ 𝑛)les variations saisonnières ;
(𝑒𝑖 , 1 ≤ 𝑖 ≤ 𝑛) les fluctuations irrégulières (intégrant éventuellement des variations
accidentelles).

Trois types de décomposition sont proposés pour modéliser la série : le modèle additif, le
modèle multiplicatif et les modèles mixtes.

Selon le modèle additif, on a 𝑦𝑖 = 𝑓𝑖 + 𝑠𝑖 + 𝑒𝑖 , 1 ≤ 𝑖 ≤ 𝑛.


Pour bien séparer la tendance de la composante saisonnière, et pour des raisons d’unicité dans
la décomposition proposée, on impose que la somme des facteurs saisonniers soit nulle :
𝑝

∑ 𝑠𝑗 = 0
𝑗=1

Si l’on considère la série des températures moyennes relevées chaque mois en un site depuis
janvier 2000 :

les données étant mensuelles, la période est de un an, et donc p=12


des valeurs 𝑠1 = −10 𝑒𝑡 𝑠6 = 8 signifie que le mois de janvier est plus froid de 10° par
rapport à l’ensemble de l’année, alors que juin est plus chaud de 8°.
une fluctuation irrégulière 𝑒14 = −2 signifie qu’il a fait 2° de moins que prévu pour le mois
de février, en 2001 (c’est-à-dire ce que nous laissaient prévoir la tendance et l’effet saisonnier
pour février 2001).

7
Selon le modèle multiplicatif, on a 𝑦𝑖 = 𝑓𝑖 (1 + 𝑠𝑖 )(1 + 𝑒𝑖 ), 1 ≤ 𝑖 ≤ 𝑛.

Dans ce modèle, on considère maintenant que les amplitudes des fluctuations dépendent du
niveau. Considérons le nombre d’entrées quotidiennes dans un cinéma. Des valeurs comme
𝑠3 = −0,5 𝑒𝑡 𝑠6 = 0,8 signifient que la fréquentation de cette salle diminue de 50% le
mercredi et augmente de 80% le samedi (par rapport à l’ensemble de la semaine). Une valeur
𝑒9 = 0,2 signifie que le nombre d’entrées du deuxième mardi a été de 20% supérieur au
chiffre attendu pour ce jour. Le modèle multiplicatif est généralement utilisé pour des données
de type économique.

Dans les modèles mixtes, l’addition et la multiplication sont utilisées. On peut supposer par
exemple que la composante saisonnière agit de façon multiplicative, alors que les fluctuations
irrégulières sont additives. On a dans ce cas 𝑦𝑖 = 𝑓𝑖 (1 + 𝑠𝑖 ) + 𝑒𝑖 , 1 ≤ 𝑖 ≤ 𝑛.

III : Les caractéristiques d’une série temporelle

En présence d’une série temporelle, il est possible d’ajuster une tendance par simple
régression linéaire de la variable en ordonnées (la variable d’intérêt) en fonction du temps. En
économétrie classique, cet ajustement obtenu par les Moindres Carrés Ordinaires (MCO)1,
peut être utilisé à des fins de prédiction de la variable endogène. Mais avec des séries
temporelles, tout ajustement de ce type doit être utilisé avec précaution : certaines
caractéristiques importantes des séries temporelles nous empêchent d’utiliser le trend linéaire
à des fins prévisionnelles. Nous analyserons ici deux de ces caractéristiques, que sont
l’autocorrélation des termes de la série et la présence d’une saisonnalité.

III-1 : L’autocorrélation des termes

III-1-1 : Détection de l’autocorrélation

La corrélation entre les termes caractérise généralement une série temporelle. Elle traduit le
fait que chaque observation dépend statistiquement des observations précédentes. La série
temporelle est en effet l’observation des n premières réalisations d’un processus stochastique
(𝑋𝑡 )𝑡. Pour l’analyse de telles données, on ne peut utiliser les modèles précédents de
régression ordinaires, où les observations sont indépendantes.

La corrélation des termes peut même entrainer la violation de l’hypothèse d’absence de


colinéarité entre les variables explicatives dans le modèle de régression multiple. Or cette
hypothèse est nécessaire pour assurer la régularité2 de la matrice (𝑋′𝑋). En cas de colinéarité
parfaite entre deux variables explicatives, matrice (𝑋′𝑋) est singulière et la méthode des
MCO défaillante. Ainsi l’existence de l’inverse (𝑋′𝑋)−1n’étant pas garantie, le vecteur de
paramètres ne peut être obtenu par la méthode des MCO.

1
La méthode des Moindres Carrés Ordinaires permet d’estimer un vecteur de coefficients en minimisant la
somme des carrés des erreurs.
2
Une matrice régulière est une matrice inversible ou non singulière.
8
La corrélation des termes de la série entraine aussi une autocorrélation des résidus, violant
ainsi une des hypothèses du modèle linéaire de base. Deux variables sont dites corrélées
lorsqu’elles ont une évolution commune. Il y a corrélation positive lorsque l’on constate une
augmentation (ou une diminution) simultanée des valeurs des deux variables. Il y a
corrélation négative si les valeurs de l’une des variables augmentent tandis que celles de
l’autre diminuent. L’autocorrélation est positive si les résidus sont pendant plusieurs périodes
consécutives soit positifs, soit négatifs. L’autocorrélation est négative si les résidus sont
alternés.

Pour se faire une idée nette de cette autocorrélation, le test de Durbin-Watson est utilisé, afin
de tester une autocorrélation des erreurs d’ordre 1 selon la forme :
𝑒𝑡 = 𝜌𝑒𝑡−1 + 𝑣𝑡 ,
où les 𝑣𝑡 sont supposés indépendants et donc entièrement imprévisibles. Aussi sont-ils
souvent appelés « bruit blanc ».
𝜌 représente le degré de corrélation des termes de la série.
∑𝑛
𝑡=2(𝜀𝑡 −𝜀𝑡−1 )
2
La statistique du test de Durbin-Watson est 𝐷𝑊 = ∑𝑛 2
,
𝑡=1 𝜀𝑡
où 𝜀𝑡 représente les résidus de l’estimation du modèle.
Par construction cette statistique varie entre 0 et 4.
Pour tester l’autocorrélation positive, on teste 𝐻0 : 𝜌 = 0, contre 𝐻1 : 𝜌 > 0, à un seuil choisi
(généralement 5%). La table de Durbin-Watson donne deux valeurs-limites critiques
𝐷𝐿 𝑒𝑡 𝐷𝑈 .
On rejette 𝐻0 𝑠𝑖 𝐷𝑊 < 𝐷𝐿 et on ne rejette pas 𝐻0 𝑠𝑖 𝐷𝑊 > 𝐷𝑈
Application :
Au seuil de 5%, avec une taille d’échantillon n=15 et k=3 régresseurs, on a
𝐷𝐿 = 0,82 𝑒𝑡 𝐷𝑈 = 1,75.

Pour tester l’autocorrélation négative(𝐻0 : 𝜌 = 0, 𝑐𝑜𝑛𝑡𝑟𝑒 𝐻1 : 𝜌 < 0),, pour une même taille
d’échantillon, un même nombre de régresseurs et pour le même seuil de significativité, les
nouvelles valeurs critiques sont 4 − 𝐷𝐿 = 4 − 0,82 = 3,18 et 4 − 𝐷𝑈 = 4 − 1,75 = 2,25.
On rejette 𝐻0 𝑠𝑖 𝐷𝑊 > 3,18 et on ne rejette pas 𝐻0 𝑠𝑖 𝐷𝑊 < 2,25.

III-1-2 : Estimation en présence d’autocorrélation des erreurs : les Moindres Carrés


Généralisés (MCG)

En cas de corrélation des termes de la série, les estimateurs obtenus par les MCO ne gardent
pas toutes les bonnes propriétés recherchées (BLUE)3. Ils sont en effet sans biais mais ne sont
plus à variance minimale, car la variance estimée de certains coefficients augmente avec la
corrélation des termes de la série.
La corrélation des termes de la série signifie que les observations successives sont, dans une
certaine mesure, dépendantes les unes aux autres. Une corrélation des termes positive
signifie que les observations « indépendantes » tendent à ressembler aux observations
3
Best Linear Unbiaised Estimator. Un estimateur BLUE est le meilleur estimateur linéaire sans biais (au sens
qu’il fournit les variances les plus faibles).
9
précédentes et donnent en conséquence peu d’informations nouvelles. Ainsi n observations de
la série corrélées fournissent moins d’informations sur le trend (et le mouvement saisonnier)
que n observations indépendantes. En conséquence, les estimations obtenues en utilisant ces
observations corrélées sont moins fiables.

On considère le modèle de régression :


𝑌𝑡 = 𝛼 + 𝛽𝑋𝑡 + 𝑒𝑡 , (Eq. 1),
où 𝑋𝑡 représente une série chronologique jugée importante quant à la détermination de 𝑌𝑡 . On
suppose que dans (Eq.1), le résidu 𝑒𝑡 est corrélé avec le terme 𝑒𝑡−1 et pour simplifier, on
prend 𝜌 = 1 :
𝑒𝑡 = 𝑒𝑡−1 + 𝑣𝑡 , (Eq. 2)
où 𝑣𝑡 désigne un bruit blanc (non corrélé avec 𝑣𝑡−1 ).
Afin de corriger le problème posé par la corrélation entre les termes de la série, il faut
effectuer des transformations sur les données, sous une forme qui satisfait les hypothèses des
MCO.
Comme (Eq. 1) est valable pour toute période t, elle reste vraie pour la période t-1, ainsi :

𝑌𝑡−1 = 𝛼 + 𝛽𝑋𝑡−1 + 𝑒𝑡−1 (Eq. 3)

On peut examiner la variation des variables au cours du temps en retranchant (Eq.3) de (Eq.1)

𝑌𝑡 − 𝑌𝑡−1 = 𝛽(𝑋𝑡 − 𝑋𝑡−1 ) + (𝑒𝑡 − 𝑒𝑡−1 ) (Eq. 4)

D’après (Eq.2), 𝑒𝑡 − 𝑒𝑡−1 = 𝑣𝑡 , qui désigne un bruit blanc, satisfait donc toutes les propriétés
requises par le terme d’erreur dans un modèle de régression classique (espérance
mathématique nulle, variance constante, non corrélation ou indépendance entre les termes,
indépendance avec les variables explicatives).
Les transformations Δ𝑌𝑡 ≡ 𝑌𝑡 − 𝑌𝑡−1 et ∆𝑋𝑡 ≡ 𝑋𝑡 − 𝑋𝑡−1 sont appelées les différences
premières.

On peut réécrire (Eq.4) en utilisant les différences premières:


∆𝑌𝑡 = 𝛽∆𝑋𝑡 + 𝑣𝑡 (Eq.5).
Le vecteur de paramètres 𝛽 peut être estimé valablement par la régression MCO de ∆𝑌𝑡 par
rapport à ∆𝑋𝑡 .

Dans le cas général, on pose𝑒𝑡 = 𝜌𝑒𝑡−1 + 𝑣𝑡 , avec |𝜌| < 1.


Si |𝜌| ≥ 1, le résidu 𝑒𝑡 devient « explosif », car sa variance augmente dans le temps de façon
illimitée.
On reformule (Eq. 1) pour la période (𝑡 − 1) et on multiplie par 𝜌. On a

𝜌𝑌𝑡−1 = 𝜌𝛼 + 𝜌𝛽𝑋𝑡−1 + 𝜌𝑒𝑡−1 (Eq.6)

10
En retranchant (Eq.6) de (Eq.1), on a :

𝑌𝑡 − 𝜌𝑌𝑡−1 = 𝛼(1 − 𝜌) + 𝛽(𝑋𝑡 − 𝜌𝑋𝑡−1 ) + (𝑒𝑡 − 𝜌𝑒𝑡−1 ) (Eq.7)

On définit ainsi les différences généralisées par :


∆𝑌𝑡 ≡ 𝑌𝑡 − 𝜌𝑌𝑡−1
} (Eq.8)
∆𝑋𝑡 ≡ 𝑋𝑡 − 𝜌𝑋𝑡−1

On peut ainsi réécrire (Eq.7) :


∆𝑌𝑡 = 𝛼(1 − 𝜌) + 𝛽∆𝑋𝑡 + 𝑣𝑡 (Eq.9)
Où 𝑣𝑡 est un bruit blanc, donc répondant aux hypothèses d’application de la méthode des
MCO.
Ainsi après ces transformations, on peut régresser ∆𝑌𝑡 sur ∆𝑋𝑡 pour obtenir le vecteur de
paramètres 𝛽. Cette technique d’estimation est appelée les Moindres Carrés Généralisés
(MCG).
Cependant, préalablement à cette régression, on doit effectuer un ajustement supplémentaire
des données. Les premières valeurs observées 𝑌1 𝑒𝑡 𝑋1 ne peuvent pas être transformées par
(Eq.8), puisque les valeurs précédentes ne sont pas disponibles. La transformation (Eq.8)
entraine donc la perte d’une observation. Les premières valeurs 𝑌1 𝑒𝑡 𝑋1 peuvent être
remplacées respectivement par √1 − 𝜌2 . 𝑌1 et √1 − 𝜌2 . 𝑋1. (Eq.10)

Pour estimer 𝜌, il faut arranger (Eq.7) sous la forme


𝑌𝑡 = 𝛼(1 − 𝜌) + 𝜌𝑌𝑡−1 + 𝛽𝑋𝑡 − 𝛽𝜌𝑋𝑡−1 + (𝑒𝑡 − 𝜌𝑒𝑡−1 ) (Eq.11)
𝜌 est donc obtenu par régression MCO de 𝑌𝑡 𝑠𝑢𝑟 𝑌𝑡−1 , 𝑋𝑡 𝑒𝑡 𝑋𝑡−1 et en retenant le coefficient
estimé de 𝑌𝑡−1 . Cette valeur peut être utilisée pour estimer 𝛼 𝑒𝑡 𝛽.

L’autocorrélation des résidus exige un traitement spécial de la série. La régression MCO de


𝑌𝑡 𝑠𝑢𝑟 𝑋𝑡 n’est pas efficace lorsque les résidus sont autocorrélés. Le remède réside dans la
transformation de l’équation de régression pour obtenir des résidus non corrélés.

III-2 : La saisonnalité

Les séries temporelles présentent très souvent des variations saisonnières. Celles-ci peuvent
être mensuelles ou d’une périodicité quelconque. Plusieurs raisons peuvent expliquer des
variations saisonnières dans une série chronologique : durant les vacances de Noël par
exemple, les comportements des acheteurs se modifient totalement. Ainsi on peut constater à
l’analyse d’une série que les dépenses d’un ménage tendent à être élevées au cours du
quatrième trimestre de chaque année et sont suivies d’une forte baisse au trimestre suivant.
Lorsqu’une série comporte des variations saisonnières, on doit garder présente à l’esprit cette
remarque pour tirer des conclusions d’une simple observation. Si, afin d’évaluer l’efficacité
d’une politique gouvernementale visant à accroitre l’emploi, on observe que le niveau de
celui- ci s’est amélioré au premier trimestre de l’année 2010, ce résultat est peu convaincant si
l’on sait que l’emploi s’est accru tous les premiers trimestres.

11
L’étude de la saisonnalité est un préalable au traitement d’une série temporelle. En effet,
lorsque cette composante existe, il convient de l’isoler afin de pouvoir analyser les autres
caractéristiques. Une désaisonnalisation systématique, sans tester l’existence de cette
composante, peut créer une perturbation nuisible à l’analyse de la chronique et donc dégrader
la qualité de la prévision. Par conséquent nous allons présenter dans un premier temps les
techniques permettant de tester l’existence d’une composante saisonnière, et examinerons
dans un second temps les méthodes de désaisonnalisation.

III-2-1 : Détection de la saisonnalité

L’analyse graphique d’une chronique suffit, parfois, pour mettre en évidence une saisonnalité.
Néanmoins, si cet examen n’est pas révélateur ou en cas de doute, le tableau de Buys-Ballot
permet d’analyser plus finement l’historique.

Le tableau de Buys-Ballot est un tableau complet à double entrées dans lequel sont consignées
les valeurs de la série 𝑥𝑡 . Il est constitué en lignes par les années et en colonnes par le facteur
à analyser (mois, trimestre, …). Les moyennes et les écarts-types des années et des trimestres
(ou des mois selon le cas) sont calculés, ainsi que pour l’ensemble des observations de la
chronique.

Exemple :
Tableau de Buys-Ballot relatif aux consommations trimestrielles d’un produit festif.

Trim1 Trim2 Trim3 Trim4 Moyenne Ecart-


type4 (𝑠)
2010 12 14 10 31 16,75 9,64
2011 9 12 11 29 15,25 9,25
2012 11 14 12 30 16,75 8,92
2013 10 15 13 35 18,25 11,35
Moyenne 10,5 13,75 11,5 31,25 Moyenne Ecart-type
générale général
Ecart-type 1,29 1,25 1,29 2,63 16,75 8,86
(𝑠)

Ensuite on classe les facteurs pour chaque année par valeurs décroissantes. S’il y a persistance
d’un facteur à se classer en première position, on retient l’existence d’une saisonnalité.

Dans les cas où l’examen visuel du graphique ou le tableau ne permettent pas toujours de
déterminer avec certitude l’existence d’une saisonnalité, le test de Fisher à partir de l’analyse
de la variance permettra de résoudre le problème.

1
4
𝑠=√ ∑(𝑥𝑖 − 𝑥̅ )2 désigne l’écart-type d’un échantillon. On remplace 𝑛 par 𝑛 − 1 dans un échantillon pour
𝑛−1
réduire le biais d’estimation. La différence entre 𝜎 (écart-type pour une population) et 𝑠 (écart-type pour un
échantillon) est négligeable lorsque 𝑛 > 50.
12
Ce test suppose la chronique sans tendance ou encore sans extra-saisonnalité. Dans le cas
contraire, cette composante est éliminée par une régression sur le temps (extra- saisonnalité
déterministe), ou par une procédure de filtrage (extra-saisonnalité aléatoire).
Soit :
𝑁 le nombre d’années,
𝑝 le nombre d’observations (la périodicité) dans l’année (trimestre p=4, mois p=12, etc.)
𝑥𝑖𝑗 la valeur de la chronique pour la ième année (i=1,…, N) et la jème période (j=1,…, p)
supposée telle que 𝑥𝑖𝑗 = 𝑚𝑖𝑗 + 𝑒𝑖𝑗 . Les 𝑒𝑖𝑗 sont des résidus considérés comme aléatoires
formés d’éléments indépendants : 𝑒𝑖𝑗 ~𝑁(0; 𝜎 2 ).
Les 𝑚𝑖𝑗 sont les éléments d’une composante de la chronique qui s’écrivent :
𝑚𝑖𝑗 = 𝑎𝑖 + 𝑏𝑗 , 𝑎𝑣𝑒𝑐 𝑏𝑗 qui mesure l’effet période en colonne du tableau et 𝑎𝑖 qui mesure
l’effet année en ligne du tableau.
Si l’effet période est significatif, la série est saisonnière.
Pour effectuer ce test, il faut se servir du tableau ci-dessous :

Somme des carrés Degré de liberté Désignation Variance

2 𝑝−1 Variance 𝑆𝑝
𝑆𝑝 = 𝑁 ∑(𝑥.𝑗 − 𝑥.. ) 𝑉𝑝 =
Période 𝑝−1
𝑗
𝑆
𝑆𝐴 = 𝑝 ∑(𝑥𝑖. − 𝑥.. )2 𝑁−1 Variance 𝐴
𝑉𝐴 = 𝑁−1,
Année
𝑖
𝑆𝑅 = (𝑝 − 1) × (𝑁 − 1) Variance 𝑉𝑅 =
2 Résidu 𝑆𝑅
∑ ∑(𝑥𝑖𝑗 − 𝑥𝑖. − 𝑥.𝑗 + 𝑥.. )
𝑖 𝑗
(𝑝 − 1)(𝑁 − 1)
𝑆𝑇 𝑁×𝑝−1 Variance 𝑆𝑇
Totale 𝑉𝑇 =
𝑁×𝑝−1
Tableau d’analyse de la variance pour détecter une saisonnalité et/ou une tendance.

A partir de ce tableau, nous pouvons construire les tests d’hypothèses.

Test d’influence du facteur colonne, la période (mois ou trimestre : 𝑯𝟎 = pas


d’influence).
𝑉
On calcule la statistique de Fisher empirique 𝐹𝑐 = 𝑉𝑃 , que l’on compare au Fisher lu dans la
𝑅
table à 𝑣1 = 𝑝 − 1 𝑒𝑡 𝑣2 = (𝑁 − 1)(𝑝 − 1) degrés de liberté.
𝑣1,𝑣2
Si le Fisher empirique est supérieur au Fisher lu dans la table(𝐹𝑐 > 𝐹𝑡𝑎𝑏 ), on rejette
l’hypothèse 𝐻0 et on conclut que la série est saisonnière.

Test d’influence du facteur ligne, la tendance (𝑯𝟎 = pas d’influence du facteur année)
𝑉
On calcule la statistique de Fisher empirique 𝐹𝑐 = 𝑉𝐴, que l’on compare au Fisher lu dans la
𝑅
table à 𝑣3 = 𝑁 − 1 𝑒𝑡 𝑣2 = (𝑁 − 1)(𝑝 − 1) degrés de liberté.
𝑣3,𝑣2
Si le Fisher empirique est supérieur au Fisher lu dans la table(𝐹𝑐 > 𝐹𝑡𝑎𝑏 ), on rejette
l’hypothèse 𝐻0 et on conclut que la série est affectée d’une tendance.
13
III-2-2 : Méthodes de désaisonnalisation

Une des préoccupations principales de l’analyse est d’éliminer d’une série chronologique tout
ce qui brouille la lecture de la tendance. Lorsqu’une série chronologique est structurée par une
saisonnalité, les comparaisons inter-temporelles du phénomène nécessitent une chronique
corrigée des variations saisonnières (CVS), ou encore désaisonnalisée. Désaisonnaliser une
chronique c’est éliminer la saisonnalité sans modifier les autres composantes de la série
temporelle. Ce qui permet de réagir plus vite à des changements de tendance, sans négliger les
variations de la composante irrégulière. La désaisonnalisation permet donc un gain de temps
dans la détection des changements. Le choix de la technique la mieux appropriée dépend de
la nature déterministe ou stochastique de la saisonnalité de la chronique.

Lorsque la saisonnalité est rigide (c’est-à-dire bien marquée et répétitive), les méthodes de
régression et l’emploi de coefficients saisonniers identiques sur la période historique sont
adaptés. Si par contre la saisonnalité est souple, c’est-à-dire aléatoire en amplitude et/ou en
période, les techniques de filtrage par les moyennes mobiles doivent être utilisées. Nous
présentons d’abord le principe de base, encore appelé principe de conservation des aires,
ensuite deux méthodes de désaisonnalisation par régression et enfin la méthode basée sur les
moyennes mobiles.

Le principe de conservation des aires :

L’analyse de saisonnalité permet de répartir le profil intra annuel de l’historique, sans


modifier le niveau atteint en cumul annuel : les moyennes annuelles de la série brute et de la
série CVS doivent être identiques. Ce principe, encore appelé principe de conservation des
aires, permet de calculer des coefficients saisonniers définitifs.

Dans le cas d’un schéma additif, la somme des coefficients saisonniers doit être nulle.
Soit 𝑆𝑗 le jème coefficient provisoire, on calcule la somme des coefficients :
𝑆 = ∑𝑝𝑗=1 𝑆𝑗 , 𝑎𝑣𝑒𝑐 𝑝 la période de la saisonnalité.
Si S=0, les Sj sont les coefficients saisonniers définitifs.
Si 𝑆 ≠ 0, les coefficients saisonniers sont normés afin que leur somme soit nulle. Les
coefficients saisonniers définitifs sont alors donnés par 𝑆𝑗∗ = 𝑆𝑗 − 𝑆̅.

Dans le cas d’un schéma multiplicatif, la moyenne des coefficients saisonniers, pour une
année donnée, soit être égale à 1.
Soit 𝑆𝑗 le jème coefficient provisoire, on calcule la somme des coefficients :
𝑆 = ∑𝑝𝑗=1 𝑆𝑗 , 𝑎𝑣𝑒𝑐 𝑝 la période de la saisonnalité.
𝑆𝑗
Les coefficients définitifs sont donnés par 𝑆𝑗∗ = 𝑆̅

14
La désaisonnalisation par régression sur le temps :

On estime la tendance 𝐸̂𝑡 = 𝑎 ̂0 + 𝑎̂𝑡,


1 et on récupère les coefficients de la régression.
On calcule les écarts entre la série observée et la tendance.
On calcule la moyenne des écarts relatifs aux mêmes trimestres (ou à la même période). Ces
dernières constituent les coefficients saisonniers provisoires.

Dans le cas d’un schéma additif5, on calcule la somme des coefficients saisonniers
provisoires. Soit 𝑆 cette somme.
Si 𝑆 = 0, alors le principe de conservation des aires est vérifié, et les coefficients saisonniers
calculés plus tôt sont les coefficients saisonniers définitifs.
Si 𝑆 ≠ 0, alors le principe de conservation des aires n’est pas vérifié, et une normalisation des
coefficients saisonniers s’impose. En notant 𝑆̅ la moyenne des coefficients saisonniers
provisoires, les coefficients saisonniers définitifs sont donnés par 𝑆𝑗∗ = 𝑆𝑗 − 𝑆̅.

Enfin on calcule la série CVS par différence entre la série brute et le coefficient saisonnier
définitif du trimestre (ou de la période) considéré.
Le coefficient de variation diminue considérablement entre la série brute et la série CVS :
c’est l’effet réducteur de la variance de la désaisonnalisation.

La désaisonnalisation par régression sur variables indicatrices:

L’extra-saisonnalité est modélisée par une fonction polynôme, et la composante saisonnière


par un ensemble de variables indicatrices ou dichotomiques. Une variable indicatrice est une
variable explicative particulière qui n’est composée que de 0 ou de 1. L’indicatrice
correspondant au deuxième trimestre prend la valeur de 1 si la période considérée est le
second trimestre, et de 0 sinon. Et ainsi de suite pour les autres trimestres ou périodes. Une
indicatrice prend donc deux valeurs, c’est en ce sens qu’elle est aussi appelée variable
dichotomique. Cette variable est utilisée lorsque dans un modèle on désire intégrer un facteur
explicatif binaire.

Si la série présente une saisonnalité trimestrielle, on prend un trimestre comme référence


(généralement le premier), et on définit des indicatrices pour les trois autres trimestres. De
façon générale, si la série présente T périodes, on génère (T-1) indicatrices, et on effectue une
régression avec comme variable endogène la série considérée et comme variables exogènes
une tendance et les indicatrices. La T-ième variable indicatrice n’est pas utilisée car la somme
des variables indicatrices serait alors égale au vecteur unité, et il y aurait colinéarité stricte
avec le vecteur unité relatif au terme constant.

Les paramètres estimés des indicatrices donnent des coefficients saisonniers, qui pourront être
utilisés pour la désaisonnalisation. Le dernier coefficient saisonnier est obtenu par application
du principe de conservation des aires.

5
La condition à vérifier pour le schéma multiplicatif est donnée à la page précédente.
15
La désaisonnalisation par les moyennes mobiles :

La moyenne mobile est le filtre le plus utilisé pour désaisonnaliser une chronique. Un filtre est
une transformation mathématique d’une série chronologique. La moyenne mobile simple est
un filtre à horizon fini. Il s’agit d’une succession de moyennes arithmétiques de longueur
choisie égale à L (appelée ordre de la moyenne mobile).

Les formules de filtrage par moyenne mobile sont les suivantes :

 Si l’ordre de la moyenne mobile correspond à un nombre impair


1
(L=2m+1), 𝑦𝑡 = 2𝑚+1 ( ∑𝑖=𝑚
𝑖=−𝑚 𝑥𝑡+𝑖 )

 Si l’ordre correspond à un nombre pair


1 1 1
(L=2m), 𝑦𝑡 = 2𝑚 [2 𝑥𝑡−𝑚 + ∑𝑖=𝑚−1
𝑖=−𝑚+1 𝑥𝑡+𝑖 + 2 𝑥𝑡+𝑚 ]

Les moyennes mobiles simples ont pour propriétés d’éliminer une saisonnalité de période
égale à l’ordre de la moyenne mobile et de lisser le résidu. Ces propriétés fondent les
méthodes de désaisonnalisation utilisant ces filtres.

Le principe de la désaisonnalisation d’une chronique par l’usage des moyennes mobiles est
identique à celui de la régression sur le temps. La seule étape qui change est le calcul de la
tendance, qui est appréhendée, dans ce cas, par une moyenne mobile d’ordre égal à la période
de la saisonnalité.

16
CHAPITRE 2 : PROCESSUS ALEATOIRES STATIONNAIRES ET
PROCESSUS ARMA

I : Introduction

Les techniques traditionnelles de prévision des séries temporelles construites à partir de


l’extrapolation de composantes déterministes se révèlent dans la plupart des cas insuffisantes
pour prévoir les phénomènes économiques. Ce qui a justifié l’engouement à investir dans des
méthodes nouvelles de traitement des séries temporelles. Celles-ci considèrent qu’à un instant
𝑡, la valeur 𝑥𝑡 de la chronique est un état d’une variable aléatoire. Ce faisant, sur une
période d’observation, la chronique est constituée par l’ensemble d’une succession d’états de
variables aléatoires. Cette famille de variables aléatoires indexées par le temps porte le nom
de processus aléatoire, et la série temporelle est un échantillon ou une trajectoire du
processus aléatoire. Il est ainsi possible de recourir à l’ensemble des travaux concernant les
processus aléatoires pour en faire bénéficier les chroniques économiques.

Mais en économie l’expérience n’est pas renouvelable. Par exemple on ne peut observer
qu’un seul échantillon de la croissance trimestrielle du PIB de la Côte d’Ivoire entre 1980 et
2010 (119 valeurs). On ne peut laisser l’histoire se dérouler à nouveau et observer d’autres
réalisations. On dispose donc d’un seul échantillon temporel. Il faut en conséquence, recourir
à l’hypothèse forte d’ergodicité, qui suppose que l’estimation des moments du processus pour
chacun des instants 𝑡 tend vers l’estimation des moments le long du processus et donc vers les
moments temporels de l’échantillon.
La théorie des processus aléatoires a débuté avec les travaux de Yule quand ce dernier a
introduit la notion de choc aléatoire ou encore d’impulsion dans les séries temporelles. Cette
notion, associée à celle de composante non périodique, a permis de caractériser le processus
aléatoire dont les principales propriétés ont été décrites par Kolmogorov. Par la suite, Wiener
a généralisé l’analyse harmonique introduite par Fourier au cas stochastique.

L’idée de cette généralisation est que, sous certaines conditions, le processus stochastique
peut être décomposé en une somme infinie de sinusoïdes de fréquences déterministes
différentes mais d’amplitude aléatoire. C’est le caractère périodique de la décomposition
harmonique qui a conduit Khintchine à introduire la classe des processus aléatoires
stationnaires.

Après une définition du processus stochastique, nous nous intéresserons ensuite aux processus
stationnaires et à l’analyse des fonctions d’autocorrélation, et enfin à la classe des processus
aléatoires ARMA linéaires et stationnaires.

II – Définition d’un processus stochastique

Un processus stochastique est une application 𝑋 qui associe au couple (𝜔, 𝑡) la quantité
𝑥𝑡 (𝜔). Elle est telle que ∀ 𝑡 ∈ 𝑇 𝑓𝑖𝑥é, 𝑥𝑡 est une variable aléatoire définie sur un espace
probabilisé. Un processus stochastique est donc une famille (ou une suite) de variables
aléatoires réelles indicées ou indexées par le temps t noté (𝑥𝑡 , 𝑡 ∈ 𝑇) ou encore 𝑥𝑡 .
17
L’espace des indices 𝑇 est le temps, 𝑡 est alors l’instant d’observation de la variable aléatoire
𝑥 sur l’individu 𝜔. Pour 𝜔 fixé, 𝑥𝑡 (𝜔) porte le nom de trajectoire (ou réalisation) de 𝑥 pour
l’individu 𝜔.

On suppose, par la suite, que la série temporelle 𝑥𝑡 (soit une succession d’observations
régulièrement espacées dans le temps d’une valeur économique) est une réalisation d’un
processus stochastique discret, univarié, et notée aussi 𝑥𝑡 . La série temporelle est dite
échantillon ou réalisation partielle du processus stochastique, et ce dernier est appelé
processus générateur de la série temporelle.

III-Les processus stationnaires

III-1 : Définitions

Avant le traitement d’une série chronologique, il convient d’en étudier les caractéristiques
stochastiques.

Si ces caractéristiques, c’est-à-dire les moments se trouvent modifiés dans le temps, la série
temporelle est considérée comme non stationnaire. Dans le cas d’un processus stochastique
invariant, la série temporelle est alors stationnaire. Deux types de stationnarité sont définis :
la stationnarité au sens strict (ou stationnarité forte) et la stationnarité d’ordre deux (ou
stationnarité faible).

Le processus 𝑥𝑡 est dit fortement stationnaire si ∀ le n-uple du temps 𝑡1 < 𝑡2 < ⋯ < 𝑡𝑛 tel
que 𝑡𝑖 ∈ 𝑇 et pour tout temps ℎ ∈ 𝑇 avec 𝑡𝑖 + ℎ ∈ 𝑇, ∀𝑖, 𝑖 = 1, … , 𝑛, la suite
(𝑥𝑡1+ℎ , … , 𝑥𝑡𝑛+ℎ ) a la même loi de probabilité que la suite (𝑥𝑡1 , … , 𝑥𝑡𝑛 ).
La distribution conjointe de (𝑥𝑡1 , … , 𝑥𝑡𝑛 ) est alors invariante quand on fait glisser le temps.
Ainsi un processus aléatoire est strictement stationnaire si toutes ses caractéristiques, c’est-à-
dire tous ses moments, sont invariants pour tout changement de l’origine du temps. La
stationnarité stricte implique donc que tous les moments soient indépendants du temps.

Si 𝑥𝑡 est un processus strictement stationnaire, alors :


𝐸(𝑥𝑡 ) = 𝑚, ∀ 𝑡 ∈ 𝑇 : la moyenne est constante et indépendante du temps
𝑉(𝑥𝑡 ) = 𝜎 2 < ∞, ∀ 𝑡 ∈ 𝑇 : la variance est finie et indépendante du temps
𝑐𝑜𝑣(𝑥𝑡 , 𝑥𝑠 ) = 𝛾|𝑡 − 𝑠|, ∀ 𝑡 ∈ 𝑇, ∀ 𝑠 ∈ 𝑇, 𝑡 ≠ 𝑠 : la covariance entre les valeurs prises par X à
deux dates distinctes ne dépend que de l’intervalle entre ces deux dates et non des dates elles-
mêmes. Elle dépend donc de la différence de temps entre deux périodes, et non du temps.

On peut aussi noter 𝑐𝑜𝑣(𝑥1 , 𝑥1+𝑘 ) = 𝑐𝑜𝑣(𝑥2 , 𝑥2+𝑘 ) = 𝑐𝑜𝑣(𝑥𝑡 , 𝑥𝑡−𝑘 ). Les covariances
(appelées autocovariances) dépendent uniquement du délai entre deux dates considérées.

La condition d’invariance de la distribution conjointe de (𝑥𝑡1 , … , 𝑥𝑡𝑛 ) étant difficile à vérifier,


on utilise en général une version plus faible de la stationnarité. Le processus 𝑥𝑡 , 𝑡 ∈ 𝑇 est dit
faiblement stationnaire si seuls les moments d’ordre 1 et d’ordre 2 sont stationnaires. C’est-
à-dire si la moyenne de 𝑥𝑡 et la covariance entre 𝑥𝑡 et 𝑥𝑡+𝑘 sont invariantes par translation
du temps. Un processus stationnaire au second ordre peut posséder des moments d’ordre
18
supérieur à 2 qui ne sont pas invariants par translation. Par exemple si 𝐸(𝑥𝑡3 ) dépend du temps
t alors le processus est dit faiblement stationnaire.

Les processus stationnaires d’ordre 2 sont des processus générateurs de séries temporelles
sans tendance en moyenne et sans tendance en variance mais cela ne signifie pas que les
séries temporelles ont une représentation graphique stable. La stationnarité faible (ou du
second ordre) implique que le graphe de la série en fonction du temps montre des fluctuations
autour du niveau moyen, fluctuations qui se ressemblent, quelle que soit la date autour de
laquelle on examine la série.

Une série chronologique est donc stationnaire si elle est la réalisation d’un processus
stationnaire. Ceci implique que la série ne comporte ni tendance, ni saisonnalité et plus
généralement aucun facteur n’évoluant avec le temps. La stationnarité du processus
générateur d’une série temporelle assure la validité externe du modèle : le modèle estimé sur
des données du passé doit être valable dans le futur.

En effet si la distribution des taux de croissance du PIB de la Côte d’Ivoire est stationnaire,
c’est-à-dire constante au cours du temps, alors les 119 réalisations observées peuvent être
considérées comme tirées de la même distribution. Sous ces hypothèses, la moyenne
(temporelle) des 119 observations est un estimateur convergent du taux de croissance attendu
pour chaque trimestre, puisque le taux de croissance est supposé constant au cours du temps.
Pour les séries suivant une distribution gaussienne, la stationnarité du second ordre est
équivalente à la stationnarité stricte, car celles-ci sont entièrement résumées par leurs deux
premiers moments.

Un processus stationnaire élémentaire, appelé processus de bruit blanc, est présenté par la
suite.

III-2 : Le processus de bruit blanc

Soit un processus 𝑥𝑡 . Si pour tout n-uple du temps 𝑡1 < 𝑡2 < ⋯ < 𝑡𝑛 , les variables aléatoires
réelles 𝑥𝑡2 − 𝑥𝑡1 , … , 𝑥𝑡𝑛 − 𝑥𝑡𝑛−1 (différences premières) sont indépendantes, il s’agit d’un
processus à accroissements indépendants.
Le processus 𝑥𝑡 est dit à accroissements indépendants stationnaires si de plus la loi de
probabilité de (𝑥𝑡+ℎ − 𝑥𝑡 ) ∀ ℎ ∈ 𝑇 ne dépend pas de 𝑡. Un bruit blanc est un processus
stochastique à accroissements non corrélés. Il s’agit d’une suite de variables aléatoires réelles
homoscédastiques, de même distribution et mutuellement indépendantes. C’est donc une suite
de variables aléatoires non corrélées et d’espérance et de variance constante. On l’appelle
aussi processus i.i.d. (processus discret, formé de variables mutuellement indépendantes et
identiquement distribuées). Si la loi de probabilité de 𝑥𝑡 est normale, alors le bruit blanc est
nécessairement i.i.d. Il est parfois dit bruit blanc gaussien et noté alors n.i.d. (normalement
et identiquement distribué).

19
Un bruit blanc est donc tel que :

𝐸(𝑥𝑡 ) = 𝑚, ∀𝑡 ∈𝑇
𝑉(𝑥𝑡 ) = 𝜎 2 , ∀𝑡 ∈𝑇
𝑐𝑜𝑣(𝑥𝑡 , 𝑥𝑡+ℎ ) = 0, ∀ (𝑡, ℎ) ∈ 𝑇 2
Si 𝐸(𝑥𝑡 ) = 0, le bruit blanc est centré.

Le bruit blanc est un processus stationnaire élémentaire, utilisé dans beaucoup de modèles
économétriques comme spécification du terme d’erreur.
Un processus i.i.d. ou n.i.d. est nécessairement stationnaire, mais tous les processus
stationnaires ne sont pas i.i.d. ou n.i.d. Dans ce dernier cas le processus stationnaire est dit à
mémoire, c’est-à-dire qu’il existe une loi de reproduction interne au processus qui est donc
modélisable.

III-3 : L’ergodicité

Les processus aléatoires recourent à l’hypothèse d’ergodicité pour les échantillons qui les
constituent. L’ergodicité statistique concerne l’information qui peut être obtenue à partir
d’une moyenne sur le temps concernant la moyenne commune à tout instant.

Pour estimer la loi d’un processus, on cherche à accumuler de l’information en faisant tendre
le nombre d’observations vers l’infini. Pour que ce mécanisme d’accumulation fonctionne, il
faut que le processus ait une mémoire finie c’est-à-dire qu’à partir d’un certain nombre
d’observations, il n’y ait plus d’informations nouvelles, mais simplement confirmation des
informations passées. Par exemple dans le problème de l’estimation de la moyenne, on veut
que la moyenne empirique soit un estimateur convergent et que la variance de cet estimateur
tende vers 0. Cette propriété de limitation de la mémoire d’un processus s’appelle ergodicité.
On dit qu’un processus aléatoire est ergodique si l’on peut obtenir des estimateurs sans biais
et convergents de ses caractéristiques (les moments) à partir d’un seul échantillon. Comme
dans le cas des séries temporelles on a un seul échantillon, cette hypothèse est nécessaire et
est souvent utilisée de façon naturelle.

Le concept d’ergodicité repose sur une indépendance asymptotique, alors que la


stationnarité concerne l’indépendance par rapport au temps du processus. Un processus
stationnaire au second ordre est faiblement dépendant si 𝑐𝑜𝑣(𝑥𝑡 , 𝑥𝑡+ℎ ) → 0 suffisamment
rapidement si ℎ → ∞. Pour être ergodique, la mémoire d’un processus stochastique doit
diminuer de façon à ce que la covariance entre des observations de plus en plus distantes
converge vers 0 de manière suffisamment rapide. Ainsi un processus stationnaire au second
1
ordre est ergodique si lim 𝑇 ∑𝑇ℎ=1 𝛾(ℎ) = 0, où 𝛾(ℎ) représente la fonction de covariance.
𝑇→∞

Un processus stationnaire au second ordre et faiblement dépendant est ergodique. Cette


hypothèse remplace celle d’échantillon aléatoire, permettant au théorème central limite et à la
loi des grands nombres de s’appliquer aux séries temporelles. Une suite i.i.d. est une suite
stationnaire et ergodique.
20
Le caractère d’ergodicité autorise la caractérisation des processus stochastiques par leurs
moments empiriques.

IV-Les fonctions d’autocorrélation

IV-1 : Définitions et modes de calcul

La distribution conjointe de (𝑥𝑡1 , … , 𝑥𝑡𝑛 ) est généralement caractérisée par sa fonction


d’autocovariance, qui représente le lien entre des valeurs à des dates différentes. On a :

𝛾𝑡 (ℎ) = 𝑐𝑜𝑣(𝑥𝑡 , 𝑥𝑡−ℎ ) = 𝛾ℎ . Mais une faiblesse de la covariance est qu’elle n’est pas
invariante dans un changement d’unités utilisées pour exprimer les valeurs des deux variables.
Pour avoir une grandeur indépendante des unités utilisées, il faut considérer l’autocorrélation.
L’autocorrélation mesure la corrélation d’une série avec elle-même, en introduisant un
𝛾
décalage entre les 2 échantillons. La fonction d’autocorrélation est définie par 𝜌ℎ = 𝛾ℎ et est
0
comprise dans l’intervalle [−1; 1].

L’autocorrélation de décalage 0 est égale à 1, puisqu’on calcule dans ce cas la corrélation


d’une série avec elle-même. Puis la corrélation diminue au fur et à mesure que le décalage
s’accroit. L’autocorrélation de décalage 1 mesure la corrélation entre 𝑥𝑡 𝑒𝑡 𝑥𝑡−1 . La fonction
d’autocorrélation fait correspondre à chaque décalage ℎ l’autocorrélation correspondante.

On calcule également la fonction d’autocorrélation partielle, par analogie avec le coefficient


de corrélation partielle. Le coefficient de corrélation partielle mesure la liaison entre deux
variables lorsque l’on contrôle l’influence des autres facteurs. D’une manière générale, une
corrélation partielle entre deux variables est la quantité de corrélation qui n’est pas expliquée
par des relations de ces variables avec un ensemble spécifié d’autres variables. Dans le cas
des séries temporelles, la corrélation partielle de décalage 𝑘 est la corrélation entre 𝑥𝑡 𝑒𝑡 𝑥𝑡−𝑘 ,
en contrôlant l’influence des 𝑘 − 1 valeurs intermédiaires.

Si on suppose que la corrélation entre 𝑥𝑡 𝑒𝑡 𝑥𝑡−1 est également celle observée entre
𝑥𝑡−1 𝑒𝑡 𝑥𝑡−2 , on peut alors supposer qu’une corrélation sera présente entre 𝑥𝑡 𝑒𝑡 𝑥𝑡−2 , c’est-à-
dire que la corrélation de décalage 1 se propage au décalage 2. Plus précisément la corrélation
attendue au décalage 2 est le carré de la corrélation observée au décalage 1. L’autocorrélation
partielle de décalage 2 est donc la différence entre l’autocorrélation de décalage 2 et la
corrélation attendue liée à la propagation de la corrélation de décalage 1.

Soit la matrice 𝑃𝑘 symétrique formée des (𝑘 − 1) premières autocorrélations de 𝑥𝑡 .

1 𝜌1 ⋯ 𝜌𝑘−1
𝑃𝑘 = [ ⋮ 1 ⋮ ],𝑘 ∈ 𝑁
𝜌𝑘−1 ⋯… 1

21
|𝑃 ∗ |
La fonction d’autocorrélation partielle est la succession des 𝜌𝑘𝑘 = |𝑃𝑘 |, avec
𝑘
|𝑃𝑘∗ |
=déterminant de la matrice 𝑃𝑘 dans laquelle on a remplacé la dernière colonne par le
vecteur [𝜌1 … 𝜌𝑘 ].
On montre que 𝜌11 = 𝜌1 . La première valeur de l’autocorrélation partielle est égale à la
première valeur de l’autocorrélation.

IV-2 : Analyse des fonctions d’autocorrélation

Lorsqu’on étudie les fonctions d’autocorrélation d’une série temporelle, il se pose la question
de savoir quels sont les termes significativement différents de 0. En effet, si aucun terme n’est
significativement différent de 0, on peut en conclure que le processus étudié est sans
mémoire et donc qu’à ce titre il n’est affecté ni de tendance ni de saisonnalité. Ou encore si
une série mensuelle présente une valeur élevée pour 𝑟12 (corrélation entre 𝑥𝑡 𝑒𝑡 𝑥𝑡−12, alors la
série étudiée est certainement affectée d’un mouvement saisonnier.

Deux types de tests de significativité peuvent être effectués : le test d’un coefficient
d’autocorrélation et le test d’un ensemble de coefficients d’autocorrélation.

Le test de significativité pour un terme 𝜌𝑘 consiste à tester 𝐻0 : 𝜌𝑘 = 0 contre 𝐻1 : 𝜌𝑘 ≠ 0.


Sous l’hypothèse 𝐻0 l’intervalle de confiance du coefficient 𝜌𝑘 est donné par
𝛼 1
𝜌𝑘 = 0 ± 𝑡 2 , où 𝑛 est le nombre d’observations.
√𝑛

Si le coefficient calculé est à l’extérieur de cet intervalle de confiance, il est significativement


différent de 0 au seuil 𝛼 (en général α = 5%).

Le test de significativité d’un ensemble de coefficients d’autocorrélation, encore appelé le test


de Box-Pierce, permet d’identifier les processus de bruit blanc (suite de variables aléatoires
de même distribution et indépendantes entre elles). Si 𝑥𝑡 est un bruit blanc, alors 𝜌𝑘 = 0 ∀ 𝑘.
D’où le test d’hypothèses :

𝐻0 : 𝜌1 = 𝜌2 = ⋯ = 𝜌𝑘 = 0

H1 : Il existe au moins un 𝜌𝑖 significativement différent de 0.

Pour effectuer ce test on recourt à la statistique Q qui est donné par

𝑄 = 𝑛 ∑ℎ𝑘=1 𝑟𝑘2,

oùℎ est le nombre de retards, 𝑟𝑘 l’autocorrélation empirique d’ordre 𝑘, 𝑒𝑡 𝑛 le nombre


d’observations. La statistique Q est distribuée de manière asymptotique comme un 𝜒 2 (ℎ)
(chi-deux à h degrés de liberté). On rejette l’hypothèse de bruit blanc au seuil 𝛼 si la
statistique Q est supérieure au 𝜒 2 lu dans la table.

On peut aussi utiliser une autre statistique dont les propriétés asymptotiques sont meilleures,
qui est la statistique 𝑸′ de Ljung et Box.

22


𝑟𝑘2
𝑄 = 𝑛(𝑛 + 2) ∑
𝑛−𝑘
𝑘=1

Cette statistique est aussi distribuée selon un 𝜒 2 à ℎ degrés de liberté, donc les règles de
décision sont identiques au cas précédent.

V- La classe des processus ARMA linéaires et stationnaires

L’étude des interdépendances temporelles d’une variable peut conduire à modéliser sa valeur
en 𝑡 en fonction de ses réalisations à des périodes antérieures.

 Lorsque l’observation présente 𝑦𝑡 est générée par une moyenne pondérée des
observations passées jusqu’à la 𝑝 − 𝑖è𝑚𝑒 période, le processus est dit autorégressif
d’ordre 𝑝 ou processus AR(p).

Le modèle autorégressif le plus simple est celui où la valeur d’une variable endogène à une
période donnée dépend de la valeur prise par cette variable à la période précédente et d’elle
seule. C’est le modèle autorégressif d’ordre 1, noté AR(1).

AR(1) : 𝑦𝑡 = 𝜃1 𝑦𝑡−1 + 𝜀𝑡 , où 𝜀𝑡 est un bruit blanc.


AR(2) : 𝑦𝑡 = 𝜃1 𝑦𝑡−1 + 𝜃2 𝑦𝑡−2 + 𝜀𝑡
…..
AR(p) : 𝑦𝑡 = 𝜃1 𝑦𝑡−1 + 𝜃2 𝑦𝑡−2 + ⋯ + 𝜃𝑝 𝑦𝑡−𝑝 + 𝜀𝑡

On peut ajouter à ce processus une constante qui ne modifie en rien les propriétés
stochastiques.

En utilisant l’opérateur de retard L (lag) tel que 𝐿𝑥𝑡 ≡ 𝑥𝑡−1 , 𝐿2 𝑋𝑡 ≡ 𝑋𝑡−2 ; … … 𝐿𝑘 𝑋𝑡 ≡ 𝑋𝑡−𝑘 ,
le processus AR(p) peut s’écrire
(1 − 𝜃1 𝐿 − 𝜃2 𝐿2 − ⋯ − 𝜃𝑝 𝐿𝑝 )𝑦𝑡 = 𝜀𝑡 .

L’opérateur de retard se note aussi B (backward), et est très utile pour une écriture de façon
compacte des processus ARMA.

 Lorsque l’observation présente 𝑦𝑡 est générée par une moyenne pondérée des aléas
jusqu’à la 𝑞 − 𝑖è𝑚𝑒 période, le processus est dit de moyenne mobile d’ordre 𝑞 ou
processus MA(q). MA: moving average

MA(1) : 𝑦𝑡 = 𝜀𝑡 + 𝛼1 𝜀𝑡−1
MA(2) : 𝑦𝑡 = 𝜀𝑡 + 𝛼1 𝜀𝑡−1 + 𝛼2 𝜀𝑡−2
….
MA(q) : 𝑦𝑡 = 𝜀𝑡 + 𝛼1 𝜀𝑡−1 + 𝛼2 𝜀𝑡−2 + ⋯ + 𝛼𝑞 𝜀𝑡−𝑞

23
En utilisant l’opérateur de retard L (lag) défini plus haut, le processus MA(q) peut s’écrire :
(1 − 𝛼1 𝐿 − 𝛼2 𝐿2 − ⋯ − 𝛼𝑞 𝐿𝑞 )𝜀𝑡 = 𝑦𝑡 .

Le modèle MA est représentatif d’une série temporelle fluctuant autour de sa moyenne de


manière aléatoire. Il faut noter qu’il y a équivalence entre un processus AR(1) et un processus
MA d’ordre infini, de même qu’entre un processus MA(1) et un processus AR d’ordre infini.

𝐴𝑅(1) ⟹ 𝑀𝐴(∞)
𝑀𝐴(1) ⇒ 𝐴𝑅(∞)

Les processus ARMA sont des mélanges des processus AR et MA. Ils sont représentatifs d’un
processus généré par une combinaison des valeurs passées et des aléas passés. Ces
processus sont définis par l’équation :
ARMA(p, q) : 𝑦𝑡 = 𝜃1 𝑦𝑡−1 + 𝜃2 𝑦𝑡−2 + ⋯ + 𝜃𝑝 𝑦𝑡−𝑝 + 𝜀𝑡 + 𝛼1 𝜀𝑡−1 + 𝛼2 𝜀𝑡−2 + ⋯ + 𝛼𝑞 𝜀𝑡−𝑞

Ou encore,
(1 − 𝜃1 𝐿 − 𝜃2 𝐿2 − ⋯ − 𝜃𝑝 𝐿𝑝 )𝑦𝑡 = (1 − 𝛼1 𝐿 − 𝛼2 𝐿2 − ⋯ − 𝛼𝑞 𝐿𝑞 )𝜀𝑡
On remarque que

𝐴𝑅𝑀𝐴(0, 𝑞) ≡ 𝑀𝐴(𝑞)

𝐴𝑅𝑀𝐴(𝑝, 0) ≡ 𝐴𝑅(𝑝)

Les processus ARMA sont censés recouvrir une gamme très large d’évolution possible des
séries temporelles. Par rapport aux techniques autoprojectives telles que les lissages
exponentiels, les modèles ARMA présentent l’avantage de reposer sur des bases théoriques
solides dans la construction des prévisions. Ce type de modèle s’avère extrêmement efficace
pour réaliser des prévisions à court terme de variables ayant une certaine inertie, ce qui est le
cas par exemple de quantités agrégées (le trafic d’un aéroport, la demande de courrier). Mais
ce n’est pas du tout le cas par exemple, des prix sur les marchés très réactifs comme les
marchés de devises.

24
CHAPITRE 3 : LA METHODOLOGIE DE BOX ET JENKINS
L’approche proposée par Box et Jenkins (1976) consiste en l’étude systématique des séries
temporelles à partir de leurs caractéristiques, afin de déterminer le modèle le mieux adapté à
représenter le phénomène étudié. L’algorithme de Box-Jenkins comprend trois étapes :
l’identification d’un modèle préliminaire, l’estimation des paramètres et les tests d’adéquation
du modèle.

Le principe de la méthode consiste d’abord à vérifier l’hypothèse de stationnarité faible de la


série. Si elle n’est pas vérifiée, il faut transformer les données de manière à ce que cette
hypothèse soit raisonnable. Ensuite il faut établir une hypothèse initiale concernant les
paramètres 𝑝 𝑒𝑡 𝑞, et les estimer. Enfin il faut établir une analyse diagnostic qui confirme que
le modèle est valable.

I : L’identification

L’identification consiste à déterminer le modèle adéquat dans la famille des modèles ARMA.
Elle est fondée sur l’étude des corrélogrammes simple et partiel. Les corrélogrammes sont
les représentations graphiques des fonctions d’autocorrélation.

Puisque les processus ARMA sont stationnaires, une série temporelle ne peut être modélisée
par un processus ARMA si elle n’est pas stationnaire. Ce qui implique que la série ne doit
comporter ni tendance, ni saisonnalité, et plus généralement aucun facteur n’évoluant avec le
temps. De ce fait, si la série soumise à l’analyse présente un mouvement saisonnier, celui-ci
doit être retiré préalablement à tout traitement statistique. La saisonnalité sera ajoutée à la
série prévue à la fin du traitement. De même si les analyses graphiques présagent d’une série
affectée d’une tendance, il convient d’en étudier les caractéristiques selon les tests de Dickey-
Fuller. La méthode d’élimination de la tendance est fonction du processus sous-jacent à la
chronique étudiée.

En somme, la série doit être stationnaire avant de la modéliser par un processus ARMA.
Après stationnarisation, nous pouvons identifier les valeurs des paramètres 𝑝 𝑒𝑡 𝑞 du modèle
ARMA. Il s’agit de chercher le processus générateur de la chronique dans la classe des
processus ARMA linéaires et stationnaires.

L’identification est une étape délicate qui conditionne la prévision de la chronique. Elle
permet de choisir les paramètres𝑝 𝑒𝑡 𝑞avant de pouvoir estimer le modèle. Cette étape
s’opère, selon la méthodologie préconisée par Box et Jenkins, en comparant les mêmes
caractéristiques empiriques de la série temporelle et théoriques des processus ARMA. Un
processus est caractérisé par ses moments, et les plus importants parmi ceux-ci sont les
fonctions d’autocorrélation puisqu’il s’agit de processus de second ordre. Ainsi Box et
Jenkins (1976) proposent de recourir à la fonction d’autocorrélation et à la fonction
d’autocorrélation partielle de la série temporelle. Les graphes de ces fonctions sont appelées
respectivement corrélogramme simple et corrélogramme partiel.

25
 Si le corrélogramme simple n’a que ses 𝑞 premiers termes (𝑞 = 3 maximum)
significativement différents de 0, et que les termes du corrélogramme partiel
diminuent lentement (décroissance exponentielle et/ou sinusoidale amortie), cela
caractérise un MA(q).

En particulier pour un MA(1), seul le premier terme du corrélogramme simple sera


significativement différent de 0. Pour un MA(2), seuls les deux premiers termes du
corrélogramme simple seront significativement différents de 0. La fonction
d’autocorrélation d’un processus MA(q) s’annule si le décalage ℎ > 𝑞.

 Si le corrélogramme partiel n’a que ses p premiers termes (𝑝 = 3 maximum)


significativement différents de 0, et que les termes du corrélogramme simple
diminuent lentement, (décroissance exponentielle et/ou sinusoïdale amortie) cela
caractérise un AR(p).

En particulier pour un AR(1), seul le premier terme du corrélogramme partiel sera


significativement différent de 0. Pour un AR(2), seuls les deux premiers termes du
corrélogramme partiel seront significativement différents de 0. La fonction
d’autocorrélation partielle d’un processus AR(p) s’annule si le décalage ℎ > 𝑝.

 Les corrélogrammes simple et partiel des processus ARMA sont un mélange des deux
corrélogrammes des processus AR et MA. On remarquera que le corrélogramme
simple d’un ARMA (1, 1) se comporte comme celui d’un AR (1). La présence de la
partie MA n’affecte pas la première valeur de l’autocorrélation.

Une idée principale de l’algorithme de Box et Jenkins est le concept de parcimonie, ou de


minimisation du nombre de paramètres. Ce qui implique de fixer 𝑝𝑚𝑎𝑥 𝑒𝑡 𝑞𝑚𝑎𝑥 . L’ajout d’une
variable supplémentaire, qui augmente le nombre de paramètres à estimer, doit être justifié
par l’apport de cette variable dans la qualité du modèle. Pour justifier l’ajout d’une variable
supplémentaire, on peut recourir au test du ratio de vraisemblance, qui permet de choisir
entre un modèle non contraint et un modèle contraint.

II : L’estimation des paramètres

Après avoir identifié l’ordre du processus ARMA, il convient d’estimer les paramètres du
modèle, puis de vérifier à partir d’un certain nombre de tests statistiques que le modèle est
valide. Dans le cas d’un modèle AR(p), on peut appliquer une méthode des moindres carrés,
ou utiliser les relations existantes entre les autocorrélations et les coefficients du modèle. Mais
lorsque le nombre de paramètres à estimer est important, ou en présence de la partie MA, il
faut utiliser la méthode du maximum de vraisemblance.

26
III : Tests de validation et choix de modèle

Les tests d’adéquation se basent aussi bien sur la significativité des coefficients du modèle
que sur l’analyse des résidus. Il faut d’abord vérifier que le résidu se rapproche d’un bruit
blanc, et ensuite tester la significativité des coefficients estimés.

Pour assurer la validité des modèles, il faut que les résidus suivent un bruit blanc, c’est-à-dire
qu’ils soient non corrélés et ne présentent pas d’hétéroscédasticité (i.e. ont une variance
constante). Dans le cas contraire, la spécification du modèle est incomplète et il manque au
moins un ordre à un processus.

Pour la significativité des coefficients du modèle, on applique de manière classique le test t de


Student. Si un coefficient n’est pas significativement différent de 0, il convient d’envisager
une nouvelle spécification éliminant l’ordre du modèle AR ou MA non valide.

Des tests de spécification permettent de vérifier que le modèle est congruent, c’est-à-dire
qu’il ne peut être mis en défaut. Ensuite si plusieurs modèles résistent aux différents tests, il
existe des méthodes ad hoc permettant de comparer leurs performances.

III-1 : Tests de spécification d’un modèle

Pour la spécification d’un modèle les tests de blancheur des résidus et de significativité des
coefficients estimés sont indispensables.

Le test de blancheur du résidu : les statistiques Q et Q’de Box-Pierce et de Ljung-Box


permettent de tester la blancheur du résidu. Le degré de liberté est alors égal au nombre de
retards h diminué du nombre de coefficients estimés.

Il est utile de noter que si les résidus obéissent à un bruit blanc, il ne doit pas exister
d’autocorrélation dans la série. De même un bruit blanc est par définition homoscédastique.
Ainsi les tests de recherche d’autocorrélation et d’hétéroscédasticité présentés ci-dessous
contribuent à la robustesse du test de blancheur du résidu.

Le test de Breusch-Godfrey pour l’autocorrélation : ce test pratique une régression des


résidus sur leurs valeurs retardées et vérifie que cette régression n’est pas significative via le
𝑅2.
𝑅2
qui suit une loi de Fisher (ou 𝜒 2 pour les estimations univariées) sous l’hypothèse 𝐻0
1−𝑅 2
d’absence d’autocorrélation.

Test d’hétéroscédasticité de White : ce test utilise une régression des carrés des résidus sur
les régresseurs originaux et leurs carrés. Sous l’hypothèse nulle d’homoscédasticité, la
statistique suit une loi de 𝜒 2 .

Test de significativité des coefficients : Parmi les processus ARMA estimés, on ne retiendra
que ceux dont tous les coefficients ont un t de Student > 1,96 (au seuil de 5% et pour une
taille d’échantillon suffisamment grande n > 30).

27
Test de normalité de Jarque-Bera : ce test d’hypothèse nulle de normalité des résidus utilise
les propriétés des ratios des troisième et quatrième moments sur la variance dans le cadre de
𝑛 𝑛
lois gaussiennes. La statistique du test 𝑠 = 6 𝛽1 + 24 (𝛽2 − 3)2 suit un 𝜒 2 à deux degrés de
1
2 (2),
liberté. 𝛽12 est le coefficient de Skewness et 𝛽2 est le coefficient de Kurtosis. Si 𝑠 > 𝜒1−𝛼
on rejette l’hypothèse 𝐻0 de normalité des résidus.

III-2 : Tests de choix entre modèles

Il peut arriver que plusieurs modèles se montrent résistants aux tests de spécification. Si le
choix s’avère difficile entre plusieurs modèles concurrents, il faut utiliser les critères de
comparaison des modèles, qui sont présentés ci-dessous :

1) L’erreur absolue moyenne (MAE, mean absolute error)


1
𝑀𝐴𝐸 = ∑𝑡|𝑒𝑡 |,
𝑛

Où 𝑒𝑡 est le résidu du modèle ARMA étudié et 𝑛 le nombre d’observations.

2) La racine carrée de l’erreur quadratique moyenne (RMSE, root mean squared error)
1
𝑅𝑀𝑆𝐸 = √ ∑ 𝑒𝑡2
𝑛
𝑡
3) L’écart absolu moyen en pourcentage (MAPE, mean absolute percent error)
100 𝑒𝑡
𝑀𝐴𝑃𝐸 = ∑| |
𝑛 𝑋𝑡
𝑡

Plus la valeur de ces critères est faible, plus le modèle estimé est proche des observations.

De même on retiendra le modèle qui minimise le critère d’information d’Akaike (AIC) ou de


Schwarz (SC).

𝐴𝐼𝐶 = 𝑛 𝑙𝑜𝑔(𝜎𝑎2 ) + 2(𝑝 + 𝑞)

𝑆𝐶 = 𝑛 𝑙𝑜𝑔(𝜎𝑎2 ) + (𝑝 + 𝑞) log 𝑛

n = d’observations
p, q = ordres respectifs des processus AR et MA.

SC coïncide avec le critère bayésien d’information (BIC) et est plutôt recommandé pour les
modèles ARMA.

28
BIBLIOGRAPHIE

BOURBONNAIS R. (2003), Econométrie, Dunod, 5e édition

BOX G., JENKINS G. (1976), Times series analysis: forecasting and control, Holdenday

GREENE W. (2000), Econometric analysis, Prentice Hall International, 4e edition

GUERRIEN B. (2002), Dictionnaire d’analyse économique, Editions La Découverte, 3ème


édition

GOURIEROUX C., MONFORT A. (1990), Séries temporelles et modèles dynamiques,


Economica

GUYON X. (2001), Statistique et économétrie: du modèle linéaire … aux modèles non


linéaires, Ellipses

HAMILTON J.D. (1994), Times series analysis, Princeton University Press

HAYASHI F. (2000), Econometrics, Princeton University Press

JOHNSTON J., DINARDO J. (1997), Econometric methods, Mcgraw-Hill International


Editions, 4e edition

LARDIC S., MIGNON V.(2002), Econométrie des series temporelles macroéconomiques et


financiers, Economica

PIROTTE A. (2004), L’économétrie : des origines aux développements récents, CNRS


éditions

SIMS C. (1980), « Macroeconomics and reality », Econometrica, Vol. 48

VOISIN M. (2000), Fluctuations économiques, Armand Colin

WONNACOTT T, WONNACOTT R. (1995), Statistique, Economica 4e édition

29
Université de Bouaké Année universitaire 2019-2020

Licence 3 Sciences Economiques

ECONOMETRIE DES SERIES TEMPORELLES

Dossier de Travaux Dirigés

1
Exercice 1

Les ventes trimestrielles d’un produit, du 1er trimestre de 2010 au 4e trimestre de 2012, sont
données ci-dessous :

1248-1392-1057-3159-891-1065-1118-2934-1138-1456-1224-3090.

On définit :
1 𝑝
𝑥.. = 𝑁×𝑝 ∑𝑁
𝑖=1 ∑𝑗=1 𝑥𝑖𝑗 : moyenne générale de la chronique sur les 𝑁 × 𝑝 observations.

1
𝑥𝑖. = 𝑝 ∑𝑝𝑗=1 𝑥𝑖𝑗 : moyenne de l’année i.

1
𝑥.𝑗 = 𝑁 ∑𝑁
𝑖=1 𝑥𝑖𝑗 : moyenne de la période j.

2 𝑆𝑝
𝑆𝑝 = 𝑁 ∑𝑗(𝑥.𝑗 − 𝑥.. ) et 𝑉𝑝 = 𝑝−1, respectivement la somme des carrés et la variance période.

𝑆
𝑆𝐴 = 𝑝 ∑𝑖(𝑥𝑖. − 𝑥.. )2 et 𝑉𝐴 = 𝑁−1
𝐴
, respectivement la somme des carrés et la variance année.

2 𝑆
𝑅
𝑆𝑅 = ∑𝑖 ∑𝑗(𝑥𝑖𝑗 − 𝑥𝑖. − 𝑥.𝑗 + 𝑥.. ) et 𝑉𝑅 = (𝑝−1)(𝑁−1) , respectivement la somme des carrés et la
variance résidu.
𝑇 𝑆
𝑆𝑇 = 𝑆𝑝 + 𝑆𝐴 + 𝑆𝑅 et 𝑉𝑇 = 𝑁×𝑝−1, respectivement la somme des carrés et la variance totale.

1) Analyser la saisonnalité de cette série à partir du tableau de Buys-Ballot.


2) Effectuer le test de détection de saisonnalité et de tendance à partir de l’analyse de la
variance.
3) Si cette série est saisonnière, décrire la procédure pour la désaisonnaliser selon un
schéma additif, par régression sur le temps d’une part et à l’aide de variables
dichotomiques d’autre part.

Exercice 2

Soit 𝜌ℎ la fonction d’autocorrélation et 𝜌𝑘𝑘 la fonction d’autocorrélation partielle.

1) Montrer que 𝜌11 = 𝜌1 .


2) Exprimer 𝜌22 en fonction de 𝜌1 𝑒𝑡 𝜌2
3) Déterminer l’expression de la fonction 𝑓(. ), avec 𝑓(𝜌1 , 𝜌2 , 𝜌3 ) = 𝜌33 .

Exercice 3

En utilisant l’opérateur de retard (L), donner l’écriture des processus stationnaires suivants :

AR(1) ; AR(2) ; MA(1) ; MA(2) ; ARMA(1,1) ; ARMA(1,2) avec constante.

2
Exercice 4

1) Calculer l’espérance, la variance et la covariance des processus suivants et conclure


sur leur stationnarité.
𝜀𝑡 → 𝑛. 𝑖. 𝑑(0, 𝜎 2 )
a) 𝑥𝑡 = 𝜀𝑡 − 𝜀𝑡−1
b) 𝑥𝑡 = 𝑏𝜀𝑡 + 𝑐𝜀𝑡−1
c) 𝑥𝑡 = 𝑥𝑡−1 + 𝜀𝑡 , avec 𝑥0 = 0

2) Etudier les conditions de stationnarité des processus suivants filtrés par leurs
différences premières, avec 𝜀𝑡 → 𝑛. 𝑖. 𝑑(0, 𝜎 2 ). On note D l’opérateur de différences,
et la différence première de 𝑥𝑡 s’écrit :𝐷𝑥𝑡 = 𝑥𝑡 − 𝑥𝑡−1

a. 𝑥𝑡 = 𝑥𝑡−1 + 𝜀𝑡
b. 𝑥𝑡 = −𝑥𝑡−1 + 𝜀𝑡
c. 𝑥𝑡 = 𝑎𝑡 + 𝑏 + 𝜀𝑡

3) Etudier les conditions de stationnarité du processus suivant filtré par ses différences
secondes (𝐷2 𝑥𝑡 = 𝐷(𝐷𝑥𝑡 ) = 𝐷𝑉𝑡 , 𝑎𝑣𝑒𝑐 𝑉𝑡 = 𝑥𝑡 − 𝑥𝑡−1 )

a. 𝑥𝑡 = 𝑎𝑡 2 + 𝑏𝑡 + 𝑐 + 𝜀𝑡

Exercice 5 : Petites questions

1. Quels sont les différents types de données statistiques ? Décrire brièvement chacun
d’eux et donner un exemple dans chaque cas.
2. Quelle est l’origine de la corrélation des termes d’une série temporelle ? Donner alors
l’utilité de la méthode des moindres carrés généralisés (MCG) pour l’estimation.
3. Décrire brièvement les différentes méthodes de désaisonnalisation.
4. Donner les conditions de stationnarité forte d’une part et de stationnarité d’ordre deux
d’autre part, d’un processus.
5. Quels sont les moments jusqu’à l’ordre deux, d’un processus de bruit blanc centré ?
6. Quelle est la différence entre la fonction d’autocorrélation et la fonction
d’autocorrélation partielle ?
7. Quel résultat du test sur la fonction d’autocorrélation d’une série temporelle permet de
conclure que le processus étudié est sans mémoire ?
8. Donner les trois grandes étapes de la méthodologie de Box et Jenkins. Expliquer
brièvement chacune d’elles.

Note : Il n’est pas demandé de copier un ou des paragraphes du cours en guide de réponse.
Il s’agit plutôt de comprendre l’explication donnée dans le cours, et de l’exploiter en vue
de donner une réponse précise et concise à chaque question.

Vous aimerez peut-être aussi