- SUPPORT DE COURS
1
SOMMAIRE
I- Introduction (6)
II- Les composantes d’une série temporelle (6)
III- Les caractéristiques d’une série temporelle (8)
I- Introduction (17)
II- Définition d’un processus stochastique (17)
III- Les processus stationnaires (18)
IV- Les fonctions d’autocorrélation (21)
V- La classe des processus ARMA linéaires et stationnaires (23)
I- L’identification (25)
II- L’estimation des paramètres (26)
III- Tests de validation et choix de modèle (27)
BIBLIOGRAPHIE (29)
2
Introduction générale
L’économétrie n’est pas assimilable uniquement à la statistique économique ou aux méthodes
mathématiques appliquées à l’économie. Elle se définit comme la conjonction de la théorie
économique, de la statistique et des mathématiques.
Elle permet d’étudier les phénomènes économiques à partir de l’observation statistique des
grandeurs pertinentes pour décrire ces phénomènes. Son objectif est d’exprimer des relations
entre les variables économiques sous une forme permettant la détermination de ces dernières à
partir des données observées. On supposera par exemple que la relation entre la dépense de
logement D d’un ménage et son revenu R peut s’exprimer par une relation affine
𝐷 = 𝐷0 + 𝑎𝑅,
L’étude empirique des phénomènes économiques est réalisée grâce à une formalisation
mathématique rigoureuse de la théorie économique et sa confrontation aux données par
l’utilisation des techniques statistiques. L’économétrie est ainsi une branche de la théorie
économique en charge de la quantification et de la vérification, mais elle constitue également
une branche de la statistique mathématique dans la mesure où elle développe des méthodes
originales d’analyse de données.
3
La pratique de l’économétrie exige donc l’utilisation de données. Les données statistiques en
économie peuvent se présenter sous trois formes : données en coupes transversales, séries
temporelles, données de panel.
En microéconométrie, une base de données est le plus souvent une enquête ou un fichier
administratif contenant l’observation d’un ensemble de variables pour une population
d’individus statistiques. Les enquêtes sont produites par les instituts nationaux de statistiques
(enquête niveau de vie des ménages de l’INS, recensement général de la population et de
l’habitat, enquête conditions de vie des ménages de l’INSEE) ou par des instituts de sondage
(enquête de consommation d’un bien, d’utilisation d’une application sur le téléphone
portable). Les fichiers issus de ces enquêtes sont du type individus/variables, et donnent pour
chaque individu de la base des informations sur les variables retenues (par exemple l’âge, le
niveau d’éducation, le revenu, la dépense consacrée au transport, la catégorie socio-
professionnelle, etc.). Ces informations, qui sont collectées à un moment donné (ou à un
point du temps), sur un échantillon de la population, constituent des données en coupes
transversales ou coupes instantanées.
Parfois les mêmes individus sont observés plusieurs fois au cours du temps : on parle alors de
données de panel ou longitudinales. Ces données sont caractérisées par leur double
dimension individuelle (i) et temporelle (t). Plus précisément elles sont constituées
d’observations retraçant les comportements d’un ensemble d’individus (ménages, pays,
régions, entreprises, etc.) suivis pendant plusieurs périodes. Par exemple le nombre de
naissances enregistrées par an et par département de 1980 à 2010. Dans des données de panel,
si on fixe l’individu observé, on obtient la série temporelle le concernant, tandis que si on fixe
la période examinée, on obtient une coupe transversale pour l’ensemble des individus.
Une série temporelle est constituée d’une variable observée à des dates régulières, et donne
donc l’évolution dans le temps d’une variable (niveau des prix, cours d’une devise, etc.).Il
peut s’agir d’une série chronologique réelle ou d’une suite théorique de variables aléatoires
indicées dans le temps. Différentes périodicités sont généralement disponibles : mensuelle,
trimestrielle, annuelle, etc. Les séries temporelles sont des données sur la même unité
d’observation à de multiples instants du temps. Par exemple le PIB de la Côte-d’Ivoire sur 20
ans, la consommation par tête dans un Etat durant une année (périodicité hebdomadaire).
Les séries temporelles diffèrent des données en coupes transversales dans la mesure où
l’ordre des données importe, et la notion d’échantillon aléatoire est plus discutable, car on n’a
qu’une seule réalisation. Une série temporelle est ainsi une suite finie d’observations
correspondant à la même variable, et indexées par le temps. On représente en général les
séries temporelles sur des graphiques de valeurs (ordonnées) en fonction du temps (abscisses).
Les séries temporelles peuvent être observées de manière continue ou de manière discrète.
Les modèles de la finance par exemple reposent souvent sur une hypothèse de temps continu,
4
car sur un marché boursier ou un marché de devises, le grand nombre de transactions et donc
l’abondance des données fait que les transactions paraissent très rapprochées. Cela peut
permettre l’utilisation de modèles où le temps est continu et non discrétisé en périodes.
Par contre les données macroéconomiques sont typiquement des données observées à temps
discret à un intervalle du mois, du trimestre ou même de l’année.
Certains problèmes spécifiques posés par les séries temporelles tels que l’identification et le
retrait de la tendance, la correction des variations saisonnières, la détection de rupture, la
séparation entre le court et le long terme, le repérage des tendances et cycles, nécessitent la
mise au point d’un certain nombre de techniques pour le traitement économétrique. Ces
données sont en effet rarement indépendantes au cours du temps.
Les séries temporelles permettent de construire des modèles de prévision, d’estimer des effets
causaux dynamiques, de mesurer les relations économiques et analyser des politiques mises
en œuvre. Le but poursuivi est donc la formulation d’un modèle statistique qui soit une
représentation congruente du processus stochastique (inconnu) qui a généré la série observée.
Par représentation congruente, on entend un modèle qui soit conforme aux données sous tous
les angles mesurables et testables.
Dans ce cours introductif, nous nous intéressons à l’étude univariée et à la modélisation des
séries temporelles stationnaires. Nous présentons d’abord les composantes et caractéristiques
d’une série temporelle (Chapitre 1) avant d’analyser ensuite les processus aléatoires
stationnaires (Chapitre 2) et enfin la méthodologie de Box et Jenkins (Chapitre 3).
5
CHAPITRE 1 : LES COMPOSANTES ET CARACTERISTIQUES D’UNE
SERIE TEMPORELLE
I : Introduction
Une règle générale dans l’analyse des séries temporelles consiste à regarder les données avant
d’effectuer le moindre calcul. Il est toujours utile, en première analyse, de représenter
l’évolution temporelle d’un phénomène à l’aide d’un graphique ayant en ordonnées la valeur
du phénomène économique et en abscisses le temps.
L’examen graphique des séries chronologiques (𝑦𝑖 , 1 ≤ 𝑖 ≤ 𝑛) permet de dégager, lorsqu’on
envisage une période de temps suffisamment longue, un certain nombre de composantes
fondamentales de l’évolution des grandeurs étudiées. Il faut alors analyser ces composantes,
en les dissociant les unes des autres, c’est-à-dire en considérant la série comme résultant de la
combinaison de différentes composantes, telle que chacune d’elles ait une évolution simple.
Une série temporelle peut présenter une tendance (ou trend), des variations saisonnières, des
cycles, des fluctuations irrégulières, des variations accidentelles et des points de changement.
6
généralement difficile de dissocier la tendance du cycle. Ainsi dans le cadre de ce
cours la composante tendance regroupera pour la plupart du temps aussi les cycles.
En résumé, nous considérerons une série temporelle comme issue de la combinaison de trois
composantes :
Trois types de décomposition sont proposés pour modéliser la série : le modèle additif, le
modèle multiplicatif et les modèles mixtes.
∑ 𝑠𝑗 = 0
𝑗=1
Si l’on considère la série des températures moyennes relevées chaque mois en un site depuis
janvier 2000 :
7
Selon le modèle multiplicatif, on a 𝑦𝑖 = 𝑓𝑖 (1 + 𝑠𝑖 )(1 + 𝑒𝑖 ), 1 ≤ 𝑖 ≤ 𝑛.
Dans ce modèle, on considère maintenant que les amplitudes des fluctuations dépendent du
niveau. Considérons le nombre d’entrées quotidiennes dans un cinéma. Des valeurs comme
𝑠3 = −0,5 𝑒𝑡 𝑠6 = 0,8 signifient que la fréquentation de cette salle diminue de 50% le
mercredi et augmente de 80% le samedi (par rapport à l’ensemble de la semaine). Une valeur
𝑒9 = 0,2 signifie que le nombre d’entrées du deuxième mardi a été de 20% supérieur au
chiffre attendu pour ce jour. Le modèle multiplicatif est généralement utilisé pour des données
de type économique.
Dans les modèles mixtes, l’addition et la multiplication sont utilisées. On peut supposer par
exemple que la composante saisonnière agit de façon multiplicative, alors que les fluctuations
irrégulières sont additives. On a dans ce cas 𝑦𝑖 = 𝑓𝑖 (1 + 𝑠𝑖 ) + 𝑒𝑖 , 1 ≤ 𝑖 ≤ 𝑛.
En présence d’une série temporelle, il est possible d’ajuster une tendance par simple
régression linéaire de la variable en ordonnées (la variable d’intérêt) en fonction du temps. En
économétrie classique, cet ajustement obtenu par les Moindres Carrés Ordinaires (MCO)1,
peut être utilisé à des fins de prédiction de la variable endogène. Mais avec des séries
temporelles, tout ajustement de ce type doit être utilisé avec précaution : certaines
caractéristiques importantes des séries temporelles nous empêchent d’utiliser le trend linéaire
à des fins prévisionnelles. Nous analyserons ici deux de ces caractéristiques, que sont
l’autocorrélation des termes de la série et la présence d’une saisonnalité.
La corrélation entre les termes caractérise généralement une série temporelle. Elle traduit le
fait que chaque observation dépend statistiquement des observations précédentes. La série
temporelle est en effet l’observation des n premières réalisations d’un processus stochastique
(𝑋𝑡 )𝑡. Pour l’analyse de telles données, on ne peut utiliser les modèles précédents de
régression ordinaires, où les observations sont indépendantes.
1
La méthode des Moindres Carrés Ordinaires permet d’estimer un vecteur de coefficients en minimisant la
somme des carrés des erreurs.
2
Une matrice régulière est une matrice inversible ou non singulière.
8
La corrélation des termes de la série entraine aussi une autocorrélation des résidus, violant
ainsi une des hypothèses du modèle linéaire de base. Deux variables sont dites corrélées
lorsqu’elles ont une évolution commune. Il y a corrélation positive lorsque l’on constate une
augmentation (ou une diminution) simultanée des valeurs des deux variables. Il y a
corrélation négative si les valeurs de l’une des variables augmentent tandis que celles de
l’autre diminuent. L’autocorrélation est positive si les résidus sont pendant plusieurs périodes
consécutives soit positifs, soit négatifs. L’autocorrélation est négative si les résidus sont
alternés.
Pour se faire une idée nette de cette autocorrélation, le test de Durbin-Watson est utilisé, afin
de tester une autocorrélation des erreurs d’ordre 1 selon la forme :
𝑒𝑡 = 𝜌𝑒𝑡−1 + 𝑣𝑡 ,
où les 𝑣𝑡 sont supposés indépendants et donc entièrement imprévisibles. Aussi sont-ils
souvent appelés « bruit blanc ».
𝜌 représente le degré de corrélation des termes de la série.
∑𝑛
𝑡=2(𝜀𝑡 −𝜀𝑡−1 )
2
La statistique du test de Durbin-Watson est 𝐷𝑊 = ∑𝑛 2
,
𝑡=1 𝜀𝑡
où 𝜀𝑡 représente les résidus de l’estimation du modèle.
Par construction cette statistique varie entre 0 et 4.
Pour tester l’autocorrélation positive, on teste 𝐻0 : 𝜌 = 0, contre 𝐻1 : 𝜌 > 0, à un seuil choisi
(généralement 5%). La table de Durbin-Watson donne deux valeurs-limites critiques
𝐷𝐿 𝑒𝑡 𝐷𝑈 .
On rejette 𝐻0 𝑠𝑖 𝐷𝑊 < 𝐷𝐿 et on ne rejette pas 𝐻0 𝑠𝑖 𝐷𝑊 > 𝐷𝑈
Application :
Au seuil de 5%, avec une taille d’échantillon n=15 et k=3 régresseurs, on a
𝐷𝐿 = 0,82 𝑒𝑡 𝐷𝑈 = 1,75.
Pour tester l’autocorrélation négative(𝐻0 : 𝜌 = 0, 𝑐𝑜𝑛𝑡𝑟𝑒 𝐻1 : 𝜌 < 0),, pour une même taille
d’échantillon, un même nombre de régresseurs et pour le même seuil de significativité, les
nouvelles valeurs critiques sont 4 − 𝐷𝐿 = 4 − 0,82 = 3,18 et 4 − 𝐷𝑈 = 4 − 1,75 = 2,25.
On rejette 𝐻0 𝑠𝑖 𝐷𝑊 > 3,18 et on ne rejette pas 𝐻0 𝑠𝑖 𝐷𝑊 < 2,25.
En cas de corrélation des termes de la série, les estimateurs obtenus par les MCO ne gardent
pas toutes les bonnes propriétés recherchées (BLUE)3. Ils sont en effet sans biais mais ne sont
plus à variance minimale, car la variance estimée de certains coefficients augmente avec la
corrélation des termes de la série.
La corrélation des termes de la série signifie que les observations successives sont, dans une
certaine mesure, dépendantes les unes aux autres. Une corrélation des termes positive
signifie que les observations « indépendantes » tendent à ressembler aux observations
3
Best Linear Unbiaised Estimator. Un estimateur BLUE est le meilleur estimateur linéaire sans biais (au sens
qu’il fournit les variances les plus faibles).
9
précédentes et donnent en conséquence peu d’informations nouvelles. Ainsi n observations de
la série corrélées fournissent moins d’informations sur le trend (et le mouvement saisonnier)
que n observations indépendantes. En conséquence, les estimations obtenues en utilisant ces
observations corrélées sont moins fiables.
On peut examiner la variation des variables au cours du temps en retranchant (Eq.3) de (Eq.1)
D’après (Eq.2), 𝑒𝑡 − 𝑒𝑡−1 = 𝑣𝑡 , qui désigne un bruit blanc, satisfait donc toutes les propriétés
requises par le terme d’erreur dans un modèle de régression classique (espérance
mathématique nulle, variance constante, non corrélation ou indépendance entre les termes,
indépendance avec les variables explicatives).
Les transformations Δ𝑌𝑡 ≡ 𝑌𝑡 − 𝑌𝑡−1 et ∆𝑋𝑡 ≡ 𝑋𝑡 − 𝑋𝑡−1 sont appelées les différences
premières.
10
En retranchant (Eq.6) de (Eq.1), on a :
III-2 : La saisonnalité
Les séries temporelles présentent très souvent des variations saisonnières. Celles-ci peuvent
être mensuelles ou d’une périodicité quelconque. Plusieurs raisons peuvent expliquer des
variations saisonnières dans une série chronologique : durant les vacances de Noël par
exemple, les comportements des acheteurs se modifient totalement. Ainsi on peut constater à
l’analyse d’une série que les dépenses d’un ménage tendent à être élevées au cours du
quatrième trimestre de chaque année et sont suivies d’une forte baisse au trimestre suivant.
Lorsqu’une série comporte des variations saisonnières, on doit garder présente à l’esprit cette
remarque pour tirer des conclusions d’une simple observation. Si, afin d’évaluer l’efficacité
d’une politique gouvernementale visant à accroitre l’emploi, on observe que le niveau de
celui- ci s’est amélioré au premier trimestre de l’année 2010, ce résultat est peu convaincant si
l’on sait que l’emploi s’est accru tous les premiers trimestres.
11
L’étude de la saisonnalité est un préalable au traitement d’une série temporelle. En effet,
lorsque cette composante existe, il convient de l’isoler afin de pouvoir analyser les autres
caractéristiques. Une désaisonnalisation systématique, sans tester l’existence de cette
composante, peut créer une perturbation nuisible à l’analyse de la chronique et donc dégrader
la qualité de la prévision. Par conséquent nous allons présenter dans un premier temps les
techniques permettant de tester l’existence d’une composante saisonnière, et examinerons
dans un second temps les méthodes de désaisonnalisation.
L’analyse graphique d’une chronique suffit, parfois, pour mettre en évidence une saisonnalité.
Néanmoins, si cet examen n’est pas révélateur ou en cas de doute, le tableau de Buys-Ballot
permet d’analyser plus finement l’historique.
Le tableau de Buys-Ballot est un tableau complet à double entrées dans lequel sont consignées
les valeurs de la série 𝑥𝑡 . Il est constitué en lignes par les années et en colonnes par le facteur
à analyser (mois, trimestre, …). Les moyennes et les écarts-types des années et des trimestres
(ou des mois selon le cas) sont calculés, ainsi que pour l’ensemble des observations de la
chronique.
Exemple :
Tableau de Buys-Ballot relatif aux consommations trimestrielles d’un produit festif.
Ensuite on classe les facteurs pour chaque année par valeurs décroissantes. S’il y a persistance
d’un facteur à se classer en première position, on retient l’existence d’une saisonnalité.
Dans les cas où l’examen visuel du graphique ou le tableau ne permettent pas toujours de
déterminer avec certitude l’existence d’une saisonnalité, le test de Fisher à partir de l’analyse
de la variance permettra de résoudre le problème.
1
4
𝑠=√ ∑(𝑥𝑖 − 𝑥̅ )2 désigne l’écart-type d’un échantillon. On remplace 𝑛 par 𝑛 − 1 dans un échantillon pour
𝑛−1
réduire le biais d’estimation. La différence entre 𝜎 (écart-type pour une population) et 𝑠 (écart-type pour un
échantillon) est négligeable lorsque 𝑛 > 50.
12
Ce test suppose la chronique sans tendance ou encore sans extra-saisonnalité. Dans le cas
contraire, cette composante est éliminée par une régression sur le temps (extra- saisonnalité
déterministe), ou par une procédure de filtrage (extra-saisonnalité aléatoire).
Soit :
𝑁 le nombre d’années,
𝑝 le nombre d’observations (la périodicité) dans l’année (trimestre p=4, mois p=12, etc.)
𝑥𝑖𝑗 la valeur de la chronique pour la ième année (i=1,…, N) et la jème période (j=1,…, p)
supposée telle que 𝑥𝑖𝑗 = 𝑚𝑖𝑗 + 𝑒𝑖𝑗 . Les 𝑒𝑖𝑗 sont des résidus considérés comme aléatoires
formés d’éléments indépendants : 𝑒𝑖𝑗 ~𝑁(0; 𝜎 2 ).
Les 𝑚𝑖𝑗 sont les éléments d’une composante de la chronique qui s’écrivent :
𝑚𝑖𝑗 = 𝑎𝑖 + 𝑏𝑗 , 𝑎𝑣𝑒𝑐 𝑏𝑗 qui mesure l’effet période en colonne du tableau et 𝑎𝑖 qui mesure
l’effet année en ligne du tableau.
Si l’effet période est significatif, la série est saisonnière.
Pour effectuer ce test, il faut se servir du tableau ci-dessous :
2 𝑝−1 Variance 𝑆𝑝
𝑆𝑝 = 𝑁 ∑(𝑥.𝑗 − 𝑥.. ) 𝑉𝑝 =
Période 𝑝−1
𝑗
𝑆
𝑆𝐴 = 𝑝 ∑(𝑥𝑖. − 𝑥.. )2 𝑁−1 Variance 𝐴
𝑉𝐴 = 𝑁−1,
Année
𝑖
𝑆𝑅 = (𝑝 − 1) × (𝑁 − 1) Variance 𝑉𝑅 =
2 Résidu 𝑆𝑅
∑ ∑(𝑥𝑖𝑗 − 𝑥𝑖. − 𝑥.𝑗 + 𝑥.. )
𝑖 𝑗
(𝑝 − 1)(𝑁 − 1)
𝑆𝑇 𝑁×𝑝−1 Variance 𝑆𝑇
Totale 𝑉𝑇 =
𝑁×𝑝−1
Tableau d’analyse de la variance pour détecter une saisonnalité et/ou une tendance.
Test d’influence du facteur ligne, la tendance (𝑯𝟎 = pas d’influence du facteur année)
𝑉
On calcule la statistique de Fisher empirique 𝐹𝑐 = 𝑉𝐴, que l’on compare au Fisher lu dans la
𝑅
table à 𝑣3 = 𝑁 − 1 𝑒𝑡 𝑣2 = (𝑁 − 1)(𝑝 − 1) degrés de liberté.
𝑣3,𝑣2
Si le Fisher empirique est supérieur au Fisher lu dans la table(𝐹𝑐 > 𝐹𝑡𝑎𝑏 ), on rejette
l’hypothèse 𝐻0 et on conclut que la série est affectée d’une tendance.
13
III-2-2 : Méthodes de désaisonnalisation
Une des préoccupations principales de l’analyse est d’éliminer d’une série chronologique tout
ce qui brouille la lecture de la tendance. Lorsqu’une série chronologique est structurée par une
saisonnalité, les comparaisons inter-temporelles du phénomène nécessitent une chronique
corrigée des variations saisonnières (CVS), ou encore désaisonnalisée. Désaisonnaliser une
chronique c’est éliminer la saisonnalité sans modifier les autres composantes de la série
temporelle. Ce qui permet de réagir plus vite à des changements de tendance, sans négliger les
variations de la composante irrégulière. La désaisonnalisation permet donc un gain de temps
dans la détection des changements. Le choix de la technique la mieux appropriée dépend de
la nature déterministe ou stochastique de la saisonnalité de la chronique.
Lorsque la saisonnalité est rigide (c’est-à-dire bien marquée et répétitive), les méthodes de
régression et l’emploi de coefficients saisonniers identiques sur la période historique sont
adaptés. Si par contre la saisonnalité est souple, c’est-à-dire aléatoire en amplitude et/ou en
période, les techniques de filtrage par les moyennes mobiles doivent être utilisées. Nous
présentons d’abord le principe de base, encore appelé principe de conservation des aires,
ensuite deux méthodes de désaisonnalisation par régression et enfin la méthode basée sur les
moyennes mobiles.
Dans le cas d’un schéma additif, la somme des coefficients saisonniers doit être nulle.
Soit 𝑆𝑗 le jème coefficient provisoire, on calcule la somme des coefficients :
𝑆 = ∑𝑝𝑗=1 𝑆𝑗 , 𝑎𝑣𝑒𝑐 𝑝 la période de la saisonnalité.
Si S=0, les Sj sont les coefficients saisonniers définitifs.
Si 𝑆 ≠ 0, les coefficients saisonniers sont normés afin que leur somme soit nulle. Les
coefficients saisonniers définitifs sont alors donnés par 𝑆𝑗∗ = 𝑆𝑗 − 𝑆̅.
Dans le cas d’un schéma multiplicatif, la moyenne des coefficients saisonniers, pour une
année donnée, soit être égale à 1.
Soit 𝑆𝑗 le jème coefficient provisoire, on calcule la somme des coefficients :
𝑆 = ∑𝑝𝑗=1 𝑆𝑗 , 𝑎𝑣𝑒𝑐 𝑝 la période de la saisonnalité.
𝑆𝑗
Les coefficients définitifs sont donnés par 𝑆𝑗∗ = 𝑆̅
14
La désaisonnalisation par régression sur le temps :
Dans le cas d’un schéma additif5, on calcule la somme des coefficients saisonniers
provisoires. Soit 𝑆 cette somme.
Si 𝑆 = 0, alors le principe de conservation des aires est vérifié, et les coefficients saisonniers
calculés plus tôt sont les coefficients saisonniers définitifs.
Si 𝑆 ≠ 0, alors le principe de conservation des aires n’est pas vérifié, et une normalisation des
coefficients saisonniers s’impose. En notant 𝑆̅ la moyenne des coefficients saisonniers
provisoires, les coefficients saisonniers définitifs sont donnés par 𝑆𝑗∗ = 𝑆𝑗 − 𝑆̅.
Enfin on calcule la série CVS par différence entre la série brute et le coefficient saisonnier
définitif du trimestre (ou de la période) considéré.
Le coefficient de variation diminue considérablement entre la série brute et la série CVS :
c’est l’effet réducteur de la variance de la désaisonnalisation.
Les paramètres estimés des indicatrices donnent des coefficients saisonniers, qui pourront être
utilisés pour la désaisonnalisation. Le dernier coefficient saisonnier est obtenu par application
du principe de conservation des aires.
5
La condition à vérifier pour le schéma multiplicatif est donnée à la page précédente.
15
La désaisonnalisation par les moyennes mobiles :
La moyenne mobile est le filtre le plus utilisé pour désaisonnaliser une chronique. Un filtre est
une transformation mathématique d’une série chronologique. La moyenne mobile simple est
un filtre à horizon fini. Il s’agit d’une succession de moyennes arithmétiques de longueur
choisie égale à L (appelée ordre de la moyenne mobile).
Les moyennes mobiles simples ont pour propriétés d’éliminer une saisonnalité de période
égale à l’ordre de la moyenne mobile et de lisser le résidu. Ces propriétés fondent les
méthodes de désaisonnalisation utilisant ces filtres.
Le principe de la désaisonnalisation d’une chronique par l’usage des moyennes mobiles est
identique à celui de la régression sur le temps. La seule étape qui change est le calcul de la
tendance, qui est appréhendée, dans ce cas, par une moyenne mobile d’ordre égal à la période
de la saisonnalité.
16
CHAPITRE 2 : PROCESSUS ALEATOIRES STATIONNAIRES ET
PROCESSUS ARMA
I : Introduction
Mais en économie l’expérience n’est pas renouvelable. Par exemple on ne peut observer
qu’un seul échantillon de la croissance trimestrielle du PIB de la Côte d’Ivoire entre 1980 et
2010 (119 valeurs). On ne peut laisser l’histoire se dérouler à nouveau et observer d’autres
réalisations. On dispose donc d’un seul échantillon temporel. Il faut en conséquence, recourir
à l’hypothèse forte d’ergodicité, qui suppose que l’estimation des moments du processus pour
chacun des instants 𝑡 tend vers l’estimation des moments le long du processus et donc vers les
moments temporels de l’échantillon.
La théorie des processus aléatoires a débuté avec les travaux de Yule quand ce dernier a
introduit la notion de choc aléatoire ou encore d’impulsion dans les séries temporelles. Cette
notion, associée à celle de composante non périodique, a permis de caractériser le processus
aléatoire dont les principales propriétés ont été décrites par Kolmogorov. Par la suite, Wiener
a généralisé l’analyse harmonique introduite par Fourier au cas stochastique.
L’idée de cette généralisation est que, sous certaines conditions, le processus stochastique
peut être décomposé en une somme infinie de sinusoïdes de fréquences déterministes
différentes mais d’amplitude aléatoire. C’est le caractère périodique de la décomposition
harmonique qui a conduit Khintchine à introduire la classe des processus aléatoires
stationnaires.
Après une définition du processus stochastique, nous nous intéresserons ensuite aux processus
stationnaires et à l’analyse des fonctions d’autocorrélation, et enfin à la classe des processus
aléatoires ARMA linéaires et stationnaires.
Un processus stochastique est une application 𝑋 qui associe au couple (𝜔, 𝑡) la quantité
𝑥𝑡 (𝜔). Elle est telle que ∀ 𝑡 ∈ 𝑇 𝑓𝑖𝑥é, 𝑥𝑡 est une variable aléatoire définie sur un espace
probabilisé. Un processus stochastique est donc une famille (ou une suite) de variables
aléatoires réelles indicées ou indexées par le temps t noté (𝑥𝑡 , 𝑡 ∈ 𝑇) ou encore 𝑥𝑡 .
17
L’espace des indices 𝑇 est le temps, 𝑡 est alors l’instant d’observation de la variable aléatoire
𝑥 sur l’individu 𝜔. Pour 𝜔 fixé, 𝑥𝑡 (𝜔) porte le nom de trajectoire (ou réalisation) de 𝑥 pour
l’individu 𝜔.
On suppose, par la suite, que la série temporelle 𝑥𝑡 (soit une succession d’observations
régulièrement espacées dans le temps d’une valeur économique) est une réalisation d’un
processus stochastique discret, univarié, et notée aussi 𝑥𝑡 . La série temporelle est dite
échantillon ou réalisation partielle du processus stochastique, et ce dernier est appelé
processus générateur de la série temporelle.
III-1 : Définitions
Avant le traitement d’une série chronologique, il convient d’en étudier les caractéristiques
stochastiques.
Si ces caractéristiques, c’est-à-dire les moments se trouvent modifiés dans le temps, la série
temporelle est considérée comme non stationnaire. Dans le cas d’un processus stochastique
invariant, la série temporelle est alors stationnaire. Deux types de stationnarité sont définis :
la stationnarité au sens strict (ou stationnarité forte) et la stationnarité d’ordre deux (ou
stationnarité faible).
Le processus 𝑥𝑡 est dit fortement stationnaire si ∀ le n-uple du temps 𝑡1 < 𝑡2 < ⋯ < 𝑡𝑛 tel
que 𝑡𝑖 ∈ 𝑇 et pour tout temps ℎ ∈ 𝑇 avec 𝑡𝑖 + ℎ ∈ 𝑇, ∀𝑖, 𝑖 = 1, … , 𝑛, la suite
(𝑥𝑡1+ℎ , … , 𝑥𝑡𝑛+ℎ ) a la même loi de probabilité que la suite (𝑥𝑡1 , … , 𝑥𝑡𝑛 ).
La distribution conjointe de (𝑥𝑡1 , … , 𝑥𝑡𝑛 ) est alors invariante quand on fait glisser le temps.
Ainsi un processus aléatoire est strictement stationnaire si toutes ses caractéristiques, c’est-à-
dire tous ses moments, sont invariants pour tout changement de l’origine du temps. La
stationnarité stricte implique donc que tous les moments soient indépendants du temps.
On peut aussi noter 𝑐𝑜𝑣(𝑥1 , 𝑥1+𝑘 ) = 𝑐𝑜𝑣(𝑥2 , 𝑥2+𝑘 ) = 𝑐𝑜𝑣(𝑥𝑡 , 𝑥𝑡−𝑘 ). Les covariances
(appelées autocovariances) dépendent uniquement du délai entre deux dates considérées.
Les processus stationnaires d’ordre 2 sont des processus générateurs de séries temporelles
sans tendance en moyenne et sans tendance en variance mais cela ne signifie pas que les
séries temporelles ont une représentation graphique stable. La stationnarité faible (ou du
second ordre) implique que le graphe de la série en fonction du temps montre des fluctuations
autour du niveau moyen, fluctuations qui se ressemblent, quelle que soit la date autour de
laquelle on examine la série.
Une série chronologique est donc stationnaire si elle est la réalisation d’un processus
stationnaire. Ceci implique que la série ne comporte ni tendance, ni saisonnalité et plus
généralement aucun facteur n’évoluant avec le temps. La stationnarité du processus
générateur d’une série temporelle assure la validité externe du modèle : le modèle estimé sur
des données du passé doit être valable dans le futur.
En effet si la distribution des taux de croissance du PIB de la Côte d’Ivoire est stationnaire,
c’est-à-dire constante au cours du temps, alors les 119 réalisations observées peuvent être
considérées comme tirées de la même distribution. Sous ces hypothèses, la moyenne
(temporelle) des 119 observations est un estimateur convergent du taux de croissance attendu
pour chaque trimestre, puisque le taux de croissance est supposé constant au cours du temps.
Pour les séries suivant une distribution gaussienne, la stationnarité du second ordre est
équivalente à la stationnarité stricte, car celles-ci sont entièrement résumées par leurs deux
premiers moments.
Un processus stationnaire élémentaire, appelé processus de bruit blanc, est présenté par la
suite.
Soit un processus 𝑥𝑡 . Si pour tout n-uple du temps 𝑡1 < 𝑡2 < ⋯ < 𝑡𝑛 , les variables aléatoires
réelles 𝑥𝑡2 − 𝑥𝑡1 , … , 𝑥𝑡𝑛 − 𝑥𝑡𝑛−1 (différences premières) sont indépendantes, il s’agit d’un
processus à accroissements indépendants.
Le processus 𝑥𝑡 est dit à accroissements indépendants stationnaires si de plus la loi de
probabilité de (𝑥𝑡+ℎ − 𝑥𝑡 ) ∀ ℎ ∈ 𝑇 ne dépend pas de 𝑡. Un bruit blanc est un processus
stochastique à accroissements non corrélés. Il s’agit d’une suite de variables aléatoires réelles
homoscédastiques, de même distribution et mutuellement indépendantes. C’est donc une suite
de variables aléatoires non corrélées et d’espérance et de variance constante. On l’appelle
aussi processus i.i.d. (processus discret, formé de variables mutuellement indépendantes et
identiquement distribuées). Si la loi de probabilité de 𝑥𝑡 est normale, alors le bruit blanc est
nécessairement i.i.d. Il est parfois dit bruit blanc gaussien et noté alors n.i.d. (normalement
et identiquement distribué).
19
Un bruit blanc est donc tel que :
𝐸(𝑥𝑡 ) = 𝑚, ∀𝑡 ∈𝑇
𝑉(𝑥𝑡 ) = 𝜎 2 , ∀𝑡 ∈𝑇
𝑐𝑜𝑣(𝑥𝑡 , 𝑥𝑡+ℎ ) = 0, ∀ (𝑡, ℎ) ∈ 𝑇 2
Si 𝐸(𝑥𝑡 ) = 0, le bruit blanc est centré.
Le bruit blanc est un processus stationnaire élémentaire, utilisé dans beaucoup de modèles
économétriques comme spécification du terme d’erreur.
Un processus i.i.d. ou n.i.d. est nécessairement stationnaire, mais tous les processus
stationnaires ne sont pas i.i.d. ou n.i.d. Dans ce dernier cas le processus stationnaire est dit à
mémoire, c’est-à-dire qu’il existe une loi de reproduction interne au processus qui est donc
modélisable.
III-3 : L’ergodicité
Les processus aléatoires recourent à l’hypothèse d’ergodicité pour les échantillons qui les
constituent. L’ergodicité statistique concerne l’information qui peut être obtenue à partir
d’une moyenne sur le temps concernant la moyenne commune à tout instant.
Pour estimer la loi d’un processus, on cherche à accumuler de l’information en faisant tendre
le nombre d’observations vers l’infini. Pour que ce mécanisme d’accumulation fonctionne, il
faut que le processus ait une mémoire finie c’est-à-dire qu’à partir d’un certain nombre
d’observations, il n’y ait plus d’informations nouvelles, mais simplement confirmation des
informations passées. Par exemple dans le problème de l’estimation de la moyenne, on veut
que la moyenne empirique soit un estimateur convergent et que la variance de cet estimateur
tende vers 0. Cette propriété de limitation de la mémoire d’un processus s’appelle ergodicité.
On dit qu’un processus aléatoire est ergodique si l’on peut obtenir des estimateurs sans biais
et convergents de ses caractéristiques (les moments) à partir d’un seul échantillon. Comme
dans le cas des séries temporelles on a un seul échantillon, cette hypothèse est nécessaire et
est souvent utilisée de façon naturelle.
𝛾𝑡 (ℎ) = 𝑐𝑜𝑣(𝑥𝑡 , 𝑥𝑡−ℎ ) = 𝛾ℎ . Mais une faiblesse de la covariance est qu’elle n’est pas
invariante dans un changement d’unités utilisées pour exprimer les valeurs des deux variables.
Pour avoir une grandeur indépendante des unités utilisées, il faut considérer l’autocorrélation.
L’autocorrélation mesure la corrélation d’une série avec elle-même, en introduisant un
𝛾
décalage entre les 2 échantillons. La fonction d’autocorrélation est définie par 𝜌ℎ = 𝛾ℎ et est
0
comprise dans l’intervalle [−1; 1].
Si on suppose que la corrélation entre 𝑥𝑡 𝑒𝑡 𝑥𝑡−1 est également celle observée entre
𝑥𝑡−1 𝑒𝑡 𝑥𝑡−2 , on peut alors supposer qu’une corrélation sera présente entre 𝑥𝑡 𝑒𝑡 𝑥𝑡−2 , c’est-à-
dire que la corrélation de décalage 1 se propage au décalage 2. Plus précisément la corrélation
attendue au décalage 2 est le carré de la corrélation observée au décalage 1. L’autocorrélation
partielle de décalage 2 est donc la différence entre l’autocorrélation de décalage 2 et la
corrélation attendue liée à la propagation de la corrélation de décalage 1.
1 𝜌1 ⋯ 𝜌𝑘−1
𝑃𝑘 = [ ⋮ 1 ⋮ ],𝑘 ∈ 𝑁
𝜌𝑘−1 ⋯… 1
21
|𝑃 ∗ |
La fonction d’autocorrélation partielle est la succession des 𝜌𝑘𝑘 = |𝑃𝑘 |, avec
𝑘
|𝑃𝑘∗ |
=déterminant de la matrice 𝑃𝑘 dans laquelle on a remplacé la dernière colonne par le
vecteur [𝜌1 … 𝜌𝑘 ].
On montre que 𝜌11 = 𝜌1 . La première valeur de l’autocorrélation partielle est égale à la
première valeur de l’autocorrélation.
Lorsqu’on étudie les fonctions d’autocorrélation d’une série temporelle, il se pose la question
de savoir quels sont les termes significativement différents de 0. En effet, si aucun terme n’est
significativement différent de 0, on peut en conclure que le processus étudié est sans
mémoire et donc qu’à ce titre il n’est affecté ni de tendance ni de saisonnalité. Ou encore si
une série mensuelle présente une valeur élevée pour 𝑟12 (corrélation entre 𝑥𝑡 𝑒𝑡 𝑥𝑡−12, alors la
série étudiée est certainement affectée d’un mouvement saisonnier.
Deux types de tests de significativité peuvent être effectués : le test d’un coefficient
d’autocorrélation et le test d’un ensemble de coefficients d’autocorrélation.
𝐻0 : 𝜌1 = 𝜌2 = ⋯ = 𝜌𝑘 = 0
𝑄 = 𝑛 ∑ℎ𝑘=1 𝑟𝑘2,
On peut aussi utiliser une autre statistique dont les propriétés asymptotiques sont meilleures,
qui est la statistique 𝑸′ de Ljung et Box.
22
ℎ
′
𝑟𝑘2
𝑄 = 𝑛(𝑛 + 2) ∑
𝑛−𝑘
𝑘=1
Cette statistique est aussi distribuée selon un 𝜒 2 à ℎ degrés de liberté, donc les règles de
décision sont identiques au cas précédent.
L’étude des interdépendances temporelles d’une variable peut conduire à modéliser sa valeur
en 𝑡 en fonction de ses réalisations à des périodes antérieures.
Lorsque l’observation présente 𝑦𝑡 est générée par une moyenne pondérée des
observations passées jusqu’à la 𝑝 − 𝑖è𝑚𝑒 période, le processus est dit autorégressif
d’ordre 𝑝 ou processus AR(p).
Le modèle autorégressif le plus simple est celui où la valeur d’une variable endogène à une
période donnée dépend de la valeur prise par cette variable à la période précédente et d’elle
seule. C’est le modèle autorégressif d’ordre 1, noté AR(1).
On peut ajouter à ce processus une constante qui ne modifie en rien les propriétés
stochastiques.
En utilisant l’opérateur de retard L (lag) tel que 𝐿𝑥𝑡 ≡ 𝑥𝑡−1 , 𝐿2 𝑋𝑡 ≡ 𝑋𝑡−2 ; … … 𝐿𝑘 𝑋𝑡 ≡ 𝑋𝑡−𝑘 ,
le processus AR(p) peut s’écrire
(1 − 𝜃1 𝐿 − 𝜃2 𝐿2 − ⋯ − 𝜃𝑝 𝐿𝑝 )𝑦𝑡 = 𝜀𝑡 .
L’opérateur de retard se note aussi B (backward), et est très utile pour une écriture de façon
compacte des processus ARMA.
Lorsque l’observation présente 𝑦𝑡 est générée par une moyenne pondérée des aléas
jusqu’à la 𝑞 − 𝑖è𝑚𝑒 période, le processus est dit de moyenne mobile d’ordre 𝑞 ou
processus MA(q). MA: moving average
MA(1) : 𝑦𝑡 = 𝜀𝑡 + 𝛼1 𝜀𝑡−1
MA(2) : 𝑦𝑡 = 𝜀𝑡 + 𝛼1 𝜀𝑡−1 + 𝛼2 𝜀𝑡−2
….
MA(q) : 𝑦𝑡 = 𝜀𝑡 + 𝛼1 𝜀𝑡−1 + 𝛼2 𝜀𝑡−2 + ⋯ + 𝛼𝑞 𝜀𝑡−𝑞
23
En utilisant l’opérateur de retard L (lag) défini plus haut, le processus MA(q) peut s’écrire :
(1 − 𝛼1 𝐿 − 𝛼2 𝐿2 − ⋯ − 𝛼𝑞 𝐿𝑞 )𝜀𝑡 = 𝑦𝑡 .
𝐴𝑅(1) ⟹ 𝑀𝐴(∞)
𝑀𝐴(1) ⇒ 𝐴𝑅(∞)
Les processus ARMA sont des mélanges des processus AR et MA. Ils sont représentatifs d’un
processus généré par une combinaison des valeurs passées et des aléas passés. Ces
processus sont définis par l’équation :
ARMA(p, q) : 𝑦𝑡 = 𝜃1 𝑦𝑡−1 + 𝜃2 𝑦𝑡−2 + ⋯ + 𝜃𝑝 𝑦𝑡−𝑝 + 𝜀𝑡 + 𝛼1 𝜀𝑡−1 + 𝛼2 𝜀𝑡−2 + ⋯ + 𝛼𝑞 𝜀𝑡−𝑞
Ou encore,
(1 − 𝜃1 𝐿 − 𝜃2 𝐿2 − ⋯ − 𝜃𝑝 𝐿𝑝 )𝑦𝑡 = (1 − 𝛼1 𝐿 − 𝛼2 𝐿2 − ⋯ − 𝛼𝑞 𝐿𝑞 )𝜀𝑡
On remarque que
𝐴𝑅𝑀𝐴(0, 𝑞) ≡ 𝑀𝐴(𝑞)
𝐴𝑅𝑀𝐴(𝑝, 0) ≡ 𝐴𝑅(𝑝)
Les processus ARMA sont censés recouvrir une gamme très large d’évolution possible des
séries temporelles. Par rapport aux techniques autoprojectives telles que les lissages
exponentiels, les modèles ARMA présentent l’avantage de reposer sur des bases théoriques
solides dans la construction des prévisions. Ce type de modèle s’avère extrêmement efficace
pour réaliser des prévisions à court terme de variables ayant une certaine inertie, ce qui est le
cas par exemple de quantités agrégées (le trafic d’un aéroport, la demande de courrier). Mais
ce n’est pas du tout le cas par exemple, des prix sur les marchés très réactifs comme les
marchés de devises.
24
CHAPITRE 3 : LA METHODOLOGIE DE BOX ET JENKINS
L’approche proposée par Box et Jenkins (1976) consiste en l’étude systématique des séries
temporelles à partir de leurs caractéristiques, afin de déterminer le modèle le mieux adapté à
représenter le phénomène étudié. L’algorithme de Box-Jenkins comprend trois étapes :
l’identification d’un modèle préliminaire, l’estimation des paramètres et les tests d’adéquation
du modèle.
I : L’identification
L’identification consiste à déterminer le modèle adéquat dans la famille des modèles ARMA.
Elle est fondée sur l’étude des corrélogrammes simple et partiel. Les corrélogrammes sont
les représentations graphiques des fonctions d’autocorrélation.
Puisque les processus ARMA sont stationnaires, une série temporelle ne peut être modélisée
par un processus ARMA si elle n’est pas stationnaire. Ce qui implique que la série ne doit
comporter ni tendance, ni saisonnalité, et plus généralement aucun facteur n’évoluant avec le
temps. De ce fait, si la série soumise à l’analyse présente un mouvement saisonnier, celui-ci
doit être retiré préalablement à tout traitement statistique. La saisonnalité sera ajoutée à la
série prévue à la fin du traitement. De même si les analyses graphiques présagent d’une série
affectée d’une tendance, il convient d’en étudier les caractéristiques selon les tests de Dickey-
Fuller. La méthode d’élimination de la tendance est fonction du processus sous-jacent à la
chronique étudiée.
En somme, la série doit être stationnaire avant de la modéliser par un processus ARMA.
Après stationnarisation, nous pouvons identifier les valeurs des paramètres 𝑝 𝑒𝑡 𝑞 du modèle
ARMA. Il s’agit de chercher le processus générateur de la chronique dans la classe des
processus ARMA linéaires et stationnaires.
L’identification est une étape délicate qui conditionne la prévision de la chronique. Elle
permet de choisir les paramètres𝑝 𝑒𝑡 𝑞avant de pouvoir estimer le modèle. Cette étape
s’opère, selon la méthodologie préconisée par Box et Jenkins, en comparant les mêmes
caractéristiques empiriques de la série temporelle et théoriques des processus ARMA. Un
processus est caractérisé par ses moments, et les plus importants parmi ceux-ci sont les
fonctions d’autocorrélation puisqu’il s’agit de processus de second ordre. Ainsi Box et
Jenkins (1976) proposent de recourir à la fonction d’autocorrélation et à la fonction
d’autocorrélation partielle de la série temporelle. Les graphes de ces fonctions sont appelées
respectivement corrélogramme simple et corrélogramme partiel.
25
Si le corrélogramme simple n’a que ses 𝑞 premiers termes (𝑞 = 3 maximum)
significativement différents de 0, et que les termes du corrélogramme partiel
diminuent lentement (décroissance exponentielle et/ou sinusoidale amortie), cela
caractérise un MA(q).
Les corrélogrammes simple et partiel des processus ARMA sont un mélange des deux
corrélogrammes des processus AR et MA. On remarquera que le corrélogramme
simple d’un ARMA (1, 1) se comporte comme celui d’un AR (1). La présence de la
partie MA n’affecte pas la première valeur de l’autocorrélation.
Après avoir identifié l’ordre du processus ARMA, il convient d’estimer les paramètres du
modèle, puis de vérifier à partir d’un certain nombre de tests statistiques que le modèle est
valide. Dans le cas d’un modèle AR(p), on peut appliquer une méthode des moindres carrés,
ou utiliser les relations existantes entre les autocorrélations et les coefficients du modèle. Mais
lorsque le nombre de paramètres à estimer est important, ou en présence de la partie MA, il
faut utiliser la méthode du maximum de vraisemblance.
26
III : Tests de validation et choix de modèle
Les tests d’adéquation se basent aussi bien sur la significativité des coefficients du modèle
que sur l’analyse des résidus. Il faut d’abord vérifier que le résidu se rapproche d’un bruit
blanc, et ensuite tester la significativité des coefficients estimés.
Pour assurer la validité des modèles, il faut que les résidus suivent un bruit blanc, c’est-à-dire
qu’ils soient non corrélés et ne présentent pas d’hétéroscédasticité (i.e. ont une variance
constante). Dans le cas contraire, la spécification du modèle est incomplète et il manque au
moins un ordre à un processus.
Des tests de spécification permettent de vérifier que le modèle est congruent, c’est-à-dire
qu’il ne peut être mis en défaut. Ensuite si plusieurs modèles résistent aux différents tests, il
existe des méthodes ad hoc permettant de comparer leurs performances.
Pour la spécification d’un modèle les tests de blancheur des résidus et de significativité des
coefficients estimés sont indispensables.
Il est utile de noter que si les résidus obéissent à un bruit blanc, il ne doit pas exister
d’autocorrélation dans la série. De même un bruit blanc est par définition homoscédastique.
Ainsi les tests de recherche d’autocorrélation et d’hétéroscédasticité présentés ci-dessous
contribuent à la robustesse du test de blancheur du résidu.
Test d’hétéroscédasticité de White : ce test utilise une régression des carrés des résidus sur
les régresseurs originaux et leurs carrés. Sous l’hypothèse nulle d’homoscédasticité, la
statistique suit une loi de 𝜒 2 .
Test de significativité des coefficients : Parmi les processus ARMA estimés, on ne retiendra
que ceux dont tous les coefficients ont un t de Student > 1,96 (au seuil de 5% et pour une
taille d’échantillon suffisamment grande n > 30).
27
Test de normalité de Jarque-Bera : ce test d’hypothèse nulle de normalité des résidus utilise
les propriétés des ratios des troisième et quatrième moments sur la variance dans le cadre de
𝑛 𝑛
lois gaussiennes. La statistique du test 𝑠 = 6 𝛽1 + 24 (𝛽2 − 3)2 suit un 𝜒 2 à deux degrés de
1
2 (2),
liberté. 𝛽12 est le coefficient de Skewness et 𝛽2 est le coefficient de Kurtosis. Si 𝑠 > 𝜒1−𝛼
on rejette l’hypothèse 𝐻0 de normalité des résidus.
Il peut arriver que plusieurs modèles se montrent résistants aux tests de spécification. Si le
choix s’avère difficile entre plusieurs modèles concurrents, il faut utiliser les critères de
comparaison des modèles, qui sont présentés ci-dessous :
2) La racine carrée de l’erreur quadratique moyenne (RMSE, root mean squared error)
1
𝑅𝑀𝑆𝐸 = √ ∑ 𝑒𝑡2
𝑛
𝑡
3) L’écart absolu moyen en pourcentage (MAPE, mean absolute percent error)
100 𝑒𝑡
𝑀𝐴𝑃𝐸 = ∑| |
𝑛 𝑋𝑡
𝑡
Plus la valeur de ces critères est faible, plus le modèle estimé est proche des observations.
𝑆𝐶 = 𝑛 𝑙𝑜𝑔(𝜎𝑎2 ) + (𝑝 + 𝑞) log 𝑛
n = d’observations
p, q = ordres respectifs des processus AR et MA.
SC coïncide avec le critère bayésien d’information (BIC) et est plutôt recommandé pour les
modèles ARMA.
28
BIBLIOGRAPHIE
BOX G., JENKINS G. (1976), Times series analysis: forecasting and control, Holdenday
29
Université de Bouaké Année universitaire 2019-2020
1
Exercice 1
Les ventes trimestrielles d’un produit, du 1er trimestre de 2010 au 4e trimestre de 2012, sont
données ci-dessous :
1248-1392-1057-3159-891-1065-1118-2934-1138-1456-1224-3090.
On définit :
1 𝑝
𝑥.. = 𝑁×𝑝 ∑𝑁
𝑖=1 ∑𝑗=1 𝑥𝑖𝑗 : moyenne générale de la chronique sur les 𝑁 × 𝑝 observations.
1
𝑥𝑖. = 𝑝 ∑𝑝𝑗=1 𝑥𝑖𝑗 : moyenne de l’année i.
1
𝑥.𝑗 = 𝑁 ∑𝑁
𝑖=1 𝑥𝑖𝑗 : moyenne de la période j.
2 𝑆𝑝
𝑆𝑝 = 𝑁 ∑𝑗(𝑥.𝑗 − 𝑥.. ) et 𝑉𝑝 = 𝑝−1, respectivement la somme des carrés et la variance période.
𝑆
𝑆𝐴 = 𝑝 ∑𝑖(𝑥𝑖. − 𝑥.. )2 et 𝑉𝐴 = 𝑁−1
𝐴
, respectivement la somme des carrés et la variance année.
2 𝑆
𝑅
𝑆𝑅 = ∑𝑖 ∑𝑗(𝑥𝑖𝑗 − 𝑥𝑖. − 𝑥.𝑗 + 𝑥.. ) et 𝑉𝑅 = (𝑝−1)(𝑁−1) , respectivement la somme des carrés et la
variance résidu.
𝑇 𝑆
𝑆𝑇 = 𝑆𝑝 + 𝑆𝐴 + 𝑆𝑅 et 𝑉𝑇 = 𝑁×𝑝−1, respectivement la somme des carrés et la variance totale.
Exercice 2
Exercice 3
En utilisant l’opérateur de retard (L), donner l’écriture des processus stationnaires suivants :
2
Exercice 4
2) Etudier les conditions de stationnarité des processus suivants filtrés par leurs
différences premières, avec 𝜀𝑡 → 𝑛. 𝑖. 𝑑(0, 𝜎 2 ). On note D l’opérateur de différences,
et la différence première de 𝑥𝑡 s’écrit :𝐷𝑥𝑡 = 𝑥𝑡 − 𝑥𝑡−1
a. 𝑥𝑡 = 𝑥𝑡−1 + 𝜀𝑡
b. 𝑥𝑡 = −𝑥𝑡−1 + 𝜀𝑡
c. 𝑥𝑡 = 𝑎𝑡 + 𝑏 + 𝜀𝑡
3) Etudier les conditions de stationnarité du processus suivant filtré par ses différences
secondes (𝐷2 𝑥𝑡 = 𝐷(𝐷𝑥𝑡 ) = 𝐷𝑉𝑡 , 𝑎𝑣𝑒𝑐 𝑉𝑡 = 𝑥𝑡 − 𝑥𝑡−1 )
a. 𝑥𝑡 = 𝑎𝑡 2 + 𝑏𝑡 + 𝑐 + 𝜀𝑡
1. Quels sont les différents types de données statistiques ? Décrire brièvement chacun
d’eux et donner un exemple dans chaque cas.
2. Quelle est l’origine de la corrélation des termes d’une série temporelle ? Donner alors
l’utilité de la méthode des moindres carrés généralisés (MCG) pour l’estimation.
3. Décrire brièvement les différentes méthodes de désaisonnalisation.
4. Donner les conditions de stationnarité forte d’une part et de stationnarité d’ordre deux
d’autre part, d’un processus.
5. Quels sont les moments jusqu’à l’ordre deux, d’un processus de bruit blanc centré ?
6. Quelle est la différence entre la fonction d’autocorrélation et la fonction
d’autocorrélation partielle ?
7. Quel résultat du test sur la fonction d’autocorrélation d’une série temporelle permet de
conclure que le processus étudié est sans mémoire ?
8. Donner les trois grandes étapes de la méthodologie de Box et Jenkins. Expliquer
brièvement chacune d’elles.
Note : Il n’est pas demandé de copier un ou des paragraphes du cours en guide de réponse.
Il s’agit plutôt de comprendre l’explication donnée dans le cours, et de l’exploiter en vue
de donner une réponse précise et concise à chaque question.