Vous êtes sur la page 1sur 2

Chapitre 6

Lissage exponentiel

Le lissage exponentiel est pratiqué depuis plus de 50 ans. Méthode d’abord pure-
ment intuitive, il a connu depuis une vingtaine d’années un développement théo-
rique important et s’appuie sur un modèle basé associé à une représentation espace-
état et sur le filtre d’innovation. Le fait qu’un modèle soit disponible permet de ne
pas se contenter de prévisions ponctuelles, mais de calculer également des inter-
valles de prévision. De nombreuses méthodes récentes de lissage exponentiel sont
disponibles dans ets() de forecast.

6.1 Lissage exponentiel


L’expression lissage exponentiel désigne un ensemble de méthodes de calcul de
prédictions d’une série, centrées sur une mise à jour facile de la prédiction de la
série quand une nouvelle observation est disponible. Ces méthodes partent d’une
décomposition de série en tendance, saisonnalité et erreur, et proposent un mé-
canisme de mise à jour de la tendance et de la saisonnalité quand une nouvelle
observation est disponible.
La prédiction de yt+h connaissant le passé yt , yt−1 , · · · de la série est l’espérance
conditionnelle au passé de la série (cf. section 4.4). On note indifféremment cette
prédiction :
E(yt+h |yt , yt−1 , · · · ) ou yt+h|t .

Pour l’horizon h = 1, on note aussi cette prédiction μt : μt ≡ yt+1|t .

6.1.1 Lissage exponentiel simple


Supposons une série y1 , y2 , · · · , sans saisonnalité et montrant une tendance loca-
lement constante, c’est-à-dire que son niveau reste à peu près constant pour des
dates proches. Nous voulons prédire la prochaine observation.

Y. Aragon, Séries temporelles avec R


© Springer-Verlag France 2011
122 Séries temporelles avec R

 Présentation classique - approche descriptive . Il est naturel de prédire


yt+1 par une moyenne pondérée des valeurs passées y1 , y2 , · · · , yt :

μt = c0 yt + c1 yt−1 + c2 yt−2 + · · · .

Les ci sont des poids positifs à définir. Comme la série évolue peu d’une date sur
l’autre, on choisit de la prédire à un horizon h, pas trop élevé, par

yt+h|t = μt , ∀h ≥ 1. (6.1)

Comme la série évolue au cours du temps, il est logique d’affecter un poids plus
important aux valeurs récentes qu’à celles du début de la série, on choisit des poids
géométriques :
ci = α(1 − α)i , i = 0, 1, · · ·
où α est une constante, 0 < α < 1. Ainsi, dans cette méthode de prévision, on
choisit de prédire yt+1 par :

μt = αyt + α(1 − α)yt−1 + α(1 − α)2 yt−2 + · · · . (6.2)

On peut voir une récurrence dans (6.2) :

μt = αyt + (1 − α)(αyt−1 + α(1 − α)1 yt−2 + · · · )


(6.3)
= αyt + (1 − α)μt−1 .

La deuxième ligne de (6.3) est la formule de mise à jour de la prédiction quand


arrive une nouvelle observation. Posons :

et = yt − μt−1 , (6.4)

c’est l’erreur sur yt quand on le prédit à partir de la série jusqu’en t − 1. On a


encore
μt = μt−1 + αet . (6.5)
Vu (6.1), la prévision ne dépend pas de l’horizon et μt−1 est aussi la prévision
de yt+1 , connaissant la série jusqu’en t − 1. La nouvelle prévision à l’horizon 1
est ainsi une combinaison convexe de l’ancienne prévision à l’horizon 2 et de la
dernière valeur observée. L’écriture (6.5) est la forme dite à correction d’erreur.
Ce modèle est aussi appelé modèle à moyenne localement constante et la prévision
μt est le niveau local noté également lt . L’équation (6.3) s’écrit donc

lt = αyt + (1 − α)lt−1
ou
lt = lt−1 + αet . (6.6)

C’est une équation de mise à jour de la prévision quand arrive une nouvelle obser-
vation. Plus α est proche de 1,

Vous aimerez peut-être aussi