Vous êtes sur la page 1sur 33

CHAPITRE III

Th eorie asymptotique et processus


non-stationnaires
Michel LUBRANO
Septembre 2005
Contents
1 Introduction 1
2 Rappels de Th eorie Asymptotique Standard 2
2.1 Convergences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2.2 Ordre dune suite ou vitesse de convergence . . . . . . . . . . . . . . . . . 4
2.3 Lois des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.4 Le th eor` eme central limite (Lindeberg-L evy) . . . . . . . . . . . . . . . . 6
3 Propri et es asymptotiques de lestimateur des moindres carres 7
3.1 Mod` ele de r egression standard . . . . . . . . . . . . . . . . . . . . . . . . 7
3.2 Mod` ele de r egression dynamique . . . . . . . . . . . . . . . . . . . . . . . 8
4 Processus Non-Stationnaires 10
4.1 Tendance d eterministe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.2 Tendance stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.3 Mauvaise stationnarisation . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5 R egressions Factices 15
5.1 R egression et non-stationnarit e . . . . . . . . . . . . . . . . . . . . . . . . 15
5.2 Exp eriences de Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.3 D etection des r egressions factices . . . . . . . . . . . . . . . . . . . . . . 17
1
1 INTRODUCTION 2
6 Introduction a la theorie asymptotique non-standard 17
6.1 Processus de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
6.2 Int egrale stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
6.3 Th eor` eme central limite fonctionnel . . . . . . . . . . . . . . . . . . . . . 22
6.4 Moments d echantillonnage dans une marche al eatoire . . . . . . . . . . . 25
6.5 Distribution de lestimateur des OLS
dans le cas de racine unitaire . . . . . . . . . . . . . . . . . . . . . . . . . 27
7 Conclusion 30
8 Lectures additionnelles 30
9 Exercices 30
9.1 Exercice 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
9.2 Exercice 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
9.3 Exercice 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1 Introduction
La notion de stationnarit e a et e introduite dans le chapitre I. Nous avons vu que la sta-
tionnarit e etait n ecessaire pour que le th eor` eme de Wold puisse sappliquer et lon sait
que ce th eor` eme est fondamental pour la mod elisation des s eries temporelles. Mais nous
avons omis de parler de stationnarit e lors de lexpos e des propri et es de diff erents mod` eles
econom etriques dynamiques du chapitre II, en suivant dailleurs en cela les habitudes de
la litt erature ancienne. Pourtant, on peut constater quun mod` ele ` a correction derreur
m elange sans soucis des variables en niveau et des variables en diff erence. Or il est plau-
sible (mais non certain) que si une variable en diff erence est stationnaire, son niveau ne
le soit pas. Que deviennent alors dans ce cas les propri et es de lestimateur des moindres
carr es? Cest ce probl` eme de la non-stationnarit e qui va nous occuper maintenant en re-
lation celui de la th eorie asymptotique. Nous allons dans un premier temps donner les
propri et es asymptotiques des estimateurs des moindres carr es dans le cadre dun mod` ele
dynamique et voir quelles sont les conditions de stationnarit e que ces propri et es supposent.
On d etaillera ensuite les deux types courants de non-stationnarit e envisageables que lon
rencontre dans la pratique. Ceci nous permettra ensuite de voir, sur la base dexp eriences
de Monte Carlo, que lestimateur des moindres carr es a un comportement tr` es particulier
dans le cas de non-stationnarit e et conduit ` a ce que lon appelle des spurious r egressions,
r egressions spurieuses ou factices. On terminera ce chapitre par une introduction ` a la
th eorie asymptotique non-standard, celle qui est op eratoire dans le cadre des processus
non-stationnaires.
2 RAPPELS DE TH

EORIE ASYMPTOTIQUE STANDARD 3


2 Rappels de Th eorie Asymptotique Standard
On reprendra dans cette section les notions standard de convergence, de loi des grands
nombre et de th eor` eme central limite qui sont utilis ees dans les questions econom etriques
classiques.
2.1 Convergences
Il existe grosso modo quatre types de convergence pour des suites de variables al eatoires:
la convergence en distribution, la convergence en probabilit e, la convergence presque s ure
et la convergence en moyenne quadratique. Ces quatre types de convergence sont rang ees
l` a par type croissant dimplication. La convergence en moyenne quadratique et la con-
vergence presque s ure impliquent la convergence en probabilit e qui ` a son tour implique la
convergence en loi.
On va consid erer une suite de variables al eatoires X
T
index ees par T et de loi de prob-
abilit e cumulative (ou distribution) associ ee qui est d enie par:
F
T
(x) = Pr(X
T
< x) (1)
D enition 1 : La suite de variables al eatoires X
T
converge en loi vers une variable
al eatoire X de distribution F

si en tout point de continuit e x de F

on a:
lim
T
F
T
(x) = F

(x) (2)
et lon ecrit:
X
T
L
X (3)
Supposons maintenant que la distribution limite se r eduise ` a un point x

, ce qui correspond
` a une fonction en escalier o` u le saut seffectue en x

, on a la notion de convergence en
probabilit e:
D enition 2 : La suite de variables al eatoires X
T
converge en probabilit e vers la con-
stante x

si quel que soit > 0 on a:


lim
T
Pr(|X
T
x

| ) = 0 (4)
On note:
plim X
T
= x

(5)
Cette notion de convergence est bas ee sur la loi faible des grands nombres et en constitue
une d enition alternative. Elle est tr` es int eressante pour ses propri et es calculatoires. En
particulier nous avons le th eor` eme suivant appel e th eor` eme de Slutsky:
Th eor` eme 1 soit X
T
une suite de variables al eatoires avec plim X
T
= x

. Si Y
T
= f(X
T
)
et si f est continue en x

alors:
plim Y
T
= plim (f(X
T
)) = f(plim X
T
) = f(x

) (6)
2 RAPPELS DE TH

EORIE ASYMPTOTIQUE STANDARD 4


Cest ce th eor` eme qui permet de montrer par exemple limplication suivante:
plim (X

T
X
T
/T) = M plim (X

T
X
T
/T)
1
= M
1
La convergence en probabilit e et la convergence en loi se marient bien du fait que
la convergence en probabilit e est plus forte que la convergence en loi
1
. Cest sur cette
association quest bas e le th eor` eme suivant qui est connu sous le nom de th eor` eme de
transformation lin eaire de Cramer:
Th eor` eme 2 : Soient X
T
une suite de variables al eatoires vectorielles et A
T
une suite de
matrices al eatoires de dimensions conformes. Sous les conditions:
X
T
L
X et plim A
T
= A
on a que:
A
T
X
T
L
AX
Ce th eor` eme permet de montrer par exemple que si X
T
est asymptotiquement Normale
de moyenne et de variance , alors Y
T
= A
T
X
T
est asymptotiquement Normale de
moyenne A et de variance AA

. Ce th eor` eme manipule des transformations lin eaires.


Il peut se g en eraliser ` a des transformations g en erales continues.
La convergence en probabilit e nimplique pas la convergence des moments et en partic-
ulier celle des esp erances math ematiques. On peut donc d enir une notion de convergence
plus forte qui est la convergence en moyenne quadratique:
D enition 3 : La suite de variables al eatoires X
T
converge en moyenne quadratique vers
la constante x

si:
lim
T
E(X
T
x

)
2
= 0 (7)
On passe en fait dune convergence dans un espace L
1
` a une convergence dans un espace
L
2
.
La convergence en probabilit e implique que quelque soient et , la probabilit e de
l ev` enement |X
t
| > est inf erieure ` a pour t > T. Donc ` a partir dun certain rang, on
peut minorer la probabilit e de cet ev` enement
2
. L ev` enement |X
t
| est donc r ealis e avec
probabilit e 1 pour t > T. La convergence presque s ur implique alors que tous les
ev` enements |X
t
| sont r ealis es avec probabilit e 1 pour t > T et lon a la d enition:
D enition 4 La suite de variables al eatoires X
T
converge preseque surement vers 0 si la
suite de variables al eatoires
sup
tT
|X
t
|
converge en probabilit e vers 0. On ecrit |X
t
|
p.s.
0.
La convergence prseque sure peut aussi se d enir comme Pr(lim
T
|X
T
| > ) = 0.
1
On trouvera par exemple dans Theil (1971) p. 370 un enonc e compl ementaire de certaines propri et es des
convergences. Voir egalement Cramer (1946), chapitre 20.
2
Pour T , on retrouve la d enition initiale de la convergence en probabilit e.
2 RAPPELS DE TH

EORIE ASYMPTOTIQUE STANDARD 5


2.2 Ordre dune suite ou vitesse de convergence
On a parl e pr ec edemment de divers modes de convergences de suites de variables al eatoires.
On va maintenant introduire la notion de vitesse de convergence de mani` ere ` a pouvoir
comparer la vitesse de convergence de deux suites. Pour ce faire on utilisera la notation des
grand O(.) et petit o(.). Ces notions sont d enies pour des suites de r eels, mais il est facile
de les etendre apr` es aux suites de variables al eatoires.
On peut pr esenter les choses tout dabord de mani` ere intuitive. Si lon consid` ere par
exemple la suite r eelle:
a
T
= 4 +T 3T
2
(8)
quand T tend vers linni, 3T
2
devient le terme dominant de la suite. On dit alors que la
suite est dordre T
2
que lon ecrit O(T
2
) , ce qui se v erie en calculant la limite de a
T
/T
2
que lon doit trouver born ee et non nulle. Dans lexemple du dessus:
lim
T
a
T
/T
2
= lim
T
4/T
2
+ 1/T 3 = 3 (9)
On a imm ediatement les propri et es suivantes; si a
T
= O(T
k
) et b
T
= O(T
h
) alors a
T
b
T
=
O(T
h+k
) et a
T
+ b
T
= O(T
max(h,k)
).
Le concept dordre plus petit que T
k
, not e o(T
k
) est li e au pr ec edent et signie que
a
T
/T
k
converge vers z ero. La suite pr ec edente a
T
est O(T
2
), mais o(T
3
). Elle devient
o(T
2
) si on supprime son terme de degr e z ero. Cette notion, comme la pr ec edente, revient
` a comparer deux suites de r eels, lune d enie par a
T
et lautre par T
k
.
On va maintenant introduire ces notions de mani` ere un peu plus formelle pour les suites
de variables al eatoires. On consid` ere deux suites, une suite de variables al eatoires X
T
et
une suite de r eels a
T
.
D enition 5 : On dira que les suites X
T
et a
T
sont du m eme ordre en probabilit e si quel
que soit > 0 il existe m

= O(1) tel que pour tout T on ait:


Pr
_

X
T
a
T

> m

_

On note X
T
= O
P
(a
T
).
Cette d enition veut dire que le ratio |X
T
/a
T
| est born e, mais pas quil converge vers une
limite nie. On peut introduire la notion plus restrictive d equivalence asymptotique qui
est plus commode ` a manipuler et qui implique la notion pr ec edente.
D enition 6 : On dira que les suites X
T
et a
T
sont equivalentes asymptotiquement si lon
a:
plim
_

X
T
a
T

_
= m

D enition 7 : La suite X
T
est dun ordre plus petit que la suite a
T
si:
plim
_

X
T
a
T

_
= 0
On note X
T
= o
P
(a
T
).
2 RAPPELS DE TH

EORIE ASYMPTOTIQUE STANDARD 6


Les deux d enitions 4 et 6 veulent simplement dire que dans un cas le rapport de deux
suites est, en probabilit e, born e par un nombre diff erent de z ero dans le cas de O
P
(.) et
converge vers z ero dans le cas de o
P
(.).
La d enition 4 nest pas toujours facile ` a appliquer. Par contre la d enition 5, qui est
plus forte que la d enition 4, est assez facile ` a appliquer. On peut egalement donner le
th eor` eme suivant qui donne une condition sufsante pour que deux suites soient du m eme
ordre en probabilit e:
Th eor` eme 3 : Une condition sufsante pour que X
T
= O
P
(a
T
) est que E(X
2
T
) = O(a
2
T
),
le contraire n etant pas vrai.
Ce nest malheureusement quune condition sufsante. Si X
T
= O
P
(a
T
) on na pas
n ecessairement que E(X
2
T
) = O(a
2
T
). Remarquez aussi que comme E(X
2
T
) est un nom-
bre, on emploie O(.) et non O
P
(.).
Exemple 1: Prenons le cas du jeu de pile ou face o` u lon consid` ere une variable
al eatoire X
T
qui vaut un pour pile et z ero pour face. Apr` es T lanc es, on peut calculer
la proportion de piles comme:

X
T
=
1
T
T

t=1
X
t
Alors lesp erance de cette variable al eatoire est egale ` a un demi si le jeu nest pas
fauss e, et sa variance ` a 1/4T en utilisant les propri et es du processus de Bernouilli
(esp erance egale ` a p et variance egale ` a p(1 p)/T). On va sint eresser au com-
portement limite de deux variables al eatoires,

X
T
et sa valeur centr ee

Y
T
d enie
par

Y
T
=

X
T
1/2. On veut qualier lordre de grandeur de ces deux variables
al eatoires. Comme E(

X
T
) = 1/2 alors par la loi faible des grands nombres:
plim

X
T
= 1/2
ce qui fait que par d enition

X
T
= O
P
(1). On en d eduit que:
plim

Y
T
= plim

X
T
1/2 = 0
do` u par d enition

Y
T
= o
p
(1) , ce qui fait que si

X
T
est de m eme ordre que 1 ,

Y
T
est dordre plus petit que 1. Comme

Y
T
est une variable centr ee, sa variance et
son moment dordre deux sont les m emes et egaux ` a 1/4T. On en conclut donc au
moyen du th eor` eme 2 que

Y
T
est O
P
(1/

T).
Les variables al eatoires

X
T
et

Y
T
sont typiques de beaucoup de variables al eatoires en
econom etrie. La premi` ere qui est la moyenne de T grandeurs qui ont en commun une
esp erance non nulle est O
P
(1). La seconde qui est la moyenne de T grandeurs de moyennes
nulles est O
P
(1/

T). Cet ordre de convergence est celui des estimateurs usuels des
param` etres pour les processus stationnaires.
2 RAPPELS DE TH

EORIE ASYMPTOTIQUE STANDARD 7


2.3 Lois des grands nombres
Lin egalit e de Chebychev permet de monter beaucoup de r esultats sur les distributions lim-
ites. Elle stipule que si une variable al eatoire X de moyenne poss` ede une variance nie

2
alors pour tout nombre positif k on a lin egalit e
Pr(|X | > k) 1/k
2
.
Ce qui fait par exemple que des ecarts de plus de 2 ecart-types ont une probabilit e maximun
de 0.25 (0.05 en fait dans la loi Normale, ce qui montre le caract` ere tr` es conservatif de cette
in egalit e). Cette in egalit e permet par exemple de montrer que la convergence en moyenne
quadratique implique la convergence en probabilit e. Elle permet egalement de montrer la
loi faible des grands nombres. Consid erons une suite de variables al eatoires ind ependantes
X
t
de moyenne nie. On peut enoncer deux variantes de la loi faible des grands nom-
bres. Si les X
t
sont de m eme loi (identiquement distribu es), alors la suite des moyennes
empiriques

X
t
converge en probabilit e vers . Si les X
t
ne sont pas identiquement dis-
tribu es, cest ` a dire sils sont de variance diff erentes
2
t
, il est n ecessaire pour obtenir le
m eme r esultat dimposer que
lim
T
1
T
2
T

t=1

2
t
= 0 (10)
La loi forte de grands nombrs remplace la convergence en probabilit e par la convergence
presque s ure.
La loi faible des grands nombre permet dintroduire la d enition de la consistence dun
estimateur. Consid erons une suite de variables al eatoires X
T
dont la distribution est index ee
par le param` etre . Une statistique

T
est utilis ee comme estimateur du param` etre . Cet
estimateur sera dit consistant si lon a la propri et e:
plim

T
= (11)
Une condition sufsante pour quun estimateur soit consistant est quil soit sans biais,
E(

T
) = , et que sa variance tende vers z ero quand T .
2.4 Le th eor` eme central limite (Lindeberg-L evy)
Le dernier th eor` eme dont on va avoir besoin est une variante du th eor` eme central limite qui
va nous permettre de d emontrer la normalit e asymptotique de certains estimateurs. Ce que
dit le th eor` eme central limite, cest que sous certaines conditions g en erales (ind ependance,
distribution identique), la moyenne d echantillonnage dune suite de variables al eatoires a
une distribution limite qui est normale de moyenne nulle et de variance unit e, quand on
normalise de mani` ere appropri ee cette suite.
Th eor` eme 4 : Soit une suite de variables al eatoires X
T
ind ependantes et identiquement
distribu ees de moyenne et de variance
2
nie et non nulle. Alors:
T

t=1
X
t

T
=

X
T

L
N(0, 1)
3 PROPRI

ET

ES ASYMPTOTIQUES DE LESTIMATEURDES MOINDRES CARRES8


On sait d ej` a que la moyenne d echantillonnage dune variable al eatoire normale est elle
m eme normale de moyenne et de variance
2
/T. Ce que dit le th eor` eme central limite,
cest que cette propri et e est vraie asymptotiquement quelle que soit la loi de la variable
al eatoire de base. Notons que la distribution limite de

X
T
est d eg en er ee avec toute sa
masse concentr ee en . Cest pourquoi on consid` ere la distribution limite de

T(

X
T
)
qui est N(0,
2
).
3 Propri et es Asymptotiques de lEstimateur des Moindres
Carr es
Lestimateur des moindres carr es a des propri et es asymptotiques standard (consistance,
normalit e asymptotique) dans le mod` ele de r egression statique. Si le mod` ele de r egression
devient dynamique par ajout de variables endog` enes retard ees, lestimateur des moindres
carr es va voir ses propri et es asymptotiques modi ees.
3.1 Mod` ele de r egression standard
Le mod` ele de r egression standard r epond ` a lhypoth` ese suivante de d enition:
Hypoth` ese 1 : Les observations de la variable endog` ene sont les T r ealisations dune
variable al eatoire qui peut s ecrire y = X + o` u X est une matrice T k de r egresseurs
exog` enes et xes. Les termes derreurs
t
sont identiquement distribu es et de mani` ere
ind ependante avec E(|X) = 0 et Var(|X) =
2
I.
Pour d eriver les propri et es asymptotiques de lestimateur des moindres carr es, on a besoin
dune hypoth` ese suppl ementaire sur les exog` enes:
Hypoth` ese 2 : Les exog` enes r epondent ` a la propri et e de r egularit e suivante:
lim
T
1
T
X

X = Q
o` u Q est une matrice nie positive d enie sym etrique (PDS).
On a alors le th eor` eme suivant donn e par exemple dans Theil (1971), p. 362):
Th eor` eme 5 : Sous les hypoth` eses 1 et 2, lestimateur des moindres carr es

a les deux
propri et es suivantes:
-

= (X

X)
1
X

y est consistant
-

T(

) a une distribution limite normale de moyenne nulle et de variance co-


variance
2
Q
1
.
3 PROPRI

ET

ES ASYMPTOTIQUES DE LESTIMATEURDES MOINDRES CARRES9


Preuve: La preuve de la consistance est bas ee sur deux hypoth` eses:
plim (X

X)
1
X

y = plim (X

X/T)
1
(plim X

X/T + plim X

/T)
La convergence de X

X/T permet de simplier cette egalit e en:


+ Q
1
plim X

/T
Lind ependance entre X et les erreurs ach` eve la preuve du premier r esultat.
La preuve de la Normalit e asymptotique est un peu plus longue. On peut montrer que
_
1/T X

a une distribution limite Normale de moyenne nulle et de variance


2
Q au
moyen des m emes techniques que celles qui sont employ ees pour d emontrer le th eor` eme de
Lindberg-L evy et qui font appel aux fonctions caract eristiques. Dautre part la d enition
des moindres carr es implique l egalit e X

X (

) = X

, egalit e que lon peut normaliser


en:
X

X
T

T(

) =
X

T
Par le th eor` eme de Slutsky, (X

X/T)
1
converge vers Q
1
. Alors par le th eor` eme de trans-
formation de Cramer

T(

) converge en distribution vers une Normale de moyenne


nulle et de variance
2
Q
1
QQ
1
=
2
Q
1
.
2
Remarque:
Nous pouvons dores et d ej` a constater quune hypoth` ese implicite de stationnarit e est
faite dans lhypoth` ese 2. Il suft que X comporte un trend pour que X

X/T ne con-
verge plus vers une matrice nie, et donc que lon sorte des conditions dapplication
du th eor` eme. On semble donc perdre ` a la fois le r esultat usuel de consistance et celui
de Normalit e asymptotique.
3.2 Mod` ele de r egression dynamique
L etude des propri et es des moindres carr es dans le cas dynamique sont plus difciles ` a
cause de la pr esence des endog` enes retard ees, ce qui implique que la matrice des r egresseurs
devient stochastique. On peut noter le mod` ele de r egression dynamique sous forme ma-
tricielle:
y =

Y +

X +
y = X +
o` u

Y repr esente une matrice T g de variables endog` enes retard ees et

X une matrice T
de r egresseurs xes. On a X = [

Y ,

X] de dimension T k avec k = g + . On est amen e
` a faire les deux hypoth` eses suivantes:
3 PROPRI

ET

ES ASYMPTOTIQUES DE LESTIMATEURDES MOINDRES CARRES10


Hypoth` ese 3 : L equation caract eristique:
1
g

i=1

i
z
i
= 0
a ses racines en dehors du cercle unit e.
Hypoth` ese 4 : La matrice

X


X/T converge vers une matrice

Q PDS quand T tend vers
linni.
On peut alors donner le th eor` eme suivant (voir Theil 1971, p. 412) qui regroupe un certain
nombre de r esultats:
Th eor` eme 6 : Consid erons le mod` ele de r egression dynamique not e y = X + et les
hypoth` eses 3 et 4, avec de plus des conditions initiales xes et des erreurs IID.
- La matrice X

X/T converge en probabilit e vers une matrice Q PDS nie.


-
_
1/T X

a une distribution limite Normale de moyenne nulle et de matrice de vari-


ance covariance
2
Q.
-

T(

) a une distribution limite Normale de moyenne nulle et de matrice de


variance covariance
2
Q
1
.
On retrouve en fait les m emes r esultats que dans le cas de la r egression usuelle. On a
du simplement rajouter une hypoth` ese sur la stationnarit e du mod` ele. Ces r esultats sont
pourtant fragiles. Ils disparaissent d` es quil y a pr esence dautocorr elation dans les r esidus.
Ils sont egalement non valides quand les s eries ne sont pas stationnaires.
Preuve: Nous allons donner la preuve de ce th eor` eme pour un cas particulier, la preuve
compl` ete etant plus complexe. Consid erons le mod` ele auto-r egressif simple ` a lordre un
que lon note:
y
t
= y
t1
+
t
|| < 1
t
IID(0,
2
)
Lestimateur des moindres carr es s ecrit:
=

y
t
y
t1

y
2
t1
En remplacant y
t
par sa valeur donn ee par le mod` ele, on obtient:
= +
1
T

t
y
t1
1
T

y
2
t1
qui permet de montrer la consistance des moindres carr es. En effet on peut montrer que:
plim
1
T

y
2
t1
=

2
1
2
4 PROCESSUS NON-STATIONNAIRES 11
qui converge si || < 1. Ensuite:
plim
1
T

t
y
t1
= 0
si les erreurs sont IID. On en d eduit que plim = . Consid erons maintenant la transfor-
mation:

T( ) =
1

t
y
t1
1
T

y
2
t1
On a d ej` a montr e la convergence du d enominateur de cette expression vers une quantit e
nie. On peut montrer (cest assez difcile) que le num erateur de cette expression converge
en loi vers une normale de moyenne nulle et de variance
4
/(1
2
). Par le th eor` eme de
transformation de Cramer, il vient que:

T( )
L
N(0, 1
2
)
2
4 Processus Non-Stationnaires
Dans un mod` ele ` a correction derreurs, les variables apparaissent ` a la fois en niveau (terme
correcteur derreurs) et en diff erences. On comprend ais ement que si une variable est sta-
tionnaire une fois diff erenci ee, cest quelle est en g en eral non stationnaire quand on la
prend en niveau
3
. Quelle est donc la validit e de lestimateur des moindres carr es dans les
mod` eles ` a correcteurs derreurs? Est ce que lon ne tombe pas sur ce que lon va appeler
dans le paragraphe suivant des r egressions factices? Nous pouvons anticiper sur la suite de
louvrage en disant que sous certaines conditions, lestimateur des moindres carr es est con-
sistant (m eme super consistant). La condition etant que toutes les variables soient int egr ees
dordre 1 et que les variables en niveau soient coint egr ees. Lobjet de la suite de cet ou-
vrage sera justement de d enir ces termes.
Dans ce paragraphe nous nous attacherons ` a d enir certaines classes de non-stationnarit e.
En toute g en eralit e, une s erie est non-stationnaire d` es que ses moments sont index es par le
temps. Mais cette d enition est trop large pour etre op eratoire. Il est dusage de distinguer
deux classes de s eries non-stationnaires en fonction de la mani` ere dont on peut les station-
nariser : les s eries qui comportent une tendance d eterministe et les s eries qui comportent
une tendance stochastique. Ces derni` eres sont dites int egr ees.
3
Un contre exemple classique est celui dune s erie sur-diff erenci ee o` u niveau et diff erence sont tous deux
stationnaires.
4 PROCESSUS NON-STATIONNAIRES 12
4.1 Tendance d eterministe
Une variable suit un processus stochastique qui comporte une tendance d eterministe si on
peut l ecrire sous la forme:
_

_
y
t
= + t + u
t
A(L)u
t
= B(L)
t
(12)
La partie d eterministe est repr esent ee par + t. Elle est parfaitement pr edictible. Il est
bien s ur possible de consid erer des formes polynomiales plus complexes. Les u
t
repr esentent
la partie stochastique de la s erie. Ils suivent un processus stochastique qui est suppos e sta-
tionnaire, cest ` a dire que toutes les racines de A(z) = 0 sont en dehors du cercle unit e.
Les moments de y
t
sont:
E(y
t
) = + t
Var(y
t
) =
2
u
(13)
Donc lesp erance de y
t
d epend de t mais sa variance est ind ependante du temps. On a utilis e

2
u
pour d esigner la variance de u
t
4
. On peut facilement stationnariser y
t
par r egression sur
un trend et une constante. La s erie que lon cherche sobtient en prenant:
y
t
= y
t

t (14)
o` u

sobtient par une r egression de y
t
sur une constante et un trend. Cest pour cela que ce
type de s erie est appel ee aussi trend stationnaire (TS).
4.2 Tendance stochastique
Une variable suit un processus stochastique qui comporte un trend stochastique si on peut
l ecrire sous la forme:
_

_
y
t
= +y
t1
+ u
t
A(L)u
t
= B(L)
t
(15)
Ce type de mod` ele se nomme aussi marche al eatoire (avec d erive) quand A(L) et B(L) dont
de degr e z ero. On peut ecrire ce mod` ele en fonction des conditions initiales y
0
. Comme un
processus auto-r egressif du type y
t
= + y
t1
+ u
t
peut se d ecomposer par substitution
en:
y
t
=
t1

i=0

i
L
i
( + u
t
) +
t
L
t

i=0

i
L
i
( +u
t
) (16)
=
t1

i=0

i
L
i
( + u
t
) +
t
y
0
4
Il est plus difcile dexprimer la variance de y
t
en fonction de la variance de
t
car elle d epend de mani` ere
non triviale des coefcients de A(L) et B(L). Voir le chapitre 1
4 PROCESSUS NON-STATIONNAIRES 13
Pour = 1 on a:
y
t
= t +
t1

i=0
u
ti
+ y
0
(17)
On voit donc ` a partir de cette ecriture que le fait davoir utilis e le m eme symbole comme
param` etre du trend dans le mod` ele trend stationnaire et comme terme constant dans la
marche al eatoire nest pas du tout fortuit. Dans une marche al eatoire le terme constant
sappelle une d erive et cest lui qui fait crotre la s erie comme cette d ecomposition le montre
bien. Les moments conditionnels peuvent se calculer ` a partir de cette d ecomposition, do` u:
E(y
t
|y
0
) = y
0
+ t
Var(y
t
|y
0
) = t
2
u
(18)
On remarque que comme dans le mod` ele pr ec edent, lesp erance est une fonction du temps,
mais cette fois-ci cest aussi le cas de la variance. On est donc face ` a un processus dont
la variance explose. On remarque aussi que les chocs sont cumulatifs et ne satt enuent pas
avec le temps.
Quand on veut stationnariser une marche al eatoire, il suft de la diff erencier:
y
t
= + u
t
(19)
ce qui correspond ` a une simple factorisation. La s erie y
t
est maintenant stationnaire.
Cette propri et e fait quune telle s erie est aussi appel ee stationnaire en diff erence (DS).
Un autre type dappellation a aussi cours. Une s erie que lon peut stationnariser par
diff erence sera dite I(1) ou int egr ee dordre un selon la terminologie de Engle and Granger
(1987). La s erie stationnaris ee par diff erence est I(0) ou int egr ee dordre z ero. Plus
formellement, on a la d enition suivante:
D enition 8 : Une s erie x
t
qui a une repr esentation ARMA inversible apr` es avoir subi d
diff erenciations sera dite int egr ee dordre d et not ee x
t
I(d).
En dautres termes un processus int egr e dordre d est un processus stochastique qui a besoin
d etre diff erenci e d fois pour admettre une repr esentation de Wold. Remarquons que la
condition dinversibilit e de la repr esentation ARMA est essentielle pour eviter une racine
unitaire dans la partie MA de la s erie qui traduirait une surdiff erentiation. Remarquons
enn que Engle et Granger dans leur papier donnent une d enition de lint egration dans
le cas o` u x
t
ne comporte pas de terme d eterministe. On a omis cet aspect qui nest pas
essentiel ici.
Pour visualiser les choses, on va donner le graphique en gure 1 de deux s eries de 100
observations chacune qui repr esentent lun un PGD avec tendance d eterministe y
t
= t+
t
et lautre, un PGD avec tendance stochastique z
t
= z
t1
+ +
t
avec = 0.05 et
t

N(0, 0.25
2
). Les m emes ont et e utilis es dans les deux s eries. On remarque que t
t
croit
de mani` ere r eguli` ere autour de sa tendance stochastique. Le processus DS z
t
croit lui aussi
avec le temps car > 0, mais sa croissance est beaucoup plus erratique.
4 PROCESSUS NON-STATIONNAIRES 14
-1
0
1
2
3
4
5
6
0 10 20 30 40 50 60 70 80 90 100
t
TS
DS
Figure 1: Comparaison de s eries TS et DS
4.3 Mauvaise stationnarisation
Ces deux types de mod` eles pr esentent des caract eristiques assez oppos ees. Pour retirer la
tendance, les m ethodes ne sont pas les m emes dans les deux cas. Que se passe-t-il si lon
emploie la mauvaise m ethode? Le sujet est trait e notamment dans Chan, Hayya, and Ord
(1977) et Nelson and Kang (1981).
Consid erons en premier lieu le cas dune s erie TS (trend stationnaire) que lon va
diff erencier:
y
t
= + t +
t
(20)
Elle devient:
y
t
= +
t

t1
(21)
ce qui introduit une racine unitaire dans le processus des erreurs. La moyenne du processus
est egale ` a mais il y a une autocorr elation articielle ` a lordre un des erreurs qui est egale
` a -0.5. En effet lautocorr elation dun processus MA(1) est egale ` a /(1 +
2
) comme
on la vu dans le chapitre 1. Dans le vocabulaire des s eries temporelles, on dit que lon a
surdiff erenci e la s erie.
Consid erons maintenant le cas dune s erie DS (stationnaire en diff erence)
y
t
= y
t1
+ +
t
(22)
` a laquelle on va retirer un trend. On retirera ce trend en proc edant par r egression au moyen
du mod` ele mal sp eci e suivant:
y
t
= + t + v
t
(23)
4 PROCESSUS NON-STATIONNAIRES 15
au lieu de consid erer le vrai mod` ele:
y
t
= y
0
+ t +
t1

i=0
u
ti
(24)
qui lui a, comme on le voit, une structure tr` es particuli` ere du terme derreurs. Le r esidu
de la r egression mal sp eci ee ne sera pas un bruit blanc, ce qui fait que la s erie y
t

t va
comporter un cyclique articiel. Ce probl` eme a et e etudi e en particulier par Nelson and
Kang (1981).
Il est int eressant de montrer sur un graphique les cons equences dune mauvaise sta-
tionnarisation. On va reprendre les deux s eries de la Figure 1 et diff erencier la s erie TS
y
t
tandis que lon va retirer un trend ` a la s erie DS y
t
. Si la stationnarisation avait et e cor-
recte, la gure 2 naurait pr esent e que le graphique du bruit blanc commun
t
qui a servit ` a
g en erer les observations.
-1
-0.5
0
0.5
1
1.5
2
2.5
0 10 20 30 40 50 60 70 80 90 100
t
y
t
t
y
t
Figure 2: Mauvaise stationnarisation
Ces r esultats sont int eressants ` a plus dun titre. Il est de pratique courante en macro-
economie de stationnariser une s erie pour enlever sa composante tendancielle et d etudier
ensuite la nature du cycle. Cest ce que lon retrouve par exemple dans la distinction com-
posante anticip ee, composante non anticip ee. Il faut donc employer pour cela la m ethode
appropri ee sinon l etude va d egager un comportement qui aura et e introduit de mani` ere
articielle dans la s erie. De m eme la m ethodologie de Box and Jenkins (1976) fait comme
si toutes les s eries non-stationnaires etaient DS. En diff erentiant de mani` ere indue une s erie
TS, on va fausser la mod elisation de la partie MA. Il faut donc pouvoir distinguer entre les
deux types de non-stationnarit e. Cest ce qui se fait au moyen des tests de racine unitaire
qui seront abord es dans le chapitre 4.
5 R

EGRESSIONS FACTICES 16
5 R egressions Factices
Les r egressions factices ou spurious regressions dapr` es la terminologie de Granger and
Newbold (1974) constituent un exemple tr` es int eressant de ce qui peut se passer quand les
r egresseurs sont non-stationnaires et suivent une marche al eatoire. Dans ce cas lhypoth` ese
plim X

X/T = Q nest plus v eri ee.


5.1 R egression et non-stationnarit e
On peut examiner les deux cas de non-stationnarit e. Supposons tout dabord que:
y
t
=
0
+
1
t + u
t
x
t
=
0
+
1
t +v
t
(25)
avec u
t
et v
t
ind ependants. Faisons la r egression:
y
t
=
0
+
1
x
t
+
t
(26)
Les deux variables nont en commun que le trend et leurs parties stochastiques sont ind ependantes.
Il est facile de montrer que le R
2
de cette r egression tend vers 1 quand le nombre dobservations
tend vers linni. Calculons le R
2
pour la r egression sans constante. Son comportement
limite sera le m eme que celui calcul e avec constante, car x
t
est O(T). On a:
R
2
=
(

y
t
x
t
)
2

y
2
t

x
2
t
=
[

(
0
+
1
t)(
0
+
1
t)]
2

(
0
+
1
t)
2

(
0
+
1
t)
2
(27)
qui a le m eme comportement limite que:
[
1

1
t
2
]
2

2
1
t
2

2
1
t
2
= 1 (28)
Supposons maintenant que y
t
et x
t
soient deux marches al eatoires ind ependantes sans
d erive et d enies par:
y
t
= y
t1
+ u
t
x
t
= x
t1
+ v
t
(29)
o` u u et v sont ind ependants entre eux. Ces s eries sont non-stationnaires, mais pas forc ement
croissantes comme le serait une s erie trend stationnaire. L etude de la m eme r egression que
pr ec edemment (y
t
=
0
+
1
x
t
+
t
) est plus complexe. Elle a et e faite par Granger and
Newbold (1974) en utilisant une m ethode de Monte Carlo et par Phillips (1986) de mani` ere
analytique. Si la th eorie asymtotique classique sappliquait, la statistique de Student as-
soci ee ` a
1
ne devrait rejeter lhypoth` ese nulle
1
= 0 que dans 5% des cas si le seuil
5 R

EGRESSIONS FACTICES 17
du test est pris ` a cette valeur. Ce que trouvent ces auteurs, cest que lhypoth` ese nulle est
rejet ee beaucoup plus souvent et que ce taux de rejet croit avec la taille de l echantillon.
Phillips (1986) a montr e dautre part que le test rejette asymptotiquement lhypoth` ese nulle
avec probabilit e 1.
Une explication simple peut etre donn ee de la facon suivante. Si y
t
est I(1), cela sig-
nie que sous H
0
u
t
sera aussi I(1). Les tests de Student ou de Fisher sur la nullit e des
coefcients reposent sur lhypoth` ese que les r esidus sont bruits blancs, hypoth` ese qui est
donc viol ee ici.
On peut egalement remarquer que sous H
0
la r egression test ee nest pas contenue dans
le vrai mod` ele. Lhypoth` ese nulle dit que y
t
est la somme dun terme constant et dun
processus derreurs stationnaires, alors quen fait y
t
est une marche al eatoire dans le vrai
mod` ele. Do` u le fait que dans cette r egression, H
0
soit rejet ee.
5.2 Exp eriences de Monte Carlo
Nous allons reprendre le probl` eme pr ec edent au moyen dune exp erience de Monte Carlo
tir ee de Davidson and MacKinnon (1993). On consid` ere ` a nouveau la m eme r egression de
y
t
sur x
t
pour 10.000 echantillons o` u y
t
et x
t
sont deux marches al eatoires sans d erive. On
va comptabiliser la proportion des rejets de H
0
dans cette r egression quand on prend un
seuil de 5% et regarder ce qui se passe quand on ajoute ` a cette r egression un retard de la
variable endog` ene. La colonne 2 de la table indique la proportions de rejet de H
0
:
1
= 0
dans la r egression y
t
=
0
+
1
x
t
.
Table 1: Fr equence de rejet de H
0
dans une r egression factice
T Rejet de H
0
:
1
= 0 Rejet de H
0
:
2
= 1
25 0.53 0.15
50 0.66 0.15
100 0.76 0.16
500 0.89 0.17
1000 0.93 0.17
y et x sont I(1) ind ependants. Colonne 2: Test de
1
= 0
dans y
t
=
0
+
1
x
t
+ u
t
. Colonne 3 : Test de
2
= 1
dans y
t
=
0
+
1
x
t
+
3
y
t1
+u
t
.
On constate bien en premier lieu que la fr equence de rejet de H
0
croit ` a tord avec la
taille de l echantillon. Ce serait encore plus visible si les marches al eatoires contenaient
une d erive. La derni` ere colonne du tableau correspond ` a la r egression de test:
y
t
=
0
+
1
x
t
+
2
y
t1
+
t
(30)
Pour
2
= 1 et
0
=
1
= 0 on retombe bien sur le processus qui a servi ` a g en erer y
t
.
Pourtant le test rejette lhypoth` ese nulle
2
= 1 environ trois fois plus souvent que ce quil
devrait, et ceci ne sam eliore pas avec la taille de l echantillon. La valeur critique du test
6 INTRODUCTION A LA THEORIE ASYMPTOTIQUE NON-STANDARD 18
est donc fausse dans ce cas de non-stationnarit e des s eries. Le test en t nest plus N(0, 1)
asymptotiquement mais suit une autre distribution qui est une fonctionnelle de processus
de Wiener. On verra dans les chapitres suivants dautres cas o` u le test de Student suit une
th eorie asymptotique non-standard en pr esence de non-stationnarit e des s eries. Les valeurs
critiques des tests sont alors diff erentes et il faudra utiliser des tables adapt ees.
5.3 D etection des r egressions factices
Comment peut-on d etecter une r egression factice? Intuitivement les deux s eries sont int egr ees
dordre un et leur somme est aussi int egr ee dordre un. On doit donc d etecter une tr` es forte
autocorr elation des r esidus au moyen du test de Durbin et Watson. Granger et Newbold
donnent la r` egle intuitive quil y a probl` eme d` es lors que dans une r egression statique le
R
2
est sup erieur ` a la valeur du DW. Le probl` eme est en fait plus complexe. Il sagit de
voir sil y a une racine unitaire dans les r esidus de la r egression, ce qui est un probl` eme
qui nous occupera dans les chapitres suivants. Il sagira de tester la non-coint egration des
s eries contenues dans la r egression.
6 Introduction ` a la Th eorie Asymptotique Non-Standard
La th eorie asymptotique standard est bas ee sur l etude de moyennes empiriques de vari-
ables al eatoires ind ependantes et identiquement distribu ees. On a vu que le th eor` eme cen-
tral limite permettait de trouver la distribution limite de telles moyennes pour peu quon
les normalise correctement. On a ensuite appliqu e ce th eor` eme au cas dun processus
autor egressif stationnaire. Ce r esultat nest plus valide d` es lors lon sort du cadre station-
naire. On a vu par exemple quune marche al eatoire avait une moyenne qui explosait avec
le temps. On ne peut donc plus calculer de limites comme on le faisait dans le cas sta-
tionnaire. Il faut alors d evelopper de nouvelles transformations/normalisations pour ces
variables al eatoires non-stationnaires et de nouveaux outils pour etudier la convergence en
loi et la convergence en probabilit e.
6.1 Processus de Wiener
Le processus de Wiener joue un r ole tr` es important dans l etude des convergences destimateurs
quand les observations suivent un processus stochastique non-stationnaire. Historiquement,
cest le premier processus stochastique ` a avoir et e etudi e. Il porte aussi lappellation de
mouvement Brownien ` a cause du botaniste anglais Robert Brown qui en 1827 observa que
des petites particules de pollen plong ees dans un liquide suivaient un mouvement irr egulier
et permanent. Einstein puis Wiener d evelopp` erent la th eorie math ematique de ce proces-
sus. Il trouve des applications en economie, en nance et en m ecanique quantique entre
autres.
Consid erons une particule qui est soumise ` a une s erie de chocs ind ependants
1
,
2
,
. . . selon un processus de Bernouilli o` u la variable de Bernouilli
i
prend les valeurs -1 ou
1 avec Pr(
i
= 1) = 0.5. La taille des chocs est egale ` a h et ils interviennent ` a la n
6 INTRODUCTION A LA THEORIE ASYMPTOTIQUE NON-STANDARD 19
dintervalles de temps constants et egaux ` a > 0. La localisation S
n
dune particule apr` es
n chocs est egale ` a:
S
n
= h
n

j=1

j
(31)
Raisonnons maintenant non plus en nombre de chocs, mais selon le temps. On sait que
apr` es n observations il sest ecoul e T = n. On va d eterminer la localisation S
t
de la
particule au temps t sachant quelle aura subi [t/] chocs, [.] d esignant la partie enti` ere:
S
t
= h
[t/]

j=1

j
(32)
La gure 3 permet de visualiser cette trajectoire pour h = = 1 et T = 100. Le processus
-8
-6
-4
-2
0
2
4
6
0 10 20 30 40 50 60 70 80 90 100
S
t
t
Figure 3: Trajectoire S
t
S
t
a des incr ements ind ependants ` a cause de lind ependance des
i
. Lesp erance de S
t
est
nulle car E(
i
) = 0. Comme Var(
i
= 1), la variance de S
t
, est donn ee par:
Var(S
t
) = h
2
_
t

= h
2
t

(33)
Il est int eressant de d eterminer la trajectoire limite de la particule, cest ` a dire voir ce qui
se passe quand on imprime des chocs h tr` es petits, mais tr` es souvent, cest ` a dire pour des
tr` es petits intervalles de temps . On cherche donc la limite du processus en temps continu.
On voudrait, tout en gardant une variance xe, faire tendre h et vers z ero. On garde la
variance xe en posant:
h
2
=
2
(34)
ce qui implique Var(S
t
) =
2
t en remplacant h par sa valeur dans (33). Pour faire tendre h
et vers z ero, on pose:

n
= 1/n (35)
6 INTRODUCTION A LA THEORIE ASYMPTOTIQUE NON-STANDARD 20
ce qui implique h
n
= /

n. En remplacant h et par leur nouvelle valeur dans (32), on


obtient:
S
n
t
=

n
[tn]

j=1

j
(36)
Que se passe t-il maintenant quand on laisse t xe et que lon fait tendre n vers linni?
Par application du th eor` eme central limite on obtient les deux r esultats suivants:
- pour t xe, la suite {S
n
t
}

n=1
converge en distribution vers une variable al eatoire
Gaussienne W(t) N(0,
2
t).
- pour t
i
, t
j
xes, t
j
< t
i
, la suite des incr ements d enie par {S
n
t
i
S
n
t
j
}

n=1
converge
en distribution vers une variable al eatoire Gaussienne (W(t
i
) W(t
j
)) avec:
(W(t
i
) W(t
j
)) N(0,
2
(t
i
t
j
)) (37)
De plus les incr ements du processus sont ind ependants entre eux. Si on consid` ere main-
tenant tout le processus,
S
n
= {S
n
t
; 0 t < } (38)
il converge pour n vers un processus dit de Wiener dont on peut donner la d enition
suivante:
D enition 9 : Un processus de Wiener ou mouvement Brownien est un processus stochas-
tique en temps continu que lon note W(t) et qui est d eni par trois propri et es (et non pas
par une equation param etrique):
- le processus d emarre en t = 0 ` a la valeur 0 , ce qui se traduit par Pr(W(0) = 0) = 1
- les incr ements du processus sont stationnaires et ind ependants. Pour 0 t
1
t
2

t
n
, les incr ements W(t
i
)W(t
i1
) sont des variables al eatoires ind ependantes
telles que:
E(W(t
i
) W(t
i1
)) = 0
Var(W(t
i
) W(t
i1
)) =
2
(t
i
t
i1
)
- les incr ements W(t
i
) W(t
i1
) ont une distribution normale de moyenne nulle et
de variance
2
(t
i
t
i1
):
Pr[W(t
i
) W(t
i1
) H] =
1
_
2
2
(t
i
t
i1
)
_
H
exp
x
2
2
2
(t
i
t
i1
)
dx
Si
2
= 1, le processus est dit standard.
6 INTRODUCTION A LA THEORIE ASYMPTOTIQUE NON-STANDARD 21
Le processus de Wiener est en fait un simple processus Gaussien, mais d eni non pas sur
IR
n
mais sur IR

. On ne peut donc ecrire sa distribution compl` ete. Mais il est par contre
tr` es possible d ecrire sa distribution pour un sous ensemble de IR

, pour une tranche.


Cest ce que lon a fait en disant que ses incr ements etaient normaux. Comme un processus
Gaussien est parfaitement d eni par ses deux premiers moments, on peut aussi utiliser
comme d enition de ce processus la caract erisation de ses moments. Cest ce que font par
exemple Gourieroux and Monfort (1990), chap. 11):
D enition 10 : On appelle processus de Wiener standard sur [0, T] tout processus W(t),
Gaussien de moyenne nulle et tel que:
Cov(W(t
1
), W(t
2
)) = min(t
1
, t
2
) t
1
, t
2
[0, T]
Ce qui est en fait une propri et e du processus de Wiener si on utilise la d enition 9,
devient d enition et la d enition 9 devient propri et e.
Remarques:
- On a d eni ce processus en consid erant l echelle du temps comprise entre 0 et +.
Comme le processus est d eni en temps continu, il est souvent plus commode de se
ramener ` a une echelle du temps d enie sur lintervalle [0, 1]. Avec ce type d echelle,
il est plus evident que le processus est d eni en temps continu.
- Il est strictement equivalent de consid erer le processus sur tout [0, T] ou sur des sous
intervalles de [0, T]. Quel que soit le point do` u lon parte, on a la m eme chance
de monter ou de descendre. Do` u lappellation que lon trouve parfois de processus
auto-similaire.
- On peut g en erer dautres processus stochastiques en temps continu ` a partir dun pro-
cessus de Wiener. Si le processus W(t) est standard, il est facile dobtenir:
Z(t) = W(t)
pour retrouver un processus de Wiener dont les incr ements seront de variance
2
. De
m eme en prenant le carr e
Z(t) = [W(t)]
2
pour t x e sera distribu e selon une
2
(1) multipli ee par t.
- Le processus de Wiener est ` a la fois un processus markovien et une martingale:
E[W(t
i
)|W(t
i1
), , W(0)] = E[W(t
i
)|W(t
i1
)]
E[W(t
i
)|W(t
i1
), . . . , W(0)] = W(t
i1
)
Voir Billingsley (1968) pour une preuve de ce r esultat.
6 INTRODUCTION A LA THEORIE ASYMPTOTIQUE NON-STANDARD 22
6.2 Int egrale stochastique
La mani` ere dont on a construit le processus assure la continuit e de sa trajectoire. Pourtant il
nest pas partout diff erentiable sur [0, 1]. Partitionnons cet intervalle en n intervalles egaux
et etudions la variation de la trajectoire de W(r) pour n x e sur lensemble des partitions
de cet intervalle. On peut d enir par exemple la variation en valeur absolue que lon notera
V
n
1
et la variation quadratique que lon notera V
n
2
:
V
n
1
=
n1

i=0

W(
i + 1
n
) W(
i
n
)

(39)
V
n
2
=
n1

i=0
_
W(
i + 1
n
) W(
i
n
)
_
2
(40)
On peut alors montrer que [voir par exemple Karatzas (1988)]:
lim
n
V
n
1
= (41)
lim
n
V
n
2
= 1 (42)
Ce que montre ce r esultat, cest que la variation absolue de la trajectoire de cette variable
al eatoire est innie. On ne peut donc la mesurer en employant une mesure du type de celle
de Lebesgue qui est une mesure uniforme sur un segment. Pour le calcul, on ne pourra
donc par voie de cons equence employer lint egrale classique de Lebesgue. Par contre la
trajectoire du processus a des variations quadratiques nies. On peut exploiter ce fait pour
construire un nouveau type dint egrale, d enie par rapport ` a un autre type de mesure
5
qui
exploite le fait que la variation quadratique de la trajectoire du processus est nie. Il sagit
de lint egrale stochastique dite de Ito qui est d enie par lapproximation suivante:
I

(W) =
_
1
0
W(r) dW(r) = lim
n
n1

i=0
W(
i
n
)
_
W(
i + 1
n
) W(
i
n
)
_
(43)
pour r [0, 1]. On peut montrer par application de la d enition pr ec edente que lint egrale
de Ito v erie la propri et e suivante:
_
1
0
W(r) dW(r) =
1
2
_
W
2
(1) 1
_
(44)
Preuve: On va montrer ce r esultat ` a lenvers en appliquant la d enition de lint egrale de
Ito. On part de lidentit e suivante:
W
2
(1) =
n1

i=0
_
W
2
(
i + 1
n
) W
2
(
i
n
)
_
Par application de lidentit e remarquable (a
2
b
2
), on a:
=
n1

i=0
_
W(
i + 1
n
) + W(
i
n
)
__
W(
i + 1
n
) W(
i
n
)
_
5
une mesure al eatoire et non plus la mesure xe de longueur des segments.
6 INTRODUCTION A LA THEORIE ASYMPTOTIQUE NON-STANDARD 23
que lon compl` ete en:
=
n1

i=0
_
W(
i + 1
n
) + W(
i
n
) +W(
i
n
) W(
i
n
)
__
W(
i + 1
n
) W(
i
n
)
_
En d eveloppant partiellement le produit, on reconnat alors la d enition de lint egrale de
Ito pour n, ce qui fait:
= 2 I
n
+
n1

i=0
_
W(
i + 1
n
) W(
i
n
)
_
2
Prenons la limite de cette expression. On arrive ` a:
2 I

+ variation quadratique du processus de Wiener


ce qui compl` ete la preuve en utilisant (42).
2
On peut terminer ce survol de lint egrale stochastique en remarquant que W
2
(1) est une

2
(1). Ce qui fait que lint egrale stochastique ne converge pas vers un nombre, mais vers
une variable al eatoire.
6.3 Th eor` eme central limite fonctionnel
Le processus de Wiener permet de g en eraliser le th eor` eme central limite. Rappelons
que ce dernier enonce que des suites de sommes de variables al eatoires IID correctement
normalis ees convergent en loi vers une N(0, 1). Lexemple le plus simple est celui de
la moyenne empirique dun echantillon. Soit x
t
IID(0,
2
), la moyenne empirique
x
T
= (1/T)

T
1
x
t
satisfait la propri et e:

x
T
=
1

T
T

t=1
x
t
L
N(0, 1)
On veut g en eraliser ce th eor` eme valable pour des variables al eatoires, ` a des fonctions
al eatoires. Pour cela, nous allons transformer la moyenne empirique x
T
en une fonction de
r, x
T
(r). Consid erons des moyennes calcul ees, non plus sur l echantillon complet, mais
sur des sous- echantillons. On a introduit pour cela la variable r [0, 1] qui repr esente la
fraction des premi` eres observations utilis ees. On d enit x
T
(r) comme :
x
T
(r) =
1
T
[rT]

t=1
x
t
(45)
6 INTRODUCTION A LA THEORIE ASYMPTOTIQUE NON-STANDARD 24
Cette fonction est une fonction en escalier ` a cause de lop erateur [.]. Pour r variant sur tout
lintervalle [0, 1], on a:
[rT]

t=1
x
t
=
_

_
0 si 0 r < 1/T
x
1
si 1/T r < 2/T
x
1
+ x
2
si 2/T r < 3/T
.
.
.
x
1
+ . . . + x
T
si r = 1
(46)
On va chercher la distribution limite de (45) pour r x e et ensuite pour r variant sur tout le
segment [0, 1]. En multipliant (45) par

T/, on obtient:

x
T
(r) =

T
T

[rT]
t=1
x
t
=
_
[rT]
_
[rT]

[rT]
t=1
x
t
Il suft de r earranger cette expression pour en calculer la distribution limite:
=
_
[rT]

T
. .

r
.
1
_
[rT]
[rT]

t=1
x
t
. .
N(0,1)
(47)
Pour r x e et T , le premier terme tend vers

r et le second par application du
th eor` eme central limite vers une N(0, 1). Le produit des deux tends alors vers une N(0, r).
Si maintenant on prend r
1
< r
2
, il est assez facile de d eduire du r esultat pr ec edent que:

[x
T
(r
2
) x
T
(r
1
)]
L
N(0, r
2
r
1
) (48)
car Cov(x
T
(r
1
), x
T
(r
2
)) = Min(r
1
, r
2
). Comme x
T
(0) = 0, on a l` a tous les ingr edients de
la d enition dun processus de Wiener. En faisant varier r, on arrive au th eor` eme suivant :
Th eor` eme 7 Soit la fonction de r d enie par (45). Pour r variant sur tout lintervalle
[0, 1],

x
T
(.)
L
W(.)
que lon note encore:
_
1
0

T x
T
(r) dr
L

_
1
0
W(r) dr
o` u W(r) est un mouvement Brownien standard.
6 INTRODUCTION A LA THEORIE ASYMPTOTIQUE NON-STANDARD 25
Ce r esultat est connu sous le nom de th eor` eme central limite fonctionnel car il fait intervenir
lespace fonctionnel des trajectoires de x
T
(r). Il est aussi appel e th eor` eme de Donsker. On
en trouvera une d emonstration dans Billingsley (1968) ou Hall and Heyde (1980). Cest
une g en eralisation du th eor` eme central limite ` a des espaces fonctionnels. Si on pose r = 1,
alors x
T
(1) est simplement une moyenne d echantillonnage et W(1) est une Normale (0,1).
On peut etendre ` a ce type de convergence le th eor` eme de Slutsky donn e plus haut dans
le cas de la convergence en probabilit e:
Th eor` eme 8 : Si

T x
T
(.) converge vers W pour T et si g est une fonctionnelle
continue qui associe ` a une fonction born ee sur [0, 1] une autre fonction born ee sur [0, 1],
alors g(

T x
T
(.)) converge en loi vers g( W) quand T .
Ce th eor` eme est aussi appel e par Billingsley (1968) le Continuous mapping theorem. On
lappellera le th eor` eme de Slutsky fonctionnel. Comme exemple dapplication, consid erons
g(.) = (.)
2
. Alors:
(

T x
T
(.))
2
L

2
W
2
(.) (49)
Remarques:
- On a utilis e ici les notations de Hamilton (1994). La fonction (45) est d enie en
divisant par T. On peut refaire la m eme preuve en d enissant cette fonction comme
:
x
T
(r) =
1

T
[rT]

t=1
x
t
Cest le type de notation qui est utilis ee dans Phillips (1987) et les articles classiques
qui appliquent ce th eor` eme aux probl` emes de racines unitaires.
- Hamilton (1994) pr esente le th eor` eme central limite fonctionnel comme une g en eralisation
directe du th eor` eme central limite. Il utilise ainsi la m eme notation pour la conver-
gence en loi dune variable al eatoire et la convergence dune fonction al eatoire vers
une fonctionnelle de processus de Wiener. Phillips (1987) distingue ces deux types
de convergence et utilise pour la seconde. Par exemple avec la notation de Phillips,
on aurait:
_
1
0
x
T
(r) dr
_
1
0
W(r) dr
Il faut bien retenir que les choses sont plus complexes que ce que lon a bien voulu
le laisser entendre et quune partie de la complexit e est masqu ee par la confusion des
deux types de convergence.
6 INTRODUCTION A LA THEORIE ASYMPTOTIQUE NON-STANDARD 26
6.4 Moments d echantillonnage dans une marche al eatoire
Lutilisation du th eor` eme central limite fonctionnel pour calculer la distribution asymp-
totique de statistiques construites ` a partir de processus non-stationnaires comportant une
racine unitaire a et e faite en premier par Phillips (1986), Phillips (1987). Pour introduire
cette nouvelle th eorie asymptotique, que lon appellera non-standard, le plus simple est de
consid erer une marche al eatoire:
y
t
= y
t1
+
t
(50)
que lon peut r e ecrire sous la forme:
y
t
= y
0
+
t1

j=0

tj
o` u

t1
j=0

tj
repr esente laccumulation des erreurs pass ees. On pose par convention que

0
= 0. Cest cette accumulation ou int egration qui rend le processus non-stationnaire. On
remarque donc au passage quun processus non-stationnaire peut se mettre sous la forme
de la somme dune composante d eterministe et de laccumulation dun terme stochastique.
Il faut faire maintenant certaines hypoth` eses sur la suite des erreurs
t
de mani` ere ` a obtenir
les th eor` emes de convergences que lon cherche. Phillips (1987) a propos e une s erie de
conditions qui sont tr` es peu restrictives et qui contiennent comme cas particulier par ex-
emple que les
t
suivent un processus ARMA stationnaire ou quil sont h et erosc edastiques.
Pour simplier lexpos e, on supposera que les
t
sont IID(0,
2
).
On va chercher ` a calculer le comportement limite de la somme des y
t
et de la somme des
carr es des y
t
, ce qui, si on etait dans le cas stationnaire, serait equivalent ` a nous int eresser
au comportement limite de la moyenne et de la variance empiriques. Ayant exprim e y
t
en
fonction de la somme

T
t=1

t
, il sagit dintroduire une normalisation convenable. On va
d enir la fonction stochastique suivante:
y
T
(r) =
1
T
[rT]

j=1

j
(51)
ce qui fait que:
[rT]

j=1

j
=
_

_
0 si 0 r < 1/T
y
1
si 1/T r < 2/T
y
2
si 2/T r < 3/T
.
.
.
y
T
si r = 1
(52)
La gure 4 repr esente la fonction y
T
(r). On va calculer laire sous cette fonction en
escalier. Elle est egale ` a la somme des T 1 rectangles. Chaque rectangle a une largeur de
1/T et une hauteur de y
t1
/T, donc une surface egale ` a y
t1
/T
2
. Lint egrale de y
T
(r) est
donc equivalente ` a :
_
1
0
y
T
(r) dr = T
2
T

t=1
y
t1
(53)
6 INTRODUCTION A LA THEORIE ASYMPTOTIQUE NON-STANDARD 27
r 1
T
2
T
3
T
4
T
y
T
(r)
y
1
/T y
2
/T y
3
/T
6
6
6
? ? ?
Figure 4: Graphique de la fonction en escaliers y
T
(r)
Multiplions les deux c ot es de cette equation par

T/:
_
1
0

y
T
(r) dr = T
2
T

t=1

y
t1
(54)
On peut appliquer le th eor` eme de Donsker au membre de gauche, ce qui donne:
_
1
0

y
T
(r) dr
L

_
1
0
W(r) dr (55)
On en d eduit donc par application du th eor` eme de Slutsky fonctionnel que le membre de
droite converge vers:
T
3/2
T

t=1
y
t1
L

_
1
0
W(r) dr (56)
Donc si y
t
est une marche al eatoire sans d erive, la moyenne empirique diverge, mais
T
3/2

T
t=1
y
t
converge vers une variable al eatoire ayant pour distribution lint egrale dun
mouvement Brownien de variance
2
.
On utilise un argument similaire pour trouver la distribution de la somme des carr es
dune marche al eatoire. On sait, par application du th eor` eme de Slutsky fonctionnel que
[voir aussi (49)]:
_
1
0
_
Ty
T
(r)
_
2
dr
L

2
_
1
0
W
2
(r) dr (57)
D eveloppons le premier membre :
_
1
0
_
Ty
T
(r)
_
2
dr =
1
T
T

t=1
T y
2
t1
/T
2
= T
2
T

t=1
y
2
t1
(58)
6 INTRODUCTION A LA THEORIE ASYMPTOTIQUE NON-STANDARD 28
En composant ces deux r esultats interm ediaires, nous arrivons au r esultat nal:
T
2
T

t=1
y
2
t1
L

2
_
1
0
W
2
(r) dr (59)
Recensons les diff erences les plus marquantes entre la th eorie asymptotique standard et
cette nouvelle th eorie asymptotique qui consid` ere explicitement la non-stationnarit e. Dans
le cas dun mod` ele autor egressif stationnaire y
t
= y
t1
+
t
, on a que:
plim
1
T
T

t=1
y
t
= 0
et :
plim
1
T
T

t=1
y
2
t
=

2
1
2
Ces moments d echantillonnage convergent vers des constantes. Dans le cas de la marche
al eatoire, ils convergent vers des variables al eatoires. De plus, pour obtenir la convergence
de

y
2
t
, il faut diviser par T
2
au lieu de T. La vitesse de convergence est donc diff erente.
Enn au th eor` eme central limite se substitue le th eor` eme central limite fonctionnel.
6.5 Distribution de lestimateur des OLS dans le cas de racine unitaire
Nous allons maintenant terminer cette introduction en consid erant lestimateur des OLS
dans le mod` ele autor egressif quand la vraie valeur du param` etre est egale ` a 1. Pour le
mod` ele y
t
= y
t1
+
t
, lestimateur des OLS de s ecrit :

T
=

T
t=2
y
t
y
t1

T
t=2
y
2
t1
(60)
On sait que dans le cas stationnaire

T (
T
)
L
N(0, 1
2
). Ce r esultat ne tient
evidemment plus dans le cas = 1, car alors

T (
T
1)
p
0. Commencons par ecrire
cet estimateur sous la forme:
(
T
1) =

T
t=2

t
y
t1

T
t=2
y
2
t1
(61)
Pour calculer la distribution limite de cet estimateur, on doit le multiplier par T et non

T:
T (
T
1) =
(
1
T
)

T
t=2

t
y
t1
(
1
T
2
)

T
t=2
y
2
t1
(62)
On a d ej` a vu en (59) vers quoi convergeait le d enominateur de (62). Etudions le comporte-
ment du num erateur de (62). De l ecriture de la marche al eatoire, on d eduit:
y
2
t
= (y
t1
+
t
)
2
= y
2
t1
+ 2 y
t1

t
+
2
t
(63)
6 INTRODUCTION A LA THEORIE ASYMPTOTIQUE NON-STANDARD 29
ce qui donne :
y
t1

t
= (y
2
t
y
2
t1

2
t
)/2 (64)
Sommons cette expression. En supposant que les conditions initiales sont nulles, on a:
T

t=1
y
t1

t
= (y
2
T

T

t=1

2
t
)/2 (65)
On va normaliser cette somme par 1/
2
T et etudier son comportement limite. Tout dabord
comme on est dans une marche al eatoire Gaussienne:
1

T
y
T
N(0, 1) (66)
qui, en prenant le carr e, devient une
2
(1). Dautre part, ` a cause de la loi des grands
nombres :
plim
1
T
T

t=1
_

t

T
_
2
= 1 (67)
En regroupant ces r esultats :
1
T
T

t=1
y
t1

t
L


2
2
(
2
(1) 1) (68)
Cest ainsi que lon arrive au th eor` eme suivant dont on trouve une version plus complexe
par exemple dans Phillips (1987) :
Th eor` eme 9 : Si les
t
sont ind ependant identiquement distribu es (0,
2
) et si y
t
est g en er e
par le mod` ele y
t
= y
t1
+
t
avec = 1, alors:
T
2
T

t=1
y
2
t1
L

2
_
1
0
W(r)
2
dr
T
1
T

t=1
y
t1

t
L


2
2
(W(1)
2
1)
T (
T
1)
L
0.5
(W(1)
2
1)
_
1
0
W(r)
2
dr
Il est facile de voir que la distribution limite de T (
T
1) est asym etrique ` a gauche. Son
d enominateur est positif. Au num erateur W
2
(1) est une
2
(1). La probabilit e quune vari-
able al eatoire
2
(1) soit plus petite que 1 est de 0.68. Donc pour deux tiers des echantillons
g en er es par une marche al eatoire, lestimateur
T
sera plus petit que la vraie valeur. On
peut pr eciser ce r esultat au moyen dune exp erience de Monte Carlo qui consiste ` a g en erer
1000 echantillons de 100 observations chacun au moyen dun processus autoregressif de
param` etre 1, puis 0.95, 090. On calcule ensuite pour chaque cas lestimateur des moindres
carr es et on trace en enn la distribution empirique en utilisant une m ethode de noyau.
La gure 5 permet de juger du r esultat. La distribution de lestimateur de est bien
6 INTRODUCTION A LA THEORIE ASYMPTOTIQUE NON-STANDARD 30
0
2
4
6
8
10
12
14
16
0.65 0.7 0.75 0.8 0.85 0.9 0.95 1 1.05
= 1.00
= 0.95
= 0.90

Figure 5: Asym etrie de pr` es de la racine unitaire
asym etrique quand = 1. Mais elle reste asym etrique pour des valeurs plus petites de
. Le biais dans lestimation persiste pour ne disparaitre totalement que pour < 0.5. Pour
les valeurs de s electionn ees, les probabilit es que soit inf erieur ` a la vraie valeur sont
respectivement de 0.67, 0.60, 0.58.
Quelques remarques restent ` a faire pour comparer les r esultats asymptotiques que lon
avait obtenus dans le cas stationnaire pour le mod` ele autor egressif simple y
t
= y
t1
+
t
avec ceux que lon vient de d egager pour le cas = 1.
Remarques:
- Dans le cas stationnaire, lestimateur OLS de avait une distribution limite Normale
avec comme r esultat interm ediaire:
1

t
y
t1
L
N(0,
4
/(1
2
))
Dans le cas non-stationnaire la convergence en loi de la m eme somme sobtient en
divisant la somme par T et non plus par

T. La convergence se fait vers une trans-


form ee de
2
(1).
- Dans le cas stationnaire la vitesse de convergence de lestimateur des OLS est de
lordre de 1/

T alors que dans le cas non-stationnaire elle est de lordre de 1/T.


- Dans le cas stationnaire, lestimateur OLS est biais e vers le bas quand la vraie valeur
de est proche de 1. Mais en grand echantillon,

T(
T
) redevient sym etrique.
Ce r esultat est perdu dans le cas de la marche al eatoire o` u la distribution de T (
T
1)
est asym etrique avec des valeurs n egatives deux fois plus probables que les positives.
7 CONCLUSION 31
7 Conclusion
Le but de ce chapitre consistait ` a montrer le r ole central de lhypoth` ese de stationnarit e dans
la th eorie asymptotique classique. D` es que lon s ecarte de cette hypoth` ese, les r esultats
standards sont profond ement boulevers es. La th eorie asymptotique non-standard a et e in-
troduite comme une g en eralisation de la pr ec edente. On retombe bien s ur sur les r esultats
classiques comme cas particulier. Un parti-pris p edagogique a syst ematique et e pris en
faisant un usage abondant dhypoth` eses simplicatrices. Par exemple les termes derreur
des marches al eatoires ont et e suppos es IID, ce qui est une hypoth` ese assez restrictive par
rapport aux r esultats standards des articles de revue. Mais le but recherch e consistait ` a faire
comprendre que les choses etaient diff erentes avec la non-stationnarit e et comment elles
l etaient dans le but ensuite de pouvoir aborder et comprendre la probl ematique des tests
de racine unitaire et les outils de la coint egration.
8 Lectures additionnelles
Les notions de th eorie asymptotique classique sont bien etablies dans la litt erature. On
peut citer comme r ef erence Theil (1971) pour un expos e abordable pour les econom` etres.
Louvrage de White (1984) est plus complet, mais aussi plus complexe. Les ouvrages
de Davidson and MacKinnon (1993), Fourgeaud and Fuchs (1972) et Sargan (1988) sont
egalement int eressants ` a consulter.
Les principes math ematiques mis en jeu par la th eorie asymptotique non-standard con-
cernent les convergences des processus stochastiques et se trouvent expos es dans des ou-
vrages de probabilit e comme Billingsley (1968), Hall and Heyde (1980) ou lintroduction
de Karatzas (1988). Les papiers classiques dapplication ` a l econom etrie sont Phillips
(1986), Phillips (1987), Davidson and MacKinnon (1993), chap. 20) ou encore Hamil-
ton (1994), chap. 17).
9 Exercices
On rappelle que le th eor` eme de Donsker prouve que la fonction en escalier R
t
(r) =
y
[Tr]
/

T converge vers le processus de Wiener W(r) pour T . Le th eor` eme de


transformation fonctionnel lui montre que f(R
T
(r)) W(r). Supposons que y
t
soit une
marche al eatoire y
t
= y
t1
+
t
avec
t
N(0, 1) et y
0
= 0. Une autre ecriture de y
t
est
y
t
=

T
t=1

t
. Les exercices suivants d etaillent les relations entre le processus de Wiener et
la loi Normale.
9.1 Exercice 1
Montrez que
_
1
0
W(r)dr N(0, 1/3). Lintuition de la preuve est la suivante:
Partir du r esultat y/

T
_
1
0
W(r)dr
D ecomposez y
t
en une somme de bruits blancs normaux.
REFERENCES 32
Utilisez le fait que

T
t=1
t
2
= T(T + 1)(2T + 1)/6.
9.2 Exercice 2
Montrez que
_
1
0
r dW(r)dr N(0, 1/3). Intuition: partez du fait que T
3/2

t
t

_
1
0
rdW(r)dr et proc edez de facon identique ` a lexercice 1.
9.3 Exercice 3
Montrez que
_
1
0
W(r)dW(r) = 0.5[W(1)
2
1] 0.5[
2
(1) 1]. Lintuition de la preuve
est la suivante:
On va partir du r esultat T
1

T
t=2
y
t1

t

_
1
0
W(r)dW(r).
Il faut ensuite exprimer

y
t1

t
` a partir de

y
2
t
=

(y
t1
+
t
)
2
Utilisez le fait que y
T
=

t
N(0, T).
References
BILLINGSLEY, P. (1968): Convergence of Probability Measures. Wiley, New York.
BOX, G., AND G. JENKINS (1976): Time Series Analysis Forecasting and Control. San
Francisco.
CHAN, H., J. HAYYA, AND K. ORD (1977): ANote on Trend Removal Methods: the Case
of Polynomial Regression Versus Variate Differencing, Econometrica, 45, 737744.
CRAMER, H. (1946): Mathmatical Methods of Statistics. Princeton University Press,
Princeton.
DAVIDSON, R., AND J. G. MACKINNON (1993): Estimation and Inference in Economet-
rics. Oxford University Press, Oxford.
ENGLE, R. F., AND C. W. GRANGER (1987): Cointegration and Error Correction: Rep-
resentation, Estimation and Testing, Econometrica, 55, 251276.
FOURGEAUD, C., AND A. FUCHS (1972): Statistique. Dunod, Paris.
GOURIEROUX, C., AND A. MONFORT (1990): S eries Temporelles et Mod` eles Dy-
namiques. Paris.
GRANGER, C. W., AND P. NEWBOLD (1974): Spurious Regression in Econometrics,
Journal of Econometrics, 26, 10451066.
HALL, P., AND C. HEYDE (1980): Martingale Limit Theory and its Applications. Aca-
demic Press, New York.
REFERENCES 33
HAMILTON, J. (1994): Time Series Analysis. Princeton.
KARATZAS, I. (1988): A Tutorial Introduction to Stochastic Analysis and its Applica-
tions, Lectures notes, Ofce for Research and Development of the Hellenic Navy and
Columbia University.
NELSON, C., AND H. KANG (1981): Spurious Periodicity in Inappropriately Detrended
Time Series, .
PHILLIPS, P. C. (1986): Understanding Spurious Regression in Econometrics, Journal
of Econometrics, 33, 311340.
(1987): Time Series Regression with a Unit Root, Econometrica, 55, 207231.
SARGAN, D. (1988): Lectures on Advanced Econometric Theory. Blackwell, Oxford.
THEIL, H. (1971): Principles of Econometrics. John Wiley, New York.
WHITE, H. (1984): Asymptotic Theory for Econometricians. Academic Press, Orlando.

Vous aimerez peut-être aussi