Vous êtes sur la page 1sur 18

Chapitre 1 Variables alatoires et limites

1.1 Questce que lconomtrie ?

La dfinition du terme economtrie a evolu depuis lmergence de cette discipline dans les annes
1930. A lorigine, elle reprsentait une voie de formalisation de lconomie par lusage de
mathmatiques, probabilits et statistiques. La formalisation prsente des avantages et des
inconvnients : elle permet dtablir des arguments prcis et rapidement comprhensibles grace
une absence dambigut. En revanche, elle fait aussi apparatre le domaine plus abstrait et accrot
les barrires lentre pour les nophytes. Par ailleurs, elle peut entraner la thorie dans des
directions o`u des thormes peuvent tre tablis, et ainsi viter des problmes conomiques
importants mais dont la formalisation se rvle plus ardue.

Dans ce sens traditionnel, la quasiintgralit de la microconomie et lessentiel de la macro


enseignes appartiennent lconomtrie. La revue la plus associe ce courant est
Econometrica, fonde dans les annes 30. Une des plus prestigieuses, elle publie essentiellement
ce quon appelle dornavant lconomie thorique et la thorie economtrique.

Dans les annes 1960, la dfinition traditionnelle de lconomtrie sest rvle dsuette car la
plupart des domaines de lconomie avaient et gagnes par lapproche economtrique, bien que
subsistent des dbats sur le dgr de formalisation de lanalyse. Une rdfinition du terme
sensuivit, et le nouveau sens est plus proche de lutilisation du suxe mtrie rencontr dans
dautres sciences, comme la biomtrie.

Lconomtrie moderne concerne le dveloppement de mthodes probabilistes et statistiques dans


le contexte dune comprhension dtaille des donnes, et des thories conomiques, les
concernant afin dobtenir une analyse conomique empirique rigoureuse. Elle se situe linterface
entre linformatique, les statistiques, les probabilits et la thorie conomique. Elle est donc trs
influence pas des dveloppements hors du domaine propre de la pense conomique, en
particulier informatiques et probabilistes. Divers chercheurs font davantage porter laccent sur lun
ou lautre de ces ingrdients, ce qui gnre une grande part des conflits dans ce domaine. Les
termes importants de la dfinition cidessus sont empiriques et rigoureuses : il sagit bien dune
discipline qui vise tre applique des problmes concrets et ainsi ignore une grande part des
dveloppements thoriques purs sans possibilit dapplication ; par ailleurs, lconomtrie a dans
une certaine mesure vocation rapprocher lconomie des sciences exprimentales : il sagit de
tirer des evnements passs et des donnes le maximum dinformations afin dutiliser les
expriences historiques, dfaut de pouvoir les rproduire ex abstractum.

Lconomtrie applique utilise, quant elle, les dvloppements thoriques pour analyser des cas
concrets afin dobtenir des recommandations politiques, de tester la thorie conomique ou de
suggrer de nouvelles manires damliorer cette dernire. Au vu de la rapidit des
dveloppements, il est essentiel pour toute personne qui sintresse aux tudes conomiques de
pouvoir en comprendre les forces et faiblesses car des mthodes economtriques appliques
mauvais escient entranent souvent des rsultats sans fondements.

Au cours de la dernire dcennie, divers conomtres ont recu le prix Nobel dconomie :

En microconomtrie, Dan McFadden a dvelopp des mthodes permettant danalyser de manire


formelle comment les individus prennent des dcisions conomiques, par exemple comment les
habitants de San Francisco choisissent entre divers modes de transport ; et ce, afin de prvoir
limpact de lintroduction de nouvelles formes de transport et donc de savoir si elle se rvlerait
bnfique pour le bientre global et de quantifier cet aspect. Jim Heckman a pour sa part etudi
comment analyser les facteurs influencant les choix individuels en matire de quantit de travail.

En economtrie financire, Rob Engle a analys la modification de la volatilit au cours du temps.


Ceci lui a permis dtudier comment des agents rationnels devraient equilibrer risque (volatilit) et
rentabilit au cours du temps. Une autre application concerne lvaluation du risque associ un
investissement bancaire (riskmetrics).
En macroconomtrie, Clive Granger a permis une modlisation temporelle de variables instables,
comme le revenu et la consommation, qui sont lies par des relations conomiques de long terme.

La comprhension de lconomtrie ncessite par consquent une matrise des outils de


probabilits et de statistiques.

1.2 Notions de probabilits

1.2.1 Espaces et axiomes

La thorie probabiliste est construite autour de la notion densemble. Les principales dfinitions
concernent les evnements possible et leur probabilit.

Dfinition 1 (Espace dchantillonnage) Lensemble est nomm espace dchantillonnage sil


contient toutes les ralisations possibles considres, par exemple si un consommateur a la
possibilit dacheter 0,1,2 ou 3 bouteilles de Coca Light : = {0, 1, 2, 3} .

Dfinition 2 (Evnement) Un evnement est un sousensemble de (ou luimme) : exemple


lvnement A = {0} correspond un consommateur nachetant pas de Coca Light, B = {1, 2} sil
achte une ou deux bouteilles.

Les principales notations concernant les ensembles sont :

Union. A B, ex. A B = {0, 1, 2} .

Intersection. A B, ex. A B = .

c c

Complmentarit. A ou A = \A, ex. A = {1, 2, 3}

La thorie probabiliste est construite autour des dveloppements de la thorie des ensembles. En
particulier, on appelle espace probabilisable le couple (, F) o`u F est une tribu (sigma algbre)
associe , il sagit de lensemble des combinaisons dvnements possibles 1. Pour un espace
dchantillonnage , une fonction de probabilit Pr est une fonction dfinie sur une tribu associe

1. qui satisfait trois axiomes :

1. Pr () 0 pour tous F.

1. Pr () = 1.

1. Si les {Ai F} sont disjoints alors

Pr Ai = Pr (Ai) .

i=1 i=1

1
Une collection de sousensembles de S est appele tribu F si elle satisfait trois conditions :

1. F

1. Si A F alors Ac F
1. Si A1, A2, ... F alors i=1Ai F

i.e. lensemble vide est un membre de la tribu, le complmentaire de tout membre est un membre,
toute union de membres de la tribu appartient la tribu.

Remarque 1 Les probabilits sont des fonctions sappliquant des ensembles

La tribu reprsente tous les sousensembles de et fournit ainsi la base sur laquelle les
evnements valides peuvent tre dfinis.

Tous les evnements ont probabilits positives ou nulles.

Au moins un evnement de lespace dchantillonnage arrive. Lespace dchantillonnage est l


Univers considr.

Si les evnements sont disjoints (pas de superposition) alors la probabilit quun dentre eux (et
un seul) arrive est la somme des probabilits que chacun survienne. Par exemple pour deux
evnements disjoints {A1,A2} , alors

Pr (A1 A2) = Pr (A1) + Pr (A2) .

Exemple 1 Divisons en deux evnements {A, Ac} . Alors = {A} {Ac} et ces evnements sont
ncessairement disjoints. Par consquent

Pr (A Ac) = Pr (A) + Pr (Ac) = Pr () = 1

donc

Pr (Ac) = 1 Pr (A) = Pr (\A) .

Puisque Pr (Ac) 0, on en dduit que

Pr (A) 1.

Enfin, les proprits de la tribu nous permettent dcrire = et donc

Pr () = 0.

Exemple 2 Soient deux evnements A et B appartenant F. Ces evnements ne sont pas


ncessairement disjoints et nous ne pouvons utiliser le troisime axiome directement. Cependant

Pr (A B) = Pr (A) + Pr (B) Pr (A B) .

Ainsi la probabilit quau moins un de A ou de B se produise est la probabilit quA arrive plus celle
de B moins la probabilit que les deux se produisent.

1.2.2 Indpendance

Considrons deux evnements A et B appartenant F. On sintresse ici au concept selon lequel la


ralisation dun evnement ne modifie pas la probabilit qu un autre evnement de se raliser.
Quand ceci est vrai, on parle dindpendance. Mathmatiquement, on note que A et B sont
indpendants (dans F) si et seulement si

Pr (A B) = Pr (A) Pr (B) .

Noter que deux evnements ne peuvent tre indpendants sils sont disjoints, car alors Pr (A B)
= 0. On note parfois lindpendance entre deux evnements :
A B.

Exemple 3 Soit A le rendement (gomtrique) dun actif sur un jour donn et B son rendement
pour le jour suivant. Beaucoup de modles en conomie financire font lhypothse dindpendance
de A et de B. Ceci est pourtant rejet empiriquement car si A et B sont typiquement presque
noncorrls, il ne sont pas indpendants. Une forte volatilit tendance suivre une forte
volatilit.

Exemple 4 Par dfinition si on jette un d deux fois successives, le rsultat du premier jet
ninfluence pas celui du second, et ainsi les deux rsultats sont indpendants.

1.2.3 Probabilit conditionnelle

Il est parfois souhaitable de changer despace dchantillonnage, dunivers pour calculer les
probabilits. On peu soit redfinir chque fois, par exemple en calculant sparment avec un
pour les employs masculins de plus de 45 ans et un pour les employes fminines de moins de 21
ans... Afin dviter toute confusion, on utiliser le concept de probabilit conditionnelle, qui vise le
mme but, mais conserve constant. Si on conditionne sur B, les axiomes de probabilit
demeurent les mmes :

Pr ( A| B) 0

Pr ( B| B) = 1

Pr [
i=1 Ai| B = X
i=1 Pr ( Ai| B)

si les Ai sont disjoints.

Exemple 5 Si reprsente lensemble des niveau de salaire de population rsidant en France. On


peut par exemple sintresser

Pr (salaire|employe)

Pr (salaire|f emme)

Pr (salaire|f emme, employe, francais)

Remarquer que les evnements sont indpendants au sein de . Il sagit de dfinir au pralable
et toutes les propositions en dpendent.

Il est souvent plus utile de dfinir la probabilit conditionnelle laide de la distribution conjointe :
si nous connaissons la distribution conjointe des salaires et de lemploi il serait agrable de pouvoir
dduire de manire automatique des informations concernant la probabilit conditionnelle des
salaires, connaissant le statut demploi. On procde de la manire suivante.

Soit un univers comportant deux ralisations A et B. On peut sintresser soit Pr (A) , soit Pr
(B) , soit encore Pr (A B) . Enfin on peut aussi sintresser Pr (A|B) pourvu que Pr (B) > 0
(i.e. que B ait une chance de se raliser). Il sagit ainsi de contraindre notre monde de sorte que B
se ralise et de se demander ce qui se passe alors pour A. Ceci ne peut arriver que si A et B
peuvent arriver coinjointement, on dfinit alors :

Pr (A|B) = Pr (A B)
.

Pr (B)
Il est facile de constater que cette dfinition satisfait aux axiomes de probabilit. La probabilit
conditionnelle est un concept vital en economtrie. On peut alors sintresser la probabilit
conditionnelle coinjointe de deux evnements :

Pr (A B|C) .

Si Pr (A B|C) = Pr (A|C) Pr (B|C) , on dit alors que conditionnellement B, A et C sont


indpendents.

Exemple 6 Supposons que A soit la richesse accumule au cours de la vie ; B le fait dtudier HEC
; C les capacits, lducation, la formation. Lindpendance entre A et B sachant C revient dire
que le label HEC napporterait aucune valeur pour aucun individu, ce qui est une dclaration plus
forte quune absence de valeur ajoute en moyenne.

En rarrangeant les formules prcdentes

Pr (B) Pr (A|B) = Pr (A B) ,

et

Pr (A) Pr (B|A) = Pr (A B) ,

en rarrangeant on obtient un des thormes les plus connus en probabilits, le

Thorme 2 (Thorme de Bayes) si Pr (A) > 0 et Pr (B) > 0,

Pr (B|A) = Pr (A B) = Pr (B) Pr (A|B).

Pr (A) Pr (A)

Celuici revient dire que pour passer de Pr (A|B) Pr (B|A) , il sut de multiplier par le ratio Pr
(B) / Pr (A) .

1.3 Variables alatoires

Nous avons pour linstant utils pour reprsenter chacun des evnements associs au triplet (,
F, Pr) , i.e. F est gnr partir de , F, et Pr est la fonction qui associe une probabilit.

Ces evnements ne sont pas ncessairement numriques. En particulier pour diverses applications
on peut choisir de sintresser de mulitples facettes dun mme evnement et ainsi utiliser des
fonctions numriques de cet evnement. Si on choisit une fonction X () qui mne une valeur
numrique (potentiellement un vecteur ou une matrice), on appelle X variable alatoire. Les
distributions sont des familles spcifiques de variables alatoires.

Exemple 7 Soit lunivers des nouveauns en France en 2005. Pour chaque i individuel, i.e.
chaque naissance, on peut choisir de sintresser des fonctions diverses : la taille, le poids du
nouveaun, la dure de la grossesse, qui sont des fonctions relles ; le nombre de frres et soeurs
de lenfant, qui est une fonction entire ; ou une fonction indicatrice qui prend la valeur 1 si lenfant
a des cheveux et 0 sinon.

Distribution de Bernoulli. Une personne est employe un non ; on note employ = E, sans
emploi = U. Soit X ( = E) = 1 et X ( = U) = 0 la variable indicatrice qui renvoie 1 si un
individu possde un emploi et 0 sinon. On note Pr (X = 1) = p et Pr (X = 0) = 1 p. La distribution
de Bernoulli joue un rle important en microconomtrie quand des variables prennent les valeurs
0 et 1.

Distribution Binmiale. Si on ralise n tirages indpendants de la distribution de Bernoulli (par


exemple en choisissant n personnes au hasard au sein de la population francaise et en leur
demandant sils ont un emploi, 1 si vrai, 0 si faux), et on note le nombre de fois que la rponse est
1. Alors le total est appel distribution binmiale : soit p la proportion de la population ayant un
emploi

X
i

Y= Xi, Pr (Xi = 1) = p, Pr (Xi = 0) = 1 p, Xi iid

Alors

n!

y!
Pr (Y = y) = (n y)! py (1 p)ny , y = 0, 1, ..., n.

1.3.1 Fonction de distribution

La fonction de distribution dune variable alatoire X : R (ou N) est

dfinie par

FX : R(ou N) [0, 1]

: x Pr (X x) .

o`u X est ici evalue sur , i.e. pour lensemble des evnements. La densit de X est (pour les
variables alatoires continues)

F
x
X
.

On note que pour les fonctions continues Pr (X = x) = 0

pour tout x et quon peut noter en revanche Pr (X [x, x + dx]) = fX (x) dx

et que si X prend un nombre fini de valeurs fX (x) = Pr (X = x) .

Le lien entre les distribution et densit est donc fourni par

Z x

FX (x) = fX (u) du.


On note que pour les variables alatoires relles (dfinies sur R)

x
x

FX (x) 1, FX (x) 0,

fX (x) 0.

Les quantiles dune distribution sont fournies par la fonction inverse de F X . Ainsi si on souhaite
savoir quelle est la valeur x telle que pour une proportion p de la population X prend une valeur
infrieure ou gale x, p = FX (x) et donc

x = FX1 (p)

est appele fonction quantile de X. On appelle mdiane le quantile 0,5 (50% de la population de
parts et dautres de cette valeur).

Exemple 8 Les quantiles sont des mesures essentielles de lingalit. Ainsi des politiques
conomiques peuvent par exemple cibler les 10% de la population ayant les revenus les plus
faibles.

Exemple 9 Une variable alatoire exponentielle possde la distribution

fX (x) = exp (x/) , x, R+.

Sa fonction de distribution est

FX = 1 exp (x/) ,

et sa fonction quantile

FX1 (u) = log (1 u) .

1.3.2 Distribution Normale

La distribution Normale ou Gaussienne est la plus couramment utilise. Elle apparat naturellement
lorsque on sintresse la distribution de la moyenne et prsente des proprits pratiques de
translation. Sa forme ne parat malheureusement pas immdiatement attractive : sa densit est

Les distributions tant des familles de variable alatoire, on constate ici que chaque X Gaussienne
est paramtre par sa moyenne et sa variance 2, ce quon note

X N , 2 .

Mathmatiquement, on peut penser la densit fX de la manire suivante :

log fX (x) = c 1
2 2 (x )2 .
La logdensit est quadratique en x, la constante c est determine de sorte que

Z
+

Pr () = 1 = fX (x) dx.

La densit Normale a R comme support est centre autour de , contrle sa dispersion. Une
proprit importante de la distributon Normale est que si X N (, 2) alors

+ X N + , 22 ,

i.e. les transformations anes dune Normale sont Normales. Ceci entrane quon puisse crire
toute distribution Gaussienne comme loi

X = + N,

o`u N suit une Normale standard N N (0, 1) . Ainsi si X et Y suivent deux Normales
indpendantes

1. + Y N X + Y , 2X + 2Y .

1.3.3 Autres distributions

Il existe une multitude de distributions parmi lesquelles on en rencontre frquemment certaines en


economtrie.

Khideux

iid

Supposons que Xi N (0, 1), (souvent crit NID(0, 1) ou IN(0, 1) , ce qui signifie que les X i sont
des copies indpendantes et identiquement Normalement distribues),alors

vX

Y= Xi2 2 ,

i=1

une distribution khideux avec degrs de libert. Lesprance et la variance dune distribution
2 sont respectivement et 2.

Uniforme

On contraint parfois les variables sur de petits intervalles. Lexemple le plus simple est la
distribution uniforme standard

fX (x) = 1, x [0, 1] .

Cette variable na que le segment [0, 1] comme support. Cette distribution est souvent utilise
dans les modles styliss afin dintroduire une ide ou un concept. Elle est aussi utilise en
simulation. Une Uniforme plus gnrale se dfinit comme

fX (x) = 1 , x [a, b] .
ba

Poisson

Les modles de comptage sont souvent utiliss en conomie, par exemple le nombre de brevets
dposs en un intervalle de temps, le nombre dchanges sur un march... La distribution la plus
courante est celle de Poisson :

e x

fX (x) , x = 0, 1,
= x! 2, ...

Student

Si Z suit une N(0, 1) et X une 2 et est indpendante de Z, alors le ratio

Z t = p
X/

suit une distribution dite de Student avec degrs de libert. Celleci a la mme forme quune
distribution Normale, mais avec des bords plus pais. Quand augmente, t se comporte de plus
en plus comme une Normale, entre = 30 et 100 une Normale standard est une bonne
approximation, au del de 100 on ne peut les distinguer.

Fischer

Si X1 et X2 sont deux distributions khideux indpendantes avec pour degrs de libert 1 et 2, alors
le ratio

X1/1 F
1,2 =
X2/2

suit une loi de Fischer avec 1 et 2 degrs de libert. Quand 2 est nettement plus grand que 1,
comme est courant en economtrie, X2/2 tend vers 1 et F1,2 se comporte comme un 21 divis
par 1.

Figure 1.1 Graphiques des densits des distributions Standard Normale, Normales, de Student et
Khideux.

X2 (x2)
f

HEC majeure Economie, 2005

1.3.4 Distributions multivaries

Tous les rsultats prcdents sont aussi valables lorsquon sintresse au vecteur multivari de
dimension p :
X = (X1, ..., Xp)0 .

Les elments de ce vecteur ne sont pas ncessairement indpendants, ils peuvent par exemple
reprsenter une srie chronologique ou un panel dobservations conomiques. En particulier, si p =
2 de sorte que

X =
X
1 X2

alors

FX (x1, x2) = Pr (X1 x1, X2 x2) qui, dans le cas continu scrit

Z
x1 Z
x2

FX (x1, x2) = fX (u1, u2) du1du2.

Et de manire similaire

fX (x1, x2) = 2FX


. x1x2

Quand X1 et X2 sont indpendantes, la densit scrit

fX (x1, x2) = fX1 (x1) fX2 (x2) .

Dans le cas gnral en intgrant par rapport une variable sur son support, on obtient la densit
marginale de la seconde :

Z
+

fX2 (x2) = fX (u1, x2) du1.

La distribution conditionnelle prend la forme

F
X1|X2=x2 (x1) = Pr (X1 x
1|X2 = x
2)

ce qui donne la densit conditionnelle

Pr (X1 x1|X2 = x2) fX1|X2=x2 (x1) =


x1

qui possde toutes les proprits dune densit, en particulier on peut montrer que

fX1|X2=x2 (x1) = .
fX (x1, x2)

1.3.5 Moments

Soit X une variable alatoire, on dfinit de manire gnrale les moments de X comme lintgrale
(lorsquelle existe)

E [g (X)] = g (x) fX (x) dx

avec des cas spcifiques de fonction et est un oprateur linaire : pour polynmiales g () . E []
est appel esprance a et b constantes

E [a + bg (X)] = a + bE [g (X)] .
Esprance mathmatique

Le cas le plus simple desprance est la moyenne ou moment de premier ordre dfinie par

(X) = E [X] = xfX (x) dx.

et de manire plus gnrale on dfinit le rime moment (non centr)

r (X) = E [Xr] = xrfX (x) dx.

Variance

Dans le cas dune variable univarie, la variance est dfinie comme second moment de la variable
centre X E [X] :

V [X] = E (X E [X])

= (x E [X])2 fX (x) dx

= E X2 (E [X])2 .

La variance est gale lesprance du carr, moins le carr de lesprance.

Exercice 1 Prouver que V [a + bX] = b2V [X] .

Exercice 2 Montrer que lesprance et la variance de la distribution Normale :

X
2 2 " 22 #

sont et 2 respectivement.

Exercice 3 Quelles sont les esprance et variance dune distribution uniforme standard ?

Covariance

La covariance de X et Y est dfinie, lorsquelle existe comme

Cov [X, Y ] = E [(X E [X]) (Y E [Y ])]

ZZ

= (x E [X]) (y E [Y ]) fX,Y (x, y) dxdy

= E [XY ] E [X] E [Y ] .

Exercice 4 Prouver que Cov [a + bX, c + dY ] = bdCov [X, Y ] , i.e. que la covariance est invariante
par translation.

Lindpendance implique la noncorrlation lorsque la covariance existe.

Cor [X, Y ] [1, 1] .

Plus la corrlation est proche de 1, plus les variables sont lies.

Exercice 7 Prouver que

Cor [a + bX, c + dY ] = Cor [X, Y ] .

Matrice de Covariance

Si X est multivarie, alors

Cov [X] = E (X E [X]) (X E [X])0 .

Cette matrice est symtrique, i.e. Cov [X] = Cov [X]0, et dfinie, i.e. pour tous vecteurs u : uCov
[X] u0 0. La matrice de covariance de X = (X1, ..., Xn)0 scrit

Cov ,
Cov [X2, X1 ] V [X2] [X2 Xn]

Cov ,
V [X1]Cov [X1, X2 ] [X1 X n]

Cov [X]
= . .. . ..
.
. . . ..

Cov [Xn,
X1 ] Cov [Xn, X2] V [Xn]

Un rsultat important : si B est une matrice de constantes, a un vecteur, alors

E [a + BX] = a + BE [X]

Cov [a + BCov [X]


BX] = B0.

La matrice de corrlation est dfinie de manire similaire avec des 1 sur la diagonale principale et
les corrlations de parts et dautres.

Distribution Normale multivarie

La variable alatoire X de dimension n est dite suivre une distribution Normale multivarie
desprance et de matrice de covariance (symtrique et positive dfinie, i.e. pour tous z 6= 0,
zz0> 0) si
fX (x) = |2|1/2 exp 2 (x ) 1 (x )0 , n.
x R

Si a est q 1 et B est q n alors

1. = a + BX N (a + B, BB0) .

1.3.6 Estimateurs

Une statistique S (X) est une fonction dune variable alatoire (vectorielle) X. Quand on utilise cette
statistique pour apprendre des proprits du modle probabiliste, on dit quon estime le modle. La
version alatoire de cette fonction S (X) est appele estimateur, dans le cas dun vecteur observ

HEC majeure Economie, 2005

(une ralisation, ou un chantillon de donnes) on parle destimation S (x) . Lusage de X et de x


est le mme que prcdemment, X est une variable alatoire qui possde une certaine distribution,
x est une valeur qui provient dun tirage de X ou dune ralisation dun evnement.

Exemple 11 Lexample le plus simple est la moyenne arithmtique de variables alatoires

1 n

X
i

S (X) = n Xi.

Si les Xi sont NID(, 2) , alors en utilisant le fait que S (X) est une combinaison linaire de
Normales :

S (X) N , n .

Si n est trs grand, lestimateur a une variance qui tend vers zro et donc sa distribution tend vers
une constante, lesprance commune tous les Xi.

Biais

On suppose quon ait dfini un estimateur afin destimer une certaine quantit . On peut souhaiter
que S (X) soit en moyenne proche de . Une manire de voir ceci est de sintresser au biais
destimation E [S (X) ] .

Exemple 12 Si Xi NID(, 2) alors

1 n

Xi
X= n Xi

la moyenne sur lchantillon est un estimateur de biais nul.

Quand le biais est nul on parle destimateur non biais. Les estimateurs nonbiaiss peuvent tre
trs imprcis car ils peuvent prsenter une trs forte dispersion. Une manire dvaluer leur
imprcision est via le critre de moyenne derreur quadratique (Mean Square Error, ou MSE) :

E (S (X) )2 = V [S (X)] + (E [S (X) ])2 .

Et ainsi un estimateur plus prcis peut se rvler biais.

23

G. Chevillon, Economtrie

Exercice 8 Estimer 2 laide dun chantillon alatoire tir de NID(, 2) en utilisant

Montrer que le minimum de MSE est atteint pour k = 1 tandis que lestimateur est nonbiais pour
k = 1. Pour ce faire remarquer que

1.4 Approximations asymptotiques

1.4.1 Motivations

Exemple 13 Convergence Classique

Xn = 3 + n 3 quand n .

Mais que dire de

Y Xn =3+
n

quand Y est une variable alatoire ? Il existe diverses mesures de convergences, certaines
ncessitant lexistence de moments, dautres non.

La thorie des distributions peut se rvler trs complique et parfois inextricable. Par consquent,
nous sommes souvent obligs dutiliser des approximations. Parmi les nombreuses mthodes, celle
qui domine consiste rechercher lerreur faite par une approximation consistant supposer quon
possde un grand chantillon et quon est proche des distributions asymptotiques pour la taille de
lchantillon. Cette ide est particulirement attractive si on estime un paramtre et quon souhaite
augmenter la prcision avec le nombre dobservations. Deux rsultats principaux sont utiliss dans
la littrature arente : la loi des grands nombres et le thorme limite central. Ces
approximations sont des exemples de concepts plus gnraux de convergence en probabilit et
de convergence en distribution.

Formellement, nous observons une suite de variables alatoires X1, ..., Xn telles que, lorsque n
crot, Xn se comporte comme une autre variable alatoire ou une constante X.

Table des matires

1 Variables alatoires et limites 7

1.1 Questce que lconomtrie ? . . . . . . . . . . . . . . . . . . . . 7

1.2 Notions de probabilits . . . . . . . . . . . . . . . . . . . . . . . 9

1.2.1 Espaces et axiomes . . . . . . . . . . . . . . . . . . . . . 9

1.2.2 Indpendance . . . . . . . . . . . . . . . . . . . . . . . . 11

1.2.3 Probabilit conditionnelle . . . . . . . . . . . . . . . . . 11

1.3 Variables alatoires . . . . . . . . . . . . . . . . . . . . . . . . . 13

1.3.1 Fonction de distribution . . . . . . . . . . . . . . . . . . 14

1.3.2 Distribution Normale . . . . . . . . . . . . . . . . . . . . 15

1.3.3 Autres distributions . . . . . . . . . . . . . . . . . . . . . 16

1.3.4 Distributions multivaries . . . . . . . . . . . . . . . . . 19

1.3.5 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

1.3.6 Estimateurs . . . . . . . . . . . . . . . . . . . . . . . . . 22

1.4 Approximations asymptotiques . . . . . . . . . . . . . . . . . . 24

1.4.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . 24

1.4.2 Dfinitions . . . . . . . . . . . . . . . . . . . . . . . . . . 25

1.4.3 Autres mesures de convergence . . . . . . . . . . . . . . 27

1.4.4 Notation de lordre . . . . . . . . . . . . . . . . . . . . . 29

2 Infrence 31

2.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

2.2 Choix du modle . . . . . . . . . . . . . . . . . . . . . . . . . . 33

2.3 Stratgies de test . . . . . . . . . . . . . . . . . . . . . . . . . . 33

2.3.1 Erreurs de test . . . . . . . . . . . . . . . . . . . . . . . 34

2.3.2 Fonction de puissance . . . . . . . . . . . . . . . . . . . 35


2.3.3 Tests unilatraux . . . . . . . . . . . . . . . . . . . . . . 38

2.4 Test de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

2.4.1 Les autres tests de restriction . . . . . . . . . . . . . . . 39

3 Rgression 41

3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

3.1.1 La rgression linaire et ses problmes potentiels . . . . 41

3.1.2 Notation vectorielle et matricielle . . . . . . . . . . . . . 43

3.2 Rgression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

3.2.1 Maximum de vraisemblance . . . . . . . . . . . . . . . . 44

3.2.2 Moindres carrs (Least squares) . . . . . . . . . . . . . . 50

3.2.3 Erreurs de spcification . . . . . . . . . . . . . . . . . . . 53

3.2.4 Choix du modle . . . . . . . . . . . . . . . . . . . . . . 55

4 Sries temporelles 57

4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

4.1.1 Quappelleton srie temporelle ? . . . . . . . . . . . . . 57

4.1.2 Quels sont les buts de cette analyse ? . . . . . . . . . . . 59

4.1.3 En quoi cette dmarche consistetelle ? . . . . . . . . . . 62

4.2 Concepts des sries temporelles . . . . . . . . . . . . . . . . . . 63

4.2.1 Processus stochastiques . . . . . . . . . . . . . . . . . . . 63

4.2.2 Stationnarit . . . . . . . . . . . . . . . . . . . . . . . . 66

4.2.3 Ergodicit . . . . . . . . . . . . . . . . . . . . . . . . . . 67

4.3 La caractrisation des sries temporelles en conomie . . . . . . 68

4.3.1 Moyenne de lchantillon . . . . . . . . . . . . . . . . . . 68

4.3.2 ACF, fonction empirique dautocorrlation . . . . . . . . 68

4.3.3 PACF, fonction empirique dautocorrlation partielle . . 69

4.4 Processus intgrs . . . . . . . . . . . . . . . . . . . . . . . . . . 69

4.5 Quelques processus courants . . . . . . . . . . . . . . . . . . . . 73

5 Mthodes sans modle 75


5.1 Extrapolation dterministe des sries . . . . . . . . . . . . . . . 75

5.1.1 Tendances linaires . . . . . . . . . . . . . . . . . . . . . 75

5.1.2 Tendances autorgressives . . . . . . . . . . . . . . . . . 77

5.1.3 Modles non linaires . . . . . . . . . . . . . . . . . . . . 77

5.2 Moyennes mobiles . . . . . . . . . . . . . . . . . . . . . . . . . . 77

5.3 Lissages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

5.3.1 Moyennes mobiles . . . . . . . . . . . . . . . . . . . . . . 79

5.3.2 Lissage exponentiel . . . . . . . . . . . . . . . . . . . . . 79

5.4 Ajustements saisonniers . . . . . . . . . . . . . . . . . . . . . . 80

5.4.1 Mthode multiplicative . . . . . . . . . . . . . . . . . . . 80

5.4.2 Mthode additive . . . . . . . . . . . . . . . . . . . . . . 81

6 Modles linaires de sries temporelles 83

6.1 Processus linaires . . . . . . . . . . . . . . . . . . . . . . . . . 83

6.1.1 Concepts . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

6.1.2 Thorme de dcomposition de Wold . . . . . . . . . . . 84

6.1.3 Modlisation ARMA . . . . . . . . . . . . . . . . . . . . 85

6.2 Prdiction des processus ARMA(p, q) . . . . . . . . . . . . . . . 89

6.3 Algorithme de BoxJenkins . . . . . . . . . . . . . . . . . . . . . 91

6.3.1 Principe de la mthode . . . . . . . . . . . . . . . . . . . 91

6.3.2 Travailler sur donnes stationnaires . . . . . . . . . . . . 91

6.3.3 Etablir une hypothse . . . . . . . . . . . . . . . . . . . 92

6.3.4 Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . 93

6.3.5 Diagnostic . . . . . . . . . . . . . . . . . . . . . . . . . . 93

6.4 Estimation des modles dynamiques . . . . . . . . . . . . . . . . 94

6.4.1 Equations de YuleWalker . . . . . . . . . . . . . . . . . 94

6.4.2 Fonction de vraisemblance . . . . . . . . . . . . . . . . . 94

6.4.3 Maximum de vraisemblance dun ARMA . . . . . . . . . 95

7 Les variables intgres 99


7.1 Les tests de racine unitaire . . . . . . . . . . . . . . . . . . . . . 99

7.1.1 Problmes des processus intgrs . . . . . . . . . . . . . 100

7.1.2 Test de DickeyFuller . . . . . . . . . . . . . . . . . . . . 100

7.2 Les dirents tests . . . . . . . . . . . . . . . . . . . . . . . . . 101

7.3 Les tendances et constantes . . . . . . . . . . . . . . . . . . . . 101

7.4 Modles univaris de cointgration . . . . . . . . . . . . . . . . . 104

7.4.1 Procdure en deux tapes dEngle et Granger . . . . . . 104

7.4.2 Procdure en une tape de Banerjee, Dolado et Mestre . 106

7.4.3 Rfrences bibliographiques . . . . . . . . . . . . . . . . 108

Annexe 7.A Dcomposition du MCE . . . . . . . . . . . . . . . . . 109

Annexe 7.B Neutralit et Homognit . . . . . . . . . . . . . . . . 109

8 Processus autorgressifs vectoriels 113

8.1 Processus autorgressifs vectoriels stables . . . . . . . . . . . . . 113

8.2 Processus vectoriels et cointgration . . . . . . . . . . . . . . . . 115

9 Exercices corrigs 117