Académique Documents
Professionnel Documents
Culture Documents
Introduction
MAP433 Statistique
L’équipe enseignante
Cours Olivier Cappé, laboratoire traitement et
communication de l’information, CNRS — ENST
Petites classes
Randal Douc, département de mathématiques
appliquées, Ecole Polytechnique
Gabriel Lang, laboratoire Gestion du Risque en
Sciences de l’Eau, ENGREF
Stéphane Grégoir, Centre de Recherche en
Économie et Statistique, INSEE
Introduction
MAP433 Statistique
Le cours
Amphis & PC Vendredi 2 février, 9 février, 16 février, 2 mars,
9 mars, 16 mars, 30 mars, 6 avril, 20 avril
Les transparents du cours sont disponibles à
partir de
http://www.catalogue.polytechnique.fr/
Les codes scilab utilisées pour illustrer le cours
sont également disponibles (même adresse)
Tutorat Le mardi à 17h30, à partir du 27 fév. (informations
auprès de la scolarité)
Projet facultatif Les sujets seront présentés le 9 mars, s’incrire
pour le 30 mars, à rendre pour le 1er juin
(impérativement)
CC Mercredi 2 mai (attention : date modifiée)
Introduction
1 Introduction
Introduction à la statistique
Un exemple élémentaire
Statistiques descriptives
2 Modélisation statistique
3 Bornes d’estimation
Introduction Introduction à la statistique
La statistique
Exemples
Statistique
*
Un petit souci de notation ici (cf. cours suivant)
Introduction Un exemple élémentaire
c’est à dire
n
"r #
n 1 X
P Yi − θ > ε → 2 (1 − Φ(ε))
θ(1 − θ) n
i=1
n = 10 n = 100 n = 1000
2.0 0.50 0.50
1.8 0.45 0.45
1.6 0.40 0.40
1.4 0.35 0.35
1.2 0.30 0.30
1.00 1.0 0.25 0.25
0.8 0.20 0.20
0.6 0.15 0.15
0.95 0.4 0.10 0.10
0.2 0.05 0.05
0.0 0.00 0.00
−3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3
0.90
3 3 3
0.85
2 2 2
1 1 1
0.80
0 0 0
−1 −1 −1
0.75
−2 −2 −2
0.70 −3 −3 −3
−3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3
0.65 n
0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000
Pn p Histogrammes
Fig.: Pn et QQ-plots de
Fig.: 1/n i=1 Yi 1/ nθ(1 − θ) i=1 (Yi − θ)
(θ = 0.9, 10 réalisations) (θ = 0.9, 100 réalisations)
quantiles empiriques
q
Si n i=1 Yi − θ0 est supérieur à log(1/α)
1 Pn
2n , par exemple
pour α = 0.025, l’affirmation (( θ = θ0 )) est peu vraisemblable
q
Les valeurs de θ situées au delà de n1 ni=1 Yi ± log(1/α)
P
2n
sont peu crédibles
1.5
1.0
0.5
0.0
−0.5
−1.0
−1.5 n
0 50 100 150 200 250 300
Pn
Fig.: 1/n pi=1 (Yi − 0.9) pour θ = 0.9 et θ = 0.75 (5 réalisations)
comparé à log(1/α)/2n pour α = 0.025
Introduction Un exemple élémentaire
Plus généralement
Un peu de terminologie
L’échantillon désigne l’ensemble des données observées Y1 , . . . , Yn
Une statistique est une fonction P des observations :
par exemple, Sn = ni=1 Yi et
Rn = max{Yi } − min{Yi } sont des statistiques ; les
estimateurs sont des statistiques bien choisies en
fonction d’un objectif
Les statistiques sont des variables aléatoires . . .
Les moments empiriques
Moyenne 1/n ni=1 Yi
P
Représentations graphiques
0.09
0.08
0.07
0.06
0.05
0.04
0.03
0.02
0.01
0.00
−50 −40 −30 −20 −10 0 10 20 30 40 50
20
15
10
−5
−10
−15
−20 latitude
25 30 35 40 45 50
1 Introduction
2 Modélisation statistique
Modèles statistiques
Modèles conditionnels
Problèmes statistiques
3 Bornes d’estimation
*
On note Pθ la probabilité, Eθ l’espérance, Vθ la variance (ou matrice de
variance-covariance) pour une valeur de θ donnée
Modélisation statistique Modèles statistiques
(y − µ)2
1
Y = R, `(y; µ, σ) = √ exp − 2
, µ ∈ R, σ ∈ R+
2πσ 2σ
Modèle semi-paramétrique
P = {Pθ,f , θ ∈ Θ, f ∈ F}, θ est le paramètre d’intérêt
Exemples
Données censurées Y = min(Y ∗ , τ )
avec Y = R, Y ∗ ∼ Pθ , τ ∈ R
Données bruitées Y = Y ∗ + U
où Y ∗ ∼ Pθ et U et Y sont indépendants
Données corrompues (par des valeurs aberrantes)
(
Y1∗ si U > ε
Y =
Y2∗ sinon
avec Eθ [U |X] = 0
0.12
temperature
0.10
20
0.08
0.06
15
0.04
10 0.02
0.00 latitude
25 30 35 40 45 50
0 Fig.: Histogramme
−5
des latitudes
−10
−15
−20 latitude
25 30 35 40 45 50
ms
3.0
2.5
2.0
FIG. : Variation de
1.5
la durée du jour en
1.0 ms (mesures
0.5 journalières sur 10
0.0 ans)
−0.5
−1.0
−1.5 année
1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007
Notation
EX espérance par rapport à la loi des variables exogènes
Principales propriétés de l’espérance conditionnelle
1 Soit h et g des fonctions (Eθ |h(Y )| < ∞, Eθ |g(X)h(Y )| < ∞)
1 Introduction
2 Modélisation statistique
3 Bornes d’estimation
Risque quadratique, biais, variance
Conditions de régularité
Information de Fisher
Borne de Cramer-Rao (Inégalité d’information)
Modèles exponentiels
Bornes d’estimation Risque quadratique, biais, variance
Décomposition biais/variance
Preuve
θ
θ+∆θ
θ−∆θ
θ
θ+∆θ
θ−∆θ
∂ 2 log `(Y ; θ)
IF (θ) = −Eθ
∂θ∂θ0
*
Ronald A. Fisher (1890 – 1962)
Bornes d’estimation Information de Fisher
Preuve
∂ 2 log `(Y ; θ)
− Eθ =
∂θ∂θ0
1 ∂ 2 `(Y ; θ)
1 ∂`(Y ; θ) ∂`(Y ; θ)
− Eθ − 2
`(Y ; θ) ∂θ∂θ0 ` (Y ; θ) ∂θ ∂θ0
| {z } | {z }
R ∂ 2 `(y;θ) ∂ log `(Y ;θ) ∂ log `(Y ;θ)
∂θ∂θ 0
µ(dy) ∂θ ∂θ 0
∂ log `(Y ; θ)
= Vθ
∂θ
R
En notant que `(y; θ)µ(dy) = 1 pour tout θ ∈ Θ implique que
h i R 2
∂ log `(Y ;θ)
Eθ ∂θ et ∂∂θ∂θ
`(y;θ)
0 µ(dy) sont nuls
Bornes d’estimation Information de Fisher
Rd ), IF−1 (θ) kk
(pour tout vecteur α ∈ en particulier Vθ (θ̂k ) ≥
*
Maurice Fréchet (1878 – 1973), Georges Darmois (1888 – 1960)
Harald Cramér (1893 – 1985), Calyampudi R. Rao (1920)
Bornes d’estimation Borne de Cramer-Rao (Inégalité d’information)
d log `(y; θ) 2
Z Z
12 ≤ (δ(y) − θ)2 `(y; θ)µ(dy) `(y; θ)µ(dy)
dθ
| {z }| {z }
Vθ (θ̂) IF (θ)
def R
a(y)b0 (y)λ(dy) = Id et M = b(y)b0 (y)λ(dy) 0 implique
R
Puis
Z
0
a(y) − M −1 b(y) a(y) − M −1 b(y) λ(dy) 0
| R
{z }
a(y)a0 (y)λ(dy)−M −1
c’est à dire Z
a(y)a0 (y)λ(dy) M −1
Bornes d’estimation Borne de Cramer-Rao (Inégalité d’information)
y
−θ θ
0.30
Pθ (Y = y) = e pour y ∈ N 0.25
y! 0.20
0.15
0.10
(Eθ [Y ] = θ, Vθ [Y ] = θ) 0.05
0.00
0 2 4 6 8 10 12 14 16 18 20
IFY1 (θ) Y1
= 1θ , d’où IFY1 ,...,Yn (θ) = n
= Vθ −1 + θ θ et
θ
Vθ (θ̂n ) ≥
n
∂g(θ) −1 ∂g 0 (θ)
Vθ (δ(Y )) I (θ)
∂θ0 F ∂θ
(où θ = g −1 (ϕ))
Bornes d’estimation Borne de Cramer-Rao (Inégalité d’information)
Exemples
(y − µ)2
1
f (y; µ) = √ exp −
2πσ 2σ 2
µ2 y2
1 h y i
=√ exp − 2 exp − 2 exp µ 2
2πσ 2σ 2σ σ
IF (θ) = Vθ [T (Y )]
D’où
0
IF (θ) = Eθ (T (y) − Eθ [T (Y )]) (T (y) − Eθ [T (Y )])
= Vθ [T (Y )]