Académique Documents
Professionnel Documents
Culture Documents
Samy Tindel
Université de Lorraine
1 Introduction
3 Définitions
1 Introduction
3 Définitions
1 Introduction
3 Définitions
Utilisation:
(i) Succès dans un jeu binaire
Exemple 1: pile/face. X = 1 si pile, X = 0 sinon ⇒ X ∼ B(1/2)
Exemple 2: jeu de dé. X = 1 si résultat = 3, X = 0 sinon
⇒ X ∼ B(1/6)
(ii) Réponse oui/non dans un sondage
Exemple: X = 1 si une personne approuve la loi Pécresse,
X = 0 sinon ⇒ X ∼ B(p), avec p inconnu
Utilisation:
Instant de 1er succès dans un jeu binaire
Exemple 2: jeu de dé.
X = 1er jancer pour lequel résultat = 6
⇒ X ∼ G(1/6), P(X = 5) = 0.08
p ≤ 0.1 et np ≤ 5
Tableau récapitulatif:
1 Introduction
3 Définitions
Définition
On appelle modèle statistique ou expérience la famille
(Ω, A, X , E , (Pθ )θ∈Θ ), où
X , E : réalisation de la v.a. X définie sur (Ω, A)
Θ ≡ ensemble des paramètres
Pθ est une loi de proba pour tout θ ∈ Θ.
Définition
On appelle modèle d’échantillonnage basé sur le modèle statistique
précédent une famille (Ω̃, Ã, Xn , E n , P̃θ ), où
Xn , E n : réalisation de la v.a. Xn := (X1 , . . . , Xn )
définie sur (Ω̃, Ã)
Θ ≡ ensemble des paramètres
P̃θ est une loi de proba sur E n pour tout θ ∈ Θ
,→ correspond à un n-échantillon (X1 , . . . , Xn ) de loi Pθ
Tirage de dé: on a
Ω = {1, . . . , 6}
Ω̃ = {1, . . . , 6}n
E = {0, 1}
Xn = (X1 , . . . , Xn ), où (X1 , . . . , Xn ) est un n-éch. de loi B(p)
Θ =]0, 1[
Définition
Soit un modèle d’échantillonnage de loi {µθ ; θ ∈ Θ}.
θ̂n est un estimateur de θ s’il existe une fonction mesurable
dn : E n → Θ telle que
Remarques:
(1) A priori, n’importe quelle fonction de l’échantillon est un
estimateur. Il faut donc repérer les fonction utiles.
(2) Un estimateur est une variable aléatoire.
1X n
d 1 : {0, 1}n → [0, 1], (x1 , . . . , xn ) 7→ x̄n = xi
n i=1
On a donc p̂n1 := X̄n . Sur nos donnés: p̂n1 (ω) = 2/10 = 0.2.
alors
1
p̂n1 (ω̃) = 4/10 = 0.4, p̂n2 (ω̃) = e −1 = 0.18.
2
Donc
L’estimation dépend de l’observation.
L’estimateur est une variable aléatoire.
Samy T. (IECN) TN - Estimation ponctuelle Module MAP 22 / 50
Forte consistance
Définition
Soit un modèle d’échantillonnage de loi {µθ ; θ ∈ Θ}.
Soit θ̂n un estimateur de θ.
On dit que θ̂n est fortement consistant si Pθ -presque sûrement,
pour tout θ ∈ Θ.
bn : Θ → R, bn (θ) = Eθ [θ̂n ] − θ.
1 Introduction
3 Définitions
Théorème
Soit (Xn ; n ≥ 1) un n-échantillon de v.a. à valeurs dans R
On suppose E [|X1 |] < ∞, E [X1 ] = m ∈ R.
Alors
X̄n (ω) −→ m, quand n → ∞, pour tout ω ∈ Ω
sauf sur un ensemble de probabilité nulle.
Définition
La convergence pour tout ω ci-dessus se nomme
convergence presque sûre.
Proposition
Soit un modèle d’échantillonnage de loi {µθ ; θ ∈ Θ}.
On suppose que pour tout θ ∈ Θ, on a Eθ [|X1 |] < ∞ et Eθ [X1 ] = θ.
Soit θ̂n = X̄n = n1 ni=1 Xi .
P
1X n
" #
Eθ [θ̂n ] = Eθ [X̄n ] = Eθ Xi
n i=1
1X n
nθ
= Eθ [Xi ] = = θ.
n i=1 n
Donc
bn (θ) := Eθ [θ̂n ] − θ = 0,
pour tout θ ∈ Θ. L’estimateur est sans biais.
5.02 4.87 4.95 4.88 5.09 4.93 4.91 5.09 4.96 4.89 5.06 4.85
Proposition
Soit un modèle d’échantillonnage de loi {µθ ; θ ∈ Θ}.
On suppose que pour tout θ ∈ Θ, on a Eθ [X12 ] < ∞ et Varθ [X1 ] = θ.
Soit
1 X n 2
θ̂n = Sn2 := Xi − X̄n .
n − 1 i=1
Alors θ̂n est un estimateur fortement consistant et sans biais de θ.
5.02 4.87 4.95 4.88 5.09 4.93 4.91 5.09 4.96 4.89 5.06 4.85
Application numérique:
i=1 (xi − 4.95) = 6.10 × 10 (M€) .
1 P11 −3
σ̂n2 (ω) = Sn2 (ω) = 11 2 2
q
Remarque: Physiquement, il est préférable de considérer Sn = Sn2 .
Ici, sn := Sn (ω) = 0.078M€ ⇒ entreprise régulière.
λ̂(1)
n = X̄n , et λ̂(1) 2
n = Sn
Démonstration:
(i) Loi forte des grands nombres
2 p.s.
⇒ X̄n , Sn −→ (Eθ [X1 ], Varθ (X1 )).
p.s.
(ii) Continuité de F ⇒ F X̄n , Sn2 −→ F (Eθ [X1 ], Varθ (X1 )) = θ.
Samy T. (IECN) TN - Estimation ponctuelle Module MAP 36 / 50
Exemple
Données: Durée de vie de n = 20 ampoules identiques (heures)
0.57 0.41 0.31 1.61 0.60 1.46 1.46 1.53 0.12 0.42
1.17 0.06 1.53 1.16 1.01 1.23 0.56 0.72 1.16 0.52
1 Introduction
3 Définitions
Définition
Soit (X1 , . . . , Xn ) un n-échantillon de loi {µθ ; θ ∈ Θ}.
On suppose X1 ∈ E , et soit (x1 , . . . , xn ) ∈ E n .
Soit Lθ la vraisemblance de l’échantillon (x1 , . . . , xn ).
On pose
`θ (x1 , . . . , xn ) = ln (Lθ (x1 , . . . , xn )) .
La fonction `θ se nomme log-vraisemblance de l’échantillon
(x1 , . . . , xn ).
P(X = x ) = p x (1 − p)1−x
Loi P(λ):
n n
ln(xi !) + ln(λ)
X X
`λ (x1 , . . . , xn ) = − xi − n λ.
i=1 i=1
Loi E(λ):
n
xi + n ln(λ).
X
`λ (x1 , . . . , xn ) = −λ
i=1
Loi N (µ, σ 2 ):
Pn
n i=1 (xi − µ)2
`λ (x1 , . . . , xn ) = − ln(2πσ 2 ) − .
2 2σ 2
L(x1 , . . . , xn ) : Θ → R+
θ 7→ Lθ (x1 , . . . , xn )
Définition
Soit un modèle d’échantillonnage de loi {µθ ; θ ∈ Θ}.
On dit que θ̂ est un
estimateur du maximum de vraisemblance (EMV) si
Proposition
Soit un modèle d’échantillonnage de loi {µθ ; θ ∈ Θ}.
Pour tout (x1 , . . . , xn ) ∈ E n , supposons
L(x1 , . . . , xn ) : Θ → R+ différentiable et > 0.
Soit θ̂ l’EMV de θ. Alors
∂`θ̂
(x1 , . . . , xn ) = 0.
∂θ
∂θ Lθ (x1 , . . . , xn )
∂θ `θ (x1 , . . . , xn ) = .
Lθ (x1 , . . . , xn )
Donc
∂θ `θ (x1 , . . . , xn ) = 0 ⇔ ∂θ Lθ (x1 , . . . , xn ) = 0,
et l’EMV satisfait
∂θ `θ̂ (x1 , . . . , xn ) = 0.
Loi B(p):
n
!
p
`p (x1 , . . . , xn ) = ln xi + n ln(1 − p).
X
1 − p i=1
Loi P(λ):
n n
ln(xi !) + ln(λ)
X X
`λ (x1 , . . . , xn ) = − xi − n λ.
i=1 i=1
Loi N (µ, σ 2 ):
Pn
n i=1 (xi − µ)2
`λ (x1 , . . . , xn ) = − ln(2πσ 2 ) − .
2 2σ 2
Si σ 2 est connue: L’EMV est µ̂n = X̄n
Si µ est connue: L’EMV est σ̂n2 = Σ2n = n1 ni=1 (Xi − µ)2
P