Vous êtes sur la page 1sur 174

Chap. 1.

Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

INFÉRENCE STATISTIQUE

Fouad Marri,
fmarri@insea.ac.ma

INSEA

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 1 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Statistique d’ordre
La statistique d’ordre fait partie des concepts fondamentaux de
l’inférence statistique.
Définition
L’échantillon ordonné dans l’ordre croissant, noté (X1 , · · · , Xn ),
est défini tel que X(k ) soit la k ème plus petite valeur de
l’échantillon (X1 , · · · , Xn ), Alors X(k ) est appellée une
statistique d’ordre.

Exemple
X(1) = min(X1 , · · · , Xn )
X(n) = max(X1 , · · · , Xn )
X(k )

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 2 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Statistique d’ordre
La statistique d’ordre fait partie des concepts fondamentaux de
l’inférence statistique.
Définition
L’échantillon ordonné dans l’ordre croissant, noté (X1 , · · · , Xn ),
est défini tel que X(k ) soit la k ème plus petite valeur de
l’échantillon (X1 , · · · , Xn ), Alors X(k ) est appellée une
statistique d’ordre.

Exemple
X(1) = min(X1 , · · · , Xn )
X(n) = max(X1 , · · · , Xn )
X(k )

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 2 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Statistique d’ordre
La statistique d’ordre fait partie des concepts fondamentaux de
l’inférence statistique.
Définition
L’échantillon ordonné dans l’ordre croissant, noté (X1 , · · · , Xn ),
est défini tel que X(k ) soit la k ème plus petite valeur de
l’échantillon (X1 , · · · , Xn ), Alors X(k ) est appellée une
statistique d’ordre.

Exemple
X(1) = min(X1 , · · · , Xn )
X(n) = max(X1 , · · · , Xn )
X(k )

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 2 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Statistique d’ordre
La statistique d’ordre fait partie des concepts fondamentaux de
l’inférence statistique.
Définition
L’échantillon ordonné dans l’ordre croissant, noté (X1 , · · · , Xn ),
est défini tel que X(k ) soit la k ème plus petite valeur de
l’échantillon (X1 , · · · , Xn ), Alors X(k ) est appellée une
statistique d’ordre.

Exemple
X(1) = min(X1 , · · · , Xn )
X(n) = max(X1 , · · · , Xn )
X(k )

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 2 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Statistique d’ordre
La statistique d’ordre fait partie des concepts fondamentaux de
l’inférence statistique.
Définition
L’échantillon ordonné dans l’ordre croissant, noté (X1 , · · · , Xn ),
est défini tel que X(k ) soit la k ème plus petite valeur de
l’échantillon (X1 , · · · , Xn ), Alors X(k ) est appellée une
statistique d’ordre.

Exemple
X(1) = min(X1 , · · · , Xn )
X(n) = max(X1 , · · · , Xn )
X(k )

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 2 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Statistique d’ordre
La statistique d’ordre fait partie des concepts fondamentaux de
l’inférence statistique.
Définition
L’échantillon ordonné dans l’ordre croissant, noté (X1 , · · · , Xn ),
est défini tel que X(k ) soit la k ème plus petite valeur de
l’échantillon (X1 , · · · , Xn ), Alors X(k ) est appellée une
statistique d’ordre.

Exemple
X(1) = min(X1 , · · · , Xn )
X(n) = max(X1 , · · · , Xn )
X(k )

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 2 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Statistique d’ordre

Théorème
Soient X1 , · · · , Xn , n variables aléatoires i.i.d. de même loi que
X de fonction de répartition F .
X(n) = max(X1 , · · · , Xn ) et X(1) = min(X1 , · · · , Xn ) sont
respectivement la plus grande et la plus petite valeur de
l’échantillon.
Les fonctions de répartition de X(n) et X(1) sont données par:

FX(n) (x) = [F (x)]n

et

FX(1) (x) = 1 − [1 − F (x)]n

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 3 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Statistique d’ordre

Théorème
Soient X1 , · · · , Xn , n variables aléatoires i.i.d. de même loi que
X de fonction de répartition F .
X(n) = max(X1 , · · · , Xn ) et X(1) = min(X1 , · · · , Xn ) sont
respectivement la plus grande et la plus petite valeur de
l’échantillon.
Les fonctions de répartition de X(n) et X(1) sont données par:

FX(n) (x) = [F (x)]n

et

FX(1) (x) = 1 − [1 − F (x)]n

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 3 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Statistique d’ordre

Démonstration

FX(n) (x) = Pr (X(n) < x) = Pr (max(X1 , · · · , Xn ) < x)


= Pr (X1 < x) × Pr (X2 < x) · · · × Pr (Xn < x)
= [F (x)]n

1 − FX(1) (x) = = Pr (X(1) ≥ x) = Pr (X1 ≥ x, · · · , Xn ≥ x)


= Pr (X1 ≥ x) × Pr (X2 ≥ x) · · · × Pr (Xn ≥ x)
= [1 − F (x)]n

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 4 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Statistique d’ordre

Démonstration

FX(n) (x) = Pr (X(n) < x) = Pr (max(X1 , · · · , Xn ) < x)


= Pr (X1 < x) × Pr (X2 < x) · · · × Pr (Xn < x)
= [F (x)]n

1 − FX(1) (x) = = Pr (X(1) ≥ x) = Pr (X1 ≥ x, · · · , Xn ≥ x)


= Pr (X1 ≥ x) × Pr (X2 ≥ x) · · · × Pr (Xn ≥ x)
= [1 − F (x)]n

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 4 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Statistique d’ordre

Théorème
Soient X1 , · · · , Xn , n variables aléatoires i.i.d. de même loi que
X de fonction de répartition F .
La densité de probabilité conjointe de X(1) et X(n) est donnée
par:

fX(1) ,X(n) (x, y ) =


!
n(n − 1)[F (y ) − F (x)]n−2 f (x)f (y ), si x < y
0, sinon

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 5 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Statistique d’ordre

Théorème
Soient X1 , · · · , Xn , n variables aléatoires i.i.d. de même loi que
X de fonction de répartition F .
La densité de probabilité conjointe de X(1) et X(n) est donnée
par:

fX(1) ,X(n) (x, y ) =


!
n(n − 1)[F (y ) − F (x)]n−2 f (x)f (y ), si x < y
0, sinon

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 5 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Statistique d’ordre

Remarque
Les variables aléatoires (X1 , · · · , Xn ), sont i.i.d. mais
(X(1) , · · · , X(n) ) ne le sont pas

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 6 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Statistique d’ordre

Remarque
Les variables aléatoires (X1 , · · · , Xn ), sont i.i.d. mais
(X(1) , · · · , X(n) ) ne le sont pas

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 6 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Statistique d’ordre

Théorème
Soient X1 , · · · , Xn , n variables aléatoires i.i.d. de même loi que
X ∼ Unif (0, 1).
La densité de probabilité de X(n) − X(1) est donnée par:
!
n(n − 1)y n−2 (1 − y ), si 0 < y < 1
fX(n) −X(1) (y ) =
0, sinon

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 7 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Statistique d’ordre

Théorème
Soient X1 , · · · , Xn , n variables aléatoires i.i.d. de même loi que
X ∼ Unif (0, 1).
La densité de probabilité de X(n) − X(1) est donnée par:
!
n(n − 1)y n−2 (1 − y ), si 0 < y < 1
fX(n) −X(1) (y ) =
0, sinon

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 7 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Chapitre 2: Estimation ponctuelle optimale

Objectifs
Échantillon de n variables aléatoires indépendantes
X1 , X2 , · · · , Xn de même loi de
densité de probabilité f (x, θ): cas continu
loi de probabilité Pr (X = x) = p(x, θ): cas discret
θ un paramètre unidimensionnel ou multidimensionnel
=⇒ Évaluer l’estimation θ̂ à travers une statistique
T (X1 , X2 , · · · , Xn )
=⇒ Étudier les propriétés des estimations
Méthodes du Maximum de vraisemblance
Méthodes des moments

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 8 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Chapitre 2: Estimation ponctuelle optimale

Objectifs
Échantillon de n variables aléatoires indépendantes
X1 , X2 , · · · , Xn de même loi de
densité de probabilité f (x, θ): cas continu
loi de probabilité Pr (X = x) = p(x, θ): cas discret
θ un paramètre unidimensionnel ou multidimensionnel
=⇒ Évaluer l’estimation θ̂ à travers une statistique
T (X1 , X2 , · · · , Xn )
=⇒ Étudier les propriétés des estimations
Méthodes du Maximum de vraisemblance
Méthodes des moments

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 8 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Chapitre 2: Estimation ponctuelle optimale

Objectifs
Échantillon de n variables aléatoires indépendantes
X1 , X2 , · · · , Xn de même loi de
densité de probabilité f (x, θ): cas continu
loi de probabilité Pr (X = x) = p(x, θ): cas discret
θ un paramètre unidimensionnel ou multidimensionnel
=⇒ Évaluer l’estimation θ̂ à travers une statistique
T (X1 , X2 , · · · , Xn )
=⇒ Étudier les propriétés des estimations
Méthodes du Maximum de vraisemblance
Méthodes des moments

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 8 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Chapitre 2: Estimation ponctuelle optimale

Objectifs
Échantillon de n variables aléatoires indépendantes
X1 , X2 , · · · , Xn de même loi de
densité de probabilité f (x, θ): cas continu
loi de probabilité Pr (X = x) = p(x, θ): cas discret
θ un paramètre unidimensionnel ou multidimensionnel
=⇒ Évaluer l’estimation θ̂ à travers une statistique
T (X1 , X2 , · · · , Xn )
=⇒ Étudier les propriétés des estimations
Méthodes du Maximum de vraisemblance
Méthodes des moments

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 8 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Chapitre 2: Estimation ponctuelle optimale

Objectifs
Échantillon de n variables aléatoires indépendantes
X1 , X2 , · · · , Xn de même loi de
densité de probabilité f (x, θ): cas continu
loi de probabilité Pr (X = x) = p(x, θ): cas discret
θ un paramètre unidimensionnel ou multidimensionnel
=⇒ Évaluer l’estimation θ̂ à travers une statistique
T (X1 , X2 , · · · , Xn )
=⇒ Étudier les propriétés des estimations
Méthodes du Maximum de vraisemblance
Méthodes des moments

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 8 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Chapitre 2: Estimation ponctuelle optimale

Objectifs
Échantillon de n variables aléatoires indépendantes
X1 , X2 , · · · , Xn de même loi de
densité de probabilité f (x, θ): cas continu
loi de probabilité Pr (X = x) = p(x, θ): cas discret
θ un paramètre unidimensionnel ou multidimensionnel
=⇒ Évaluer l’estimation θ̂ à travers une statistique
T (X1 , X2 , · · · , Xn )
=⇒ Étudier les propriétés des estimations
Méthodes du Maximum de vraisemblance
Méthodes des moments

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 8 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Chapitre 2: Estimation ponctuelle optimale

Objectifs
Échantillon de n variables aléatoires indépendantes
X1 , X2 , · · · , Xn de même loi de
densité de probabilité f (x, θ): cas continu
loi de probabilité Pr (X = x) = p(x, θ): cas discret
θ un paramètre unidimensionnel ou multidimensionnel
=⇒ Évaluer l’estimation θ̂ à travers une statistique
T (X1 , X2 , · · · , Xn )
=⇒ Étudier les propriétés des estimations
Méthodes du Maximum de vraisemblance
Méthodes des moments

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 8 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Chapitre 2: Estimation ponctuelle optimale

Objectifs
Échantillon de n variables aléatoires indépendantes
X1 , X2 , · · · , Xn de même loi de
densité de probabilité f (x, θ): cas continu
loi de probabilité Pr (X = x) = p(x, θ): cas discret
θ un paramètre unidimensionnel ou multidimensionnel
=⇒ Évaluer l’estimation θ̂ à travers une statistique
T (X1 , X2 , · · · , Xn )
=⇒ Étudier les propriétés des estimations
Méthodes du Maximum de vraisemblance
Méthodes des moments

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 8 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Chapitre 2: Estimation ponctuelle optimale

Objectifs
Échantillon de n variables aléatoires indépendantes
X1 , X2 , · · · , Xn de même loi de
densité de probabilité f (x, θ): cas continu
loi de probabilité Pr (X = x) = p(x, θ): cas discret
θ un paramètre unidimensionnel ou multidimensionnel
=⇒ Évaluer l’estimation θ̂ à travers une statistique
T (X1 , X2 , · · · , Xn )
=⇒ Étudier les propriétés des estimations
Méthodes du Maximum de vraisemblance
Méthodes des moments

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 8 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Chap. 2. Estimation ponctuelle optimale

Estimateur
Dans le cadre de l’estimation ponctuelle, l’objectif du
statisticien est de déterminer la vraie valeur du paramètre θ.
Définition
On appellera estimateur toute statistique ( fonction de
X1 , X2 , · · · , Xn ) qui ne doit pas dépendre de θ

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 9 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Chap. 2. Estimation ponctuelle optimale

Estimateur
Dans le cadre de l’estimation ponctuelle, l’objectif du
statisticien est de déterminer la vraie valeur du paramètre θ.
Définition
On appellera estimateur toute statistique ( fonction de
X1 , X2 , · · · , Xn ) qui ne doit pas dépendre de θ

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 9 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Définition
Soient X1 , X2 , · · · , Xn n v.a. i.i.d. de densité f (x, θ) où
θ ∈ R.
Soit θ̂ un estimateur de θ
On appelle biais pour θ la valeur :

b(θ̂) = E(θ̂) − θ

Si b(θ̂) = 0, on dit que θ̂ est un estimateur sans biais pour θ

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 10 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Définition
Soient X1 , X2 , · · · , Xn n v.a. i.i.d. de densité f (x, θ) où
θ ∈ R.
Soit θ̂ un estimateur de θ
On appelle biais pour θ la valeur :

b(θ̂) = E(θ̂) − θ

Si b(θ̂) = 0, on dit que θ̂ est un estimateur sans biais pour θ

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 10 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Définition
Soient X1 , X2 , · · · , Xn n v.a. i.i.d. de densité f (x, θ) où
θ ∈ R.
Soit θ̂ un estimateur de θ
On appelle biais pour θ la valeur :

b(θ̂) = E(θ̂) − θ

Si b(θ̂) = 0, on dit que θ̂ est un estimateur sans biais pour θ

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 10 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Définition
Soient X1 , X2 , · · · , Xn n v.a. i.i.d. de densité f (x, θ) où
θ ∈ R.
Soit θ̂ un estimateur de θ
On appelle biais pour θ la valeur :

b(θ̂) = E(θ̂) − θ

Si b(θ̂) = 0, on dit que θ̂ est un estimateur sans biais pour θ

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 10 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Estimateur asymptotiquement sans biais

Définition
Un estimateur θˆn est dit asymptotiquement sans biais pour de θ
si
lim E(θˆn ) = θ
n→∞

Exemple
n
!
(Xj −X̄ )2
) = σ 2 ( n−1
j=1
E( n n ) n’est pas un estimateur sans biais
2
de σ mais
c’est un estimateur asymptotiquement sans biais pour σ 2

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 11 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Estimateur asymptotiquement sans biais

Définition
Un estimateur θˆn est dit asymptotiquement sans biais pour de θ
si
lim E(θˆn ) = θ
n→∞

Exemple
n
!
(Xj −X̄ )2
) = σ 2 ( n−1
j=1
E( n n ) n’est pas un estimateur sans biais
2
de σ mais
c’est un estimateur asymptotiquement sans biais pour σ 2

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 11 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Estimateur asymptotiquement sans biais

Définition
Un estimateur θˆn est dit asymptotiquement sans biais pour de θ
si
lim E(θˆn ) = θ
n→∞

Exemple
n
!
(Xj −X̄ )2
) = σ 2 ( n−1
j=1
E( n n ) n’est pas un estimateur sans biais
2
de σ mais
c’est un estimateur asymptotiquement sans biais pour σ 2

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 11 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Estimateur asymptotiquement sans biais

Définition
Un estimateur θˆn est dit asymptotiquement sans biais pour de θ
si
lim E(θˆn ) = θ
n→∞

Exemple
n
!
(Xj −X̄ )2
) = σ 2 ( n−1
j=1
E( n n ) n’est pas un estimateur sans biais
2
de σ mais
c’est un estimateur asymptotiquement sans biais pour σ 2

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 11 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Estimateur asymptotiquement sans biais

Définition
Un estimateur θˆn est dit asymptotiquement sans biais pour de θ
si
lim E(θˆn ) = θ
n→∞

Exemple
n
!
(Xj −X̄ )2
) = σ 2 ( n−1
j=1
E( n n ) n’est pas un estimateur sans biais
2
de σ mais
c’est un estimateur asymptotiquement sans biais pour σ 2

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 11 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ N (µ, σ 2 )
n
!
Xj
j=1
X̄ = n est un estimateur sans biais de µ
n
! 2
(Xj −X̄ )
est un estimateur sans biais de σ 2
j=1
n−1
n
"
Xj n’est pas un estimateur sans biais de µ.
j=1
"n
(Xj − X̄ )2 n’est pas un estimateur sans biais de σ 2 .
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 12 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ N (µ, σ 2 )
n
!
Xj
j=1
X̄ = n est un estimateur sans biais de µ
n
! 2
(Xj −X̄ )
est un estimateur sans biais de σ 2
j=1
n−1
n
"
Xj n’est pas un estimateur sans biais de µ.
j=1
"n
(Xj − X̄ )2 n’est pas un estimateur sans biais de σ 2 .
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 12 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ N (µ, σ 2 )
n
!
Xj
j=1
X̄ = n est un estimateur sans biais de µ
n
! 2
(Xj −X̄ )
est un estimateur sans biais de σ 2
j=1
n−1
n
"
Xj n’est pas un estimateur sans biais de µ.
j=1
"n
(Xj − X̄ )2 n’est pas un estimateur sans biais de σ 2 .
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 12 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ N (µ, σ 2 )
n
!
Xj
j=1
X̄ = n est un estimateur sans biais de µ
n
! 2
(Xj −X̄ )
est un estimateur sans biais de σ 2
j=1
n−1
n
"
Xj n’est pas un estimateur sans biais de µ.
j=1
"n
(Xj − X̄ )2 n’est pas un estimateur sans biais de σ 2 .
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 12 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ N (µ, σ 2 )
n
!
Xj
j=1
X̄ = n est un estimateur sans biais de µ
n
! 2
(Xj −X̄ )
est un estimateur sans biais de σ 2
j=1
n−1
n
"
Xj n’est pas un estimateur sans biais de µ.
j=1
"n
(Xj − X̄ )2 n’est pas un estimateur sans biais de σ 2 .
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 12 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ N (µ, σ 2 )
n
!
Xj
j=1
X̄ = n est un estimateur sans biais de µ
n
! 2
(Xj −X̄ )
est un estimateur sans biais de σ 2
j=1
n−1
n
"
Xj n’est pas un estimateur sans biais de µ.
j=1
"n
(Xj − X̄ )2 n’est pas un estimateur sans biais de σ 2 .
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 12 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
x
Soient X1 , · · · , Xn n v.a. i.i.d de densité f (x) = 1θ e− θ
Posons θ̂ = X̄
θ̂n est -il un estimateur sans biais de θ?
θ̂n2 est -il un estimateur sans biais de θ2 ?
E(θ̂n ) = θ
=⇒ θ̂n est un estimateur sans biais pour θ
E(θ̂n2 ) = θ2 (1 + n1 )
=⇒ θ̂n2 n’est pas un estimateur sans biais pour θ2
2
bias(θ̂n2 ) = θn

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 13 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
x
Soient X1 , · · · , Xn n v.a. i.i.d de densité f (x) = 1θ e− θ
Posons θ̂ = X̄
θ̂n est -il un estimateur sans biais de θ?
θ̂n2 est -il un estimateur sans biais de θ2 ?
E(θ̂n ) = θ
=⇒ θ̂n est un estimateur sans biais pour θ
E(θ̂n2 ) = θ2 (1 + n1 )
=⇒ θ̂n2 n’est pas un estimateur sans biais pour θ2
2
bias(θ̂n2 ) = θn

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 13 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
x
Soient X1 , · · · , Xn n v.a. i.i.d de densité f (x) = 1θ e− θ
Posons θ̂ = X̄
θ̂n est -il un estimateur sans biais de θ?
θ̂n2 est -il un estimateur sans biais de θ2 ?
E(θ̂n ) = θ
=⇒ θ̂n est un estimateur sans biais pour θ
E(θ̂n2 ) = θ2 (1 + n1 )
=⇒ θ̂n2 n’est pas un estimateur sans biais pour θ2
2
bias(θ̂n2 ) = θn

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 13 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
x
Soient X1 , · · · , Xn n v.a. i.i.d de densité f (x) = 1θ e− θ
Posons θ̂ = X̄
θ̂n est -il un estimateur sans biais de θ?
θ̂n2 est -il un estimateur sans biais de θ2 ?
E(θ̂n ) = θ
=⇒ θ̂n est un estimateur sans biais pour θ
E(θ̂n2 ) = θ2 (1 + n1 )
=⇒ θ̂n2 n’est pas un estimateur sans biais pour θ2
2
bias(θ̂n2 ) = θn

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 13 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
x
Soient X1 , · · · , Xn n v.a. i.i.d de densité f (x) = 1θ e− θ
Posons θ̂ = X̄
θ̂n est -il un estimateur sans biais de θ?
θ̂n2 est -il un estimateur sans biais de θ2 ?
E(θ̂n ) = θ
=⇒ θ̂n est un estimateur sans biais pour θ
E(θ̂n2 ) = θ2 (1 + n1 )
=⇒ θ̂n2 n’est pas un estimateur sans biais pour θ2
2
bias(θ̂n2 ) = θn

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 13 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
x
Soient X1 , · · · , Xn n v.a. i.i.d de densité f (x) = 1θ e− θ
Posons θ̂ = X̄
θ̂n est -il un estimateur sans biais de θ?
θ̂n2 est -il un estimateur sans biais de θ2 ?
E(θ̂n ) = θ
=⇒ θ̂n est un estimateur sans biais pour θ
E(θ̂n2 ) = θ2 (1 + n1 )
=⇒ θ̂n2 n’est pas un estimateur sans biais pour θ2
2
bias(θ̂n2 ) = θn

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 13 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
x
Soient X1 , · · · , Xn n v.a. i.i.d de densité f (x) = 1θ e− θ
Posons θ̂ = X̄
θ̂n est -il un estimateur sans biais de θ?
θ̂n2 est -il un estimateur sans biais de θ2 ?
E(θ̂n ) = θ
=⇒ θ̂n est un estimateur sans biais pour θ
E(θ̂n2 ) = θ2 (1 + n1 )
=⇒ θ̂n2 n’est pas un estimateur sans biais pour θ2
2
bias(θ̂n2 ) = θn

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 13 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
x
Soient X1 , · · · , Xn n v.a. i.i.d de densité f (x) = 1θ e− θ
Posons θ̂ = X̄
θ̂n est -il un estimateur sans biais de θ?
θ̂n2 est -il un estimateur sans biais de θ2 ?
E(θ̂n ) = θ
=⇒ θ̂n est un estimateur sans biais pour θ
E(θ̂n2 ) = θ2 (1 + n1 )
=⇒ θ̂n2 n’est pas un estimateur sans biais pour θ2
2
bias(θ̂n2 ) = θn

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 13 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
x
Soient X1 , · · · , Xn n v.a. i.i.d de densité f (x) = 1θ e− θ
Posons θ̂ = X̄
θ̂n est -il un estimateur sans biais de θ?
θ̂n2 est -il un estimateur sans biais de θ2 ?
E(θ̂n ) = θ
=⇒ θ̂n est un estimateur sans biais pour θ
E(θ̂n2 ) = θ2 (1 + n1 )
=⇒ θ̂n2 n’est pas un estimateur sans biais pour θ2
2
bias(θ̂n2 ) = θn

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 13 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
x
Soient X1 , · · · , Xn n v.a. i.i.d de densité f (x) = 1θ e− θ
Posons θ̂ = X̄
θ̂n est -il un estimateur sans biais de θ?
θ̂n2 est -il un estimateur sans biais de θ2 ?
E(θ̂n ) = θ
=⇒ θ̂n est un estimateur sans biais pour θ
E(θ̂n2 ) = θ2 (1 + n1 )
=⇒ θ̂n2 n’est pas un estimateur sans biais pour θ2
2
bias(θ̂n2 ) = θn

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 13 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d ∼ U(0, θ),
n+1
Montrons que n X(n) est un estimateur sans biais pour θ
FX(n) (x) = [F (x)]n = ( xθ )n x ∈ [0, θ]
n−1
fX(n) (x) = n x θn x ∈ [0, θ]
# $ n
E X(n) = n+1 θ
# n+1 $
E n X(n) = θ
n+1
=⇒ n X(n) est un estimateur sans biais pour θ

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 14 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d ∼ U(0, θ),
n+1
Montrons que n X(n) est un estimateur sans biais pour θ
FX(n) (x) = [F (x)]n = ( xθ )n x ∈ [0, θ]
n−1
fX(n) (x) = n x θn x ∈ [0, θ]
# $ n
E X(n) = n+1 θ
# n+1 $
E n X(n) = θ
n+1
=⇒ n X(n) est un estimateur sans biais pour θ

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 14 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d ∼ U(0, θ),
n+1
Montrons que n X(n) est un estimateur sans biais pour θ
FX(n) (x) = [F (x)]n = ( xθ )n x ∈ [0, θ]
n−1
fX(n) (x) = n x θn x ∈ [0, θ]
# $ n
E X(n) = n+1 θ
# n+1 $
E n X(n) = θ
n+1
=⇒ n X(n) est un estimateur sans biais pour θ

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 14 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d ∼ U(0, θ),
n+1
Montrons que n X(n) est un estimateur sans biais pour θ
FX(n) (x) = [F (x)]n = ( xθ )n x ∈ [0, θ]
n−1
fX(n) (x) = n x θn x ∈ [0, θ]
# $ n
E X(n) = n+1 θ
# n+1 $
E n X(n) = θ
n+1
=⇒ n X(n) est un estimateur sans biais pour θ

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 14 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d ∼ U(0, θ),
n+1
Montrons que n X(n) est un estimateur sans biais pour θ
FX(n) (x) = [F (x)]n = ( xθ )n x ∈ [0, θ]
n−1
fX(n) (x) = n x θn x ∈ [0, θ]
# $ n
E X(n) = n+1 θ
# n+1 $
E n X(n) = θ
n+1
=⇒ n X(n) est un estimateur sans biais pour θ

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 14 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d ∼ U(0, θ),
n+1
Montrons que n X(n) est un estimateur sans biais pour θ
FX(n) (x) = [F (x)]n = ( xθ )n x ∈ [0, θ]
n−1
fX(n) (x) = n x θn x ∈ [0, θ]
# $ n
E X(n) = n+1 θ
# n+1 $
E n X(n) = θ
n+1
=⇒ n X(n) est un estimateur sans biais pour θ

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 14 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Biais d’un estimateur

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d ∼ U(0, θ),
n+1
Montrons que n X(n) est un estimateur sans biais pour θ
FX(n) (x) = [F (x)]n = ( xθ )n x ∈ [0, θ]
n−1
fX(n) (x) = n x θn x ∈ [0, θ]
# $ n
E X(n) = n+1 θ
# n+1 $
E n X(n) = θ
n+1
=⇒ n X(n) est un estimateur sans biais pour θ

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 14 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthodes d’estimation
Nous verrons deux méthodes permettant de construire des
estimateurs:
Méthode des moments
Méthode du maximum de vraisemblance
Méthode des moments

Définition
Considérons l’échantillon X1 · · · , Xn , On appelle estimateur de
θ obtenu par la méthode des moments la solution θ̂n du
système:
n
1% k
Xj = E(X k ), k = 1, · · · , p
n
j=1

où p = dim(θ). On choisit les paramètres de telle sorte que les


moments théoriques sont égaux aux moments observés.
Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 15 / 62
Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthodes d’estimation
Nous verrons deux méthodes permettant de construire des
estimateurs:
Méthode des moments
Méthode du maximum de vraisemblance
Méthode des moments

Définition
Considérons l’échantillon X1 · · · , Xn , On appelle estimateur de
θ obtenu par la méthode des moments la solution θ̂n du
système:
n
1% k
Xj = E(X k ), k = 1, · · · , p
n
j=1

où p = dim(θ). On choisit les paramètres de telle sorte que les


moments théoriques sont égaux aux moments observés.
Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 15 / 62
Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthodes d’estimation
Nous verrons deux méthodes permettant de construire des
estimateurs:
Méthode des moments
Méthode du maximum de vraisemblance
Méthode des moments

Définition
Considérons l’échantillon X1 · · · , Xn , On appelle estimateur de
θ obtenu par la méthode des moments la solution θ̂n du
système:
n
1% k
Xj = E(X k ), k = 1, · · · , p
n
j=1

où p = dim(θ). On choisit les paramètres de telle sorte que les


moments théoriques sont égaux aux moments observés.
Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 15 / 62
Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthodes d’estimation
Nous verrons deux méthodes permettant de construire des
estimateurs:
Méthode des moments
Méthode du maximum de vraisemblance
Méthode des moments

Définition
Considérons l’échantillon X1 · · · , Xn , On appelle estimateur de
θ obtenu par la méthode des moments la solution θ̂n du
système:
n
1% k
Xj = E(X k ), k = 1, · · · , p
n
j=1

où p = dim(θ). On choisit les paramètres de telle sorte que les


moments théoriques sont égaux aux moments observés.
Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 15 / 62
Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments

Loi normale

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ N (µ, σ 2 )
µ = X̄
n
"
1
µ2 + σ 2 = n Xj2
j=1
=⇒µ̂ = X̄
n
"
=⇒σˆ2 = n1 Xj2 − X̄ 2
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 16 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments

Loi normale

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ N (µ, σ 2 )
µ = X̄
n
"
1
µ2 + σ 2 = n Xj2
j=1
=⇒µ̂ = X̄
n
"
=⇒σˆ2 = n1 Xj2 − X̄ 2
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 16 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments

Loi normale

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ N (µ, σ 2 )
µ = X̄
n
"
1
µ2 + σ 2 = n Xj2
j=1
=⇒µ̂ = X̄
n
"
=⇒σˆ2 = n1 Xj2 − X̄ 2
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 16 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments

Loi normale

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ N (µ, σ 2 )
µ = X̄
n
"
1
µ2 + σ 2 = n Xj2
j=1
=⇒µ̂ = X̄
n
"
=⇒σˆ2 = n1 Xj2 − X̄ 2
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 16 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments

Loi normale

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ N (µ, σ 2 )
µ = X̄
n
"
1
µ2 + σ 2 = n Xj2
j=1
=⇒µ̂ = X̄
n
"
=⇒σˆ2 = n1 Xj2 − X̄ 2
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 16 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments

Loi normale

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ N (µ, σ 2 )
µ = X̄
n
"
1
µ2 + σ 2 = n Xj2
j=1
=⇒µ̂ = X̄
n
"
=⇒σˆ2 = n1 Xj2 − X̄ 2
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 16 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments

Loi normale

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ N (µ, σ 2 )
µ = X̄
n
"
1
µ2 + σ 2 = n Xj2
j=1
=⇒µ̂ = X̄
n
"
=⇒σˆ2 = n1 Xj2 − X̄ 2
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 16 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments: Loi Uniforme U (0, θ)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ U(0, θ)
=⇒θ̂ = 2X̄
θ2
Var (θ̂) = 3n

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 17 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments: Loi Uniforme U (0, θ)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ U(0, θ)
=⇒θ̂ = 2X̄
θ2
Var (θ̂) = 3n

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 17 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments: Loi Uniforme U (0, θ)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ U(0, θ)
=⇒θ̂ = 2X̄
θ2
Var (θ̂) = 3n

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 17 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments: Loi Uniforme U (0, θ)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ U(0, θ)
=⇒θ̂ = 2X̄
θ2
Var (θ̂) = 3n

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 17 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments: Loi Uniforme U (0, θ)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ U(0, θ)
=⇒θ̂ = 2X̄
θ2
Var (θ̂) = 3n

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 17 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments: Loi exponentielle Exp(θ)

Exemple
x
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ Exp(θ), f (x) = 1θ e− θ
E(X ) = θ = X̄
=⇒θ̂ = X̄

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 18 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments: Loi exponentielle Exp(θ)

Exemple
x
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ Exp(θ), f (x) = 1θ e− θ
E(X ) = θ = X̄
=⇒θ̂ = X̄

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 18 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments: Loi exponentielle Exp(θ)

Exemple
x
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ Exp(θ), f (x) = 1θ e− θ
E(X ) = θ = X̄
=⇒θ̂ = X̄

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 18 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments: Loi exponentielle Exp(θ)

Exemple
x
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ Exp(θ), f (x) = 1θ e− θ
E(X ) = θ = X̄
=⇒θ̂ = X̄

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 18 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments: Loi exponentielle Exp(θ)

Exemple
x
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ Exp(θ), f (x) = 1θ e− θ
E(X ) = θ = X̄
=⇒θ̂ = X̄

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 18 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments: Loi gamma G(α, β)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ G(α, β)
β α −βx α−1
f (x) = Γ(α) e x , x > 0, α, β > 0
& +∞
où Γ(α) = 0
e−x x α−1 dx
Or E(X ) = α
β et Var (X ) = α
β2
E(X ) = X̄
n
"
1
E(X 2 ) = n Xj2
j=1
nX̄
=⇒β̂ = n
! 2
(Xj −X̄ )
j=1

nX̄ 2
=⇒α̂ = n
! 2
(Xj −X̄ )
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 19 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments: Loi gamma G(α, β)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ G(α, β)
β α −βx α−1
f (x) = Γ(α) e x , x > 0, α, β > 0
& +∞
où Γ(α) = 0
e−x x α−1 dx
Or E(X ) = α
β et Var (X ) = α
β2
E(X ) = X̄
n
"
1
E(X 2 ) = n Xj2
j=1
nX̄
=⇒β̂ = n
! 2
(Xj −X̄ )
j=1

nX̄ 2
=⇒α̂ = n
! 2
(Xj −X̄ )
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 19 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments: Loi gamma G(α, β)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ G(α, β)
β α −βx α−1
f (x) = Γ(α) e x , x > 0, α, β > 0
& +∞
où Γ(α) = 0
e−x x α−1 dx
Or E(X ) = α
β et Var (X ) = α
β2
E(X ) = X̄
n
"
1
E(X 2 ) = n Xj2
j=1
nX̄
=⇒β̂ = n
! 2
(Xj −X̄ )
j=1

nX̄ 2
=⇒α̂ = n
! 2
(Xj −X̄ )
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 19 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments: Loi gamma G(α, β)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ G(α, β)
β α −βx α−1
f (x) = Γ(α) e x , x > 0, α, β > 0
& +∞
où Γ(α) = 0
e−x x α−1 dx
Or E(X ) = α
β et Var (X ) = α
β2
E(X ) = X̄
n
"
1
E(X 2 ) = n Xj2
j=1
nX̄
=⇒β̂ = n
! 2
(Xj −X̄ )
j=1

nX̄ 2
=⇒α̂ = n
! 2
(Xj −X̄ )
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 19 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments: Loi gamma G(α, β)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ G(α, β)
β α −βx α−1
f (x) = Γ(α) e x , x > 0, α, β > 0
& +∞
où Γ(α) = 0
e−x x α−1 dx
Or E(X ) = α
β et Var (X ) = α
β2
E(X ) = X̄
n
"
1
E(X 2 ) = n Xj2
j=1
nX̄
=⇒β̂ = n
! 2
(Xj −X̄ )
j=1

nX̄ 2
=⇒α̂ = n
! 2
(Xj −X̄ )
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 19 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments: Loi gamma G(α, β)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ G(α, β)
β α −βx α−1
f (x) = Γ(α) e x , x > 0, α, β > 0
& +∞
où Γ(α) = 0
e−x x α−1 dx
Or E(X ) = α
β et Var (X ) = α
β2
E(X ) = X̄
n
"
1
E(X 2 ) = n Xj2
j=1
nX̄
=⇒β̂ = n
! 2
(Xj −X̄ )
j=1

nX̄ 2
=⇒α̂ = n
! 2
(Xj −X̄ )
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 19 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments: Loi gamma G(α, β)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ G(α, β)
β α −βx α−1
f (x) = Γ(α) e x , x > 0, α, β > 0
& +∞
où Γ(α) = 0
e−x x α−1 dx
Or E(X ) = α
β et Var (X ) = α
β2
E(X ) = X̄
n
"
1
E(X 2 ) = n Xj2
j=1
nX̄
=⇒β̂ = n
! 2
(Xj −X̄ )
j=1

nX̄ 2
=⇒α̂ = n
! 2
(Xj −X̄ )
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 19 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments: Loi gamma G(α, β)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ G(α, β)
β α −βx α−1
f (x) = Γ(α) e x , x > 0, α, β > 0
& +∞
où Γ(α) = 0
e−x x α−1 dx
Or E(X ) = α
β et Var (X ) = α
β2
E(X ) = X̄
n
"
1
E(X 2 ) = n Xj2
j=1
nX̄
=⇒β̂ = n
! 2
(Xj −X̄ )
j=1

nX̄ 2
=⇒α̂ = n
! 2
(Xj −X̄ )
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 19 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments: Loi gamma G(α, β)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ G(α, β)
β α −βx α−1
f (x) = Γ(α) e x , x > 0, α, β > 0
& +∞
où Γ(α) = 0
e−x x α−1 dx
Or E(X ) = α
β et Var (X ) = α
β2
E(X ) = X̄
n
"
1
E(X 2 ) = n Xj2
j=1
nX̄
=⇒β̂ = n
! 2
(Xj −X̄ )
j=1

nX̄ 2
=⇒α̂ = n
! 2
(Xj −X̄ )
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 19 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode des moments: Loi gamma G(α, β)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ G(α, β)
β α −βx α−1
f (x) = Γ(α) e x , x > 0, α, β > 0
& +∞
où Γ(α) = 0
e−x x α−1 dx
Or E(X ) = α
β et Var (X ) = α
β2
E(X ) = X̄
n
"
1
E(X 2 ) = n Xj2
j=1
nX̄
=⇒β̂ = n
! 2
(Xj −X̄ )
j=1

nX̄ 2
=⇒α̂ = n
! 2
(Xj −X̄ )
j=1

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 19 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV

Définition
Soient X1 , X2 , · · · , Xn n v.a. i.i.d. de fonction de densité f (x, θ).
On appelle fonction de vraisemblance de θ, la fonction
n
'
L(θ) = f (xj , θ)
j=1

On appelle estimateur du maximum de vraisemblance la


statistique θMV = T (X1 , X2 , · · · , Xn ), telle que :

L(θMV ) = max L(θ)


θ

On prend la valeur de θ qui rend l’échantillon le plus probable.

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 20 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV

Définition
Soient X1 , X2 , · · · , Xn n v.a. i.i.d. de fonction de densité f (x, θ).
On appelle fonction de vraisemblance de θ, la fonction
n
'
L(θ) = f (xj , θ)
j=1

On appelle estimateur du maximum de vraisemblance la


statistique θMV = T (X1 , X2 , · · · , Xn ), telle que :

L(θMV ) = max L(θ)


θ

On prend la valeur de θ qui rend l’échantillon le plus probable.

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 20 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV

On cherche la valeur de θ fonction des observations


(x1 , x2 , · · · , xn ) qui assure la plus grande probabilité d’avoir ces
observations.

Si la fonction de vraissemblance est continue et deux fois


dérivable par rapport au paramètre θ, alors l’estimateur du
maximum de vraisemblance θMV est solution du système:
# ∂L $
MV = 0
(∂θ2 θ)
∂ L
∂θ 2 MV
<0
θ

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 21 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV

On cherche la valeur de θ fonction des observations


(x1 , x2 , · · · , xn ) qui assure la plus grande probabilité d’avoir ces
observations.

Si la fonction de vraissemblance est continue et deux fois


dérivable par rapport au paramètre θ, alors l’estimateur du
maximum de vraisemblance θMV est solution du système:
# ∂L $
MV = 0
(∂θ2 θ)
∂ L
∂θ 2 MV
<0
θ

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 21 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV

On cherche la valeur de θ fonction des observations


(x1 , x2 , · · · , xn ) qui assure la plus grande probabilité d’avoir ces
observations.

Si la fonction de vraissemblance est continue et deux fois


dérivable par rapport au paramètre θ, alors l’estimateur du
maximum de vraisemblance θMV est solution du système:
# ∂L $
MV = 0
(∂θ2 θ)
∂ L
∂θ 2 MV
<0
θ

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 21 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV

On cherche la valeur de θ fonction des observations


(x1 , x2 , · · · , xn ) qui assure la plus grande probabilité d’avoir ces
observations.

Si la fonction de vraissemblance est continue et deux fois


dérivable par rapport au paramètre θ, alors l’estimateur du
maximum de vraisemblance θMV est solution du système:
# ∂L $
MV = 0
(∂θ2 θ)
∂ L
∂θ 2 MV
<0
θ

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 21 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:

Loi de Poisson P(λ)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. de même loi que X , ∼ P(λ),
x
P(X = x) = e−λ λx! , x ∈ N, λ>0
n
!
xj
n
* j=1
L= P(Xj = xj ) = e−nλ λ"
n
j=1 xj !
j=1
n
" n
"
log(L) = −nλ + xj log(λ) − log(xj !)
j=1 j=1
En dérivant par rapport à λ on obtient:
=⇒λ̂MV = X̄ est un estimateur de λ par la méthode du
maximum de vraisemblance:

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 22 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:

Loi de Poisson P(λ)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. de même loi que X , ∼ P(λ),
x
P(X = x) = e−λ λx! , x ∈ N, λ>0
n
!
xj
n
* j=1
L= P(Xj = xj ) = e−nλ λ"
n
j=1 xj !
j=1
n
" n
"
log(L) = −nλ + xj log(λ) − log(xj !)
j=1 j=1
En dérivant par rapport à λ on obtient:
=⇒λ̂MV = X̄ est un estimateur de λ par la méthode du
maximum de vraisemblance:

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 22 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:

Loi de Poisson P(λ)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. de même loi que X , ∼ P(λ),
x
P(X = x) = e−λ λx! , x ∈ N, λ>0
n
!
xj
n
* j=1
L= P(Xj = xj ) = e−nλ λ"
n
j=1 xj !
j=1
n
" n
"
log(L) = −nλ + xj log(λ) − log(xj !)
j=1 j=1
En dérivant par rapport à λ on obtient:
=⇒λ̂MV = X̄ est un estimateur de λ par la méthode du
maximum de vraisemblance:

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 22 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:

Loi de Poisson P(λ)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. de même loi que X , ∼ P(λ),
x
P(X = x) = e−λ λx! , x ∈ N, λ>0
n
!
xj
n
* j=1
L= P(Xj = xj ) = e−nλ λ"
n
j=1 xj !
j=1
n
" n
"
log(L) = −nλ + xj log(λ) − log(xj !)
j=1 j=1
En dérivant par rapport à λ on obtient:
=⇒λ̂MV = X̄ est un estimateur de λ par la méthode du
maximum de vraisemblance:

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 22 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:

Loi de Poisson P(λ)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. de même loi que X , ∼ P(λ),
x
P(X = x) = e−λ λx! , x ∈ N, λ>0
n
!
xj
n
* j=1
L= P(Xj = xj ) = e−nλ λ"
n
j=1 xj !
j=1
n
" n
"
log(L) = −nλ + xj log(λ) − log(xj !)
j=1 j=1
En dérivant par rapport à λ on obtient:
=⇒λ̂MV = X̄ est un estimateur de λ par la méthode du
maximum de vraisemblance:

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 22 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:

Loi de Poisson P(λ)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. de même loi que X , ∼ P(λ),
x
P(X = x) = e−λ λx! , x ∈ N, λ>0
n
!
xj
n
* j=1
L= P(Xj = xj ) = e−nλ λ"
n
j=1 xj !
j=1
n
" n
"
log(L) = −nλ + xj log(λ) − log(xj !)
j=1 j=1
En dérivant par rapport à λ on obtient:
=⇒λ̂MV = X̄ est un estimateur de λ par la méthode du
maximum de vraisemblance:

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 22 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:

Loi de Poisson P(λ)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. de même loi que X , ∼ P(λ),
x
P(X = x) = e−λ λx! , x ∈ N, λ>0
n
!
xj
n
* j=1
L= P(Xj = xj ) = e−nλ λ"
n
j=1 xj !
j=1
n
" n
"
log(L) = −nλ + xj log(λ) − log(xj !)
j=1 j=1
En dérivant par rapport à λ on obtient:
=⇒λ̂MV = X̄ est un estimateur de λ par la méthode du
maximum de vraisemblance:

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 22 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:

Loi de Poisson P(λ)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. de même loi que X , ∼ P(λ),
x
P(X = x) = e−λ λx! , x ∈ N, λ>0
n
!
xj
n
* j=1
L= P(Xj = xj ) = e−nλ λ"
n
j=1 xj !
j=1
n
" n
"
log(L) = −nλ + xj log(λ) − log(xj !)
j=1 j=1
En dérivant par rapport à λ on obtient:
=⇒λ̂MV = X̄ est un estimateur de λ par la méthode du
maximum de vraisemblance:

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 22 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:

Loi exponentielle Exp(θ)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ Exp(θ),
x
f (x, θ) = θ1 e− θ , x >0
 n
! 
n xj
* 1 j=1
L= f (xj , θ) = − 
θ n exp θ
j=1
n
!
xj
j=1
log(L) = −n log(θ) − θ
En dérivant par rapport à θ on obtient:
=⇒θ̂MV = X̄

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 23 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:

Loi exponentielle Exp(θ)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ Exp(θ),
x
f (x, θ) = θ1 e− θ , x >0
 n
! 
n xj
* 1 j=1
L= f (xj , θ) = − 
θ n exp θ
j=1
n
!
xj
j=1
log(L) = −n log(θ) − θ
En dérivant par rapport à θ on obtient:
=⇒θ̂MV = X̄

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 23 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:

Loi exponentielle Exp(θ)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ Exp(θ),
x
f (x, θ) = θ1 e− θ , x >0
 n
! 
n xj
* 1 j=1
L= f (xj , θ) = − 
θ n exp θ
j=1
n
!
xj
j=1
log(L) = −n log(θ) − θ
En dérivant par rapport à θ on obtient:
=⇒θ̂MV = X̄

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 23 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:

Loi exponentielle Exp(θ)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ Exp(θ),
x
f (x, θ) = θ1 e− θ , x >0
 n
! 
n xj
* 1 j=1
L= f (xj , θ) = − 
θ n exp θ
j=1
n
!
xj
j=1
log(L) = −n log(θ) − θ
En dérivant par rapport à θ on obtient:
=⇒θ̂MV = X̄

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 23 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:

Loi exponentielle Exp(θ)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ Exp(θ),
x
f (x, θ) = θ1 e− θ , x >0
 n
! 
n xj
* 1 j=1
L= f (xj , θ) = − 
θ n exp θ
j=1
n
!
xj
j=1
log(L) = −n log(θ) − θ
En dérivant par rapport à θ on obtient:
=⇒θ̂MV = X̄

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 23 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:

Loi exponentielle Exp(θ)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ Exp(θ),
x
f (x, θ) = θ1 e− θ , x >0
 n
! 
n xj
* 1 j=1
L= f (xj , θ) = − 
θ n exp θ
j=1
n
!
xj
j=1
log(L) = −n log(θ) − θ
En dérivant par rapport à θ on obtient:
=⇒θ̂MV = X̄

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 23 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:

Loi exponentielle Exp(θ)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ Exp(θ),
x
f (x, θ) = θ1 e− θ , x >0
 n
! 
n xj
* 1 j=1
L= f (xj , θ) = − 
θ n exp θ
j=1
n
!
xj
j=1
log(L) = −n log(θ) − θ
En dérivant par rapport à θ on obtient:
=⇒θ̂MV = X̄

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 23 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:

Loi exponentielle Exp(θ)

Exemple
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ Exp(θ),
x
f (x, θ) = θ1 e− θ , x >0
 n
! 
n xj
* 1 j=1
L= f (xj , θ) = − 
θ n exp θ
j=1
n
!
xj
j=1
log(L) = −n log(θ) − θ
En dérivant par rapport à θ on obtient:
=⇒θ̂MV = X̄

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 23 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV


Exemple : Loi normale
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ N (µ, σ 2 )
1 2
√1 e 2σ2

f (x, µ, σ 2 ) = σ 2π
(x−µ)
, x ∈R
n
!
− 12 (xj −µ)2
L = ( σ√12π )n e

j=1

n
"
log(L) = n log( √12π ) − n
2 log(σ 2 ) − 1
2σ 2
(xj − µ)2
j=1
En dérivant par rapport à µ et σ 2 , on obtient:
n "
! #
Xj −µ
σ2
=0
j=1
n
!
− 2σn 2 + 1
2σ 4
(Xj − µ)2 = 0
j=1
n
! 2
(Xj −X̄ )
=⇒ µ̂MV = X̄ , et 2 =
σ̂MV
j=1
n

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 24 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV


Exemple : Loi normale
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ N (µ, σ 2 )
1 2
√1 e 2σ2

f (x, µ, σ 2 ) = σ 2π
(x−µ)
, x ∈R
n
!
− 12 (xj −µ)2
L = ( σ√12π )n e

j=1

n
"
log(L) = n log( √12π ) − n
2 log(σ 2 ) − 1
2σ 2
(xj − µ)2
j=1
En dérivant par rapport à µ et σ 2 , on obtient:
n "
! #
Xj −µ
σ2
=0
j=1
n
!
− 2σn 2 + 1
2σ 4
(Xj − µ)2 = 0
j=1
n
! 2
(Xj −X̄ )
=⇒ µ̂MV = X̄ , et 2 =
σ̂MV
j=1
n

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 24 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV


Exemple : Loi normale
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ N (µ, σ 2 )
1 2
√1 e 2σ2

f (x, µ, σ 2 ) = σ 2π
(x−µ)
, x ∈R
n
!
− 12 (xj −µ)2
L = ( σ√12π )n e

j=1

n
"
log(L) = n log( √12π ) − n
2 log(σ 2 ) − 1
2σ 2
(xj − µ)2
j=1
En dérivant par rapport à µ et σ 2 , on obtient:
n "
! #
Xj −µ
σ2
=0
j=1
n
!
− 2σn 2 + 1
2σ 4
(Xj − µ)2 = 0
j=1
n
! 2
(Xj −X̄ )
=⇒ µ̂MV = X̄ , et 2 =
σ̂MV
j=1
n

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 24 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV


Exemple : Loi normale
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ N (µ, σ 2 )
1 2
√1 e 2σ2

f (x, µ, σ 2 ) = σ 2π
(x−µ)
, x ∈R
n
!
− 12 (xj −µ)2
L = ( σ√12π )n e

j=1

n
"
log(L) = n log( √12π ) − n
2 log(σ 2 ) − 1
2σ 2
(xj − µ)2
j=1
En dérivant par rapport à µ et σ 2 , on obtient:
n "
! #
Xj −µ
σ2
=0
j=1
n
!
− 2σn 2 + 1
2σ 4
(Xj − µ)2 = 0
j=1
n
! 2
(Xj −X̄ )
=⇒ µ̂MV = X̄ , et 2 =
σ̂MV
j=1
n

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 24 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV


Exemple : Loi normale
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ N (µ, σ 2 )
1 2
√1 e 2σ2

f (x, µ, σ 2 ) = σ 2π
(x−µ)
, x ∈R
n
!
− 12 (xj −µ)2
L = ( σ√12π )n e

j=1

n
"
log(L) = n log( √12π ) − n
2 log(σ 2 ) − 1
2σ 2
(xj − µ)2
j=1
En dérivant par rapport à µ et σ 2 , on obtient:
n "
! #
Xj −µ
σ2
=0
j=1
n
!
− 2σn 2 + 1
2σ 4
(Xj − µ)2 = 0
j=1
n
! 2
(Xj −X̄ )
=⇒ µ̂MV = X̄ , et 2 =
σ̂MV
j=1
n

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 24 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV


Exemple : Loi normale
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ N (µ, σ 2 )
1 2
√1 e 2σ2

f (x, µ, σ 2 ) = σ 2π
(x−µ)
, x ∈R
n
!
− 12 (xj −µ)2
L = ( σ√12π )n e

j=1

n
"
log(L) = n log( √12π ) − n
2 log(σ 2 ) − 1
2σ 2
(xj − µ)2
j=1
En dérivant par rapport à µ et σ 2 , on obtient:
n "
! #
Xj −µ
σ2
=0
j=1
n
!
− 2σn 2 + 1
2σ 4
(Xj − µ)2 = 0
j=1
n
! 2
(Xj −X̄ )
=⇒ µ̂MV = X̄ , et 2 =
σ̂MV
j=1
n

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 24 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV


Exemple : Loi normale
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ N (µ, σ 2 )
1 2
√1 e 2σ2

f (x, µ, σ 2 ) = σ 2π
(x−µ)
, x ∈R
n
!
− 12 (xj −µ)2
L = ( σ√12π )n e

j=1

n
"
log(L) = n log( √12π ) − n
2 log(σ 2 ) − 1
2σ 2
(xj − µ)2
j=1
En dérivant par rapport à µ et σ 2 , on obtient:
n "
! #
Xj −µ
σ2
=0
j=1
n
!
− 2σn 2 + 1
2σ 4
(Xj − µ)2 = 0
j=1
n
! 2
(Xj −X̄ )
=⇒ µ̂MV = X̄ , et 2 =
σ̂MV
j=1
n

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 24 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV


Exemple : Loi normale
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ N (µ, σ 2 )
1 2
√1 e 2σ2

f (x, µ, σ 2 ) = σ 2π
(x−µ)
, x ∈R
n
!
− 12 (xj −µ)2
L = ( σ√12π )n e

j=1

n
"
log(L) = n log( √12π ) − n
2 log(σ 2 ) − 1
2σ 2
(xj − µ)2
j=1
En dérivant par rapport à µ et σ 2 , on obtient:
n "
! #
Xj −µ
σ2
=0
j=1
n
!
− 2σn 2 + 1
2σ 4
(Xj − µ)2 = 0
j=1
n
! 2
(Xj −X̄ )
=⇒ µ̂MV = X̄ , et 2 =
σ̂MV
j=1
n

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 24 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV


Exemple : Loi normale
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ N (µ, σ 2 )
1 2
√1 e 2σ2

f (x, µ, σ 2 ) = σ 2π
(x−µ)
, x ∈R
n
!
− 12 (xj −µ)2
L = ( σ√12π )n e

j=1

n
"
log(L) = n log( √12π ) − n
2 log(σ 2 ) − 1
2σ 2
(xj − µ)2
j=1
En dérivant par rapport à µ et σ 2 , on obtient:
n "
! #
Xj −µ
σ2
=0
j=1
n
!
− 2σn 2 + 1
2σ 4
(Xj − µ)2 = 0
j=1
n
! 2
(Xj −X̄ )
=⇒ µ̂MV = X̄ , et 2 =
σ̂MV
j=1
n

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 24 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV


Exemple : Loi uniforme
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ U(0, θ)
f (x, θ) = θ1 I[0,θ] (x)
*n
L = θ1n I[0,θ] (xj ) n’est pas dérivable par rapport à θ :
j=1
L(x1 , x2 , · · · , xn , θ) = θ1n I[0,∞) (x(1) )I(−∞,θ] (x(n) )
Si θ ≥ x(n) : L = θ1n est décroissante
Si θ < x(n) : L = 0

Le maximum est donc atteint pout θ = X(n)


=⇒ θ̂MV = X(n)

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 25 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV


Exemple : Loi uniforme
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ U(0, θ)
f (x, θ) = θ1 I[0,θ] (x)
*n
L = θ1n I[0,θ] (xj ) n’est pas dérivable par rapport à θ :
j=1
L(x1 , x2 , · · · , xn , θ) = θ1n I[0,∞) (x(1) )I(−∞,θ] (x(n) )
Si θ ≥ x(n) : L = θ1n est décroissante
Si θ < x(n) : L = 0

Le maximum est donc atteint pout θ = X(n)


=⇒ θ̂MV = X(n)

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 25 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV


Exemple : Loi uniforme
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ U(0, θ)
f (x, θ) = θ1 I[0,θ] (x)
*n
L = θ1n I[0,θ] (xj ) n’est pas dérivable par rapport à θ :
j=1
L(x1 , x2 , · · · , xn , θ) = θ1n I[0,∞) (x(1) )I(−∞,θ] (x(n) )
Si θ ≥ x(n) : L = θ1n est décroissante
Si θ < x(n) : L = 0

Le maximum est donc atteint pout θ = X(n)


=⇒ θ̂MV = X(n)

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 25 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV


Exemple : Loi uniforme
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ U(0, θ)
f (x, θ) = θ1 I[0,θ] (x)
*n
L = θ1n I[0,θ] (xj ) n’est pas dérivable par rapport à θ :
j=1
L(x1 , x2 , · · · , xn , θ) = θ1n I[0,∞) (x(1) )I(−∞,θ] (x(n) )
Si θ ≥ x(n) : L = θ1n est décroissante
Si θ < x(n) : L = 0

Le maximum est donc atteint pout θ = X(n)


=⇒ θ̂MV = X(n)

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 25 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV


Exemple : Loi uniforme
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ U(0, θ)
f (x, θ) = θ1 I[0,θ] (x)
*n
L = θ1n I[0,θ] (xj ) n’est pas dérivable par rapport à θ :
j=1
L(x1 , x2 , · · · , xn , θ) = θ1n I[0,∞) (x(1) )I(−∞,θ] (x(n) )
Si θ ≥ x(n) : L = θ1n est décroissante
Si θ < x(n) : L = 0

Le maximum est donc atteint pout θ = X(n)


=⇒ θ̂MV = X(n)

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 25 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV


Exemple : Loi uniforme
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ U(0, θ)
f (x, θ) = θ1 I[0,θ] (x)
*n
L = θ1n I[0,θ] (xj ) n’est pas dérivable par rapport à θ :
j=1
L(x1 , x2 , · · · , xn , θ) = θ1n I[0,∞) (x(1) )I(−∞,θ] (x(n) )
Si θ ≥ x(n) : L = θ1n est décroissante
Si θ < x(n) : L = 0

Le maximum est donc atteint pout θ = X(n)


=⇒ θ̂MV = X(n)

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 25 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV


Exemple : Loi uniforme
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ U(0, θ)
f (x, θ) = θ1 I[0,θ] (x)
*n
L = θ1n I[0,θ] (xj ) n’est pas dérivable par rapport à θ :
j=1
L(x1 , x2 , · · · , xn , θ) = θ1n I[0,∞) (x(1) )I(−∞,θ] (x(n) )
Si θ ≥ x(n) : L = θ1n est décroissante
Si θ < x(n) : L = 0

Le maximum est donc atteint pout θ = X(n)


=⇒ θ̂MV = X(n)

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 25 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV


Exemple : Loi uniforme
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ U(0, θ)
f (x, θ) = θ1 I[0,θ] (x)
*n
L = θ1n I[0,θ] (xj ) n’est pas dérivable par rapport à θ :
j=1
L(x1 , x2 , · · · , xn , θ) = θ1n I[0,∞) (x(1) )I(−∞,θ] (x(n) )
Si θ ≥ x(n) : L = θ1n est décroissante
Si θ < x(n) : L = 0

Le maximum est donc atteint pout θ = X(n)


=⇒ θ̂MV = X(n)

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 25 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV


Exemple : Loi uniforme
Soient X1 , · · · , Xn n v.a. i.i.d. ∼ U(0, θ)
f (x, θ) = θ1 I[0,θ] (x)
*n
L = θ1n I[0,θ] (xj ) n’est pas dérivable par rapport à θ :
j=1
L(x1 , x2 , · · · , xn , θ) = θ1n I[0,∞) (x(1) )I(−∞,θ] (x(n) )
Si θ ≥ x(n) : L = θ1n est décroissante
Si θ < x(n) : L = 0

Le maximum est donc atteint pout θ = X(n)


=⇒ θ̂MV = X(n)

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 25 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance: MV

Exemple : Loi uniforme: Suite


θ̂MV = X(n) est-il un estimateur sans biais??
n
FX(n) = ( xθ )
n
E(X(n) ) = n+1 θ
E(X(n) ) '= θ
=⇒ θ̂MV = X(n) n’est pas un estimateur sans biais.
n+1
=⇒ n X(n) un estimateur sans biais de θ.

=⇒ l’EMV n’est pas toujours sans biais

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 26 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance: MV

Exemple : Loi uniforme: Suite


θ̂MV = X(n) est-il un estimateur sans biais??
n
FX(n) = ( xθ )
n
E(X(n) ) = n+1 θ
E(X(n) ) '= θ
=⇒ θ̂MV = X(n) n’est pas un estimateur sans biais.
n+1
=⇒ n X(n) un estimateur sans biais de θ.

=⇒ l’EMV n’est pas toujours sans biais

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 26 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance: MV

Exemple : Loi uniforme: Suite


θ̂MV = X(n) est-il un estimateur sans biais??
n
FX(n) = ( xθ )
n
E(X(n) ) = n+1 θ
E(X(n) ) '= θ
=⇒ θ̂MV = X(n) n’est pas un estimateur sans biais.
n+1
=⇒ n X(n) un estimateur sans biais de θ.

=⇒ l’EMV n’est pas toujours sans biais

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 26 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance: MV

Exemple : Loi uniforme: Suite


θ̂MV = X(n) est-il un estimateur sans biais??
n
FX(n) = ( xθ )
n
E(X(n) ) = n+1 θ
E(X(n) ) '= θ
=⇒ θ̂MV = X(n) n’est pas un estimateur sans biais.
n+1
=⇒ n X(n) un estimateur sans biais de θ.

=⇒ l’EMV n’est pas toujours sans biais

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 26 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance: MV

Exemple : Loi uniforme: Suite


θ̂MV = X(n) est-il un estimateur sans biais??
n
FX(n) = ( xθ )
n
E(X(n) ) = n+1 θ
E(X(n) ) '= θ
=⇒ θ̂MV = X(n) n’est pas un estimateur sans biais.
n+1
=⇒ n X(n) un estimateur sans biais de θ.

=⇒ l’EMV n’est pas toujours sans biais

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 26 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance: MV

Exemple : Loi uniforme: Suite


θ̂MV = X(n) est-il un estimateur sans biais??
n
FX(n) = ( xθ )
n
E(X(n) ) = n+1 θ
E(X(n) ) '= θ
=⇒ θ̂MV = X(n) n’est pas un estimateur sans biais.
n+1
=⇒ n X(n) un estimateur sans biais de θ.

=⇒ l’EMV n’est pas toujours sans biais

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 26 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance: MV

Exemple : Loi uniforme: Suite


θ̂MV = X(n) est-il un estimateur sans biais??
n
FX(n) = ( xθ )
n
E(X(n) ) = n+1 θ
E(X(n) ) '= θ
=⇒ θ̂MV = X(n) n’est pas un estimateur sans biais.
n+1
=⇒ n X(n) un estimateur sans biais de θ.

=⇒ l’EMV n’est pas toujours sans biais

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 26 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance: MV

Exemple : Loi uniforme: Suite


θ̂MV = X(n) est-il un estimateur sans biais??
n
FX(n) = ( xθ )
n
E(X(n) ) = n+1 θ
E(X(n) ) '= θ
=⇒ θ̂MV = X(n) n’est pas un estimateur sans biais.
n+1
=⇒ n X(n) un estimateur sans biais de θ.

=⇒ l’EMV n’est pas toujours sans biais

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 26 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance: MV

Exemple : Loi uniforme: Suite


θ̂MV = X(n) est-il un estimateur sans biais??
n
FX(n) = ( xθ )
n
E(X(n) ) = n+1 θ
E(X(n) ) '= θ
=⇒ θ̂MV = X(n) n’est pas un estimateur sans biais.
n+1
=⇒ n X(n) un estimateur sans biais de θ.

=⇒ l’EMV n’est pas toujours sans biais

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 26 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance: MV

Exemple : Loi uniforme: Suite


θ̂MV = X(n) est-il un estimateur sans biais??
n
FX(n) = ( xθ )
n
E(X(n) ) = n+1 θ
E(X(n) ) '= θ
=⇒ θ̂MV = X(n) n’est pas un estimateur sans biais.
n+1
=⇒ n X(n) un estimateur sans biais de θ.

=⇒ l’EMV n’est pas toujours sans biais

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 26 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV

Exemple : Loi uniforme


Soient X1 , · · · , Xn n v.a. i.i.d. ∼ U(θ, θ + 1)
f (x, θ) = I[θ,θ+1] (x)

L(x1 , x2 , · · · , xn , θ) = I(x(n) −1≤θ≤x(1) )


# $
=⇒ θ̂MV = X(n) − 1, X(1)

=⇒ l’EMV n’est pas toujours unique.

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 27 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV

Exemple : Loi uniforme


Soient X1 , · · · , Xn n v.a. i.i.d. ∼ U(θ, θ + 1)
f (x, θ) = I[θ,θ+1] (x)

L(x1 , x2 , · · · , xn , θ) = I(x(n) −1≤θ≤x(1) )


# $
=⇒ θ̂MV = X(n) − 1, X(1)

=⇒ l’EMV n’est pas toujours unique.

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 27 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV

Exemple : Loi uniforme


Soient X1 , · · · , Xn n v.a. i.i.d. ∼ U(θ, θ + 1)
f (x, θ) = I[θ,θ+1] (x)

L(x1 , x2 , · · · , xn , θ) = I(x(n) −1≤θ≤x(1) )


# $
=⇒ θ̂MV = X(n) − 1, X(1)

=⇒ l’EMV n’est pas toujours unique.

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 27 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV

Exemple : Loi uniforme


Soient X1 , · · · , Xn n v.a. i.i.d. ∼ U(θ, θ + 1)
f (x, θ) = I[θ,θ+1] (x)

L(x1 , x2 , · · · , xn , θ) = I(x(n) −1≤θ≤x(1) )


# $
=⇒ θ̂MV = X(n) − 1, X(1)

=⇒ l’EMV n’est pas toujours unique.

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 27 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV

Exemple : Loi uniforme


Soient X1 , · · · , Xn n v.a. i.i.d. ∼ U(θ, θ + 1)
f (x, θ) = I[θ,θ+1] (x)

L(x1 , x2 , · · · , xn , θ) = I(x(n) −1≤θ≤x(1) )


# $
=⇒ θ̂MV = X(n) − 1, X(1)

=⇒ l’EMV n’est pas toujours unique.

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 27 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV

Exemple : Loi uniforme


Soient X1 , · · · , Xn n v.a. i.i.d. ∼ U(θ, θ + 1)
f (x, θ) = I[θ,θ+1] (x)

L(x1 , x2 , · · · , xn , θ) = I(x(n) −1≤θ≤x(1) )


# $
=⇒ θ̂MV = X(n) − 1, X(1)

=⇒ l’EMV n’est pas toujours unique.

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 27 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:MV

Exemple : Loi uniforme


Soient X1 , · · · , Xn n v.a. i.i.d. ∼ U(θ, θ + 1)
f (x, θ) = I[θ,θ+1] (x)

L(x1 , x2 , · · · , xn , θ) = I(x(n) −1≤θ≤x(1) )


# $
=⇒ θ̂MV = X(n) − 1, X(1)

=⇒ l’EMV n’est pas toujours unique.

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 27 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Exemple
Nous observons les sinistres suivants en assurance
auto:100,210,510,340,720,210,310,120,240,460,260,180
On modélise les montants des sinistres par une v.a. X
On suppose que X ∼ N (µ, σ 2 )
Estimer µ et σ 2 par la méthode des moments et du MV
On suppose que X ∼ Exp(θ)
Estimer θ par la méthode des moments et du MV
On suppose que X ∼ U(0, θ)
Estimer θ par la méthode des moments et du MV

Solution:

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 28 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Exemple
Nous observons les sinistres suivants en assurance
auto:100,210,510,340,720,210,310,120,240,460,260,180
On modélise les montants des sinistres par une v.a. X
On suppose que X ∼ N (µ, σ 2 )
Estimer µ et σ 2 par la méthode des moments et du MV
On suppose que X ∼ Exp(θ)
Estimer θ par la méthode des moments et du MV
On suppose que X ∼ U(0, θ)
Estimer θ par la méthode des moments et du MV

Solution:

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 28 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Exemple
Nous observons les sinistres suivants en assurance
auto:100,210,510,340,720,210,310,120,240,460,260,180
On modélise les montants des sinistres par une v.a. X
On suppose que X ∼ N (µ, σ 2 )
Estimer µ et σ 2 par la méthode des moments et du MV
On suppose que X ∼ Exp(θ)
Estimer θ par la méthode des moments et du MV
On suppose que X ∼ U(0, θ)
Estimer θ par la méthode des moments et du MV

Solution:

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 28 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Exemple
Nous observons les sinistres suivants en assurance
auto:100,210,510,340,720,210,310,120,240,460,260,180
On modélise les montants des sinistres par une v.a. X
On suppose que X ∼ N (µ, σ 2 )
Estimer µ et σ 2 par la méthode des moments et du MV
On suppose que X ∼ Exp(θ)
Estimer θ par la méthode des moments et du MV
On suppose que X ∼ U(0, θ)
Estimer θ par la méthode des moments et du MV

Solution:

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 28 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Exemple
Nous observons les sinistres suivants en assurance
auto:100,210,510,340,720,210,310,120,240,460,260,180
On modélise les montants des sinistres par une v.a. X
On suppose que X ∼ N (µ, σ 2 )
Estimer µ et σ 2 par la méthode des moments et du MV
On suppose que X ∼ Exp(θ)
Estimer θ par la méthode des moments et du MV
On suppose que X ∼ U(0, θ)
Estimer θ par la méthode des moments et du MV

Solution:

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 28 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Exemple
Nous observons les sinistres suivants en assurance
auto:100,210,510,340,720,210,310,120,240,460,260,180
On modélise les montants des sinistres par une v.a. X
On suppose que X ∼ N (µ, σ 2 )
Estimer µ et σ 2 par la méthode des moments et du MV
On suppose que X ∼ Exp(θ)
Estimer θ par la méthode des moments et du MV
On suppose que X ∼ U(0, θ)
Estimer θ par la méthode des moments et du MV

Solution:

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 28 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Exemple
Nous observons les sinistres suivants en assurance
auto:100,210,510,340,720,210,310,120,240,460,260,180
On modélise les montants des sinistres par une v.a. X
On suppose que X ∼ N (µ, σ 2 )
Estimer µ et σ 2 par la méthode des moments et du MV
On suppose que X ∼ Exp(θ)
Estimer θ par la méthode des moments et du MV
On suppose que X ∼ U(0, θ)
Estimer θ par la méthode des moments et du MV

Solution:

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 28 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Exemple
Nous observons les sinistres suivants en assurance
auto:100,210,510,340,720,210,310,120,240,460,260,180
On modélise les montants des sinistres par une v.a. X
On suppose que X ∼ N (µ, σ 2 )
Estimer µ et σ 2 par la méthode des moments et du MV
On suppose que X ∼ Exp(θ)
Estimer θ par la méthode des moments et du MV
On suppose que X ∼ U(0, θ)
Estimer θ par la méthode des moments et du MV

Solution:

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 28 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Exemple
Nous observons les sinistres suivants en assurance
auto:100,210,510,340,720,210,310,120,240,460,260,180
On modélise les montants des sinistres par une v.a. X
On suppose que X ∼ N (µ, σ 2 )
Estimer µ et σ 2 par la méthode des moments et du MV
On suppose que X ∼ Exp(θ)
Estimer θ par la méthode des moments et du MV
On suppose que X ∼ U(0, θ)
Estimer θ par la méthode des moments et du MV

Solution:

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 28 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 29 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:EMV

Principe d’invariance
Si θ̂ est l’EMV de θ alors l’EMV de h(θ) est h(θ̂)
Exemple:
Nous observons les sinistres suivants en assurance auto:

100, 210, 510, 340, 720, 210, 310, 120, 240, 460, 260, 180

On modélise les montants des sinistres par X ∼ N (µ, σ 2 )


Donner une estimation par la méthode du MV de la
probabilité que le montant des sinistres soit supérieur à
230?

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 30 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:EMV

Principe d’invariance
Si θ̂ est l’EMV de θ alors l’EMV de h(θ) est h(θ̂)
Exemple:
Nous observons les sinistres suivants en assurance auto:

100, 210, 510, 340, 720, 210, 310, 120, 240, 460, 260, 180

On modélise les montants des sinistres par X ∼ N (µ, σ 2 )


Donner une estimation par la méthode du MV de la
probabilité que le montant des sinistres soit supérieur à
230?

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 30 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:EMV

Principe d’invariance
Si θ̂ est l’EMV de θ alors l’EMV de h(θ) est h(θ̂)
Exemple:
Nous observons les sinistres suivants en assurance auto:

100, 210, 510, 340, 720, 210, 310, 120, 240, 460, 260, 180

On modélise les montants des sinistres par X ∼ N (µ, σ 2 )


Donner une estimation par la méthode du MV de la
probabilité que le montant des sinistres soit supérieur à
230?

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 30 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:EMV

Principe d’invariance
Si θ̂ est l’EMV de θ alors l’EMV de h(θ) est h(θ̂)
Exemple:
Nous observons les sinistres suivants en assurance auto:

100, 210, 510, 340, 720, 210, 310, 120, 240, 460, 260, 180

On modélise les montants des sinistres par X ∼ N (µ, σ 2 )


Donner une estimation par la méthode du MV de la
probabilité que le montant des sinistres soit supérieur à
230?

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 30 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Méthode du maximum de vraisemblance:EMV

Principe d’invariance
Si θ̂ est l’EMV de θ alors l’EMV de h(θ) est h(θ̂)
Exemple:
Nous observons les sinistres suivants en assurance auto:

100, 210, 510, 340, 720, 210, 310, 120, 240, 460, 260, 180

On modélise les montants des sinistres par X ∼ N (µ, σ 2 )


Donner une estimation par la méthode du MV de la
probabilité que le montant des sinistres soit supérieur à
230?

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 30 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 31 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Exercices
Exercice 1
Soient X1 , · · · , Xn n v.a. i.i.d. de densité

1 −|x−θ|
f (x) = e , θ ∈ R, x ∈R
2
Trouver un estimateur de θ par la méthode des moments et du
maximum de vraisemblance.
Solution:

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 32 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 33 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 34 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 35 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Exercice 2
Soient X1 , · · · , Xn n v.a. i.i.d. de densité

f (x) = θx θ−1 , , θ > 0, 0 < x < 1.

Trouver un estimateur de θ par la méthode des moments et du


maximum de vraisemblance.
Solution:

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 36 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 37 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 38 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Exercice 3
Soient X1 , · · · , Xn n v.a. i.i.d. de densité

f (x) = e−(x−θ) , , x ≥ θ.

Trouver un estimateur de θ par la méthode des moments et du


maximum de vraisemblance.
Solution:

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 39 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 40 / 62


Chap. 1. Statistiques d’ordres
Chap. 2. Estimation ponctuelle optimale

Fouad Marri, fmarri@insea.ac.ma INFÉRENCE STATISTIQUE 41 / 62