Vous êtes sur la page 1sur 16

MINISTERE DE L’ENSEIGNEMENT BURKINA FASO

SUPERIEUR DE LA RECHERCHE
SCIENTIFIQUE ET DE L’INNOVATION *-*-*-*-*-*
Unité-Progrès-Justice
*-*-*-*-*-*-*-*-*-*-*-*-*-*

UNIVERSITE JOSEPH KI ZERBO


(UJKZ)

*-*-*-*-*-*-*-*-*-*-*-*-*-*

INSTITUT SUPERIEUR DES SCIENCES


DE LA POPULATION (ISSP)

* -*-*-*-*-*-*-*-*-*-*-*-*-*

NIVEAU : MASTER I

ESTIMATION PARAMETRIQUE PAR INTERVALLE DE


CONFIANCE

Membres du groupe

Nom Prénoms
BARRY Belko
COULIBALY Lombo Gildas
DAH Fongnéma

Enseignant : Dr LOUGUE, enseignant en théorie des estimations à


l’ISSP

Année académique : 2021-2022

Table des matières


OBJECTIF GENERALE............................................................................................................1
Objectifs spécifiques...................................................................................................................2
Acquis attendus...........................................................................................................................3
INTRODUCTION......................................................................................................................4
Définition : Procédure d’Intervalle de Confiance.......................................................................5
I. Méthodes de la fonction pivot..........................................................................................8
Définition : Fonction pivot..........................................................................................................8
II. Méthode asymptotique.....................................................................................................8
III. Construction des IC classiques....................................................................................9
1. IC pour la moyenne d’une loi ℵ( μ , σ 2).......................................................................9
2. IC pour la variance σ 2 d’une loi de Gauss...............................................................10
3. IC sur le paramètre p d’une loi de Bernoulli.............................................................11
I. Méthode d’estimateur du maximum de vraisemblance.................................................12
Définition :................................................................................................................................12
CONCLUSION GENERALE...................................................................................................13
BIBLIOGRAPHIE....................................................................................................................14
OBJECTIF GENERALE
L’objectif de ce travail est de donner un ensemble de valeurs plausibles pour θ
essentiellement sous forme d’un intervalle. Dans le vocabulaire courant, pour les sondages
notamment, c’est l’idée de « fourchette ».

1
Objectifs spécifiques
 Présenter l’intérêt de l’estimation paramétrique par intervalle de confiance ;
 Apprendre à réaliser et interpréter une estimation paramétrique par intervalle de
confiance ;
 Etc …

2
Acquis attendus
 Savoir la différence entre estimation paramétrique et estimation non paramétrique ;
 Savoir la différence entre un estimateur et une estimation ;
 Savoir la différence entre approche ponctuelle et approche par intervalle de confiance ;
 Savoir choisir le meilleur estimateur ;
 Savoir ce qu’est un intervalle de confiance et son utilité ;
 Etc …

3
INTRODUCTION
Une estimation est une valeur spécifique ou une quantité obtenue pour une statistique telle
que la moyenne de l’échantillon, le pourcentage de l’échantillon, la variance de l’échantillon.

L’estimation est également un processus qui consiste à produire une estimation d’un
paramètre de la population.

L’estimateur est une statistique qui est utilisée pour estimer un paramètre. Par exemple, la
moyenne de l’échantillon X est un estimateur de la moyenne μ. Cela est expliqué dans le
tableau ci-dessous.

Tableau 1  : Tableau des estimateurs et des estimations


CORRESPONDANCE POPULATION ECHANTILLON
MOYENNE μ X
VARIANCE σ2 S2
ECART TYPE σ S
TAILLE N n
POURCENTAGE π p

Un estimateur sans biais est un estimateur pour lequel la distribution d’échantillonnage a une
moyenne qui est égale au paramètre de la population qui est estimé.

L’estimation ponctuelle est une estimation où l’estimateur est un simple nombre utilisé pour
estimer un paramètre de population.

L’approche ponctuelle a pour objectif de donner une valeur unique pour estimer le paramètre
inconnu θ tandis que celle par intervalle de confiance consiste à donner un ensemble de
valeurs plausibles pour θ essentiellement sous forme d’un intervalle en s’appuyant pour
beaucoup sur les résultats de la première.

L’estimation par intervalle est une estimation où l’estimateur est une étendue de valeurs
utilisée pour estimer un paramètre de population.

L'estimation paramétrique est souvent perçue comme l'une des méthodes d'estimation les plus
précises et les plus fiables, mais elle nécessite un effort important dès le départ.

Un intervalle de confiance est un intervalle de valeur à l’intérieur duquel la valeur exacte de


l’estimateur se trouve probablement. Exemple :

4
L’essentiel du travail sera consacré au développement et à la construction des intervalles de
confiance. Ainsi, Pour celle-ci nous verrons tout d’abord une méthode générale exacte, mais
qui est subordonnée à l’existence d’une « fonction pivot », et ensuite une méthode
asymptotique de portée plus générale, reposant sur une approximation gaussienne en
particulier via l’estimateur du maximum de vraisemblance.

Apres l’approche générale nous établirons les intervalles de confiance classiques pour les
moyennes et variances dans le cas gaussien et pour les proportions dans le cas Bernoulli. La
méthode des quantiles sera développée pour indiquer une procédure applicable aux petits
échantillons (notamment dans les cas Bernoulli et Poisson).

Définition : Procédure d’Intervalle de Confiance


Soit X 1 , … , X n un échantillon aléatoire issu d’une loi de densité (ou fonction de probabilité
f ( x ,θ ) où θ ∈Θ est un paramètre inconnu de dimension 1. On appelle procédure d’intervalle
de confiance de niveau γ . Tout couple de statistiques (T 1 , T 2 ¿ tel que, quel que soit θ ∈Θ , on
ait :

Pθ ( T 1 ≤θ ≤ T 2 ) ≥ γ

Exemple  : Considérons une loi mère gaussienne dont la variance est connue et égale à 1. On a
par centrage-réduction de la moyenne empirique de n-échantillon :

5
X−μ
>ℵ ( 0,1 )
1
√n
D’où :

( )
X−μ
Pθ −1,96< <1,96 =0,95
1
√n


( −1,96
√n
< X −μ <1,96
√n )
−1,96
=0,95

L’événement (−1,96 / √n< X−μ ) est équivalent à μ< X + 1,96/ √ n et, de même, ¿) équivaut à ¿
−1,96 −1,96
). Finalement, l’événement ( < X−μ< 1,96 ) est identique à l’événement
√n √n
1,96
X− < μ< X +1,96/ √ n , d’où :
√n
1,96 1,96
P(X − < μ< X + )=0,95
√n √n

Et ceci quel que soit μ, ce qui prouve que X− [ 1,96


√n
, X+
1,96
√n ]
constitue une procédure

d’intervalle de confiance (IC ) de niveau 95 . On voit sur cet exemple que la largeur de
1
l’intervalle est proportionnelle à l’écart type de l’estimateur ponctuelle X pour μ.
√n
REMARQUE :

Pour les cas continus, comme dans l’exemple précédent, on peut espérer atteindre exactement
le niveau γ que l’on s’est fixé, du fait de la continuité des fonctions de répartition. Pour les cas
discrets, cependant, un niveau de probabilité donnée peut ne pas être atteint en raison des
sauts de discontinuité. Nous donnerons plus loin un exemple illustrant cela. On se devra alors
d’avoir une attitude conservatrice, c’est-`a-dire d’utiliser une procédure garantissant que
[T 1 ,T 2 ] ait une probabilité de couvrir θ qui soit au moins égale au niveau nominal γ . C’est
pourquoi il est n nécessaire que γ apparaisse comme une borne minimale de probabilité dans
la définition antérieure.

6
Notons encore, au vu de l’exemple précèdent, que le choix de l’intervalle n’est pas unique. On
aurait également pu prendre :

( )
X−μ
P Z 0,03 < <Z 0,98 =0,95
1
√n

Comme point de départ ou tout autre couple de quantiles (Z ¿ ¿ α , Z α +0,95 )¿ avec α ∈ [ 0,0,05 ] .
L’usage veut, même si la procédure n’est pas nécessairement optimale, que l’on choisisse,
comme dans notre cas, le couple ( Z ¿ ¿(1−γ )/ 2 , Z(1+γ )/2 )¿ . Ce choix est celui qui donne la
largeur minimale lorsque la densité de la loi utilisée pour les quantiles est symétrique et n’a
qu’un seul mode.

Exemple :

Soit x 1 , … , x n une réalisation de X 1 , … , X n conduisant à la réalisation (t 1 , t 2) de (T 1 , T 2). Alors


l’intervalle (t 1 , t 2) est appelée intervalle de confiance de niveau γ pour θ et l’on note :

IC γ ( θ )=[ t 1 , t 2 ]

L’intervalle de confiance est donc l’application numérique la procédure suite à la réalisation


de l’échantillon. Supposons que dans l’exemple précèdent avec un échantillon de taille 9, on
observe la valeur 6 pour la moyenne de cet échantillon.

[
IC 0,95 ( μ )= 6−
1,96
√9
, 6+
1,96
√9 ]
≈ [ 5,35 ; 6,65 ]

On ne peut dire à proprement parler (même si la tentation est forte) que cet IC contient μ
avec probabilité 0,95 du fait qu’il s’agit d’une réalisation. Soit il contient μ, soit il ne le
contient pas. C’est la procédure choisie en amont qui garantit a priori une telle probabilité.
C’est pourquoi on parle d’un niveau de confiance et non de probabilité pour un IC .

Lorsque l’intervalle sera symétrique par rapport à l’estimation ponctuelle on pourra aussi
noter, comme pour l’application ci-dessus :

1,96
IC 0,95 ( μ )=6 ±
√9

7
 On remarquera que le fait d’augmenter le niveau de confiance accroît la largeur de
l’intervalle et qu’il n’est pas possible de donner un intervalle certain autre que Θ dans
sa totalité.
 S’il s’agit d’estimer une fonction h( 0) bijective, par exemple strictement croissante,
du paramètre θ , il suffit de prendre l’intervalle ¿. Nous introduisons maintenant la
méthode de la fonction pivot, qui permet de résoudre la plupart des cas classiques.

I. Méthodes de la fonction pivot

Définition : Fonction pivot


Une fonction g( X 1 , … , X n , ; θ) est appelée fonction pivot si :

 La loi de g( X 1 , … , X n , ; θ) est connue et ne dépend pas de θ ;


 Pour tous réels u1 et u2 tels que u1 ≤u 2 et tout x 1 , … , x n ∈ R n , la double inégalité que
u1 ≤ g( x1 , … , x n , ;θ)≤ u2 peut se résoudre (ou « pivoter ») en θ selon
u1 ( x 1 ,… , x n) ≤ θ ≤u2 ( x 1 , … , x n ; θ)

X−μ
Exemple : La variable aléatoire 1 est une fonction pivot car pour toute valeur x on peut
√n
résoudre l’inégalité :

x−μ
u1 < ¿<u ¿ 2
1
√n
En :

x−u2 / √ n< μ< x −u2 / √ n

Dans cette définition, on peut évidemment se restreindre aux valeurs x 1 , … , x n appartenant à


l’ensemble des réalisations possibles pour θ quelconque. Une fonction pivot n’est pas une
statistique car elle contient elle contient le paramètre inconnu θ .

II. Méthode asymptotique


Plaçons-nous dans le cas le plus général et supposons qu’il existe un estimateur T n de θ tel
que :

T n −θ L
→ ℵ ( 0,1 )
S n (θ) n → ∞

8
Où Sn (θ) est une fonction appropriée de θ : le plus souvent l’écart-type de T n ou une fonction
T n −θ
équivalente quand n → ∞. Si la fonction pivote pour isoler θ on a la procédure d’ IC
S n (θ)
approchée recherchée. Sinon, T n étant convergente pour θ , moyennant la continuité de la
T n −θ
fonction Sn (évidemment quelque soit n ), convergera aussi en loi normale centrée-
S n (θ)
réduite. Alors, le pivotement est immédiat pour donner l’ IC approximatif :

[
IC γ ( θ ) ≈ t n−Z 1−γ S n ( T n ) ; , t n −Z 1+ γ S n ( T n )
2 2 ]
Où t n est la réalisation deT n.

III. Construction des IC classiques

Sous le terme de « classique » nous présentons les cas de la moyenne et de la variance d’une
loi mère gaussienne et le cas du paramètre p d’une loi de Bernoulli. Nous verrons que le
résultat pour la moyenne d’une gaussienne peut servir d’approximation pour une loi mère
quelconque. Quant au cas de Bernoulli il est d’une grande importance pratique puisqu’il traite
des « fourchettes » d’estimation de proportions dans les sondages. Nous rencontrerons
également des situations nouvelles de comparaisons entre deux lois (ou, en pratique, deux
populations) distinctes. Les résultats qui suivent exploitent ceux établis au chapitre 5 sur les
distributions d’échantillonnage. Pour simplifier les écritures, nous prendrons, comme c’est
l’usage, des IC de niveau γ=0,95 faisant donc intervenir les quantiles d’ordres 0,025 et
0,975, le passage à une autre valeur de γ étant évident.

IV. IC pour la moyenne d’une loi ℵ( μ , σ 2)


Nous abordons d’emblée le cas où ( μ , σ 2 ) est un paramètre de dimension 2 inconnu, mais
nous nous intéresserons ici uniquement à un encadrement pour μ indépendamment de σ 2.
Nous reviendrons ensuite brièvement sur le cas plus simple, où σ 2est supposé connu :

T n −θ
¿⃗ t ( n−1 )
S
√n

Cette v . a est de toute évidence une fonction pivot pour μ et nous obtenons un IC comme
suit, les d développements étant de même nature que dans l’exemple précèdent.

9
[
IC 0,95 ( μ )= x−t (αn−1 )
S
√n
, x+ t (αn−1 )
S
√n ]
Avec le quantile d’ordre α .

Notons que les quantiles des lois de Student sont donnés dans toutes les tables statistiques
usuelles. La largeur de cet I C , dont on peut montrer qu’elle est minimale par rapport à
d’autres éventuelles procédures, dépend d’une part de la taille d’échantillon et d’autre part de
la dispersion même de la loi mère (ou, en pratique, de la variable ́étudiée dans la population) à
travers l’estimation s de son écart-type σ . Plus la population est homogène et plus la taille
d’échantillon est élevée, plus l’estimation sera précise.

Dans le cas où la variance est connue l’ I C est donc :

[
IC 0,95 ( μ )= x−1,96
σ
√n
, x +1,96
σ
√n ]
Par contraste avec le précèdent I C où σ 2 est inconnu, les quantiles sont à lire sur la loi de
Gauss du fait que σ 2 n’a pas à être estimé.

V. IC pour la variance σ 2 d’une loi de Gauss


Nous supposerons que μ est également inconnue. Le cas d’école ou μ est connu est proposé en
exercice et s’opère par une voie analogue.

(n−1) S2
2
→ χ 2 ( n−1 )
σ
D’où :

IC 0,95 ( σ )=
2
[ (n−1)S 2 (n−1) S 2
χ 2(n−1)
α
, 2(n−1)
χ 1−α ]
Avec le quantile d’ordre α .
Cet intervalle de confiance est peu robuste vis-à-vis de l’hypothèse gaussienne, contrairement
à celui sur μ. On ne peut donc l’utiliser dans des situations où la loi mère diffère d’une loi
normale. Ceci est vrai même pour une taille d’échantillon car on montre que la loi
asymptotique de S2 (plus précisément de √ n ¿ ¿ σ 2 ¿ dépend de la loi mère.

On peut déduire un IC pour l’écart-type σ de celui sur la variance :

10
IC 0,95 ( σ 2 )=
[√
√(n−1) S , √( n−1) S
χ 2(n−1)
α √χ 2(n−1)
1−α
]
Au passage, on peut comparer la variabilité de l’écart-type empirique S et de la moyenne
empirique X pour une loi de Gauss tout du moins.

VI. IC sur le paramètre p d’une loi de Bernoulli


Rappelons, pour les applications, que p peut être la probabilité à estimer pour l’occurrence
d’un évènement (succès). Dans le cas d’un sondage aléatoire simple sans remise dans une
grande population, p est la proportion d’individus possédant un certain caractère dans cette
population.

C’est pourquoi on parle généralement d’intervalle de confiance pour une proportion. Les
enquêtes estimant pour l’essentiel des proportions (ou pourcentages), les résultats qui suivent
vont fournir les « fourchettes » de précision des sondages.

La statistique sur laquelle se fondent les résultats est Sn le nombre total de succès parmi les n
répétitions dont la loi exacte est B(n , p). C’est une statistique c’est le plus souvent le cas pour
des distributions discrètes, on ne peut mettre en évidence une fonction pivot. Pour obtenir des
IC exacts on doit recourir à la méthode des quantiles exposée à la section antérieure. Cette
méthode préside l’élaboration d’abaques et de tables ainsi qu’aux résultats fournis par les
logiciels.

Pour l’heure nous présentons le résultat classique obtenu par l’approche asymptotique qui
s’applique dans la plupart des cas du fait des tailles d’échantillonnage courante. Suite au
théorème central limite nous avons vu que la loi B(n , p) de Sn peut-être approchée
convenablement par la loi de Gauss ℵ( np , np(1− p)) pourvu que np> 5 et n(1− p)>5 .

Sn −np
D’où ¿⃗ ℵ(0,1)
√ np (1− p )
qui met en évidence une v . a de loi asymptotiquement indépendante de p etainsi, en
négligeant la correction de continuité.

(
P −1,96<
S n−np
√np ( 1− p ) )
<1,96 ≈ 0,95

11
Pour ce qui concerne le pivotement nous sommes dans une situation analogue à celle
rencontrée pour le paramètre λ de la loi de Poisson, à savoir que la double égalité se ramène à
une inégalité du second degré en p que l’on peut résoudre :

2
( S n−np) 2
≤( 1,96)
np(1−p)

Donnons la solution finale pour l’IC, en fonction de la fréquence relative observée ^


P,
réalisation de ^
Pn=S n /n

2
^ (1,96)


P− 2 2
2n 1 ( 1,96) ^ ^ (1,96)
± ( )
P 1− P +
(1,96)
2
(1,96)
2
n 4n
2
^
P− 1−
2n n

qui, bien que développée dans divers ouvrages, n’est jamais utilisée. En effet, les conditions
de validité de l’approximation gaussienne np> 5 et n(1− p)>5 n’étant pas vérifiables puisque
p est inconnu, on leur substitue des conditions reposant sur ^
P.

I. Méthode d’estimateur du maximum de vraisemblance

Définition :
On appelle estimation du maximum de vraisemblance, une valeur θ^ MV , s’il en existe une, telle
que :

L( θ^
MV ¿
)= θ ∈θ L ( θ )

Une telle solution est fonction de ( x 1 ,… , x n) soit θ^ MV =h(x 1 , … , x n). Cette fonction h induit la
statistique (notée abusivement, mais commodément, avec le même symbole que l’estimation)
θ^ MV =h( X 1 , … , X n ) appelée estimateur du maximum de vraisemblance ( EMC).

Soit θ^ nMV , l’estimateur du maximum de vraisemblance de θ et I (θ) , l’information de Fisher


de θ . Alors,

θ^ MV
n −θ L
→ ℵ ( 0,1 )

√ 1 n→ ∞
n I (θ)

Du fait qu’on ne connait pas la valeur de θ , il faut remplacer I (θ) par I ( θ^ nMV ) . Donc :

12
[ ]
Z 1+γ Z 1 +γ
IC γ ( θ ) ≈ θ^ MV − 2
; θ^ MV + 2

√ 1
n I (θ) √ 1
n I (θ)

CONCLUSION GENERALE
 Pour les cas continus, comme dans un des exemples, on peut espérer atteindre
exactement le niveau γ que l’on s’est fixé, du fait de la continuité des fonctions de
répartition ;
 Pour les cas discrets, cependant, un niveau de probabilité donnée peut ne pas être
atteint en raison des sauts de discontinuité ;
 Lorsque la densité de la loi utilisée pour les quantiles est symétrique et n’a qu’un seul
mode et pour avoir une largeur minimale, l’usage veut, même si la procédure n’est pas
nécessairement optimale, que l’on choisisse, comme dans notre cas, le couple
(Z ¿ ¿(1−γ )/2 , Z(1+γ )/2 )¿ . Ce choix est celui qui donne la largeur minimale ;
 On parle d’un niveau de confiance et non de probabilité pour un IC .

13
BIBLIOGRAPHIE

Agresti A (2002) Categorical data Analysis. Second edition, Wiley, New York
Bosq D, Lecoutre JP (1987) Th ́eorie de l’estimation fonctionnelle. Economica Paris.
Chap TL (1998) Applied Categorical Analysis. Wiley, New York.
Chernoff H, Lehmann EL (1954) The use of maximum likelihood estimates in χ 2tests for
goodness of fit. Annals of Mathematical Statistics 25 : 579-86.

14

Vous aimerez peut-être aussi