Vous êtes sur la page 1sur 17

Table des matières

1 Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1 Introduction 5
1.2 Estimateur et propriétés d’un estimateur 5
1.2.1 Estimateur et estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.2 Propriétés d’un estimateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.3 Trois exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.4 Vraisemblance d’un échantillon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.5 Statistique exhaustive . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.6 Information de Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 Estimateurs ponctuelles 11
1.3.1 Méthode du maximum de vraisemblance . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.2 Méthode des moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4 Estimation par intervalle de confiance 14
1.4.1 Exemple introductif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.2 Principe de construcion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.3 Estimation usuels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5 Estimation d’une proportion 18

A. Ghazdali USMS-ENSAK
1. Estimation

1.1 Introduction
L’estimation consiste à donner des valeurs approchées aux paramètres d’une population
(p, µ, σ 2 ) ou (proportion, moyenne, variance) à partir des données de l’échantillon ( f , X, S2 ).
On supposera vérifiée l’hypothèse d’échantillonnage aléatoire simple. La statistique inférentielle
peut se résumer par le schéma suivant :

1.2 Estimateur et propriétés d’un estimateur


Un aspect important de la statistique mathématique (dite aussi statistique inférentielle) consiste
à obtenir des estimations fiables des caractéristiques d’une population à partir d’un échantillon
extrait de cette population. C’est un problème de décision concernant des paramètres tels que :
 l’espérance mathématique notée m ou µ (pour un caractère mesurable),
 la variance ou l’écart-type notée σ ,
 la proportion p (pour un caractère dénombrable).
Comme un échantillon ne peut donner qu’une information partielle sur la population, les estimations
ainsi obtenues seront inévitablement entachées d’erreurs que l’on doit minimiser autant que possible.
En résumé :

A. Ghazdali USMS-ENSAK
6 Chapitre 1. Estimation

Estimer un paramètre θ , c’est donner une valeur approchée de θ , à partir des résultats obtenus sur
un échantillon aléatoire extrait de la population.

1.2.1 Estimateur et estimation


Estimateur
Si (X1 , . . . , Xn ) est un échantillon aléatoire d’effectif n de loi parente la loi de X, alors nous appelons
estimateur du paramètre θ . toute fonction hn de l’échantillon aléatoire (X1 , . . . , Xn ), noté θbn :

θbn = hn (X1, . . . , Xn)

R
 À priori l’estimateur θbn est à valeurs dans un ensemble Θ, contenant l’ensemble des
valeurs possibles du paramètre θ .
 θbn est une v.a. de loi de probabilité qui dépend du paramètre θ .
 θbn peut être univarié ou multivarié.

Estimation
Une fois l’échantillon prélevé, nous disposons de n valeurs observées x1 , . . . , xn , ce qui nous fournit
une valeur hn (x1 , . . . , xn ) qui est une réalisation de θbn et que nous appelons estimation.

R
 Nous distinguons la variable aléatoire θbn de sa valeur observée, notée θbn (x1 , . . . , xn ).
 Nous utiliserons les notations suivantes :
 [(i)] (X1 , . . . , Xn ) désigne l’échantillon aléatoire de taille n et les n observations ne
sont pas encore à disposition.
 [(ii)] (x1 , . . . , xn ) désigne une réalisation de l’échantillon aléatoire et les n observa-
tions sont à disposition
 Il faut systématiquement se demander :  suis-je entrain de manipuler une variable
aléatoire ou l’une de ses réalisations ? 

1.2.2 Propriétés d’un estimateur


Le choix d’un estimateur va reposer sur ses qualités. Le premier défaut possible concerne la
possibilité de comporter un biais.
 Bias d’un estimateur
Le biais de θbn se définit par b(n, θ ) = E(θbn ) − θ
 Estimateur sans biais
θbn est un estimateur sans biais (ou non biaisé) du paramètre θ si b(n, θ ) = 0 c’est-à-dire si
E(θbn ) = θ
 Estimateur asymptotiquement sans biais
Un estimateur θbn est asymptotiquement sans biais pour θ si lim E(θbn ) = θ
n→+∞
 Écart quadratique moyen
Si θbn est un estimateur de θ , nous mesurons la précision de θbn par l’écart quadratique moyen,
noté EQM :  
EQM (θbn ) = E (θbn − θ )2 = V (θbn ) + b(n, θ )2

R Si θbn est un estimateur sans biais, c’est-à-dire si b(n, θ ) = 0, alors :EQM (θbn ) = V (θbn )

Proposition 1.2.1 Entre deux estimateurs de θ , nous choisissons celui dont l’écart quadra-
tique moyen ou le risque est le plus faible.

A. Ghazdali USMS-ENSAK
1.2 Estimateur et propriétés d’un estimateur 7

 Estimateur relativement plus efficace


Un estimateur θbn1 est relativement plus efficace qu’un estimateur θbn2 s’il est plus précis que le
second, c’est-à-dire
  si :  
EQM θbn1 ≤ EQM θbn2
 Estimateur sans biais optimal
Nous appelons estimateur sans biais optimal parmi les estimateurs sans biais, un estimateur
θbn préférable à tout autre au sens de la variance c’est-à-dire l’estimateur le plus efficace
parmi tous les estimateurs sans biais.
 Estimateur convergent
Un estimateur θbn est un estimateur convergent s’il converge en probabilité vers θ quand n
tend vers l’infini.
Proposition 1.2.2 Si un estimateur est sans biais et que sa variance tend vers zéro quand n
tend vers l’infini, alors cet estimateur est convergent.

1.2.3 Trois exemples


Soit (X1 , . . . , Xn ) un échantillon aléatoire de loi parente la loi de X.
 Estimateur de la moyenne
L’estimateur X n est égal à
1 n
Xn = ∑ Xi
n i=1
Proposition 1.2.3 Pour un échantillon aléatoire dont la loi parente admet une espérance
notée µ, X n est un estimateur sans biais de la moyenne µ, c’est-à-dire E(X n ) = µ. Lorsque
la loi parente admet une variance, notée σ 2 , la variance de l’estimateur µ bn est égale à
2
V (X n ) = σ /n et X n est un estimateur convergent de la moyenne µ.
 Estimateur de la variance
L’estimateur Sn2 est égal à
1 n
Sn2 = ∑ (Xi − X n )2
n i=1
Proposition 1.2.4 Pour un échantillon aléatoire dont la loi parente admet une espérance
notée µ et une variance notée σ 2 , Sn2 est un estimateur biaisé de la variance σ 2 et le biais
b(n, σ 2 ) est égal à −σ 2 /n.
Sn2 est donc un estimateur asymptotiquement sans biais.

En effet :
On a
1 n
Sn2 = ∑ (Xi − X n )2
n i=1
1 n 2 2
= ∑ (Xi − 2Xi X n + X n )
n i=1
1 n 2 Xn n 1 n 2
= ∑ Xi − 2 ∑ Xi + ∑ X n
n i=1 n i=1 n i=1
1 n 2 Xn 1 2
= ∑ Xi − 2 n X n + nX n
n i=1 n n
1 n 2 2
= ∑ Xi − X n
n i=1

A. Ghazdali USMS-ENSAK
8 Chapitre 1. Estimation

d’autre part
E(X 2 ) = V (X) + (E(X))2
donc !
n
1 2
E(Sn2 ) = E ∑ Xi2 − X n
n i=1
1 n 2
  
2
= ∑ iE X − E Xn
n i=1
1 n h 2
i  2 
= ∑ V (Xi ) + (E(X i )) − V (X n ) + E(X n )
n i=1
 
1
= V (X) + (E(X))2 − V (X) + (E(X))2
n
1 1
= V (X) − V (X) = σ 2 − σ 2
n n
 Estimateur corrigé de la variance
L’estimateur corrigé de la variance Snc 2 est égal à
n
2 n Sn2 1
Snc = =
n − 1 n − 1 i=1 ∑ (Xi − X n )2
Proposition 1.2.5 Pour un échantillon aléatoire dont la loi parente admet une espérance
notée µ et une variance notée σ 2 , Sn,c
2 est un estimateur sans biais de la variance σ 2 .

En effet
1
E(Sn2 ) = σ 2 − σ 2
n
n 2 2
E(Sn ) = σ
n−1
 
n 2
E S = σ2
n−1 n
2
= σ2

E Snc

1.2.4 Vraisemblance d’un échantillon

La vraisemblance des observations x = (x1 , . . . , xn ) d’un échantillon aléatoire de loi parente la


loi de X est définie de la façon suivante :
 Si X est une variable aléatoire continue :
n
θ ∈ Θ 7→ L(x1 , . . . , xn |θ ) = ∏ f (xi , θ ),
i=1
où Θ et l’ensemble des valeurs possibles du paramètre θ .
 Si X est une variable aléatoire discrète :
n
θ ∈ Θ 7→ L(x1 , . . . , xn |θ ) = ∏ P(X = xi ).
i=1

R Les expressions des vraisemblances ci-dessus ne sont valables que parce que les variables
aléatoires X1 , . . . , Xn sont indépendantes par définition d’un échantillon aléatoire.

En fait, vu la forme des densités des lois usuelles de probabilité, il est aussi aisé d’utiliser le
logarithme de la vraisemblance, log L(x1 , . . . , xn |θ ), si f (x, θ ) > 0, pour tout x ∈ Rn , pour tout

A. Ghazdali USMS-ENSAK
1.2 Estimateur et propriétés d’un estimateur 9

θ ∈Θ:
!
n
log L(x1 , . . . , xn |θ ) = log ∏ f (xi , θ )
i=1
n
= ∑ log ( f (xi , θ ))
i=1

1.2.5 Statistique exhaustive


Dans un problème statistique ou figure un paramètre θ inconnu, un échantillon nous apporte
certaine information sur ce paramètre. Lorsque l’on résume cet échantillon par une statistique,
il s’agit de ne pas perdre cette information. Une statistique qui conserve l’information sera dite
suffisante (exhaustive).
Définition 1.2.1 Soit (X1 , X2 , . . . , Xn) un n-échantillon et L(x, θ ) sa vraisemblance. Soit T une
statistique fonction de X1 , X2 , . . . , Xn de loi g(t, θ ) dans le cas continue, P(T = t) dans le cas
discret. T est dite exhaustive si L(x, θ ) = g(t, θ ).h(x), en d’autre termes si la loi conditionnelle
de l’échantillon est indépendante de θ .

1.2.6 Information de Fisher


Définition 1.2.2 L’information de Fisher, quand elle existe, apportée par les n observations
x1 , . . . , xn sur le paramètre θ est :
"  #
∂ log(L(x|θ )) 2
In (θ ) = E
∂θ

Evidement, que le log(L(x|θ )) soit défini et dérivable par rapport à θ . Si de plus cette fonction est
deux fois dérivables, on a la propriété suivante :
Proposition 1.2.6 Si le domaine de définition de la densité de probalité f (x, θ ) de la variable X
est indépendante deθ , alors :
∂ 2 log(L(x|θ ))

 In (θ ) = −E si cette dernière expression existe,
∂θ2
 In (θ ) = nI1 (θ ) où I1 (θ ) est l’information relative à un xi .
 Exemple 1.1 Soit X une variable aléatoire de loi exponentielle de paramètre 1/θ avec θ > 0, de
densité pour x > 0 :
1 −x/θ
f (x, θ ) = e
θ
la vraisemblance admet ici pour expression :
!
n
1 1 n
L(x1 , . . . , xn |θ ) = ∏ f (xi , θ ) = n exp − ∑ xi
i=1 θ θ i=1

pour calculer la quantité d’information de Fisher nous écrivons la log-vraisemblance :


1 n
log L(x1 , . . . , xn |θ ) = −n log θ − ∑ xi
θ i=1

nous dérivons par rapport au paramètre :


∂ log L n 1 n
= − + 2 ∑ xi
∂θ θ θ i=1

A. Ghazdali USMS-ENSAK
10 Chapitre 1. Estimation

Comme X(Ω) = R+ est indépendant de θ , on peut utiliser l’expression de la proposition,

∂ 2 log L n 2 n
= − ∑ xi
∂θ2 θ 2 θ 3 i=1

ce qui permet d’obtenir :


!
2 n
 2 
∂ log L n
In (θ ) = −E = −E − ∑ Xi
∂θ2 θ 2 θ 3 i=1
!
n
n 2
= − 2 + 3 E ∑ Xi
θ θ i=1

comme E (∑ni=1 Xi ) = nE (X) = nθ on obtient :


n 2 n
In (θ ) = − 2
+ 3 nθ = 2
θ θ θ


Le théorème suivant va préciser la borne inférieure pour la variance des estimateurs sans biais,
sous certaines hypothèsess de régularités de la loi de probabilité de X et que nous appellerons hypo-
thèses de Cramer-Rao. Nous ne donnerons pas le détail de ces hypothèses qui sont essentiellement
des conditions techniques sur la densité f de X.

Théorème 1.2.7 sous les hypothèses de Cramer-Rao, en particulier si X(Ω) est


indépendant du paramètre à estimer θ , pour tout estimateur θbn de θ on a :
 2
)
h i 1 + ∂ b(n,θ
∂θ
E (θbn − θ )2 ≥
In (θ )

Si l’estimateur θbn est sans bias, alors


h i 1
E (θbn − θ )2 = V (θbn ) ≥
In (θ )

) 2
 
1+ ∂ b(n,θ
∂θ
La quantité BF (θ ) = In (θ ) est la borne inférieure de Fréchet-Darmois-Cramer-Rao
(FDCR en abrégé).

La variance d’un estimateur sans biais est minorée par une quantité indépendante de cet
estimateur, elle ne peut donc pas être inférieure à une certaine borne.

R Si on estime g(θ ) au lieu de θ , ou g est une fonction supposé connue est dérivable, et si la
statistique T est l’estimateur de g(θ ), alors l’inégalité précédente de FDCR devient :
) 2
 
g0 (θ ) + ∂ b(n,θ
∂θ
E (T − g(θ ))2 ≥
 
In (θ )
∂ b(n,θ ) 2
 
g0 (θ )+ ∂ θ
et BF (θ ) = In (θ )

Définition 1.2.3 — Estimateur efficace. Un estimateur sans biais θbn est dit efficace si sa

A. Ghazdali USMS-ENSAK
1.3 Estimateurs ponctuelles 11

variance est égale à la borne inférieure de FDCR :


1
V (θbn ) =
In (θ )
 Exemple 1.2 Si on reprenons l’exemple de la loi exponentielle de paramètre 1/θ , comme
E(X) = θ , on sait que θbn = X n est un estimateur sans biais et convergent. De plus :

V (X) θ 2 1
V (θbn ) = V (X n ) = = =
n n In (θ )

donc X n est efficace. 

1.3 Estimateurs ponctuelles


L’estimation θb d’un paramètre quelconque θ est ponctuelle si on lui associe une seule valeur à
partir d’un échantillon aléatoire donné.

1.3.1 Méthode du maximum de vraisemblance


La vraisemblance L(x1 , . . . , xn |θ ) représente la probabilité d’observer le n-uplet (x1 , . . . , xn )
pour une valeur fixée de θ . Dans la situation inverse ici où on a observé (x1 , . . . , xn ) sans connaître
la valeur de θ , on va attribuer à θ la valeur qui paraît la plus vraisemblable, compte tenu de
l’observation dont on dispose, c’est-à-dire celle qui va lui attribuer la plus forte probabilité. On
se fixe donc la règle suivante : à (x1 , . . . , xn ) fixé, on considère la vraiszemblance L comme une
fonction de θ et on attribue à θ la valeur qui maximise cette fonction.
Estimateur du maximum de vraisemblance
Définition 1.3.1 Un estimateur du maximum de vraisemblance (EMV) du paramètre θ est une
statistique de l’échantillon :

θbn : DnX → Θ
x = (x1 , . . . , xn ) 7→ θbn (x1 , . . . , xn )

telle que ∀θ ∈ Θ, L(x1 , . . . , xn |θbn ) ≥ L(x1 , . . . , xn |θ ).

R
 L(x|θ ) n’a aucune raison d’être différentiable en θ .
 L(x|θ ) étant une densité de probabilité, cette méthode revient à supposer que l’événe-
ment qui s’est produit était le plus probable.
 Il n’y a aucune raison pour qu’un EMV soit sans biais.
 Un EMV n’a aucune raison d’être unique.

R Le principe de vraisemblance, à la base de la procédure d’estimation du maximum de


vraisemblance, revient à rechercher la valeur de θ , fonction des observations (x1 , . . . , xn ), qui
assure la plus grande probabilité d’obtenir ces observations.
La recherche d’un maximum de la vraisemblance n’est pas forcément réduite à un simple
calcul des zéros de la dérivée de L.
Cependant, ce cas étant le plus fréquent, il est logique de poser l’hypothèse suivante :
♣ ∀x ∈ DnX , ∀θ ∈ Θ, L est deux fois continûment dérivable par rapport à θ .
Alors θbn , EMV, est solution du système d’équations en θ suivant :

∂L
(x|θ ) = 0 (1)



∂θ
2
 ∂ L (x|θ ) < 0 (2)


∂θ2

A. Ghazdali USMS-ENSAK
12 Chapitre 1. Estimation

Ainsi, on préfère souvant travailler avec la fonction Logarithme qui est rappelons le strictement
croissante, par conséquent notre système d’équations devient
∂ log L
(1) ⇔ (x|θ ) = 0
∂θ
et
∂ 2 log L
(2) ⇔ (x|θ ) < 0
∂θ2

 Exemple 1.3 Soit X une variable aléatoire de loi exponentielle de paramètre 1/θ avec θ > 0, de
densité pour x > 0 :
1 −x/θ
f (x, θ ) = e
θ
la vraisemblance admet ici pour expression :
!
n
1 1 n
L(x1 , . . . , xn |θ ) = ∏ f (xi , θ ) = n exp − ∑ xi
i=1 θ θ i=1

pour faciliter le calcul de la quantité, nous écrivons la log-vraisemblance :

1 n
log L(x1 , . . . , xn |θ ) = −n log θ − ∑ xi
θ i=1

Cherchons l’EMV pour la famille de lois exponentielle . La log-vraisemblance est indéfiniment


dérivable pour θ > 0 :

∂ log L n 1 n
= − + 2 ∑ xi
∂θ θ θ i=1

qui s’annule en changeant de signe pour θ = n1 ∑ni=1 xi = xn , avec :

∂ 2 log L n 2 n n
= − ∑ xi = θ 3 (θ − 2xn )
∂θ2 θ 2 θ 3 i=1

soit pour θ = xn :
 2 
∂ log L n
= − <0
∂θ2 θ =xn x2n

donc l’EMV est θbn = X n 

Proposition 1.3.1
 propriété d’invariance fonctionnelle : Si θbn est l’estimateur de θ par la méthode du maxi-
mum de vraisemblance, f (θbn ) est l’estimateur de f (θ ) par la méthode du maximum de
vraisemblance.
 Si un estimateur θbn de θ est efficace et sans biais alors nécessairement il est donné par la
méthode du maximum de vraisemblance.
 propriété asymptotique de l’EMV : Si θbn est l’estimateur
p de θ par la méthode du maximum
de vraisemblance, La variable aléatoire θn − θ
b In (θ ) suit la loi normal centrée et réduite
N (0, 1), quand n tend vers l’infini.

A. Ghazdali USMS-ENSAK
1.3 Estimateurs ponctuelles 13

1.3.2 Méthode des moments


Dans le cas où le paramètre à estimer est θ = E(X), moyenne théorique de la loi, nous avons
vu que l’estimateur naturel était la moyenne empirique, ou moyenne de l’échantillion, X n . De
même, pour estimer le paramètre θ = V (X), variance de la loi, nous retenons logiquement comme
estimateur la variance empirique Sn2 . Plus généralement, si l’un des moments d’ordre k ∈ N∗ ,
non centré mk = E(X k ) = mk (θ ), ou centré µk = E(X − m1 )k = µk (θ ), dépend de θ , nous allons
chercher un estimateur par résolution de l’équation en θ obtenue en égalant moment théorique et
moment empirique correspondant, soit :

1 n k 1 n
mkn = ∑ Xi = mk (θ ) ou
n i=1
µkn = ∑ (Xi − X n )k = µk (θ )
n i=1
La solution de l’équation, si elle existe et est unique, sera appelée estimateur obtenu par la
méthode des moments. Dans les exemples introductifs où θ = E(X) et θ = V (X), les équations à
résoudre s’écrivaient sous sous forme résolue θ = X n et θ = Sn2 .
 Exemple 1.4 Si X suit une loi exponentielle de paramètre θ , on sait que E(X) = 1/θ et l’équation
à résoudre s’écrit X n = 1/θ , de solution immédiate θ = 1/X n qui correspond à l’estimateur obtenu
par la méthode des moments :
1
θbn =
Xn
Bien entendu, on pourrait utiliser cette méthode avec des moments d’ordres plus élevés et obtenir
ainsi d’autres estimateurs. En utisant par exemple la variance V (X) = 1/θ 2 on obtient le nouvel
estimateur θbn = 1/Sn .


Cette méthode intuitive se justifie par les propriétés de convergence des moments empiriques
vers les moments théoriques correspondants au chapitre précédent (les deux théorèmes fondamen-
taux de la statistique asymptotique : la loi des grands nombres et le central limite).
D’une manière générale, pour construire des estimateurs θb = (θb1 , θb2 , . . . , θbK ) relatifs aux paramètres
θ = (θ1 , θ2 , . . . , θK ) en utilisant la méthode des moments, on est amené à résoudre un système à K
équations et K inconnus :
1 n
1. m1 = E(X) = ∑ Xi = m1n
n i=1
1 n
2. m2 = E(X 2 ) = ∑ Xi2 = m2n
n i=1
3. . . . . . .
1 n
K. mK = E(X K ) = ∑ XiK = mKn
n i=1
Ainsi, à partir de ces K équations et K inconnus θ1 , θ2 , . . . , θK on trouve les solutions θb1 , θb2 , . . . , θbK
qui forment les estimateurs, suivant la méthode des moments, des paramètres θ1 , θ2 , . . . , θK .
 Exemple 1.5 Soit (X1 , . . . , Xn ) un échantillon d’une v.a. X de loi gamma γ(p, θ ). On sait que :

p p
E(X) = et V (X) =
θ θ2
On voit clairement qu’aucun des paramètres p et θ ne représente un moment de la variable X,
cependant les deux paramètres apparaissent dans la moyenne et la variance de cette variable. Ainsi,
la méthode des moments nous donne le systèm suivant :
p
 = Xn
θ

A. Ghazdali USMS-ENSAK
14 Chapitre 1. Estimation
p
 2 = Sn2
θ
se qui donne facilement la solution :
(X n )2 Xn
pb = et θb = 2
Sn2 Sn


1.4 Estimation par intervalle de confiance


1.4.1 Exemple introductif
Un industriel commande un lot de tiges métalliques qu’il ne peut utiliser que si leur longueur est
comprise entre 23.60 mm et 23.70 mm. Ces tiges ont été fabriquées par une machine qui, lorsqu’elle
est réglée à la valeur m, produit des tiges dont la longueur peut être considérée comme une v.a.
X de loi normale N (m, σ ), où l’écart type σ est une caractéristique de la machine, de valeur
connue, ici σ = 0.02 mm. Compte tenu de la symétrie de la distribution normale, la proportion
des tiges utilisables par l’industriel sera maximale si le réglage a été effectué à m0 = 23.65 mm.
Ne connaissant pas cette valeur, à la réception d’un lot de tiges l’industriel prélève au hazard n
tiges dont il mesure les longueurs X1 , . . . , Xn pour se faire une idée de la valeur du paramètre de
réglage m. Il calcule la moyenne des longueurs observées et ayant obtenu la valeur X n = 23.63,
il en conclut que, s’il est peu réaliste de croire que la valeur de m est exactement 22.63 mm, elle
doit malgré tout être très proche de cette valeur moyenne observée sur l’échantillon. Il lui paraît
raisonnable d’aboutir à une conclusion de la forme "il y a 95 chances sur 100 que la valeur de m soit
comprise entre 23.63 − a et 23.63 + b". Le problème consiste alors à fixer des valeurs précises pour
a et b et on conçoit bien qu’elles doivent dépendre des "chances" que l’on a attribué à cet intervalle
de contenir effectivement la vraie valeur de m. L’intervalle ainsi obtenu s’appellera intervalle de
confiance et sa probabilité qui permis de le déterminer, niveau de confiance. La longueur de cet
intervalle sera bien sûr proportionnelle à ce niveau de confiance. On peut par exemple toujours
fournir un intervalle qui contient avec certitude le paramètre en le choisissant suffisamment large ;
mais dans ce cas, cet intervalle ne nous renseigne en aucune façon sur la vraie valeur du paramètre.
Il faut donc arriver à un compromis entre un intervalle pas trop grand et une probabilité assez élevée
de contenir la paramètre.
Pour une famille quelconque de lois de probabililté (Pθ ; θ ∈ Θ) on peut donner la définition
suivante
Définition 1.4.1 Un intervalle de confiance pour le paramètre θ , de niveau de confiance β =
1 − α ∈]0, 1[, est un intervalle qui a la probabilité β de contenir la vraie valeur du paramètre θ .

La probabilité complémentaire α mesure le risque d’erreur de l’intervalle, c’est-à-dire la probabilité


que l’intervalle ne contienne pas la vraie valeur de θ .

1.4.2 Principe de construcion


La donnée de départ, outre l’échantillon, sera la connaissance de la loi de probabilité de
la statistique T, Fonction d’un "bon" estimateur ponctuel θb de θ , utilisée pour l’estimation par
intervalle de confiance du paramètre θ . En réalité il n’existe pas une méthode de résolution générale
de ce problème ; cependant on peut citer la démarche suivante :
Dans l’exemple précédent, nous avions abouti à un intervalle de la forme X n − a < m < X n + b qui
correspond à la réalisation d’un événement devant se produire avec une probabilité fixée 1 − α. La
détermination des valeur a et b va donc se faire à partir de la valeur 1 − α de la probabilité, fixé par
le staticien, à partir de la condition qui s’écrit ici :
1 − α = P(X n − a < m < X n + b)

A. Ghazdali USMS-ENSAK
1.4 Estimation par intervalle de confiance 15

qui est équivalente à :


1 − α = P(−b < X n − m < a)
Il n’y a donc qu’une seule condition pour déterminer ces deux valeurs ; cependant, la loi de la v.a.
X n − m qui sert à construire cet intervalle étant symétrique, on choisit b = a et on utilise la variable
centrée et réduite pour déterminer la valeur de a qui vérifie la condition :
 
a Xn − m a
1−α = P − √ < √ < √
σ/ n σ/ n σ/ n
Si F est la fonction de répartition de la loi N(0, 1), alors a est solution de :
√ √ √
1 − α = F(a n/σ ) − F(−a n/σ ) = 2F(a n/σ ) − 1
√ √
ou 1 − α/2 = F(a n/σ ), soit a n/σ = F −1 (1 − α/2). Pour un niveau de confiance de 0.95, soit
α = 0.05, et pour une taille d’échantillon n = 100, le fractille d’ordre 0.975 de la loi N (0, 1) a
pour valeur 1.96 et on en déduit a = 0.004, d’ou l’intervalle :

23.626 < m < 23.634

obtenu pour cet échantillon particulier.

1.4.3 Estimation usuels


Estimation de la moyenne : cas de la loi normale
Soit X1 , . . . , Xn un échantillon aléatoire simple extrait d’une variable X suivant la loi normale
N (m, σ ). Cette fois-ci le paramètre θ = m, on distingue deux cas :

a) Variance σ 2 connu :
La moyenne empirique X n est le meilleur estimateur de m et on sait que X n suit pour tout n

exactement la loi normale N (m, √σn ). Donc la statistique T = n X nσ−m suit la loi normale centrée
et réduite N (0, 1). Dés lors pour α donnée on peut trouver u = uα/2 telle :
√ X n − m
 
P n <u = 1−α
σ
qui est équivalente à :
 
σ σ
P Xn − √ u < m < Xn + √ u = 1−α
n n
Par conséquent, l’intervalle de confiance cherché est le suivant :
 
σ σ
X n − √ u, X n + √ u
n n

où u = uα/2 est le fractile d’ordre (1 − α/2) de N (0, 1), i.e.

u = uα/2 = Φ−1 (1 − α/2)

La valeur de u = uα/2 dépend du niveau de confiance voulu : par exemple, on a :


— (1 − α) = 0.90, alors u = uα/2 ' 1.645
— (1 − α) = 0.95, alors u = uα/2 ' 1.960
— (1 − α) = 0.99, alors u = uα/2 ' 2.576

A. Ghazdali USMS-ENSAK
16 Chapitre 1. Estimation

b) Variance σ 2 inconnue :

La statistique T = n X nσ−m utilisée dans la situatuion précédente, et dont la loi était connue,
était la variable centrée et réduite. Elle ne peut convenir ici puisque le paramètre σ est inconnu et
va donc devoir être remplacé par un estimateur, basé sur la variance empirique modifiée qui est un
estimateur sans biais de la variance théorique σ 2 .

2 1 n
Snc = ∑ (Xi − X n )2
n − 1 i=1

On utilise donc comme nouvelle statistique :


√ Xn − m
Tn−1 = n
Snc
qui suit la loi de Student à n − 1 degrés de liberté. Dés lors pour α donnée on peut déterminer la
valeur de t, par lecture du tableau de fractile de la loi de student, telle que :
√ Xn − m
 
P −t < n <t = 1−α
Snc
L’intervalle a bien sûr été choisi symétrique puisque la loi utilisée est symétrique. Par inversion de
cet intervalle, on obtient :
 
Snc Snc
P Xn −t √ < m < Xn +t √ = 1−α
n n

ce qui fournit l’intervalle de confiance pour m de niveau 1 − α, centré en X n et de longueur aléatoire


Snc
Ln = 2t √ n
:
 
Snc Snc
Xn −t √ ,Xn +t √
n n

R Pour n > 30, et grâce au théorème central-limite, les deux procédures précédentes restent
encore valables même si l’échantillon n’est pas nécessairement extrait d’une loi normale.

 Exemple 1.6 Sur un échantillon de n = 30 durées de vie d’un certain modèle de lampe on a

obtenu comme moments empiriques x30 = 2000h et s30 = 300h. L’intervalle de confiance de niveau
0.95 pour la durée de vie moyenne m est donc :
s30 s30
x30 − t √ < m < x30 + t √
30 30
où t est défini par P(−t < T29 < t) = 0.95 ou P(T29 < t) = 0.975 soit t = 2.045 d’où l’intervalle :

1888 < m < 2112

de longueur l = 224h observé sur cet échantillon. Si σ avait été connu, de même valeur que celle
observée sur l’échantillon, soit σ = 300, l’intervalle correspondant aurait été :
σ σ
x30 − u √ < m < x30 + u √
30 30

avec u = F −1 (0.975) = 1.96 soit l’intervalle 1893 < m < 2107, de longueur l = 214h, inferieure
à la précédente. Ainsi, la connaissance du paramètre σ conduit logiquement à un intervalle plus
précis. 

A. Ghazdali USMS-ENSAK
1.4 Estimation par intervalle de confiance 17

Estimation de la variance : cas de la loi normale


a) La moyenne m connue :
On a θ = σ , or le meilleur estimateur de σ 2 est σ bn2 = n1 ∑ni=1 (Xi − m)2 cet un estimateur sans
biais, convergent et efficace. De plus la statistique :
n
σbn2
T = ∑ (Xi − m)2 = n
σ2
i=1

est de loi connue χn2 à n degrés de liberté. Dès lors pour α donnée on peut déterminer les valeurs de
a et b telles que :
σbn2
 
P a<n 2 <b = 1−α
σ
ce qui conduit à l’intervalle de confiance défini par :
 2
σbn2

σ
bn 2
P n <σ <n = 1−α
b a
Par conséquent l’intervalle de confiance cherché est le suivant :
 2
b2

σb σ
n n ,n n
b a
Cependant, il n’y a qu’une seule condition pour déterminer les deux valeurs a et b et il reste
2 < a et

à un degré d’incertitude puisque loi utilisé n’est pas symétrique. si on pose α 1 = P χn
α2 = P χn2 > b , la soule contrainte dans le choix de α1 et α2 est α1 + α2 = α.


 Exemple 1.7 Pour estimer la précision d’un thermomètre, on réalise 15 mesures independantes
de la température d’un liquide qui maintenu à température constante, égale à 20 degrés celsius.
Compte tenu des erreurs de mesure, la valeur indiquée par le thermomètre peut être considérée
comme une v.a normale dont la moyenne m est la valeur exacte de la température, soit ici m = 20,
et dont l’écart type σ est inconnu et caractérise la précision du thermomètre. On a observé sur
l’échantillion de taille 15 la valeur σ 2 = 18 et qu’on retient un intervalle à erreurs symétriques
b15
(choix le moins arbitraire), pour un niveau de confiance 1 − α = 0, 99 on lit dans la table des
fonction de répartition de la loi χn2 les valeurs a = 4, 60 et b = 32, 8 d’où l’intervalle :

8, 23 < σ 2 < 58, 70

Mais compte tenu de l’interprétation du paramètre qui mesure ici un degré d’imprécision, on
souhaite qu’il soit le plus faible possible et on retient plus logiquement un intervalle unilatéral à
gauche, de la forme σ 2 < constante, ce qui corresppond au choix α1 = α = 0, 01 et α2 = 0, soit
a = 5, 23 et l’intervalle :
σ 2 < 51, 63


b) La moyenne m inconnue :
bn2 , ainsi l’estimateur
On a m est inconnue donc on va la remplacer par son estimateur X n dans σ
sans biais et convergent de qu’il faut retenir est :

2 1 n
Snc = ∑ (Xi − X n )2
n − 1 i=1
Or on sait que la statistique
2
Snc
T = (n − 1)
σ2

A. Ghazdali USMS-ENSAK
18 Chapitre 1. Estimation
2
suit une distribution de χn−1 à n − 1 degrés de liberté, et on doit donc déterminer les valeurs de a et
b telles que :
2
 
Snc
P a < (n − 1) <b = 1−α
σ

ce qui conduit un intervalle de confiance défini par :


2 2
 
Snc Snc
P (n − 1) < σ < (n − 1) = 1−α
b a

Par conséquent l’intervalle de confiance cherché est le suivant :

2 2
 
Snc Snc
(n − 1) , (n − 1)
b a

Là encore, il n’y a qu’une seule contrainte


 pour déterminer les valeurs de a et b ; si nous posons
2
α1 = P χn−1 < a et α2 = P χn−1 2 > b , la contrainte est α1 + α2 = α.
 Exemple 1.8 Sur un échantillion de seize chifres d’affaires de magasins d’une chaine de grandes
surfaces on a observé s216 = 72, 53. L’intervalle de niveau 0, 95 à risques symétriques est définit
à partir de α1 = α2 = 0, 025 et on lit dans la table de fonction de répartition de la loi de χn−12 ,

a = 6, 26 et b = 27, 49 d’où l’intervalle 39, 59 < σ < 173, 79. Si on fait le choix d’un intervalle
unilatéral à gauche, soit α = α1 = 0, 05 et α2 = 0 on obtient a = 7, 26 et l’intervalle σ 2 < 149, 86
qui est de longueur plus grande que le précédent. 

1.5 Estimation d’une proportion


Soit une population formé d’individus ayant ou non un caractère A avec une propbabilité p
d’obtenir le caractère (paramètre d’une loi Binomiale). On cherche à déterminer cette probabilité
inconnue en prélevant un échantillon (avec remise si la population est finie) de taille n dans cette
population. On constate que x éléments pami les n idividus possèdent le caractère A. On considére
maintenant la variable fréquence X/n, elle a les propriétés d’un estimateur sans biais de p et
convergent. Soit une population où une proportion des individus possède un caractère A avec
une propbabilité p d’obtenir le caractère (paramètre d’une loi Binomiale), cette population est
supposée infinie (ou finie si le tirage s’effectue avec remise). Le problème consiste à déterminer un
intervalle de confiance pour la probabilité p à partir des résultats apportés par un échantillon de
taille n. À cet échantillon, on associe la variable aléatoire X qui « compte » le nombre de succès
(avoir ce caractère) au cours de n essais indépendants, cette variable suit la loi Binomiale B(n; p).
Le paramètre à estimer est la probabilité p de succès au cours d’une épreuve. Un estimateur sans
biais du paramètre p est la fréquence f = X/n de succès à l’issue de n épreuves, X étant le nombre
de succès (de personnes ayant le caractère A) obtenus au cours de ces n épreuves :
r
p(1 − p)
E( f ) = p V(f) =
n

Selon les valeurs de n et de p, cette loi admet différentes lois limites qui sont utilisées pour
déterminer un intervalle de confiance. Dans la pratique, on peut :
 utiliser les tables statistiques qui donnent les limites inférieures et supérieures d’un intervalle
de confiance calculées pour différents seuils et différentes valeurs de n et k,
 utiliser et justifier l’approximation normale.

A. Ghazdali USMS-ENSAK
1.5 Estimation d’une proportion 19

Intervalle de confiance d’une proportion calculée avec l’approximation normale : si n ≥ 50, np > 5
et n(1 − p) > 5, la loi de la variable aléatoire f (fréquence des succès) peut être approchée par la
loi normale : r !
p(1 − p)
N p,
n

Donc la statistique T = q f −p suit asymptotiquement une loi normale centrée réduite N (0, 1)
f (1− f )
n
(théorème de Stutsky).
Un intervalle bilatéral à risques symétriques ( f est la fréquence observée sur l’échantillon) est
donné par :
 
f −p
P −t < q < t = 1 − α
f (1− f )
n

ce qui fournit l’intervalle de confiance suivant :


" r r #
f (1 − f ) f (1 − f )
f −t , f +t
n n

 Exemple 1.9 Soit un échantillon de taille n = 100 et une proportion estimée f = 0.6. Quel

intervalle qui donne une confiance de 0.9 ?


On a ici : 1 − α = 0.9 donc α = 0.1 et t = 1.96. L’intervalle de confiance autour de la proportion
estimée est donc :
" r r #
f (1 − f ) f (1 − f )
f −t , f +t = [0.5194, 0.6808] .
n n

A. Ghazdali USMS-ENSAK

Vous aimerez peut-être aussi