Vous êtes sur la page 1sur 9

Chapitre II

Estimation ponctuelle et intervalle de confiance

I - Notions élémentaires sur l’échantillonnage :


1) Quelques définitions

Population : ensemble d’objets

Individus, unités statistiques : objets de base

Échantillon : partie observée

Variables : grandeurs mesurées sur les individus. Elles peuvent être :


numériques : discrètes ou continues ou qualitatives : nominales ou ordinales

Enquête : recherche d’information

Sondage : collecte d’information partielle portant sur un échantillon

Recensement : étude de toute la population

Représentativité : fiabilité de l’extrapolation de l’échantillon à la


population

Mode de tirage de l’échantillon le plus simple et le plus important : tirage


aléatoire simple (équiprobabilité et indépendance.)

Les observations et les résumés numériques classiques deviennent des


variables aléatoires et il faut connaître les lois de ces v.a. avant de tenter
l’extrapolation

1
Statistique = ensemble de données

ou

Statistique = activité qui consiste dans le recueil, le traitement, et


l’interprétation des données.

Elle a deux principaux objectifs :

* Décrire un échantillon ou une population : statistique


descriptive : tableaux, graphiques résumés numériques

* Etendre des propriétés constatées sur un échantillon à la


population : statistique inférentielle : échantillon issu d’une
population, estimations, tests hypothèses probabilistes.

La théorie de l’échantillonnage étudie les propriétés et les


caractéristiques résumées du n-uple (X1, X2,…,Xn) où les Xi sont
des va iid à partir de la loi connue des Xi et en particulier quand la
taille de l’échantillon est grande.

2- Distribution d’échantillonnage de X et S2

a) Etude de la statistique X moyenne empirique


n
X = n1 ∑ Xi avec Xi de moyenne m et de variance σ 2
i=1

on a E( X ) = m et V( X ) = σ 2 /n car indépendance des Xi

X -m
Rappel : Théorème centrale limite : σ
~> N(0,1)
n

2
b) Etude de la statistique S2 : variance empirique
1 n 1 n 2
S = ∑ (Xi − X) =
2

2
2
Xi - X
n i=1 n i=1

σ2
E(S2) = n -1 σ 2 = σ2 -
n n

c) Cas d’échantillons gaussiens Xi ~> N(m, σ )

loi de X : combinaison linéaire de lois de gauss = loi de gauss


X ~> N(m, σ/ n) loi exacte

nS 2
Loi de S2 : 2
2
∼ > χ n-1 (Loi chi-deux à n-1 degrés de liberté)
σ

X-m ∼> T
Application : s n-1 (Loi de student à n-1 degrés de liberté)
n

3
II – Généralités sur l’estimation

L’estimation consiste à donner des valeurs approchées aux


paramètres (inconnus d’une population à l’aide d’un échantillon
de n observations issues de la population.

Exemples : x , s 2 , f estime m , σ 2 , p inconnu.


On dit que x , s 2 , f sont des estimations de m , σ 2 , p. Ce sont des
réalisations des variables aléatoires X , S 2 , F appelées estimateurs

Définitions :

1) Estimateur : soit θ un paramètre quelconque défini au


sein d’une population P et prenant ses valeurs dans Θ . Si
(x1, x2, …, xn) est un échantillon simple de P , on appelle
estimateur de θ toute fonction ϕ des xi . On note
θ = ϕ (x1 ,x2 ...,xn ) .
Plusieurs estimateurs sont possibles d’où la nécessité d’un
critère de choix.

2) Estimateur sans biais : E( θ ) = θ


Les valeurs de θ obtenues sur les différents échantillons possibles
doivent se situer autour de la vraie valeur θ (pas de sous ou
surestimation systématique).

3) Estimateur convergent :
θ est un estimateur convergent de θ s’il tend vers θ
quand la taille de l’échantillon tend vers l’infini.

4) Erreur quadratique moyenne et variance minimale :


2
E[ ( θ - θ) ] = V( θ ) + [E( θ ) -θ ]2

4
C’est une mesure de la précision d’un estimateur. Si θ 1 , θ 2 sont deux
estimateurs sans biais, le plus précis sera celui de variance minimale

III - Estimation ponctuelle des paramètres usuels

1) Estimateur de m : moyenne

1 n
X=
n∑
Xi est un estimateur sans biais convergent de m
i=1

E( X ) = m et V( X )= V(X)/n tend vers 0 quand n tend vers l’infini


D’après les résultats sur l’échantillonnage.

2) Estimateur de σ 2 : variance
Estimateur intuitif = variance empirique S2
2 σ2
mais E(S ) = σ - 2
estimateur biaisé ,
n
on utilise un estimateur sans biais de σ 2 :
n
S*2 = 1
n −1 ∑
(Xi − X)2
i=1

Remarque : pour estimer σ on prend usuellement S*2 mais ce


n’est pas un estimateur sans biais de σ .

3) Estimateur de p : proportion
Soit p la proportion d’individus d’une population ayant une
caractéristique A. La fréquence empirique est un estimateur
sans biais de p , F = nA/n
avec nA = nombre d’individus ayant la caractéristique A et
n = taille de l’échantillon

5
III - Estimation par intervalle de confiance
Estimation ponctuelle fournit une valeur selon l’échantillon.

Mais il est plus réaliste et intéressant de trouver une


« fourchette », un intervalle dans lequel le paramètre a le plus de
chance d’être (notion de confiance associe à l’intervalle une
probabilité, une chance).

P(a < θ < b) = 1-α = 0,95

C’est le but de l’estimation par intervalle : si on peut déterminer


la loi de l’estimateur θ en fonction du paramètre θ , il sera
possible de construire des intervalles où θ se trouve avec une
probabilité donnée et en déduire des intervalles de confiance.

III-1 Intervalle de confiance pour la moyenne m :

4 cas possibles

a) σ connu , échantillon de grande taille n > 30

théorème central limite : X


σ
-m
~> N(0,1) (loi approchée)
n
P(a< m < b) = 1-α = 0,95

P(-b < - m < -a) = 1-α = 0,95

P( X -b < X - m < X -a) = 1-α = 0,95

P( X
σ
-b
< X -m
σ
< X -a
σ
) = 1-α = 0,95
n n n

P(-u < N(0,1) < u) = 1-α = 0,95

6
On trouve u = 1,96 (table des fractiles de la loi N(0,1)

Et on en déduit a = X - uσ et b= X + uσ
n n

Intervalle de la forme : [ X - uσ ; X+ uσ n]
n

En remplaçant par sa valeur numérique calculée sur l’échantillon (ie


l’estimation) on obtient l’intervalle de confiance.

b) σ connu , échantillon de petite taille

Il faut l’hypothèse supplémentaire : X ~> N(m , σ )

X -m
σ
~> N(0,1) (loi exacte)
n

Intervalle de la forme : [ X - uσ ; X+ uσ n]
n

c) σ inconnu , échantillon de grande taille n > 30

on remplace σ par s*
X -m
~> N(0,1) (loi approchée)
s*
n

Intervalle de la forme : [ X - us ; X+ us ]
* *

n n

d) σ inconnu , échantillon de petite taille

Il faut l’hypothèse supplémentaire : X ~> N(m , σ )

7
X -m
∼ > Tn-1 (Loi de student à n-1 degrés de liberté)
s*
n

Intervalle de la forme : [ X - ts ; X+ ts ]
* *

n n

Remarque : on note parfois uα / 2 , tα / 2 au lieu de u et t.

III-2 Intervalle de confiance pour la proportion p

Si n grand, alors la fréquence empirique F suit une loi normale


F ~> N(p, p(1-p)/n) (loi approchée).

L’intervalle de confiance s’écrit :

[F- u p(1-p)/n , F + u p(1-p)/n ]

p est inconnu et alors estimé par f , on en déduit l’intervalle de


confiance (approximatif):

[f- u f (1- f )/n , f + u f (1- f )/n ]

III-3 Intervalle de confiance pour la variance d’une loi N(m , σ )

nS 2 2
2
∼ > χ n-1 (Loi chi-deux à n-1 degrés de liberté)
σ

(n − 1)S 2
*

2
∼ > χ n-1
σ2
on utilise cette statistique pour trouver l’intervalle de confiance :

1
P(a < σ 2 < b) = 1-α = P( b <
1
< 1)
σ 2
a

8
P( (n − 1) S < (n − 1) S *2 (n − 1) S *2
*2
< ) = 1-α
b σ2 a

P( χ12 < χ n2−1 < χ 22 ) = 1-α

(n − 1) S *2 (n − 1) S *2
= χ12 on a donc b =
b χ12
(n − 1) S *2 (n − 1) S *2
) = χ 22 on a donc a =
a χ 22

donc l’intervalle de confiance est de la forme :

(n − 1) S *2 (n − 1) S *2
[ , ]
χ 22 χ12

Vous aimerez peut-être aussi