Vous êtes sur la page 1sur 39

http://stat.epfl.

ch

7. Notions de Statistique
7.1: Introduction
7.2: Les estimateurs
7.3: Les tests statistiques
7.4: Loi normale
Références: Davison (2003, Chapitre 1, §§2.1, 2.2, 3.1, 3.2, 7.1.1,
7.3.1); notes de Ben Arous (§§VI.1, VI.2, VI.4–VI.9).

Probabilité et Statistique I/II — Chapı̂tre 7 1


http://stat.epfl.ch

7.1 Introduction
Les mathématiques se basent aur la déduction:

axiomes ⇒ conséquences.

Dans le cas de la probabilité, on a

(Ω, F, P ) ⇒ P(A), P(A ∩ B), . . .

La statistique concerne l’induction—ayant observé un événement A,


on veut dire qqc à propos d’un espace de probabilité (Ω, F, P )
soujacent:
?
A ⇒ (Ω, F, P ).
Statistics means never having to say you’re certain—parfois
on utilise le terme probabilité inverse pour ce processus.

Probabilité et Statistique I/II — Chapı̂tre 7 2


http://stat.epfl.ch

Langage

On veut dire quelque chose à propos de la valeur inconnue d’une


propriété θ d’une population P.
Définition: Une propriété θ d’une population P est appelée un
paramètre—on utilisera des lettres grecs pour les paramètres.
P peut être infinie ou finie de taille N , dans le dernier cas on dit
qu’elle est composée des unités avec labels {1, . . . , N }.
Définition: Une statistique est une fonction d’un échantillon
x1 , . . . , xn tiré d’une population:

t = t(x1 , . . . , xn ).

Une estimation est une statistique que l’on utilise pour estimer un
paramètre θ.

Probabilité et Statistique I/II — Chapı̂tre 7 3


http://stat.epfl.ch

Illustration: Sondage

Considerez la proposition suivante:

La Suisse devrait adhérer à l’Union européenne


aujourd’hui.

Ecrivez x = 1 sur une feuille si vous êtes d’accord avec la proposition,


et x = 0 sinon.
Soit
θ = N −1 (x1 + · · · + xN )

la proportion de ‘oui’ dans la population P des étudiants de SSC de


2me année—une population finie avec N = 109.

Probabilité et Statistique I/II — Chapı̂tre 7 4


http://stat.epfl.ch

Estimation de θ
Pour estimer θ, on prend au hasard un échantillon S de taille n sans
remise des personnes présentes, et on calcul la proportion de ‘oui’
dans l’échantillon: X
−1
t=n xj .
j∈S
Ceci est une réalisation d’une variable aléatoire, l’estimateur
1X
T = Ij xj ,
n
j∈P

où
1, j ∈ S

Ij = j = 1, . . . , N.
0, sinon,
La loi de T s’appelle sa loi d’échantillonnage, qui est déterminée
par le schéma d’échantillonnage.

Probabilité et Statistique I/II — Chapı̂tre 7 5


http://stat.epfl.ch

Lois d’échantillonnage pour T (θ = 0.64)

2 4 6 n=5 n=10

2 4 6
Density

Density
0

0
0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0
t t

n=20 n=40
2 4 6

2 4 6
Density

Density
0

0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0
t t

Probabilité et Statistique I/II — Chapı̂tre 7 6


http://stat.epfl.ch

Lois d’échantillonnage pour T (θ = 0.83)

0 2 4 6 8 n=5 n=10

0 2 4 6 8
Density

Density
0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0
t t

n=20 n=40
0 2 4 6 8

0 2 4 6 8
Density

Density

0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0
t t

Probabilité et Statistique I/II — Chapı̂tre 7 7


http://stat.epfl.ch

Problème de Base
On a une seule valeur t de la variable aléatoire T , et on veut dire
quelque chose à propos de θ.
Par exemple, supposons qu’avec n = 20 on a t = 12/20 = 0.6 . . .

Probabilité et Statistique I/II — Chapı̂tre 7 8


http://stat.epfl.ch

n = 20, t = 0.6: quels θ sont raisonables?

0 2 4 6 8 theta=0.28 theta=0.46

0 2 4 6 8
Density

Density
0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0
t t

theta=0.64 theta=0.83
0 2 4 6 8

0 2 4 6 8
Density

Density

0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0
t t

Probabilité et Statistique I/II — Chapı̂tre 7 9


http://stat.epfl.ch

n = 20, t = 0.6: quels θ sont raisonables?

0 2 4 6 8 theta=0.28 theta=0.46

0 2 4 6 8
Density

Density
0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0
t t

theta=0.64 theta=0.83
0 2 4 6 8

0 2 4 6 8
Density

Density

0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0
t t

Probabilité et Statistique I/II — Chapı̂tre 7 10


http://stat.epfl.ch

Propriétés de T

Pour dire qqc à propos de θ, on doit utiliser les propriétés de T :


Proposition: Soient I1 , . . . , IN les variables indicatrices définis sous
le schéma d’échantillonnage sans remise avec probabilités égales, alors
pour j, k ∈ {1, . . . , N }, j 6= k, on trouve
n n(N − n) 1 n(N − n)
E(Ij ) = , var(Ij ) = 2
, cov(Ij , Ik ) = − 2
.
N N N −1 N
Théorème : Sous ce même schéma,
N −n 1
E(T ) = θ, var(T ) = × × σ2 ,
N −1 n
où
N
X
σ 2 = N −1 (xj − x)2 = x2 − (x)2 .
j=1

Probabilité et Statistique I/II — Chapı̂tre 7 11


http://stat.epfl.ch

Variance de T
La variance de T a trois termes:

• (N − n)/(N − 1) est présent car le schéma d’échantillonnage est


sans remise, alors si n = N il n’y a plus de variabilité. Ce
terme est absent si l’échantillonnage est avec remise.

• 1/n montre comment var(T ) diminue quand la taille de


l’échantillon augmente, avec ou sans remise.

• σ 2 est la variance d’une seule observation tirée de la population.


Si xj = 0/1, alors x2 = x = θ, et donc σ 2 = θ − θ 2 = θ(1 − θ).

Pour diminuer var(T ) il faut soit augmenter n, soit changer le schéma


d’échantillonnage.

Probabilité et Statistique I/II — Chapı̂tre 7 12


http://stat.epfl.ch

Sondage

Example 7.1: Soit N = 109, n = 20, montrer que var(T ) ≤ 0.1012


pour échantillonnage sans remise, et var(T ) ≤ 0.1112 pour
échantillonnage avec remise. •

Example 7.2: Si n ≪ N , quelles valeurs de n assurent


p p
var(T ) < 0.015, var(T ) < 0.005?

Example 7.3: Si n ≪ N , quelle valeur de n assure que le


coefficient de variation de T ,
p
var(T )
≤ c?
E(T )

Probabilité et Statistique I/II — Chapı̂tre 7 13


http://stat.epfl.ch

Intervalle de Confiance
On veut dire quelque chose à propos de la valeur inconnue de θ.
Définition: Un intervalle de confiance (IC) est un intervalle
aléatoire I1−α qui contient un paramètre θ avec une probabilité 1 − α
spécifiée, qui s’appelle le niveau de l’IC:
P(θ ∈ I1−α ) = 1 − α.
On dit que I1−α est un IC à (1 − α) × 100%: par exemple si α = 0.1,
c’est un intervalle à 90% pour θ.
.
Théorème : Soit T ∼ N (θ, τ 2 ), alors
I1−α = [T − z1−α/2 τ, T + z1−α/2 τ ] = [T + zα/2 τ, T + z1−α/2 τ ]
a pour niveau approximé 1 − α. Ici z1−α/2 est le 1 − α/2 quantile de
la loi N (0, 1).

Probabilité et Statistique I/II — Chapı̂tre 7 14


http://stat.epfl.ch

Interprétation d’un IC

L’interprétation d’un IC se fait par rapport à des répetitions


imaginaires du schéma d’échantillonnage. Si c’était possible de
calculer les ICs correspondants, on trouverait que la proportion
contenant θ serait (1 − α). Donc si nous considérons que notre t est
choisit au hasard parmi toutes les valeurs de T possibles, notre IC
contient θ avec une probabilité de (1 − α).
Note: Plus α → 0, plus il est probable que l’IC contienne θ.
Example 7.4: Pour notre sondage, donner des IC à 80%, 90%, 95%
pour θ. •

Probabilité et Statistique I/II — Chapı̂tre 7 15


http://stat.epfl.ch

z 0 1 2 3 4 5 6 7 8 9
0.0 .50000 .50399 .50798 .51197 .51595 .51994 .52392 .52790 .53188 .53586
0.1 .53983 .54380 .54776 .55172 .55567 .55962 .56356 .56750 .57142 .57535
0.2 .57926 .58317 .58706 .59095 .59483 .59871 .60257 .60642 .61026 .61409
0.3 .61791 .62172 .62552 .62930 .63307 .63683 .64058 .64431 .64803 .65173
0.4 .65542 .65910 .66276 .66640 .67003 .67364 .67724 .68082 .68439 .68793
0.5 .69146 .69497 .69847 .70194 .70540 .70884 .71226 .71566 .71904 .72240
0.6 .72575 .72907 .73237 .73565 .73891 .74215 .74537 .74857 .75175 .75490
0.7 .75804 .76115 .76424 .76730 .77035 .77337 .77637 .77935 .78230 .78524
0.8 .78814 .79103 .79389 .79673 .79955 .80234 .80511 .80785 .81057 .81327
0.9 .81594 .81859 .82121 .82381 .82639 .82894 .83147 .83398 .83646 .83891
1.0 .84134 .84375 .84614 .84850 .85083 .85314 .85543 .85769 .85993 .86214
1.1 .86433 .86650 .86864 .87076 .87286 .87493 .87698 .87900 .88100 .88298
1.2 .88493 .88686 .88877 .89065 .89251 .89435 .89617 .89796 .89973 .90147
1.3 .90320 .90490 .90658 .90824 .90988 .91149 .91309 .91466 .91621 .91774
1.4 .91924 .92073 .92220 .92364 .92507 .92647 .92786 .92922 .93056 .93189
1.5 .93319 .93448 .93574 .93699 .93822 .93943 .94062 .94179 .94295 .94408
1.6 .94520 .94630 .94738 .94845 .94950 .95053 .95154 .95254 .95352 .95449
1.7 .95543 .95637 .95728 .95818 .95907 .95994 .96080 .96164 .96246 .96327
1.8 .96407 .96485 .96562 .96638 .96712 .96784 .96856 .96926 .96995 .97062
1.9 .97128 .97193 .97257 .97320 .97381 .97441 .97500 .97558 .97615 .97670
2.0 .97725 .97778 .97831 .97882 .97932 .97982 .98030 .98077 .98124 .98169

Probabilité et Statistique I/II — Chapı̂tre 7 16


http://stat.epfl.ch

Biais
Définition: Le biais d’un estimateur T d’un paramètre θ est
b(θ) = E(T ) − θ. Si b(θ) = 0 pour tout θ alors T est non-biaisé. Voir
la page suivante.
En principe le schéma d’échantillonnage que nous avons utilisé pour
le sondage nous fournira un estimateur non-biaisé. Mais:

• l’échantillon n’est pas tiré de P, mais d’un sous-ensemble P ′


composé des étudiants de SSC de 2èmeannée présents. Si l’avis
θ(P ′ ) de ce sous-ensemble diffère de l’avis θ(P) de P, alors
l’échantillon n’est pas répresentatif de P, et donc T est biaisé:
E(T ) = θ(P ′ ) 6= θ(P).

• Les personnes présentes ont-ils donnés leurs vrais avis?

Probabilité et Statistique I/II — Chapı̂tre 7 17


http://stat.epfl.ch

Biais et Variance de T

big bias, big variance no bias, big variance

big bias, low variance no bias, low variance

Probabilité et Statistique I/II — Chapı̂tre 7 18


http://stat.epfl.ch

Réduction de Variance par Stratification

La stratification peut réduire var(T ): on divise P en sous-ensembles


qui devraient être plus homogènes que la population elle-même, et on
les échantillonne séparément.
S’il y a deux strates P1 , P2 de tailles connues N1 , N2 , alors
N
X X X
−1 −1 −1
θ=N xj = N xj + N xj
j=1 j∈P1 j∈P2
N1 1 X N2 1 X
= xj + xj
N N1 N N2
j∈P1 j∈P2
= W 1 θ1 + W 2 θ2 ,
où W1 = N1 /N , W2 = N2 /N et θ1 , θ2 sont les valeurs du paramètre
pour les strates respectives.

Probabilité et Statistique I/II — Chapı̂tre 7 19


http://stat.epfl.ch

Si nous prenons des échantillons de tailles n1 , n2 sans remise des deux


strates, on peut prendre comme estimateur

1 X 1 X
T = W1 I1j xj + W2 I2j xj ,
n1 n2
j∈P1 j∈P2

où Ihj indique que la jèmeunité de la hèmestrate est selectionnée.


On laisse comme exercise de démontrer que E(T ) = θ et que

W12 N1 − n1 2 W22 N2 − n2 2
var(T ) = σ1 + σ2 ,
n1 N1 − 1 n2 N2 − 1

où  2
1 X 2  1 X 
σh2 = xj − xj , h = 1, 2.
Nh Nh
j∈Ph j∈Ph

Probabilité et Statistique I/II — Chapı̂tre 7 20


http://stat.epfl.ch

Sommaire

• La statistique concerne comment dire qqc générale d’un système


à partir des données issues de ce système: induction remplace
déduction.

• Dans un cas idéal l’investigateur contrôle la variabilité (schéma


d’échantillonnage), et peut donc la réduire autant que possible.

• On utilise la variation présumée des données pour donner des


bornes raisonnable (dans un sens probabiliste) pour les
paramètres du système.

Probabilité et Statistique I/II — Chapı̂tre 7 21


http://stat.epfl.ch

7.2 Les Estimateurs


Définition: Un modèle statistique est une loi probabiliste construite
pour tirer de l’information des données. Si cette loi est entièrement
spécifiée par un paramètre, on dit que le modèle est paramétrique.
Sinon, il est non-paramétrique.
On peut distinguer deux situations-types pour ces modèles:

• ‘design-based’: la loi probabiliste est utilisée pour obtenir les


données—par exemple, le sondage de §7.1;

• ‘model-based’: la loi probabiliste est présumée—par exemple, on


suppose que nos données y1 , . . . , yn sont une réalisation d’un
iid
échantillon aléatoire Y1 , . . . , Yn ∼ N (θ, 1).

Dans cette 2èmesituation on doit pouvoir vérifier nos hypothèses.


Dans les deux situations, on doit pouvoir estimer des inconnus.

Probabilité et Statistique I/II — Chapı̂tre 7 22


http://stat.epfl.ch

Modèle paramétrique pour les plaques vaudoises

On suppose que les plaques observées y1 , . . . , yn constituent une


iid
réalisation d’un échantillon aléatoire Y1 , . . . , Ym ∼ U (0, θ), avec θ le
nombre total de plaques dans le canton.
On aimerait:

• vérifier si ce modèle est raisonable;

• si oui, estimer θ;

• donner un IC pour θ.

Pour le 1ère, on peut utiliser les statistiques d’ordre des données.

Probabilité et Statistique I/II — Chapı̂tre 7 23


http://stat.epfl.ch

Quantile-quantile (Q-Q) plots

Une manière pour comparer deux échantillons x1 , . . . , xn et


y1 , . . . , yn . On trace le graphique de leurs statistiques d’ordre
(x(1) , y(1) ), (x(2) , y(2) ), . . . , (x(n) , y(n) ).
Si ceci forme une droite, alors les échantillons ont la même forme.
Pour comparer y1 , . . . , yn avec une loi théorique, on remplace x(r) par
le r/(n + 1)-quantile d’une loi théorique (e.g. N (0, 1), exp(1), U (0, 1),
. . .); on les appelle des plotting positions de la loi.
Example 7.5: Montrer que si Y(r) est la rèmestatistique d’ordre de
iid
Y1 , . . . , Yn ∼ U (0, 1), alors les ‘plotting positions’ sont donnés par
r
E(Y(r) ) = , r = 1, . . . , n.
n+1

Probabilité et Statistique I/II — Chapı̂tre 7 24


http://stat.epfl.ch

Plus le graphe se rapproche d’une droite, plus les données


ressemblent à un échantillon issu de la loi considérée.
La pente donne une estimation du paramètre de dispersion de la loi,
et le point d’intersection avec la droite x = 0 donne une estimation
du paramètre de position, si cette intersection existe.
Il est difficil de tirer des conclusions fortes d’un tel graphique quand
n est petit, car la variabilité est alors grande — on a tendance à
sur-interpréter, et à voir des choses qui n’existent pas.

Probabilité et Statistique I/II — Chapı̂tre 7 25


http://stat.epfl.ch

Plaques

Probabilité et Statistique I/II — Chapı̂tre 7 26


http://stat.epfl.ch

Estimateurs

Soient Y = (Y1 , . . . , Yn ) issues d’une population P. Un estimateur


T = t(Y ) est une statistique construite pour estimer un paramètre θ.
Sa valeur t = t(y) est appelée une estimation de θ.
La distinction entre T et t est la distinction entre une variable
aléatoire et l’une de ses valeurs potentielle.
iid
Example 7.6: Soient Y1 , . . . , Yn ∼ U (0, θ), construire des
estimateurs de θ à partir de la moyenne et la médiane des Yj . •

Example 7.7: Dans l’example précédent, calculer un estimateur à


partir du maximum des Yj . Trouver la loi de l’estimateur. •

Example 7.8: Combien de plaques y a-t-il dans le canton de Vaud?

Probabilité et Statistique I/II — Chapı̂tre 7 27


http://stat.epfl.ch

Propriétés des estimateurs

Comment comparer plusieurs estimateurs pour un paramètre donné?


Définition: Un estimateur T = t(Y1 , . . . , Yn ) d’un paramètre θ est
P
consistant si T −→ θ quand n → ∞: c’est à dire que pour tout
ε > 0,
P(|T − θ| > ε) → 0, n → ∞.

Ceci est une propriété minimale: on doit pouvoir connaı̂tre le


paramètre quand n = ∞! Mais il faut aussi des critères pour des
échantillons de taille plus réaliste.
Est-ce que T est proche de θ?
Définition: Le biais d’un estimateur T d’un paramètre θ est
b(θ) = E(T ) − θ. Si b(θ) = 0 pour tout θ alors T est non-biaisé.

Probabilité et Statistique I/II — Chapı̂tre 7 28


http://stat.epfl.ch

Biais et Variance de T

big bias, big variance no bias, big variance

big bias, low variance no bias, low variance

Probabilité et Statistique I/II — Chapı̂tre 7 29


http://stat.epfl.ch

Définition: Le risque quadratique ou erreur quadratique


moyenne de T mesure son écart carré moyen de θ;

rT (θ) = E (T − θ)2 = b(θ)2 + var(T ).




Plus rT est grand, plus T est mauvais.


On peut aussi définir autres fonctions de risque, en prenant
E{d(T, θ)} pour une fonction de distance d(T, θ) telle que |T − θ|.
iid
Example 7.9: Soient Y1 , . . . , Yn ∼ N (µ, σ 2 ), montrer que Y est
consistant pour µ, et calculer son risque quadratique. •
iid
Example 7.10: Soient Y1 , . . . , Yn ∼ exp(λ) et a > 0 une constante,
P
calculer le risque quadratique de T = a/ Yj en tant qu’estimateur
de λ, et le minimiser par rapport à a. •

Probabilité et Statistique I/II — Chapı̂tre 7 30


http://stat.epfl.ch

Un estimateur T1 de θ est préférable à un autre estimateur T2 de θ en


terme de risque quadratique si rT1 (θ) ≤ rT2 (θ) pour tout θ, avec
inégalité stricte pour au moins une valeur de θ.
iid
Example 7.11: Soient Y1 , . . . , Yn ∼ N (µ, σ 2 ), comparer la moyenne
Y et la médiane T en tant que estimateurs de µ pour n grand. •

La robustesse d’un estimateur aux valeurs aberrantes (mauvaises


données, fautes de frappe ou d’instrumentation, . . .) ou aux
hypothèses de modèle est aussi une propriété importante.
Example 7.12: Décrire les effets sur y et la médiane t d’une faute
de frappe qui ajoute c à y1 . •

Probabilité et Statistique I/II — Chapı̂tre 7 31


http://stat.epfl.ch

Les écart-types
.
Dans la §7.1 on a supposé que T ∼ N (θ, τ 2 ), et on a pu construire un
intervalle de confiance pour θ à (1 − α) × 100%:

I1−α = (T − τ z1−α/2 , T + τ z1−α/2 ).

C’est un intervalle aléatoire qui contient θ avec probabilité (1 − α):

P(θ ∈ I1−α ) = 1 − α.

Problème: τ est rarement connu; il faut donc l’estimer.


Définition: Si la statistique V est un estimateur de var(T ), on
appelle V 1/2 (également sa valeur v 1/2 ) un écart-type de T .
v 1/2 mesure la précision de l’estimation t.

Probabilité et Statistique I/II — Chapı̂tre 7 32


http://stat.epfl.ch

Utilisation d’un écart-type

Théorème (Ch 6, page 9): Soient x0 , y0 des constantes, X, Y , {Xn }, {Yn }


des variables aléatoires, et h une fonction continue en x0 . Alors
D P
Xn −→ x0 ⇒ Xn −→ x0 ,
P P
Xn −→ x0 ⇒ h(Xn ) −→ h(x0 ),
D P D D
Xn −→ X et Yn −→ y0 ⇒ Xn + Yn −→ X + y0 , Xn Yn −→ Xy0 .

Théorème : Soient T et V un estimateur et son écart-type se


basant sur un échantillon de taille n, avec
T −θ D V P
−→ Z, −→ 1, quand n → ∞,
τ τ2
où Z ∼ N (0, 1), alors
T −θ D
1/2
−→ Z, quand n → ∞.
V

Probabilité et Statistique I/II — Chapı̂tre 7 33


http://stat.epfl.ch

Des IC approximatifs

Des ICs exacts sont rares, et en général on construit des ICs


approximatifs à l’aide du théorème central limite. Rappelons que la
plupart des statistiques se basant sur les moyennes (implicites ou
explicites) des variables Y = (Y1 , . . . , Yn ) ont des lois normales pour n

grand. Si T = t(Y ) est un estimateur de θ avec écart-type V , et si
.
T ∼ N (θ, V ),
√ .
alors (T − θ)/ V ∼ N (0, 1). Ainsi
n √ o
.
P zα/2 < (T − θ)/ V ≤ z1−α/2 = Φ(z1−α/2 ) − Φ(zα/2 ) = 1 − α,

impliquant qu’un IC de niveau à(1 − α) (approx) pour θ est


√ √
(T − V z1−α/2 , T − V zα/2 ).

Probabilité et Statistique I/II — Chapı̂tre 7 34


http://stat.epfl.ch

iid
Example 7.13: Soient Y1 , . . . , Yn ∼ (µ, σ 2 ), donner des estimateurs
de µ, σ 2 , σ, et un écart-type pour l’estimateur de µ. •

Example 7.14: Dans le cas de l’échantillonnage sans remise d’une


−1
P
population finie, montrer qu’un écart-type pour T = n j∈S xj est
donné par

N −n1 N −1 1 X
V = × (xj − T )2 .
N −1 n N n−1
j∈S

iid
Example 7.15: Soient Y1 , . . . , Yn ∼ U (0, θ), donner des écart-types
pour des estimateurs de θ qui se basent sur la moyenne et la
médiane. Trouver ainsi des IC pour θ. •

Example 7.16: Donner un IC à 95% pour le nombre de plaques


vaudoises.

Probabilité et Statistique I/II — Chapı̂tre 7 35


http://stat.epfl.ch

Cadre Général
Considérons maintenant la construction générale des ICs.
Définition: Soient Y = (Y1 , . . . , Yn ) des données issues d’une loi
paramétrique F avec paramètre θ. Alors un pivot est une fonction
Q = q(Y, θ) dont la loi est connue et qui ne dépend pas de θ. On dit
alors que Q est pivotale.
iid
Example 7.17: Soient Y1 , . . . , Yn ∼ exp(λ), montrer que Q = Y λ
est un pivot. •
iid
Example 7.18: Soient Y1 , . . . , Yn ∼ N (µ, σ 2 ) et σ 2 connu, montrer
que Q1 = q1 (Y, µ) = n1/2 (Y − µ)/σ est un pivot.
Si σ 2 est inconnu, montrer que Q2 = n1/2 (Y − µ)/S et Q3 = S 2 /σ 2
sont des pivots. •

Probabilité et Statistique I/II — Chapı̂tre 7 36


http://stat.epfl.ch

Les intervalles de confiance


Définition: Soient Y = (Y1 , . . . , Yn ) des données issues d’une loi
paramétrique F de paramètre θ scalaire. Un intervalle de
confiance (BI , BS ) pour θ est une statistique sous forme
d’intervalle qui contient θ avec un probabilité spécifiée. Cette
probabilité s’appelle le niveau de l’intervalle.
Si
P (BS ≤ θ) = αS , P (θ < BI ) = αI ,
alors
P (BI ≤ θ < BS ) = 1 − αS − αI ,
et le niveau de (BI , BS ) est de 1 − αS − αI . Souvent en pratique on
prend αI = αS = α/2, donnant un intervalle bilatéral de niveau
(1 − α), et on dit que c’est un IC à (1 − α) × 100%.

Probabilité et Statistique I/II — Chapı̂tre 7 37


http://stat.epfl.ch

Calcul d’un IC via un pivot

Soit Q = q(Y, θ) un pivot, alors ses quantiles qαI , qαS sont connus, au
moins en principe. Supposons que l’équation
q(Y, θ) = q ′
a une solution θ ′ = q −1 (Y, q ′ ) pour tout Y , et que cette solution est
décroissante en q ′ . Alors
αS − αI = P {qαI ≤ q(Y, θ) ≤ qαS }
= P q (Y, qαI ) ≥ θ ≥ q −1 (Y, qαS ) ;
 −1

alors
−1 −1

(BI , BS ) = q (Y, qαS ), q (Y, qαI )
est un IC de niveau αS − αI pour θ. Si αS = 1 − α/2, αI = α/2,
alors le niveau est (1 − α).

Probabilité et Statistique I/II — Chapı̂tre 7 38


http://stat.epfl.ch

Example 7.19: Utiliser le maximum pour donner IC à 95% pour le


nombre de plaques vaudoises. •

Probabilité et Statistique I/II — Chapı̂tre 7 39

Vous aimerez peut-être aussi