Académique Documents
Professionnel Documents
Culture Documents
ENSEA-ITS 2 (2010-2011)
26 septembre 2010
Nous avons confiance en Dieu ; que tous les autres apportent des
justificatifs. [Edwards Deming, Professeur de statistique américain,
1900-1993]
Table des matières
1 Introduction 7
3
4 TABLE DES MATIÈRES
3.3 Modélisation statistique . . . . . . . . . . . . . . . . . . . . . 37
3.4 Théorie de la décision . . . . . . . . . . . . . . . . . . . . . . . 38
3.5 Statistique exhaustive, libre, totale . . . . . . . . . . . . . . . 40
3.5.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.6 Familles exponentielles . . . . . . . . . . . . . . . . . . . . . . 42
4 Estimation ponctuelle 45
4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2 Propriétés des estimateurs . . . . . . . . . . . . . . . . . . . . 45
4.3 Information de Fisher . . . . . . . . . . . . . . . . . . . . . . . 46
4.3.1 Cas où θ est unidimensionnel . . . . . . . . . . . . . . 46
4.3.2 Généralisation au cas où θ est multidimensionnel . . . 48
4.4 Estimateur sans biais . . . . . . . . . . . . . . . . . . . . . . . 49
4.4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.4.2 Amélioration d’un estimateur sans biais . . . . . . . . . 50
4.4.3 Cas des familles exponentielles . . . . . . . . . . . . . . 51
4.5 Methode du maximum de vraisemblance . . . . . . . . . . . . 52
4.5.1 Propriétés à distance finie . . . . . . . . . . . . . . . . 52
4.5.2 Propriétés asymptotiques . . . . . . . . . . . . . . . . . 52
6 Tests d’hypothèses 63
6.1 Principe des tests . . . . . . . . . . . . . . . . . . . . . . . . . 63
6.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . 63
6.1.2 p-valeur . . . . . . . . . . . . . . . . . . . . . . . . . . 65
6.1.3 Etapes d’un test d’hypothèses . . . . . . . . . . . . . . 66
6.2 Test de Neyman-Pearson . . . . . . . . . . . . . . . . . . . . . 66
6.3 Tests entre hypothèses composites . . . . . . . . . . . . . . . . 71
6.3.1 Famille à rapport de vraisemblance monotone . . . . . 72
6.3.2 Tests U.P.P. . . . . . . . . . . . . . . . . . . . . . . . . 72
6.3.3 Tests U.P.P.S.B. . . . . . . . . . . . . . . . . . . . . . . 74
6.4 Tests du χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
6.4.1 Test d’adéquation à une loi donnée . . . . . . . . . . . 76
6.4.2 Test d’adéquation à une famille de lois . . . . . . . . . 77
6.4.3 Test d’indépendance . . . . . . . . . . . . . . . . . . . 78
TABLE DES MATIÈRES 5
7 Régression linéaire 81
7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
7.2 Régression simple : p = 1 . . . . . . . . . . . . . . . . . . . . . 82
7.2.1 Modélisation . . . . . . . . . . . . . . . . . . . . . . . 82
7.2.2 Estimateurs des moindres carrés . . . . . . . . . . . . . 82
7.2.3 Modèle linéaire Gaussien simple . . . . . . . . . . . . . 86
7.3 Regression linéaire multiple : p > 1 . . . . . . . . . . . . . . . 87
7.3.1 Modélisation . . . . . . . . . . . . . . . . . . . . . . . 87
7.3.2 Estimateurs des moindres carrés ordinaires . . . . . . . 88
7.3.3 Modèle gaussien . . . . . . . . . . . . . . . . . . . . . . 91
9 Examens 103
6 TABLE DES MATIÈRES
Chapitre 1
Introduction
7
8 CHAPITRE 1. INTRODUCTION
Statistique et probabilités
La théorie des probabilités étudie les propriétés de certaines structures
modélisant des phénomènes où le hasard intervient. Les probabilités sont uti-
lisées en Statistique pour pouvoir extrapoler à la population les résultats
constatés sur l’échantillon.
Chapitre 2
Rappels et Compléments de
probabilité
9
10 Armel Fabrice YODÉ
• A ∈ A =⇒ Ā = {x ∈ Ω et x 6∈ A} ∈ A
[
• pour toute famille finie ou dénombrable (Ai )i∈I ⊂ A =⇒ Ai ∈ A
i∈I
Preuve. Exercice.
10
ENSEA-ITS2 11
2.2.1 Définitions
Définition 5. Soient A et B deux évènements tels que P(B) > 0. On appelle
probabilité conditionnelle de A sachant que B s’est réalisé, le réel défini par
P(A ∩ B)
P(A/B) = .
P(B)
Preuve. Exercice.
Remarque 3. Attention ! ! !
• indépendance6=incompatibilité
• Pour que 3 événements soient mutuellement indépendants, il ne suffit pas
qu’ils soient 2 à 2 indépendants. La condition d’indépendance mutuelle
est beaucoup plus forte que l’indépendance deux à deux qui ne lui est
pas équivalente mais en est une simple conséquence.
Exemple 3. Jet de deux pièces à Pile ou Face : Ω = {P P, P F, F P, F F }
où par exemple ”PF” signifie que la première pièce donne Pile et la se-
conde Face. Cet espace est muni de la probabilité uniforme. On considère
les événements suivants
A=”la première pièce donne Pile”
B=”la seconde pièce donne Face”
Définition 8. Une famille finie d’événements (Ai )1≤i≤n deux à deux incom-
patibles tels que ∪ni=1 Ai = Ω est appelée système complet d’événements.
Preuve. Exercice.
P(Bi )P(A/Bi )
∀A P(Bi /A) = n .
X
P (Bk )P(A/Bk )
k=1
Preuve. Exercice.
2.3.1 Définitions
Définition 9. Une variable aléatoire réelle X est une application de (Ω, A)
dans (R, B(R)) telle que
Exemple 4. Soit l’expérience aléatoire ”lancer deux dés discernables” (et non
pipés si l’on veut vraiment une expérience aléatoire). L’espace fondamental est
Ω = {(i, j) : 1 ≤ i, j ≤ 6}. Soit X la variable aléatoire qui à chaque ω ∈ Ω
associe la somme des numéros affichés. L’ensemble des valeurs possibles de la
variable X est
X(Ω) = {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}.
12
ENSEA-ITS2 13
1 2 3 4 5 6
1 2 3 4 5 6 7
2 3 4 5 6 7 8
3 4 5 6 7 8 9
4 5 6 7 8 9 10
5 6 7 8 9 10 11
6 7 8 9 10 11 12
PX (B) = P X −1 (B)
∀B ∈ B(R).
X −1 (B) = {(5, 1), (1, 5), (2, 4), (4, 2), (3, 3)} .
∀x ∈ R FX (x) = P(X ≤ x)
Définition 14. Soit X une variable aléatoire réelle. Supposons que la fonction
de répartition FX est continue et strictement croissante. Pour 0 ≤ α ≤ 1, on
note xα l’unique nombre réel vérifiant
FX (xα ) = P (X ≤ xα ) = α.
2.4 Moments
Soit X une variable aléatoire réelle.
14
ENSEA-ITS2 15
X
• E(X) = xP(X = x) si X est discrète
x∈X(Ω)
Z +∞
• E(X) = xfX (x)dx si X est à densité.
−∞
var(X)
P (|X − E(X)| > ε) ≤ .
ε2
Soit ϕ : R → R et Y = ϕ(X). Pour calculer E(Y ), on peut utiliser le
Théorème suivant
Théorème 3. (de transfert).
Sous reserve d’existence, nous avons
Z +∞
E(ϕ(X)) = ϕ(x)dPX (x)
−∞
lim FX (x1 , . . . , xd ) = 0, ∀i
xi →−∞
lim FX (x1 , . . . , xd ) = 1
x1 →+∞,...,xd →+∞
fX (x1 , . . . , xd ) = P (X1 = x1 , . . . , Xd = xd )
avec xi ∈ Xi (Ω), i = 1, . . . , d.
- Cas continu.
Si FX est différentiable, alors
∂ d FX (x1 , . . . , xd )
fX (x1 , . . . , xd ) =
∂x1 . . . ∂xd
et de densité Z Y
fXi (xi ) = fX (x1 , . . . , xd ) dxj .
Rd−1 j6=i
Les mesures de probabilités PXi déterminées à partir des FXi ou des fXi sont
appelées lois marginales de X.
Propriété 7. Soit (X1 , . . . , Xd ) un vecteur aléatoire de dimension d.
16
ENSEA-ITS2 17
E(Y ) = AE(X) + B
ΣY = AΣX At
2.5.2 Indépendence
Définition 20. On dit que les variables aléatoires X1 , . . . , Xd sont indépendantes
si la densité conjointe vérifie
d
Y
f (x1 , . . . , xd ) = fXi (xi ),
i=1
cov(X, Y )
ρ= p p .
var(X) var(Y )
Définition 24. Si le couple (X, Y ) est à valeur dans R2 et possède une densité
f (x, y), les densités conditionnelles existent et sont données par
f (x, y) f (x, y)
fY /X=x (y) = fX/Y =y (x) = .
fX (x) fY (y)
Définition 25. L’espérance conditionnelle de Y sachant X = x est définie par
Z +∞
E(Y /X = x) = yfY /X=x (y)dy.
−∞
Remarque 4. Lorsque l’une des variables est discrète et l’autre possède une
densité il suffit de remplacer là où c’est nécessaire les intégrales par des sommes
finies et les densités par des probabilités ponctuelles.
Théorème 5. de l’expérance totale.
18
ENSEA-ITS2 19
a pour densité
1 − x2 n
fY (y) = n/2 n e x 2 −1 1IR+ (x).
2 Γ( 2 )
3. Loi de Student
Soient X et Y deux variables aléatoires indépendantes suivant respecti-
vement N (0, 1) et χ2 (n).
On appelle loi de Student n dégrés de liberté la loi suivie par le rapport
X
Tn = q .
Y
n
φX (u) = E(ei<u,X> )
20
ENSEA-ITS2 21
Qd
6. X1 , . . . , Xd sont indépendantes ⇐⇒ φ(X1 ,...,Xd )t (u) = i=1 φXi (u).
7. X est une variable à valeurs dans Rd et A une matrice à p lignes et d
colonnes, B un vecteur de dimension d, alors
∂ k φX (t)
= ik E(ei<t,X> Xi1 Xi2 . . . Xik ).
∂xi1 ∂xi2 . . . ∂xik
Remarque 5. (Cas d = 1)
Si X est une variable aléatoire réeele discrète,
X
φX (u) = eiux P (X = x).
x∈X(Ω)
par
lim P(kXn − Xk > ε) = 0
n→+∞
où k · k est une norme quelconque sur Rd puisque toutes les normes sont
équivalentes sur Rd .
Théorème 10. Soit g est une fonction continue. Alors
P P
- Xn −→ X =⇒ g(Xn ) −→ g(X).
L L
- Xn −→ X =⇒ g(Xn ) −→ g(X).
22
ENSEA-ITS2 23
Cette variable modélise l’issue d’une expérience où l’on ne s’intéresse qu’au
”succès” ou à l’”echec” de l’expérience.
Exemple 8. Lancer d’une pièce de monnaie (pile ou face), qualité d’un produit
(bon ou defectueux), sondage elctoral (pour ou contre).
E(X) = np
var(X) = np(1 − p).
La fonction caractéristique est
φX (t) = (1 − p + peit )n .
E(X) = np.
24
ENSEA-ITS2 25
Loi normale
On dit que X suit une loi normale de paramètre (m, σ 2 ) avec m ∈ R,
σ 2 ∈ +∗ si sa densité de probabilité est
1 1 x − m 2
fX (x) √ exp{− }, x ∈ R.
σ 2π 2 σ
t2 σ 2
φX (t) = exp itm − .
2
où Z ∞
Γ(a) = e−x xa−1 dx.
0
a
E(X) =
ρ
26
ENSEA-ITS2 27
a
var(X) = 2 .
ρ
La fonction caractéristique est
1
φX (t) =
(1 − itρ )a
Loi exponentielle
Si a = 1 la loi γ(1, ρ) = E(ρ) est appelé loi exponentielle de paramètre
ρ > 0 et a pour densité de probabilité
Exemple 10.
θ
Pθ ∼ B(θ, 1) ⇒ f (x, θ) = (1 − θ) exp x ln
1−θ
1 1 2
Pθ ∼ N (θ, 1) ⇒ f (x, θ) = √ exp − (x − θ)
2π 2
28
Chapitre 3
3.1 Exemple
Nous supposons que l’interlocuteur du statisticien est un industriel, respon-
sable d’une machine qui produit des pièces classées soit ”bonnes”, codé par 0, soit
”défectueuses”, codé par 1. Le nombre de pièces fabriquées étant gigantesque et
l’examen de chaque pièce étant relativement coûteux, il ne peut évaluer la qualité
de sa production que sur un lot de taille n faible au regard de la production. On
observe alors ce lot de n pièces et on note (x1 , . . . , xn ) les observations. En se basant
sur ce lot, le statisticien cherche le renseignement le plus utile à l’industriel en vue
de prendre une décision (mettre en vente la production ou non, réparer ou non la
machine, etc).
• Modélisation : on suppose que xi est la réalisation d’une variable aléatoire
Xi de loi de Bernouilli B(1, p), p ∈]0, 1[ ; nous faisons les hypothèses suivantes :
- X1 , . . . , Xn sont indépendantes : on admet que des petites variations
aléatoires pouvant influer sur la qualité des pièces ne se repercutent pas
d’une pièce à une autre.
- X1 , . . . , Xn sont identiquement distribuées : on admet que la pro-
duction a été stable durant la période d’observation ; cette stabilité est
caractérisée par la constance de la probabilité p pour chaque pièce pro-
duite d’être défectueuse.
L’espace des observations est X n = {0, 1}n . Pour tout (x1 , . . . , xn ) ∈ X n ,
nous avons
n
Y Pn Pn
xi
P(X1 = x1 , . . . , Xn = xn ) = P(Xi = xi ) = p i=1 (1 − p)n− i=1 xi
i=1
29
30 Armel Fabrice YODÉ
3.2 Echantillonnage
3.2.1 Population taille finie
Soit E un ensemble, que nous appelerons population mère, contenant un nombre
fini N d’éléments. Nous supposerons que l’on veut étudier une propriété X de cette
population. L’objectif serait donc de déterminer les principales caractéristiques de la
loi de X. S’il est possible d’effectuer un recensement, c’est-à-dire interroger ou ins-
pecter tous les éléments de E les caractéristiques de X seront parfaitement connues.
Une telle situation est très rare, et l’étude de X sera fréquemment réalisée à partir
d’observations partielles de X, ceci pour des considérations de coût, de rapidité de
collecte et d’exploitation. Soit En un échantillon de E de taille n. En est tout simple-
ment un sous-ensemble quelconque de E de n éléments. Il est clair qu’il existe dans
ce cas-là CN n différentes possibilités pour E . Nous supposons ici avoir procédé à la
n
selection de l’échantillon En de manière aleatoire. On est alors dans le cas d’un tirage
aléatoire. Tout calcul statistique sera effectué à partir des valeurs de la propriéte
X sur l’échantillon choisi aleatoirement En . On note X1 , . . . , Xn les valeurs de X
correspondant aux éléments de En . Ce sont des variables aléatoires car En a été tiré
aléatoirement.
De nombreuses méthodes de tirage aléatoire sont possibles. On étudie ici les
deux méthodes suivantes :
- Tirage avec remise : on tire au hasard l’échantillon unité par unité ; lorsqu’un
élément est tiré, il n’est pas éliminé. Au contraire, il est remis dans la popula-
tion et peut être tiré ultérieurement. De fait, le même élément peut participer
au tirage plusieurs fois. Ce mode de tirage est appelé tirage de Bernouilli
- Tirage sans remise : l’échantillon est obtenu par le tirage aléatoire des unités,
mais chacune d’entre elles ne peut être tirée qu’une seule fois. Cette méthode
d’échantillonnage porte aussi le nom de tirage exhaustif.
30
ENSEA-ITS2 31
2. L’échantillonnage aléatoire systématique est une technique où les unités sta-
tistiques sont choisis à intervalle régulier dans la base de sondage.
Exemple 12. On a une liste d’élèves comprenant K = 36 élèves (21 filles et
15 garçons) et on désire en choisir k = 12 élèves de façon aléatoire simple.
(a) On numérote les élèves de 1 à 36
(b) On détermine le pas de sondage, désigné par a, donné par :
K 36
a= =
k 12
ce qui amène à choisir comme pas de sondage l’entier a = 3.
(c) Le pas de sondage étant égal à 3, on détermine le point de départ, désigné
par d, en choisissant au hasard un nombre entre 1 et 36, ce qui donnerait
par exemple 5.
(d) On constitue notre échantillon en retenant l’élève correspondant à chaque
numéro désigné par :
5 8 11 14 17 20 23 26 29 32 35 2.
32
ENSEA-ITS2 33
Garçons :
Le pas de sondage a est donné par
15
a= =3
3
On choisit au hasard le point de départ entre 1 et 15, par exemple
3.
On a donc
3 6 9 12 15
Définition 36. Soit une propriété définie par la variable aléatoire X, application
de (Ω, A, P) −→ (X , B, PX ), B étant ici la tribu des boréliens, telle que
∀B ∈ B X −1 (B) ∈ A.
(X , B, P)n = (X n , Bn , PnX )
où
34
ENSEA-ITS2 35
- Xn = |X × .{z
. . × X} est le produit cartésien de l’espace X
n fois
- Bn est la tribu produit des événements de X n
- PnX est la loi ou la distribution jointe des observations.
On notera Xi la ième observation, variable aléatoire de même loi que X et l’ensemble
des observations (X1 , . . . , Xn ) est l’échantillon aléatoire.
Définition 37. Soit (X1 , . . . , Xn ) des variables aléatoires indépendantes identique-
ment distribuées (i.i.d) de loi Pθ admettant la densité f (xi , θ) avec θ ∈ Θ. Alors le
modèle statistique associé à X n = (X1 , X2 , . . . , Xn ) admet comme densité
n
Y
f (x1 , . . . , xn , θ) = f (xi , θ).
i=1
n−1 2
E(S02 ) =σ .
n
- La variance empirique modifiée est définie par
n
1 X
Sn2 = (Xi − X̄n )2 .
n−1
i=1
E(Sn2 ) = σ2.
Exercice 1. Montrer que :
n
Sn2 = S2
n−1 0
Resultats importants :
• Cas σ 2 est connue : Théorème central limite
√
n(X̄n − m)
−→ N (0, 1) (en loi) quand n −→ +∞.
σ
En pratique, nous avons
√
n(X̄n − m)
≈ N (0, 1) n ≥ 30.
σ
Pour n ≤ 30, le résultat reste vrai seulement si X suit une loi normale.
X −λ
√ −→ N (0, 1) λ −→ ∞
λ
En pratique, si λ > 18, on peut remplacer la loi de X par N (λ, λ).
• Loi des grands nombres
36
ENSEA-ITS2 37
Yi = Xi β + α + i
f (x, θ) = Pθ (X = x) ∀x ∈ X(Ω)
- Si X est une variable aléatoire continue alors f (x, θ) est la densité de proba-
bilité de X.
Définition 40. Si toutes les lois Pθ , θ ∈ Θ ont un support commun alors le modèle
est dit homogène. Cela signifie que pour chaque θ ∈ Θ, {x : f (x, θ) > 0} ne dépend
pas de θ.
Définition 41. Le modèle statistique (E, B, {Pθ , θ ∈ Θ}) est identifiable lorsque
l’application θ −→ Pθ définie dans Θ à valeurs dans P est injective.i.e
0 0
∀θ, θ ∈ Θ, Pθ = Pθ0 =⇒ θ = θ .
ou
0 0 0
∀θ, θ ∈ Θ, f (x, θ) = f (x, θ ) =⇒ θ = θ .
Définition 42. On appelle statistique définie sur (E, B, {Pθ , θ ∈ Θ}) une applica-
tion
S : (E, B, {Pθ , θ ∈ Θ}) −→ (V, V)
où (V, V) est un espace probabilisable.
Définition 43. On appelle espace des décisions, l’ensemble des décisions que
l’on souhaite effectuer. Soit D l’espace des décisions.
l : D × Θ −→ R+
38
ENSEA-ITS2 39
Définition 46. La fonction de risque est définie comme la moyenne des pertes
Z
R(δ, θ) = Eθ l(δ(X), θ) = l(δ(x), θ)dPθ (x)
V
La fonction de risque :
Définition 47. On dit que δ1 est préférable à δ2 si R(δ1 , θ) ≤ R(δ2 , θ), pour toute
valeur de θ ∈ Θ, l’inégalité étant stricte pour au moins une valeur de θ.
Définition 48. Une décision est optimal si elle est aussi bonne que toutes les autres.
Le but est de choisir la règle de décision optimale i.e celle qui est préférable à
toutes les autres. Cependant, deux procédures δ1 et δ2 telles que
Définition 49. Soit (E, B, {Pθ , θ ∈ Θ}) un modèle statistique engendré par une
observation X et T = T (X) une statistique. T est dite exhaustive par rapport à la
famille {Pθ , θ ∈ Θ} si Pθ (X/T (X) = t) ne dépend pas de θ.
En d’autres termes, la loi conditonnelle de X sachant T (X) ne dépend pas de θ.
Remarque 10. Cela signifie que sachant T , la connaissance de X n’apporte pas d’in-
formation supplémentaire sur le paramètre inconnu θ. Toute l’information relative
à θ est contenue dans T (X).
P(X1 = x1 , . . . , Xn = xn , ni=1 Xi = t)
P
n
P(X1 = x1 , . . . , Xn = xn /T (X ) = t) =
P( ni=1 Xi = t)
P
40
ENSEA-ITS2 41
Preuve : admise
Exemple 18. Soit X n = (X1 , . . . , Xn ) un échantillon de taille n d’une loi de Poisson
P(θ).
n Pn
Y e−nθ θ i=1 xi
f (x1 , . . . , xn , θ) = f (xi , θ) =
x1 ! . . . xn !
i=1
On pose :
1
h(x1 , . . . , xn ) =
x 1 ! . . . xn !
g(T (x1 , . . . , xn ), θ) = e−nθ θT (x1 ,...,xn )
n
X
T (x1 , . . . , xn ) = xi
i=1
Théorème 14. Soit T une statistique exhaustive pour θ. Alors φ(T ) est une statis-
tique exhaustive pour θ si φ est une apllication bijective.
Preuve : On va montrer que Pθ (X/φ(T (X)) = t) est indépendante de θ. En effet
Définition 52. La statistique T est totale (ou complète) si pour toute fonction
numérique bornée g :
{∀ θ ∈ Θ, Eθ g(T ) = 0} =⇒ g(T ) = 0 Pθ − ps ∀θ ∈ Θ.
Exemple 20. MontronsPn que pour le modèle de Bernouilli P = {B(1, θ); θ ∈]0, 1[},
la statistique S = i=1 Xi est totale. Soit g une fonction numérique mesurable et
bornée telle que pour tout θ ∈]0, 1[,
n k
n
X θ θ
0 = Eθ (g(S)) = (1 − θ) Cnk g(k) n
= (1 − θ) Q .
1−θ 1−θ
k=0
La fonction x → Q(x) est un polynôme de dégré n, nul pour x ∈]0, ∞[. Les co-
efficients de ce polynôme sont donc nuls. Cela implique que g(k) = 0 pour tout
k ∈ {0, . . . , n}. On en déduit que g(S) = 0 Pθ -p.s pour tout θ ∈]0, 1[. La statistique
S est donc totale.
Proposition 11. Toute statistique exhaustive et totale T est une statistique exhaus-
tive minimale.
Une statistique exhaustive complète est une statistique qui s’est débarassée de
toute statistique libre : c’est le Théorème de Basu.
42
ENSEA-ITS2 43
Définition 53. On dit qu’une famille {Pθ , θ ∈ Θ} est une famille exponentielle si
la densité f (x, θ) est de la forme
k
X
f (x, θ) = C(θ)h(x) exp gj (θ)Tj (x)
j=1
n
Y n
X
où hn (x1 , . . . , xn ) = h(xi ), Tn,j (x1 , . . . , xn ) = Tj (xj ).
i=1 i=1
Remarque 15. Ce modèle est appelé modèle canonique lorsque gj (θ) = θj .
h(x) = 1
−1
g1 (m, σ 2 ) = 2
2σ
2 m
g2 (m, σ ) = 2
σ
T1 (x) = x2
T2 (x) = x.
44
Chapitre 4
Estimation ponctuelle
4.1 Définitions
Définition 54. On appelle estimateur de g(θ) toute fonction Tn qui ne dépend
uniquement que des observations (X1 , . . . , Xn ) à valeurs dans un domaine acceptable
pour g(θ).
Remarque 16. Tn (X1 , . . . , Xn ) ne dépend pas de θ .
Définition 55. Une estimation est la réalisation d’un estimateur sur les données
x1 , . . . , xn . Autrement dit, l’estimation est la valeur que l’on peut calculer en rem-
plaçant les Xi par les xi dans la définition de l’estimateur correspondant.
45
46 Armel Fabrice YODÉ
σ2
L
Tn ≈ N g(θ), θ .
n
{f (x, θ); θ ∈ Θ ⊂ R}
∂ log f (X, θ)
S(X, θ) = .
∂θ
Définition 59. On appelle information de Fisher apportée par X sur le paramètre
θ la quantité suivante positive ou nulle (si elle existe) :
46
ENSEA-ITS2 47
∂2 ∂ 2 ln f (x, θ)
Z Z Z
1 ∂f (x, θ) ∂ ln(f (x, θ))
f (x, θ)dx = f (x, θ)dx + f (x, θ) dx
∂θ2 f (x, θ) ∂θ ∂θ ∂θ2
= 0.
D’où le résultat.
∂2
Z Z 2
∂ f (x, θ)
f (x, θ)dx = i, j = 1, . . . , d.
∂θi ∂θj A A ∂θi ∂θj
0 0
Définition 60. Sous les hypothèses (H1 ), (H2 ) et (H3 ), on appelle information de
Fisher la matrice (si elle existe)
∂ ln(f (X, θ)) ∂ ln(f (X, θ))
I(θ) = Eθ
∂θi ∂θi i,j=1,...,d
48
ENSEA-ITS2 49
0
Proposition 13. Sous l’hypothèse (H3 ), on a
2
∂ ln(f (X, θ))
I(θ) = − E .
∂θi θj i,j=1,...,d
Preuve (Exercice)
4.4.1 Définitions
Définition 61. On appelle biais d’un estimateur θn∗ la quantité
bn (θ) = Enθ (θn∗ ) − g(θ).
Un estimateur est dit sans biais si bn (θ) = 0, c’est à dire, Enθ (θn∗ ) = g(θ).
Interprétation :
Remarque 18. Un estimateur est sans biais si sa valeur espérée qui est Enθ (θn∗ ) est
égale au paramètre à estimer g(θ). Le biais nous indique la valeur moyenne de l’erreur
d’estimation θn∗ − g(θ). Trois cas sont possibles :
• Eθ (θn∗ ) = g(θ) pour toutes les valeurs possibles du paramètre. L’estimateur
est sans biais ;
• Eθ (θn∗ ) = g(θ) + b où b est indépendent de θ. Dans ce cas l’estimateur a un
biais constant et connu, qui peut toujours être eliminé ;
• Eθ (θn∗ ) = g(θ) + b(θ) c’est-à-dire, on a un biais qui dépend de θ (qui est
inconnu).
Définition 62. Un estimateur est dit asymptotiquement sans biais si bn (θ) −→ 0
quand n → +∞.
On désire en général avoir des estimateurs qui soient sans biais. Cependant, un
estimateur peut être sans biais et être de mauvaise qualité, s’il produit, avec une
grande probabilité, des estimations qui sont très différentes de la vraie valeur.
Pour un estimateur θn∗ donné de g(θ), le risque quadratique moyen est défini par
R(θn∗ , θ) = Enθ (θn∗ − g(θ))2
= Enθ (θn∗ − Enθ (θn∗ ))2 + (Enθ (θn∗ ) − g(θ))2
= varθ (θn∗ ) + bn (θ)2
Le but est de trouver un estimateur avec un plus petit risque pour tout θ ∈ Θ.
50
ENSEA-ITS2 51
Remarque 21. Un estimateur efficace est optimal parmi les estimateurs sans biais.
Mais il peut exister un estimateur optimal parmi les estimateurs sans biais qui ne soit
pas efficace i.e. dont la variance reste strictement supérieure à la borne de FDCR.
En particulier, il n’existe pas toujours un estimateur efficace.
Théorème 23. Sous les conditions pour l’inégalité de FDCR, pour que la borne
inférieure soit atteinte dans cette inégalité, il est necessaire et suffisant que θn∗ soit
exhaustif et que la fonction g(θn∗ , θ) du théorème de factorisation soit de la forme
c’est à dire
fn (x1 , . . . , xn , θ̂n ) ≥ fn (x1 , . . . , xn , θ), ∀θ ∈ Θ
52
ENSEA-ITS2 53
54
Chapitre 5
5.1 Définitions
Définition 66. Soit α ∈]0, 1[ ; on appelle intervalle de confiance pour le paramètre
θ de niveau de confiance 1 − α, l’intervalle [T1 (X n ), T2 (X n )] tel que
Pθ ([T1 (X n ), T2 (X n )] 3 θ) = 1 − α
Remarque 25. .
Définition 68. Soit X une variable aléatoire réelle. Supposons que la fonction de
répartition FX soit continue et strictement croissante. Pour 0 ≤ α ≤ 1 ; on note xα
l’unique nombre réel vérifiant
FX (xα ) = P(X ≤ xα ) = α.
55
56 Armel Fabrice YODÉ
Méthode de construction
- Soit h(X1 , . . . , Xn , θ) une fonction pivotale pour θ.
- Supposons que l’on puisse déterminer numériquement u1 et u2 tel que
Pθ (u1 ≤ h(X1 , . . . , Xn , θ) ≤ u2 ) = 1 − α
u1 et u2 sont indépendants de θ.
- Résoudre en θ la double inéquation
u1 ≤ h(X1 , . . . , Xn , θ) ≤ u2 (5.2.1)
g1 (X1 , . . . , Xn ) ≤ θ ≤ g2 (X1 , . . . , Xn ),
X̄n − µ
N (0, 1).
√σ
n
56
ENSEA-ITS2 57
X̄n − µ
F Partant de N (0, 1) on a :
√σ
n
" #
X̄n − µ
P a≤ ≤ b = 1 − α. (5.3.1)
√σ
n
Ce qui implique
" # " #
X̄n − µ X̄n − µ
P ≤a +P ≥ b = α.
√σ √σ
n n
Posons :
" #
X̄n − µ
P ≤ a = α1
√σ
n
" #
X̄n − µ
P ≥ b = α2 .
√σ
n
F Donc
bσ aσ
I = X̄n − √ , X̄n − √
n n
est un intervalle de confiance de niveau de confiance de 1 − α pour µ. Sa
longueur est
σ
√ (b − a).
n
Pamis tous ces intervalles de confiance, peut-on en exhiber un qui soit meilleur
que tous les autres (au sens où sa longueur serait minimale). La réponse est
fournie par le résultat suivant :
Théorème 24. Soit X une variable aléatoire réelle de densité f (x) symétrique
par rapport à zero et unimodale. Soit I la classe des intervalles réels de type
[a, b] tels que a < 0 < b et vérifiant P(a ≤ X ≤ b) = 1 − α où α ∈]0, 1[.
L’intervalle de longueur minimale est celui qui est symétrique par rapport à
zéro, c’est à dire du type [−t, t] où t est alors le quantile d’ordre 1 − α2 de f (x).
Comme la densité de la loi normale N (0, 1) est symétrique par rapport à zero
et unimodale, on peut utiliser ce résultat. Ce qui conduit à a = −b et
" # " #
X̄n − µ X̄n − µ
P σ ≤ −b + P σ ≥ b = α.
√ √
n n
Comme
" # " #
X̄n − µ X̄n − µ α
P ≤ −b = P ≥ b ⇒ α1 = α2 =
√σ √σ 2
n n
X̄n − µ
Z= N (0, 1)
√σ
n
58
ENSEA-ITS2 59
et que
Sn2
Y = (n − 1) χ(n − 1)
σ2
où
n
1 X
Sn2 = (Xi − X̄n )2
n−1
i=1
on en deduit que :
√
Z n(X̄n − µ)
h(X1 , . . . , Xn , µ) = q = T (n − 1)
Y Sn
n
X̄n − µ
N (0, 1)
√σ
n
n
!2
S̃ 2 X X̄n − µ
n n2 = χ2 (n)
σ √σ
i=1 n
où
n
1X
S̃n2 = (Xi − µ)2
n
i=1
F Donc
" #
nS̃n2 nS̃n2
I= ,
b a
60
ENSEA-ITS2 61
Sn2
(n − 1)
σ2
est pivotale pour σ 2
F En procédant comme précédemment, on montre que l’intervalle de confiance
de niveau 1 − α pour σ 2 est
" #
nS̃n2 nS̃n2
,
b a
62
Chapitre 6
Tests d’hypothèses
Définition 75. Un test pur est une application ϕ dépendant de X n à valeurs dans
{0, 1} telle que l’on accepte H1 si ϕ(X n ) = 1 et l’on accepte H0 si ϕ(X n ) = 0.
Un test pur est déterminé par sa région critique définie
Rn = {X n : ϕ(X n ) = 1} .
63
64 Armel Fabrice YODÉ
γϕ (θ) = 1 − βϕ (θ), θ ∈ Θ1
Définition 80. Le test ϕ de niveau α est dit sans biais si sa puissance est supérieure
ou égale à α i.e. si
γϕ (θ) ≥ α, ∀θ ∈ Θ1 .
Définition 81. Le test ϕ est dit Uniformément le Plus Puissant (U.P.P.) de seuil
α si pour tout autre test ψ, on a
αϕ (θ) ≤ αψ (θ) ≤ α, ∀θ ∈ Θ0
γϕ (θ) ≥ γψ (θ), ∀θ ∈ Θ1
64
ENSEA-ITS2 65
6.1.2 p-valeur
On désire tester l’hypothèse nulle H0 contre une alternative H1 . Soit T la statis-
tique de test que l’on suppose à valeurs réelles. On désigne par P0 est la loi de T sous
H0 . A partir des données recueillies, on a une valeur observée t pour la statistique
de test T .
α = P ({rejet de H0 }) .
• Test bilatéral. La région critique du test est ] − ∞, −cα [∪]cα , ∞[ avec cα > 0
et F0 (cα ) = 1 − α2 . La p-valeur est
H0 : θ = θ0
H1 : θ = θ1
66
ENSEA-ITS2 67
Lemme 1. de Neyman-Pearson
Pour tout α ∈]0, 1[, il existe des constantes c > 0 et γ ∈ [0, 1] telles que le test basé
sur la statistique
1
si f (X n , θ1 ) > cf (X n , θ0 )
φ(X n ) = γ si f (X n , θ1 ) = cf (X n , θ0 )
0 si f (X n , θ1 ) < cf (X n , θ0 )
a le niveau α et est le plus puissant parmi tous les tests ψ tels que Enθ0 ψ(X n ) ≤ α.
Preuve :
1. On cherche les constantes c et γ telle que
f (X n , θ1 ) f (X n , θ1 )
n n n n
Eθ (φ(X )) = Pθ0 > c + γPθ0 = c = α.
f (X n , θ0 ) f (X n , θ0 )
Pour tout t ∈ R, posons
f (X n , θ1 )
F (t) = Pnθ0 ≤t
f (X n , θ0 )
et
f (X n , θ1 )
G(t) = 1 − F (t) = Pnθ0 > t .
f (X n , θ0 )
La fonction G(t) est décroissante, continue à droite. Ainsi, nous avons
f (X n , θ1 )
n
Pθ0 = c = G(c− ) − G(c),
f (X n , θ0 )
avec
G(c− ) = lim G(t).
t→c,t<c
De plus, pour tout α ∈]0, 1[, il existe c0 ≥ 0 telle que G(c0 ) ≤ α ≤ G(c− 0 ). En
effet,
• ou bien G(c0 ) = G(c− 0 ), c’est à dire que c0 est un point de continuité de
G, et alors G(c0 ) = α et on prend c = c0 , γ = 0 et nous avons
(
n 1 si f (X n , θ1 ) > cf (X n , θ0 )
φ(X ) =
0 si f (X n , θ1 ) < cf (X n , θ0 );
2. On montre que le test φ est le plus puissant. Supposons que ψ est un autre
test tel que Enθ0 ψ(X n ) ≤ α. Alors
De la définition de φ, on tire :
- si f (X n , θ1 )−cf (X n , θ0 ) > 0 alors φ(X n ) = 1 ≥ ψ(X n ) et donc φ(X n )−
ψ(X n ) ≥ 0
- si f (X n , θ1 )−cf (X n , θ0 ) < 0 alors φ(X n ) = 0 ≤ ψ(X n ) et donc φ(X n )−
ψ(X n ) ≤ 0
C’est pourquoi
Ainsi Enθ1 (φ(X n )) ≥ Enθ1 (ψ(X n )) et le test φ est plus puissant que ψ.
f (X n , m1 )
1 si >k
f (X n , m0 )
φ(X n ) = n
f (X , m1 )
0 si <k
f (X n , m0 )
avec
f (X n , m1 )
Pnm0 >k = α.
f (X n , m0 )
68
ENSEA-ITS2 69
f (X n , p1 )
1 si ≥k
f (X n , p0 )
n
f (X , p1 )
φ(X n ) = γ si =k
f (X n , p0 )
f (X n , p1 )
0 si <k
f (X n , p0 )
avec
f (X n , p1 ) f (X n , p1 )
Pnp0 n
> k + γPp0 = k = α.
f (X n , p0 ) f (X n , p0 )
En passant au logarithme et en développant, nous obtenons
n
X
1 si Xi > c
i=1
n
X
n γ si Xi = c
φ(X ) =
i=1
n
X
0 si Xi < c
i=1
70
ENSEA-ITS2 71
Nous avons
√ √ !
n(X̄n − p0 ) n(c − p0 )
α = Pnp0 X̄n ≥ c = Pnp0
p ≥p .
p0 (1 − p0 ) p0 (1 − p0 )
72
ENSEA-ITS2 73
Exemple 25.
Théorème 27. Soit X n = (X1 , . . . , Xn ) de densité f (·, θ), θ ∈ Θ ⊂ R. Soit θ0 ∈ Θ
fixé. On considère le problème de test suivant
H0 : θ ≥ θ0 contre H1 : θ < θ0
au seuil α ∈]0, 1[.
1. Supposons qu’il s’agit d’une famille à rapport de vraisemblance décroissant
en S. Il existe un test U.P.P. dans la classe des tests de seuil α donné par
n
1 si S(X ) > C
φ(X n ) = γ si S(X n ) = C (6.3.3)
n
0 si S(X ) < C
où les constantes γ et C > 0 sont déterminées par
Enθ0 (φ(X n )) = Pnθ0 (S(X n ) > C) + γPnθ0 (S(X n ) = C) = α.
Exemple 26.
Théorème 28. Soit X n = (X1 , . . . , Xn ) un échantillon issu d’une loi de probabilité
Pθ , θ ∈ Θ ⊂ R de densité de type exponentiel
f (x, θ) = h(x) exp {a(θ)U (x) + V (θ)} .
Soient θ1 , θ2 ⊂ Θ fixés et θ1 < θ2 . On considère le problème de test suivant
H0 : θ ≤ θ1 ou θ ≥ θ2 contre H1 : θ1 < θ < θ2
au seuil α ∈]0, 1[.
H0 : θ = θ0 contre H1 : θ 6= θ0 (6.3.6)
au seuil α ∈]0, 1[.
Il existe un test U.P.P.S.B.
1 si S(X n ) < C1 ou S(X n ) > C2
γ si S(X n ) = C
1 1
φ(X n ) = n) = C
γ 2 si S(X 2
0 si C < S(X n ) < C
1 2
74
ENSEA-ITS2 75
6.4 Tests du χ2
• Test d’adéquation à une loi P ∗ : on donne un échantillon de taille n issu
d’une loi inconnue P et on désire vérifier si cette loi est une loi connue P ∗ . Le
problème de test d’hypothèses est formulé comme suit :
H0 : P = P ∗
H1 : P 6= P ∗
k
X (Oj − Ej )2
T = .
Ej
j=1
p X
k
X (Ojl − Eij )2
T = .
Ejl
j=1 l=1
c’est-à-dire la puissance du test tend vers 1 quand n tend vers l’infini. On dit que le
test est convergent. En pratique, ce test marche bien si n ≥ 30 et np∗j ≥ 5 (Nj ≥ 5)
pour tout j.
76
ENSEA-ITS2 77
Remarque 28. On observe X1 , . . . , Xn i.i.d. de même loi issue d’une loi P inconnue,
absolument continue par rapport à la mesure de Lebesgue sur R. Soit P ∗ une loi
absolument continue donnée. On considère le problème de test d’hypothèses suivant
H0 : P = P ∗ contre H1 : P 6= P ∗ .
Exemple 27.
k
X (Nj − np∗j (θ))2
Tn (θ) =
np∗j (θ)
j=1
mais la quantité Tn (θ) n’est plus une statistique car θ est inconnu.
2. On estime θ par l’estimateur du maximum de vraisemblance θ̂.
On a le résultat suivant
Tn (θ̂n ) −→ χ2 (k − s − 1) en loi
quand n −→ +∞.
Exemple 28.
Nj• N•l
p̂jl = p̂j• p̂•l = .
n2
La statistique de test est définie par
2
Nj• N•l
r X
X s Njl − n
Tn = Nj• N•l
.
j=1 l=1 n
où χ2(r−1)(s−1),1−α est le quantile d’ordre 1 − α de la loi χ2 ((r − 1)(s − 1)). On rejette
l’hypothèse H0 si Tn dépasse χ2(r−1)(s−1),1−α et on l’accepte sinon.
Rn = Tn > χ24,0.95 ,
2
N N
2 X
X 5 Nij − i•n •j
Tn = Ni• N•j
i=1 j=1 n
et χ24,0.95 est le quantile d’ordre 0.95 de la loi du Khi-deux χ2 (4) car 4=(2-1)(5-1).
78
ENSEA-ITS2 79
Blond Roux Chatin Brun Noir de jais
Garçons 592 119 849 504 36 N1• =2100
Filles 544 97 677 451 14 N2• =1783
N•1 =1136 N•2 =216 N•3 =1526 N•4 = 955 N•5 =50 n=3883
Après calcul (si je ne me suis pas trompé), on obtient T=10.47. Il faut ensuite
déterminer le quantile d’ordre 0.95 de χ2 (4) : χ24,0.95 =9.49.
On remarque que 10.47 > 9.49, on rejette donc H0 c’est à dire qu’au seuil 0.05, la
couleur des yeux dépend du sexe.
80
Chapitre 7
Régression linéaire
7.1 Introduction
La régression est une technique statistique permettant de modéliser la relation
entre une variable à expliquer Y et des variables explicatives X1 , . . . , Xp dans le
but :
- de mesurer l’impact ou l’effet de X1 , . . . , Xp sur Y
- de prédire Y connaissant X1 , . . . , Xp .
La modélisation permet d’exprimer sous la forme d’une relation mathématique la
relation supposée :
Y = f (X1 , . . . , Xp ) + ε
où ε est une variable appelée erreur ou bruit. Ce terme d’erreur rassemble tous
les autres facteurs affectant le phénomène en dehors de X1 , . . . , Xp ainsi que les
possibles erreurs de mesure sur la variable Y .
81
82 Armel Fabrice YODÉ
P = AK B T C
où
- P est la quantité produite
- K est la quantité de capital utilisée
- T est la quantité de main-d’oeuvre utilisée A, B et C sont des paramètres.
Quand on applique la transformation logarithmique, en posant Y = log P , X1 =
log K, X2 = log T , le modèle devient linéaire :
Démarche de la régression :
1. Vérifier la possibilté d’une liaison linéaire entre Y et X : nuage de points,
coefficient de corrélation.
2. Estimation des paramètres β0 , β1 et σ 2 .
3. Validation du modèle : indice de qualité R2 , validité globale de Fisher, vadilité
marginale de Student, étude des résidus, détection des points atypiques.
82
ENSEA-ITS2 83
n n n
∂S(β0 , β1 ) X X X
= −2 (Yi − β0 − β1 Xi ) = 0 nβ0 + β Xi = Yi
∂β0
i=1 i=1 i=1
n ⇒ n
! n n
∂S(β0 , β1 ) X X X
2
X
= −2 Xi (Yi − β0 − β1 Xi ) = 0
Xi β0 + β1 Xi = Xi Yi
∂β0
i=1 i=1 i= i=1
Pn
i=1 Xi Yi − nX̄n Ȳn
β̂1 = P n 2 2
i=1 Xi − nX̄n
β̂0 = Ȳn − β1 X̄n
Ŷ = β̂0 + β̂1 X.
Remarque 29. - Si nous évaluons la droite aux points Xi ayant servi à estimer
les paramètres, nous obtenons des Ŷi appelées valeurs ajustées.
- si nous évoluons la droite en des points n’ayant pas servi à l’estimation
des paramètres, les valeurs obtenues seront appelées valeurs prévues ou
prévisions
- La droite de régression passe par le centre de gravité (X̄n , Ȳn ).
Preuves en exercice.
X̄n2
2
var(β̂0 ) = σ 1 + Pn 2
i=1 (Xi − X̄n )
σ2
var(β̂1 ) = Pn 2
i=1 (Xi − X̄n )
σ 2 X̄n
Cov(β̂0 , β̂1 ) = Pn 2
.
i=1 (Xi − X̄n )
Preuves en exercice.
Remarque 30. Plus la variance est faible, plus l’estimateur sera précis. Pour avoir
des variances petites, il faut avoir un numerateur petit et (ou) un dénominateur
grand. Les estimateurs seront donc de faibles variances lorsque
• σ 2 est faible i.e. que la variance de Y est faible et donc les mesures sont proches
de la droite à estimer.
X n
• La quantité (Xi − X̄n )2 est grande, les Xi doivent être dispersées autour
i=1
de leur moyenne.
n
1 X 2
2
Proposition 18. La statistique σ̂ = ε̂i est un estimateur sans biais de
n−2
i=1
σ2.
Validation du modèle
Un modèle est bon si Ŷi sont proches des vraies valeurs Yi .
Xn
• SCT = (Yi − Ȳ )2 (Somme des carrés totale)
i=1
Xn
• SCE = (Ŷi − Ȳ )2 (Somme des carrés expliquée)
i=1
n
X
• SCR = (Ŷi − Yi )2 (Somme des carrés résiduelle)
i=1
Equation de l’analyse de la variance : SCT = SCE + SCR.
SCE
R2 = .
SCT
84
ENSEA-ITS2 85
Remarque 31. • 0 ≤ R2 ≤ 1
• Si R2 = 1, le modèle explique tout i.e. Yi = β0 + β1 Xi .
n
X
• Si R2 = 0 i.e (Ŷi − Ȳ )2 = 0 et donc que Ŷi = Ȳ , le modèle de regression
i=1
linéaire est inadapté (absence de liaison linéaire).
Prévision
La valeur pour laquelle nous effectuons la précision n’a pas servi dans le calcul
des estimateurs. Soit Xn+1 cette valeur. Nous voulons prédire Yn+1 . Le modèle
indique que Yn+1 = β0 + β1 Xn+1 + εn+1 avec E(εn+1 ) = 0, var(εn+1 ) = σ 2 et
Cov(εn+1 , εi ) = 0 pour i = 1, . . . , n. Nous pouvons prédire Yn+1 grâce au modèle
estimé :
p
Ŷn+1 = β̂0 + β̂1 Xn+1 .
p
Proposition 19. (Variance de la prévision Yn+1 )
(Xn+1 − X̄)2
p 2 1
var(Yn+1 ) =σ + Pn 2
.
n i=1 (Xi − X̄)
p
var(Yn+1 ) nous donne une idée de la stabilité de l’estimation. En prévision, on
s’interesse généralement à l’erreur que l’on commet entre la vraie valeur à prévoir
p
Yn+1 et celle que l’on prévoit Yn+1 . l’erreur peut être simplement résumée par la
différence entre les deux valeurs : erreur de prévision. Cette erreur de prévision
permet de quantifier la capacité du modèle à prévoir.
E(εpn+1 ) = 0
(Xn+1 − X̄)2
1
var(εpn+1 ) = σ 2 1 + + Pn 2
.
n i=1 (Xi − X̄)
β̂1 − β1
• 1/2 ,→ T (n − 2)
2
Pn σ̂ 2
i=1 (X i −X̄)
1
• (β̂ − β)V −1 (β̂ − β) ,→ F2,n−2 (loi de Fisher à 2 dégrés de liberté au numérateur
2σ̂ 2
et n − 2 dégrés de liberté au dénominateur.
86
ENSEA-ITS2 87
(n − 2)σ̂ 2 (n − 2)σ̂ 2
,
cn−2,1−α/2 cn−2,α/2
Proposition 24. Un intervalle de confiance pour E(Yi ) = β0 + βXi est donné par
" s #
+ 1 (Xj − X̄n )2
Ŷj − tn−2,1−α/2 σ̂ + Pn 2
.
n i=1 (Xi − X̄n )
Cette formule exprime que plus le point à prévoir est éloigné de X̄, plus la
variance de la prévision et donc de l’intervalle de confiance seront grandes.
Yi = β1 + β2 Xi2 + · · · + βp Xip + εi , i = 1, . . . , n
où les Xij son connus et non aléatoires, les βj sont des paramètres inconnus et les
variables εi sont aléatoires.
Définition 89. Un modèle de regression linéaire multiple est défini par l’équation
Y = Xβ + ε
et
kXzk = 0 ⇒ z = 0;
0
ce qui implique que la matrice X X est symétrique définie positive
donc inversible ; le modèle est donc identifiable.
- (H2 ) : E(ε) = 0, Σε = σ 2 In , σ 2 > 0 (matrice de variance-covariance de ε)
i.e que les composantes de ε sont centrées, de même variance (ho-
moscédasticité) et non correlées entre elles.
Calcul de β̂
Théorème 33. Si (H1 ) est vérifiée alors l’estimateur des MC de β̂ de β vaut
0 0
β̂ = (X X)−1 X Y.
Preuve :
0
S(β) = (Y − Xβ) (Y − Xβ)
0 0 0 0 0 0
= Y Y + β X Xβ − Y Xβ − β X Y
0 0 0 0
= Y Y + β X Xβ − 2Y Xβ
∂S(β) 0 0 0 0 ∂ 2 S(β) 0
Nous avons : = 0 ⇔ −2X Y + 2X β̂ = 0 ⇔ β̂ = (X X)−1 X Y. Puisque 2
= 2X X
∂β ∂β
est une matrice définie positive, alors β̂ est un minimum strict. (H1 ) garantit l’uni-
cité de β̂
88
ENSEA-ITS2 89
E(ε̂) = 0
var(ε̂) = σ 2 (1 − PX )
E(Ŷ ) = Xβ
var(Ŷ ) = σ 2 PX
cov(ε̂, Ŷ ) = 0
Comme σ 2 est inconnue, il est nécessaire de le remplacer par son estimateur. Les
résidus
ε̂i
ti = p
σ̂ 1 − (PX )ii
sont appelés résidus studentisés.
Un estimateur naturel de la variance résiduelle est donné par
n
1X 2 1
ε̂i = kε̂k.
n n
i=1
Comme,
0
E(kε̂k2 ) = E(tr(ε̂ ε̂))
0
= E(tr(ε̂ε̂ ))
0
= tr(E(ε̂ε̂ )
= tr(σ 2 (1 − PX ))
= σ 2 (n − p)
alors cet estimateur naturel est biaisé. Afin, d’obtenir un estimateur sans biais de
σ 2 , nous définissons donc
n
1 X 2
σ̂ 2 = ε̂i .
n−p
i=1
Validation du modèle
Définition 92. Le coefficient de détermination multiple R2 est défini par
kŶ − Ȳ 1Ik2 kε̂k2
R2 = = 1 − .
kY − Ȳ 1Ik2 kY − Ȳ 1Ik2
Définition 93. Le coefficient de détermination ajusté Ra2 est défini par
n−1 kε̂k2
Ra2 = 1 − .
n − p kY − Ȳ 1Ik2
L’ajustement correspond à la division des normes au carré par leur dégré de
liberté (ou dimension du sous-espace auquel le vecteur appartient) respectif.
Prévision
Soit une nouvelle valeur Xn+1 et nous voulons prédire Yn+1 . Or
0
Yn+1 = Xn+1 β + εn+1
avec E(εn+1 ) = 0, var(εn+1 ) = σ 2 et cov(εn+1 , εi ) = 0 pour i = 1, . . . , n. Nous
pouvons donc prédire la valeur correspondante grâce au modèle ajusté
p 0
Yn+1 = Xn+1 β̂.
Deux types d’erreurs vont entacher la prévision, lapremière due à l’incertitude sur
εn+1 et l’autre à l’incertitude due à l’estimation. Calculons la variance de l’erreur
de prévision
p 0 0
var(Yn+1 − Yn+1 ) = σ 2 (1 + Xn+1 (X X)−1 Xn+1 ).
Nous retrouvons bien l’incertitude due aux erreurs σ 2 sur laquelle vient s’ajouter
l’incertitude de l’estimation.
Remarque 34. Puisque l’estimateur β̂ est un estimateur sans biais de β et l’espérance
p
de ε vaut zéro, les espérances de Yn+1 et Yn+1 sont identiques. La variance de l’erreur
de prévision s’écrit :
p p
var(Yn+1 − Yn+1 ) = E(Yn+1 − Yn+1 )2 .
Nous voyons donc ici que la variance de l’erreur de prévision est mesurée par l’erreur
quadratique moyenne de prévision. Nous retrouverons cette quantité qui joue un rôle
central dans l’évaluation de la qualité des modèles
90
ENSEA-ITS2 91
(H3 ) : ε ,→ N (0, σ 2 In ).
Dans le cas gaussien, cov(εi , εj ) = σ 2 δij implique que les εi sont indépendantes.
L’hypothèse (H3 ) s’écrit ε1 , . . . , εn sont i.i.d. et de loi N (0, σ 2 ). L’hypothèse gaus-
sienne va nous permettres de calculer la vraisemblance et donc les estimateurs du
maximum de vraisemblance. Cette hypothèse va nous permettre également de cal-
culer des régions de confiance et de proposer des tests.
2 kY − X β̂M V k2 n−p 2
Nous obtenons βM V = β̂ et σ̂M V = = σ̂ . L’estimateur du
n n
maximum de vraisemblance est donc biaisé par opposition à l’estimateur σ̂ 2 obtenu
par les moindres carrés.
Propriétés statistiques
Grâce à l’hypothèse gaussienne, nous pouvons améliorer le théorème de Gauss-
Markov. L’optimalité des estimateurs est élargie et nous ne considérons non plus
les estimateurs linéaires sans biais, mais la classe plus grande des estimateurs sans
biais. De plus, le théorème intègre l’estimateur de σ 2 .
Proposition 31. (β̂, σ̂ 2 ) est une statistique complète et de variance minimum dans
la classe des estimateurs sans biais.
1 0 0 0
2
(R(β̂ − β)) [R(X X)−1 R ]−1 R(β̂ − β) ,→ Fq,n−p .
qσ̂
(n − p)σ̂ 2
,→ χ2 (n − p)
σ2
• β̂ et σ̂ 2 sont indépendantes
(n − p)σ̂ 2 (n − p)σ̂ 2
, où P(c1 ≤ χ2 (n − p) ≤ c2 ) = 1 − α
c2 c1
où R est la matrice de taille q×p dont tous les éléments sont nuls sauf les [R]iji
qui valent 1. Les valeurs c1 et c2 sont les quantiles d’un χ2 (q) et fq,n−p,1−α
est le quantile d’ordre 1 − α d’une loi de fisher admettant (q, n − p) degrés de
liberté.
92
ENSEA-ITS2 93
Prévision
0
Soit Xn+1 = (Xn+1,1 , . . . , Xn+1,p ) une nouvelle valeur et nous voulone prédire
Yn+1 Le modèle indique
0
Yn+1 = Xn+1 β + εn+1 ,
avec les εi i.i.d et qui suivent une N (0, σ 2 ). Apartir des n observations, nous avons
estimé β̂ et nous prévoyons Yn+1 par
p 0
Yn+1 = Xn+1 β̂.
p
Nous calculons l’espérance et la variance de l’erreur de prévision ε̂n+1 = Yn+1 −Yn+1 :
p
E(Yn+1 − Yn+1 )=0
h 0 0
i
p 2 −1
var(Yn+1 − Yn+1 ) = σ Xn+1 (X X) Xn+1 + 1 .
Tests d’hypothèses
Test de Student de signification d’un coefficient βj
Nous voulons tester H0 : βj = 0 contre H1 : βj 6= 0. La statistique de test est
kŶ − Ŷ0 k2
F = .
σ̂
Nous rejetons H0 si l’observation de la statistique F notée f est telle que
f > f1,n−p,1−α .
β̂j
T =
σ̂ 2
β̂j
qui suit sous H0 une loi de Student à n − p dégrés de liberté. Nous rejetons H0 si
l’observation t de la statistique est telle que
t > tn−p,1−α/2 .
94
Chapitre 8
Exercice 2.
1. Soit X1 , . . . , Xn un échantillon de taille n issu d’une loi de densité
95
96 Armel Fabrice YODÉ
Qn
log X2 i=2 log(Xi )
que la statistique T2 = est libre. En déduire que Tn = l’est
log(X1 ) log(X1 )
également.
Exercice 4. Soit X une variable aléatoire suivant une loi N (θ, 1) et soit (X1 , . . . , Xn )
un échantillon de X.
1. Montrer que la variance empirique Sn2 et l’étendue X(n) − X(1) sont des sta-
tistiques libres pour le paramètre θ.
2. Donner la loi de la moyenne empirique X̄n et montrer que cette statistque est
exhaus- tive complète pour θ.
3. Retrouver l’indépendance de X̄n et Sn2 .
Notations
n
1X
X̄n = Xi
n
i=1
n
1X
Sn2 = (Xi − X̄n )2
n
i=1
X(n) = max(X1 , . . . , Xn )
X(1) = min(X1 , . . . , Xn )
96
ENSEA-ITS2 97
Exercice 3. Une machine produit N pièces par jour, N connu. Chacune d’entre elles
a un défaut avec la même probabilité θ inconnue. On cherche à estimer la probabilité
d’avoir au plus k défauts sur un jour. A ce propos, on teste toutes les pièces pendant
une période de n jours et on retient chaque jour le nombre de défauts.
1. Choisir un modèle. Est-ce un modèle exponentiel ?
2. Déterminer une statistique exhaustive et totale. Calculer sa loi.
3. Construire un estimateur δ sans biais qui ne fait intervenir que les données
du premier jour.
4. En déduire un estimateur optimal δS .
98
ENSEA-ITS2 99
Exercice 3. On a fait un sondage auprès de 900 personnes sur une possible modifica-
tion de la Constitution. Les opinions favorables représentaient 40, 1% des réponses.
1. Déterminer un intervalle de confiance asymptotique de niveau de confiance
95% pour la probabilité d’une réponse favorable.
2. A la suite d’une intense campagne d’explication en faveur de cette modification
on va de nouveau faire un sondage, mais avec pour objectif l’´evaluation de
l’efficacité de la campagne et non l’estimation de la proportion de personnes
favorables. La campagne aura été vraiment efficace si l’opinion favorable est
devenue majoritaire. Combien de personnes devra-t-on interroger si on veut
différencier avec des risques de 5% les situations : ”la campagne n’a eu aucune
efficacit´e” contre ”la campagne a été vraiment efficace” ?
L(3, x1 , . . . , xn )
λ= .
L(2, x1 , . . . , xn )
100
ENSEA-ITS2 101
A l’aide du test du χ2 , dire s’il existe une relation entre la prédominance visuelle et
l’habilité des mains (avec un seuil de 0.25) ?
Yi = β1 + β2 xi,2 + β3 xi,3 + εi , 1 ≤ i ≤ n.
où les xi,j , j = 2, 3, sont des variables exogènes, et les εi sont des variables
aléatoires indépendantes de même loi normale centrée de variance σ 2 . En
posant
1 x1,2 x1,3 Y1
X = ... .. .. Y = ...
. .
1 xn,2 xn,3 Yn
On a observé :
30 20 0 15
0 0 0
X X = 20 20 0 , X Y = 20 Y Y = 59.5
0 0 10 10
0 0
où X , Y sont les transposées des matrices X et Y respectivement.
1. Donner la valeur de :
(a) n
n n n
! !
1X 1X 1X
(b) xi,2 xi,3 − xi,2 xi,3
n n n
i=1 i=1 i=1
2. Estimer les paramètres β1 , β2 , β3 , σ2.
3. Calculer un intervalle de confiance pour β2 au niveau de 95%.
4. Faire le test β2 = 0 contre β2 6= 0 au seuil de 5%.
102
Chapitre 9
Examens
Devoir 2
Durée : 3 heures
12 janvier 2007
La qualité de la présentation sera prise en compte dans la notation. Les seuls docu-
ments autorisés sont les tables statistiques
Y = b + aX + u
103
104 Armel Fabrice YODÉ
Nombre d’accidents 0 1 2 3 4 5 et plus
Nombre de semaines 2 17 6 11 7 7
Peut-on admettre au niveau α∗ = 0.10 que X suit une loi de Poisson de pa-
ramètre λ = 2 ?
Exercice 3 : (5 points)
Une agence de voyage souhaite cibler sa clientèle. Elle sait que les coordonnées
du lieu de vie d’un client (X, Y ) rapportées au lieu de naissance (0, 0) sont une
information significative pour connaı̂tre le goût de ce client. Elle distingue :
- La population 1 (Hypothèse H0 ) dont la loi de répartition a pour densité
1 x2 +y 2
p1 (x, y) = √ e− 2 1IR2 (x, y)
4π 2
L’agence souhaite tester l’Hypothèse qu’un nouveau client vivant en (x, y) appartient
à la population 1 plutôt qu’à la population 2.
1. Proposer un test de niveau inférieur à α = 5% et de puissance maximale
construit à partir du rapport de vraisemblance.
2. Donner une statistique de test et caractériser garphiquement la région critique
dans R2 .
Exercice 4 : (3 points)
Parmi 900 poissons pêchés dans un lac, on a observé 180 porteurs de parasites.
Entre quelles limites situez-vous la proportion des individus parasités dans la popu-
lation des poissons des lacs.
Courage ! ! !
104
ENSEA-ITS2 105
Devoir 3
Durée : 3 heures
9 février 2007
44 09 11 59 81 44 19 89 10 24
07 21 90 38 01 15 22 29 19 37
26 219 02 57 11 34 69 12 21 28
34 05 07 15 06 129 14 18 02 156
106
ENSEA-ITS2 107
Exercice 1 (5 points)
Soit X une variable aléatoire à valeurs dans N∗ définie comme l’instant de pre-
mier succès dans un schéma de Bernouilli de paramètre q ∈]0, 1[.
1) Vérifier que la loi de X est une loi géométrique dont on précisera le paramètre.
2) Vérifier qu’il s’agit d’un modèle exponentiel. Donner une statistique exhaus-
tive.
Soit X1 , . . . , Xn un échantillon de taille n de même loi que X.
3) Déterminer q̂n , l’estimateur du maximum de vraisemblance de q.
4) Montrer que l’estimateur du maximum de vraisemblance est asymptotique-
ment normal.
Exercice 2 : (5 points)
L’étude statistique ci-dessous porte sur les poids (kg) respectifs des pères pi et
ceux de leurs fils aı̂nés fi , pour i ∈ {1, . . . , 12}
Père 65 63 67 68 62 70 66 68 67 69 71 64
Fils 68 66 68 69 66 68 65 71 67 68 70 65
1) Calculez la droite des moindres carrés du poids des fils en fonction du poids
des pères.
2) Calculez la droite des moindres carrés du poids des pères en fonction du poids
des fils.
3) En quel point se coupent ces 2 droites ? Que vaut le produit des pentes des
deux droites ?
Exercice 4 : (5 points)
108
ENSEA-ITS2 109
Devoir 1
Durée : 3 heures
14 Novembre 2007
Exercice 1 (4 points) :
Soient Y1 , . . . , Yn des variables aléatoires indépendantes et distribuées selon des lois
de Poisson Yi P(αxi ), où x1 , . . . , xn sont des constantes positives connues.
1. Calculer l’estimateur du maximum de vraisemblance α̂n de α.
2. Etudier ses propriétés à l’horizon fini
Exercice 2 (5 points) :
Exercice 3 (6 points) :
Soient Y1 , . . . , Yn des variables aléatoires indépendantes et identiquement distribuées
selon une loi de Bernouilli B(1, p), où p ∈]0, 1[ est inconnue.
Xn
On admet que Tn = Yi est une statistique exhaustive et complète pour le pa-
i=1
ramètre p.
1. Montrer que l’on peut choisir α > 0 tel que α(Y1 − Y2 )2 soit un estimateur
sans biais de p(1 − p) .
2. Montrer que
Zn = Ep [α(Y1 − Y2 )2 /Tn ]
est l’unique estimateur de variance minimale dans la classe des estimateurs
sans biais de p(1 − p).
3. L’estimateur Zn est-il efficace ?
Exercice 4 (5 points) :
La hauteur maximale H de la crue annuelle d’un fleuve est observée car une crue
où a > 0 est un paramètre inconnu. Durant une période de 8 ans, on a observé les
hauteurs de crue suivantes en mètres :
n 1 2 3 4 5 6 7 8
Hn 2.5 1.8 2.9 0.9 2.1 1.7 2.2 2.8
Courage ! ! !
110
ENSEA-ITS2 111
Devoir 2
Durée : 3 heures
9 Janvier 2008
Exercice 1 (6 points)
1. On considère le modèle de regression suivant :
Yi = β1 + β2 xi,2 + β3 xi,3 + εi , 1 ≤ i ≤ n.
où les xi,j , j = 2, 3, sont des variables exogènes, et les εi sont des variables
aléatoires indépendantes de même loi normale centrée de variance σ 2 . En
posant
1 x1,2 x1,3 Y1
X = ... .. .. Y = ...
. .
1 xn,2 xn,3 Yn
On a observé :
30 20 0 15
0 0 0
X X = 20 20 0 , X Y = 20 Y Y = 59.5
0 0 10 10
0 0
où X , Y sont les transposées des matrices X et Y respectivement.
1. Donner la valeur de :
• n
n n n
! !
1X 1X 1X
• xi,2 xi,3 − xi,2 xi,3
n n n
i=1 i=1 i=1
2. Estimer les paramètres β1 , β2 , β3 , σ2.
3. Calculer un intervalle de confiance pour β2 au niveau de 95%.
4. Faire le test β2 = 0 contre β2 6= 0 au seuil de 5%.
Exercice 2 (5 points)
Soit X = (X1 , . . . , Xn ) un échantillon de taille n de loi normale N (0, , 1θ ).
1. Calculer θ̂ l’estimateur du maximum de vraisemblance de θ. Construire un
estimateur sans biais de θ. Cet estimateur est-il efficace, asymptotiquement
efficace ?
2. Construire le test le plus puissant de θ = 1 contre θ > 1. Si n = 15 et si
15
X
x2i = 6.8, effectuer le test au niveau 5%
i=1
Exercice 3 (4 points)
On désire étudier la prédominance visuelle de l’oeil et l’habilité de la main. Un
expérimentateur établit la table suivante :
A l’aide du test du χ2 , dire s’il existe une relation entre la prédominance visuelle et
l’habilité des mains (avec un seuil de 0.25) ?
Exercice 4 (5 points)
Deux candidats, Ségolène et Nicolas, sont en présence du deuxième tour d’une
élection présidentielle au cours de laquelle 40 millions d’électeurs sont amenés à
s’exprimer. n personnes sont tirées au hasard parmi ces électeurs et interrogées sur
leurs intentions de vote (on suppose qu’à ce moment tous les électeurs ont fixé leur
choix et n’en changeront pas au moment du vote). 52% des électeurs annoncent
qu’ils sont partisans de Ségolène.
1. Calculer, pour n = 100 une borne inférieure de confiance 95% pour le pour-
centage d’électeurs favorables à Ségolène dans la population totale.
2. Que devient cette borne inférieure de confiance 95% pour les valeurs suivantes
de n :
(a) n = 1000?
(b) n = 2000?
3. A partir de quelle taille n du sondage effectué, le pourcentage observé de 52%
d’électeurs favorables à Ségolène conduirait-il celui-ci à accorder une confiance
de 95% au fait d’être élu (c’est à dire la borne inférieure de confiance 95%
serait supérieure à 0.50) ?
112
ENSEA-ITS2 113
La qualité de la présentation sera prise en compte dans la notation. Les seuls docu-
ments autorisés sont les tables statistiques
Exercice 1 (Cours) :
Nous allons estimer les paramètres du modèle structurel
Y = b + aX + u
au vu des observations (X1 , Y1 ), . . . , (Xn , Yn ). La variable aléatoire u est telle que
E(u) = 0 et V ar(u) = σ 2 . La variable X n’est pas aléatoire. Nous supposons que les
paramètres a et b peuvent prendre des valeurs réelles à priori quelconques.
1. Décrire le principe de la méthode des moindres carrés.
Nous supposerons dans la suite que u suit la loi normale N (0, σ 2 ).
2. Donner la densité de probabilité du vecteur aléatoire (Y1 , . . . , Yn ).
3. Calculer l’estimateur du maximum de vraisemblance (â, b̂) du couple (a, b).
4. Montrer que â et b̂ sont des estimateurs sans biais respectivement pour a et
b.
5. Ecrire â comme fonction des variables aléatoires u1 , . . . , un . Déduire la loi de
β̂.
6. Construire un intervalle de confiance pour a au seuil α dans les cas suivants :
- σ est connue
- σ est inconnue
Exercice 2
x 0 1 2 3 4 5 6 7 8 9
N (x) 28 32 23 26 23 31 18 19 19 31
A l’aide du test du χ2 , vérifier si le générateur produit des entiers indépendants
et uniformément répartis sur {0, . . . , 9} avec α = 5%.
Exercice 3 :
Une variable aléatoire suit une loi normale N (µ, σ 2 ) d’écart type connu σ = 2.
Au vu de l’échantillon i.i.d. X1 , . . . , Xn d’échantillon parente de X, on veut tester
l’hypothèse H0 : µ = 2 contre l’hypothèse H0 : µ = 3.
Soit L(µ, x1 , . . . , xn ) la fonction de vraisemblance.
L(3, x1 , . . . , xn )
λ= .
L(2, x1 , . . . , xn )
114
ENSEA-ITS2 115
ITS2
Devoir de Statistique Mathématique
11 décembre 2009
Durée : 3 heures
1. Estimation de α
Soit (X1 , . . . , Xn ) un échantillon issu d’une loi de Pareto de paramètres α > 1
et θ > 0, où θ est connu.
(a) Trouver une statistique exhaustive pour le paramètre α.
(b) Déterminer l’estimateur du maximum de vraisemblance α̂.
(c) Calculer E[α̂] et en déduire le biais de l’estimateur du maximum de
vraisemblance α̂.
n
X Xi
Indication : exprimer α̂ en fonction de Vn = ln et utiliser
θ
i=1
sans démontrer l’hypothèse Vn est une variable aléatoire qui suit une
Gamma Γ(α − 1, n). On rappelle qu’une loi Gamma de paramètre a > 0
et λ > 0, notée Γ(a, λ), admet comme densité
aλ λ−1 −ax
f (x) = x e 1Ix≥0
Γ(λ)
où Γ(λ) est la fonction gamma définie par
Z ∞
Γ(λ) = uλ−1 e−u du.
0
2. Estimation de θ
Soit (X1 , . . . , Xn ) un échantillon issu d’une loi de Pareto de paramètres α > 1
et θ > 0, mais on suppose cette fois ci que le paramètre α est connu.
(a) Préciser le support de la densité de l’échantillon (X1 , . . . , Xn ). Exprimer
celle-ci à l’aide d’une fonction indicatrice. En déduire une statistique
exhaustive pour le paramètre θ.
(b) Déterminer l’estimateur du maximum de vraisemblance θ̂ de θ.
∂
(c) Calculer ln(f (X1 , . . . , Xn , θ)) pour θ dans l’intervalle [0, min Xi ], et
∂θ
en déduire l’information de Fisher de l’échantillon (X1 , . . . , Xn ). De la
même façon, calculer l’information de Fisher de la variable aléatoire X1 .
Que peut-on en conclure sur l’additivité de l’information de Fisher ?
Expliquer.
Exercice 2 (8 points)
116
ENSEA-ITS2 117
Devoir 3
Durée : 3 heures
3 avril 2009
La qualité de la présentation sera prise en compte dans la notation. Les seuls docu-
ments autorisés sont les tables statistiques
Ui = rxi + εi , ∀i = 1, . . . , n
où
• r est un paramètre inconnu qui représente la résistance du conducteur oh-
mique.
• (εi )1≤i≤n est une suite de variables aléatoires indépendantes et de même loi
gaussienne de moyenne zéro et de variance σ 2 .
• les intensités (xi )1≤i≤n ne sont pas aléatoires.
On cherche à estimer les deux paramètres (r, σ 2 ).
On considère n mesures indépendantes U1 , . . . , Un réalisées pour les intensités
x1 , . . . , x n
1. Donner une statistique exhaustive.
2. Calculer les estimateurs du maximum de vraisemblance des paramètres r et
σ 2 . On note r̂nM V et σ̂ 2M V et
Exercice 2 : (5 points)
On considère que le nombre d’accidents par semaine sur une route nationale est
une variable aléatoire X. A partir des observations suivantes
Nombre d’accidents 0 1 2 3 4 5 et plus
Nombre de semaines 2 17 6 11 7 7
Peut-on admettre au niveau α∗ = 0.10 que X suit une loi de Poisson de pa-
ramètre λ = 2 ?
Exercice 3 : (5 points)
Une agence de voyage souhaite cibler sa clientèle. Elle sait que les coordonnées
du lieu de vie d’un client (X, Y ) rapportées au lieu de naissance (0, 0) sont une
information significative pour connaı̂tre le goût de ce client. Elle distingue :
- La population 1 (Hypothèse H0 ) dont la loi de répartition a pour densité
1 x2 +y 2
p1 (x, y) = √ e− 2 1IR2 (x, y)
4π 2
- La population 2 (Hypothèse H1 ) dont la loi de répartition a pour densité
1
p2 (x, y) = 1I (x)1I[−2,2] (y)
16 [−2,2]
L’agence souhaite tester l’Hypothèse qu’un nouveau client vivant en (x, y) appartient
à la population 1 plutôt qu’à la population 2.
1. Proposer un test de niveau inférieur à α = 5% et de puissance maximale
construit à partir du rapport de vraisemblance.
2. Donner une statistique de test et caractériser garphiquement la région critique
dans R2 .
Exercice 4 : (3 points)
Parmi 900 poissons pêchés dans un lac, on a observé 180 porteurs de parasites.
Entre quelles limites situez-vous la proportion des individus parasités dans la popu-
lation des poissons des lacs.
Courage ! ! !
118
Bibliographie
119