Académique Documents
Professionnel Documents
Culture Documents
1 Modélisation statistique 4
1.1 Echantillonnage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Modèles statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2 Exhaustivité 7
2.1 Vraisemblance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Exhaustivité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3 Information de Fisher 10
3.1 Définition et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4 Estimateurs 12
4.1 Principe général de l’estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.1.1 Propriétés à distance finie . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.1.1.1 Loi exacte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.1.1.2 Risque quadratique . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.1.1.3 Borne de Cramer-Rao . . . . . . . . . . . . . . . . . . . . . . . . 15
4.1.2 Propriétés asymptotiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.1.2.1 Convergence ou consistance . . . . . . . . . . . . . . . . . . . . 16
4.1.2.2 Normalité asymptotique . . . . . . . . . . . . . . . . . . . . . . 17
5 Méthodes d’estimation 18
5.1 Méthode des moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
5.2 Methode du maximum de vraisemblance . . . . . . . . . . . . . . . . . . . . . . 19
2
TABLE DES MATIÈRES 3
7 Généralités sur les tests d’hypothèses 33
7.1 Principe des tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
7.2 Etapes des tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
7.3 Construction d’un test d’hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . 35
7.4 La p-value . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1 Modélisation statistique
1.1 Echantillonnage
Exemple 1.1.1. Une entreprise de l’industrie textile souhaite étudier le poids et la taille des
ivoiriens et ivoiriennes de plus de 18 ans (population) afin d’ajuster au mieux ses produits
à la morphologie de ses clients.
Pour mener à bien cette étude, l’entreprise a deux solutions : le recensement ou l’échan-
tillonnage.
Dans le cas où la taille de la population est grande, il faut recourir à l’échantillonnage.
L’échantillonnage se définit comme la méthode de construction d’un échantillon.
Quel est l’intérêt de constituer un échantillon ? L’idée est d’étudier le caractère pour les
individus sélectionnés dans l’échantillon afin d’en tirer de l’ information sur ce caractère
pour l’ensemble de la population. Par conséquent, d’un côté la taille n de l’échantillon doit
être suffisamment importante pour que l’on puisse obtenir une information fiable sur la po-
pulation, mais d’un autre côté elle doit être la plus petite possible afin de limiter le coût de
l’enquête.
Une question se pose alors : comment choisir les individus qui composent l’échantillon ?
On distingue deux grandes méthodes d’échantillonnage. La première repose sur un choix
déterministe des individus. On parle dans ce cas d’échantillon déterministe (ou certain) :
les individus de l’échantillon ne sont pas choisis au hasard. En pratique la méthode la plus
utilisée est celle de l’échantillonnage aléatoire.
4
1.2. MODÈLES STATISTIQUES 5
Echantillon aléatoire : c’est un échantillon dont les individus sont tirés au hasard parmi
la population. Le tirage de l’échantillon peut se faire avec remise (un même individu de la
population peut apparaı̂tre plusieurs fois dans l’échantillon) ou sans remise (chaque individu
de la population ne peut apparaı̂tre qu’une seule fois dans l’échantillon).
On considère deux situations différentes conduisant à un échantillon :
- la répétition d’une expérience aléatoire
Exemple 1.1.2. On lance n fois une pièce. On note
(
1 si le lancer i est pile
Xi =
0 si lancer i est face.
S’il s’agit de la même pièce et qu’on ne modifie pas la manière dont on lance, alors on
peut dire que les X i sont indépendantes et identiquement distribuées de loi commune
la loi de Bernoulli B (1, θ ). Le paramètre θ représente la probabilité du succès, c’est à
dire la probabilité d’obtenir pile.
- la considération d’un échantillon au sein d’une population
Exemple 1.1.3. Deux candidats Kouko et Yao sont en présence d’une élection. n
personnes sont tirées au hasard parmi les électeurs et interrogées sur leurs intentions
de vote. On note (
1 si l’individu i vote Kouko
Xi =
0 si l’individu i vote Yao.
Les valeurs observées sont considérées comme étant les réalisations de variables aléa-
toires X 1 , . . . , X n indépendantes et identiquement distribuées selon la distribution fi-
nale des voix, c’est à dire la loi de Bernoulli B (1, θ ). Le paramètre θ représente la
probabilité du succès, c’est à dire la probabilité de voter pour Kouko.
Définition
n 1.2.1. On
o appelle modèle statistique la donnée d’une famille de lois de proba-
bilité Pθ , θ ∈ Θ ⊂ R ; Θ est appelé espace des paramètre.
d
Echantillon : (X1, . . . , X n)
Réalisation : ( x1 , . . . , xn )
Définition 1.2.3. On appelle statistique toute variable aléatoire ne dépendant que de l’échan-
tillon ( X 1 , . . . , X n ).
f ( x, θ ) = Pθ ( X = x) = θ (1 − θ )1{0,1} ( x).
n o
2. Modèle gaussien : N (µ, σ2 ), θ = (µ, σ2 ) ∈ Θ = R × R∗+ ⊂ R2 :
1 ³ 1 ´
f ( x, µ, σ2 ) = p exp − 2 ( x − µ)2 .
2πσ 2σ
n o
3. Modèle exponentiel : E (θ ), θ ∈ Θ = R∗+ ⊂ R :
θx
f ( x, θ ) = e−θ 1N ( x).
x!
Définition 1.2.4. Le support de Pθ est l’ensemble { x : f ( x, θ ) > 0} .
Exemple
n 1.2.2.
o 1. Le modèle de Bernouilli est un modèle homogène car son support
0, 1 est indépendant de θ .
2. Le modèle uniforme {U [0,θ] , θ > 0} n’est pas homogène. En effet, la densité de la loi
1
uniforme sur [0, θ ] étant f ( x, θ ) = 1[0,θ] ( x), son support [0, θ ] dépendant du paramètre.
θ
Définition 1.2.6. Le modèle statistique {Pθ , θ ∈ Θ} est identifiable lorsque l’application
θ 7−→ Pθ est injective.
Exercice 1.2.1. Une élection entre deux candidats A et B a lieu : on effectue un sondage à
la sortie des urnes. On interroge n votants, n étant considéré comme petit devant le nombre
total de votants, et on récolte les nombres n A et n B de voix pour A et B respectivement
( n A + n B = n, en ne tenant pas compte des votes blancs ou nuls pour simplifier).
1. Décrire l’observation associée à cette expérience et le modèle statistique engendré par
cette observation.
2. Montrer que le modèle statistique engendré par cette observation est identifiable. Ex-
hiber sa vraisemblance.
Chapitre
2 Exhaustivité
2.1 Vraisemblance
Définition 2.1.1. On appelle vraisemblance d’un échantillon ( X 1 , . . . , X n ) la fonction définie
par
L ( x1 , . . . , x n , · ) : Θ → R+
n
Y
θ 7→ L( x1 , . . . , xn , θ ) = f ( x i , θ ).
i =1
Exemple 2.1.1. Soit l’échantillon ( X 1 , . . . , X n ) issu d’une loi de Bernouilli B (1, θ ) avec
θ ∈]0, 1[. X 1 suit une loi de Bernouilli B (1, θ ) si
(
x 1− x θ x (1 − θ )1− x si x ∈ {0, 1}
f ( x, θ ) = θ (1 − θ ) 1{0,1} ( x) =
0 sinon.
La vraisemblance est
n
Y
L( x1 , . . . , xn , θ ) = f ( xi , θ)
i =1
n
θ x i (1 − θ )1− x i 1{0,1} ( x i )
Y
=
i =1
³ θ ´P n x i
n i =1
= (1 − θ ) 1{0,1}n ( x1 , . . . , xn )
1 − θ
³ ´ n xi
P
(1 − θ )n 1−θ θ
i =1
si ( x1 , . . . , xn ) ∈ {0, 1}n
=
0 sinon
Exemple 2.1.2. Soit un échantillon ( X 1 , . . . , X n ) issu d’une loi exponentielle E (θ ) avec θ > 0.
X 1 suit la loi exponentielle E (θ ) si
θ e−θ x
(
−θ x si x ∈ R∗+
f ( x, θ ) = θ e 1R∗+ ( x) =
0 sinon
7
8 CHAPITRE 2. EXHAUSTIVITÉ
La vraisemblance est
n
θ e−θ x i 1R∗+ ( x i )
Y
L( x1 , . . . , xn , θ ) =
i =1
Pn
= θ n e−θ i=1 x i 1(R∗+ )n ( x1 , . . . , xn ).
Pn
θ n e−θ i=1 x i si ( x1 , . . . , xn ) ∈ (R∗+ )n
(
=
0 sinon
Exemple 2.1.3. Soit un échantillon ( X 1 , . . . , X n ) issu d’une loi normale N (m, σ2 ) avec m ∈ R
et σ > 0. X 1 suit la loi normale N (m, σ2 ) si
1 − 1 ( x − m )2
f ( x, m, σ2 ) = p e 2σ 2
2πσ
La vraisemblance est
n 1 − 1 ( x − m )2
L( x1 , . . . , xn , m, σ2 ) =
Y
p e 2σ 2
i =1 2πσ
³ 1 ´n
− 1
Pn
( x − m )2
= p e 2σ2 i=1 i
2πσ
2.2 Exhaustivité
Un échantillon nous apporte une certaine information sur le paramètre θ . Lorsque l’on
résume cet échantillon par une statistique, il s’agit de ne pas perdre cette information. Une
statistique qui conserve l’information contenue dans l’échantillon sera dite exhaustive.
L( x1 , . . . , xn , θ ) = g(T ( x1 , . . . , xn ), θ ) h( x1 , . . . , xn ).
Exemple 2.2.1. Soit l’échantillon ( X 1 , . . . , X n ) issu d’une loi de Bernouilli B (1, θ ) avec
θ ∈]0, 1[.
La vraisemblance est
³ θ ´Pn x i
L( x1 , . . . , xn , θ ) = (1 − θ )n
i =1
1{0,1}n ( x1 , . . . , xn )
1−θ
2.2. EXHAUSTIVITÉ 9
Nous avons
n
³X ´ ³ θ ´Pn x i
x i , θ = (1 − θ )n
i =1
g
i =1 1 − θ
h( x1 , . . . , xn ) = 1{0,1}n ( x1 , . . . , xn ).
Pn
Grâce au théorème de factorisation, on déduit que la statistique i =1 X i est exhaustive pour
θ.
Exemple 2.2.2. Soit un échantillon ( X 1 , . . . , X n ) issu d’une loi exponentielle E (θ ) avec θ > 0.
La vraisemblance est
Pn
L( x1 , . . . , xn , θ ) = θ n e−θ x
i =1 i 1(R∗+ )n ( x1 , . . . , xn ).
Nous avons
n
³X ´ Pn
g x i , θ = θ n e−θ i=1 x i
i =1
h( x1 , . . . , xn ) = 1(R∗+ )n ( x1 , . . . , xn ).
Pn
Grâce au théorème de factorisation, on déduit que la statistique i =1 X i est exhaustive pour
θ.
Exemple 2.2.3. Soit un échantillon ( X 1 , . . . , X n ) issu d’une loi normale N (m, σ2 ) avec m ∈ R
connue et σ > 0 inconnue. La vraisemblance est
³ 1 ´n
− 1
Pn
( x − m )2
L ( x1 , . . . , x n , σ 2 ) = p e 2σ2 i=1 i
2πσ
Nous avons
n ´ ³ 1 ´n
− 1
Pn
( x − m )2
³X
g ( x i − m)2 , σ2 = p e 2σ2 i=1 i
i =1 2πσ
h( x1 , . . . , xn ) = 1.
Pn 2
Grâce au théorème de factorisation, on déduit que la statistique i =1 ( x i − m) est exhaustive
pour σ2 .
Exercice 2.2.1. 1. On considère un échantillon ( X 1 , . . . , X n ) issu d’une loi de Poisson
P (θ ) avec θ > 0. Déterminer une statistique exhaustive pour θ .
2. On considère un échantillon ( X 1 , . . . , X n ) issu d’une loi uniforme U ([0, θ ]) avec θ > 0.
Déterminer une statistique exhaustive pour θ .
3. On considère un échantillon ( X 1 , . . . , X n ) issu d’une loi normale N (m, σ2 ) avec m ∈
R, σ2 > 0. Déterminer une statistique exhaustive pour ( m, σ2 ).
Chapitre
3 Information de Fisher
10
3.2. EXEMPLES 11
3.2 Exemples
Exemple 3.2.1. Soit l’échantillon ( X 1 , . . . , X n ) issu d’une loi de Bernouilli B (1, θ ) avec
θ ∈]0, 1[. Le support de la loi de Bernouilli {0, 1} est indépendant de θ . La vraisemblance
³ θ ´P n x i
L( x1 , . . . , xn , θ ) = (1 − θ )n
i =1
1{0,1}n ( x1 , . . . , xn )
1 − θ
³ ´ n xi
P
(1 − θ )n 1−θ θ
i =1
si ( x1 , . . . , xn ) ∈ {0, 1}n
=
0 sinon
Pour tout ( x1 , . . . , xn ) ∈ {0, 1}n , ∀θ ∈]0, 1[, L( x1 , . . . , xn , θ ) > 0 et θ 7→ L( x1 , . . . , xn , θ ) est deux fois
dérivable. La log-vraisemblance est donc
n
X n
X
ln L( x1 , . . . , xn , θ ) = x i ln(θ ) + ( n − x i ) ln(1 − θ )
i =1 i =1
Pn
∂2 ln L( x1 , . . . , xn , θ ) n − ni=1 x i
P
− i =1 x i
= −
∂θ 2 θ2 (1 − θ )2
∂2 ln L( X 1 , . . . , X n , θ ) n
· ¸
I n (θ ) = −Eθ = .
∂θ 2 θ (1 − θ )
Exemple 3.2.2. Soit un échantillon ( X 1 , . . . , X n ) issu d’une loi normale N (m, σ2 ) avec m ∈ R
et σ > 0. La vraisemblance est
³ 1 ´n
− 1
Pn
( x − m )2
L ( x1 , . . . , x n , m ) = p e 2σ2 i=1 i
2πσ
∂2 ln L( x1 , . . . , xn , m) n
=− .
∂ m2 σ2
Ainsi, nous avons :
∂2 ln L( X 1 , . . . , X n , m) n
· ¸
I n ( m) = −Em = .
∂ m2 σ2
On en déduit que l’information est d’autant plus grande que la variance est plus petite.
Exercice 3.2.1. Soit un échantillon ( X 1 , . . . , X n ) issu d’une loi normale N (m, σ2 ) avec m ∈ R
et σ > 0. Déterminer l’information de Fisher au point σ2 fournie par ( X 1 , . . . , X n ).
Exercice 3.2.2. Soit X une variable aléatoire suivant une loi gamma Γ(a, ρ ). Nous dis-
posons de ( X 1 , . . . , X n ), un échantillon aléatoire de taille n de loi parente X . Déterminer
l’information de Fisher pour ρ fournie par ( X 1 , . . . , X n ).
Chapitre
4 Estimateurs
12
4.1. PRINCIPE GÉNÉRAL DE L’ESTIMATION 13
En dehors du modèle gaussien, il est souvent difficile de déterminer la loi exacte des
estimateurs.
Théorème 4.1.1. On considère un échantillon issu d’une loi normale N (m, σ2 ) avec m ∈ R
et σ2 > 0. Alors, nous avons
1. X n et S 2n sont indépendantes.
2
2. X n ,→ N (m, σn ).
( n−1)S 2n
3. σ2
,→ χ2 ( n − 1).
p
n( X n − m)
4. Sn ,→ T ( n − 1)
Définition 4.1.4. Soient θbn et θen deux estimateurs de θ . On dit que θbn est préférable à θen
si
R (θbn , θ ) ≤ R (θen , θ ) ∀θ ∈ Θ ⇐⇒ R (θbn , θ ) − R (θen , θ ) ≤ 0 θ ∈ Θ.
Les deux estimateurs ne sont pas comparables si l’application θ 7→ R (θbn , θ ) − R (θen , θ ) change
de signe sur l’espace Θ.
Un estimateur optimal au sens du risque quadratique est l’estimateur qui a le plus petit
risque quadratique pour toute valeur de θ ∈ Θ. Il est souvent difficile, voire impossible, de
trouver un estimateur optimal.
Définition 4.1.5. Le biais d’un estimateur θbn de θ est défini par
b n (θ ) = Eθ (θbn ) − θ = Eθ (θbn − θ ).
Le biais de l’estimateur est la moyenne des écarts systématiques entre θbn et θ . L’absence
d’un écart systématique entre θbn et θ se traduit par un biais nul.
Définition 4.1.6. Un estimateur θbn de θ est dit sans biais lorsque pour tout θ ∈ Θ
Eθ (θbn ) = θ .
Dans le cas contraire, l’estimateur θbn est dit biaisé.
Comme Eθ ( X 1 ) = . . . = Eθ ( X n )
n n nEθ ( X 1 )
³1 X ´ 1X Z +∞
Eθ ( X n ) = Eθ Xi = Eθ ( X i ) = = Eθ ( X 1 ) = x f ( x, θ ) dx.
n i=1 n i=1 n −∞
Z +∞ x − x /θ 1
Z +∞ 1
Z u
= x e 1R∗+ ( x) dx = 2 x2 e− x/θ dx = lim x2 e− x/θ dx
−∞ θ 2 θ 0 θ 2 u→+∞ 0
Exercice 4.1.3. Deux recherches indépendantes font état d’échantillonnages effectués au-
près d’une même population. Les seules données présentées sont les moyennes X 1 et X 2 et
les tailles des échantillons n1 et n2 . Déterminer la valeur k telle que k( X 1 − X 2 )2 est un
estimateur sans biais de la variance σ2 de la population.
Définition 4.1.7. Soient θbn et θen deux estimateurs sans biais de θ . On dit que θbn est
préférable à θen si
Exercice 4.1.4. On considère un échantillon ( X 1 , . . . , X n ) issu d’une loi uniforme U ([0, θ ]).
considérons les deuxestimateurs suivants : θb1 = 2 X n et θb2 = max( X 1 , . . . , X n ).
1. Montrer que θb1 est un estimateur sans biais de θ .
4.1. PRINCIPE GÉNÉRAL DE L’ESTIMATION 15
2. Montrer que θb2 est un estimateur biaisé de θ ; déterminer son biais ; déterminec c tel
que θb3 = cθb2 soit un estimateur sans biais de θ .
3. Déterminer la variance de θb1 et la variance de θb3 et dites lequel des deux estimateurs
est meilleur.
( h0 (θ ))2
var θ (θbn ) ≥ .
I n (θ )
Dans ce cas, la borne de Cramer-Rao pour l’estimation sans biais de h(θ ) est :
( h0 (θ ))2
BCR (θ ) = .
I n (θ )
Exemple 4.1.2. Soit l’échantillon ( X 1 , . . . , X n ) issu d’une loi de Bernouilli B (1, θ ) avec
θ ∈]0, 1[. L’information de Fisher est
n
I n (θ ) = .
θ (1 − θ )
1 θ (1 − θ )
BCR (θ ) = = .
I n (θ ) n
Exemple 4.1.3. Soit un échantillon ( X 1 , . . . , X n ) issu d’une loi normale N (m, σ2 ) avec m ∈ R
inconnue et σ > 0 connue. L’information de Fisher est
n
I n ( m) = .
σ2
1 σ2
BCR ( m) = = .
I n ( m) n
16 CHAPITRE 4. ESTIMATEURS
Définition 4.1.8. Un estimateur θbn de θ est dit efficace si
- θbn est sans biais
- var θ θbn = BCR (θ ).
¡ ¢
Exercice 4.1.5. Soit un échantillon ( X 1 , . . . , X n ) issu d’une loi normale N (m, σ2 ) avec m ∈ R
1X n
inconnue et σ > 0 connue. Montrer que X n = X i est un estimateur efficace de m.
n i=1
Définition 4.1.9. Un estimateur θbn de θ est dit asymptotiquement sans biais lorsque pour
tout θ ,
Eθ (θbn ) −−−−−→ θ .
n→+∞
P
θbn −−−−−→ θ lorsque n → +∞
n→+∞
c’est à dire ³¯ ¯ ´
∀ε > 0 lim P ¯θbn − θ ¯ ≥ ε = 0.
¯ ¯
n→+∞
Interprétation : La convergence est une des propriétés les plus importantes pour un es-
timateur. On a la garantie qu’à un rang n assez grand et avec grande probabilité, θbn soit
proche du paramètre θ .
Quelles sont les conditions sur la fonction g ? La méthode delta permet de répondre à ce
type de préoccupations.
Théorème 4.1.3. Si la suite de variables aléatoires (Yn ) est asymptotiquement normale,
telle qu’il existe y et σ2y avec
p L
n(Yn − y) −−−−−→ N (0, σ2y )
n→+∞
C’est à dire p 2 L
n( X n − m2 ) −−−−−→ N (0, 4 m2 σ2 )
n→+∞
Chapitre
5 Méthodes d’estimation
E( g( X 1 ) = q(θ ). (5.1.1)
1X n
g ( X i ) = q (θ ) (5.1.2)
n i=1
— Résoudre (5.1.2) ; si q est bijective alors l’estimateur par la méthode des moments
est donné par :
n
³1 X ´
θbn = q−1 g( X i ) .
n i=1
18
5.2. METHODE DU MAXIMUM DE VRAISEMBLANCE 19
1. Etape 1 :
1 1
Eθ ( X 12 ) = var θ ( X 1 ) + (E θ ( X 1 ))2 = +
θ2 θ2
g( x) = x2 et q(θ ) = θ22 est bijective.
2. Etape 2 : n1 ni=1 X i2 = θ22 .
P
3. Etape 3 :
s
2
θ= 1 Pn 2
n i =1 X i
Exercice 5.1.1. Pendant une année, un assureur a enregistré les montants de sinistres
suivants
{500, 1000, 1500, 2500, 4500}.
Il décide de modéliser ces données par une loi Log-normale(µ, σ2 ). En utilisant la méthode
des moments, estimer les paramètres µ et σ2 . Calculer ensuite la probabilité d’avoir un si-
nistre supérieur à 4 500.
Exercice 5.1.2. Soit ( X 1 , . . . , X n ) un échantillon d’une population de loi uniforme sur [θ , 1].
Déterminer par la méthode des moments l’estimateur de θ . Etudier ses propriétés.
Exercice 5.1.3. Soit ( X 1 , . . . , X n ) un échantillon d’une population de loi gamma Γ(2, ρ ) avec
ρ inconnu. Déterminer par la méthode des moments l’estimateur de ρ . Etudier ses propriétés.
∀θ ∈ Θ L n ( X 1 , . . . , X n , θbn ) ≥ L n ( X 1 , . . . , X n , θ ).
20 CHAPITRE 5. MÉTHODES D’ESTIMATION
La recherche d’un maximum de la vraisemblance n’est pas forcément réduite à un simple
calcul des zéros de la dérivée de L. Cependant, ce cas étant le plus fréquent, il est logique
de poser les deux hypothèses suivantes :
— le support X (Ω) ne dépend pas de θ .
— la vraisemblance L est deux fois continûment dérivable par rapport θ .
Alors θbn est solution du système :
∂L n ( X 1 , . . . , X n , θ )
(θ̂n ) = 0
∂θ
2
∂ L n ( X 1 , . . . , X n , θ)
(θ̂n ) < 0.
∂θ 2
Puisque la fonction logarithme est croissante, vu la forme de L, il est aussi aisé d’utiliser
le logarithme de la vraisemblance si f ( x, θ ) > 0, ∀ x ∈ X (Ω), ∀θ . Un estimateur du maximum
de vraisemblance maximise le logarithme de la vraisemblance L n ( X 1 , . . . , X n , θ ) :
n
X
ln(L n ( X 1 , . . . , X n , θ )) = ln( f ( X i , θ ).
i =1
θ̂n = X n .
5.2. METHODE DU MAXIMUM DE VRAISEMBLANCE 21
Etude des propriétés de θ̂n .
∂ ln L( x1 , . . . , xn , θ ) n Xn 1
= − x i = 0 ⇐⇒ θ =
∂θ θ i=1 xn
∂2 ln L( x1 , . . . , xn , θ ) ³ 1 ´
= − nx2n < 0.
∂θ 2 xn
Pour montrer que θ̂n est biaisé (ou sans biais), il faut calculer
1 n 1
µ ¶ µ ¶ µ ¶
E = E Pn = n × E Pn
Xn i =1 X i i =1 X i
Comme les variables X i sont indépendantes et de même loi E (θ ) = Γ(1, θ ), on en déduit que
n
Γ( n, θ ).
X
Xi
i =1
X +Y Γ(a + b, θ )
n
X
Posons Z = X i , nous avons
i =1
θn
Z Γ( n, θ ) ⇐⇒ f Z ( z, θ ) = z n−1 e−θ z 1R+∗ ( z)
Γ( n)
22 CHAPITRE 5. MÉTHODES D’ESTIMATION
Finalement
1 n
µ ¶ µ ¶
E = E Pn
Xn i =1 X i
1
µ ¶
= n × E Pn
i =1 X i
µ ¶
1 n
= n×E
X
Z= Xi
Z i −1
Z +∞
1
= f Z ( z, θ ) dz
−∞ z
θn +∞
Z
= z n−2 e−θ z dz
Γ( n) 0
θn
Z +∞
= z(n−1)−1 e−θ z dz
Γ( n) 0
θn Γ( n − 1)
= ×
Γ( n) θ n−1
Utiliser la formule suivante :
Γ(a) +∞
Z
= xa−1 e−ρ x dx
ρa 0
Γ( n) = ( n − 1)Γ( n − 1) n entier ≥ 1
Z +∞
Γ(a) = xa−1 e− x dx.
0
6.1 Introduction
Définition 6.1.1. Soit α ∈]0, 1[ ; on appelle intervalle de confiance pour le paramètre θ de
niveau de confiance égale à 1 − α, un intervalle aléatoire I ( X 1 , . . . , X n ) ⊂ Θ tel que
Pθ ( I ( X 1 , . . . , X n ) 3 θ ) = 1 − α.
lim Pθ ( I ( X 1 , . . . , X n ) 3 θ ) = 1 − α.
n→+∞
Lorsque
I ( X 1 , . . . , X n ) = [T n∗ ( X 1 , . . . , X n ), T n∗∗ ( X 1 , . . . , X n )]
I ( X 1 , . . . , X n ) = [T n∗ ( X 1 , . . . , X n ), +∞[
ou
I ( X 1 , . . . , X n ) =] − ∞, T n∗ ( X 1 , . . . , X n )],
Remarque 6.1.1. Dans l’univers des échantillons possibles, pour une proportion au moins
1 − α d’entre eux, on obtient un intervalle qui contient θ .
Remarque 6.1.2. A α fixé, l’intervalle de confiance est d’autant meilleur que sa longueur
est petite.
24
6.2. CONSTRUCTION D’UN INTERVALLE DE CONFIANCE 25
Remarque 6.1.3. On doit comprendre un intervalle de confiance de niveau 1 − α comme
un intervalle aléatoire qui a une probabilité 1 − α de contenir le vrai parametre θ .
q α = inf { x ∈ R, F ( x) ≥ α} .
Lorsque la fonction de répartition F est continue et strictement croissante, elle est inversible
d’inverse F −1 et pour tout α ∈]0, 1[, on a qα = F −1 (α).
Définition 6.2.2. Une fonction asymptotiquement pivotale pour θ est une variable aléatoire,
φ( X 1 , . . . , X n , θ ) qui converge en loi vers une variable aléatoire dont la loi ne dépend pas de
θ.
c’est à dire
h i
Pθ φ( X 1 , . . . , X n , θ ) ≤ q 1 = α1
h i
Pθ φ( X 1 , . . . , X n , θ ) ≥ q 2 = α2
avec α1 + α2 = α.
3. La double inéquation
q 1 ≤ h( X 1 , . . . , X n , θ ) ≤ q 2 (6.2.1)
T1 ( X 1 , . . . , X n ) ≤ θ ≤ T2 ( X 1 , . . . , X n ),
Tn − θ L
−−−−−→ N (0, 1)
s n (θ ) n→+∞
Remarque 6.2.1. Pour les intervalles de confiance unilatéraux, on utilise la méthode ci-
dessus.
α
P(− b ≤ X ≤ b) = 1 − α ⇔ P( X ≤ b) = 1 − .
2
2. La loi de Student T (n). L’intervalle le plus court est de la forme [−b, b] où b = t(1n−) α
2
α
est le quantile d’odre 1 − de T (n).
2
> curve(dnorm(x),-3,3)
6.2. CONSTRUCTION D’UN INTERVALLE DE CONFIANCE 27
0.4
0.3
dnorm(x)
0.2
0.1
0.0
−3 −2 −1 0 1 2 3
x
28 CHAPITRE 6. ESTIMATION PAR INTERVALLE DE CONFIANCE
Loi de Student
0.4
0.3
dnorm(x)
0.2
0.1
0.0
−3 −2 −1 0 1 2 3
L
T ( n) −−−−−→ N (0, 1)
n→+∞
6.3 Exemples
Si X ,→ N (µ, σ2 ) alors
X −m
,→ N (0, 1)
σ
σ σ
· ¸
Xn − z1− α p , Xn + z1− α p
2 n 2 n
où z1− α2 est le quantile d’ordre 1 − α2 de la loi normale centrée réduite N (0, 1)
Taille d’échantillon. Fixons ε > 0. Nous cherchons à choisir une taille d’échantillon
telle que ME ≤ ε. Ainsi, on cherche la taille n d’échantillon tel que
σ
|µ − X̄ n | ≤ z1− α p ≤ ε
2 n
c’est à dire
σ2 z12− α
2
n≥ .
ε2
Cette variable aléatoire est une fonction pivotale pour µ. De plus la densité de la loi
de Student vérifie les hypothèses de la Proposition 6.2.1. Ainsi,
p ³ ´
n Xn −µ
P − t 1− α ≤ ≤ t 1− α = 1 − α
2 S 2
S
ME = t 1− α p .
2 n
Taille d’échantillon. Fixons ε > 0. Nous cherchons à choisir une taille d’échantillon
telle que ME ≤ ε. Ainsi, on cherche la taille n d’échantillon tel que
S
|µ − X̄ n | ≤ t 1− α p ≤ ε
2 n
c’est à dire
S 2 t21− α
2
n≥ .
ε2
nV 2
,→ χ2 ( n).
σ2
( n − 1)S 2
,→ χ2 ( n − 1).
σ2
6.3. EXEMPLES 31
Ainsi, nous avons
( n − 1)S 2
µ ¶
P q1 ≤ ≤ q 2 = 1−α
σ2
h ( n − 1)S 2 i h ( n − 1)S 2 i
P < q1 + P > q 2 = α.
σ2 σ2
Ainsi q1 = χ(αn2−1) et q2 = χ1(n−−α1)1 avec α1 + α2 = α. On déduit que
p q
On remplace alors le numérateur p(1 − p) et X n (1 − X n ) et on obtient toujours
p
n( X n − p ) L
q −−−−−→ N (0, 1).
n→+∞
X n (1 − X n )
où z1− α2 est le quantile d’ordre 1 − α2 de N (0, 1). Les approximations ci-dessus sont valables
si la taille de l’échantillon est suffisamment grande (n ≥ 30)
Chapitre
H0 vraie H1 vraie
H0 décidée Bonne décision Erreur de deuxième espèce
H1 décidée Erreur de première espèce Bonne décision
Exemple 7.1.1. Contrôle de qualité. Une machine produit des pièces classées soit
”bonnes” codées par 0, soit ”défectueuses” codées par 1. Le nombre de pièces fabriquées étant
gigantesque et l’examen de chaque pièce étant relativement coùteux, on ne peut évaluer la
qualité de sa production que sur un lot de taille n faible au regard de la production. On
observe alors ce lot de n pièces et on note ( x1 , . . . , xn ) les observations.
Modélisation : on suppose que x i est la réalisation d’une variable aléatoire X i de loi de
Bernouilli B (1, p), p ∈]0, 1[ ; nous faisons les hypothèses suivantes :
- X 1 , . . . , X n sont indépendantes : on admet que des petites variations aléatoires
pouvant influer sur la qualité des pièces ne se repercutent pas d’une pièce à une
autre.
- X 1 , . . . , X n sont identiquement distribuées : on admet que la production a été
stable durant la période d’observation ; cette stabilité est caractérisée par la constance
de la probabilité p pour chaque pièce produite d’être défectueuse.
Nous considérons le problème de test de H0 : la machine est aux normes contre H1 : la
machine n’est pas aux normes.
33
34 CHAPITRE 7. GÉNÉRALITÉS SUR LES TESTS D’HYPOTHÈSES
- Erreur de première espèce : décider que la machine n’est pas aux normes alors qu’en
réalité elle est aux normes : dépenses inutiles de réparation ou de changement de
matériels.
- Erreur de deuxième espèce : décider que la machine est aux normes alors qu’en
réalité elle n’est pas aux normes : production de mauvaises pièces pouvant aboutir à
un mécontentement de la clientèle, voire à des problèmes de sécurité.
Définition 7.1.1. On appelle test une statistique ψ( X 1 , . . . , X n ) à valeurs dans {0, 1} telle
que
ψ( X 1 , . . . , X n ) = 0 =⇒ on accepte H0
ψ( X 1 , . . . , X n ) = 1 =⇒ on accepte H1 .
αψ : Θ0 −→ [0, 1]
θ 7−→ Pθ (W ).
sup αψ (θ ).
θ ∈Θ
sup αψ (θ ) = α.
θ ∈Θ
Remarque 7.1.1. Le niveau du test est le plus gros risque de première espèce possible.
βψ : Θ1 −→ [0, 1]
θ 7−→ Pθ (W ).
L’idéal serait de diminuer les deux risques d’erreur en même temps. Malheureusement,
on montre qu’ils varient en sens inverse. Dans la pratique des tests statistiques, il est de
règle de se fixer α, ce qui fait jouer à H0 un rôle prééminent.
Un test est déterminé par sa région critique W . La région critique dépend du niveau α et
d’une statistique appelée variable de décision. Pour la déterminer, il est indispensable de
connaı̂tre la loi de la variable de décision sous l’hypothèse H0 . Lorsque ( x1 , . . . , xn ) sont des
valeurs observées de cet échantillon,
- si ( x1 , . . . , xn ) ∈ W , alors on rejette H0 et on accepte H1 ;
- si ( x1 , . . . , xn ) 6∈ W , alors on accepte H0 et on rejette H1 .
7.2. ETAPES DES TESTS 35
Définition 7.1.6. On appelle puissance du test ψ( X 1 , . . . , X n ) la probabilité d’accepter H1
quand H1 est vraie :
γψ : Θ1 −→ [0, 1]
θ 7−→ Pθ (W ).
La puissance
— croı̂t avec le niveau de signification α.
— croı̂t avec la taille del’échantillon
— dépend de la région critique.
Remarque 7.1.3. Un bon test est un test qui, pour un niveau α donné, maximise la puis-
sance.
Définition 7.1.7. Un test ψ( X 1 , . . . , X n ) est sans biais lorsque la puissance du test est su-
périeure au niveau α sur Θ1 :
γ(θ ) ≥ α ∀θ ∈ Θ1 .
W = θ̂n − θ0 > l α .
© ª
W = θ̂n − θ0 < l α .
© ª
36 CHAPITRE 7. GÉNÉRALITÉS SUR LES TESTS D’HYPOTHÈSES
• Test de H0 : θ = θ¯0 contre¯ H1 : θ 6= θ0 .
On rejette H0 si ¯θ̂n − θ0 ¯ est ”trop grand” i.e. la région critique est
W = ¯θ̂n − θ0 ¯ > l α .
©¯ ¯ ª
• Test de H0 : θ = θ0 contre H1 : θ = θ1 .
- W = θ̂n > l α si θ1 > θ0
© ª
7.4 La p-value
En pratique, plutôt que de calculer la région critique en fonction de α, on préfère donner
un seuil critique de α∗ appelée p-value, qui est telle que
- si α∗ < α, on rejette H0
- si α < α∗ , on accepte H0 .
Les logiciels statistiques calculent et présentent les p-valeurs qui sont difficiles à obtenir sans
moyen de calcul approprié.
Chapitre
8.1 Introduction
On appelle test de Student un test de comparaison de la moyenne dans un échantillon
gaussien, c’est à dire un échantillon ( X 1 , . . . , X n ) issu de la loi normale N (m, σ2 ). Soit m 0
une valeur possible de m. La moyenne empirique X n est un estimateur efficace de m.
Deux résultats importants :
p ³ ´
µ
σ2
¶ n Xn −m
X n ,→ N m, ⇐⇒ ,→ N (0, 1).
n σ
p ³ ´
n Xn −m
,→ T ( n − 1)
Sn
qui est la loi de Student à n − 1 dégrés de liberté avec
à !1/2
1 X n
Sn = ( X i − X n )2 .
n − 1 i=1
37
38 CHAPITRE 8. TESTS DE STUDENT : UN ÉCHANTILLON
Sous l’hypothèse H0 ,
p ³ ´
µ
σ2
¶ n X n − m0
X n ,→ N m 0 , ⇐⇒ ,→ N (0, 1).
n σ
Ce qui implique alors
p ³ ´
p
n X n − m0 nl α
Pm0 > = α.
σ σ
1
x10 = (505.1+423.5+462.0+391.9+412.1+487.2+439.0+434.1+441.1+474.2) = 447.02
10
et p
10 (447.02 − 430)
= 2.243 > 1.644,
24
on accepte H1 au niveau α = 0.05. Ainsi, on peut conclure que les tablettes de cette
marque contiennent une teneur en cacao supérieure à 430 g par k g.
où t1−α,n−1 est le quantile d’ordre 1 − α de la loi de Student à n − 1 degrés de liberté T (n − 1).
Exercice 8.2.2. Une marque de tablettes de chocolat annonce que ses tablettes contiennent
une teneur en cacao supérieure à 430 g par k g. On effectue un contrôle de qualité sur
un échantillon de 10 tablettes et on obtient les teneurs suivantes en g/k g : 505.1 423.5
462.0 391.9 412.1 487.2 439.0 434.1 441.1 474.2. On admet que chaque mesure suit une loi
normale N (m, σ2 ). Que peut-on conclure au niveau α = 0.05 ?
Solution 8.2.2. Au niveau α = 0.05, nous voulons tester H0 : m ≤ 430 contre H1 : m > 430.
La région critique du test est :
p ³ ´
½ 10 X − 430
10
¾
W= > t 0.95,9
S 10
où t0.95,9 = 1.833 est le quantile d’ordre 0.95 de la loi de Student à 9 degrés de liberté. Par
suite, nous obtenons :
p ³ ´
½ 10 X − 430
10
¾
W= > 1.833
35
Puisque
1
x10 = (505.1 + 423.5 + 462.0 + 391.9 + 412.1 + 487.2 + 439.0 + 434.1 + 441.1 + 474.2) = 447.02
10
et p
10 (447.02 − 430)
= 1.5378 < 1.833,
35
on rejette H1 au niveau α = 0.05. Ainsi, on peut conclure que les tablettes de cette marque
ne contiennent pas une teneur en cacao supérieure à 430 g par k g.
40 CHAPITRE 8. TESTS DE STUDENT : UN ÉCHANTILLON
15
½ ¾
W = X 15 < 200 + p q 0.05
15
où q0.05 = − q0.95 = −1.644 est le quantile d’ordre 0.05 de la loi normale centrée-
15
réduite. 200 − p ∗ 1.64 = 193.65
15
3. Puisque 195 > 193.65, on accepte H0 . Même si x̄ < 200 g, il n’y a pas d’éléments
significatifs indiquant que le poids moyen des boites est inférieure à 200 g.
où tα,n−1 est le quantile d’ordre α de la loi de Student à n − 1 degrés de liberté T (n − 1).
où t0.05,14 = −1.761 est le quantile d’ordre 0.05 de la loi de Student à 14 degrés de
liberté (T (14)).
p
3. Puisque 15(195 15
−200)
= −1.291 > −1.761, on accepte H0 .Au niveau α = 0.05, il n’y a
pas d’éléments significatifs indiquant que le poids moyen des boites est inférieure à
200 g.
8.4 H0 : m = m 0 contre H1 : m 6= m 0
Exercice 8.4.1. Une entreprise de vente par correspondance demande un montant fixe
pour les frais d’envoi, indépendamment du poids du colis. Une étude réalisée il y a quelques
années a montré que le poids moyen d’un colis était de 17.5 kg avec un écart-type de 3.6
kg. La comptabilité soupçonne que le poids moyen est maintenant différent de 17.5 kg. Un
échantillon aléatoire de 100 colis est prélevé et fournit un poids moyen de x̄ = 18.4 kg. On
suppose que les poids des colis sont distribués normalement. Que conclure au niveau α = 0.05
½¯ p n X − m ¯
³ ´
n 0 ¯
¾
¯
W = ¯¯ ¯ > q 0.975
σ ¯
σ σ
½ ¾ ½ ¾
= X n < m 0 − p q 0.975 ∪ X n > m 0 + p q 0.975
n n
où q0.975 = 1.96 est le quantile d’ordre 0.975 de la loi normale centrée-réduite.
σ 3.6
m 0 + p q 1− α = 17.5 + p ∗ 1.96 = 18.2056
n 2
100
σ 3.6
m 0 − p q 1− α = 17.5 − p ∗ 1.96 = 16.7944
n 2
100
3. Puisque x̄ > 18.2056, on rejette H0 i.e le poids moyen des colis a changé.
42 CHAPITRE 8. TESTS DE STUDENT : UN ÉCHANTILLON
8.4.1 On suppose que la variance σ2 est inconnue.
où t1− α2 ,n−1 est le quantile d’ordre 1 − α2 de la loi de Student à n − 1 degrés de liberté T (n − 1).
Exercice 8.4.2. Une entreprise de vente par correspondance demande un montant fixe
pour les frais d’envoi, indépendamment du poids du colis. Une étude réalisée il y a quelques
années a montré que le poids moyen d’un colis était de 17.5 kg. La comptabilité soupçonne
que le poids moyen est maintenant différent de 17.5 kg. Un échantillon aléatoire de 100 colis
est prélevé et fournit un poids moyen de x̄ = 18.4 kg avec un écat-type estimé égal à 3.6. On
suppose que les poids des colis sont distribués normalement. Que conclure au niveau α = 0.05
où t0.975,100 = 1.9842 est le quantile d’ordre 0.975 de la loi de Student à 99 degrés de
liberté T (99).
p
100 (18.4 − 17.5)
3. Puisque = 2.5 > 1.9842, on rejette H0 i.e le poids moyen des colis
3.6
a changé.
Chapitre
9.1 Introduction
Soient P1 et P2 deux populations. On étudie un caractère (rendement, chiffre d’affaire,
seuil de perception, etc.) sur ces deux populations. Le caractère a pour espérance m 1 et
pour variance σ21 dans la population P1 et a pour espérance m 2 et pour variance σ22 dans
la population P2 . Pour des raisons techniques, on supposera que le caractère est distribué
selon une loi normale. On dispose alors de deux échantillons ( X 1 , . . . , X n1 ) et (Y1 , . . . , Yn2 ) issus
respectivement de P1 et P2 , tels que X i et Y j sont indépendantes :
- ( X 1 , . . . , X n1 ) est issu de N (m 1 , σ21 )
- (Y1 , . . . , Yn2 ) est issu de N ( m 2 , σ22 ).
Dans cette section, on comparera les moyennes et les variances des deux échantillons. Les
moyennes empiriques, variances empiriques modifiées des deux échantillons sont notées res-
pectivement X n1 , S12 , Y n2 et S22 .
moyenne Variance S 2
Groupe 1 12.8 3.4
Groupe 2 11.3 2.9
On suppose que les notes sont reparties dans les deux groupes selon des lois normales et
qu’elles sont toutes independantes. Peut-on considérer que le premier groupe est meilleur que
le deuxième, c’est-à-dire qu’un point et demi d’écart entre les moyennes est significatif d’une
différence de niveau ? La procédure à suivre consiste à tester d’abord l’égalité des variances,
puis l’égalité des moyennes.
Exemple 9.1.2. Deux variétés de blé ont été cultivées chacune sur 8 parcelles (n1 = n2 = 8).
Les rendements observés (en quintaux/hectare) sont regroupés dans le tableau ci-dessus :
moyenne variance σ2
Echantillon 1 80.0 1.00
Echantillon 2 81.5 1.00
43
44 CHAPITRE 9. TESTS DE STUDENT : DEUX ÉCHANTILLONS
Si l’on considère que les 16 parcelles, la variété 2 présente en moyenne un rendement su-
périeur (de 1.5 q/ ha) à celui de la variété 1. Peut-on généraliser ce résultat ? Autrement
dit, la différence observée (de 1.5 q/ha) doit être considérée comme une conséquence d’un
rendement moyen différent selon la variété ou, au contraire, est-il fortuit ? Selon un autre
point de vue, la question peut être posée ainsi : la différence de moyenne obervée doit être
imputée au hasard (c’est-à-dire à la variété ”naturelle” dite aussi ”résiduelle” pour exprimer
que l’on ne sait l’expliquer par la statistique) ?
S 12 S 12
( ) ( )
∗
W= < fα ∪ > f 1∗− α
S 22 2 S 22 2
α
où f α∗ est le quantile d’ordre 2 de la loi de Fisher à (n1 − 1, n2 − 1) degrés de liberté, f 1∗− α
2 2
est le quantile d’ordre 1 − α2 de la loi de Fisher à (n1 − 1, n2 − 1) degrés de liberté et
à !1/2
n1 ³
1 X ´2
S n1 = X i − X n1
n 1 − 1 i=1
à !1/2
n2 ³
1 X ´2
S n2 = Yi − Y n2 .
n 2 − 1 i=1
H0 : m 1 = m 2 contre H0 : m 1 6= m 2 .
Lorsque H0 est vraie, on observe très rarement une parfaite égalité des moyennes. La question
est donc de savoir à partir de quel écart de moyenne va-t-on choisir H1 ?
La région critique est de la forme
n¯ ¯ o
W = ¯ X n1 − Y n2 ¯ > l α .
¯ ¯
σ21 σ22
à !
X n1 − Y n2 ,→ N m 1 − m 2 , + .
n1 n2
9.3. TEST DE STUDENT DE COMPARAISON DES MOYENNES 45
Ainsi nous avons
( X n1 − Y n2 ) − ( m 1 − m 2 )
V= r ,→ N (0, 1).
σ21 σ2
n1 + n22
X n − Y n2
V= r1 ,→ N (0, 1).
σ21 σ2
n1 + n22
s
σ21 σ22
½¯ ¯ ¾
W = ¯ X n1 − Y n2 ¯ > u 1− α +
¯ ¯
2 n1 n2
Exemple 9.3.1. Revenons à l’exemple 9.1.2. Les variances sont connues, σ21 = σ22 = 1,
n 1 = n 2 = 8 et les rendements moyens observés x̄8 = 80 q/ h et ȳ8 = 81.5 q/ h. On suppose que
le seuil du test est α = 0.05. De ce fait, u0.975 = 1.96 Nous avons donc
s
1 1
u 0.975 + = 0.98 x̄8 − ȳ8 = −1.5 < −0.98.
8 8
On note que lorsque n1 et n2 sont grands, le caractère gaussien des observations n’est plus
requis, et que T n1 ,n2 suit approximativement, sous H0 , une loi N (0, 1)..
46 CHAPITRE 9. TESTS DE STUDENT : DEUX ÉCHANTILLONS
Supposons que σ21 = σ22 .
où t1− α2 ,n1 +n2 −2 est le quantile d’odre 1 − α2 de la loi de Student T (n1 + n2 − 2).
X n − Y n2
T n1 ,n2 = r 1 .
S 2n1 S 2n2
n1 + n2
où q1− α2 est le quantile d’odre 1 − α2 de la loi de Student [ν] degrés de liberté.
Chapitre
où q1−α est le quantile d’ordre 1 − α de loi normale centrée-réduite N (0, 1).
où q1− α2 est le quantile d’ordre 1 − α2 de loi normale centrée-réduite N (0, 1).
47
48 CHAPITRE 10. TESTS DE COMPARAISON DES PROPORTIONS
H0 : p 1 = p 2 contre H1 : p 1 6= p 2
p 1 (1 − p 1 )
µ ¶
X n1 ,→ N p 1 ,
n1
10.2. TEST DE COMPARAISON DE DEUX PROPORTIONS 49
p 2 (1 − p 2 )
µ ¶
Y n2 ,→ N p 2 ,
n2
p 1 (1 − p 1 ) p 2 (1 − p 2 )
µ ¶
X n1 − Y n2 ,→ N p 1 − p 2 , + .
n1 n2
1 1
µ µ ¶¶
X n1 − Y n2 ,→ N 0, p(1 − p) +
n1 n2
et s
1 1
µ ¶
X n1 − Y n2 p(1 − p) + ,→ N (0, 1) .
n1 n2
n 1 X n1 + n 2 Y n2
Comme p est inconnu, en remplaçant p par son estimateur p̂ = le résultat
n1 + n2
ci-dessus reste approximativement vrai. En posant
v à !µ
u
u n1 X n + n2 Y n n 1 X n1 + n 2 Y n2 1 1
¶
1 2
σ̂ = t 1− + ,
n1 + n2 n1 + n2 n1 n2
X n1 − Y n2
U= ,→ N (0, 1) .
σ̂
où q1−α est le quantile d’ordre 1 − α de loi normale centrée-réduite N (0, 1).
α
où q1− α2 est le quantile d’ordre 1 − 2 de loi normale centrée-réduite N (0, 1).
Exercice 10.2.3. Une étude des décisions rendues par des jurys dans des cas de vols par
effraction où l’accusé était de race noire a révélé les faits suivants : parmi les 28 cas où
les victimes étaient de race noire, l’accusé a été trouvé coupable dans 12 cas ; parmi les 36
cas où la victime était de race blanche, l’accusé a été trouvé coupable dans 23 cas. Peut-on
conclure que les jurys ont une plus forte tendance à déclarer coupables ceux qui sont accusés
d’avoir commis des vols contre des Blancs ?
Chapitre
Exercice 1. Afin de mieux gérer les demandes de crédits de ses clients, un directeur d’agence
bancaire réalise une étude relative à la durée de traitement des dossiers, supposée suivre une
distribution normale. Un échantillon de 30 dossiers a donné :
Durée de taitement (en jours) [0, 10[ [10, 20[ [20, 30[ [30, 40[ [40, 50[ [50, 60[
Effectif 3 6 10 7 3 1
51
52 CHAPITRE 11. EXERCICES AVEC SOLUTIONS
— Méthode 1 : Maximiser une fonction à deux variables à valeurs réelles, c’est à
dire, résoudre le problème de maximisation :
³ ´
max ln L( m, σ2 , X 1 , . . . , X n ) .
( m,σ2 )∈R×R+
Puis, résourdre ³ ´
σ n b n , σ2 , X 1 , . . . , X n ) .
c2 = arg max ln L( m
m∈R
On obtient :
n
m
bn = Xn c2 = 1 X ( X − X )2 .
σ n i n
n i=1
Attention : en ce qui concerne la variance, il faut dériver par rapport à
σ2 et non par rapport à σ.
n
c2 = 1 (Xi − Xn )2 .
X
Intéressons nous σ n
n i=1
Propriétés non asymptotiques
c2 ) = n − 1 σ2 6= σ2 ⇒ σ
— E(σ c2 est un estimateur biaisé de σ2 .
n n
n
— σn est un estimateur biaisé de σ2 ⇒ σ
c2 c2 n’est pas un estimateur efficace de σ2 .
n
(Pas la peine de calculer l’information de Fisher et la borne de Cramer-
Rao, la condition sans biais n’étant pas vérifiée.)
Propriétés asymptotiques
c2 ) = n − 1 σ2 −→ σ2 ⇒ σ
— E(σ c2 est un estimateur asymptotiquement sans biais de σ2 .
n n
n
— Vérifier que la variance V(σ c2 vers σ2 .
c2 ) −→ 0 pour assurer la convergence de σ
n n
— Pas la peine d’établir la normalité asymptotique ; c’est un peu compli-
qué pour eux je crois ! Si vous trouvez simple, faites moi signe !
2. Donner les estimations ponctuelles de la moyenne m et de la variance σ2 .
Utiliser les centres des intervalles pour faire les estimations :
1X 30 1 X6
X 30 = ci = n j c j.
n i=1 30 j=1
30 6
2 = 1 ( c i − X 30 )2 =
1 X
n j ( c j − X 30 )2 .
X
σ
d
30 30 i=1 30 j=1
où t(0n.975
−1)
est le quantile d’ordre 0.975 de la loi de Student à n − 1 degrés de liberté et
r
n c2
Sn = σn .
n−1
Exercice 2. La société ”Votre santé” est une entreprise de vente par correspondance de
produits de beauté dits ”naturels”. Elle gère un fichier de 350000 clients et propose chaque
mois une offre promotionnelle accompagnée d’un cadeau. Le taux de réponse à cette offre est
généralement de 15%, la marge moyenne par réponse de 340 fcfa. Mlle Claire, nouvellement
en charge de ce fichier, a retenu comme cadeau un abonnement gratuit de six mois, au
mensuel ”Votre beauté Madame”. Elle pense que cela pourrait augmenter le taux de réponse
à la prochaine offre ; toutefois cette proposition ne serait rentable que si le taux de réponse
dépassait les 17.5% (avec la même marge moyenne évidemment). Elle envisage de tester
la réalité de ces hypothèses sur un échantillon de clientes. La précision voulue pour son
estimation est de l’ordre de 2%.
1. Quelle taille d’échantillon doit-elle choisir afin d’atteindre la précision voulue (avec
un niveau de confiance de 0.95) ?
q
puisque X n (1 − X n ) ≤ 12 . La marge d’erreur est donc :
s
X n (1 − X n ) 1
ME = q 1− α ≤ q 1− α p .
2 n 2 2 n
55
Nous déterminons n tel que
1 ³ q 1− α ´2
2
q 1− α p ≤ 0.02 ⇒ n ≥ = 2401.
2 2 n 0.04
— Méthode plus optimiste (on pense que le taux de réponse sera proche
du taux habituel qui est 15%) : L’intervalle de confiance de niveau 1 − α
est donné par
s s
h X n (1 − X n ) X n (1 − X n ) i
X n − q 1− α , X n + q 1− α
2 n 2 n
avec sans doute X n (1 − X n ) sans doute proche de son ancienne 0.15(1 − 0.15).
Nous déterminons alors n tel que
s s
X n (1 − X n ) 0.15(1 − 0.15)
ME = q 1− α = q 1− α ≤ 0.02
2 n 2 n
⇒ n ≥ 1224.51 ⇒ n = 1225.
2. Les résultats d’un sondage sur un échantillon de 1225 clientes vous sont donnés en
annexe.
où
850 × Y 850 + 375 × Z 375
pb = .
850 + 375
La région critique du test est :
n o
W = T > q 1−α .
— Pour α = 0.05 q0.95 = 1.64 et t = 2.13. On voit que 2.13 > 1.64. Ainsi, au niveau
α = 0.05, nous acceptons H1 , c’est à dire que les anciens sont plus recptifs que les
nouveaux.
Théorème 11.0.1. Posons
n 1 X n1 + n 2 X n2
pb = .
n1 + n2
où t(257)
α est le quantile d’ordre 0.05 de la loi de Student à 257 degrés de liberté.
On peut utiliser la table de la loi normale centrée réduite car la loi de Student
converge vers la loi normale N (0, 1) lorsque le nombre de degrés de liberté n → +∞
(n > 30 en pratique.)
— On a t = −0.97 et t(257)
α = −1.65. Nous avons donc −0.97 > −1.65. Nous en dédui-
sons qu’au niveau 5%, on conerve H0 ,c’est à dire en moyenne, la marge ne diffère
pas significativement de 340.
2. Montrer que θbn peut être obtenu par la methode des moments.
Nous avons
1 1 1
E( X 1 ) = ⇒ Xn = ⇒θ=
θ θ Xn
P 1
X n −−−−−→ .
n→+∞ θ
1
Comme, l’application x 7→ est continue sur R∗+ , alors
x
1 P
−−−−−→ θ .
Xn n→+∞
4. Montrer que θbn est un estimateur biaisé de θ . En déduire un estimateur θen sans biais
de θ .
Montrer que
E(θbn ) 6= θ .
Utiliser la linéarité de l’espérance pour tirer θen .
5. L’estimateur θen est-il efficace ?
Je crois que θen n’est pas efficace malgré qu’il soit sans biais. Mais il faut vérifier que
la variance :
V(θen ) > BCR (θ ),
où BCR (θ ) est la borne de Cramer-Rao.
59
Exercice 4. Pour 30 femmes et 20 hommes, on a observé le salaire mensuel. Les résultats
mesurés en euros sont ci-dessous :
2283 2010 1970 2019 1941 2024 2046 1962 1948 2071
2108 1880 2008 2119 2030 2014 1919 1837 2094 2169
Au seuil de 5%, le salaire moyen des hommes est-il significativement supérieur à celui
des femmes ?
Il s’agit ici de faire un test de comparaison des moyennes dans un échantillon gaussien.
— ( X 1 , . . . , X n1 ) est issu de N (m 1 , σ21 )
— (Y1 , . . . , Yn2 ) est issu de N (m 2 , σ22 ).
— ( X 1 , . . . , X n1 ) et (Y1 , . . . , Yn2 ) sont indépendants.
Problème : tester H0 : m 1 = m 2 contre H1 : m 1 6= m 2 au niveau α.
La variable de décision dépend du fait que les variances σ21 et σ22 soient égales ou non. Il
faut donc commencer par comparer les variances :
où
m = n 1 + n 2 − 2 si σ1 = σ2
et ³ S2
n1 S 2n ´2
2
n1 + n2
m= si σ1 6= σ2 .
S 4n1 S 4n2
+
n21 ( n 1 −1) n22 ( n 2 −1)
60 CHAPITRE 11. EXERCICES AVEC SOLUTIONS
Année Universitaire 2018-2019
Examen (2 heures)
Enseignant : Prof. YODE Armel
Exercice 1. Une enquête concernant l’utilisation des cartes bancaires (CB) a été effectuée
en septembre 2005 auprès des personnes agées de 18 ans. Les résultats (partiels) de cette
enquête sont présentés dans le tableau ci-dessous :
Description Effectif
Personnes interrogées 501
Porteurs de CB 433
ayant effectué au moins un achat par CB 400
ayant effectué au moins un achat par CB sur Internet 144
- La population étudiée est l’ensemble des clients ayant effectué au moins un achat
par CB.
- On dispose d’un échantillon de taille 400 issu de cette population.
- Soit X i la variable aléatoire définie par :
(
1 si le client i a effectué au moins un achat par CB sur intenet
Xi =
0 sinon
X i suit une loi de Bernouilli B (1, p). De plus les variables aléatoires X 1 , . . . , X n
sont indépendantes.
n
Y
L( p, X 1 , . . . , X n ) = f ( X i , p)
i =1
n
p X i (1 − p)1{0,1}
Y
=
i =1
³ p ´P n X i
= (1 − p)n
i =1
1{0,1}n
1− p
³ ´ X n ³ p ´
ln L( p, X 1 , . . . , X n ) = n ln(1 − p) − X i ln
i =1 1− p
61
La log-vraisembleance est
n
X n
X
ln L( X 1 , . . . , X n , p) = X i ln( p) + ( n − X i ) ln(1 − p)
i =1 i =1
Condition du premier ordre
Pn Pn
∂ ln L( X 1 , . . . , X n , p) n
i =1 X i n− i =1 X i 1X
= − = 0 ⇐⇒ p = Xi = X n
∂p p (1 − p) n i=1
Condition du deuxième ordre
∂2 ln L( X 1 , . . . , X n , p) − nX n n − nX n
(X n) = − < 0.
∂ p2 2
Xn (1 − X n )2
pbn = X n .
(a) E ( pb) = p
(b) L’information de Fisher est :
³ ∂2 ln L( X , . . . , X , p) ´ n
1 n
I n = −E = .
∂ p2 p(1 − p)
p(1 − p)
var ( pbn ) = = BCR ( p).
n
q21− α X n (1 − X n )
s
¯ ¯ X n (1 − X n ) 2
¯ p − X n ¯ ≤ q 1− α2 ≤ 0.03 ⇒ n ≥
¯ ¯
n (0.03)2
(1.96)2 ∗ 0.36(1 − 0.36)
⇒n≥ = 983.44 ⇒ n = 984.
(0.03)2
6. En janvier 2005, une enquête similaire évaluait à 32% la part de personnes ayant
effectué au moins un achat par CB sur Internet parmi celles ayant effectué au moins
un achat par CB.
(a) Les données de l’enquête de septembre 2005 permettent-elles de conclure à une
augmentation significative de la part de personnes utilisant leur CB sur Internet,
en prenant un risque de première espèce de 1% ?
Il s’agit ici de tester H0 : p ≤ 0.32 contre H1 : p > 0.32 au seuil α = 0.01. La région
critique est donc
n p400( p
bn − 0.32) o
W= p > q 0.99
0.32 ∗ 0.68
où q0.99 = 2.33 est le quantile d’ordre 0.99 de la loi normale centrée réduite.
Comme
p
400( pbn − 0.32)
p = 1.714 < 2.33, alors au seuil de 1%, les données de septembre
0.32 ∗ 0.68
2005 ne permettent pas de conclure àune augmentation significative de la part des
personnes utilisant leur CB sur internet.
(b) Quelle est la puissance du test lorsque p = 34% ?
La puissance du test au point p = 0.34 est donée par :
³ p400( p
bn − 0.32) ´
γ(3) = P34 p > 2.33
0.32 ∗ 0.68
s
³ 0.32 ∗ 0.68 ´
=P p b400 > 2.33 + 0.32
400
p
³ 0.34 ∗ 0.66 ´ 400( pbn − 0.34)
Sous l’hypothèse H1 , pbn ∼ N 0.34, ⇔ p ∼ N (0, 1). Ainsi,
400 0.34 ∗ 0.66
nous obtenons :
³ p400( p
s s
bn − 0.34) 400 h 0.32 ∗ 0.68 i´
γ(3) = P0.34 p > 2.33 + 0.32 − 0.34
0.34 ∗ 0.66 0.34 ∗ 0.66 400
³1´
Exercice 2. On considère un échantillon ( X 1 , . . . , X n ) issu de la loi exponentielle E avec
θ
θ > 0 inconnu.
Exercice 3. Une étude a été réalisée sur le cancer de la gorge. Pour cela, une population
de 1000 personnes a été interrogée. les résultats obtenus sont donnés dans le tableau de
contingences suivant :
Exercice 4. Sur deux groupes de même taille 9 malades, on expérimente les effets d’un
nouveau médicament. On observe les résultats suivants :
Groupe 1 15 18 17 20 21 18 17 15 19
Groupe 2 12 16 17 18 17 15 18 14 16
1. Comparer au niveau 5% les variances des deux populations
2. Comparer au niveau 5% les moyennes des deux populations