Académique Documents
Professionnel Documents
Culture Documents
en santé
1 Estimation 4
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Population, échantillon . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Echantillonnage aléatoire . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Echantillonnage aléatoire simple . . . . . . . . . . . . . . 6
1.3.2 Echantillonnage systématique . . . . . . . . . . . . . . . . 6
1.3.3 Echantillonnage stratifié . . . . . . . . . . . . . . . . . . . 7
1.3.4 Echantillonnage par grappes . . . . . . . . . . . . . . . . . 8
1.4 Quelques lois de probabilité classiques en statistique . . . . . . . 9
1.4.1 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.2 Loi de Khi-deux . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.3 Loi de Student . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Distribution d’échantillonnage . . . . . . . . . . . . . . . . . . . . 11
1.6 Estimateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6.2 Propriétés non asymptotiques . . . . . . . . . . . . . . . . 12
1.6.3 Propriétés asymptotiques. . . . . . . . . . . . . . . . . . . 13
1.6.4 Intervalles de confiance . . . . . . . . . . . . . . . . . . . . 13
1.7 Estimation d’une moyenne . . . . . . . . . . . . . . . . . . . . . . 13
1.7.1 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . 13
1.7.2 Intervalles de confiance . . . . . . . . . . . . . . . . . . . . 15
1.8 Estimation d’une variance . . . . . . . . . . . . . . . . . . . . . . . 16
1.8.1 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . 16
1.8.2 Intervalles de confiance . . . . . . . . . . . . . . . . . . . . 17
1.9 Estimation d’une proportion . . . . . . . . . . . . . . . . . . . . . 17
1.9.1 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . 17
1.9.2 Intervalle de confiance . . . . . . . . . . . . . . . . . . . . 18
1.10 Données manquantes . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.10.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.10.2 Type de données manquantes . . . . . . . . . . . . . . . . 19
1.10.3 Données manquantes et imputation . . . . . . . . . . . . 20
1.10.3.1 Imputation par la moyenne . . . . . . . . . . . . 20
2
TABLE DES MATIÈRES 3
1.10.3.2 Imputation par tirage conditionnel . . . . . . . 20
1.10.3.3 Iputation par analyse factorielle . . . . . . . . . 20
1 Estimation
1.1 Introduction
Objectif : On dispose d’un ensemble de données. Il ságit ici de déduire les
propriétés de la distribution de probabilité ayant généré ces données.
Exemple 1.1.2. Supposons que l’on s’intéresse aux personnes vivant dans une
zone urbaine et que nous souhaitons estimer la prévalence du virus de l’im-
munodéficience humaine (VIH) dans cette zone. La prévalence est le nombre
de cas enregistré dans une population. Nous supposons que le nombre de cas
parmi n personnes échantillonnées est distribué de manière binomiale, avec
un certain paramètre p. Comment le paramètre p est-il estimé ? Quelle est la
précision de cette estimation ? Ici p représente la proportion des personnes
infestées dans la population.
4
1.2. POPULATION, ÉCHANTILLON 5
Au lieu de cela, nous décidons de sélectionner un échantillon aléatoire de n
nourrissons qui sont représentatifs de ce grand groupe et d’utiliser les poids de
naissance x1 , . . . , xn de cet échantillon pour nous aider à estimer µ et σ2 .
Figure 1.1 –
[1] 1 5 2 4 3
[1] 4 3 3 3 4
5 11 17 23 29
Figure 1.2 –
2
1 − ( x− m)
f ( x) = p e 2σ 2 .
2πσ
> curve(dnorm,-5,5)
10 CHAPITRE 1. ESTIMATION
0.4
0.3
dnorm(x)
0.2
0.1
0.0
−4 −2 0 2 4
X −µ
Proposition 1.4.1. Si X suit une loi normale N (µ, σ2 ) avec σ2 > 0 alors σ
suit la loi normale centrée-réduite N (0, 1)
1.6 Estimateurs
1.6.1 Définition
On considère un échantillon aléatoire ( X 1 , . . . , X n ) issu d’une loi de proba-
bilité Pθ avec θ ∈ Θ ⊆ R un paramètre inconnu.
Exemple 1.6.1. — Si Pθ = N (µ, σ2 ) alors θ = (µ, σ2 )
— Si Pθ = B (1, p) alors θ = p.
Définition 1.6.1. On appelle estimateur de θ toute statistique θbn à valeurs dans
un ensemble acceptable pour θ .
12 CHAPITRE 1. ESTIMATION
— Un estimateur d’une proportion est une statistique à à valeurs dans
[0, 1].
— Un estimateur d’une variance est une statistique à valeurs dans R+ .
Le biais est la moyenne des erreurs systématiques. Il est soit négatif, positif
ou nul.
Définition 1.6.4. Le risque quadratique d’un estimateur θbn de θ est défini par
R (θbn , θ ) = E(θbn − θ )2 .
Le risque quadratique est la moyenne des pertes encourues lorsque l’on estime
θ par θbn .
Proposition 1.6.1.
Convergence ou consistance. L’une des propriétés que l’on peut attendre d’un
estimateur θbn est qu’il soit proche de θ lorsque la taille n de l’échantillon
augmente. Cette propriété est appelée consistance ou convergence. La pro-
priété
¡ de¢ convergence est obtenue pour l’estimateur θn lorsque E(θn ) −→ θ et
b b
Var θn → 0, lorsque n tend vers l’infini.
b
P( IC ∋ θ ) = 1 − α.
σ2
Var( X n ) = .
n
Le résultat ci-dessus est très puissant car il n’impose aucune restriction sur la
distribution de X dans la population.
1.7. ESTIMATION D’UNE MOYENNE 15
1.7.2 Intervalles de confiance
Echantillon ( X 1 , . . . , X n ) issu d’une loi normale avec variance connue
où z1− α2 est le quantile d’ordre 1 − α2 de la loi normale centrée réduite N (0, 1).
Taille d’échantillon. Fixons ε > 0. Nous cherchons à choisir une taille d’échan-
tillon telle que ME ≤ ε. Ainsi, on cherche la taille n d’échantillon tel que
σ
|µ − X̄ n | ≤ z1− α p ≤ ε
2 n
c’est à dire
σ2 z12− α
2
n≥ .
ε2
Taille d’échantillon. Fixons ε > 0. Nous cherchons à choisir une taille d’échan-
tillon telle que ME ≤ ε. Ainsi, on cherche la taille n d’échantillon tel que
S
|µ − X̄ n | ≤ t 1− α p ≤ ε
2 n
c’est à dire
S 2 t21− α
2
n≥ .
ε2
où z1− α2 est le quantile d’ordre 1 − α2 de N (0, 1). Les approximations ci-dessus
sont valables si la taille de l’échantillon est suffisamment grande (n > 30)
où V 2 est la variance empirique et χαn/2 , χ1n−α/2 sont les quantiles d’ordre α/2
et 1 − α/2 de la loi de Khi-deux à n degrés de liberté.
où S 2 est la variance empirique modifiée et χαn−/21 , χ1n−−α1/2 sont les quantiles
d’ordre α/2 et 1 − α/2 de la loi de Khi-deux à n − 1 degrés de liberté.
2.1 Présentation
2.1.1 Définitions
On s’intéresse à l’évolution au cours du temps d’un phénomène, dans le but
de décrire, expliquer puis prévoir ce phénomène. On dispose ainsi d’observa-
tions à des dates différentes, c’est à dire d’une suite de valeurs numériques indi-
cées par le temps appelée série chronologique (chronique ou série temporelle).
Les séries chronologiques sont présentes dans de nombreux domaines d’appli-
cation (démographie,économie, écologie, finance, médecine, informatique. . . )
21
22 CHAPITRE 2. ANALYSE D’UNE SÉRIE CHRONOLOGIQUE
Soit X t l’observation d’une grandeur X à la date t. Si les observations sont
faites sur n années, et chaque année contenant p mois, on notera X i j l’obser-
vation du mois j de l’année i . Nous avons
Xi j = Xt avec t = ( i − 1) p + j.
t 1 2 ... T
Xt X1 X2 ... XT
PP
PP Mois
P mois 1 mois 2 ... mois j ... mois p
Années PP PP
année 1 X 11 X 12 ... X1 j ... X 1p
année 2 X 21 X 22 ... Xij ... X 2p
..
.
année i X i1 X i2 ... Xij ... Xip
..
.
année n X n1 X n2 ... Xnj ... X np
t 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
Xt 2 8 6 12,5 5 10.5 9 15 7 12 10,5 17 8.5 14.5 12 19
PP
PP Mois
P Trimestre 1 Trimestre 2 Trimestre 3 Trimestre 4
Années PP
PP
1976 2 8 6 12.5
1977 5 10.5 9 15
1978 7 12 10.5 17
1979 8.5 14.5 12 19
X t = T t + S t + εt .
Principe de conservation des aires :
p
X
S j = 0.
j =1
X t = T t × (1 + S t ) × (1 + ε t ).
Principe de conservation des aires :
p
X
S j = 0.
j =1
26 CHAPITRE 2. ANALYSE D’UNE SÉRIE CHRONOLOGIQUE
X t = T t × S t + εt .
Principe de conservation des aires :
p
X
S j = p.
j =1
X t = T t × S t × εt .
Principe de conservation des aires :
p
X
S j = p.
j =1
X t = T t × (1 + S t ) × (1 + ε t ).
PP
PP Mois
P Trimestre 1 Trimestre 2 Trimestre 3 Trimestre 4
Années PP
PP
1976 2 8 6 12.5
1977 5 10.5 9 15
1978 7 12 10.5 17
1979 8.5 14.5 12 19
Moyenne x 5.625 11.25 9.375 15.875
Ecart-type σ 2.43349 2.358495 2.21853 2.40767
28 CHAPITRE 2. ANALYSE D’UNE SÉRIE CHRONOLOGIQUE
2.2 Estimation de la tendance
2.2.1 Moyennes mobiles
Le principe de cette technique est de construire une nouvelle série en cal-
culant des moyennes arithmétiques successives de longueur p fixée à partir
des données originales. Les moyennes mobiles de longueur égale à la période p
permettent d’éliminer ou d’amortir les composantes saisonnière et résiduelle.
On procède ainsi au lissage de la courbe pour mettre en évidence la tendance
générale.
• On appelle moyenne mobile centrée de longueur impaire p = 2 k + 1 à
l’instant t la valeur moyenne des observations
X t−k + X t−k+1 + . . . + X t−1 + X t + X t+1 + . . . + X t+k
Mt =
p
Nous obtenons
cov( t, X )
a= b = X̄ − a t̄
var ( t)
où
1 XT 1 XT
cov( t, X ) = tX t − t̄ X̄ var ( t) = t2 − t̄2
T t=1 T t=1
1 XT 1 XT
X̄ = Xt t̄ = t.
T t=1 T t=1
Remarque 2.2.3. La droite des moindres carrés ajuste au mieux au sens des
moindres carrés (c’est celle qui passe le plus près de l’ensemble des points),
mais elle ne modélise pas toujours bien la tendance.
′
Sj
5. Estimer S j par Se j = ′ − 1.
M
2.4 Désaisonnalisation
Désaisonnaliser une série chronologique, c’est éliminer la composante sai-
sonnière sans modifier les autres composantes. On appelle observation corrigée
des variations saisonnières ou observation désaisonnalisés, la valeur X i∗j cdob-
tenue en éliminant l’effet saisonnier sur la valeur X i j . On la notera X t∗ . La
désaisonnalisation permet de comparer des observations dont les variations
saisonnières sont différentes.
• Modèle additif : X i∗j = X i j − Se j
2.5. PRÉVISIONS 31
Xij
• Modèle multiplicatif : X i∗j =
1 + Se j
2.5 Prévisions
• Modèle additif : la prévision est :
h i
p
X i j = a ( i − 1) p + j + b + Se j .
Nous avions montré par les méthodes précédentes que le modèle est additif.
X i j − Mi j
2.7. EXEMPLE : MODÈLE ADDITIF 33
′ 1³ ´
S1 = − 3.875 − 3.9375 − 4.3125 = −4.042
3
′ 1³ ´
S 2 = 0.9375 + 0.625 + 1.25 = 0.935
3
′ 1³ ´
S 3 = − 1.5 − 1.125 − 1.3125 = −1.3125
3
′ 1³ ´
S 4 = 4.3125 + 4.4375 + 4.6875 = 4.479
3
Comme
′ ′ ′ ′
S 1 + S 2 + S 3 + S 4 = 0.0595 ̸= 0,
′ ′ ′ ′
Les coefficients Se1 , Se2 , Se3 et Se4 respectent leprincipe de conservation
des aires.
′
Interprétation des coefficients saisonniers : Se1 = −4.057335 signifie
qu’en moyenne on a une baisse de 4.042 millions au trimestre 1 par
′
rapport à l’ensemble de l’année ; S4 = 4.479 signifie qu’en moyenne on a
une hausse de 4.463625 millions au trimestre 4 par rapport à l’ensemble
de l’année.
4. Séries désaisonnalisée :
2.7. EXEMPLE : MODÈLE ADDITIF 35
′
X i∗j = X i j − Se j .
PP
PP Mois
P Trimestre 1 Trimestre 2 Trimestre 3 Trimestre 4
Années PP
PP
2000 5,5 6,3 16,9 32,4
2001 23,1 17,5 37,8 62,7
2002 40,6 28,7 58,7 93,3
2003 58,5 39,9 79,5 123,1
• Moyenne des S ′j
$seasonal
Qtr1 Qtr2 Qtr3 Qtr4
2000 0.9082182 0.5581291 1.0007035 1.5329492
2001 0.9082182 0.5581291 1.0007035 1.5329492
2002 0.9082182 0.5581291 1.0007035 1.5329492
2003 0.9082182 0.5581291 1.0007035 1.5329492
$trend
Qtr1 Qtr2 Qtr3 Qtr4
2000 NA NA 17.4750 21.0750
2001 25.0875 31.4875 37.4625 41.0500
2002 45.0625 51.5000 57.5625 61.2000
2003 65.2000 71.5250 NA NA
$random
Qtr1 Qtr2 Qtr3 Qtr4
2000 NA NA 0.9664160 1.0028816
2001 1.0138282 0.9957841 1.0082997 0.9963837
2002 0.9920202 0.9984815 1.0190443 0.9944947
2003 0.9879115 0.9994944 NA NA
$figure
[1] 0.9082182 0.5581291 1.0007035 1.5329492
$type
[1] "multiplicative"
attr(,"class")
[1] "decomposed.ts"
> C$figure-1
> plot(C)
38 CHAPITRE 2. ANALYSE D’UNE SÉRIE CHRONOLOGIQUE
100
observed
60
20
60
trend
40
20
1.4
seasonal
1.0
0.6
1.01
random
0.99
0.97
Time
X̂ T = X̂ T −1 + (1 − α)( X T − X̂ T −1 ) (2.8.1)
La solution est
TX
b = 1−α
−1
C α j X t− j .
1 − α j=0
T
Choix de la constante α :
TX
−1 h tX
−1 i2
j
α
b = arg min X t+1 − (1 − α) α X t− j .
α
t=1 j =0
40 CHAPITRE 2. ANALYSE D’UNE SÉRIE CHRONOLOGIQUE
2.8.2 Lissage exponentiel double
Une façon de généraliser le lissage exponentiel simple est de supposer que
la série s’approche localement par une fonction affine du temps (au lieu d’une
fonction constante). On suppose alors que X T +h ≈ A + Bh pour h petit. Pour
une constante de lissage α, il s’agit alors de résoudre le problème :
TX
−1
min α j ( X T − j − ( A j + B))2 .
A,B j =0
B
b(T ) = 2S 1 (T ) − S 2 (T )
b(T ) = 1 − α (S 1 (T ) − S 2 (T ))
A
α
avec
TX
−1
S 1 (T ) = (1 − α) α j X T− j
j =0
TX
−1
S 2 (T ) = (1 − α) α j S 1 (T − j )
j =0
X
b T ( h) = A
b (T ) h + B
b(T ).
X
b T ( h) = A
b (T ) h + B
b(T ).
2.8. LISSAGE EXPONENTIEL 41
Les formules de mise à jour sont :
avec 0 < α < 1 et 0 < γ < 1. Les valeurs initiales  (2) = X 2 et B̂(2) = X 2 −
X 1 . L’introduction de deux constantes rend la méthode plus souple que le
lissage exponentiel double. Les deux paramètres α et γ peuvent être choisis
en minimisant la somme des carrés des erreurs de prévision, comme pour le
lissage exponentiel simple ou double. L’initialisation des formules récursives de
mise à jour est identique à celle pour le lissage exponentiel double.
avec 0 < α < 1, 0 < γ < 1 et 0 < δ < 1. Les prévisions à l’horizon h sont données
par :
TX
−1 h i2
Le choix des trois paramètres α, γ, δ se fait en général en minimisant b t ( h) .
X t+1 − X
t=1