Vous êtes sur la page 1sur 11

UNIVERSITÉ PARIS OUEST NANTERRE LA DÉFENSE

U.F.R. SEGMI Année universitaire 2019 – 2020


L2 Économie Cours de B. Desgraupes

Méthodes Statistiques

Séance 02: Échantillonnage

Table des matières


1 Modèles statistiques 1

2 Caractéristiques d’un échantillon 2


2.1 Estimateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2.2 La moyenne empirique . . . . . . . . . . . . . . . . . . . . . . . . 4
2.3 La fréquence empirique . . . . . . . . . . . . . . . . . . . . . . . 5
2.4 La variance empirique . . . . . . . . . . . . . . . . . . . . . . . . 5

3 Échantillons issus d’une variable normale 6

4 Comportement asymptotique 7

1 Modèles statistiques
On considère dans cette séance un échantillon de taille n extrait d’une popula-
tion de taille N et on s’intéresse à un caractère X associé aux éléments de la
population (les “individus statistiques”).
L’échantillon d’individus résulte d’un tirage avec remise dans la population.
À cet échantillon correspond un échantillon de valeurs prises par la caractère
X.
Le caractère X est considéré comme une variable aléatoire et l’échantillon de
valeurs est consitué de n réalisations de cette variable. C’est sur cet échantillon
que se font les calculs.
On représente cette situation au moyen d’un modèle statistique qui comporte
en particulier une famille de lois de probabilité parmi lesquelles se trouve la loi
suivie par la variable X.
Ces lois de probabilité dépendent en général d’un ou plusieurs paramètres
notés θ. Dans ce cas, on dit qu’on a un modèle statistique paramétrique.
Par exemple :
• pour une loi normale, les paramètres sont la moyenne m et l’écart-type σ
;
• pour une loi de Bernoulli ou une loi binomiale, c’est la probablilité p.

1
Un des problèmes les plus courants en statistique consiste à trouver la valeur
du ou des paramètres pour la population. Mais comme on ne peut pas en
général avoir l’information nécessaire, on doit ce contenter des valeurs fournies
par l’échantillon.
À partir de l’échantillon de valeurs, on essaie de résoudre divers types de
problèmes :
1. les problèmes de test : choix entre deux éventualités dont une seule est
vraie.
2. les problèmes d’estimation ponctuelle : choisir une valeur du paramètre θ.
À partir des données de l’échantillon, il faut définir une fonction (appelée
aussi une statistique) dont la valeur estime θ.
3. les problèmes d’estimation ensembliste : déterminer un sous-ensemble de
l’ensemble des paramètres représentant un ensemble d’éventualités. Cela
conduit à la détermination d’intervalles de confiance.
L’expérience aléatoire consiste en n expériences élémentaires identiques et
indépendantes.
On considère que chaque Xi est une variable aléatoire et on suppose qu’elles
sont indépendantes entre elles. D’autre part, elles sont identiquement distribuées
(puisque distribuées comme X elle-même).
En abrégé, on dit que les Xi sont i.i.d. qui est l’abréviation de indépendantes
et identiquement distribuées.
On a donc :

E(Xi ) = m et Var(Xi ) = σ 2 ∀i = 1, . . . , n

2 Caractéristiques d’un échantillon


2.1 Estimateurs
On notera (X1 , . . . , Xn ) l’échantillon de valeurs. Les statistiques calculées à
partir de cet échantillon dépendent évidemment de l’échantillon qui a été tiré.
On dit qu’il s’agit de quantités empiriques puisqu’elles résultent de l’expérience
(tirage, observation, mesure, etc.).
On va voir en particulier les quantités empiriques les plus couramment util-
isées :
1. la moyenne empirique ;
2. la variance empirique ;
3. la fréquence empirique.
Si on avait tiré un autre échantillon, la statistique empirique aurait certaine-
ment une autre valeur. Il s’agit donc d’une valeur aléatoire et on s’intéressera à
son espérance et à sa variance.

2
• Exemple
Comment estimer la taille moyenne d’un étudiant de l’université Paris-Ouest
?
On peut procéder en prenant 10 étudiants au hasard et en mesurant la taille
moyenne parmi ces dix étudiants. Notre estimateur serait ici la moyenne de
l’échantillon.
Deux questions viennent à l’esprit :
1. la taille de l’échantillon est-elle importante ?
Intuitivement, on sent bien que plus l’échantillon sera grand et meilleure
sera l’estimation.
2. le nombre d’échantillons tirés est-il important ?
Intuitivement encore, on se dit que si on arrive à accumuler beaucoup
de valeurs de la statistique qui sert d’estimateur (en tirant beaucoup
d’échantillons), à la fin, en moyenne, on aura une “bonne” estimation de
la vraie valeur du paramètre qui nous intéresse.
On verra plus loin, à travers les propriétés asymptotiques, dans quelle mesure
la théorie vient confirmer ces intuitions.

Notion de biais
On peut construire beaucoup d’estimateurs différents pour estimer un paramètre
donné. Certains seront considérés comme meilleurs que d’autres selon différents
critères.
Une bonne manière de quantifier cette propriété est de calculer l’espérance
de l’estimateur (c’est-à-dire sa valeur moyenne compte-tenu de sa distribution
probabiliste) et de voir si elle fournit la vraie valeur.
Si on appelle T l’estimateur et θ le paramètre, on se demande si :
?
E(T ) = θ

Ce n’est pas nécessairement le cas.


Définition 2.1. On dit que l’estimateur T est sans biais lorsque E(T ) = θ.

La quantité b(θ) = E(T ) − θ s’appelle le biais de l’estimateur. Si b(θ) 6= 0,


on dit que l’estimateur est biaisé.

Un estimateur est donc sans biais lorsque son espérance est égale à ce qu’il
estime.

3
2.2 La moyenne empirique
Définition 2.2. La moyenne empirique de l’échantillon est
n
1X
X̄n = Xi
n i=1

Cette moyenne empirique est utilisée comme estimateur de la moyenne véri-


table de la population.
• Espérance de X̄n

n
!
 1X
E X̄n = E Xi
n i=1
n
1X 
= E Xi
n i=1
n
1X
= m
n i=1
1
= × nm
n
=m

L’espérance de la moyenne empirique est la moyenne véritable dans la pop-


ulation. On peut aussi dire que X̄n est un estimateur sans biais de m.
• Variance de X̄n
Les variables étant indépendantes, on sait que la variance de la somme est
égale à la somme des variances. On écrit :
n
!
 1X
Var X̄n = Var Xi
n i=1
n
1 X 
= 2
Var Xi
n i=1
n
1 X 2
= σ
n2 i=1
1
= × n σ2
n2
σ2
=
n
Autrement dit, plus la taille de l’échantillon est grande plus la variance de
l’estimateur X̄n est faible.

4
Si on prend la racine carrée, on voit que l’écart-type de la moyenne empirique
σ
est égal à √ : pour diviser l’écart-type par 2, il faut multiplier la taille de
n
l’échantillon par 4.

2.3 La fréquence empirique


Dans le cas particulier d’une expérience de Bernoulli, c’est-à-dire d’une variable
aléatoire X qui peut prendre seulement les valeurs 0 ou 1, la moyenne empirique
est appelée fréquence empirique. On la note Fn plutôt que X̄n .
Puisque les valeurs de l’échantillon prennent la valeur 0 ou 1, leur somme
est le nombre de fois où la valeur est 1. En divisant par n, on obtient donc la
proportion des variables qui prennent la valeur 1.
Supposons que X ∼ B(p). On prend la fréquence empirique comme estima-
teur du paramètre p.
Rappel
L’espérance d’une loi de Bernoulli B(p) est égale à p et la variance à p(1 − p).
On déduit donc des calculs sur la moyenne empirique que :
 
 E Fn =p
Var Fn
 p(1 − p)
=
n
On peut donc dire que Fn est un estimateur sans biais de la proportion p
dans la population.

2.4 La variance empirique


Définition 2.3. On appelle variance empirique d’une échantillon (X1 , . . . , Xn )
la quantité
n
1X
Sn2 = (Xi − X̄)2
n i=1

C’est la somme des carrés des écarts à la moyenne empirique (qu’on note ici
simplement X̄ au lieu de X̄n ).
La variance est une quantité au carré. Cela signifie que si les valeurs Xi
sont, par exemple, mesurées en mètres, alors la variance est en mètres carrés.
La racine Sn s’appelle l’écart-type empirique. Il est mesuré dans la même
unité que les Xi .
Lorsque la variance σ 2 de la population est inconnue, on peut utiliser Sn2
comme estimateur mais on va voir que c’est un estimateur biaisé.
Il existe une autre formule (dite formule développée) pour calculer la variance
d’un échantillon :
n
1X 2
Sn2 = X − X̄ 2
n i=1 i

5
On interprète cette formule en disant que
la variance est égale à la moyenne des carrés moins le carré de la moyenne.
L’espérance de la variance empirique n’est pas égale à la variance véritable
dans la population.
 n−1 2
E Sn2 = σ
n
n−1
C’est une valeur un peu plus petite à cause du terme . C’est donc un
n
estimateur biaisé.
Pour cette raison, on définit la variance empirique modifiée comme ceci :
n
n 1 X
s2n = Sn2 = (Xi − X̄)2
n−1 n − 1 i=1

La variance empirique modifiée est un estimateur non biaisé de la variance de


la population :
E s2n = σ 2


3 Échantillons issus d’une variable normale


Dans certains cas, on dispose d’informations exactes concernant les estimateurs :
c’est en particulier le cas, si l’échantillon est extrait d’une population gaussienne.
Cela se produit lorsque toutes les variables Xi suivent une loi normale
N (m, σ). On dit que ce sont des variables gaussiennes.
On obtient alors des propriétés précises sur la distribution des moyennes et
des variances empiriques et des propriétés intéressantes concernant l’indépendance.
• Loi de X̄n
On sait que toute combinaison linéaire de lois normales est normale. On en
déduit que X̄n suit une loi normale lorsque toutes les Xi sont gaussiennes. On
a calculé précédemment l’espérance et la variance de X̄n . On a donc :
 
σ
X̄n ∼ N m, √
n

On peut aussi écrire ce résultat sous la forme :



n(X̄n − m)
∼ N (0, 1)
σ

• Loi de s2n
La loi de la variance empirique est aussi connue dans le cas d’un échantillon
issu d’une variable normale. On a le résultat suivant :

6
Théorème 3.1 (de Fisher). Si (X1 , . . . , Xn ) est un √ échantillon de variables
n(X̄n − m) s2
gaussiennes i.i.d. de loi N (m, σ), alors les variables et (n − 1) n2
σ σ
suivent indépendamment une loi N (0, 1) et une loi du χ2 à n − 1 degrés de
liberté.

4 Comportement asymptotique
L’étude du comportement asymptotique est celui des propriétés probabilistes des
estimateurs lorsque la taille des échantillons n augmente et tend vers l’infini.
On cherche à savoir s’il existe une limite et comment sont distribuées les
valeurs empiriques calculées.
Il y a deux résultats importants qui précisent le comportement asymptotique
de la moyenne empirique lorsque n → +∞ :
• la loi des grands nombres justifie l’intuition selon laquelle plus l’échantillon
est grand, plus la moyenne empirique se rapproche de l’espérance ;
• le théorème central limite indique comment sont réparties les valeurs
obtenues à partir de différents échantillons.

• Loi des grands nombres

Théorème 4.1. Si {Xi }i≥1 est une suite de variables aléatoires réelles in-
dépendantes et identiquement distribuées, alors la moyenne empirique X̄n tend
presque sûrement vers la moyenne m lorsque n → +∞.
Ce théorème stipule donc que plus l’échantillon est grand et plus (il est prob-
able que) la moyenne empirique se rapproche de la moyenne de la population.
• Remarques :

• La moyenne m est l’espérance des variables aléatoires Xi : elles ont toutes


la même puisqu’elles sont identiquement distribuées.
• La notion de “convergence presque sûre” évoquée par ce théorème sera
expliquée dans le Cours de Probabilités. Elle signifie que ce résultat est
probabiliste : il veut dire qu’il y a une probabilité 100% que la limite de
X̄n soit m lorsque n → +∞.

• Exemple
On cherche à connaître la répartition de la taille moyenne en centimètres des
étudiants de l’université Paris-Ouest. On a donc sélectionné 200 groupes de 10
étudiants et pour chacun d’eux on a calculé la moyenne des tailles.
Voici l’histogramme des 200 moyennes obtenues (centrées et réduites comme
dans le théorème) :

7
n=10

0.4
0.3
0.2
0.1
0.0

−3 −2 −1 0 1 2 3

Sur la figure suivante, on a ajouté en surimpression la densité de la loi


normale N (0, 1) :

n=10
0.4
0.3
0.2
0.1
0.0

−3 −2 −1 0 1 2 3

On a ensuite recommencé l’expérience en prenant des échantillons de tailles


de plus en plus grandes : n = 100, puis n = 200, puis n = 500.
On obtient les histogrammes suivants et on observe l’adéquation de plus
en plus grande entre la densité empirique représentée par l’histogramme et la

8
densité réelle de la loi N (0, 1).

n=100

0.4
0.3
0.2
0.1
0.0

−2 0 2 4

n=200
0.4
0.3
0.2
0.1
0.0

−3 −2 −1 0 1 2 3

9
n=500

0.4
0.3
0.2
0.1
0.0

−3 −2 −1 0 1 2 3

• Théorème central limite

Théorème 4.2. Si {Xi }i≥1 est une suite de variables aléatoires réelles indépen-
2
dantes et identiquement distribuées avec E(X √ i ) = m et Var(Xi ) = σ pour tout
n X̄n − m
i, alors la loi de probabilité de la quantité se rapproche de la loi
σ
normale N (0, 1) lorsque n → +∞.
√ 
n X̄n − m
Ce théorème renseigne donc sur la distribution de . Une autre
σ
manière d’utiliser cet énoncé consiste à dire que “si n est assez grand” alors la
σ
moyenne empirique suit “approximativement” une loi normale N (m, √ ).
n
• Remarques :

  σ
• On a vu précédemment que E Xn = m et σ Xn = √ . L’expression
√   n
n X̄n − m Xn − E Xn
représente donc  , autrement dit c’est la vari-
σ σ Xn
able aléatoire X̄n qui est centrée et réduite.

• La notion de “convergence en loi ” évoquée par ce théorème sera expliquée


dans le Cours de
√ Probabilités.
 Elle signifie que la fonction de répartition
n X̄n − m
de la variable tend (en tant que fonction) vers la fonction
σ
de répartition de la loi normale N (0, 1).

10
• Le théorème central limite renseigne aussi sur√la vitesse de convergence :
on dit qu’on a une vitesse de convergence en n.

Le théorème central limite est souvent énoncé de la manière suivante :


√ 
n X̄n − m L
−→ N (0, 1) lorsque n → +∞
σ

L
La notation “ −→” signifie “convergence en loi”.

Le point le plus remarquable dans ce théorème est qu’il est valable quelle
que soit la loi de probabilité suivie par les variables Xi , la seule condition étant
qu’elles aient la même loi avec une espérance et une variance finies.

Conclusion
Les deux théorèmes précédents (LGN et TCL) décrivent le comportement
asymtotique de la moyenne empirique X̄n en montrant que celle-ci tend presque
sûrement vers m et en précisant la manière dont elle est dispersée autour de m.

11

Vous aimerez peut-être aussi