Académique Documents
Professionnel Documents
Culture Documents
A) Théorèmes limites
La loi des grands nombres est un théorème mathématique fondamental des probabilités
et statistiques.
Cette loi exprime le fait que les caractéristiques d’un échantillon aléato ire se rapprochent
des caractéristiques statistiques de la population (ensemble d’individus ou d’éléments)
lorsque la taille de l’échantillon augmente à l’infini. En d’autres termes, cela garantit
que, lorsque le nombre de tirages effectués selon une loi de probabilité (comme les
tirages successifs d’une pièce sur le côté pile ou face) tend vers l’infini, la moyenne
empirique (moyenne calculée à partir des observations) converge vers la moyenne réelle
d’une variable aléatoire suivant cette loi. Cela sous des hypothèses très faibles.
Soient X1, X2, ... , Xn , n variables aléatoires de même loi qu’une variable aléatoire X .
Supposons que ces v.a. ont une espérance, notée m et une variance, notée σ2
La moyenne empirique des v.a X1, X2, ... , Xn est une v.a:
X 1 X 2 ... X n
Xn
n
On sait que la moyenne empirique a pour espérance m et pour variance σ 2/n.
Ainsi, plus n est grand, moins cette v.a. varie. A la limite, quand n tend vers l’infini,
elle se concentre sur son espérance, m. C’est la loi des grands nombres.
1
Théorème : (Loi des grands nombres)
Quand n est grand, Xn est proche de m avec une forte probabilité. Autrement dit,
0, lim P X n m 0
n
On dit que Xn converge en probabilité vers m.
Exemple 1
On considère un dé truqué telle que P(X = 6) = p > 1/6, et toutes les autres
probabilités sont égales : P(X = 1) = ... = P(X = 5) = (1 − p)/5. Si l’on fait n lancers Xi
identiquement et indépendamment distribuées (IID) et que l’on observe la moyenne.
X 1 X 2 ... X n n X
1 n
Xn i Xi
n i 1 n n i 1
Exemple 2
1 n
X i → E(X)
n i 1
1 n 521
Comme X i ~ B(p) , E(X) = p ainsi: X n
n i 1
Xi
1000
0.521
1
p= i=1, ....,521 ( X n 1 / n( np )
1000
X m b 1 x2 / 2
P a n b e dx
/ n
a
2
Xn m
On dit que converge en loi vers la loi normale N (0, 1).
/ n
X m
P a n b P( a Z b ) où o`u Z est une variable gaussienne centrée
/ n
réduite, Z ∼ N (0, 1).
3
Exemple:
Soit X une variable aléatoire continue, dont la densité est donnée par la fonction
c
si x 0
f ( x ) ( x 1 ) 4
0 sin on
x 1 1
( x 1) 4
( x 1 ) ( x 1 )4
3
x2 1 2 1
( x 1) 4
( x 1) 2
( x 1) 3
( x 1 )4
3) Soit X1, X2, . . . , Xn des variables aléatoires indépendantes de même loi que X, et
X 1 X 2 ... X n
Mn
n
1 1
Calculer la limite de P Mn
2
21
n
B) Échantillonnage
Ain de déduire des informations sur diverses caractéristiques d'une population, on fait
recours à la méthode de sondage (vu que l'opération de recensement est coûteuse).
Cette méthode consiste à interroger seulement une partie de la population appelée
échantillon.
5
II) Caractéristiques d'un échantillon aléatoire: Les moments empiriques
Remarque : Ces deux résultats indiquent que le calcul de la moyenne empirique sur un
échantillon nous fournit en moyenne la vraie valeur de m (mais pas à chaque fois). De
plus, la distribution de la moyenne empirique devient de plus en plus concentrée autour
de la vraie valeur m au fur et à mesure que la taille de l’échantillon grandit (car Var
( X n ) diminue avec n).
Étant donné un échantillon aléatoire (X1,.....,Xn), i.i.d de taille n issu d’une loi L de
̂ =T(X1,.....,Xn),
Définition. Un paramètre inconnu λ est un nombre réel, fixé mais inconnu, dont on
voudrait connaître la valeur.
Par exemple si l’espérance µ = E(X) d’une variable est inconnue, µ est un paramètre
inconnu. Dans l’exemple du dé truqué, la probabilité p que le dé tombe sur 6 est un
paramètre inconnu.
Définition. Un échantillon (X1, X2, . . . , Xn) de même loi que X est un vecteur
aléatoire tel que toutes les variables Xi sont indépendantes et ont toutes même loi que
X.
Définition. Un estimateur du paramètre λ est une variable aléatoire En fonction de
l’échantillon, c’est-à-dire fonction des Xi pour 1 ≤ i ≤ n
7
2) Propriétés d’un estimateur
Un bon estimateur doit satisfaire à la fois trois conditions souvent contradictoires : il doit
être sans biais, convergent et efficace. (qui représente une bonne approximation du vrai
paramètre inconnu)
On dit que ̂ est un estimateur sans biais si son espérance mathématique est égale au
ˆ .
paramètre inconnu. C'est à dire: E()
Dans le cas réel où l’échantillon est de taille finie, on aimerait que l’espérance
E(ˆ ) s’écarte le moins possible de la valeur .
b) Estimateur convergent :
On dit que ̂ est un estimateur convergent de si et seulement si:
lim E(ˆ )
n
lim V(ˆ ) 0
n
c) Efficacité
Parmi différents estimateurs de la même quantité, on choisira celui dont l’écart-type est
minimal : la convergence vers la valeur exacte n’en sera que plus rapide.
8
Dans le cas où ̂1 et ̂ 2 sont sans biais, ̂1 est plus efficace que ̂ 2 , si
V ( ̂1 ) < V ( ̂ 2 )
1) Fonction de vraisemblance
n
P( X , ) dans le cas discret
i
L(X1,...., Xn, ) = i 1
n
f ( X i , ) dans le cas discret
i 1
Pour une valeur de , plus la valeur de L(X1,...., Xn, ) est élevée et plus est
vraisemblable l'échantillon de réalisation de X1,...., Xn d'où le nom de Fonction
de vraisemblance.
La fonction de vraisemblance
9
n n
L(X1,...., Xn, p)= P( X i , p ) P xi ( 1 p )1 xi )
i 1 i 1
Soit la variable aléatoire X distribué selon une loi de probabilité donnée de paramètre
inconnu et définie par sa fonction de probabilité P(X, ) dans le cas ou X est
discrète et sa fonction densité f(X, ) dans le cas continu. On titre un échantillon
X1,...., Xn IID de X. D'après la méthode de maximum de vraisemblance (MMV)
l'estimateur ̂ MV du paramètre inconnu est celui qui maximise la fonction de
vraisemblance L(X1,...., Xn, ).
l(X1,...., Xn, )
/ ˆ 0
MV
La fonction de vraisemblance
n n
L(X1,...., Xn, p)= P( X i , p ) P xi ( 1 p )1 xi )
i 1 i 1
1 n
p̂ MV Xi Xn
n i 1
11