Académique Documents
Professionnel Documents
Culture Documents
Anne 2015
Chapitre
Lois statistiques
1.1
Introduction
Nous allons voir que si une variable alatoire suit une certaine loi, alors ses ralisations (sous forme
dchantillons) sont encadres avec des probabilits de ralisation. Par exemple, lorsque lon a une norme
urne avec une proportion p de boules blanches alors le nombre de boules blanches tires sur un chantillon de taille n est parfaitement dfini. En pratique, la frquence observe varie autour de p avec des
probabilits fortes autour de p et plus faibles lorsquon sloigne de p.
Nous allons chercher faire linverse : linfrence statistique consiste induire les caractristiques inconnues dune population partir dun chantillon issu de cette population. Les caractristiques de
lchantillon, une fois connues, refltent avec une certaine marge derreur possible celles de la population.
1.1.1
Fonction de rpartition
La densit de probabilit p(x) ou la fonction de rpartition F (x) dfinissent la loi de probabilit dune
variable alatoire continue X. Elles donnent lieu aux reprsentations graphiques suivantes :
1.1.2
Lesprance E(X) dune variable alatoire discrte X est donne par la formule
X
E(X) =
xi P (xi ).
i
1.2
1.2.1
Lois usuelles
Loi normale ou loi de Gauss
Une variable alatoire relle X suit une loi normale (ou loi gaussienne, loi de Laplace-Gauss) desprance
et dcart type (nombre strictement positif, car il sagit de la racine carre de la variance 2 ) si cette
variable alatoire relle X admet pour densit de probabilit la fonction p(x) dfinie, pour tout nombre
rel x, par :
1 x 2
1
p(x) = e 2 ( ) .
2
Une telle variable alatoire est alors dite variable gaussienne.
Une loi normale sera note de la manire suivante N (, ) car elle dpend de deux paramtres (la
moyenne) et (lcart-type). Ainsi si une variable alatoire X suit N (, ) alors
E(X) =
et
V (X) = 2 .
Lorsque la moyenne vaut 0, et lcart-type vaut 1, la loi sera note N (0, 1) et sera appele loi normale
2
standard. Sa fonction caractristique vaut et /2 . Seule la loi N (0, 1) est tabule car les autres lois (cest-dire avec dautres paramtres) se dduise de celle-ci laide du thorme suivant : Si Y suit N (, )
alors Z = Y suit N (0, 1).
On note la fonction de rpartition de la loi normale centre rduite :
(x) = P (Z < x)
avec Z une variable alatoire suivant N (0, 1).
Proprits et Exemples : (x) = 1 (x),
(0) = 0.5,
(1.645) 0.95,
(1.960) 0.9750
Pour |x| < 2, une approximation de peut tre utilise ; il sagit de son dveloppement de Taylor
lordre 5 au voisinage de 0 :
1
x3
x5
(x) 0.5 +
x
+
.
6
40
2
Inversement, partir dune probabilit, on peut chercher la borne pour laquelle cette probabilit est
effective.
0.02
2.33
98%
0.05 0.10
1.96 1.645
95% 90%
A laide des proprits de la loi normale standard, on remarque que le nombre z/2 vrifie galement
P (Z < z/2 )
P (Z < z/2 )
La somme de deux variables gaussiennes indpendantes est elle-mme une variable gaussienne (stabilit) :
Soient X et Y deux variables alatoires indpendantes suivant respectivement
les lois N (1 , 1 ) et
p
N (2 , 2 ). Alors, la variable alatoire X + Y suit la loi normale N (1 + 2 , 12 + 22 ).
1.2.2
Loi du 2 (khi-deux)
Dfinition 1 Soit Z1 , Z2 , .P
. . , Z une suite de variables alatoires indpendantes de mme loi N (0, 1).
Alors la variable alatoire i=1 Zi2 suit une loi appele loi du Khi-deux degrs de libert, note
2 ().
Proposition 1.2.1
1. Sa fonction caractristique est (1 2it)/2 .
2. La densit de la loi du 2 () est
1
x/21 ex/2 pour x > 0
2/2 (/2)
f (x) =
0 sinon.
R
o est la fonction Gamma dEuler dfinie par (r) = 0 xr1 ex dx.
3. Lesprance de la loi du 2 () est gale au nombre de degrs de libert et sa variance est 2.
4. La somme de deux variables alatoires indpendantes suivant respectivement 2 (1 ) et 2 (2 ) suit
aussi une loi du 2 avec 1 + 2 degrs de libert.
Preuve Calculons la fonction caractristique de Z 2 lorsque Z suit N (0, 1).
Z
2
2
2
1
(t) = E(eitZ ) =
eitz ez /2 dz
2
Z
2
1
1
e 2 (12it)z dz
=
2
Z
1 2
1
e 2 u /2
=
dz en posant u = (1 2it)1/2 z
2 (1 2it)1/2
(t)
(1 2it)1/2
Montrons maintenant que la fonction de densit est correcte. Pour cela, calculons la fonction caractristique partir de la densit :
(t)
E(e
itx
eitx
)=
0
=
=
=
1
/2
2 (/2)
x/21 ex/2 dx
2/2 (/2)
x(1/2it)x dx
Z +
1
1
u/21 eu du
2/2 (/2) (1/2 it)(1/2 it)/21 0
Z +
1
1
u/21 eu du
2/2 (/2) (1/2 it)/2 0
{z
}
|
=(/2)
(t)
1
(1 2it)/2
2
Calculons maintenant lesprance et la variance. Selon la dfinition de la loi
Pdu 2 , chaque variable
2
Zi suit la loi normale centre rduite. Ainsi E(Zi ) = V ar(Zi ) = 1 et E( i=1 Zi ) = . De mme,
2 2
V (Zi r) = E(Zi4 ) (E(Z
P i )) 2= 4 1. On sait que pour une loi normale centre rduite 4 = 3 donc
2
V ar(Zi ) = 2 et V ar( i=1 Zi ) = 2.
1.2.3
Loi de Student
Dfinition 2 Soient Z et Q deux variables alatoires indpendantes telles que Z suit N (0, 1) et Q suit
2 (). Alors la variable alatoire
Z
T =p
Q/
suit une loi appele loi de Student degrs de libert, note St().
Proposition 1.2.2
2. Lesprance nest pas dfinie pour = 1 et vaut 0 si 2. Sa variance nexiste pas pour 2 et
vaut /( 2) pour 3.
3. La loi de Student converge en loi vers la loi normale centre rduite.
Remarque : pour = 1, la loi de Student sappelle loi de Cauchy, ou loi de Lorentz.
1.2.4
Loi de Fisher-Snedecor
1
2
1 /2
2
2 2 .
x1 /21
(1 +
1 +2
1
2
2 x)
si x > 0
(0 sinon).
1
F
222 (1 +2 2)
1 (2 2)2 (2 4) .
2. Si T suit une loi de Student degrs de libert alors T suit une loi de Fisher F (1, ).
1.2.5
Loi
Gauss
Khi-Deux
Student
Fisher
Notation
N (0, 1)
2 ()
St()
F (1 , 2 )
Variable
Fct Rpartition
V. critique
Z
K2
T
F
loi.normale.standard(z)
khideux(k; ; 1)
loi.normale.standard.inverse(1 )
Loi.student(t; ; 1)
z
2;
t;
Fonction inverse
Loi.f(f ; 1 ; 2 ))
f;1 ,2
inverse.Loi.f(; 1 ; 2 ))
khideux.inverse(; ; 1)
Loi.student.inverse(; )
Chapitre
Convergences
2.1
2.1.1
Convergence en probabilit
Ingalits utiles
g(y)f (y)dy =
g(y)f (y)dy +
|Y |<a
g(y)f (y)dy
g(y)f (y)dy
|Y |a
|Y |a
Z
g(a)
f (y)dy
|Y |a
= g(a)P (|Y | a)
Ainsi E(g(Y )) g(a)P (|Y | a).
Rappel : Ingalit de Bienaym-Chebyshev
Soit X une variable alatoire admettant une esprance E(X) et de variance finie 2 (lhypothse de
variance finie garantit lexistence de lesprance).
Lingalit de Bienaym-Chebychev snonce de la faon suivante : pour tout rel strictement positif,
P (|X E(X)| )
2
.
2
10
2.1.2
CHAPITRE 2. CONVERGENCES
Convergence en probabilit
Dfinition 4 (Convergence en probabilit) On considre une suite (Xn ) dune v.a. dfinie sur ,
X une autre v.a. dfinie sur .
On dit que la suite (Xn ) converge en probabilit vers une constante relle ` si
> 0, lim P (|Xn `| > ) = 0.
n
1
p(1 p)
.
n2
4n2
1
Ainsi pour tout > 0, il existe > 0 (plus prcisment > 4n
2 ) tel que P (|Sn /n p| ) < ou
Sn
encore limn P (|Sn /n p| ) = 0. La variable alatoire n converge en probabilit vers p.
Thorme 2.1.1 Soit (Xn ) une suite de variables alatoires sur le mme espace probabilis (, P ) admettant des esprances et des variances vrifiant
lim E(Xn ) = `
et lim V (Xn ) = 0,
n
V (Xn )
,
(/2)2
11
2.1.3
Dfinition 5 Une suite de v.a.r. (Xn )nN converge en moyenne quadratique vers une v.a.r. X si
lim E((Xn X)2 ) = 0.
Proprits :
1. La convergence en moyenne quadratique entrane la convergence en probabilit.
2. Pour les (Xn ) sont des variables alatoires desprance et de variance finies, si E(Xn ) et
V ar(Xn ) 0 alors Xn converge en moyenne quadratique vers .
Preuve
1. On applique lingalit de Markov avec Y = |Xn X| , a = 2 et g(t) = t2 . Il suffit
ensuite de remarquer que P (|Xn X|2 > 2 ) = P (|Xn X| > ) et utiliser lhypothse que
lim E((Xn X)2 ) = 0.
2. lim E((Xn )2 ) = lim E(Xn2 ) 2E(X) + 2 = lim E(Xn2 ) E(Xn )2 = lim V (Xn ) = 0.
2.1.4
Thorme 2.1.2 Soit (Xn ) une suite de variables alatoires indpendantes sur le mme espace
Pn probabilis (, P ) ayant une mme esprance mathmatique ` et des variances vrifiant limn n12 i=1 i2 = 0.
On pose Sn = X1 + + Xn alors Snn converge en probabilit vers `.
Si on considre une suite de variables alatoires (Xn ) indpendantes dfinies sur un mme espace probabilis, ayant mme esprance et mme variance finie notes respectivement E(X) et V (X). La loi faible des
grands nombres stipule que, pour tout rel strictement positif, la probabilit que la moyenne empirique
Sn
Sn
n sloigne de lesprance dau moins , tend vers 0 quand n tend vers linfini. La moyenne n converge
en probabilit vers lesprance commune E(X).
Preuve On a E(Sn /n) = ` et lim V (Sn /n) = lim n12
2.1.1, Sn /n converge en probabilit vers `.
2.2
Convergence en loi
Dfinition 6 Soient (Xn ) et X des variables alatoires sur un mme espace probabilis (, P ), de foncL
tions de rpartition respectives Fn et F ; on dit que les (Xn ) convergent vers X en loi (et on note Xn X)
si en tout point x o F est continue, les Fn (x) convergent vers F (x).
Proprits : (admises)
P
Preuve Il sagit de montrer que si (Xn )n converge en probabilit vers X, la suite (FXn )n converge vers
FX (respectivement pralablement notes Fn et F ). On utilise le lemme suivant : soient A, B des variables
alatoires relles, c un rel et > 0. Alors on a lingalit
P (A c) B( c + ) + P (|A B| > ),
12
CHAPITRE 2. CONVERGENCES
car
P (A C)
P (A c B c + ) + P (A c B > c + )
P (A c|B c + ) P (B c + ) + P (A c B > c)
P (B c + ) + P (A B > )
P (B c + ) + P (|A B| > )
car P (|) 1
(2.2)
(2.3)
Passons la dmontration proprement dite. Soit x un point o F est continue. Soit > 0. Par continuit
de FX en x, il existe > 0 tel que |FX (x + ) FX (x)| < /2 et |FX (x ) FX (x)| < /2. Pour cet ,
de part la convergence de (Xn )n vers X, il existe n0 tel que, pour tout n n0 ,
P (|Xn X| > ) < /2.
Ainsi par (2.2),
FXn (x) FX (x)
et par (2.3),
FXn (x) FX (x) FX (x ) FX (x) P (|Xn X| > )
/2 /2 =
nk
k
CN
p CN q
n
CN
1
n1 1
Nn
N (N 1) (N n + 1)
= N n (1 ) (1
)
n!
N
N n!
n!
car (1 m
N ) 1 lorsque N tend vers linfini. De mme, lorsque N tend vers linfini avec p et k fixes, alors
k
CN
p
(N p)k
k!
Finalement,
P (XN = k)
et
nk
CN
(1p)
(N (1 p))nk
.
(n k)!
pk (1 p)nk n!
= Cnk pk (1 p)nk ,
k!(n k)!
ce qui correspond la probabilit ponctuelle dune variable alatoire qui suit la loi binomiale B(n, p).
13
Cest pour cela que lorsque la population (de taille N ) est trs grande, on peut assimiler la loi dune
variable alatoire comptant le nombre de russite sur un tirage sans remise (loi hypergomtrique) une
loi binomiale (tirage avec remise).
Proposition 2.2.2 (Convergence de la loi binomiale vers une loi de Poisson) Soit (Xn ) une
suite de variables alatoires binomiales sur un mme espace probabilis : pour tout n, Xn suit B(n, pn ).
On suppose que limn+ pn = 0 et limn+ npn = . Alors (Xn ) convergent en loi, quand n tend vers
linfini, vers une loi de Poisson de paramtre .
Preuve Pour k fix,
P (Xn = k)
=
=
n(n 1) (n k + 1) k
pn (1 pn )nk
k!
(npn )k
1
k1
(1 pn )n (1 ) (1
)(1 pn )k
k!
n
n
On cherche la limite de (1pn )n = exp(n ln(1pn )) = exp(n ln(1npn /n)). Comme limn+ npn = , on
pose npn = + n avec limn+ n = 0 et ainsi ln(1 npn /n) /n donc limn+ (1 pn )n = e .
k
Comme k est fix, limn+ (1 n1 ) (1 k1
=1
n )(1 pn )
Ainsi
lim P (Xn = k) = e
n+
k
,
k!
ce qui correspond la probabilit ponctuelle dune variable alatoire qui suit une loi de Poisson P(). Il
sagit donc dune convergence en loi en appliquant le point 2 des proprits.
Corollaire 2.2.3 (Application pratique) On peut remplacer B(n, p) par P() avec = np pour n
trs grand (n > 50) et p trs petit (p < 0, 1).
2.3
2.3.1
Thorme 2.3.1 (thorme de continuit de Levy) Soit (Xn ) une suite de variables alatoires de
fonctions caractristiques Xn et X une variable alatoire de fonction caractristique X , toutes sur un
mme espace probabilis. Si les (Xn ) convergent en loi vers X alors la suite de fonctions (Xn ) converge
uniformment vers X sur tout intervalle [a, a].
Inversement si les (Xn ) convergent vers une fonction dont la partie relle est continue en 0, alors
est la fonction caractristique dune variable alatoire X vers laquelle les Xn convergent en loi.
On peut le rsumer ainsi :
L
2.3.2
Corollaire 2.3.2 (Thorme central limite) Soit une suite (Xn ) de variables alatoires dfinies sur
le mme espace de probabilit, suivant la mme loi D et dont lesprance et lcart-type communes
existent et soient finis ( 6= 0). On suppose que les (Xn ) sont indpendantes.
Considrons la somme
n
Sn = X1 + + Xn . Alors lesprance de Sn est n et son cart-type vaut n et Sn
converge en loi
n
vers une variable alatoire normale centre rduite.
14
CHAPITRE 2. CONVERGENCES
Preuve Posons Yi =
Xi
.
n
Alors
t
Yi (t) = Xi (t) = Xi ( )
n
n
Pour t fix, lorsque n tend vers linfini, t n est infiniment petit. Ecrivons le dveloppement limit, au
voisinage de 0, de la fonction caractristique dune variable alatoire W :
W (u)
W (0) + u 0W (0) +
1 + i u E(W )
u2 00
(0) + u2 (u)
2 W
u2
E(W 2 ) + u2 (u)
2
t
1
1
t2
t2
Xi ( ) = 1 2 2 + (t3 / 3 n) = 1
+ i (n)
2 n
n
2n n
n
avec limn+ i (n) = 0.
Maintenant, posons Zn =
Sn
n
n
Pn
i=1
Yi .
n
Y
Yi (t)
i=1
=
et limn+ Zn (t) = et
/2
exp
n
X
1
t2
+ i (n))
ln n(1
2n
n
i=1
Ce thorme tablit une proprit gnrale, qui va justifier limportance considrable de la loi normale,
la fois comme modle pour dcrire des situations pratiques, mais aussi comme outil thorique. Il snonce
ainsi :
Soit X1 , ..., Xi , ..., Xn , une suite de n variables alatoires indpendantes, de moyennes 1 , ..., i , ..., n ,
et de variances s1 2 , ..., si 2 , ..., sn 2 , et de lois de probabilit quelconques,
leur somme suit une
Pn
Pn loi qui,
lorsque n augmente, tend vers une loi normale de moyenne = i=1 i et de variance s2 = i=1 si 2 . Il
y a une seule condition restrictive, cest que les variances soient finies et quaucune ne soit prpondrante
devant les autres.
La loi normale comme modle : prenons lexemple du fonctionnement dun tour dusinage du bois. Le
rglage du tour a pour but dobtenir des pices prsentant une cote bien dfinie ; mais on sait que de
multiples causes perturbatrices agissent au cours de lusinage dune pice : vibrations, usures, variations de
courant ... Or si les causes perturbatrices sont nombreuses, si leurs effets interviennent de faon additive,
enfin si la dispersion provoque par chacune delles reste faible par rapport la dispersion totale, alors le
thorme central limite signifie quon doit observer une fluctuation globale trs voisine de la loi normale.
Et, comme ce mcanisme dintervention de causes perturbatrices est trs rpandu dans la nature, il en
rsulte que la loi normale occupe en statistique une place privilgie.
2.3.3
convergence de P vers N
Corollaire 2.3.3 Soit (Xn ) une suite de variables alatoires suivants des lois de Poisson de paramtres
n n
converge en loi vers N (0, 1).
n . Si limn+ n = , alors X
15
sin t1)
En utilisant les proprits de la fonction caractristique (aX (t) = (at) et X+b (t) = eitb X (t)), il vient
(cos t +i sin t 1) i t ()
cos(t/ ) 1 (t/ 2 ) + 1 ()
sin(t/ ) (t/ ) + 1 ()
eit/
Ainsi
(it)2
1
it
+ ().
1= +
2
(cos(t/ ) + i sin(t/ ) 1) i t t2 /2
et X
(t) et
/2
Application pratique : Pour suffisamment grand (disons > 1000), la distribution normale de moyenne
et de variance est une excellente approximation de la distribution de Poisson de paramtre . Si
est plus grand que 10, alors la distribution normale est une bonne approximation si une correction de
continuit est applique, cest--dire P (X x) lorsque x est un entier positif ou nul est remplac par
P (X x + 0, 5).
2.3.4
convergence de B vers N
Corollaire 2.3.4 (Thorme de Moivre-Laplace) Soit (Xn ) une suite de variables alatoires telles
np
que (Xn ) B(n, p). Alors Xnnpq
converge en loi vers la variable centre rduite Z N (0, 1) ou encore
2.3.5
Correction de continuit
Pour un meilleur rsultat, une correction de continuit peut tre applique, cest--dire P (X x) lorsque
x est un entier positif ou nul est remplac par P (X x + 0, 5). Cela permet galement de diffrencier
P (X x) de P (X < x) lorsque lon approche une loi discrte par une loi continue.
16
CHAPITRE 2. CONVERGENCES
Chapitre
Echantillonnage, Estimations
3.1
Echantillonnage
Nous allons tudier comment se comporte un chantillon (lments pris au hasard) dans une population
dont on connat les caractristiques statistiques (lois,...) dune variable considre X. Dans ce cas, prendre
un chantillon alatoire de taille n consiste considrer n ralisations de X ou encore considrer n variables
alatoires X1 , . . . , Xn indpendantes, de mme loi que X.
Dfinition 7 Soit X une variable alatoire sur un rfrentiel . Un chantillon de X de taille n est un
n-uplet (X1 , . . . , Xn ) de variables alatoires indpendantes de mme loi que X. La loi de X sera appele
loi mre. Une ralisation de cet chantillon est un n-uplet de rels (x1 , . . . , xn ) o Xi () = xi .
3.1.1
V (X) =
2
.
n
De plus, par le thorme central limite, X converge en loi vers N (, n ) lorsque n tend vers linfini.
Preuve
1X
Xi
n i=1
1X
1X
E(Xi ) =
= .
n i=1
n i=1
18
1X
S2 :=
(Xi X)2 .
n i=1
Proposition 3.1.3 Soit X une variable alatoire dcart-type et de moment centr dordre 4, 4 . On
a:
n1
n1 2
,
V (S2 ) =
(n 1)4 (n 3) 4 .
E(S2 ) =
3
n
n
De plus, lorsque n tend vers linfini, V (S2 )
4 3
.
n
Preuve
n
1X
(Xi X)2
n i=1
1X
[(Xi ) (X )]2
n i=1
n
n
X
1X
2
(Xi )2 (X )
(Xi ) + (X )2
n i=1
n
i=1
1X
(Xi )2 2(X )2 + (X )2
n i=1
1X
(Xi )2 (X )2
n i=1
Do
n
E(S2 ) =
2
n1 2
1X
V (Xi ) V (X) = 2
=
.
n i=1
n
n
Preuve Dmontrons lautre galit. On rappelle les notations : les Xi suivent la loi normale N (, ) et
les moments centrs dordre k sont dfinis par
k = E((X )k ).
Ainsi 1 = 0 et 2 = 2 . On peut crire S2 sous la forme
n
1X 2
2
S2 =
Xi X .
n i=1
(3.1)
19
Dautre part,
X
(Xi Xj )2
X
(Xi2 2Xi Xj + Xj2 )
i,j
i,j
Xi2 2
i,j
2n
XX
i
n
X
i=1
n
X
2n
2n S2
Xi2 2
Xi Xj +
XX
i
Xi
Xj2
Xj
Xi2 2(nX)(nX)
i=1
(Xi Xj )
par (3.1).
i,j
X
1
cov((Xi Xj )2 , (Xk Xl )2 ).
(2n2 )2
i,j,k,l
E (Xi Xj )
(Xi Xj )2
2
E (Xi Xj )
24 83 1 + 622
24 + 6 4
22 = 2 2 .
car 1 = 0 et 2 = 2 .
Ainsi, pour i 6= j,
cov((Xi Xj )2 , (Xi Xj )2 ) = 24 + 2 4 .
Continuons par le calcul de cov((Xi Xj )2 , (Xk Xj )2 ) avec i, j, k diffrents.
cov((Xi Xj )2 , (Xk Xj )2 )
20
(Xi Xj )2 (Xk Xj )2
= (Xi )2 2(Xi )(Xj ) + (Xj )2 (Xk )2 2(Xk )(Xj ) + (Xj )2
=
3(2 )2 + 4
cov
n3 4
4n(n 1)2 4
n1
i,j,k,l
Corollaire 3.1.4
3.1.2
2 2
n S
4 4
Frquence
Soit (Xi )i=1..n un chantillon alatoire de taille n ayant une loi de Bernoulli de paramtre p comme loi
mre. Alors
X1 + + Xn
F =
n
est la frquence de la valeur 1 dans lchantillon et nF suit une loi binomiale de paramtres n et p. Ainsi
et
E(F ) = p
V ar(F ) =
pq
.
n
p pq
n
).
En effet,
E(F ) = E
V ar(F ) = V ar
1X
Xi
n
1X
Xi
n
(ind)
1X
E(Xi ) = p.
n i=1
1 X
npq
pq
V ar(Xi ) = 2 =
.
n2
n
n
21
=
=
(ind)
E(F 2 ) E(F )2
X 2 !
1
E
Xi
p2
n
1 X 2 X X
E
Xi +
Xi Xj p2
n2
i
i j6=i
XX
1 X
E(Xi2 ) +
E(Xi Xj ) p2
n2
i
i j6=i
XX
1 X
E(Xi2 ) +
E(Xi ) E(Xj ) p2
n2
i
i
j6=i
=
V ar(F )
1
np + n(n 1)p2 p2
2
n
p(1 p)
n
car E(Xi2 ) = 02 (1 p) + 12 p = p,
3.2
Cette fois il sagit destimer certaines caractristiques statistiques de la loi (moyenne, variance, fonction
de rpartition) au travers dune srie dobservations x1 , x2 , . . . , xn . Cest la problmatique inverse de
lchantillonnage.
partir des caractristiques dun chantillon, que peut-on dduire des caractristiques de
la population dont il est issu ?
Lestimation consiste donner des valeurs approximatives aux paramtres dune population laide dun
chantillon de n observations issues de cette population. On peut se tromper sur la valeur exacte, mais
on donne la meilleure valeur possible que lon peut supposer.
3.2.1
Estimateur ponctuel
On souhaite estimer un paramtre dune population (cela peut tre sa moyenne , son cart-type ,
une proportion p. Un estimateur de est une statistique T (donc une fonction de (X1 , . . . , Xn )) dont la
ralisation est envisage comme une bonne valeur du paramtre . On parle destimation de associe
cet estimateur la valeur observe lors de lexprience, cest--dire la valeur prise par la fonction au point
observ (x1 , . . . , xn ).
Exemple : pour estimer lesprance E(X) de la loi de X, un estimateur naturel est la moyenne empirique
X qui produit une estimation x, moyenne descriptive de la srie des valeurs observes.
22
3.2.2
2.
Ainsi
Remarque : Entre deux estimateurs sans biais, le meilleur sera celui dont la variance est minimale (on
parle defficacit).
Remarque : Le critre derreur quadratique moyenne nest pas parfait mais il est prfr dautres critres
qui semblent plus naturels comme lerreur absolue moyenne E(|T |) car il sexprime en fonction de
notions simples comme le biais et la variance et est relativement facile manipuler analytiquement.
23
3.2.3
1. X est un estimateur sans biais de la moyenne . Son estimation x est la moyenne observe dans
une ralisation de lchantillon.
2. S2 est un estimateur consistant de 2 (mais biais).
n 2
n
e2 o e
3. S 2 = n1
S est un estimateur sans biais et consistant de 2 . Son estimation est s2 = n1
est lcart-type observ dans une ralisation de lchantillon.
4. Si p est la frquence dun caractre, F constitue un estimateur sans biais et consistant de p. Son
estimation est note f .
Pn
Remarque : Si la moyenne de X est connue, T = n1 i=1 (Xi )2 est un meilleur estimateur de 2
que S 2 . (Preuve en TD)
3.2.4
Soit X une variable alatoire relle de loi paramtrique (discrte ou continue), dont on veut estimer le
paramtre . Alors on dfinit une fonction f telle que :
f (x)
si X est une v.a. continue de densit f
f (x; ) =
P (X = x) si X est une v.a. discrte de probabilit ponctuelle P
Dfinition 14 On appelle fonction de vraisemblance de pour une ralisation (x1 , . . . , xn ) dun
chantillon, la fonction de :
L(x1 , . . . , xn ; ) = f (x1 , . . . , xn ; ) =
n
Y
f (xi ; ).
i=1
Dfinition 15 La mthode consistant estimer par la valeur qui maximise L (vraisemblance) sappelle
mthode du maximum de vraisemblance.
= sup L()}.
= { / L()
Ceci est un problme doptimisation. On utilise gnralement le fait que si L est drivable et si L admet
un maximum global en une valeur, alors la drive premire sannule en et que la drive seconde est
ngative.
alors est un maximum local (et non global) de L(x1 , ..., xi , ..., xn ; ). Il est alors ncessaire de vrifier
quil sagit bien dun maximum global. La vraisemblance tant positive et le logarithme nprien une
fonction croissante, il est quivalent et souvent plus simple de maximiser le logarithme nprien de la
vraisemblance (le produit se transforme en somme, ce qui est plus simple driver).
Ainsi en pratique :
1. La condition ncessaire
L(x1 , , xn ; )
=0
ou
ln L(x1 , , xn ; )
=0
ou
2 ln L(x1 , , xn ; )
() 0.
2
24
n
Y
n
Y
xi
xi
= en
.
xi !
x!
i=1 i
i=1
n
Y
xi
i=1
xi !
= n +
n
X
ln
i=1
n
n
X
X
xi
= n + ln
xi
ln (xi !).
xi !
i=1
i=1
La drive premire
ln L(x1 , , xn ; )
= n +
=
sannule pour
Pn
i=1
xi
Pn
i=1
xi
. La drive seconde
2 ln L(x1 , , xn ; )
=
2
Pn
i=1
2
xi
Pn
i
est toujours ngative ou nulle. Ainsi lestimation donne par = i=1
= X conduit un estimateur
n
= x. Il est normal de retrouver la moyenne empirique qui est le
du maximum de vraisemblance gal
meilleur estimateur possible pour le paramtre (qui reprsente aussi lesprance dune loi de Poisson).
1
(x )2
exp
.
2 2
2
Ecrivons la fonction de vraisemblance pour une ralisation dun chantillon de n variables indpendantes :
f (x1 , . . . , xn ; , ) =
n
Y
f (xi ; , ) =
i=1
1
2 2
n/2
Pn
2
i=1 (xi )
exp
.
2 2
Pn
Pn
Pn
Or (thorme de Knig) i=1 (xi )2 = i=1 (xi x + x )2 = i=1 (xi x)2 + n(x )2 , o x
reprsente la moyenne de lchantillon. Ainsi la fonction de vraisemblance peut tre crite sous la forme
f (x1 , . . . , xn ; , ) =
ln L =
ln
1
2 2
1
2 2
n/2
n/2
Pn
2
2
i=1 (xi x) + n(x )
exp
.
2 2
Pn
i=1 (xi
x)2 + n(x )2
2 2
!
=0
=x=
n
X
i=1
xi /n.
2n(x )
2 2
25
n
1
i=1 (xi x) + n(x )
i=1 (xi x) + n(x )
ln L =
ln
+
2
2
3
2
2
2
Donc
2 =
n
X
(xi
)2 /n
i=1
2 =
1X
(xi x)2 .
n i=1
Au point
,
3
2 ln L
(
) = n/
2 4 (n
2 + n(x )2 ) 0.
2
26
Chapitre
Intervalles de confiance
Au lieu de se donner une fonction (estimateur) qui donne une estimation ponctuelle dun paramtre,
on cherche un intervalle dans lequel se trouve le paramtre tudi avec une probabilit contrle (et
gnralement grande).
4.1
On considre une population telle que pour le caractre observ la proportion p dune certaine catgorie
est inconnue. On souhaite estimer cette proportion p de cette population partir dun chantillon de taille
n dont la frquence de la catgorie tudie est f . Soit F la variable alatoire qui chaque chantillon de
taille n associe la frquence du nombre dlments
p qui appartiennent la catgorie choisie. On sait que F
suit approximativement la loi N (p; ) avec = pq/n, pour n suffisamment grand (n > 30). On dispose
de
r
f (1 f )
0
=
n
lcart type associ la frquence f de lchantillon de taille n. On se sert de lestimation ponctuelle de
puisque p est inconnue :
r
r
r
r
n
f (1 f )
n
f (1 f )
0
=
=
=
.
n1
n
n1
n1
Donc la variable alatoire Z dfinie par :
F p
suit approximativement une loi normale centre rduite N (0; 1). On cherche un intervalle de confiance
de la proportion p, cest--dire un intervalle tel que la probabilit que la proportion p nappartienne pas
cet intervalle soit gale o [0; 1]. On appelle cet intervalle de confiance avec le risque ou avec
le coefficient de confiance c = 1 . Le risque que lon prend dire que p appartient cet intervalle est
donc de ou encore la probabilit que p nappartienne pas cet intervalle est le risque .
Z=
Dterminons cet intervalle de confiance : On rappelle que lon a dfini z/2 comme tant la valeur telle
que
P (Z > z/2 ) = /2
o Z suit N (0; 1). A laide des proprits de la loi normale centre rduite, on a P (Z < z/2 ) = /2 et
P (z/2 < Z < z/2 ) = 1 2 2 = 1 .
28
F p
< z/2 = 1
z/2 <
4.2
Moyenne
X=
1X
Xi
n i=1
et S 2 =
1 X
(Xi X)2 .
n 1 i=1
Soit z/2 le nombre rel positif tel que P (z/2 < Z < z/2 ) = 1 . Daprs la proposition 3.1.1, on
=
=
=
P X z/2 / n < < X + z/2 / n
P (z/2 <
Lintervalle de confiance pour la moyenne dune population de variance 2 connue est donn par
29
(n1)S 2
2
i=1
i=1
Pn
i=1 (Xi
2
X)2
+
/ n
2
.
Le premier terme est une somme de carrs de variables indpendantes suivant N (0, 1), le deuxime vaut
(n1)S 2
et le dernier est un carr dune variable suivant N (0, 1) daprs la proposition 3.1.1 sur la moyenne
2
empirique. En supposant lindpendance (admise) des variables X et S 2 , on peut crire cette galit en
2
terme de fonctions caractristiques, o est la fonction caractristique de (n1)S
et o la fonction
2
caractristique de la loi du 2 est utilise (Proposition 1.2.1) :
1
1 2it
n/2
= (t)
ou encore
(t)
Ainsi, daprs la proposition 1.2.1,
(n1)S 2
2
1
1 2it
1
1 2it
1/2
,
(n1)/2
.
Lorsquon ne dispose que de n observations dune population de distribution normale dcart-type inconnu,
cet intervalle est modifi. En effet, on se base sur la moyenne de lchantillon et lcart-type estim de
X
,
la population pour donner un intervalle de confiance sur la moyenne de la population. On a S/
n
St(n 1) (loi de Student n 1 degrs de libert) car cette variable peut scrire sous la forme dun
2
produit, en posant Q = (n1)S
,
2
r
X
X
Q
=
/
,
n1
S/ n
/ n
variable suivant une loi de Student daprs la dfinition 2 du Chapitre 1.
Ainsi cet intervalle est donn par :
s
s
x t/2 < < x + t/2
n
n
o t/2 = t/2;(n1) cest--dire que ce nombre sera lu dans la distribution de Student au risque /2 avec
= n 1 degrs de libert.
4.3
Variance
(Loi du 2 = n 1 ddl)
30
S2
< 2/2
2
= P
= P
(n 1)s2
(n 1)s2
2
<
<
2/2
21/2
1
o 2/2 = 2/2;(n1) sera lu dans la table de 2 avec = n 1 degrs de libert. On cherchera donc les
valeurs telles que P K 2 > 2/2;(n1) = /2, et P K 2 < 21/2;(n1) = /2.
Chapitre
5.1
Le cadre mathmatique est celui des vnements probabiliss o lhypothse, la comparaison de dpart
est convertie en un vnement intgr un modle probabiliste rfutable. On distingue en gnral deux
hypothses seulement : la premire, galement nomme hypothse nulle, note H0 est celle o justement
la diffrence est considre comme nulle (on dira en fait non significative, par rapport un seuil dfini
plus loin comme risque de premire espce) ; la seconde, complmentaire de la premire, regroupant tous
les autres cas, est nomme hypothse alternative et parfois note H1 .
Une hypothse doit spcifier une valeur, disons 0 pour un paramtre de la population. On testera donc
H0 : = 0 .
Une possibilit classique pour lhypothse alternative est
H1 : 6= 0 ,
qui teste chaque ct de lgalit (on parlera de test bilatral).
Mais on peut crire galement un autre choix dhypothse :
H0 : 0 ,
32
H0 est vraie
Vrai Positif
Faux Ngatif
H0 est fausse
Faux Positif
Vrai Ngatif
Ex (Test de grossesse) : Dans le cadre dun test de grossesse par autodiagnostic, un rsultat est qualifi
de faux ngatif lorsquil indique que la personne ntes pas enceinte, bien que la fcondation ait eu
lieu. A linverse un test positif erron -beaucoup plus rare- indique un dbut de grossesse, alors quil nen
est rien.
Les cas VN (Rejeter H0 quand elle est Fausse) et VP (Ne pas rejeter H0 quand elle est Vraie) sont des
bonnes dcisions. Par contre, FN (Rejeter H0 quand elle est Vraie) est nomme erreur de premire
espce et FP (Ne pas rejeter H0 quand elle est Fausse) est nomme erreur de deuxime espce. A
chacune de ces erreurs, on associe un risque li la probabilit de la dcision : on le nomme pour FP,
pour FN. Il ny a aucune raison de supposer ces risques quivalents et souvent on prend = 5% (ou
1% quand on veut tre plus strict) alors quil est "habituel" de prendre 0.20 pour . La probabilit de
rejeter H0 alors quelle est vraie vaut et est appel niveau du test (ou seuil). La probabilit de rejeter
une fausse hypothse nulle est (1 ) qui est appele la puissance du test.
Il faut bien comprendre que les tests dhypothse ne permettent pas daccepter H0 mais seulement de
rejeter H0 . Ne pas rejeter H0 ne signifie pas que H0 est vraie mais seulement que la probabilit quelle
soit fausse est trs petite. On nest donc en fait jamais vraiment totalement sr de rien.
Ce qui nous donne en tableau :
non rejet de H0
rejet de H0
H0 est vraie
cohrent
Erreur type I (rejet tort) : risque
H0 est fausse
Erreur type II (non rejet tort) : risque
cohrent
Dans le cadre de tests statistiques, on doit dcider si on peut considrer par exemple que 0.21 et 0.22 sont
proches, si 15% et 20% peuvent tre considrs comme peu loigns etc., la loi statistique de la diffrence
entre ces lois tant suppose connue, tabule et consultable.
5.2
Pour raliser un test dhypothse, il y a un enchanement strict dactions effectuer. Cela commence par
la formulation de lhypothse dans le domaine considr (mdical, conomique, social...) et sa traduction
en vnements probabilistes lis H0 . On doit ensuite considrer la statistique dcart (la loi thorique
de la diffrence) et choisir un seuil (alpha) de dcision. On doit ensuite calculer la valeur de la statistique
dcart pour les valeurs observes puis comparer la valeur thorique de la statistique dcart pour le
seuil choisi et en dduire si on refuse H0 ou non. Enfin, le calcul (ou la lecture) de la p-value associ
au dpassement de la valeur de la statistique dcart permet de conclure de faon fine sur le fait que la
diffrence est significative ou non.
Le fait de Ne pas rejeter H0 au risque sera parfois confondu par la suite avec On accepte H0 par
abus de langage, le risque ntant pas considr pour ce cours.
Chapitre
Test dindpendance
6.1
Dans la plupart des tests que nous venons de prsenter, on suppose toujours les valeurs de lchantillon
indpendantes. Cest une condition ncessaire. Il est donc souvent utile de vrifier cette hypothse par
un test. Ce test met en place une variable alatoire qui suit une loi du 2 , aussi ce test est appel Test
dindpendance du 2 .
Ce test permet de contrler lindpendance de deux caractres dans une population donne.
On dispose de deux variables alatoires X et Y , les valeurs possibles de X sont rparties en l modalits
(ou classes) X1 , . . . , Xl , celles de Y en k modalits Y1 , . . . , Yk . Pour chaque intersection de modalits Xi
et Yj , un effectif ni,j est observ. Ainsi
k
l X
X
n=
ni,j .
i=1 j=1
ni,j
..
.
Tj
On calcule les effectifs thoriques :
Ci,j =
Remarque : Sous lhypothse H0 , on a Ci,j = ni,j .
Si
n
Si Tj
.
n
X (ni,j Ci,j )2
.
Ci,j
i,j
34
Mdicament
48
6
Gnrique
158
44
Gurisons
Aucun Effet
Gnrique
158
44
202
206
50
256
Mdicament
20654
256
5054
256
54
On calcule 2c =
(4843,45)2
43,45
(158162,55)2
162,55
(610,55)2
10,55
Gnrique
206202
256
50202
256
202
+
(4439,45)2
39,45
206
50
256
3, 1.
La variable de test 2c vaut approximativement 3,1, alors que la valeur critique, pour un niveau de risque
de 5%, est 3,84 (on explore la table du 2 un degr de libert). On peut donc raisonnablement estimer ici
que le taux de gurison ne dpend pas du prix du mdicament et se poser des questions sur lopportunit
de continuer vendre le mdicament cher.
6.2
Soit r le coefficient de corrlation de lchantillon compos de n paires dobservations extrait de populations gaussiennes. Il sagit de tester lhypothse nulle :
H0 : = 0 (corrlation nulle entre les populations)
au risque . On peut montrer sous H0 que la variable alatoire T =
= n 2 degrs de libert.
On calculera donc
R
n2
1R2
r n2
t=
,
1 r2
puis on cherchera la valeur t ou t/2 dans la table de loi t de Student = n 2 degrs de libert tel
que
P (Tn2 > t/2 ) = /2
et on adoptera la rgle de dcision suivante :
35
36
Chapitre
Cas gnral
Test dadquation du 2
Soit X une variable alatoire de loi L (le plus souvent inconnue). On souhaite tester lajustement de cette
loi une loi connue L0 (Poisson, Exponentielle, normale, etc) retenue comme tant un modle convenable.
On teste donc lhypothse H0 : L = L0 contre lhypothse H1 : L =
6 L0 .
Les n P
observations de X sont partages en k classes. On dsigne par Oi leffectif observ de la classe i.
Ainsi i Oi = n.
Pour chaque classe, leffectif thorique est dfini :
Ci = n p(X Classei /X , L0 ).
Classe
Effectif observ
Effectif thorique
1
O1
C1
2
O2
C2
i
Oi
Ci
k
Ok
Ck
2
Pk
i)
On calcule la valeur 2c = i=1 (Oi C
. On compare cette valeur la valeur thorique 2 lue dans la
Ci
table du 2 = k 1 r degrs de libert o r est le nombre de paramtres de la loi L0 quil a fallu
estimer. (Exemples : r = 0 si la loi est connue ou impose, r = 1 pour une loi de Poisson, r = 2 pour une
loi normale sans autre prcision)
commune
145
saumone
118
arc-en-ciel
136
On cherche savoir sil y a quirpartition des truites entre chaque espce cest--dire on suppose de L0
est la loi uniforme, une probabilit de 1/3 pour chaque classe (soit Ci = 399 13 = 133).
38
Varits
Effectifs Oi
Effectifs Ci
commune
145
133
saumone
118
133
arc-en-ciel
136
133
On obtient
(118 133)2
(136 133)2
(145 133)2
+
+
2.84
133
133
133
La valeur thorique lue dans la table du 2 au risque de 5% avec = 3 1 0 = 2 degrs de libert vaut
5.99.
2c =
On ne peut rejeter lhypothse que son bassin contient autant de truites de chaque varit car 2c < 2 .
7.1.2
Test de Kolmogorov-Smirnov
Comme prcdemment, lobjectif est dtablir la plausibilit de lhypothse selon laquelle lchantillon
a t prlev dans une population ayant une distribution donne. Le test de Kolmogorov est "nonparamtrique" : il ne place aucune contrainte sur la distribution de rfrence, et ne demande pas quelle
soit connue sous forme analytique (bien que ce soit pourtant le cas le plus courant).
Etant donns :
1. Un chantillon de taille n dobservations dune variable,
2. Et une fonction de rpartition de rfrence F (x),
le test de Kolmogorov teste lhypothse H0 selon laquelle lchantillon a t prlev dans une population
de fonction de rpartition F (x).
Pour cela, il calcule sur lchantillon une quantit D, appele "statistique de Kolmogorov", dont la
distribution est connue lorsque H0 est vraie. La statistique de Kolmogorov-Smirnov Dn est dfinie par
Dn = sup |Fn (x) F (x)|,
xR
o Fn (x) est la proportion des observations dont la valeur est infrieure ou gale x (fonction de rpartition empirique).
c
sup |Fn (x) F (x)| >
n
x
n (c) = 2
+
X
(1)r1 exp(2r2 c2 )
r=1
39
pour toute constante c > 0. Le terme (c) vaut 0.05 pour c = 1.36. Pour n > 100, la valeur critique du
test est approximativement de la forme cn . Les valeurs usuelles de c en fonction de sont :
c
Si Dn >
c ,
n
0.20
0.10
1.073 1.223
0.05
1.358
0.02
0.01
1.518 1.629
on rejette H0 .
Exemple : http://www.jybaudot.fr/Inferentielle/kolmogorov.html
Une nouvelle clientle trangre est attendue dans une station balnaire. Afin de mieux connatre leurs
gots, des brasseurs ont command une tude de march. En dbut de saison, on demande vingt de ces
nouveaux touristes de donner leur prfrence parmi cinq types de bires, de la moins amre (bire 1) la
plus amre (bire 5). A laide dun test de K-S, le charg dtudes dcide de comparer les rsultats avec
une loi uniforme, cest--dire une situation o chaque bire aurait eu la prfrence de quatre rpondants.
Les rsultats de lenqute sont les suivants :
13251224122133245112
On se fixe un risque derreur de 5%. Lhypothse H0 tester est celle de lgalit avec une loi uniforme.
Rsumons les carts entre observations et rpartition uniforme :
Classe
1
2
3
4
5
Effectif
6
7
3
2
2
Uniforme
4
4
4
4
4
Cumul rel
0,30
0,65
0,80
0,90
1,00
Cumul thorique
0,20
0,40
0,60
0,80
1,00
D
0,10
0,25
0,20
0,10
0,00
On calcule pour n = 20 et = 5% la valeur de c/ 20 = 0, 303. Bien que ces touristes semblent prfrer
les bires les moins amres, on ne peut pas rejeter lhypothse selon laquelle ils nont pas de prfrence
particulire.
7.2
Test de normalit
Les tests prcdents sont des tests gnraux sappliquant sur nimporte quelle loi. Lorsque la loi tester
est la loi normale, on parle de test de normalit.
On cherche se dterminer entre :
H0 : les donnes suivent une loi normale.
H1 : les donnes ne suivent pas une loi normale.
7.2.1
La droite de Henry est une mthode pour visualiser les chances qua une distribution dtre gaussienne.
Elle permet de lire rapidement la moyenne et lcart type dune telle distribution.
Principe : On reprsente les quantiles thoriques en fonction des quantiles observs (Diagramme Q-Q).
Si X est une variable gaussienne de moyenne x et de variance 2 et si Z est une variable de loi normale
centre rduite, on a les galits suivantes :
X x
xi x
P (X < xi ) = P
<
= P (Z < yi ) = (yi )
40
o yi =
xi x
.
Pour chaque valeur xi de la variable X, on peut calculer P (X < xi ) puis en dduire, laide dune table
de la fonction , yi tel que (yi ) = P (X < xi ).
Si la variable est gaussienne, les points de coordonnes (xi ; yi ) sont aligns sur la droite dquation
y = xx
.
Exemple numrique : Lors dun examen not sur 20, on obtient les rsultats suivants :
10% des candidats ont obtenu moins de 4
30% des candidats ont obtenu moins de 8
60% des candidats ont obtenu moins de 12
80% des candidats ont obtenu moins de 16
On cherche dterminer si la distribution des notes est gaussienne, et, si oui, ce que valent son esprance
et son cart type.
On connat donc 4 valeurs xi , et, pour ces 4 valeurs, on connat P (X < xi ).
En utilisant la table Table de la fonction de rpartition de la loi normale centre rduite, on dtermine
les yi correspondants :
xi P (X < xi ) = (yi )
yi
4
0, 10
1, 282
8
0, 30
0, 524
12
0, 60
0, 253
16
0, 80
0, 842
41
7.2.2
4
X
K =E
Kurtosis : Moment dordre 4 dune variable centre-rduite
On rappelle quune loi normale a un coefficient dasymtrie = 0 et une kurtosis = 3. On peut traduire
les hypothses sous la forme :
H0 : S = 0 et K = 3
H1 : S 6= 0 ou K 6= 3.
On remarque ainsi que sil y a rejet, le test ne permet pas den connatre la raison principale (asymtrie
ou applatissement).
On calcule
JB =
n
6
S2 +
(K 3)2
4
,
o n est le nombre dobservations. Il faut que n soit suffisamment grand (n > 50).
La statistique JB suit asymptotiquement une loi du 2 2 degrs de libert. Si les donnes suivent une
loi normale, le test sapproche alors de 0 et on accepte (ne rejette pas) H0 au seuil .
42
Chapitre
Un test correspond construire un intervalle de confiance autour dune valeur partir dun chantillon
et de regarder si sa valeur suppose sous H0 est finalement dans cet intervalle, construit partir dun
certain risque. La valeur intressante pour un test est le risque pris pour rejeter H0 . Cela permet de
sassurer de la pertinence (vraisemblabilit) de H0 ou de H1 . Les lois qui interviennent dans les calculs
sont les mmes mais au lieu de construire un intervalle de confiance pour chaque risque pris, on compare
une partie fixe (calcule partir des observations) avec une partie ne dpendant que du risque pris.
8.2
Test de conformit
Soit pr la proportion (valeur connue) possdant le caractre considr dans une population de rfrence.
Il sagit de tester si la proportion p dune autre population, dont on a extrait un chantillon de taille n
et observ une frquence f pour ce caractre, correspond celle dune population de rfrence, soit
H0
: p = pr
H1
: p 6= pr
p
r
P z/2 < q
< z/2 = 1 .
pr (1pr )
n
f pr
z=q
pr (1pr )
n
44
: p = pr
H1
: p > pr
F pr
P q
pr (1pr )
n
< z = 1 .
f pr
z=q
pr (1pr )
n
avec une valeur z lue dans la table de lcart-rduit (lire au risque 2).
Dcision : on accepte H0 si z ]0; z [ au risque et on rejette H0 sinon (z > z ).
: p = pr
H1
: p < pr
p
r
= 1 .
P z < q
pr (1pr )
n
45
q f pr
pr (1pr )
n
: p = 0.2
H1
: p 6= 0.2
: p = 0.5
H1
: p > 0.5
(z 2.8)
3. test unilatral gauche (Un test unilatral gauche rejette les valeurs trop petites) On sait que
la grippe touche 30% dune population lors dune pidmie. Pour tester lefficacit dun vaccin
antigrippal, on vaccine pralablement 300 personnes. A la fin de la saison grippale, on dnombre
cinquante personnes qui ont t atteintes par la grippe parmi les vaccins. Ce rsultat permet-il
dapprcier lefficacit du vaccin ?
H0
: p = 0.3
H1
: p < 0.3
(z 5.04)
8.3
Test dhomognit
Soit X une variable qualitative prenant deux modalits (succs X = 1, chec X = 0) observe sur deux
populations et deux chantillons indpendants extraits de ces deux populations. On observe une frquence
f1 dans la population 1 de taille n1 et f2 dans la population 2 de taille n2 .
46
On fait lhypothse que les deux chantillons proviennent de deux populations dans lesquelles les probabilits de succs sont identiques.
H0
: p1 = p2
H1
: p1 6= p2
La distribution
dchantillonnage de la frquence de succs dans
p la population 1, F1 converge en loi vers
p
N (p1 ; p1 q1 /n1 ) et de mme F2 converge en loi vers N (p2 ; p2 q2 /n2 ) (On rappelle que nF suit la loi
binomiale de paramtres (n, p)). Comme F1 et F2 sont deux variables alatoires indpendantes, on a
E(F1 F2 )
= E(F1 ) E(F2 ) = p1 p2
p1 q1
p2 q2
V (F1 F2 ) = V (F1 ) + V (F2 ) =
+
n1
n2
Dans les conditions dapproximation de
B par N
q (n1 p1 , n1 q1, n2 p2 , n2 q2 > 5 et n1 , n2 > 30), la variable
alatoire F1 F2 suit la loi normale N p1 p2 ; pn1 q11 + pn2 q22 et ainsi la variable normale centre rduite
Z=
(F1 F2 ) (p1 p2 )
q
p1 q1
p2 q 2
n1 + n2
devient sous H0 ,
Z=r
F1 F2
.
1
1
pq n1 + n2
La valeur p, probabilit du succs commune aux deux populations nest en ralit pas connue. On lestime
partir des rsultats observs sur les deux chantillons :
p =
n 1 f1 + n 2 f2
n1 + n2
f1 f2
pq n11 +
1
n2
avec q = 1 p.
Cette valeur sera compare avec la valeur seuil z lue sur la table de la loi normale centre rduite N (0; 1)
pour un risque derreur fix.
Dcision :
si z ]z/2 ; z/2 [, lhypothse H0 est accepte : les deux chantillons sont extraits de deux populations
ayant mme probabilit de succs p.
si z > z/2 ou z < z/2 (ou encore z 6] z/2 ; z/2 [) lhypothse H0 est rejete au risque derreur
: les deux chantillons sont extraits de deux populations ayant des probabilits de succs diffrentes
respectivement p1 et p2 .
Remarque : on peut aussi tester un seul ct de lingalit (H0 restant p1 = p2 ) : on calcule de la mme
faon
f1 f2
z=r
pq n11 + n12
puis on dcide et conclut selon le cas
47
groupe 1
18 h
180
126
groupe 2
30 h
150
129
Quen concluez-vous ?
On choisit un test unilatral car on suppose que la russite est meilleure avec plus dheures de TD. Ainsi
on teste lhypothse : H0 : p1 = p2 contre H1 : p1 < p2 .
Calculs :
z=r
f1 f2
pq n11 +
1
n2
= 3, 45 avec p = 0, 773
Dcision : avec = 0, 05, la valeur thorique, lue dans la table de lcart centr rduit, vaut z = 1, 64
(il sagit dun test unilatral). Comme z < z , H0 est rejete au risque derreur 0,05.
On peut regarder le risque critique, cest--dire le risque minimal quil faut prendre pour rejeter H0 . La
valeur z = 3, 45 correspond une probabilit critique 0, 001 (p-value).
Comme < 0, 001, le risque derreur de type I, cest--dire de rejeter H0 alors quelle est vraie, est trs
faible. On peut donc rejeter lhypothse H0 avec un risque pratiquement nul de se tromper.
Comme espr, le taux de russite est significativement plus grand lorsque lassiduit aux TD est plus
lev.
48
Chapitre
X 0
suit une loi de Student = n 1 degrs de libert.
S/ n
x 0
.
s/ n
Dcision :
Si lhypothse alternative est H1 : 6= 0 (cas bilatral) : rejet de H0 au risque si t 6] t/2 ; t/2 [
avec = n 1 degrs de libert.
Si lhypothse alternative est H1 : > 0 (cas unilatral) : rejet de H0 au risque si t > t avec
= n 1 degrs de libert.
Si lhypothse alternative est H1 : < 0 (cas unilatral) : rejet de H0 au risque si t < t avec
= n 1 degrs de libert.
Pour la dcision, il y a deux faons de procder :
Soit on dfinit un risque a priori : on utilise assez systmatiquement un risque = 5% dans beaucoup
de domaines (biologie, mdecine). On labaisse si ncessaire aprs (dans le cas o une erreur de type I
pourrait avoir des consquences juges graves)
Soit on se dcide sur le risque a posteriori : la plupart des logiciels de statistique donne le risque
minimal quil faut prendre pour rejeter H0 . On note par valeur p (en anglais : p-value), le plus petit
niveau de risque auquel on rejette lhypothse nulle. En dautres termes, la valeur p est la probabilit
de commettre une erreur de premire espce, cest--dire de rejeter tort lhypothse nulle et donc
dobtenir un faux ngatif. Par exemple dans le cas dun test bilatral,
x 0
p-value = 2P > tp/2 | H0 : = 0 .
s/ n
50
X 0
suit la loi normale centre rduite.
/ n
x
0
/ n
Dcision :
Si lhypothse alternative est H1 : 6= 0 (cas bilatral) : rejet de H0 au risque si z 6] z/2 ; z/2 [.
Si lhypothse alternative est H1 : > 0 (cas unilatral) : rejet de H0 au risque si
.
Si lhypothse alternative est H1 : < 0 (cas unilatral) : rejet de H0 au risque si
.
Dans le dernier cas, la valeur p sera
x 0
< tp | H0 : = 0
p-value = P
/ n
Exemple :
Une compagnie de vente de licences de nouveaux logiciels e-commerce fait la publicit que les entreprises
utilisant ce logiciel peuvent obtenir, en moyenne pendant la premire anne, un rendement de 10% sur
leurs investissements initiaux. Les rendements affichs pour un chantillon alatoire de 10 de ces franchises
pour la premire anne de fonctionnement sont les suivants :
6, 1
9, 2
11, 5
8, 6
12, 1
3, 9
8, 4
10, 1
9, 4
8, 9
En supposant que les rendements de la population sont normalement distribus, tester laffirmation de
la compagnie. (n = 10, x = 8.82, s = 2.4, t = 1.55, p-value = LOI.STUDENT(1.55 ; 9 ;2)=0.1546). On
accepte H0 au risque = 5% car p-value . On a considr quil sagit dun test bilatral (ce qui peut
tre contestable ici). Avec le test unilatral (H1 : r < 10%), on rejette 10% (p-valeur 8%).
9.1.2
On sintresse la diffrence entre les moyennes 1 et 2 au sein de deux populations au travers de deux
chantillons indpendants.
On suppose que les deux chantillons, respectivement de n1 et n2 observations, sont extraits de populations
gaussiennes qui ont une variance (inconnue) commune 2 cest--dire 12 = 22 = 2 . On testera cette
galit de variance si elle ne peut tre suppose.
On considre la variable qui suit les diffrences entre X1 et X2 . Elle suit une loi normale de moyenne
(1 2 ) et de variance
V (X1 X2 ) = V (X1 ) + V (X2 ) =
Ainsi
Z=
12
2
2
2
+ 2 =
+
.
n1
n2
n1
n2
(X1 X2 ) (1 2 )
q
suit la loi normale centre rduite.
2
2
n1 + n2
51
(X1 X2 ) (1 2 )
q
suit une loi de Student = n1 + n2 2 degrs de libert.
S 1 + 1
n1
n2
ou
1 2 = 0
(x1 x2 )
t= q
,
s n11 + n12
Dcision :
Si lhypothse alternative est H1 : 1 6= 2 (cas bilatral) : rejet de H0 au risque si t 6] t/2 ; t/2 [
o t/2 sera lu avec = n1 + n2 2 degrs de libert.
Si lhypothse alternative est H1 : 1 > 2 (cas unilatral) : rejet de H0 au risque si
.
Si lhypothse alternative est H1 : 1 < 2 (cas unilatral) : rejet de H0 au risque si
.
Dans le cas o les variances sont inconnues mais supposes diffrentes, le test reste le t de Student avec
un degr de libert gal
2
2
s1 /n1 + s22 /n2
= 2 2
.
2 2
s1
s2
/(n
1)
+
/(n
1)
1
2
n1
n2
On comparera
t=
(x1 x2 ) (1 2 )
q 2
s22
s1
n1 + n2
au risque avec une valeur t ou t/2 selon le cas (test unilatral ou bilatral) lue avec degrs de
libert.
9.1.3
On observe un chantillon de n paires dobservations que lon notera (x1 , y1 ), , (xn , yn ), extraites de
populations de moyennes X et Y . Soit
D =X Y
et SD les variables alatoires respectivement de la moyenne observe et de lcart-type estim des diffrences entre les paires des chantillons.
On suppose que la distribution des diffrences est gaussienne.
On se ramne tester une moyenne observe et une moyenne thorique : lhypothse nulle sera
H0 : X Y = D0
et la variable
D D0
suit une distribution t de Student = n 1 degrs de libert.
SD / n
On calculera
t=
Dcision :
d D0
.
sD / n
52
9.2
9.2.1
Il sagit dune comparaison dune variance exprimentale et dune variance thorique, ou encore de ltude
de linfluence dun facteur A sur une population P et sur un chantillon.
Dans la population, on connat la variance 02 des valeurs.
Soit un chantillon E de taille n. On calcule dans cet chantillon, la moyenne x et la variance s2 exprimentales.
Hypothse nulle : H0 : 2 = 02 (la variance exprimentale de lchantillon est conforme celle de la
population)
Hypothse alternative
H1 : 2 6= 02 (test bilatral)
H1 : 2 > 02 (test unilatral)
H1 : 2 < 02 (test unilatral)
Sous lhypothse que la distribution des donnes dans la population est normale, la variable alatoire
Y2 =
n1 2
S
02
n1 2
2 s
Dcision
Dans le cas dun test bilatral,
. Si n 30 (la table ne contient pas des degrs de libert suprieurs 30), on cherche a tel que
P (2 < a) = /2 (ou P (2 a) = 1 /2 et b tel que P (2 b) = /2. Ainsi
53
9.2.2
Test dhomognt
Ce test est ncessaire pour valider lhypothse dgalit des variances du paragraphe 9.1.2.
On souhaite comparer les variances de deux populations P1 et P2 . On dispose de deux chantillons. Soit
s21 la variance dun chantillon alatoire de n1 observations extrait dune population gaussienne P1 de
variance 12 . On dispose indpendamment dun deuxime chantillon alatoire de taille n2 et de variance
s21 extrait dune population gaussienne P2 de variance 22 . Alors la variable alatoire
F =
S12 /12
S22 /22
suit une distribution F , construite comme le rapport de deux variables alatoires suivant chacune une loi
du 2 , avec un degr de libert au dnominateur gal (n1 1) et un degr de libert au dnominateur
gal (n2 1). On notera F1 ,2 avec 1 = n1 1 et 2 = n2 1.
Soit H0 lhypothse nulle 12 = 22 . Sous H0 (lorsque les variances des populations sont gales), la variable
alatoire devient
S2
F = 12 .
S2
Ainsi, on calcule le rapport
f=
s21
.
s22
Dans les applications pratiques, pour comparer correctement avec les valeurs thoriques limites de la
table F , on sarrange pour que ce rapport soit suprieur 1 en changeant le rle des deux chantillons
si ncessaire.
Dcision
Si H1 : 12 > 22 , on cherche f tel que P (F(n1 1,n2 1) f ) = . Si f > f , on rejette H0 .
Si H1 : 12 6= 22 , on cherche f/2 tel que P (F(n1 1,n2 1) f/2 ) = /2. Si f > f/2 , on rejette H0 (la
rgle semble tre une rgle pour un test unilatral mais il sagit bien dun test bilatral au risque , le
complmentaire tant test avec la rgle du rapport f > 1).
Exemple : On suppose que le total des ventes dune socit devrait varier plus dans une industrie o la
concurrence des prix est active que dans un duopole avec la collusion tacite.
Dans une tude de lindustrie de production de marchandises, il a t constat que, sur une priode de
quatre ans de concurrence active des prix, la variance du total des ventes dune compagnie tait de 114,09.
Au cours des sept annes suivantes, dans laquelle on peut supposer collusion tacite, la variance tait de
54
16,08. Supposons que les donnes peuvent tre considres comme un chantillon alatoire indpendant
de deux distributions normales. Tester au seuil de 5 %, lhypothse nulle selon laquelle les deux variances
de population sont gales contre lhypothse alternative que la variance du total des ventes est plus leve
dans les annes de concurrence active des prix.
(f = 7.095 ; f = 4.76 (1 = 3, 2 = 6) =INVERSE.LOI.F(0,05 ;3 ;6) ; H0 rejete)
Exercice : (ronces) La taille des feuilles de ronces ont t mesures pour voir si il y a une diffrence entre
la taille des feuilles qui poussent en plein soleil et celles qui poussent lombre. Les rsultats sont les
suivants (Largeur des feuilles en cm)
Soleil
Ombre
6.0
6.5
4.8
5.5
5.1
6.3
5.5
7.2
4.1
6.8
5.3
5.5
x1 = 5.05 s1 = 0.59 n1 = 8
x2 = 6.15 s2 = 0.65 n2 = 8
s = 0.62 t = 3.55 t/2 = 2.145
4.5
5.9
5.1
5.5
Chapitre
10
Z 0
L1 (M )dM ;
= P (dcider H0 /H1 vraie) = P (M 6 0 /H1 vraie) =
0
L1 (M )
.
L0 (M )
56
soit
L1 (M )
L0 (M )
C ou encore
L0 (M )
L1 (M )
1
C
= k.
La rgion critique 0 est dfinie, selon un test de Neyman et Pearson, par le rapport des fonctions de
vraisemblance associes aux deux hypothses H0 et H1 . La constante k = 1/C est dtermine par
Z
L0 (M )dM = .
r(M )C
Remarquons que les risques et sont antagonistes car plus 0 est petit, plus 0 est grand, et rciproquement.
Exemple (Dcision par test de Neyman et Pearson) : On se propose de tester la qualit dun lot important
de pices mcaniques. Soit X une caractristique alatoire de ces pices dont la loi de probabilit est une
loi normale de moyenne m et dcart-type = 4. A la suite derreurs survenant lors de la fabrication de
ces pices, on ignore si m gale 20 ou si m gale 22. On doit nanmoins prendre une dcision. Pour cela
on prlve dans un lot un chantillon alatoire de 25 pices. Quelle dcision doit-on prendre ?
Solution. Lchantillon (x1 , x2 , . . . , xn ) est de taille n = 25. Soit x la moyenne de cet chantillon.
Construisons un test selon la mthode de Neyman et Pearson. Soit 0 la rgion critique dfinie par :
L0 (M )
k,
L1 (M )
o L0 (M ) et L1 (M ) sont les fonctions de vraisemblance, associes respectivement aux hypothses H0 et
H1 :
H0
: m = m0 = 20
H1
: m = m1 = 22.
n
n
1 X
exp 2
(xi m0 )2
2 i=1
!
.
n
n
1 X
exp 2
(xi m1 )2
2 i=1
!
.
Formons le rapport :
(
" n
#)
n
X
L0 (M )
1 X
2
2
= exp 2
(xi m1 )
(xi m0 )
.
L1 (M )
2 i=1
i=1
La rgion critique, tant dfinie par
L0 (M )
k,
L1 (M )
57
soit
L0 (M )
loge k.
L1 (M )
" n
#)
n
X
1 X
2
2
loge exp 2
(xi m1 )
(xi m0 )
loge k,
2 i=1
i=1
n
n
X
X
(xi m1 )2
(xi m0 )2 2 loge k.
i=1
i=1
2 2 loge k
,
n(m0 m1 )
m0 + m1
2
loge k +
.
n(m0 m1 )
2
4
= =
5
n
25
Dsignons par f (x) la densit de probabilit correspondante.
La rgle de dcision, du test de Neyman et Pearson est :
dcider H0 (m = m0 = 20), si M 6 0 ;
dcider H1 (m = m1 = 22), si M 0 .
Pour que M appartienne 0 , il faut que la moyenne x soit suprieure ou gale :
x 21 0.32 loge k.
58
Lerreur de premire espce est gale la probabilit de dcider H1 , alors que lhypothse H0 est vraie :
= P ({dcider H1 / H0 vraie});
= P ({M 0 / H0 vraie});
= P ({M 0 / m = m0 = 20});
= P ({x / m = 20}).
Z=
soit :
X m
Z=
do
=
X 20
4
5
4
z + 20;
5
= 0, 05 =
z
ou encore
0, 95 =
2
1
eU /2 dU,
2
2
1
eU /2 dU = (z ).
2
4
(1.65) + 20,
5
21, 32.
2
1
eU /2 dU = ().
2
59
22
4
5
21.32 22
,
0.8
0.85,
do la valeur de :
0.1977
21 21.32
= 1,
0.32
k = e1 = 0.368.
60
Chapitre
11
11.1
Test de Mann-Whitney
Le test de Mann-Whitney est un test non paramtrique qui permet de tester si deux chantillons issus
de populations indpendantes ont mme moyenne. Les valeurs doivent tre numriques (i.e. pouvoir tre
ordonnes). Il ne ncessite pas de connatre les valeurs des chantillons mais leurs rangs. On suppose donc
toujours que lon dispose de deux chantillons x1 , . . . , xn et y1 , . . . , ym issus de variables numriques ou
ordinales indpendantes, de lois respectives LX et LY . On teste H0 : LX = LY ou encore par rapport
aux fonctions de distribution H0 : FX = FY .
Le test de Mann-Whitney compte le nombre de couples pour lesquels Xi < Yj . Lalternance des Xi et
des Yj devrait tre assez rgulire sous H0 . On aura des doutes sur H0 si les Yj sont plutt plus grands
que les Xi , ou plus petits ou plus frquents dans une certaine plage de valeurs.
Statistique du test de Mann-Whitney :
Un,m =
n X
m
X
1{x<y} (Xi , Yj ),
i=1 j=1
62
On peut galement calculer cette statistique en considrant la somme R1 de tous les rangs aprs ordonnancement des observations de la premire population. On a alors
U1 = R1
n1 (n1 + 1)
.
2
On aura de mme,
n2 (n2 + 1)
2
o R2 est la somme des rangs du deuxime chantillon.
U2 = R2
Z=q
n1 n2
2
6.0
6.5
4.8
5.5
5.1
6.3
5.5
7.2
4.1
6.8
5.3
5.5
4.5
5.9
5.1
5.5
Valeurs ordonnes
E1
E2
rang
rang moyen
4.1
4.5
4.8
5.1
5.1
5.3
1
1
2
2
3
3
4
4.5
5
4.5
6
6
5.5
7
8.5
5.5
8
8.5
5.5
9
8.5
5.5
10
8.5
5.9
11
11
6.0
12
12
U1
8 + 8 + 8 + 8 + 8 + 8 + 6.5 + 4 = 58.5
U2
R1
R2
6.3
13
13
6.5
14
14
6.8
15
15
7
16
16
63
11.2
Le test de Wilcoxon est un test non paramtrique qui permet de tester si deux populations apparies ont
mme moyenne en se basant sur deux chantillons.
Sur les N paires observes, il reste quun chantillon de n diffrences non nulles (on enlve les lments
de diffrence nulle)
Soient di (pour i = 1 n) les diffrences entre chaque paire dobservations. Nous classons les rangs des
valeurs absolues de ces diffrences. La statistique de Wilcoxon tient compte uniquement des rangs des
observations.
La statistique de rangs signs de Wilcoxon scrit :
X
X
W = min(
ri ,
ri ).
di >0
di <0
Rgle de dcision : On ne peut rejeter H0 si W ]W/2 , W1/2 [ avec W1/2 = n(n + 1)/2 W/2 . Les
tables ne donnent que W/2 : on rejette H0 lorsque W < W/2 dans le cas bilatral.
Dans le cas des grands chantillons, lorsque n est suprieur 25, il peut tre dmontr que la somme
des rangs est pratiquement normale ; on utilise alors lapproximation normale
W
Z=q
n(n+1)
4
N (0, 1).
n(n+1)(2n+1)
24
Remarque : Il existe dautres tests. Par exemple, le test des signes nutilise que linformation sur la
direction des diffrences entre paires. Si nous pouvons prendre en compte, en plus, la grandeur des
diffrences, un test plus puissant peut tre utilis : le test de Wilcoxon donne plus de poids une paire
qui montre une large diffrence entre les deux conditions, qu une paire ayant une faible diffrence. Cela
implique que lon puisse dire quel membre dune paire est plus grand que lautre (donner le signe de la
diffrence), mais aussi que lon puisse ranger les diffrences en ordre croissant.
Exemple : Un chantillon alatoire de dix tudiants est consult pour noter, dans un test laveugle, la
qualit de deux types de bire, lune locale, lautre importe. Les notes sont sur une chelle de 1 (pas bon)
10 (excellent). Utiliser le test de Wilcoxon pour tester lhypothse nulle la distribution des diffrences
entre paires est centre sur zro contre lhypothse alternative "La population des tudiants buveurs de
bires prfre la catgorie dimportation.
Etudiant
A
B
C
D
E
Locale
2
3
7
8
7
Import
6
5
6
8
5
Etudiant
F
G
H
I
J
Locale
4
3
4
5
6
Import
8
9
6
4
9
64
Diffrences : -4 ; -2 ; 1 ; 0 ; 2 ; -4 ; -6 ; -2 ; 1 ; -3
Tri
rang
rang moyen
ri > 0
ri < 0
0
-
1
1
1,5
1,5
1
2
1,5
1,5
-2
3
4
4
2
4
4
4
-2
5
4
-3
6
6
-4
7
7,5
-4
8
7,5
-6
9
9 Ainsi W = min(7, 38) = 7
7,5
7,5
11.3
Pour valider lexistence dun lien entre deux variables, on ralise ordinairement une rgression linaire
simple, voire une rgression non linaire. La qualit du lien suppos est mesure par le coefficient de
corrlation (dit de Pearson ). Cependant, il existe des situations pour lesquelles une mesure de la
corrlation sur les valeurs est inadapte. Si les variables sont ordinales, discrtes, ou si des valeurs extrmes
risquent de biaiser les rsultats, ou encore que les valeurs en elles-mmes nont que peu dimportance, ou
enfin quelles ne suivent pas une loi normale, il nous reste un joker : les corrlations des rangs.
On nutilise alors pas les VALEURS des observations dans les calculs mais leur RANG.
Le rang de chaque lment dans la srie croissante de X et de Y sera calcul. On calcule ensuite le
coefficient de corrlation rs entre la srie des rangs de X et la srie des rangs de Y . On peut retrouver
cette valeur ainsi :
1. calculer la diffrence de classement di pour chaque couple de valeur (rxi , ryi ).
2. la valeur rs sera donne par
n
X
6
rs = 1
d2 .
n(n2 1) i=1 i
La variable Rs sous lhypothse dindpendance des deux variables a pour esprance E(Rs ) = 0 et pour
1
variance V (Rs ) = n1
.
s E(Rs )
= Rs n 1 suit la loi normale centre rduite. Si n 30, les valeurs
Si n > 30 alors Z = R
V (Rs )
1
1
5
2
5
3
3
3
9
4
8
10
5
10
2
6
4
1
7
2
6
8
7
8
9
6
7
10
9
4
65
Table de Mann-Whitney
Rfrence : Table A5.07 : Critical Values for the Wilcoxon/Mann-Whitney Test (U)
n1
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
n2
0
0
0
0
1
1
1
1
1
2
2
2
2
0
1
1
2
2
3
3
4
4
5
5
6
6
7
7
8
0
1
2
3
4
4
5
6
7
8
9
10
11
11
12
13
14
0
1
2
3
5
6
7
8
9
11
12
13
14
15
17
18
19
20
1
2
3
5
6
8
10
11
13
14
16
17
19
21
22
24
25
27
7
8 9 10 11 12
0 0 0 0 1
1
2 2 3 3 4
3
4 4 5 6 7
5
6 7 8 9 11
6
8 10 11 13 14
8 10 12 14 16 18
10 13 15 17 19 22
12 15 17 21 23 26
14 17 20 23 26 29
16 19 23 26 30 33
18 22 26 29 33 37
20 24 28 33 37 41
22 26 31 36 40 45
24 29 34 39 44 49
26 31 37 42 47 53
28 34 39 45 51 57
30 36 42 48 55 61
32 38 45 52 58 65
34 41 48 55 62 69
13
1
4
8
12
16
20
24
28
33
37
41
45
50
54
59
63
67
72
76
14
1
5
9
13
17
22
26
31
36
40
45
50
55
59
64
67
74
78
83
15
1
5
10
14
19
24
29
34
39
44
49
54
59
64
70
75
80
85
90
16 17
1
2
6
6
11 11
15 17
21 22
26 28
31 34
37 39
42 45
47 51
53 57
59 63
64 67
70 75
75 81
81 87
86 93
92 99
98 105
18 19 20
2
2
2
7
7
8
12 13 13
18 19 20
24 25 27
30 32 34
36 38 41
42 45 48
48 52 55
55 58 62
61 65 69
67 72 76
74 78 83
80 85 90
86 92 98
93 99 105
99 106 112
106 113 119
112 119 127
n1
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
n2
0
0
0
0
0
1
1
1
2
2
2
2
3
3
0
0
1
1
2
2
3
3
4
5
5
6
6
7
8
6
7
0
0
0
1
1
1
2
3
1
3
4
2
4
6
3
5
7
4
6
9
5
7 10
6
9 12
7 10 13
7 11 15
8 12 16
9 13 18
10 15 19
11 16 21
12 17 22
13 18 24
1
2
4
6
7
9
11
13
15
17
18
20
22
24
26
28
30
0
1
3
5
7
9
11
13
16
18
20
22
24
27
29
31
33
36
10
0
2
4
6
9
11
13
16
18
21
24
26
29
31
34
37
39
42
11
0
2
5
7
10
13
16
18
21
24
27
30
33
36
39
42
45
46
12
1
3
6
9
12
15
18
21
24
27
31
34
37
41
44
47
51
54
13
1
3
7
10
13
17
20
24
27
31
34
38
42
45
49
53
56
60
14
1
4
7
11
15
18
22
26
30
34
38
42
46
50
54
58
63
67
15
2
5
8
12
16
20
24
29
33
37
42
46
51
55
60
64
69
73
16
2
5
9
13
18
22
27
31
36
41
45
50
55
60
65
70
74
79
17
2
6
10
15
19
24
29
34
39
44
49
54
60
65
70
75
81
86
18
2
6
11
16
21
26
31
37
42
47
53
58
64
70
75
81
87
92
19
0
3
7
12
17
22
28
33
39
45
51
56
63
69
74
81
87
93
99
20
0
3
8
13
18
24
30
36
42
46
54
60
67
73
79
86
92
99
105
66
Table de Wilcoxon
Critical Values of the Wilcoxon Signed Ranks
n
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
Test bilatral
= 0.05 = 0.01
0
2
3
0
5
1
8
3
10
5
13
7
17
9
21
12
25
15
29
19
34
23
40
27
46
32
52
37
58
42
65
48
73
54
81
61
89
68
98
75
107
83
116
91
126
100
137
109
Test unilatral
= 0.05 = 0.01
0
2
3
0
5
1
8
3
10
5
13
7
17
9
21
12
25
15
30
19
35
23
41
27
47
32
53
37
60
43
67
49
75
55
83
62
91
69
100
76
110
84
119
92
130
101
140
110
151
120
Ref : http://facultyweb.berry.edu/vbissonnette/tables/wilcox_t.pdf
Calcul des valeurs sur : http://comp9.psych.cornell.edu/Darlington/wilcoxon/wilcox0.htm
67
1%
1.000
.943
.893
.833
.783
.745
.709
.678
.648
.626
.604
.582
.566
n
18
19
20
21
22
23
24
25
26
27
28
29
30
40
5%
.401
.391
.380
.370
.361
.353
.344
.337
.331
.324
.318
.312
.306
.264
1%
.550
.535
.522
.509
.497
.486
.476
.466
.457
.449
.441
.433
.425
.368
Les donnes de la table sont les plus petites valeurs de (jusqu 3 dcimales) qui correspondent une probabilit
5% (ou 1%) sur un seul ct. La valeur observe est significative si elle est suprieure ou gale la valeur de la
table. Le niveau de signification exact ne dpasse jamais la valeur nominale (5% ou 1%). La table peut galement
tre utilise pour les valeurs critiques 10% et 2% dun test bilatral. Ltoile indique que la signification associe
au risque propos ne peut tre calcule dans ce cas.
5 1.000
6 .886
7 .786
8 .738
9 .700
10 .648
11 .618
12 .587
13 .560
14 .538
15 .521
16 .503
17 .488
1%
1.000
.929
.881
.883
.794
.755
.727
.703
.679
.654
.635
.618
n
18
19
20
21
22
23
24
25
26
27
28
29
30
40
5%
.472
.460
.447
.436
.425
.416
.407
.398
.390
.383
.375
.368
.362
.313
1%
.600
.584
.570
.556
.544
.532
.521
.511
.501
.492
.483
.475
.467
.405
Les donnes de la table sont les plus petites valeurs de (jusqu 3 dcimales) qui correspondent une probabilit
5% (ou 1%) sur les deux cts. La valeur observe est significative si elle est suprieure ou gale la valeur de la
table. Le niveau de signification exact ne dpasse jamais la valeur nominale (5% ou 1%). La table peut galement
tre utilise pour les valeurs critiques 2.5% et 0.5% dun test unilatral. Ltoile indique que la signification
associe au risque propos ne peut tre calcule dans ce cas.
Ref : http://www.answers.com/topic/critical-values-for-spearman-s-rank-correlation-coefficient
Annexe
X
E (
Xi )2 )
=
n
X
E(Xi2 )
n
X
i=1
i=1
n
X
n
X
E(Xi ) +
i=1
n
X
i6=j
X
E
Xi Xj
i=1
E(Xi ) +
n X
X
car Xi = 0 ou 1
j6=i
E(Xi )E(Xj )
car Xi , Xj indpendantes.
i=1 j6=i
i=1
X
E (
Xi )2 )
=
X
E
Xi Xj
np + n(n 1)p2 .
E
1X
1X
Xi (1
Xi )
=
n
n
=
Donc
n
n
X
X
X
1
1
E
Xi
Xi
Xj )
n
n i=1
j=1
n
n
X
X
1
1
(np) 2 (E
Xi
Xj )
n
n
i=1
j=1
1
1
2
p 2 (np + n(n 1)p ) = p(1 p) 1
n
n
Xi )3 ), de E((
Xi )4 ) et de E([F (1 F )]2 ).
69
n
n X
n X X
X
X
X
X
E (
Xi )3 )
=
E(Xi3 ) +
E(Xi2 )E(Xj ) +
E(Xi )E(Xj )E(Xk )
i=1
X
E (
Xi )4 )
=
i=1 j6=i
3
n
X
E(Xi4 ) +
i=1
n X
X
E(Xi2 )E(Xj2 ) +
n X X
X
X X
E([F (1 F )]2 )
et
E(Xi3 )E(Xj ) +
i=1 j6=i
n X
X
i=1 j6=i
E((
1X
1X
Xi )2 (1
Xi )2 )
n i=1
n i=1
E((
1X
2X
1X
Xi )2 (1
Xi +
Xi )2 )
n i=1
n i=1
n i=1
E((
n
n
n
1 X
2 X
1 X
2
3
(
X
)
(
X
)
+
(
Xi )4 )
i
i
n2 i=1
n3 i=1
n4 i=1
n+
Maintenant
2 !
1
E
F (1 F ) pq(1 )
n
1
1
= E [F (1 F )]2 2p(1 p)(1 )F (1 F ) + [p(1 p)(1 )]2
n
n
2
1
= E [F (1 F )]2 p(1 p)(1 )
n
Ainsi
2
lim E [F (1 F ) pq(1 1/n)] = p2 2p3 + p4 [p(1 p)(1 1/n)]2 = 0.
n+
Donc
n
n1 F (1
1 Lois statistiques
1.1
1.2
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.1
Fonction de rpartition
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.2
Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1
1.2.2
Loi du 2 (khi-deux) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.3
Loi de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.4
Loi de Fisher-Snedecor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.5
2 Convergences
2.1
Convergence en probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.1
Ingalits utiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.2
Convergence en probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
2.1.3
11
2.1.4
11
2.2
Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
2.3
13
2.3.1
Continuit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
2.3.2
13
2.3.3
convergence de P vers N
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
2.3.4
convergence de B vers N
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
2.3.5
Correction de continuit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
3 Echantillonnage, Estimations
17
71
3.1
3.2
Echantillonnage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
3.1.1
. . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
3.1.2
Frquence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
21
3.2.1
Estimateur ponctuel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
3.2.2
22
3.2.3
23
3.2.4
23
4 Intervalles de confiance
27
4.1
27
4.2
Moyenne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
28
4.3
Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
29
31
5.1
31
5.2
32
6 Test dindpendance
33
6.1
33
6.2
34
7.2
37
Cas gnral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
37
7.1.1
Test dadquation du . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
37
7.1.2
Test de Kolmogorov-Smirnov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
38
Test de normalit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
7.2.1
39
7.2.2
41
43
8.1
43
8.2
Test de conformit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
43
8.3
Test dhomognit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
45
49
49
9.1.1
Test de conformit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
49
9.1.2
50
72
9.1.3
9.2
51
52
9.2.1
Test de conformit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
52
9.2.2
Test dhomognt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
53
55
61
61
63
64
Table de Mann-Whitney . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
65
Table de Wilcoxon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
66
67
68
Dure : 12h de cours
12 h TD + 6h TP
TP
TP
TP
TP
n1
n2
n3
n4
:
:
:
:
Tests de normalit
Tests moyennes, pourcentages
Test non-paramtriques.
Sur le risque