Vous êtes sur la page 1sur 6

Loi normale (ou de Laplace-Gauss)

Une loi très importante, utilisée par exemple : variation du diamètre


d’une pièce dans une fabrication, répartition des erreurs de mesure
autours de la vraie valeur,....Le théorème central limite lui donne un
rôle capital : la moyenne de v.a. indépendantes et de même loi suit
asymptotiquement une loi normale. D’où son utilité en échantillonnage.

Définition
X suit une loi normale, on note X N (µ, ) si sa densité est :

1 1
(x µ 2
) , 8x 2 IR
f (x) = p e 2
2⇡
R 1
(x µ 2
) dx = 1 ou
On admet que f est une densité donc, p1 e 2
IR 2⇡
Z p
µ 2
e
1
2 (x ) dx = 2⇡ (2)
IR F IGURE – Densité - Loi normale

Statistique 3 (5009) 62 / 113 Statistique 3 (5009) 63 / 113

Propriétés Espérance et variance


Z
X µ 1 x µ 1
(x µ 2
) dx
E( )= p e 2
2⇡ IR
Avec le changement de variable y = x µ donc, dy = dx, on a
Z
X µ 1 1 2 1 1 2
E( )= p ye 2 y dy = p [ e 2 y ]+1 1 =0
2⇡ IR 2⇡
F IGURE – Densité - Loi normale E(X ) µ
Donc, = 0 ou encore
Si X N(µ; ), La courbe de sa densité est symétrique par rapport à E(X ) = µ
la droite verticale x = µ, d’où
P(X  µ) = P(X µ) = 12 , V(X µ
) = E(( X µ 2
) ) E( X µ 2
) = E(( X µ 2
) )
R 1 x µ 2
P(X  µ h) = P(X µ + h) = 1 P(X 2[µ h;µ+h])
, 8h >0 E(( X µ 2
) ) = p1 ( x µ )2 e (
2 ) dx
2 2⇡ RIR
1 2
Valeurs particulières = p1 y (ye 2 y ) dy
2⇡ ⇣IR ⌘
P(µ 1, 64 < X < µ + 1, 64 ) = 0, 90 1 2 R 1 2
= p [y ( e 2 y )]+11 IR e 2
y
dy
P(µ 1, 96 < X < µ + 1, 96 ) = 0, 95 2⇡
1
R 1 2
y
P(µ 3, 09 < X < µ + 3, 09 ) = 0, 99 = p e 2 dy
2⇡ IR
Statistique 3 (5009) 64 / 113 Statistique 3 (5009) 65 / 113
Avec la variable y ,
Z Z p p
1 2
y
e 2 dy = e
1
2 (x ) 1 dx = 1
µ 2
2⇡ = 2⇡
IR IR
Du calcul précédent : Propriété
1) La loi normale admet des moments de tout ordre.
X µ X µ 1 p 2) Si X N(µ1 ; 1 ), Y N(µ
q 2 ; 2 ) et X et Y sont indépendantes
V( ) = E(( )2 ) = p 2⇡ = 1
2⇡ alors, X + Y N(µ1 + µ2 , 2
1 + 2
2)

d’où
X µ 1
V( )= 2
V (X ) = 1

Ou encore,
2
V (X ) =

Statistique 3 (5009) 66 / 113 Statistique 3 (5009) 67 / 113

2
Loi normale centrée réduite Loi du khi-deux ( )
Définition
Définition Soit X1 , X2 , ..., Xn indépendantes et suivant chacune N (0; 1). Alors,
La v.a. X suit la loi normale centrée réduite, on note X N(0; 1) si sa
densité est X12 + X22 + ... + Xn2 2
n
1 1 2
f (x) = p e 2 x , 8x 2 IR
2⇡ E( 2) =n
n
V( 2) = 2n
n
C’est donc un cas particulier de la loi N (µ; ) générale. 2 ,Y 2
Si X n m et X et Y sont indépendantes, alors,
La densité de N (0; 1) est centrée en 0, sa courbe est symétrique X +Y 2
n+m
par rapport à l’axe des ordonnées.

X N (0; 1) =) E(X ) = 0 et V (X ) = 1 Exemple


X N (0, 1).
X µ Donner la loi de X 2 , son espérance et sa variance.
X N (µ; ) =) N (0; 1)

Lecture tables statistiques


Statistique 3 (5009) 68 / 113 Statistique 3 (5009) 69 / 113
Échantillonnage Espérance empirique
Notons, E(X ) = m, V (X ) = 2 et µk (moment centré d’ordre k ) les
On dispose d’une population ⌦ et d’une v.a. X (définie sur ⌦)
caractéristiques de X .
suivant une loi P.
Caractéristique de l’échantillon :
Un échantillon (aléatoire) de taille n est un n-uplet (X1 , ..., Xn ) de La moyenne de l’échantillon (moyenne empirique) :
v.a. indépendantes suivant une même loi parente P de X . On dit n
aussi un n-échantillon de X (ou issu de X ) ou encore un 1X
X = Xi
échantillon théorique. n
i=1
Les valeurs observées (mesurées) x1 , x2 , ..., xn sont des Propriété. On a
réalisations respectives des v.a. X1 , ..., Xn ou de l’échantillon. 2
E(X ) = m et V (X ) =
n
Définition n n
1 X 1 X
Une statistique T est une v.a. fonction mesurable de X1 , ..., Xn , E(X ) = E( Xi ) = E(Xi ) = m
n n
i=1 i=1
T = f (X1 , ..., Xn )
De l’indépendance des Xi
P n n
exemple f (X1 , ..., Xn ) = n1 Xi = X . 1X 1 X 2

Autre terminologie, caractéristique=statistique. V (X ) = V ( Xi ) = 2 V (Xi ) =


n n n
i=1 i=1
Statistique 3 (5009) 70 / 113 Statistique 3 (5009) 71 / 113

Variance empirique Décomposition de S 02


La variance de l’échantillon (ou empirique) est
n
!
n
1X 1X 2
02
S = (Xi X) 2 S = 02
(Xi m) (X m)2
n n
i=1 i=1

Propriété. En effet, P
!
n
X S 02 = n1 ni=1 (Xi m + m X )2
1 2
S 02 = Xi2 X n
P
n = n1 [(Xi m)2 2(Xi m)(X m) + (X m)2 ]
i=1 i=1
n n n
En effet, 1P P 1P
n
P n
P = ( n (Xi m)2 2 n1 (Xi m)(X m) + n (X m)2
1 1 2
S 02 = n (Xi X )2 = n (Xi2 2Xi X + X ) i=1
n
i=1
n
i=1
1P P
i=1
Pn n
P
i=1
n
P = ( n (Xi m)2 ) 2(X m) n1 (Xi m) + (X m)2
2
= ( n1 Xi2 ) 2 n1 Xi X + 1
n X i=1
n
i=1
1P
i=1
n
i=1
n
i=1
n = ( n (Xi m)2 ) 2(X m)(X m) + (X m)2
1P 2 P 2 P 2
= ( n Xi ) 2X n1 Xi +X = ( n1 Xi2 ) 2X X + X ✓ i=1n ◆
1P
✓ i=1n ◆ i=1 i=1 = n (Xi m)2 (X m)2
1P 2 2
= n Xi X i=1
i=1
Statistique 3 (5009) 72 / 113 Statistique 3 (5009) 73 / 113
Biais de S 02

Théorème
n 1 E(S 02 ) 6= 2 . On dit que S 02 est une statistique biaisée de 2 . Pour
2
E(S 02 ) = cette raison, on introduit la variance empirique modifiée (ou corrigée) :
n
n
X
1
Démonstration. S2 = (Xi X )2

n
◆ n 1
P i=1
E(S 02 ) = E[ n1 (Xi m)2 (X m)2 ]
✓ n i=1 ◆ ainsi, S 2 = n n 1 S 02 et E(S 2 ) = n
n 1 E(S )
02 = n n 1 2
n 1 n = 2 et donc S 2
1P 2
= n E[(Xi m) ] E[(X m)2 ] est sans biais.
i=1
✓ n ◆
P
= n1 V (Xi ) V (X )
i=1
2 n 1 2
= 2 =
n n

Statistique 3 (5009) 74 / 113 Statistique 3 (5009) 75 / 113

Échantillon gaussien
Ici, X N (m, ). Donc, X1 , ..., Xn est un échantillon de N (m; ).
Comme les Xi sont indépendantes, 2,
On déduit des propriétés de la loi que
X N (m, p )
n n 1 2
E(S 02 ) =
n
Théorème n 1 4
nS 02 1)S 2 V (S 02 ) = 2
=
(n 2 n2
2 2 n 1
Et aussi,
E(S 2 ) = 2
Remarque
2
le degré de liberté n 1 est du au nombre de termes indépendants V (S 2 ) = 4
n 1
(parmi les Xi X ) dont la somme des carrés constitue nS 02 .

Théorème (de Fisher)


X et S 2 sont indépendantes ssi X1 , X2 , ..., Xn est un échantillon de loi
normale.
Statistique 3 (5009) 76 / 113 Statistique 3 (5009) 77 / 113
Exemple
On prélève 25 pièces d’une production industrielle. Les études Des sondages établissent de façon certaine qu’au cours de l’année
préalables ont démontré que le diamètre de ces pièces suit N (10, 2). 2013, le salaire dans un pays donné suit la loi normale N(2015, 500).
Entre quelles valeurs a-t-on 90% de chances de trouver le diamètre Pour savoir si ces salaires suivent toujours la même loi en 2018, on
moyen de ces 25 pièces et leurs variance ? prélève un échantillon de n = 101 personnes.
X N (10; p225 ). Donc avec une proba de 0.9 on a On note X1 , ..., Xn l’échantillon aléatoire de taille n correspondant :
n
10 1.64 p225 < X < 10 + 1.64 p225 ou bien P 2
1. Quelle est la loi de X̄ = n1 Xi et de (n 1)S 2 , où = 500 ?
i=1
9, 34 < X < 10, 66 2. Donner un intervalle contenant 90% des valeur de X̄ et de S 2 .
nS 02 2 . On lit sur la table de loi 2 les fractiles 3. Sur l’échantillon prélevé on obtient après calcul les valeurs
2 24
particulières du salaire moyen (une valeur de la moyenne
t1 , t2 , tels que P( 2
< t1 ) = 0.05 et P( 2
< t2 ) = 0.95. empirique) de 1900e et une variance de 450e. Commenter ces
24 24
résultat en relation avec les intervalles trouvés en 2.
On a t1 = 13, 848 et t2 = 36, 415
4 4
D’où S 02 2 [ 25 13, 848; 25 36, 415].

Statistique 3 (5009) 78 / 113 Statistique 3 (5009) 79 / 113

Loi de Student et échantillon de loi Normale Application


Définition
La loi de Student à n degré de liberté, notée Tn est définie comme
suit : Soient U et Y deux v.a. indépendantes tq :

2 U Le résultat précédent est très utile car il ne dépend pas de , on


U N (0; 1) et Y n alors, q Tn utilisera donc cette formule à chaque fois que est inconnu.
Y
n
Exemple
n
E(Tn ) = 0 et V (Tn ) = , 8n > 2 On prélève un échantillon de taille n = 61 de loi parente N(µ, ). On
n 2 mesure sur l’échantillon les valeurs X = 11, S = 6. Donner un
n p
1P X m intervalle de probabilité 90% pour µ.
On a X = n Xi N (m; pn ) donc, n N (0, 1)
i=1
(n 1)S 2 2 . X m
p
D’autre part 2 n 1 D’après le théorème de Ficher, n et
(n 1)S 2
2 sont indépendantes. Il en résulte
s
(n 1)S 2
X m p 2 X mp
( n)/( )= n Tn 1
n 1 S
Statistique 3 (5009) 80 / 113 Statistique 3 (5009) 81 / 113
Loi de Fisher-Snedecor
Définition
La loi de Fisher-Snedecor à n et m degrés de liberté, notée F (n, m),
est définie comme suit : Si U 2, Y 2 et U et Y sont
n m
U/n
indépendantes, alors, Y /m F (n, m)
m 2m2 (n+m 2)
E(F (n, m)) = m 2 , 8m > 2 et V (F (n, m)) = n(m 22 )(m 4)
, 8m >4

Exemple
X2
X , Y , Z et W sont des v.a. IID, suivant N (0, 1). Posons R = Y 2 +Z 2 +W 2
Donner t0.95 tq P(R  t0.95 ) = 0.95
On a X 2 2 et Y 2 + Z 2 + W 2
1
2 . D’où
3
X2
3 Y 2 +Z 2 +W 2 = 3R F (1, 3). On lit de la table de F (1, 3)

P(3R  x) = 0.95, on lit x = 10.1, donc t0.95 = 10.1/3

Application de F (n, m) : tests d’hypothèses non traités ici.


Statistique 3 (5009) 84 / 113

Vous aimerez peut-être aussi