Académique Documents
Professionnel Documents
Culture Documents
1
Dédicace
À la mémoire de ma mère.
CONTENTS
I PROBABILITÉS 3
1 ANALYSE COMBINATOIRE 4
1.1 GÉNÉRALITÉS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 L’ensemble étudié et ces éléments . . . . . . . . . . . . . . . . . . . 4
1.1.2 Di¤érentes dispositions . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 Principe Fondamental de l’Anlyse Combinatoire . . . . . . . . . . . 5
1.1.4 Principe d’addition . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 ARRANGEMENTS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 Arrangements avec répétition . . . . . . . . . . . . . . . . . . . . . 6
1.2.2 Arrangements sans répétitions . . . . . . . . . . . . . . . . . . . . . 7
1.2.3 PERMUTATIONS . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 COMBINAISONS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.1 Combinaisons sans répétition . . . . . . . . . . . . . . . . . . . . . 10
1.3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.3 Combinaisons avec répétition . . . . . . . . . . . . . . . . . . . . . 12
1.4 TRIANGLE DE PASCAL ET BINÔME DE NEWTON . . . . . . . . . . 13
1.4.1 Triangle de Pascal . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.2 Binôme de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1
Contents 2
3 PROBABILITÉS. 22
3.1 Expériences, Evénements Aléatoires . . . . . . . . . . . . . . . . . . . . . . 22
3.1.1 Dé…nitions générales . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.1.2 Opérations sur les événements . . . . . . . . . . . . . . . . . . . . . 24
3.2 Probabilité et Espace probabilisé . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.1 Propriétés élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.3.1 Evénements dépendants . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5 LOIS USUELLES 78
5.1 Lois discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Contents
Contents 3
II STATISTIQUE 118
Contents
Contents 4
7 Estimation 186
7.1 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
7.1.1 Dé…nitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . 186
7.2 Estimation par intervalle de con…ance . . . . . . . . . . . . . . . . . . . . . 192
7.2.1 Dé…nition et principe de construction . . . . . . . . . . . . . . . . . 192
7.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
8 TESTS 209
8.1 Dé…nitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
8.1.1 Hypothèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
8.1.2 Statistique de test . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
8.1.3 Risques associés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
8.1.4 Seuil de signi…cation du test . . . . . . . . . . . . . . . . . . . . . . 211
8.1.5 Niveau et puissance . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
8.1.6 Région critique. Région d’acceptation . . . . . . . . . . . . . . . . . 212
8.2 Tests paramétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
8.2.1 Test sur l’espérance d’une loi normale . . . . . . . . . . . . . . . . . 217
8.2.2 Test sur l’écart type normale . . . . . . . . . . . . . . . . . . . . . . 218
8.2.3 Test sur une proportion . . . . . . . . . . . . . . . . . . . . . . . . 218
8.3 Comparaison de deux échantillons . . . . . . . . . . . . . . . . . . . . . . . 219
8.3.1 Comparaison de deux moyennes . . . . . . . . . . . . . . . . . . . . 219
8.3.2 Comparaison de deux variances: . . . . . . . . . . . . . . . . . . . . 220
8.3.3 Comparaisons de deux proportions . . . . . . . . . . . . . . . . . . 220
8.4 Deux échantillons appariés . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
8.5 Tests non-paramétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
8.5.1 Test de Wilcoxon-Mann-Whitney pour 2 échantillons indépendants 222
8.5.2 Test de Wilcoxon pour échantillons appariés . . . . . . . . . . . . . 222
8.5.3 Test de Kruskal-Wallis pour plusieurs échantillons . . . . . . . . . . 223
8.6 Test de Khi-deux 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
8.6.1 Test de 2 pour une loi uniforme discrète . . . . . . . . . . . . . . . 223
8.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
8.8 Tables statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
8.8.1 Table des quantiles de la loi normale . . . . . . . . . . . . . . . . . 231
8.8.2 Fonction de répartition de la loi normale centrée réduite . . . . . . 232
8.8.3 Table des quantiles de la loi kh-deux . . . . . . . . . . . . . . . . . 233
8.8.4 Table de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
Contents
Contents 5
Bibliography 235
Contents
Contents 6
INTRODUCTION
Aucune spécialité scienti…que ne peut se passer de statistique et de probabilités, car elles
sont incluses dans tous les domaines de la vie quotidienne. Et en raison de l’importance de
cette matière, elle devrait être enseignée à la majorité des spécialités universitaires. Par
conséquent, dans ce polycopié, qui s’adresse spéci…quement aux étudiants de première
année en pharmacie, j’ai un peu développé et ajouté quelques chapitres dont nous ne
pouvons pas comprendre les leçons programmées, comme l’analyse combinatoire et la
théorie des ensembles par rapport au probabilités et les estimations par rapport au tests,
ainsi qu’au pro…t du reste des étudiants tels que les étudiants en médecine, en médecine
dentaire, en biologie, même les étudiants en mathématiques et en informatique.
Pour compléter notre polycopié, je me suis appuyé sur plusieurs références di¤érentes.
J’ai également présenté les chapitres de manière détaillée et claire, en donnant les preuves,
exemples et illustrations nécessaires pour permettre aux étudiants de comprendre facile-
ment le contenu. J’ai également joint chaque chapitre avec des exercices résolus a…n de
consolider les concepts parmi les étudiants.
Nous avons divisé ce polycopié comme suit: La première partie l’a consacré aux probab-
ilités, et il comprenait: l’analyse combinatoire, la théorie des ensembles, les probabilités,
les variables aléatoires unidimensionnelles et bidimensionnelles, les lois usuelles discrètes
et continues, ainsi que le théorème de limite centrale. La deuxième partie, la statistique,
dans laquelle elle traitait des variables statistiques unidimensionnelles et à deux dimen-
sions, et dans la dernière partie, les tests staistiques et les estimations, dans lesquels
l’estimation par intervalle de con…ance et certains types de tests paramétriques et non
paramétriques. En…n, nous espérons que nos étudiants béné…cieront de cette note et les
aideront à comprendre le module et de la maîtriser.
Contents
Part I
PROBABILITÉS
7
CHAPTER 1
ANALYSE COMBINATOIRE
L’analyse combinatoire (A.C) est le dénombrement des dispositions que l’on peut former
à l’aide des éléments d’un ensemble …ni. L’(A.C) est utilisé particulièrement en théorie
des probabilités dites combinatoires.
1.1 GÉNÉRALITÉS
1.1.1 L’ensemble étudié et ces éléments
Représentons les éléments d’un ensemble comporte n éléments par x1 ; x2 ; :::; xn :
Si xi et xj sont équivalents, on dit qu’ils sont indiscernables. Si xi et xj sont di¤érents,
on dit qu’ils sont discernables.
On notera les éléments indiscernables d’un ensemble …ni par la même lettre et les
éléments discernables ou distincts par des lettres di¤érentes.
Les n éléments de peuvent être:
- tous discernables = fx1 ; x2 ; :::; xn g avec xi 6= xj pour i 6= j;
- tous indiscernables = fx; x; x; :::; xg ;
- certains sont indiscernables = fx1 ; x1 ; :::; x1 ; x2 ; x2 ; :::; x2 ; :::; xk ; xk ; :::; xk g
Pk
Si le nombre des xi est ni , (i = 1; 2; :::; k); avec n = ni : Dans ce cas l’ensemble
i=1
est formé de k groupes, chaque groupe i contient ni éléments indiscernables. On dira que
ni est le nombre de répétitions de l’élément xi dans :
8
Chapter 1. ANALYSE COMBINATOIRE 9
Dé…nition 1.1 Disposition avec répétition: C’est une disposition où un élément peut
…gurer plus d’une fois.
Dé…nition 1.2 Disposition sans répétition: C’est une disposition où un élément peut
apparaître 0 ou 1 fois.
Dé…nition 1.3 Disposition ordonnée: L’ordre d’obtention d’un élément est import-
ant.
Exemple 1.1 (2; 4; 6) ; (2; 6; 4) ; (4; 2; 6) ; (4; 6; 2) ; (6; 2; 4) ; (6; 4; 2) sont des disposi-
tions ordonnées qui sont toutes di¤érentes.
f2; 4; 6g ; f2; 6; 4g ; f4; 2; 6g ; f4; 6; 2g ; f6; 2; 4g ; f6; 4; 4g ; sont des dispositions non
ordonnées qui sont toutes identiques.
Dé…nition 1.5 Soit E1 ; E2 ; :::; :Ep des ensembles …nis. Le produit cartésien des en-
semble E1 ; E2 ; :::; :Ep est
1.1. GÉNÉRALITÉS
Chapter 1. ANALYSE COMBINATOIRE 10
Solution. Le premier chi¤re ne peut pas être 0 car si tel était, le nombre aurait 5 chi¤res.
a) On applique le PFAC et on obtient
9 10 10 10 10 10 = 900000:
b) Le nombre se termine soit par 0 soit par 5, donc on applique également le PFAC et
on obtient
9 10 10 10 10 2 = 180000:
c) On applique toujours le même principe mais cette fois-ci on aura
9 9 8 7 6 5 = 136080
1.2 ARRANGEMENTS
1.2.1 Arrangements avec répétition
Dé…nition 1.6 On appelle arrangement avec répétition de p éléments choisis parmi n
éléments discernables toute disposition ordonnée de ces p éléments où chaque éléments
peut-être répété jusqu’à p fois.
1.2. ARRANGEMENTS
Chapter 1. ANALYSE COMBINATOIRE 11
Proposition 1.1 Le nombre d’arrangements avec répétition de p éléments que l’on peut
former avec n éléments est donné par
epn = n
A n :::n = np
n n :::n = np
Exemple 1.4 Dans une urne contenant n boules distinguables et numérotées, on tire
p boules l’une après l’autre (on s’intéresse à l’ordre) en les remettant dans l’urne après
chaque tirage (on accepte les répétitions). Le nombre de tirages possibles est le nombre
d’arrangements avec répétition de p éléments de l’ensemble f1; 2; :::; ng i:e np tirages.
1.2. ARRANGEMENTS
Chapter 1. ANALYSE COMBINATOIRE 12
Apn = n (n 1) (n 2) ::: (n p + 1)
Preuve. Il existe n façons pour choisir le 1er élément de l’arrangement. Pour chaque
chois de 1er élément, il existe (n 1) façons pour choisir le 2eme élément de l’arrangement
(puisqu’il ne doit pas y avoir répétition d’un élément). En itérant, on véri…e que pour
chaque chois de (p 1) premiers éléments, il existe (n p + 1) façons pour choisir le peme
élément de l’arrangement. D’après le PFAC, on a le nombre total d’arrangements sans
répétition est
n (n 1) (n 2) ::: (n p + 1)
Exemple 1.5 Dans l’exemple précédent 1.3, si on utilise chaque lettre qu’une seule fois,
on obtient:
A426 = 26 25 24 23 = 358800 mots de 4 lettres di¤érentes (ces mots n’ont pas
forcément un sens).
Exemple 1.6 Dans une urne contenant n boules distinguables et numérotées, on tire
p boules l’une après l’autre (on s’intéresse à l’ordre) sans les remettre dans l’urne (on
n’autorise pas de répétition). Le nombre de tirages possibles est le nombre d’arrangements
sans répétition de p éléments de l’ensemble f1; 2; :::; ng i:e Apn tirages.
1.2.3 PERMUTATIONS
Permutations sans répétition
C’est le cas où p = n
1.2. ARRANGEMENTS
Chapter 1. ANALYSE COMBINATOIRE 13
n! = n (n 1)!
Pn = Ann = n (n 1) (n 2) ::: 3 2 1 = n!
Preuve.
Pn = Ann = n (n 1) (n 2) ::: 3 2 1 = n!
Car (n n + 1) = 1:
Remarque 1.2 Deux permutations ne di¤èrent que par l’ordre de n éléments distincts
qui la composent.
Le nombre de permutations de n éléments est le nombre de manières possibles
d’ordonner ces n éléments.
Exemple 1.7 Dans une urne contenant n boules distinguables et numérotées, on tire
les n boules l’une après l’autre (on s’intéresse à l’ordre) sans les remettre dans l’urne (on
n’autorise pas de répétition). Le nombre de tirages possibles est le nombre de permutations
sans répétition des éléments de l’ensemble f1; 2; :::; ng i:e n! tirages.
Solution. Nous avons 5! façons pour ranger les livres de mathématiques, 4! façons pour
ranger les livres de science et 3! façons pour ranger les livres de chimie et comme nous
avons 3! façons pour ranger les trois spécialités, donc nous avons …nalement le nombre de
rangement de ces livres est
5! 4! 3! 3! = 103680
Dé…nition 1.10 Si nous avons n éléments non tous discernables. On répartit ces élé-
ments en k groupes discernables. Chaque groupe contient des éléments indiscernables.
P
k
Les e¤ectifs respectifs des k groupes sont notés n1 ; n2 ; :::; nk tels que n = ni :
i=1
1.2. ARRANGEMENTS
Chapter 1. ANALYSE COMBINATOIRE 14
Exemple 1.9 Combien de mots di¤érents peut-on écrire avec toutes les lettres du mot
"STATISTIQUE" ?
11!
Solution. On peut écrire 2! 3! 1! 2! 1! 1! 1!
= 1663 200 mots di¤érents avec ces 11 lettres
(ces mots n’ont pas forcément un sens)
1.3 COMBINAISONS
1.3.1 Combinaisons sans répétition
Dé…nition 1.11 On appelle combinaison sans répétition de P éléments pris parmi n
éléments discernables toute disposition non ordonnée de p éléments choisis sans répétion
parmi ces n éléments.
Remarque 1.4 On peut considère une combinaison sans répétition de p éléments parmi
n éléments discernables comme un sous ensemble de cardinal p de l’ensemble de ces n
éléments.
1.3. COMBINAISONS
Chapter 1. ANALYSE COMBINATOIRE 15
p!Cnp = Apn
Remarque 1.5 Deux combinaisons ne di¤èrent que par la nature des éléments la com-
posent.
1.3.2 Propriétés
Soient n et p deux entiers naturels. Alors on a
1) Pour tous n 1 et p n; Apn = (nn!p)! :
2) Pour tous n 1 et p n; ;..Cnp = p!(nn! p)!
3) Pour tout n 1; Cn0 = Cnn = 1:
4) Pour tous n 1 et p n; Cnp = Cnn p :
p+1
5) Pour tous n 1 et p n; Cnp + Cnp+1 = Cn+1 :
Preuve. 1)
Apn = n (n 1) (n 2) ::: (n p + 1)
n (n 1) (n 2) ::: (n p + 1) (n p) ::: 2 1
=
(n p) ::: 2 1
n!
= :
(n p)!
2)
Apn n! 1 n!
Cnp = = =
p! (n p)! p! p! (n p)!
3)
n! n!
Cn0 = = =1
0! (n 0)! 1 n!
de même
n! n!
Cnn = = =1
n! (n n)! n! 1
4)
n! n!
Cnn p
= = = Cnp
(n p)! (n n + P )! (n p)!p!
1.3. COMBINAISONS
Chapter 1. ANALYSE COMBINATOIRE 16
5)
n! n!
Cnp + Cnp+1 = +
p! (n p)! (p + 1)! (n p 1)!
n! n!
= +
p! (n p) (n p 1)! (p + 1) p! (n p 1)!
n! (p + 1 + n p) (n + 1) n! p+1
= = = Cn+1 :
(p + 1)! (n p)! (p + 1)! (n p)!
Exemple 1.11 Les combinaisons avec répétition de 3 éléments choisis parmi les 4 élé-
ments a; b; c; d sont:
1.3. COMBINAISONS
Chapter 1. ANALYSE COMBINATOIRE 17
Cnp + Cnp+1
#
p+1
Cn+1
Théorème 1.1 Pour tous réels a; b et pour tout entier naturel non nul n, nous avons
P
n
(a + b)n = Cnk an k bk
k=0
n = 2;
(a + b)2 = 1a2 + 2ab + b2 = C20 a2 + C21 ab + C22 b2
On suppose qu’elle est vraie pour n et on démontre qu’elle est vraie pour n + 1;
n+1
D’après la propriété 5) de 1.3.2 et comme Cn0 = Cn+1
0
et Cnn = Cn+1 : Alors on peut
écrire:
(a + b)n+1 = (a + b) (a + b)n
= (a + b) Cn0 an + Cn1 an 1 b + ::: + Cnn 1 abn 1
+ Cnn bn
= Cn0 an+1 + Cn0 + Cn1 an b + ::: + Cnn 1
+ Cnn abn + Cnn bn+1
0
= Cn+1 an+1 + Cn+1
1
an b + ::: + Cn+1
n
abn + Cn+1
n+1 n+1
b
P k n+1 k k
n+1
= Cn+1 a b
k=0
D’où
P
n
8a; b 2 R; 8n 2 N ; (a + b)n = Cnk an k bk
k=0
(a b)6 = (a + ( b))6
= a6 + 6a5 ( b) + 15a4 ( b)2 + 20a3 ( b)3 + 15a2 ( b)4 +
+6a ( b)5 + ( 6)6
= a6 6a5 b + 15a4 b2 20a3 b3 + 15a2 b4 6ab5 + 66 :
1.5 Exercices
1.5. Exercices
Chapter 1. ANALYSE COMBINATOIRE 19
Exercice 1.1 Un cadenas à numéros a trois roues, chacune porte les numéros 0 à 9.
Combien de nombres secrets y a-t-il ?
Exercice 1.2 On veut disposer 10 livres sur un rayon d’une bibliothèque. Quatre d’entre
eux sont des livres de mathématiques, trois de chimie, deux de physique et un de langue.
Combien y a-t-il de dispositions possibles de ranger ses livres de façon que tous les livres
traitant du même sujet restent groupés. ?
Exercice 1.4 Combien de nombres di¤érents peut-on écrire avec les chi¤res 3; 3; 5; 5; 5; 4
?:
1.5. Exercices
Chapter 1. ANALYSE COMBINATOIRE 20
Exercice 1.5 Quel est le nombre de groupe de six personnes que l’on peut former avec 4
hommes et 6 femmes si l’on veut qu’ils contiennent obligatoirement:
1) exactement 2 hommes.
2) au moins 2 hommes.
Exercice 1.6 Une urne contient 8 boules rouges, 3 boules blanches et 9 boules bleues; on
extrait de cette urne 3 boules au hasard en un seul tirage. Quel est le nombre de façons
de tirer
1) trois boules rouges?
2) une boule de chaque couleur?
3) au moins l’une des boules soit blanche?
1.5. Exercices
CHAPTER 2
De façon générale les ensembles que l’on considère sont des parties d’un ensemble déter-
miné appelé référentiel, cette conception permettant d’éviter les paradoxes de la théorie
des ensembles. Ce pendant les opérations d’inclusion, de réunion et d’intersection sont
dé…nies indépendamment d’un référentiel. Mais la complémentation n’est pas dé…nie.
Dans ce paragraphe, nous rappelons les principales propriétés que nous aurons utilisé
dans la suite.
2.1 Sous-ensembles
Dé…nition 2.1 On dit qu’un ensemble A est inclus dans un autre ensemble B; (A B),
si tout élément de A est un élément de B:
si A B, on dit que A est un sous-ensemble de B:
Si A n’inclus pas dans B, on note A * B:
Remarque 2.1 Pour qu’un ensemble A n’inclus pas dans l’ensemble B, il faut et il su¢ t
qu’il existe un élément de A qui n’appartienne pas à B:
Exemple 2.1 L’ensemble vide est inclus dans tout ensemble non vide.
Un ensemble est inclus dans lui-même.
21
Chapter 2. THÉORIE DES ENSEMBLES 22
Dé…nition 2.2 On dit que deux ensembles sont égaux, si tout élément d’e l’un de ces
ensembles appartient à l’autre ensemble. Autrement dit
A = B () (A B et B A)
Dé…nition 2.3 Un ensemble est dit …ni si le nombre d’éléments qui le composent est
un entier naturel. Dans ce cas, le nombre d’éléments est appelé cardinal de l’ensemble et
est noté Card ( ) :
Un ensemble qui n’est pas …ni est dit in…ni.
Un ensemble qui contient qu’un seul élément est dit singleton.
L’ensemble vide est l’ensemble qui ne contient aucun élément, on le note par : Par
convention Card ( ) = 0:
Dé…nition 2.5 Les sous-ensembles d’un ensemble dé…nissent un ensemble appelé en-
semble des parties de et noté P ( ) :
Card (P ( )) = 2Card( )
2.1. Sous-ensembles
Chapter 2. THÉORIE DES ENSEMBLES 23
A [ B = f! 2 ; ! 2 A ou ! 2 Bg
A \ B = f! 2 ; ! 2 A et ! 2 Bg
= fa; b; c; d; e; f; g; hg
2.1. Sous-ensembles
Chapter 2. THÉORIE DES ENSEMBLES 24
A = f! 2 ; ! 2
= Ag
Proposition 2.6 Soient A; B deux sous-ensembles d’un ensemble , alors on a
1) A = A
2) = et =
3) A \ A = ; A [ A =
4) A [ B = A \ B; A \ B = A [ B (Lois de Morgon)
5) A B =) B A
6) Card A = Card ( ) Card (A)
A B = f! 2 ; ! 2 A et ! 2
= Bg
2.1. Sous-ensembles
Chapter 2. THÉORIE DES ENSEMBLES 25
Remarque 2.3 On peut véri…er facilement d’après les dé…nitions précédentes que
A B =A\B et A4B = (A B) [ (B A) :
Dé…nition 2.13 On appelle Tribu ou -algèbre toute famille d’ensembles non vides A ,
véri…ant les conditions suivantes
i) 2 A
ii) A 2 A =)A 2 A (Stabilité par complémentation)
S
1
iii) soit i 1; Ai; 2 A =) Ai 2 A (Stabilité par union dénombrable).
i=1
2.1. Sous-ensembles
CHAPTER 3
PROBABILITÉS.
La théorie des probabilités est une branche relativement récente des théories
mathématiques. Le concept des probabilités semblait être connu des Grecs
et des Égyptiens. Cependant, ce n’est que vers le milieu du XVIIe siècle que
l’on peut situer le début de cette théorie. D’abord limitée à l’étude des jeux
de hasard, elle s’est rapidement étendue à tous les domaines de la Science, en
Physique (théorie du potentiel, physique statistique, physique corpusculaire,
...etc.), en Informatique, en Économie, en Génétique, en Psychologie, ... etc.
Le mot probabilité ou l’adjectif probable est bien souvent synonyme du mot
chance. Les premiers résultats mathématiques furent introduits par Pascal
et Fermat au milieu du XVIIe siècle. Puis, apparaissent, à la …n du XVIIe
siècle, le nom de Huyghens et surtout au XVIIIe siècle, les noms de Bernoulli,
De Moivre, Bayes, Laplace, Gauss et au XXe siècle, Poincaré, Borel, Fréchet,
Lévy, Kolmogorov, Khintchin, .... Alors que la théorie du calcul des probab-
ilités s’est développée rapidement au cours du XXe siècle.
26
Chapter 3. PROBABILITÉS. 27
Dé…nition 3.2 Un résultat ou issue d’une expérience sera notée !; l’ensemble de tous les
résultats (issues) possibles d’une expérience est appelé ensemble fondamental ou univers
des possibles et sera noté . Cet ensemble peut être …ni, dénombrable ou non dénom-
brable.
=N f0; 1; 2; 3; 4; 5; 6; 7g
= R+
Exemple 3.3 Jeter d’un dé: A = f2g est un événement ´élémentaire, B = f2; 3; 5g est
l’événement “ il sort un nombre premier.”.
Observation de la durée de fonctionnement sans panne d’un appareil: A : “l’appareil
fonctionne plus de 100 heures”; A = ]100; +1[.
Preuve. Les sous ensembles de cet univers sont les combinaisons de k éléments pris parmi
n éléments; (k = 0; 1; 2; :::; n), i:e
Remarque 3.1 Toutes les opérations précédemment dé…nies s’étendent à plus de deux
événements. La classe des événements associés à une expérience aléatoire est donc une
tribu A de parties de .
Expériences composées
Une expérience aléatoire peut être décomposée en deux ou plus expériences partielles.
Exemple 3.5 On lance un dé blanc puis un dé noir, On considère ici l’issue comme un
couple ordonné (i; j), où i désigne le résultat du dé blanc et j celui du dé noir.
L’univers de cette expérience est
= (i; j) 2 N2 ; 1 i 6; 1 j 6
A = f(2; 1) ; (2; 3) ; (2; 5) ; (3; 1) ; (3; 3) ; (3; 5) ; (5; 1) ; (5; 3) ; (5; 5)g
(i) P ( ) = 1
S P
1
(ii) P ( Ai ) = P (Ai ) pour toute suite (Ai )i2N d’éléments de A deux à deux in-
i2N i=1
compatibles.
Le triplet ( ; A; P ) est dit espace probabilisé.
Dé…nition 3.7 Si l’univers des issues possibles est …ni et qu’on peut supposer que toutes
les issues soient équiprobables (aucune issue n’est privilégiée), alors la probabilité que
l’événement A se réalise est donnée par :
Exemple 3.6 n appareils identiques sont mis en service simultanément. Après un temps
T , on constate que k de ces appareils sont en panne. La probabilité de l’événement A:“un
appareil tombe en panne après un temps T ”sera
k
P (A) =
n
(iv)8 (A; B; C) 2 A3 ;
P (A) P (B)
S
n X
n
P( Ai ) P (Ai ):
i=1 i=1
Preuve. ( i) Comme
=A[A et A \ A = :
On a alors
P ( ) = 1 = P (A) + P A
( ii) On sait que = ; donc on a
( iii) On a
A [ B = A \ B [ B et A\B \B =
Donc
P (A [ B) = P A \ B + P (B)
Or
A=A\ = A \ B [ B = (A \ B) [ A \ B
D’où
P (A) = P (A \ B) + P A \ B
Ainsi
P A \ B = P (A) P (A \ B)
D’où
P (A [ B) = P (A) + P (B) P (A \ B)
P (A [ B [ C) = P (A [ B) + P (C) P [(A [ B) \ C]
= P (A) + P (B) P (A \ B) + P (C)
P [(A \ C) [ (B \ C)]
= P (A) + P (B) P (A \ B) + P (C)
[P (A \ C) + P (B \ C) P (A \ B \ C)]
= P (A) + P (B) + P (C) P (A \ B) P (A \ C)
P (B \ C) + P (A \ B \ C)
( v) Par récurrence.
On a vu que
P B \ A = P (B) P (A \ B)
Or
A B =) A \ B = A
D’où
P (B) P (A) = P B \ A 0
( vi) D’après ( iii) La formule est vraie pour n = 2. Supposons qu’elle est vraie au rang
n: On a alors
S
n+1 S
n X
n+1
P( Ai ) P( Ai ) + P (An+1 ) = P (Ai )
i=1 i=1 i=1
La formule est donc vraie pour tout n.
A = f(2; 1) ; (1; 2) ; (2; 2) ; (2; 3) ; (3; 2) ; (2; 4) ; (4; 2) ; (2; 5) ; (5; 2) ; (2; 6) ; (6; 2)g
L’événement B est
A = f(4; 1) ; (1; 4) ; (4; 2) ; (2; 4) ; (4; 3) ; (3; 4) ; (4; 4) ; (4; 5) ; (5; 4) ; (4; 6) ; (6; 4)g
L’événement C est
On obtient
11 1
P (A) = P (B) = ; P (C) =
36 6
Ainsi:
A\C =
Donc
Card (A) 4 1
P (A) = = =
Card ( ) 36 9
Soit l’événement B : “obtenir 3 au premier lancer”.
B = f(3; j) ; j 2 N; 1 j 6g
Donc
Card (B) 6 1
P (B) = = =
Card ( ) 36 6
Maintenant, on pose la question suivante:
Sachant que l’on obtient 3 au premier lancé, qu’elle est la probabilité que la somme
des deux résultats égale à 9? i:e La probabilité de A sachant B:
le nouveau univers est
0
= f(3; j) ; j 2 N; 1 j 6g = \B =B
On dé…nit dans cet espace, l’événement A0 : la somme des deux résultats égale à 9.
A0 = f(3; 6)g = A \ B
Donc
Card (A0 ) 1
P (A0 ) = =
Card ( 0 ) 6
Remarquons que l’on aurait pu, en calculant P (A \ B) dans l’espace ( ; P ( ) ; P ) ;
s’a¤ranchir de cette nouvelle modélisation, puisque
Card (A0 ) Card (A \ B)
P (A0 ) = 0
=
Card ( ) Card (B)
Card(A\B)
Card( ) P (A \ B)
= Card(B)
=
P (B)
Card( )
Exemple 3.9 Une urne contient 10 boules blanches, 5 boules jaunes et 10 boules noires.
On tire une boule de l’urne et on constate qu’elle n’est pas blanche, quelle est la probabilité
qu’elle soit jaune?
Dans l’espace ( ; P ( ) ; P ) ; On note par B :“ l’événement "la boule tirée est blanche”,
par J : “l’événement "la boule tirée est jaune”et par N : l’événement “la boule tirée est
noire”, on a donc
Card ( ) = 25
10 2 5 1
P (B) = P (N ) = = ; P (J) = =
25 5 25 5
Comme on constate que la boule tirée n’est pas blanche, i:e : Le nouveau espace est
( 0 ; P ( 0 ) ; P 0 ) où P 0 est la probabilité uniforme sur 0
avec
Card ( 0 ) = 15
PB : A 2 A !P (A=B)
A\B B =) P (A \ B) P (B)
Alors
PB (A) = P (A B) 1
2)
P ( \ B) P (B)
PB ( ) = P ( =B) = = = 1:
P (B) P (B)
3) Si A1 \ A2 = ; alors (A1 \ B) \ (A2 \ B) = ; d’où
P (B \ (A1 [ A2 ))
PB (A1 [ A2 ) = P (A1 [ A2 =B) =
P (B)
P (B \ A1 ) [ (B \ A2 ) P (B \ A1 ) P (B \ A2 )
= = +
P (B) P (B) P (B)
= PB (A1 ) + PB (A2 ) = P (A1 B) + P (A2 B):
D’où
S S P P
PB Ai =P Ai =B = PB (Ai ) = P (Ai =B)
i2N i2N i=1 i=1
La formule est donc vraie pour tout n, par récurrence.
Preuve. 1) On a
B = (A \ B) [ A \ B :
Et on a aussi
(A \ B) \ A \ B = :
Alors
P (B) = P (A \ B) + P A \ B
Divisons par P (B), on trouve
P (A \ B) P A \ B
1= +
P (B) P (B)
D’où
P (A \ B) P (A \ B)
=1
P (B) P (B)
i:e
P A=B = 1 P (A=B)
2) On déduire immédiatement la 2eme , en utilisant la dé…nition de la probabilité con-
ditionnelle.
P (A=B) = 0
Remarque 3.4 La formule précédente est valable même si les probabilités P (A) et P (B)
sont nulles toutes les deux, mais dans ces conditions, on ne peut pas dé…nir P (A=B) ni
P (B=A).
Formule de Poincaré
Evénements indépendants
P (A \ B) = P (A)P (B)
Remarque 3.5 L’indépendance des événements A et B se caractérise aussi par les re-
lations
P (A=B) = P (A) ou P (B=A) = P (B)
i:e : la probabilité de réalisation de l’événement ( A resp B) n’est pas modi…ée par une
information concernant la réalisation de l’événement B (resp A)
P (A [ B) = P (A) + P (B)
P (A \ B) = P (A)P (B)
2) Deux événements incompatibles A et B, avec P (A) > 0 et P (B) > 0, ne sont jamais
indépendants.
En e¤et, A \ B = ; entraine P (A \ B) = 0 6= P (A)P (B):
3) Deux événements peuvent être indépendants pour une loi de probabilité et non pour
une autre loi.
Théorème 3.2 Soient A et B deux événements tels que P (A) > 0 et P (B) > 0. Alors
les quatre propriétés suivantes sont équivalentes
a) A et B indépendants
b) A et B sont indépendants
c) A et B sont indépendants
d) A et B sont indépendants
Preuve. a)=)b)?
A et B indépendants;
P A\B = P (B) P (A \ B)
= P (B) P (A) P (B)
= (1 P (A)) P (B) = P A P (B)
Donc A et B sont indépendants
b)=)c)?
A et B sont indépendants,
P A\B = 1 P A\B
= 1 P A[B
= 1 P A P (B) + P A P (B)
= 1 P A 1 P A P (B)
= 1 P A [1 P (B)]
= P (A) P B
Donc A et B sont indépendants
c)=)d)?
A et B sont indépendants
P (A \ B) = P A [ B
= 1 P A[B
= 1 P A P B +P A P B
= 1 P A 1 P A P B
= 1 P A 1 P B
P (A) P (B)
Exemple 3.10 Une urne contient 12 boules numérotées de 1 à 12. On en tire une au
hasard et on considère les évènements :
A :“tirage d’un nombre pair”,
B : “tirage d’un multiple de 3”.
L’espace probabilisé qui s’impose naturellement ici est = f1; 2; ::: ; 12g muni de
l’équiprobabilité P . Les évènements A et B s’écrivent :
B = f3; 6; 9; 12g;
A \ B = f6; 12g
6 1 4 1
P (A) = = ; P (B) = =
12 2 12 3
2 1
P (A \ B) = = ;
12 6
1 1 1
P (A)P (B) = = ;
2 3 6
donc A et B sont indépendants.
On rajoute maintenant dans l’urne une boule numérotée treize et on recommence
l’expérience. Les évènements A et B restent les mêmes, mais le modèle a changé. On a
maintenant l’équiprobabilité P0 sur = f1; 2; :::; 13g et :
6 4
P0 (A) = ; P0 (B) = ;
13 13
2
P0 (A \ B) = :
13
Mais
6 4 24 2
P0 (A)P0 (B) = = 6=
13 13 1696 13
Donc A et B ne sont plus indépendants.
Un peu de ré‡exion, permet de relier ces résultats calculatoires avec la notion intuitive
d’indépendance présentée dans la dé…nition ces dessus. Dans le premier cas, la proportion
des multiples de trois parmi les pairs est la même que parmi les impairs. Le fait de savoir
que la boule tirée est paire ne modi…e en rien notre information sur B. Par contre dans le
deuxième cas, l’ajout de la treizième boule modi…e la proportion des multiples de trois :
elle est plus élevée chez les pairs que chez les impairs. Donc le fait de savoir que la boule
tirée est paire augmente un peu la probabilité que nous pouvons attribuer à B.
En e¤et: 2
P (A \ B) 1
P (A=B) = = 12
4 = = P (A)
P (B) 12
2
et 1
P (A \ B) 6 1
P (B=A) = = 1 = = P (B)
P (A) 2
3
Mais dans le deuxième cas, nous avons:
2
P (A \ B) 13 1
P (A=B) = = 4 = 6= P (A)
P (B) 13
2
et aussi 2
P (A \ B) 13 1
P (B=A) = = 6 = 6= P (B)
P (A) 13
3
= fP P; P F; F P; F F g
Cet espace est muni de la probabilité uniforme. On note A l’événement “la première pièce
donne Pile”, B l’événement “la seconde pièce donne Face” et C l’événement “les deux
pièces donnent le même résultat”.
1
A = fP P; P F g; P (A) =
2
1
B = fP F; F F g; P (B) =
2
1
C = fP P; F F g; P (C) =
2
A \ B = fP F g; P (A \ B) = 1=4 = P (A)P (B)
A \ C = fP P g; P (A \ C) = 1=4 = P (A)P (C)
B \ C = fF F g; P (B \ C) = 1=4 = P (B)P (C)
A \ B \ C = ;; P (A \ B \ C) = 0 6= P (A)P (B)P (C)
Ainsi les événements A,B et C sont 2 à 2 indépendants mais ne sont pas mutuellement
indépendants.
Théorème 3.3 (Formule des probabilités totales). Soit A un événement tel que 0 <
P (A) < 1. Pour tout événement B, on a
Preuve. Comme
= A [ A; et B = B \ = B \ A [ A = (B \ A) [ B \ A
et
(B \ A) \ B \ A =
Donc
P (B) = P (B \ A) + B \ A
et par la dé…nition de probabilité conditionnelle en déduire que:
B = (B \ A1 ) [ (A \ A2 ) [ ::: [ (A \ An )
Alors
P
n
P (B) = P (B=Ai )P (Ai )
i=1
B = B\ = B \ (A1 [ A2 [ [An )
= (B \ A1 ) [ (B \ A2 ) \ ::: \ (B \ An )
Donc
P (B) = P (B \ A1 ) + P (B \ A2 ) + ::: + P (B \ An )
Probabilité de Bayes
La formule de Bayes nous permet de calculer la probabilité d’un événement complexe dont
on sait qu’un de ces composants (cause) s’est réalisé.
Exemple 3.12 Un ensemble de boules blanches (B) et boules noires (N ) sont réparties
dans 2 urnes U1 et U2 . p1 est la proportion de boule blanches dans U1 , p2 dans U2 ;
q1 = 1 p1 est la proportion de boule noirs dans U1 , q2 dans U2 . On demande à un
opérateur d’e¤ectuer un tirage en deux temps :
1) d’abord, il choisit une urne, 1 est la probabilité de choisir l’urne U1 , 2 pour U2 ;
P (B=A) P (A)
P (A=B) =
P (B=A) P (A) + P B=A P A
Preuve. On a par dé…nition de probabilité conditionnelle
P (A \ B) = P (B=A) P (A)
D’où
P (A \ B) P (B=A) P (A)
P (A=B) = =
P (B) P (B=A) P (A) + P B=A P A
d’où
P (Ak \ B) P (B=Ak ) P (Ak )
P (Ak =B) = = Pn
P (B)
P (B=Ai )P (Ai )
i=1
Solution. A: "La personne choisie est homme"; A : "La personne choisie est femme" et
B : "La personne choisie est albinos". Nous avons d’après les données
P (B=A) P (A)
P (A=B) =
P (B=A)P (A) + P P (B=A)P (A)
0; 35 0; 03
= = 0; 729
0; 0144
3.4 Exercices
Exercice 3.1 On sélectionne un échantillon ordonné de taille 3 d’un ensemble de 26
jetons sur lesquels …gurent les lettres de l’alphabet. Calculer la probabilité des événements
suivants :
a) A : “ce sont 3 voyelles” ;
b) B : “ce sont 3 consonnes” ;
c) C : “c’est le mot LOT” ;
d) D : c“’est un anagramme du mot LOT”.
C63 20 1
P (A) = 3
= = = 0; 0076923
C26 2600 130
3.4. Exercices
Chapter 3. PROBABILITÉS. 46
3
b) L’ordre n’importe pas ici, l’ensemble fondamental aura donc C26 = 2600 éléments et
3
le cardinal de l’ensemble qui nous intéresse est C20 = 1140, de ce fait la probabilité sera
3
C20 1140 57
P (B) = 3
= = = 0; 43846
C26 2600 130
c) dans le mot "LOT" l’ordre a de l’importance, le nombre d’arrangements de 3 lettres
que l’on peut faire avec ces 26 jetons est
26!
A326 = = 15600
(26 3)!
Le mot "LOT" étant l’un de ces arrangements, on a donc
1
P (C) = = 0; 000064103
15600
d)
1 1
P (D) = 3
= = P (C) 3! = 0; 00038462
C26 2600
Exercice 3.2 On prend au hasard, en même temps, trois médicaments dans un lot de
15; dont 5 sont périmés. Calculer la probabilité des événements suivants:
A : "au moins un médicament est périmé" ;
B : "les 3 médicaments sont périmés" ;
C : "exactement un médicament est périmé".
3
Card A = C10 = 120
3
C10 120
P (A) = 1 P A =1 3
C15
=1 455
= 0; 73626:
C53
P (B) = 3 = 0; 02198
C15
1
C5 C102
P (C) = 3
C15
= 0; 49451:
Exercice 3.3 Un certain type de voiture présente parfois deux vices de fabrication; on
sait que 7% de ces voitures ont le premier défaut, 11% le deuxième défaut et 2% ont les
deux défauts. Calculer la probabilité qu’une voiture de ce type soit exempte de défauts.
3.4. Exercices
Chapter 3. PROBABILITÉS. 47
P (A \ B) = P (A [ B) = 1 P (A [ B)
= 1 [P (A) + P (B) P (A \ B)] = 1 (0; 07 + 0; 11 0; 02) = 0; 84
Solution. P (B) =?
Nous avons
P (A [ B) = P (A) + P (B) P (A \ B)
P (B) = P (A [ B) P (A) + P (A \ B)
5 2 1 218
= + =
7 9 5 315
P (A \ B) =?
P (A \ B) = P (A) P (A \ B)
2 1 1
= =
9 5 45
P (B \ A) =?
P (B \ A) = P (B) P (A \ B)
218 1 31
= =
315 5 63
P A \ B =?
P A\B = P A[B =1 P (A [ B)
5 2
= 1 =
7 7
3.4. Exercices
Chapter 3. PROBABILITÉS. 48
P A [ B =?
P A[B = P A\B
= 1 P (A \ B)
1 4
= 1 =
5 5
ou bien
P A[B = P A +P B P A\B
2 218 2 4
= 1 + 1 =
9 315 7 5
Exercice 3.5 Une agence de voyage fait un sondage statistique sur la connaissance de
trois pays A; B; C . On constate que parmi les personnes interrogées, 42% connaissent
A, 55% connaissent B, 34% connaissent C, 18% connaissent A et B, 10% connaissent A
et C; 15% connaissent B et C, 8% connaissent les trois pays. Un voyage est prévu pour
l’une des personnes ayant répondu au sondage. On tire au sort le gagnant. Quelle est la
probabilité pour que le gagnant soit une personne :
a) connaissant au moins l’un de ces trois pays ?
b) ne connaissant aucun de ces trois pays ?
c) connaissant exactement deux des trois pays ?
d) connaissant A, mais ne connaissant ni B, ni C?
e) connaissant A et B mais ne connaissant pas C?
b) " Ne connaissant aucun de ces trois pays" est l’événement complémentaire de "au
moins un des pays"= A [ B [ C
P A[B[C =1 P (A [ B [ C) = 1 0; 96 = 0; 04
3.4. Exercices
Chapter 3. PROBABILITÉS. 49
P (A \ B \ C) [ (A \ B \ C) [ (A \ B \ C) = P (A \ B \ C) + P (A \ B \ C))
+P (A \ B \ C) P A\B\C \A\B\C
P A\B\C \A\B\C
P A\B\C \A\B\C
+P A \ B \ C \ A \ B \ C \ A \ B \ C
= P (A \ B) P (A \ B \ C)
+P (A \ C) P (A \ B \ C)
+P (B \ C) P (A \ B \ C)
= P (A \ B) + P (A \ C) + P (B \ C)
3P (A \ B \ C)
= 0; 18 + 0; 10 + 0; 15 3 0; 08 = 0; 19
P A\B\C = P A\ B[C
= P (A) P [A \ (B [ C)]
= P (A) P [(A \ B) [ (A \ C)]
= P (A) P (A \ B) P (A \ C) + P (A \ B \ C)
= 0; 42 0; 18 0; 10 + 0; 22
P A\B\C = P (A \ B) P (A \ B \ C)
= 0; 18 0; 08 = 0; 10
Exercice 3.6 L’étude des groupes sanguins montre qu’il existe 2 agglutinogènes A et B.
Ceux-ci peuvent exister séparément (groupe A et groupe B) ou simultanément (groupe
AB) ou peuvent manquer tous les deux (groupe O). Pour les transfusions sanguines, on
sait que:
- les sujets du groupe A ne peuvent recevoir que du sang des groupes A et O:
- les sujets du groupe B ne peuvent recevoir que du sang des groupes B et O:
- les sujets du groupe AB peuvent recevoir le sang de n’importe quel groupe.
3.4. Exercices
Chapter 3. PROBABILITÉS. 50
2)
P (fAg [ fOg) = P (fAg) + P (fOg) = 0; 43 + 0; 4 = 0:83
3)
P (fBg [ fOg) = P (fBg) + P (fOg) = 0; 12 + 0; 40 = 0:52
4) On note le malade par M et le donneur par D
Pour que le donneur ait un groupe compatible avec le second malade, il faut que cette
événement
E :"(M A et DA) ou (M A et DO) ou (M B et DB) ou (M B et DO) ou (M (AB) et D
quelconque) ou (M O et DO)" soit réalisé. Comme tous ces événements sont incompat-
ibles, alors:
3.4. Exercices
Chapter 3. PROBABILITÉS. 51
est-elle même reliée à deux sources C et D (…gure ci-dessous). La source A peut fournir
du courant à E dès qu’elle reçoit du courant d’au moins une source C et D. On considère
un intervalle de temps t de longueur l. La probabilité que la source B fonctionne sans
1t
interruption durant tout l’intervalle L est P (B) = 1 e avec 1 > 0:Pour les sources
2t 3t
C et D , cette probabilité est P (C) = 1 e avec 2 > 0: P (D) = 1 e
avec 3 > 0: L’état de service de chaque source de courant B; C et D est indépend-
ant de l’état des autres. Trouver la probabilité que l’appareil E puisse fonctionne sans
interruption durant l’intervalle L (…abilité du système).
E
%-
A B
%-
C D
Finalement, on obtient
( 2 + 3 )t 1t 1t ( 1 + 2 + 3 )t
P (E) = 1 e 1+e 1 +1 e =1 e
Exercice 3.8 Les laboratoires pharmaceutiques indiquent pour chaque test sa sensibilité
est 95%, qui est la probabilité que le test soit positif si le sujet est malade, et sa spéci…cité
est 94% , qui est la probabilité que le test soit négatif si le sujet est sain. Sachant qu’en
moyenne il y a un malade sur 1000 personnes.
a) Calculer la probabilité pour que vous soyez un sujet sain alors que votre test est
positif.
b) Calculer la probabilité d’être malade alors que le test est négatif.
3.4. Exercices
Chapter 3. PROBABILITÉS. 52
Solution. On note les événements S = fla personne est saing, M = fLa personne est
maladeg,+ = fle test est positifg et = fle test est négatifg. On cherche P (S=+) et
P (M= ). On connaît les valeurs des probabilités suivantes:
P (S) P (+=S)
P (S=+) =
P (S) P (+=S) + P (M ) P (+=M )
Et comme
D’où
(1 0; 001) (1 0; 94)
P (S=+) = ' 0; 98
(1 0; 001) (1 0; 94) + 0; 001 0; 95
b) De même, on déduit de la formule de Bayes que:
P ( =M ) P (M )
P (M= ) =
P ( =M ) P (M ) + P ( =S) P (S)
0; 001 (1 0; 95)
= ' 0; 000053
(1 0; 95) 0; 001 + (1 0; 001) 0; 94
Exercice 3.9 Le gène qui détermine la couleur bleue des yeux est récessif. Pour avoir
les yeux bleus, il faut donc avoir le génotype bb. Les génotypes mm et bm donnent des
yeux marron. On suppose que les parents transmettent indi¤éremment un de leurs gènes
à leurs enfants. La sœur et la femme de Samir ont les yeux bleus, mais ses parents ont
les yeux marron.
1) Quelle est la probabilité pour que Samir ait les yeux bleus?
2) Quelle est la probabilité que le premier enfant de Samir ait les yeux bleus sachant
que Samir a les yeux marrons?
3) Quelle est la probabilité pour que le deuxième enfant de Samir ait les yeux bleus
sachant que le premier a les yeux marrons?
4) Comment expliquez-vous la di¤érence des résultats entre les deux dernières ques-
tions?
Solution. On note M le phénotype “yeux marron”, et B “yeux bleus”. Le phénotype
M provient des génotypes mm et mb, alors que le phénotype B provient que du génotype
bb. Le génotype des parents de Samir est mb:
3.4. Exercices
Chapter 3. PROBABILITÉS. 53
1) P (Samir = B) = 14 :
2) P (1 = B=Samir = M ) = 31 :
3) P (2 = B=1 = M ) = P (2=B;1=M
P (1=M )
)
; avec
P (1 = M; 2 = B) = P (1 = M; 2 = B=Samir = bb)
+P (1 = M; 2 = B=Samir = mb)
+P (1 = M; 2 = B=Samir = mm)
= P (1 = M; 2 = B=Samir = mb) P (Samir = mb)
1 1 1 1
= =
2 2 2 8
Et
1
P (1 = M ) = P (1 = M; Samir = mb) + P (1 = M; Samir = mm) =
2
Donc on a
1 2 1
P (2 = B=1 = M ) = = :
8 1 4
4) Si le premier enfant a les yeux marron, on sait déjà que Samir a les yeux marron.
On a donc plus d’information dans la question 3) que dans la question 2).
Exercice 3.10 Une maladie a¤ecte statistiquement une personne sur 1000. Un test de
dépistage permet de détecter la maladie avec une …abilité de 99%, mais il y a 0; 2% de
chances que le test donne un faux positif (i:e. une personne est déclarée malade sans
l’être).
1) Une personne est testée positivement. Quelle est la probabilité qu’elle soit réellement
malade ?
2) Une personne est testée négativement. Quelle est la probabilité qu’elle soit quand
même malade ?
3) Ce dépistage remplit-il son rôle ?
3.4. Exercices
Chapter 3. PROBABILITÉS. 54
3) Il donne malade des gens qui ne le sont pas, et pas qu’un peu ! Mais si on est
détecté pas malade, on a de forte chance que cela soit vrai. Par exemple, si le test est
peu onéreux/rapide, on commence par celui-là, si le test est négatif alors on est déclaré
"sain" et si le test est positif, on fait des tests complémentaires.
Exercice 3.11 Un appareil peut être monté avec des pièces de haute qualité (40% des
cas) et avec des pièces ordinaires (60% des cas). Dans le premier cas, sa probabilité de
fonctionnement sur une durée t est égale à 0:95 ; dans le second, elle est de 0:7. L’appareil
a été soumis à un essai et s’est avéré able (fonctionnement sans défaillance sur la durée
de référence). Déterminer la probabilité que l’appareil soit composé de pièces de haute
qualité.
..
3.4. Exercices
CHAPTER 4
X: !R
X est dite variable aléatoire réelle (v.a.r), on s’intéressera aux valeurs prises par X;
(X = x), et plus particulièrement à la probabilité d’obtenir ces valeurs P (X = x). Par
1
exemple ici, la probabilité pour X = 2 est P (X = 2) = 36
:
8! i 2 ; ! i 7 ! X (! i ) 2 R:
55
Chapter 4. VARIABLES ALÉATOIRES RÉELLES 56
P [(X = xi ) ou (X = xj )] = P (X = xi ) + P (X = xj )
1
8x 2 R; F (x) = P (X (] 1; x])) = P (f!; X(!) xg)
Proposition 4.1 Soit X une variable aléatoire réelle sur ( ; A; P ) : Alors sa fonction de
répartition F satisfait les propriétés suivantes
1) 8x 2 R; 0 F (x) 1
2) lim F (x) = 0
x ! 1
3) lim F (x) = 1
x !+1
4) F est croissante. i:e (8 (x; y) 2 R2 ; x y =) F (x) F (y))
5) F est continue à droite.
1 1
lim F (x) = lim P (X (] 1; x[)) = P (X ( )) = P ( ) = 0
x ! 1 x ! 1
3) Nous avons
1 1
lim F (x) = lim P (X (] 1; x[)) = P (X (R)) = P ( ) = 1
x !+1 x !+1
1 1
4) Soit x y; alors ] 1; x[ ] 1; y[, donc X (] 1; x[) X (] 1; y[) et
1 1
P X (] 1; x[) P X (] 1; y[)
i:e
F (x) F (y) :
PX : A0 ! [0; 1]
1
A 7 ! P X (A0 )
– Notons que (fX = xg)x2F est une famille dénombrable d’événements deux à deux
S
disjoints tels que (fX = xg) = : D’après la propriété de -additivité on a
x2F
S P
P (fX = xg) = P ((fX = xg)) = P ( ) = 1
x2F x2F
X ( ) = fxi 2 R; i 2 I Ng :
Fonction de masse
P : I ! [0; 1]
xi 7 ! pi = P (X = xi )
Remarque 4.3 1) si X ( ) est …ni, on pose par convention que pk = 0 pour tout k 2
N I:
2) D’après la dé…nition d’une probabilité, on déduit que:
i) pour tout i 2 I ona pi 0
P
ii) pi = 1:
i2I
Loi de probabilité:
Dé…nition 4.7 La loi de probabilité est donnée généralement par le tableau suivant:
xi x1 x2 x3 :::
P (X = xi ) P (X = x1 ) P (X = x2 ) P (X = x3 ) :::
Fonction de répartition
Dé…nition 4.8 Soit X une v.a.r. discrète prend des valeurs x1 < x2 < ::: < xi < xi+1 <
:::de fonction de masse p; sa fonction de répartition est F : R ! [0; 1] telle que
P P
F (x) = pi = P (X = xi )
xi x xi x
F ig 1
Exemple 4.1 On jet deux dés di¤érents D1 ; D2 . Soit X la variable aléatoire qui donne
la somme de deux résultats obtenus.
1) Donner la loi de probabilité de X:
Solution. X est une variable aléatoire discrète de = f(1; 1) ; (1; 2) ; :::; (6; 6)g à valeurs
dans X ( ) = f2; 3; :::; 12g
D1 D2 1 2 3 4 5 6
1 (1; 1) (1; 2) (1; 3) (1; 4) (1; 5) (1; 6)
2 (2; 1) (2; 2) (2; 3) (2; 4) (2; 5) (2; 6)
3 (3; 1) (3; 2) (3; 3) (3; 4) (3; 5) (3; 6)
4 (4; 1) (4; 2) (4; 3) (4; 4) (4; 5) (4; 6)
5 (5; 1) (5; 2) (5; 3) (5; 4) (5; 5) (5; 6)
6 (6; 1) (6; 2) (6; 3) (6; 4) (6; 5) (6; 6)
1)
1 1
P (X = 2) = P (X = 12) = ; P (X = 3) = P (X = 11) =
36 18
1 5
P (X = 4) = P (X = 10) = ; P (X = 6) = P (X = 8) =
12 36
1 1
P (X = 5) = P (X = 9) = ; P (X = 7) =
9 6
Donc la loi de X est résumée comme suit
xi 2 3 4 5 6 7 8 9 10 11 12
1 1 1 1 5 1 1 5 11 1
P (X = x1 ) 36 18 12 9 36 6 1236 18936
2) La fonction de répartition est donnée par:
8
>
> 0; si x < 2
>
>
>
> 1
; si 2 x < 3
>
> 36
>
>
>
> 3
; si 3 x < 4
>
> 36
>
> 6
>
> ; si 4 x < 5
>
>
36
>
> 10
; si 5 x < 6
>
> 36
>
< 15 ;
36
si 6 x < 7
F (x) =
>
> 21
; si 7 x < 8
>
> 36
>
> 26
> 36 ;
> si 8 x < 9
>
>
>
> 30
; si 9 x < 10
>
> 36
>
> 34 ; si 10 x < 11
>
>
>
> 36
>
> 35
; si 11 x < 12
>
> 36
>
:
1; si x 12
F ig 2 Fonction de répartition de X
Indépendance
8x 2 F; 8y 2 G ; P (X = x; Y = y) = P (X = x) P (Y = y)
Moments
2)
P
n P
n
E (aX) = axi p (X = xi ) = a xi p (X = xi ) = aE (X) :
i=1 i=1
3)
P
n P
n P
n
E (X + Y ) = (xi + yi ) p (X = xi ) = xi p (X = xi ) + yi p (X = xi )
i=1 i=1 i=1
= E (X) + E (Y )
4)
V ar (C) = E(C E (C))2 = E(C C)2 = E(C C)2 = E(0) = 0:
5)
Preuve.
(Voir F ig 3)
F ig 3 Lois normale P (2 X 7)
Dé…nition 4.15 Une variable aléatoire continue Z suit une loi normale centrée réduite
notée par N (0; 1), si elle admet pour densité de probabilité la fonction f dé…nie sur R
par:
1 x2
f (x) = p e 2
2
f étant une densité, la surface comprise entre l’axe des abscisses et la courbe de f a
une aire …nie égal à 1:
Rx
La fonction de répartition de X: x 7 ! (x) = 1
f (t) dt est égale à l’aire limitée
par la courbe de f et l’axe des abscisses et la droite d’équation t = x:(voir F ig 4).
F ig 4 Fonction de répartition
Remarque 4.6 On associe à toute v.a.r. continue une fonction de densité f véri…ant:
i) Pour tout réel x, f (x) 0
R +1
ii) 1 f (x) = 1
Réciproquement: Toute fonction f véri…ant les assertions i) et ii) est une fonction de
densité d’une v.a.r. continue.
Si de plus f est continue en x; F est dérivable et F 0 (x) = f (x): On peut alors écrire:
Z b
P (a X < b) = f (x)dx = F (b) F (a)
a
Espérance et Variance
Espérance
Remarque 4.7 Une variable aléatoire réelle n’admet pas forcément une espérance.
Exemple 4.2 Soit X une v.a.r continue de fonction de densité (loi de Cauchy) dé…nie
par
1
f (x) = :
(1 + x2 )
En e¤et
1
8x 2 R; 0;
(1 + x2 )
et Z +1
dx 1 1
2
= lim [arctan x]XX = + =1
1 (1 + x ) X !+1 2 2
Donc est bien une fonction de densité.
Mais cette intégrale Z +1
xdx
1 (1 + x2 )
n’est pas convergente, donc X n’admet pas d’espérance.
Propriétés de l’espérance
Proposition 4.3 i) (linéarité). Soient X une v.a.r continue et '1 ; '2 : R ! R deux
fonctions continues et a; b deux réels. Alors on a
ii) (Positivité). Soient X une v.a.r continue et ' : R ! R une fonctions continues et
positive. Alors on a
E (' (X)) 0
iii) (Croissance). Soient X une v.a.r continue et '1 ; '2 : R ! R deux fonctions
continues telles que '1 '2 . Alors on a
iv) si X est une v.a.r constante et ' une fonction déterministe quelconque. Alors on a
iii) Soit la fonction ' = '2 '1 ; la fonction ' est positive et donc d’après ii)
et d’après i)
E ('2 (X)) E ('1 (X)) 0
iv) Si X = c est une v.a.r. discrète telle que P (X = c) = 1; d’où
Z +1 Z +1
E (' (X)) = ' (c) f (x) dx = ' (c) f (x) dx = ' (c) 1 = ' (c)
1 1
E[E[X]] = E[X]
Dé…nition 4.18 une variable aléatoire est dite centrée si son espérance est nulle.
Variance
Dé…nition 4.21 La variance (moment centré d’ordre 2), ou carré de l’écart-type d’une
variable continue X est dé…nie par:
Z +1
V ar(X) = 2
X = E (X E(X)) 2
= (x E (X))2 f (x)dx
1
Propriétés Comme dans le cas d’une variable discrète nous avons ces propriétés pour
une v.a.r. continue.
Soient a et b deux constantes réelles
i) V ar(X) = E(X 2 ) E2 (X) (Cette formule peut être utilisée pour calculer
rapidement V ar(X)).
ii) V ar(b) = 0
iii) V ar(aX + b) = a2 V ar(X)
iv) V ar(X) = 0 implique que X est presque sûrement égale à une constante.
Proposition 4.4 Soient X est une variable aléatoire de carré intégrable, la variable
aléatoire U dé…nie par:
X E(X)
U=
X
est d’espérance nulle et de variance égale à 1 (dite centrée réduite, associée à X)
X E(X) 1 1
E (U ) = E = [E (X) E (E (X))] = [E (X) (E (X))] = 0:
X X X
et
X E(X) 1 1 2
V ar (U ) = V ar = 2
V ar (X) = 2 X = 1:
X X X
Inégalité de Bienaymé-Tchebichev
Inégalité de Markov
Proposition 4.5 Soit X une variable aléatoire positive d’espérance , alors pour toute
constante > 0:
P (X )
d’où
P (X ):
Exemple 4.3 Soit X une v.a.r suit la loi normale centrée réduite.
4.6 Dé…nitions
4.6.1 Variables discrètes
Probabilité en un point du domaine:
pij = P (X = xi ; Y = yj )
Fonction de répartition:
P P
F (x; y) = P (X x; Y y) = P (X = u; Y = v)
u x <y
Densité de probabilité:
@ 2 F (x; x)
f (x; y) =
@x@y
Dans ce qui suit, les formules sont données pour des variables continues. Les formules,
pour les variables discrètes, s’en déduisent aisément.
Z +1
@F (x; :)
= f (x; :) = f (x; y) dy
@x 1
Loi marginale de Y
Z y Z +1
F (y; :) = f (u; v) du dv
1 1
Z +1
@F (:; y)
= f (:; y) = f (x; y) dx
@y 1
Loi conditionnelle de Y /X
@F (x;y)
@x
F (y=X = x) = F (y=x) = dF (x;:)
dx
dF (y=x) f (x; y)
f (y=x) = =
dy f (x; :)
dF (x=y) f (x; y)
f (x=y) = =
dx f (:; y)
Remarque 4.10 On remarquera que ces espérances sont elles-mêmes des variables
aléatoires.
4.6. Dé…nitions
Chapter 4. VARIABLES ALÉATOIRES RÉELLES 73
4.6.5 Variance
Variances conditionnelles
4.6.6 Corrélation
Coe¢ cient de corrélation:
E[(X E(X))(Y E(Y ))] Cov(X; Y )
r= p =
V ar(X) V ar(Y ) X Y
Rapport de corrélation:
2 V ar[E(Y =X)]
Y =X =
V ar(Y )
!
V ar(X) Cov(X; Y )
M (X; Y ) =
Cov(X; Y ) V ar(Y )
Dé…nition 4.22 Deux variables X et Y sont indépendantes si, quel que soit deux
événements X 2 A et Y 2 B, on a:
P (X 2 A; Y 2 B) = P (X 2 A) P (Y 2 B)
4.6. Dé…nitions
Chapter 4. VARIABLES ALÉATOIRES RÉELLES 74
Propriétés
Variance de la somme
Si les deux variables X et Y sont indépendantes alors, les propriétés suivantes sont sat-
isfaites
1) E(XY ) = E(X) E(Y )
2) Cov(X; Y ) = 0
3) V ar(X + Y ) = V ar(X) + V ar(Y ):
4.6.7 Résumé
v.a.r.dicsrète v.a.r.continue
X( ) fx1 ; x2 ; :::; xn ; :::g R
P Rx
F (x) = P (X x) P (X = xi ) 1
f (x) dx
xi x
P Rb
P (a X b) P (X = xi ) a
f (x) dx
a xi b
P R +1
E (X) xi P (X = xi ) 1
xf (x) dx
xi 2X( )
P R +1
E [' (X)] ' (xi ) P (X = xi ) 1
' (x) f (x) dx
xi 2X( )
P R +1
E (X 2 ) x2i P (X = xi ) 1
x2 f (x) dx
xi 2X( )
P R +1
V ar (X) (xi E (X))2 P (X = xi ) 1
(x E (X))2 f (x) dx
xi 2X( )
4.7 Exercices
Exercice 4.1 Soit X une variable aléatoire admettant un moment d’ordre 2. Démontrer
que E [(X a)2 ] est minimal pour a = E(X).
Solution. Posons
4.7. Exercices
Chapter 4. VARIABLES ALÉATOIRES RÉELLES 75
. C’est un polynôme du second degré. Elle admet donc un minimum lorsque f 0 (a) = 0
2E(X) + 2a = 0
d’où
a = E(X)
Exercice 4.2 Un joueur vise une cible de 10 cm de rayon, constitué de couronnes con-
centriques, délimitées par des cercles de rayons 1; 2; : : : ; 10 cm; numérotées de 10 au
centre à 1 à la périphérie. La probabilité d’atteindre la couronne numérotée i (1 i 10)
est proportionnelle à l’aire de cette couronne, et on suppose que le joueur atteint la cible à
chaque lancer. Soit X la v.a, qui à chaque lancé associe le numéro de la couronne atteinte.
Quelle est la loi de probabilité de X ? Trouver sa fonction de répartition? Calculer son
espérance et sa variance.
10 + 9 + 8 + 7 + 6 + 5 + 42 + 32 + 22 + 12 = 385
2 2 2 2 2 2
=1
D’où
1
=
385
Donc la loi de probabilité est donnée par ce tableau
P
xi 1 2 3 4 5 6 7 8 9 10
pi 102 92 82 72 62 52 42 32 22 12
100 81 64 49 36 25 16 9 4 1
Pi 385 385 385 385 385 385 385 385 385 385
1
4.7. Exercices
Chapter 4. VARIABLES ALÉATOIRES RÉELLES 76
L’espérance est
P
10 22
E (X) = xi P (X = xi ) = = 3; 1429
i=1 7
La variance est
2
2 2 488 22 996
V ar (X) = E X E (X) = = = 4; 0653
35 7 245
4.7. Exercices
Chapter 4. VARIABLES ALÉATOIRES RÉELLES 77
D’où 8
>
>
1
; si x = 0
>
> 8
>
> 2
>
< 8
; si x = 2
P (x) = 3
; si x = 4
>
>
8
>
> 2
; si x = 6
>
> 8
>
: 0 ailleurs
On peut la représentée par ce tableau
P
xi 0 2 4 6
1 2 3 2
P (X = xi ) 8 8 8 8
1
2) L’espérance et la variance
P
xi 0 2 4 6
1 2 3 2
P (X = xi ) 8 8 8 8
1
4 12 12 28
xi P (X = xi ) 0 8 8 8 8
8 48 72 128
x2i P (X = xi ) 0 8 8 8 8
L’espérance est
P
4 28
E (X) = xi P (X = xi ) = = 3; 5
i=1 8
La variance est
2
2 2 128 28
V ar (X) = E X E (X) = = 3; 75
8 8
Exercice 4.4 Une v.a.r. X a comme espérance E (X) = 50; et comme écart-type X =
10: Une nouvelle v.a.Y est constituée par la transformation linéaire Y = 10X + 100:
Déterminer:
a) E (Y ) ; b) V ar (Y ) ; c) Y:
4.7. Exercices
Chapter 4. VARIABLES ALÉATOIRES RÉELLES 78
Solution. a)
b)
V ar (Y ) = 102 V ar (X) = 100 100 = 10000:
c)
p
Y: = 10000 = 100
Exercice 4.5 soit X une v.a.r. continue dont la densité de probabilité est de la forme:
(
(30 x) ; si 0 x 30
f (x) =
0; si non
Solution. 1) Z +1
f (x) dx = 1
1
Z 0 Z 30 Z +1
0dx + (30 x) dx + 0dx = 1
1 0 30
3
1 2
30x x =1
2 0
1
30 (30) (30)2 = 1
2
1
=
450
Donc (
1
450
(30 x) ; si 0 x 30
f (x) =
0; si non
2) Z x
F (x) = f (t) dt
1
si x < 0 Z x
F (x) = 0dt = 0
1
4.7. Exercices
Chapter 4. VARIABLES ALÉATOIRES RÉELLES 79
si 0 x 30
Z
1 x
1 1 2 (30 x)2
F (x) = (30 t) dt = 30x x =1
450 0 450 2 900
si x 30
F (x) = 1
8
>
>
< 0; si x<0
(30 x)2
F (x) = 1 ; si 0 x 30
>
>
900
: 1; si 0 x 30
3) a)
Z 30
1
P (x > 15) = (30 x) dx
15 450
1 1 1
= 30 (30) (900) 30 (15) + (225) = 0; 25
450 2 2
ou bien
b)
Z 20
1
P (10 x 20) = (30 x) dx
10 450
1 1 1 1
= 30 (20) (400) 30 (10) + (100) =
450 2 2 3
c)
(30 12)2 16
P (X 12) = F (12) = 1 =
900 25
4) a)
Z 30
x
E (X) = (30 x) dx
0 450
1 27000
= 15 (900) = 10
450 3
b)
Z 30
2 x2
E X = (30 x) dx
0 450
1 810000
= 10 (27000) = 150
450 4
4.7. Exercices
Chapter 4. VARIABLES ALÉATOIRES RÉELLES 80
D’où
V ar (X) = E X 2 E2 (X) = 150 100 = 50:
2)
Z
2x 2 3 2
E(X) = x 2 dx = =
0 3 2 3
Z 2
2x 1 4
E(X 2 ) = x2 2 dx = =
0 2 2 2
D’où 2 2
4 2
V ar (X) = E(X 2 ) E2 (X) = =
2 9 18
4.7. Exercices
Chapter 4. VARIABLES ALÉATOIRES RÉELLES 81
L’espérance Z e
1
E(X) = x dx = [x]e1 = e 1
1 x
La vriance
Z e
2 1 1 2 e 1 2
E(X ) = x2 dx = x 1
= e 1
1 x 2 2
1 2
V ar(X) = E(X 2 ) E2 (X) = e 1 e2 2e + 1
2
1 2 3 1
= 2e e = e2 + 4e 3
2 2 2
Exercice 4.8 On jette 3600 fois un dé équilibré. Minorer la probabilité que le nombre
d’apparitions du numéro 1 soit compris entre 480 et 720.
480 < X < 720 , 120 < X 600 < 120 , jX 600j < 120:
500
P (jX 600j 120) 0; 035:
1202
Solution. On en déduit que
En particulier, la probabilité que le numéro 1 apparaisse entre 480 et 720 fois au cours de
ces 3600 lancers est supérieur à 0; 96.
4.7. Exercices
CHAPTER 5
LOIS USUELLES
Exemple 5.1 1) On e¤ectue un tirage d’une boule dans une urne contenant des boules
blanches et noires. On appelle succès le fait d’obtenir une boule blanche et échec le fait
d’obtenir une boule noire.
2) On lance une pièce une fois et on note le résultat. La pièce peut être tomber sur
FACE (succès) ou sur FACE (échec).
Dé…nition 5.2 Lors d’une épreuve de Bernoulli, soit p la probabilité d’un succès et
q=1 p la probabilité d’un échec Soit X le nombre de succès. X suit la loi de Bernoulli
de paramètre p; (p 2 [0; 1]) ( on note X B(p) )si elle est à valeur dans f0; 1g avec
(
1 p; si x = 0
P (X = x) =
p; si x = 1
82
Chapter 5. LOIS USUELLES 83
Preuve.
8
>
>
P
x < 0; si x < 0
k 1 k
FX (x) = P (1 p) = 1 p; si 0 x<1
k=0 >
>
: 1; si x 1
Espérance et Variance:
E (X) = p; V ar (X) = p (1 p) = pq
Preuve. En e¤et
P
2
E (X) = kP k (1 p)1 k
=0 P 0 (1 p)1 0
+1 P 1 (1 p)1 1
=P
k=0
C’est à dire:
X=k 0 1
P (X = k) q=1 p p
:
kP (X = k) 0 p
k 2 P (X = k) 0 p
Donc
E (X) = 0 q+1 p=p
Et
E X 2 = 02 q + 12 p=p
Et en …n
V ar (X) = E X 2 E2 (X) = p p2 = p (1 p) = pq
Exemple 5.2 Par exemple le nombre de points indiqué par un dé suit la loi uniforme sur
f1; 2; 3; 4; 5; 6g:
Espérance et variance
n+1 n2 1
E (X) = ; V ar (X) =
2 12
Preuve. En e¤et:
1 1 1 1
E (X) = 1 +2 + ::: + n = (1 + 2 + ::: + n)
n n n n
1 n n+1
= (1 + n) = ; suite arithmétique
n 2 2
Et
1 1 1 1 2
E X 2 = 12 + 22 + ::: + n2 = 1 + 22 + ::: + n2
n n n n
Nous pourrons démontré par récurrence que
n (2n2 + 3n + 1)
12 + 22 + ::: + n2 =
6
Donc
2n2 + 3n + 1
E X2 =
6
Et en …n
2n2 + 3n + 1 n2 + 2n + 1
V ar (X) = E X 2 E2 (X) =
6 4
4n2 + 6n + 2 3n2 6n 3 n2 1
= = :
12 12
P
n
Cnk pk (1 p)n k
= (p + 1 p)n = 1;
k=0
Propriétés.
Remarque 5.1 Comme le calcul de F (x) est fastidieux lorsque que n est grand, on
utilise souvent en pratique une table dite table de loi binomiale.
Espérance et Variance:
Preuve. En e¤et
P
n P
n n!
E (X) = kCnk pk (1 p)n k
= k pk (1 p)n k
k=0 k=1 k! (n k)!
P
n (n 1)!
= np pk 1 (1 p)n k
k=1 (k 1)! (n k)!
nP1 (n 1)!
= np pi (1 p)n 1 i = np (p + 1 p)n 1
= np
i=0 i! (n 1 i)!
Et
P
n P
n n!
E X2 = k 2 Cnk pk (1 p)n k
= k pk (1 p)n k
k=0 k=1 (k 1)! (n k)!
Pn n!
= (k 1 + 1) pk (1 p)n k
k=1 (k 1)! (n k)!
Pn n!
= (k 1) pk (1 p)n k
k=1 (k 1)! (n k)!
Pn n!
+ pk (1 p)n k
k=1 (k 1)! (n k)!
Pn n!
= pk (1 p)n k
k=2 (k 2)! (n k)!
Pn n!
+ pk (1 p)n k
k=1 (k 1)! (n k)!
P
n (n 2)!
= n (n 1) p2 pk 2 (1 p)n k
k=2 (k 2)! (n k)!
Pn (n 1)!
+np pk 1 (1 p)n k
k=1 (k 1)! (n k)!
nP2 (n 2)!
= n (n 1) p2 pj (1 p)n 2 j
j=0 j! (n 2 j)!
nP1 (n 1)!
+np pi (1 p)n 1 i
i=0 i! (n 1_i)!
= n (n 1) p2 (p + 1 p)n 2
+ np (p + 1 p)n 1
= n2 p2 np2 + np
Donc
Et
P
n P
n P
n
V ar (X) = V ar Yk = V ar (Yk ) = pq = npq:
k=1 k=1 k=1
Exemple 5.3 On jette 10 fois une pièce de monnaie bien équilibrée. On suppose que
face correspond à un succès.
On veut calculer les probabilités des événements suivants:
1) Pour que l’on ait exactement trois faces.
2) Pour obtenir au moins huit faces.
3).De n’avoir aucune face.
4). D’avoir au moins une face.
Solution. 1) p1 = P (X = 3)
3 7
3 1 1 15
p1 = C10 = ' 0; 1172
2 2 128
P
10
2) p2 = P (X = k)
k=8
10 10 10 10
8 1 9 1 10 1 1 8 9 10
p2 = C10 + C10 + C10 = C10 + C10 + C10
2 2 2 2
10
1 8 7
= C10 + 10 + 1 = ' 0; 05469:
2 128
3) P3 = P (X = 0)
0 10
0 1 1 1
P3 = C10 = ' 0; 00098
2 2 1024
4) p4 = 1 P3
1 1023
p4 = 1 = ' 0; 9990
1024 1024
Contexte
On tire sans remise n objets d’un ensemble de N objets dont M possèdent une cara-
ctéristique particulière et les autres (N M ) ne la possèdent pas.
Exemple 5.4 Soit X le nombre aléatoire d’objets de l’échantillon qui possèdent la cara-
ctéristique. Quelle est sa loi?
On peut prendre comme espace l’ensemble de tous les échantillons possibles (toutes
les parties à n éléments d’un ensemble de cardinal N ) muni de l’équiprobabilité. Chaque
1
échantillon a ainsi une probabilité CNn d’être choisi. Les échantillons (événements élé-
mentaires) réalisant l’événement fX = kg sont ceux qui contiennent k objets qui pos-
sèdent la caractéristique et n k objets qui ne la possèdent pas. Ceci n’est réalisable que
si 0 k M et 0 n k N M . Dénombrons ces échantillons. On les formes en
choisissant k objets parmi M et en complétant par n k objets choisis parmi N M . Il
k
y en a donc CM CNn kM . Finalement on a:
k
CM CNn k
M
P (X = k) = ; si 0 k M et 0 n k N M: (5.5)
CNn
Dé…nition 5.5 La loi dé…nie par l’expression (5:5) s’appelle loi hypergéométrique de
paramètres N; M et n. ( on note X H(N; M; n)). Le paramètre N est l’e¤ectif de la
population totale, M celui de la sous-population à laquelle on s’intéresse et n la taille de
l’échantillon observé.
Pour une taille d’échantillon …xée, plus N et M sont grands, moins les tirages sans re-
mise di¤érent des tirages avec remise. Plus précisément, la loi hypergéométrique converge
vers la loi binomiale au sens suivant:
Théorème 5.2 On suppose que quand N tend vers +1, M = M (N ) tend vers +1 en
véri…ant la condition:
M
lim
= p; avec 0 < p < 1
N !1 N
Alors, n restant …xé, la loi hypergéométrique H(N; M; n) converge vers la loi binomiale
B(n; p), ce qui signi…e que si (XN )N 1 est une suite de v.a. avec XN H(N; M; n) et Y
est une v.a. de loi binomiale B(n; p),alors :
Autrement dit :
k
CM CNn k
M
8k = 0; 1; :::; n; lim = Cnk pk (1 p)n k
N !1 CNn
Remarque 5.2 Dans la pratique, on admet que cette approximation est satisfaisante
lorsque n < 0; 05N .
Espérance et variance:
N n
E (X) = np; V ar (X) = npq
N 1
Exemple 5.5 On prend au hasard, en même temps, quatre ampoules dans un lot de 30
dont 5 sont défectueuses. Calculer la probabilité des événements :
A: "au moins une ampoule est défectueuse";
B: "les 4 ampoules sont défectueuses";
C: "exactement une ampoule est défectueuse".
Dé…nition 5.6 Une v.a.r X sur l’espace de probabilité ( ; A; P) suit la loi géométrique
de paramètre p 2]0; 1[ ( on note X G(p) ) si elle est à valeurs dans N avec
(
(1 p)k 1 p; si k 2 N
P (X = k) = : (5.6)
0; ailleurs
Lorsque X suit une loi géométrique, les probabilités P (X > n) ont une expression
particulièrement simple en fonction de q = 1 p. Calculons les de deux façons.
Première méthode: On calcule le reste d’une série géométrique
P
1 P
1 P
1
P (X > n) = qk 1p = q j p = pq n qj n
k=n+1 j=n j=n
n
P i
1 1
= pq q = pq n = qn:
i=0 1 q
Deuxième méthode: On se place dans la situation de l’exemple précédent. L’événement
fX > ng se réalise si et seulement si les n premières épreuves donnent un échec.
T
n
fX > ng = Ri
i=1
Espérance et variance:
1 1 p
E (X) = ; V ar (X) =
p p2
Preuve. En e¤et
P
1 P
1 d P
1
E (X) = k:p (1 p)k 1
=p k (1 p)k 1
=p (1 p)k
k=0 k=0 dp k=0
d 1 d 1 1
= p =p =
dp 1 (1 p) dp p p
k=0 k=0
P
1 P
1
= p k (k + 1) (1 p)k 1
p k (1 p)k 1
k=0 k=0
d 2 P
1 1
= p (1 p)k+1
dp2 k=0 p
d2 1 1 2 1
= p 2 = 2
dp p p p p
Et en …n
2 1 1 1 p
V ar (X) = =
p2 p p 2 p2
P (X 8) = 1 P (X < 8)
!
2 3 4 5 6
1 5 5 5 5 5 5
= 1 + + + + +
6 6 6 6 6 6 6
= 0; 27908
k
P
1
8 2 R; e =
k=0 k!
On a alors: k k
P
1 P
1 e P
1
P (X = k) = =e =e e =1
k=0 k=0 k! k=0 k!
E (X) = V ar (X) =
En e¤et:
k k k 1
P
1 e P
1 e P
1
E (X) = k = = e
k=0 k! k=1 (k 1)! k=1 (k 1)!
j
P
1
= e = e e =
j=0 j!
Et
k k 1 k 1
P
1 e P1 P1
E X2 = k2 = e k = e (k 1 + 1)
k=0 k! k=1 (k 1)! k=1 (k 1)!
k 1 k 1
P1 P1
= e (k 1) + e
k=1 (k 1)! k=1 (k 1)!
k 2 k 1
P1 P1
= 2e + e
k=2 (k 2)! k=1 (k 1)!
i j
P1 P
1
= 2e + e = 2e e + e e
i=0 i! j=0 j!
2
= + ;
Et en…n
2 2
V ar (X) = E X 2 E2 (X) = + = :
Nous allons considérer une v.a X qui suit une loi binomiale et voir sous quelles conditions
cette v.a va-elle suivre une loi de poisson? En e¤et la loi de poisson est plus simple qu’une
loi binomiale qui elle dépend de deux paramètres (n et p), alors que la loi de Poisson ne
dépend que d’un seul paramètre ( ). Et chaque fois qu’il est possible (si les conditions
que nous allons voir le permettent) de remplacer la loi binomiale par la loi de poisson, il
faut faire.
Alors k
n k e
lim Cnk pkn (1 pn ) = :
n !1 k!
Autrement dit
P (X = k) = Cnk pk q n k
et P (X = k 1) = Cnk 1 pk 1 q n k+1
Donc:
P (X = 0) + P (X = 1) + ::: + P (X = k) + ::: = 1
Ou
np (np)k
P (X = 0) + P (X = 0) + ::: + P (X = 0) + ::: = 1
1! k!
!
np (np)2 (np)k
P (X = 0) 1 + + + ::: + + ::: = 1
1! 2! k!
Ou
P1 (np)k
P (X = 0) =1
k=0 k!
Donc:
P (X = 0) :enp = 1 () P (X = 0) = e np
Et
(np)k (np)k np
P (X = k) = P (X = 0) = e
k! k!
Posons np =
k
P (X = k) = :e
k!
Application pratique:
Exemple 5.8 La probabilité pour qu’un individu ait une mauvaise réaction à l’injection
1
d’un certain vaccin est de 1000 . Déterminer la probabilité pour que sur 2000 individus:
1) 3 aient une mauvaise réaction.
2) Plus de deux aient une réaction dangereuse
Solution. L’utilisation de la loi binomiale pour la résolution de cet exemple. En e¤et:
1
X B 2000; 1000 :
1)
3
P (X = 3) = C2000 (0; 001)3 : (0; 999)1997
2)
P (X > 2) = 1 [P (X = 0) + P (X = 1) + P (X = 2)]
= 1 0
C2000 (0; 001)0 : (0; 999)2000 1
C2000 (0; 001)1 : (0; 999)1999
2
C2000 (0; 001)2 : (0; 999)1998
2)
P (X > 2) = 1 [P (X = 0) + P (X = 1) + +P (X = 2)]
1 2 2 5
= 1 2
+ 2 + 2 =1 ' 0; 323:
e e e e2
Espérance et Variance
a+b (b a)2
E (X) = ; V ar (X) = :
2 12
Preuve. En e¤et:
Z b
x 1 b b 2 a2 a+b
E (X) = dx = x2 a
= = :
a b a 2 (b a) 2 (b a) 2
Z b
2 x2 b 3 a3 1 b
E X = dx = x3 a
=
a b a 3 (b a) 3 (b a)
2 2
(b a) (a + ab + b ) (a + ab + b2 )
2
= =
3 (b a) 3
Donc
a2 + ab + b2 a2 + 2ab + b2
V ar (X) = E X 2 E2 (X) =
3 4
2 2 2
a 2ab + b (b a)
= =
12 12
La fonction de répartition de la loi U (a; b) est:
8
>
>
< 0; si x a
FX (x) = x a (5.9)
; si a x b
>
>
b a
: 1 si x b
Puisque: Z x
1 x a
F (x) = dt = ; si a < x < b
b a
a b a
lim F (x) = 0; et lim F (x) = 1
x ! 1 x !+1
Exemple 5.9 X U (10; 20) ; calculer les probabilités suivantes : P (X 12), et,
P (12 X 15).
Calculer son espérance et sa variance.
Solution. Z 12
1 1 1
P (X 12) = dx = [x]12
10 = ;
10 10 10 5
Z 20
1 1 4
P (X > 12) = dx = [x]20
12 =
12 10 10 5
Ou bien directement:
1 4
P (X > 12) = 1 P (X 12) = 1 = ;
5 5
Z 15
1 1 3
P (12 X 15) = dx = [x]15
12 = :
12 10 10 10
L’espérance et la variance:
10 + 20 (20 10)2 25
E (X) = = 15; V ar (X) = = :
2 12 3
Exemple 5.10 A partir de 7 heures, les bus passent toutes les 15 minutes à un arrêt
donné. Ils passent donc à 7h; 00, 7h; 15, 7; h30 et ainsi de suite. Un usager se présente
entre 7h; 00 et 7h; 30 à cet arrêt, l’heure exacte de son arrivée étant une variable uniforme
sur cette période. Trouver la probabilité qu’il doive attendre moins de 5 minutes, puis
plus de 10 minutes.
Z 20Z 5
1 1
P (0 < X < 5) + P (15 < X < 20) = dx + dx
0 30 15 30
1 1 5+5 1
= [x]50 + [x]20
15 = = :
30 30 30 3
Dé…nition 5.9 Une v.a.r X sur l’espace de probabilité ( ; A; P) est dite de loi exponen-
tielle de paramètre ( > 0) ; (on note X Exp( ) )si sa densité est donnée par:
(
exp( x); x 0
f (x) = (5.10)
0; ailleurs
En e¤et
Z +1 Z 0 Z +1
x 1 x +1
f (x) dx = 0dx + e dx = 0 + e 0
=1
1 1 0
Espérance et Variance:
1 1
E(X) = ; V ar(X) = 2
Preuve. En e¤et
Z +1
E(X) = xf (x)dx
1
Z Z +1
0
= 0dx + x e x dx
1 0
Z +1
x +1
= xe 0
+ e x dx
0
1 x +1 1
= e 0 =
Et
Z +1 Z +1
2 2
E(X ) = x f (x)dx = x2 e x
dx
0
Z 0+1
x +1
= x2 e 0
+2 xe x
dx
0
1 2
= 0+2 E(X) = 2;
Et en …n
2
2 2 2 1
V ar(X) = E(X ) E (X) = 2
1
= 2
Exemple 5.11 On suppose que le temps d’attente moyen entre deux bus est de 3 minutes.
Quelle est la probabilité que vous attendez plus de 5 minutes ?
Solution. La v.a X qui représente le temps d’attente (en minutes) entre deux bus peut
être modélisée par une loi exponentielle d’espérance égale à 3, c’est à dire de paramètre
= 13 et donc X Exp( 13 ).
Donc la probabilité d’attendre plus que 5 minutes est:
Z +1 h i+1
1 1x 1 1 5
P (X > 5) = e 3 dx = 3 e 3x =e 3 ' 0; 1889:
5 3 3 5
Dé…nition 5.10 Une v.a.r X sur l’espace de probabilité ( ; A; P) est dite de loi Normale
2
de paramètres et (on note X N( ; ))si sa densité est donnée par:
!
1 (x )2
f (x) = p exp 2
(5.12)
2 2
n’est pas exprimable à l’aide des fonctions usuelles (Puissances, trigonométriques, hyper-
boliques et leurs fonctions réciproques). Les valeurs numériques prises par la fonction de
répartition de la loi normale sont tabulées.
On déduit que 2 I 2 = 2 ce qui permet de conclure, puisque I est un réel positif, que
I = 1:
Donc f est bien une densité.
Espérance et Variance:
2
E(X) = ; V ar(X) =
Preuve. En e¤et: Z +1
1 1
( x ) dx
2
E (X) = p xe 2
2 1
Preuve.
Z +1 Z +1
1 1 x
( )
2 1 1 2
y
E (X) = p xe 2 dx = p ( y + )e 2 dy
2 1 2 1
Z +1 Z +1
1 1 x 2
e 2 ( ) dy
1 2
y
= p ye 2 dx + p
2 1 2 1
1 h i
1 2 +1
= p e 2y + 1=0+ =
2 1
On rappelle que pour tout réel positif et pour tout fonction impaire et continue sur
R+
[ ; + ], on a h (x) dx = 0:
2) On véri…e par un calcul analogue que E (X 2 ) = 2 + 2 , ce qui permet d’établir que
2
V ar (X) = :
En e¤et
Z +1 Z +1
1 ( x
)
2 1 1 1 2
E X 2
= p xe 2
dx = p 2 ( y + )2 e 2 y dy
1 2 2 1
2 Z +1 Z +1 2 Z +1
1 2 1 2 1 2
2 y y y
= p y e 2 dy + 2 p ye 2 dy + p e 2 dy
2 1 2 1 2 1
2 Z +1 2 Z +1
1 2 1 2
y
= p y:ye 2 dy + 0 + p e 2 y dy
2 1 2 1
Or Z +1 h i+1 Z +1
1 1 2
y 1 2
y 1 1 2
y
p y:ye 2 dy = ye 2 +p e 2 dy
2 1 1 2 1
D’où Z +1
2 2 2 1 1 2
y 2 2
E X = + :p e 2 dy = +
2 1
Et
2 2 2 2
V ar (X) = + =
Théorème 5.4 (très important) Soit X une v.a continue. Et soit Z la v.a centrée et
réduite associe à X: Alors
2 X
X N( ; ) () Z = N (0; 1)
X
8x 2 R; FZ (x) = P (Z x) = P x = P (X + x)
Z + x
1 1 2
( t ) dt
= FX ( + x) = p e 2
2 1
Posons
t
z= =) t = + z =) dt = dz
Z x
1 1 2
FZ (x) = p e 2 z dz
2 1
On reconnait ici la fonction de répartition de la loi normale correspondant à Z = 0 et
Z = 1. Ce qui montre que Z suit la loi normale de paramètres 0 et 1
(=? Soit X une v.a continue admettant une espérance mathématique et une et un
X
écart-type : Telle que Z = N (0; 1). Cherchons la fonction de répartition de X:
X x x
8x 2 R; FX (x) = P (X x) = P =P Z
Z x
x 1 1 2
z
= FZ =p e 2 dz
2 1
On obtient Z x
1 1 x 2
FX (x) = p e 2 ( ) dt
2 1
Ce reconnait ici la fonction de répartition de la loi normale de paramètres et : Ce
2
qui montre que X N( ; )
2
Remarque 5.5 Tout calcul de probabilités à partir d’une loi normale N ( ; ) se ramène
donc par réduction (conséquence du théorème ci-dessus ) à un calcul de probabilité à partir
de N (0; 1)
Remarque 5.6 On peut aussi remarquer que si Z est de loi N (0; 1), alors Z aussi et
donc, pour u > 0,
P( u Z u) = P (Z u) P (Z u) = P (Z u) P (Z u)
= P (Z u) 1 + P (Z u) = 2P (Z u) 1
Exemple 5.12 Supposons que la v.a X égale au poids d’un nouveau-né suive une loi
normale de moyenne 3; 2 kg et d’écart-type 0; 4 kg:
1) Quelle est la probabilité qu’un nouveau-né pèse plus de 4 kg?
2) Quelle est la probabilité qu’un nouveau-né pèse moins de 3 kg?
3) Quelle est la probabilité qu’un nouveau-né pèse entre 2; 8 kg et 3; 6 kg?
Solution. 1)
X 3; 2 4 3; 2
P (X > 4) = P > = P (Z > 2) = 1 FZ (2)
0; 4 0; 4
= 1 0; 977725 = 0; 02275
2)
X 3; 2 3 3; 2
P (X < 3) = P < = P (Z < 0; 5) = 1 FZ (0; 5)
0; 4 0; 4
= 1 0; 6951 = 0; 3085
3)
2; 8 3; 2 X 3; 2 3; 6 3; 2
P (2; 8 < X < 3; 6) = P < <
0; 4 0; 4 0; 4
= P ( 1 < Z < 1) = FZ (1) FZ ( 1) = [1 FZ (1)]
= 2FZ (1) 1=2 0; 8413 1 = 0; 6826
Lorsque ! 1, il est possible d’approximer une loi de Poisson P ( ) par une loi normale
p
N ; .
En pratique, dès 18, nous obtenons une approximation satisfaisante, par exemple
Espérance et Variance
1 2 2 2
E (X) = exp + ; V ar (X) = exp 1 exp 2 +
2
Remarque 5.8 La fonction Gamma prolonge la fonction factorielle sur l’ensemble des
réels au sens où
8n 2 N; (n + 1) = n! et 8 > 0; ( + 1) = ( )
De plus on a
1 p
=
2
En e¤et Z +1
( + 1) = x e x dx
0
Faisons une intégration par partie
Z +1
x +1 1
( + 1) = x e 0
+ x e x dx = ( )
0
et Z +1
x +1
(1) = e x dx = e 0
= 1 = 0!
0
Z +1
x +1
(2) = xe x dx = xe 0
+ (1) = 1 = 1!
0
Z +1
x +1
(3) = x2 e x dx = x2 e 0
+ 2 (2) = 2 = 2!
0
Z +1
x +1
(4) = x3 e x dx = x3 e 0
+ 3 (3) = 3 2 = 3!
0
Z +1
x +1
(5) = x4 e x dx = x4 e 0
+ 4 (4) = 4 3 2 = 4!
0
On peut montrer par récurrence que
8n 2 N; (n + 1) = n!
Supposons que la proposition soit vraie pour n et on démontre qu’elle est vraie pour
n+1
Z +1 Z +1
n+1 x n+1 x +1
(n + 2) = x e dx = x e 0
+ (n + 1) xn e x dx
0 0
= (n + 1) (n + 1) = (n + 1) n! = (n + 1)!
Espérance et Variance
E (X) = ; V ar (X) = 2
Preuve.
Z +1
1
E (X) = x x 1 exp ( x) dx
0 ( )
Z +1
= x exp ( x) dx
( ) 0
y
Faisons le changement de variable y = x =) x = =) dx = 1 dy
Z +1
y y
E (X) = exp dy
( ) 0
Z +1
= +1 y exp ( y) dy
( ) 0
1 1
= ( + 1) = ( )
( ) ( )
= :
Et en …n
2
( + 1)
V ar (X) = 2 2 = 2
Espérance et Variance
E (X) = n; V ar (X) = 2n
5.3 Résumé:
5.3.1 Lois discrètes
1
Gamma ( ; ) R+ ( )
x 1
e x
2
n
2 1 x 1 1
x
Khi-deux n R+ 2
e 2 n 2n
( n2 ) 2
Sn
lim P " =0
n!1 n
Preuve. Inégalité de Chebyshev dit que si " > 0 on a
V ar (X)
P (jX j ") = ;
"2
5.3. Résumé:
Chapter 5. LOIS USUELLES 110
Sn
on remplace X par n
;on trouve
Sn V ar Snn
P " =
n "2
V ar (Sn ) n 2 2
= = = ;
n 2 "2 n 2 "2 n"2
on a donc
Sn
lim P " =0
n!1 n
Remarque 5.9 Le théorème central limite dit que dans toute suite d’épreuves répétées la
moyenne d’échantillonnage centrée réduite Zn approche la courbe normale centrée réduite
Z N (0; 1), quand le nombre d’épreuves augmente.
p
n
(Sn n ) ' Z (6.2)
Par conséquent on a
p
n
lim P a (Sn n ) b = (b) (a) (6.3)
n!1
Exemple 5.13 Dans un circuit électrique 10 éléments sont montés en série. La résistance
de chaque élément, Rk , est répartie selon la même loi de probabilité avec moyenne =
2
100 et variance =1 :
Quelle est la probabilité que la résistance totale soit comprise entre 995 et 1005 ?
Solution. On a
R = R1 + R2 + ::: + R10
avec
E(Rk ) = 100 et V ar(R) = 1; k = 1; 2; :::; 10
5.5 Exercices
Exercice 5.1 On pose 20 questions à un candidat. Pour chaque question k réponses sont
proposées dont une seule est la bonne. Le candidat choisit au hasard une des réponses
proposées.
1) On lui attribue un point par bonne réponse. Soit X le nombre de points obtenus.
Quelle est la loi de X ?
2) Lorsque le candidat donne une mauvaise réponse, il peut choisir à nouveau une des
1
autres réponses proposées. On lui attribue alors 2
point par bonne réponse. Soit Y le
nombre de 12 points obtenus lors de ces seconds choix. Quelle est la loi de Y ?
3) Soit S le nombre total de points obtenus. Déterminer k pour que le candidat obtienne
en moyenne une note de 5 sur 20:
Solution. 1). On note Xi le résultat du candidat à la question i. Les v.a.d. (Xi ; 1
1
i 20) sont des v.a.d. de Bernoulli indépendantes et de même paramètre P (Xi = 1) = k
P20
comme X = Xi , la loi de X est donc la loi binomiale B(20; k1 ).
i=1
2). Si Xi = 0, on note Yi le résultat du candidat à la question i lors du second choix.
P
20
Si Xi = 1,on pose Yi = 0. Ainsi Y = Yi représente le nombre de bonnes réponses au
i=1
deuxième choix. Les v.a.d. (Yi ; 1 i 20) sont des v.a.d. indépendantes et de même
loi. Comme elles sont à valeurs dans f0; 1g, il s’agit de v.a. de Bernoulli. On détermine
5.5. Exercices
Chapter 5. LOIS USUELLES 112
leur paramètre :
P (Yi = 1) = P (Yi = 1; Xi = 0)
= P (Yi = 1=Xi = 0) P (Xi = 0)
1 k 1 1
= = :
k 1 k k
Donc Y suit la loi binomiale B(20; k1 ). On remarquera que les v.a.d. X et Y ne sont
pas indépendantes.
3). Le nombre total de points est S = X + 21 Y , Il vient E (S) = E (X) + 21 E (Y ) =
20
k
+ 10k
= 30
k
.
Il faut prendre k = 6:
Exercice 5.2 Une entreprise pharmaceutique décide de faire des économies sur les tarifs
d’a¤ranchissements des courriers publicitaires à envoyer aux clients. Pour cela, elle décide
d’a¤ranchir, au hasard, une proportion de 3 lettres sur 5 au tarif urgent, les autres au
tarif normal.
1) Quatre lettres sont envoyées dans un cabinet médical de quatre médecins : quelle est
la probabilité des événements:
A: "Au moins l’un d’entre eux reçoit une lettre au tarif urgent".
B: "Exactement 2 médecins sur les quatre reçoivent une lettre au tarif urgent".
2) Soit X la variable aléatoire : «nombre de lettres a¤ranchies au tarif urgent parmi
10 lettres» : Quelle est la loi de probabilité de X, quelle est son espérance, quelle est sa
variance?
Solution. 1) On utilise une loi binomiale, loi de la v.a : «nombre de lettres a¤ranchies
3
au tarif urgent parmi 4 lettres» n = 5, p = 5
On obtient
4
2
P (A) = 1 = 0; 9744
5
Et
2 2
2 3
P (B) = C42 = 0; 3456:
5 5
2) La loi de probabilité de X est une loi binomiale, loi de la v.a
3
: «nombre de lettres a¤ranchies au tarif urgent parmi 10 lettres» . n = 10, p = 5
, son
espérance est
3
E (X) = np = 10 =6
5
Et sa variance est
3 2 12
V ar (X) = np(1 p) = 10 = :
5 5 5
5.5. Exercices
Chapter 5. LOIS USUELLES 113
Exercice 5.3 Soit X B (n; p). Montrer que pour tous entiers naturels k; n; (k n)
on a (
(1 p)n si k = 0
P (X = k) = n k+1 p
k 1 p
(X = k 1) si j 1
Solution. Pour k = 0;
P (X = 0) = Cn0 p0 (1 p)n 0
= (1 p)n
Pour k 1:
P (X = k) = Cnk pk (1 p)n k
n!
= pk (1 p)n k
k! (n k)!
n!
= pk 1 (1 p)n k+1
(k 1)! (n k + 1)!
p n k+1 k 1 k 1
= Cn p (1 p)n (k 1)
1 p k
n k+1 p
= P (X = k 1)
k 1 p
Remarque 5.10 Cette formule est particulièrement utile lorsque n est grand et k petit.
Exercice 5.4 On sait par expérience que 70% des personnes atteintes d’un certain type
de cancer …nissent par en mourir. Dans une petite ville, 5 habitants sont atteints de la
maladie.
a) Quelle est la probabilité qu’exactement deux des cinq …nissent par en mourir?
b) Quelle est la probabilité qu’au moins une des cinq …nisse par en mourir?
P (X 1) = 1 P (X < 1)
= 1 P (X = 0)
0 5
7 3
= 1 C50 = 0; 99757
10 10
5.5. Exercices
Chapter 5. LOIS USUELLES 114
Exercice 5.5 Un examen de 8 questions objectives donne pour chaque question un choix
de quatre réponses dont une seule est correcte. Pour réussir l’examen il faut avoir au
moins 5 bonnes réponses. Quelle est la probabilité qu’un étudiant qui ne connaît pas sa
matière et répond au hasard réussisse?
Solution. Soit X la variable aléatoire qui compte le nombre des réponses correctes;
X B 8; 41
P (X 5) = P (X = 5) + P (X = 6) + P (X = 7) + P (X = 8)
5 3 6 2 7 8 0
1 3 1 3 1 3 1 3
= C85 + C86 + C87 + C88
4 4 4 4 4 4 4 4
= 0; 027298
Exercice 5.6 Soit une urne contient 4 boules blanches et 6 boules noires. Toutes les
boules sont équiprobables.
1) On tire simultanément 5 boules et on désigne par X la v.a. égale au nombre
de boules blanches obtenues. Déterminer la loi de probabilité de X. Calculer E (X) et
V ar (X) :
2) On tire maintenant les cinq boules successivement en remettant chaque fois la boule
tirée dans l’urne avant le suivant. Soit Y la v.a égale au nombre de boules blanches
obtenues après cinq tirages. Déterminer la loi de probabilité de Y . Calculer E (Y ) et
V ar (Y ) :
X ( ) = f0; 1; 2; 3; 4g
( C4k C65 k
5
C10
; si k 2 f0; 1; 2; 3; 4g
P (X = k) =
0; ailleurs
P
xi 0 1 2 3 4
C40 C65 6 C41 C64 60 C42 C63 120 60 6
Pi 5
C10
= 252 5
C10
= 252 5
C10
= 252 252 252
1
60 240 180 24
x i Pi 0 252 252 252 252
2
60 480 540 96 14
x2i Pi 0 252 252 252 252 3
5.5. Exercices
Chapter 5. LOIS USUELLES 115
P
5 14
E X2 = x2i P (X = xi ) =
i=1 3
et
14 1
V ar (X) = E X 2 E2 (X) = 4=
3 3
2) Y suit la loi binomiale N 5; 52
k 5 k
2 3
P (Y = k) = C5k
5 5
2
E (X) = np = 5 = 10
5
2 3 6
V ar (X) = npq = 5 = :
5 5 5
Exercice 5.7 Une population comporte en moyenne une personne mesurant plus de
1m 90 sur 80 personnes. Sur 100 personnes, calculer la probabilité qu’il y ait au moins
une personne mesurant plus de 1; 90 m (utiliser une loi de Poisson). Sur 300 personnes,
calculer la probabilité qu’il y ait au moins une personne mesurant plus de 1; 90 m
Sur 300 personnes : la probabilité qu’il y ait au moins une personne mesurant plus de
1; 90 m est donc
300
P (Y 1) = 1 P [Y = 0] = 1 e 80 = 0; 97648
Exercice 5.8 (Loi de Laplace). Soient un nombre réel donné et f une fonction dé…nie
pour tout réel x par:
1
f (x) = e jx j
2
1) Démontrer que f est fonction de densité d’une v.a.r. X
2) Déterminer la fonction de répartition F de X:
3) Calculer E(X) et V ar(X).
5.5. Exercices
Chapter 5. LOIS USUELLES 116
1
Solution. 1) 8x 2 R; 2
e jx j
0 et
Z +1 Z Z +1
1 jx j 1 (x ) 1 (x )
e dx = e dx + e dx
1 2 1 2 2
1 (x ) 1 (x ) +1
= e 1
e
2 2
1 1
= + =1
2 2
Donc f est bien une fonction de densité.
2) si x < Z x
1 (t ) 1 (t ) x 1 (x )
F (x) = e dt = e 1
= e
1 2 2 2
si x
Z x
1 (t ) 1 ) x 1
F (x) = e dt = e (t = e (x )
+1
2 2 2
D’où (
1
2
e(x )
; si x <
F (x) = 1 (x )
2
1 e ; si x
3)
Z Z +1
1 (x ) 1 (x )
E(X) = xe dx + xe dx
1 2 2
1 1 (x 1 ) +1 1 ) +1
= xe(x ) 1 e )
1
+ xe (x
e (x
2 2 2 2
1 1
= + + =
2 2 2 2
Z Z +1
2 1 2 (x ) 1 2 (x )
E(X ) = xe dx + xe dx
1 2 2
Z Z +1
1 2 (x ) (x ) 1 2 (x ) +1 (x )
= xe 1
xe dx + xe + xe dx
2 1 2
2 2
2
= +1+ +1= +2
2 2
2 2
V ar (X) = E(X 2 ) E2 (X) = +2 =2
Exercice 5.9 Un appareil électronique envoie à une imprimante un code qui est un
nombre de quatre chi¤res, chaque chi¤re ne pouvant prendre que les valeurs 0 ou 1 (par
exemple : 1011).
5.5. Exercices
Chapter 5. LOIS USUELLES 117
Exercice 5.10 On estime que 1400 passagers ont réservé, le vendredi soir, sur le TGV
Paris-Nantes de 19h300 :
Les portes du train ouvrent une demi-heure avant le départ. Parmi les usagers, 50
arrivent avant l’ouverture des portes et 70 arrivent trop tard. On considère la variable
aléatoire X, égale à la date d’arrivée d’un voyageur calculée par rapport à 19h30. (X = 0
à 19h300 et X est exprimé en minutes).
1) En admettant que cette variable X suit une loi N ( ; ), calculer et .
2) Déterminer l’heure à laquelle les portes du train doivent être ouvertes pour qu’il n’y
ait pas plus de 20 usagers qui attendent sur le quai.
3) Calculer le nombre de voyageurs ayant manqué le train si celui-ci accuse un retard
de 5 minutes.
Solution. 1) L’origine des heures d’arrivée est placée à 19h300 . X est l’heure d’arrivée
d’un voyageur comptée à partir de 19h300 et exprimée en minutes.
Parmi l’ensemble des 1400 passagers, X, variable statistique, représente l’heure
d’arrivée des voyageurs, qui est décrite par sa distribution statistique.
Si on tire un voyageur au hasard, X est la variable aléatoire « heure d’arrivée du
voyageur » , dont la loi-parente est la loi de description statistique précédente et dont les
probabilités peuvent être calculées à partir des fréquences observées dans l’ensemble de
la population.
5.5. Exercices
Chapter 5. LOIS USUELLES 118
X 30 50
P (X 30) = P = P (U u0 ) =
1400
P (U u0 ) = 1 P (U u0 ) = 0; 357; P (U u0 ) = 0; 96429
X 70
P (X 0) = P =
1400
P (U u1 ) = 1 P (U u1 ) = 0; 05 soit P (U u1 ) = 0; 95
u1 = 1; 645 =
On a donc le système:
( (
30+
1; 803 = = 14; 31 mn
=)
1; 645 = = 8; 70 mn
2) La variable aléatoire X suit la loi N ( 14; 31; 8; 7): On doit déterminer a pour que:
X + 14; 31 a + 14; 31
P (X a) = P
8; 7 8; 7
a + 14; 31 20
P (X a) = P U u2 = = = 0; 00143
8; 7 1400
5.5. Exercices
Chapter 5. LOIS USUELLES 119
P (U u2 ) = P (U u2 ) = 1 P (U u2 ) = 0; 00143
P (U u2 ) = 1 0; 00143 = 0; 9857
Exercice 5.11 1) Soit Z une v.a. de loi N (0; 1). Calculer les probabilités suivantes:
P ( 1 Z 1), P ( 2 Z 2) et P ( 3 Z 3) :
2) Soit X une v.a. de loi N ( ; ). Calculer les probabilités suivantes:
P( X + ); P ( 2 X + 2 ) et P ( 3 X + 3 ):
Solution. 1)
P( 1 Z 1) = P (Z 1) P (Z 1) = P (Z 1) P (Z 1)
= P (Z 1) 1 + P (Z 1) = 2P (Z 1) 1
= 2FZ (1) 1=2 0; 8431 1 = 0; 6862
5.5. Exercices
Chapter 5. LOIS USUELLES 120
P( 2 Z 2) = 0; 9544
P( 3 Z 3) = 0; 9973
2)
X
P( X + ) = P 1 1
= P( 1 Z 1) = 0; 6862
P( 2 X +2 )=P ( 2 Z 2) = 0; 9544
P( 3 X +3 )=P ( 3 Z 3) = 0; 9973
Solution.
89 89
P (X 89) = 0; 90 , P (Z ) = 0; 90 , FZ ( ) = 0; 9:
Donc
89
= 1; 28 ::: (1)
D’autre part,
Donc
94
= 1; 645 ::: (2)
71; 46 et 13; 7:
5.5. Exercices
Chapter 5. LOIS USUELLES 121
1 1
2xy 2 1 xy 2
f (y=x) = q e 2 =p e
2
x
2x
1) Nous avons, par dé…nition, la densité conditionnelle de Y sachant X est donnée par
f (y; x)
f (y=x) =
f (x)
e x(1+y )
2
1
f (y; x)
= 1 + y 2 e x(1+y )
2
f (x=y) = = 1
f (y) (1+y 2 )
3) L’espérance
Z +1 Z +1
1 + y 2 e x(1+y ) dx
2
E (X=Y ) = f (x=y)dx =
0 0
h i+1
e x(1+y )
2
= = 1:
0
5.5. Exercices
Part II
STATISTIQUE
122
CHAPTER 6
STATISTIQUE DESCRIPTIVE
On donne aussi un certain nombre de termes statistiques qui seront utilisés par la suite.
Population: est l’ensemble concerné par une étude statistique.
Individu (ou unité statistique): désigne tout élément de la population considérée.
Echantillon: dans une étude statistique, il est fréquent que l’on n’observe pas toute
la population.
L’échantillon est le sous-ensemble de la population sur lequel sont e¤ectivement réalisées
les observations.
Taille de l’échantillon: c’est le nombre d’individus qu’il contient. (En général, on
123
Chapter 6. STATISTIQUE DESCRIPTIVE 124
la note par n)
Enquête (statistique): c’est l’ opération consistant a observer l’ensemble des indi-
vidus d’un échantillon.
Recensement: (enquête exhaustive) enquête dans laquelle l’échantillon observé est
en fait toute la population.
Sondage (enquête non exhaustive): enquête dans laquelle l’échantillon observé est
un sous-ensemble strict de la population.
Variable statistique: c’est une caractéristique, dé…nie sur la population et observée
sur l’échantillon.
Mathématiquement: Une variable statistique est une application dé…nie sur
l’échantillon.
Modalités: sont les di¤érentes valeurs que peut prendre par la variable statistique.
On distinguera deux types de variables statistiques:
1 Variables qualitatives: sont celles prenant des valeurs non numériques (les
modalités sont des catégories).
2 Variables quantitatives: sont celles prenant des valeurs numériques.
Données: c’ est l’ensemble des variables considérées et ces observations sur les
individus.
Les données sont en général présentées sous forme de tableaux (individus en lignes et
variables en colonnes) .
Exemple 6.1 On considère l’ensemble des étudiants de la faculté de médecine dans une
université. On s’intéresse aux nombre d’enfants dans la famille de chaque étudiant. Dans
ce cas
La population est = ensemble des étudiants de la faculté.
Individu: tout étudiant inscrit à la faculté.
La variable statistique X désigne le nombre d’enfants, donc elle est quantitative et
prend ces valeurs dans
X ( ) = f0; 1; 2; 3; 4; :::g
Echantillon: on prend par exemples les étudiants de première année en pharmacie.
Taille de l’échantillon est l’e¤ectif des étudiants de première année en pharmacie.
Si on fait l’étude sur tous les étudiants de faculté, on parle de recensement.
ni = Card f! 2 ; X (!) = xi g
est dit e¤ectif total (c’est la somme de tous les e¤ectifs partiels).
C’est la somme de toutes les observations des valeurs qui sont inférieurs ou égal à la valeur
considérées.
C’est la somme de toutes les observations des valeurs qui sont supérieurs ou égal à xi .
Dé…nition 6.6 (fréquence) On appelle fréquence relative (ou tout simplement fréquence)
de xi , la quantité fi dé…nie par
ni
fi =
n
i:e La fréquence d’une valeur est le rapport de l’e¤ectif de cette valeur par l’e¤ectif
total.
P
k
0 fi 1 et fi = 1:
i=1
Car
P
k ni
0 ni nj = n () 0 1 () 0 fi 1:
j=1 n
Et
P
k Pk n
i 1P k n
fi = = ni = = 1
i=1 i=1 n n i=1 n
Ni " Pi
Fi "= = fj
n j=1
C’est la somme de toutes les fréquences relatives des valeurs qui sont inférieurs ou égal à
la valeur considérée.
(resp. par)
Ni # P n
Fi #= = fj
n j=i
C’est la somme de toutes les fréquences relatives des valeurs qui sont supérieurs ou égal
à la valeur considérée.
Remarque 6.4 Si on dit e¤ectif cumulé (resp. fréquence cumulée) sans préciser
l’accroissement, on parle à l’e¤ectif cumulé croissant (resp. fréquence cumulée croissante).
Dé…nition 6.9 (tableau statistique) On appelle donc tableau statistique un tableau dont
la première colonne comporte l’ensemble des k observations distinctes et ordonnées par
ordre croissant de la variable X. Dans une seconde colonne, on dispose, en face de chaque
valeur xi , son e¤ectif ni . Les e¤ectifs sont souvent remplacés par les fréquences.
xi ni fi Ni " Fi " Ni # Fi #
x1 n1 f1 n1 f1 n 1
x2 n2 f2 n1 + n2 f1 + f2
.. .. .. .. .. .. ..
. . . . . . .
.. .. .. .. .. .. ..
. . . . . . .
ni
P i P i P
k P
k
xi ni fi = N
nj fj nj fj
j=1 j=1 j=i j=i
.. .. .. .. .. .. ..
. . . . . . .
.. .. .. .. ..
. . . . . nk 1 + nk fk 1 + fk
xk nk fk n 1 nk fk
Total n 1
Exemple 6.2 On a noté l’âge des 50 employés d’une entreprise pharmaceutique. Les
données sont listées ci-dessous (il s’agit de données …ctives).
24; 26; 30; 24; 34; 40; 40; 24; 50; 59;
26; 33; 26; 50; 44; 34; 34; 34; 26; 44;
40; 40; 34; 26; 40; 26; 30; 30; 40; 30;
33; 33; 40; 50; 50; 33; 34; 40; 33; 44;
59; 40; 44; 50; 50; 50; 44; 59; 59; 40:
On résume ces données dans un tableau statistique avec valeurs observées, e¤ectifs, e¤ec-
tifs cumulés croissant et décroissants, fréquences relatives, fréquences cumulés croissants
et décroissants.
xi ni Ni " Ni # fi Fi " Fi #
24 3 3 50 0; 06 0; 06 1; 00
26 6 9 47 0; 12 0; 18 0; 94
30 4 13 41 0; 08 0; 24 0; 82
33 5 18 37 0; 10 0; 34 0; 74
34 6 24 32 0; 12 0; 46 0; 64
40 10 34 26 0; 20 0; 66 0; 52
44 6 40 16 0; 12 0; 88 0; 32
50 6 46 10 0; 12 0; 92 0; 20
59 4 50 4 0; 08 1; 00 0; 08
T otal 50 1; 00
Représentations graphiques
F ig 9 Diagramme en battons
bornes d1 d2 di dk dk+1
<a P1 = 0 p2 = f1 pi = Fi 1 pk = Fk 1 pk = 1
a q1 = 1 q2 = 1 f1 qi = 1 Fi 1 qk = 1 Fk 1 qk+1 = 0
F ig 10Diagramme cumulatif
Paramètres de position
Mode
Remarque 6.5 Le mode d’une série statistique n’est pas forcément unique.
Remarque 6.6 Le mode peut être trouvé pour tous les types de variable, quantitative
et qualitative.
Exemple 6.5 Dans l’exemple précédent, nous avons l’âge qui a le plus grand e¤ectif est
40; donc le mode de cette distribution est M o = 40:
Médiane La médiane, désignée par M e, est la valeur de la variable telle qu’il y ait
autant d’observations, en dessous d’elle qu’au-dessus ou, ce qui revient au même, la valeur
correspondant à 50% des observations.
Dé…nition 6.11 On appelle médiane (dénoté M e) d’une série statistique discrète et or-
donnée une valeur centrale qui divise la série en deux parties de même e¤ectif telle que la
première partie contenant 50% des valeurs qui sont inférieur à la médiane et la deuxième
contenant 50% des valeurs supérieurs à cette médiane.
n
Remarque 6.7 1) La médiane est la valeur de la série correspond à l’e¤ectif cumulé 2
ou la fréquence cumulé 12 :
2) la médiane est insensible aux valeurs extrêmes.
n+1
C’est la 2
eme observation.
Si n est pair: n = 2k:
xk + xk+1
Me =
2
C’est la moyenne arithmétique des deux observations centrales.
4; 1; 2; 2; 0; 4; 5; 3; 1; 2; 5
on obtient:
0; 1; 1; 2; 2; 2 ; 3; 4; 4; 5; 5
La médiane M e est la valeur qui se trouve au milieu de la série ordonnée ci-dessus.
n = 11 est impair, alors M e = 2:
2) Pour la série suivante:
0; 1; 1; 2; 2; 2, 3 ; 3; 4; 4; 5; 6
n = 12 est pair, deux valeurs se trouvent au milieu de la série. Alors la médiane est la
moyenne de ces deux valeurs:
2+3
Me = = 2; 5
2
1
Remarque 6.8 On peut dé…nir la médiane comme l’image de 2
par la réciproque de la
fonction de répartition:
1
Me = F (0; 5):
1
x =F ( )
Dé…nition 6.12 On appele quantile d’ordre , la valeur noté x , tel que la proportion
des observations qui lui sont inférieures ou égales vaut , et la proportion des observations
qui lui sont supérieures vaut 1 .
x1 ; x2 :::; xi ; :::; xn
Exemple 6.7 Soit la série statistique 1; 3; 5; 6; 8; 9; 12; 14; 15; 17; 18; 24; contenant
12 observations (n = 12):
Le premier quartile: Comme n = 0:25 12 = 3 2 N, on a
1 1
(x3 + x4 ) = (5 + 6) = 5; 5:
Q1 = x1=4 =
2 2
La médiane : Comme n = 0; 5 12 = 6 2 N, on a
1 1
Q2 = x1=2 = (x6 + x7 ) = (12 + 14) = 13:
2 2
Le troisième quartile : Comme n = 0; 75 12 = 9 2 N, on a
1 1
Q3 = x3=4 = (x9 + x10 ) = (15 + 17) = 16
2 2
Exemple 6.8 Soit la série statistique 1; 3; 5; 6; 8; 9; 12; 14; 15; 17; 18; 24; 26 contenant 13
observations (n = 13):
Le premier quartile : Comme n = 0; 25 13 = 3; 25 2
= N, on a
Q1 = x1=4 = x[3;25 ] = x4 = 6:
La médiane: Comme n = 0; 5 13 = 6; 5 2
= N, on a
Moyenne La moyenne ne peut être dé…nie que sur une variable quantitative. Soit n
est l’e¤ectif total des observations.
Dé…nition 6.13 La moyenne arithmétique (dénotée X) est la somme des valeurs obser-
vées divisée par leur nombre, i:e:
1P n
X= xi
n i=1
Moyenne pondérée
P
k
Dé…nition 6.14 Soit fn1 ; n2 ; :::; nk g un ensemble de poids; (ni 0), tel que ni = n.
i=1
La moyenne pondérée est donnée par
1P n Pk
X= ni xi = fi xi
n i=1 i=1
Remarque 6.10 1) La moyenne arithmétique est sensible aux valeurs extrêmes dans le
cadre de petits échantillons (n < 30).
2) La moyenne n’est pas nécessairement une valeur possible.
1P n
mg = exp (ln mg ) = exp ln xi
n i=1
Exemple 6.10 Un client versé dans la banque une somme de 1000000 DA, avec intérêt
de 5% pour la première année et de 7% pour l’année suivante et de 10% pour la troisième
et de 13% pour la quatrième. On veut calculer La somme en DA de cet client après 4
ans.
Après une année on a
1000000 1; 05 1; 07 = 1123500 DA
1000000 1; 05 1; 07 1; 1 = 1235900 DA
Après quatre années on a
Dé…nition 6.16 Soit xi > 0, on appelle moyenne harmonique la quantité mh donnée par
n n 1
mh = P n = k = k
1 P ni P fi
xi xi xi
i=1 i=1 i=1
Exemple 6.11 Une voiture traverse un circuit fermé 6 foix, le premier tours avec une
vitesse v1 = 50km=h, le deuxième avec une vitesse v2 = 60km=h , le troisième avec une
vitesse v3 = 70km=h et les autres tours avec une vitesse v4 = 80km=h; On veut calculer
la vitesse moyenne de cette voiture.
Moyenne quadratique
Proposition 6.1 Pour toute variable statistique admet des moyennes arithmétiques X,
géométrique mg et harmonique mh on a
min xi mh mg X max xi
1 i n 1 i n
Paramètres de dispersion
Etendue
eX = max xi min xi = xn x1
1 i n 1 i n
eX = x50 x1 = 59 24 = 35
Ecart interquartile
IQ = Q3 Q1
Variance
1P k 2 P
k 2
s2X = ni xi X = fi xi X
n i=1 i=1
1P k 2 2
s2X = ni x2i X = m2q X :
n i=1
Preuve.
1P k 2 1P k
s2X = ni xi X = ni x2i 2xi X + X 2
n i=1 n i=1
1P k 1P k 1 2P k
= ni x2i 2X ni xi + X ni
n i=1 n i=1 n i=1
1P k 2 2 1P k 2
= ni x2i 2X + X = ni x2i X
n i=1 n i=1
Variance corrigée SI on veut estimer une variance d’une variable statistique X d’un
échantillon de taille n, on utilise la variance corrigée.
2
Dé…nition 6.21 La variance corrigée de la variable statistique X (noté SX ) est dé…nie
par
2 1 P
k 2
SX = ni xi X
n 1 i=1
Remarque 6.12 On peut calculer la variance corrigée à partir de la variance.
2 1 nP k 2 n
SX = ni xi X = s2X :
n 1 n i=1 n 1
Ecart-type
Remarque 6.13 Si on veut estimer l’écart-type d’une variable statistique X d’un échan-
tillon de taille n, on utilise l’écart-type corrigée dé…nie par
q r
2 n
SX = SX = sX :
n 1
Remarque 6.14 Si CV < 0; 25 On dit que les valeurs de la variable sont concentrées
Si CV 0; 25 On dit que les valeurs de la variable sont dispersées.
xi 24 26 30 33 34 40 44 50 59 Total
ni 3 6 4 5 6 10 6 6 4 50
x25 + x26 40 + 40
Me = = = 40 ans
2 2
Pour calculer X; s2X ; SX
2
, on utilise ce tableau
P
xi ni ni xi ni x2i Fi " Fi #
24 3 72 1728 0; 06 0; 06 1; 00
26 6 156 4056 0; 12 0; 18 0; 94
30 4 120 3600 0; 08 0; 24 0; 82
33 5 161 5313 0; 10 0; 34 0; 74
34 6 204 6936 0; 12 0; 46 0; 64
40 10 400 16000 0; 20 0; 66 0; 52
44 6 264 11616 0; 12 0; 88 0; 32
50 6 300 15000 0; 12 0; 92 0; 20
59 4 196 11564 0; 08 1; 00 0; 08
Total 50 1873 75813 1; 00
La moyenne:
1 P 9 1873
X= ni xi = = 37; 46 ans
50 i=1 50
La variance:
2
1 P 9 2 75813 1873
s2X = ni x2i X = = 113; 01
50 i=1 50 50
L’écart-type q p
sX = s2X = 113; 01 = 10; 631
La variance corrigée
2 50 2 50
SX = sX = 113; 01 = 115; 31
50 1 49
L’écart-type corrigé r
q
2 2 50
SX = SX = sX = 10; 739
49
Proposition 6.3 Soient X une variable statistique, a et b; deux constantes réelles telles
que Y = aX + b: Alors ona les propriétés suivantes:
i) Y = aX + b
ii) s2Y = a2 s2X
Preuve. i)
1P k 1P k 1P k 1 Pk
Y = ni yi = ni (axi + b) = a ni xi + b ni
n i=1 n i=1 n i=1 n i=1
n
= aX + b = aX + b:
n
ii)
1P k 2 1P k 2
s2Y = ni yi Y = ni axi + b aX b
n i=1 n i=1
1P k 2
= a2 ni xi X = a2 s2X
n i=1
Proposition 6.4 Soient X 1 , X 2 ; :::; X k sont respectivement les moyennes des groupes
G1 ; G2 ; :::; Gk : Alors La moyenne générale est une moyenne pondérée par la taille des
groupes des moyennes des k groupes. i:e
1
X=
n1 X 1 ; n2 X 2 ; :::; nk X k
n
P
Preuve. Nous avons par dé…nition et par linéarité de ;
!
1P n 1 P
n1 P
n2 P
n3 P
n
X = xi = xi + xi + xi + ::: + xi
n i=1 n i=1 i=n1 +1 i=n2 +1 i=nk 1 +1
1
= n1 X 1 ; n2 X 2 ; :::; nk X k :
n
Proposition 6.5 (Théorème de Huygens) Soient s2X1 , sX2 ; :::; sXk sont respectivement les
variances des groupes G1 ; G2 ; :::; Gk : Alors La variance totale, s2X est donnée par
1P k 1P k 2
s2X = ni s2Xi + ni X i X
n i=1 n i=1
Preuve. Supposons que G1 ; G2 ; :::; Gk sont arrangés dans l’ordre croissant. Alors on a
!
1P k 2 1 P n1
2 Pn2
2 Pn 2
s2X = ni xi X = xi X + xi X + ::: + xi X
n i=1 n i=1 i=n1 +1 i=nk 1 +1
1P n1
2 1 P n2
2
= xi + X 1 X 1 X + xi + X 2 X 2 X + :::
n i=1 n i=n1 +1
1 P n 2
::: + xi + X 1 X 1 X
n i=nk 1 +1
1 P1n
2 1P n1
2 2P n1
= xi X 1 + X1 X xi X 1 X 1 X
n i=1 n i=1 n i=1
1 P n2
2 1 P n2
2 2 P n2
+ xi X 2 + X2 X xi X 2 X 2 X
n i=n1 +1 n i=n1 +1 n i=n1 +1
.
+..
1 P n2
2 1 P n2
2 2 P n2
+ xi X 2 + X2 X xi X 2 X 2 X
n i=nk 1 +1 n i=nk 1 +1 n i=nk 1 +1
1 n1 2 n2 2
= n1 s2X1 + n2 s2X2 + ::: + nk s2Xk + X2 X + X 2 X + :::
n n n
nk 2
::: + Xk X
n
1P k 1P k 2
= ni s2Xi + ni X i X
n i=1 n i=1
Rappelons que
P
n
xi X =0
i=1
nA nB nA 2
VT = VA + VB + XA X
nA + nB nA + nB nA + nB
nB 2
+ XB X
nA + nB
nA nB
Dé…nition 6.24 La moyenne des variance des deux groupes nA +nB
VA + nA +nB
VB
est dite Variance Intra-groupe.
nA 2
La variance des moyennes des deux groupe nA +nB
XA X +
nB 2
nA +nB
XB X est dite Variance Intergroupe.
Exemple 6.16 Une section de 100 étudiants, 60 sont des …lles, On observe que la moy-
enne et la variance du contrôle de statistique chez les …lles sont respectivement 12 et 0; 12
et chez les garçons sont respectivement 13 et 0; 5: Alors la moyenne générale de toute la
section est
60 12 + 40 13
X= = 12; 40
100
La variance générale est
1P k P
k
eX = ni xi X = fi xi X
n i=1 i=1
1P k P
k
eM e = ni jxi M ej = fi jxi M ej
n i=1 i=1
Moments
1P k
p = ni xpi
n i=1
1P k p
mp = ni xi X
n i=1
Cas particuliers: 1 = X:
2 2
2 = sX + X :
m1 = 0:
m2 = s2X :
Paramètres de forme
Il existe deux mesures de forme qui caractérisent la forme des courbes représentant les
distributions (coe¢ cient d’asymétrie et .coe¢ cient d’aplatissement). Ils peuvent prendre
des valeurs positives, négatives ou nulles.
On se sert d’un coe¢ cient pour mesurer l’asymétrie d’une distribution. Elle se mesure au
moyen des coe¢ cients suivants:
Coe¢ cient d’asymétrie de Yule: Le coe¢ cient d’asymétrie de Pearson est donné par
Q1 + Q3 2M e
CY =
IQ
Remarque 6.15 Les coe¢ cients ci-dessus Ck possèdent les mêmes propriétés: ils sont
négatifs si la distribution est allongée à gauche, nuls si elle est symétrique et positifs si
elle est allongée à droite.
M e = X = M o:
F ig 15 Distribution symétrie
X < M e < M o:
X > M e > M o:
Exemple 6.17 Dans la …gure suivante (F ig 18); on présente deux distributions de même
moyenne et de même variance. La distribution plus pointue est leptokurtique, l’autre est
mésokurtique. La distribution leptokurtique a une queue plus épaisse.
F ig 18
Dé…nition 6.30 Un variable statistique quantitative est dite continue lorsqu’elle peut
prendre toutes les valeurs d’un intervalle …ni ou in…ni de R:
Dans le cas où la variable statistique est continue, l’ensemble des valeurs possibles de
la variable étudiée a été divisé en k intervalles appelés classes.
On note ces classes, [bi ; bi+1 [ est la ieme classe; i = 1; 2; :::; k
a = bi+1 bi est l’amplitude de la ieme classe.
ci = bi +b2i+1 est le centre de la ieme classe
bi+1 est la borne supérieur de la ieme classe
bi est la borne inférieur de la ieme classe.
toutes les classes contenant sa borne inférieur et non sa borne supérieur sauf la dernière
classe.
L’amplitude la dernière classe est indéterminée si elle est dé…nie par «plus de .»
Comme dans le cas discrète on utilise un tableau statistique, en mettant dans la première
colonne les classes rangées par ordre croissant.
Les dé…nitions d’e¤ectifs, de fréquences, d’e¤ectifs cumulés et de fréquences cumulées
sont les mêmes que dans le cas discret.
Représentations graphiques
Polygone Pour construire le polygone des e¤ectifs (ou des fréquences) en reliant les
milieux des bases supérieures des rectangles par des segments de droite.
Courbe cumulative Pour construire la courbe cumulative (ou polygone des fréquences
cumulées) est en portant les points dont les abscisses sont les bornes supérieures des classe
et les ordonnées les fréquences cumulées correspondantes, puis en reliant ces points par
des segments de droite.
Paramètres de position
Mode Dons le cas où la variable statistique est continue, on parle de la classe modale
qui est la classe qui possède le grand nombre d’observations (la plus fréquente), le mode
appartient à cette classe.
41 41 42 ai
x + ni xi = x + hi+1 + xi
ai ai ai 41
41 + 42 41 + 42
x = 41 + xi
ai ai
41
x = M o = xi + ai
41 + 42
F ig 21: Histogramme
La classe modale est [250; 270[. La projection du point d’intersection G des segments
[AB] et [CD] sur l’axe Prix correspond à la valeur exacte du mode, MG ' 257 Dinars.
Pour plus de précisons, on calcule (xG ; yG ) les coordonnées de G. Trouvons les équations
des droites (AB) et (CD).
Pour (AB) : y = ax + b La droite (AB) passe par les points A (250; 100) et B(270; 20):
( (
250a + b = 100 a= 4
()
270a + b = 20 b = 1100
D’où
(AB) : y = 4x + 1100:
Pour (CD) : y = cx + d: La droite (CD) passe par les points C(270; 100) et D (250; 60).
( (
270c + d = 100 c=2
()
250c + d = 60 d = 440
D’où
(CD) : y = 2x 440
Comme fGg = (AB) \ (CD) ; alors
( (
4xG + 1100 = yG xG = 770
3
' 256; 66
()
2xG 440 = yG yG = 2 7703
440 ' 73; 33
770
i:e : M o = xG = 3
:
Médiane La médiane dans le cas continue est égale à la quantité M e telle que F (M e) =
0; 5, avec F est la fonction cumulative de la variable statistique (fonction de répartition).
La classe médiane est la première classe contenant au moins 50% des e¤ectifs cumulés
Soient n l’e¤ectif total, bm ; am ; nm ; sont respectivement la borne inférieur, l’amplitude,
l’e¤ectif de la classe médiane, Nm 1 l’e¤ectif cumulé de la classe précédente. Alors on a
la proposition suivante:
Proposition 6.6 La médiane dans le cas d’une variable statistique continue est donnée
par
n
Nm 1 2
M e = bm + am
nm
Preuve. Prenons deux points de la courbe cumulative A (bm ; Nm 1 ) ; B (bm+1 ; Nm ) tels
que [bm ; bm+1 [ est la classe médiane puis on cherche l’équation de la droite (AB) :
(
a = Nbm
m+1 Nm
bm 1
= nam
m
(AB) : y = ax + b :
b = Nm 1 nam m
bm
D’où
nm nm
(AB) : y = x + Nm 1 bm
am am
n
Remplaçons le y par 2
pour calculer l’abscisse qui est la valeur médiane
n nm nm
= M e + Nm 1 bm
2 am am
nm n nm 1
Me = Nm 1 + bm
am 2 am 1
am
Multiplions les deux cotés par nm
, on trouve:
n
2
Nm 1
M e = bm + am
nm
Exemple 6.20 Une distribution a donné les résultats suivants pour l’âge des habitons
d’un pays
Utilisons la …gure (F ig 23) pour calculer la valeur exacte de la médiane. La classe médiane
est [35; 40[ : Prenons les deux points A (35; 36; 5) ; B(40; 51):
M e 35 40 35
= () M o = 39; 7:
50 36; 5 51 36; 5
F ig 23
Remarque 6.16 La médiane est donnée aussi par l’abscisse du point d’intersection des
courbes cumulatives croissant et décroissant (voir F ig 24).
F ig 24
Moyenne Les notions de moyennes que nous avons vus dans le cas discret restent les
mêmes dans le cas continu, il su¢ t de remplacer les valeurs xi par les centres des classes.
Paramètres de dispersion
Etendue
Dé…nition 6.32 soit les classes sont arrangées de l’ordre croissant. L’étendue de la
variable statistique continue X est la di¤érence entre la borne supérieure de la dernière
classe et la borne inférieure de la première classe.
eX = bn+1 b1
Ecarts et Variances Les notions des écarts et de variance que nous avons vus dans le
cas discret restent valables dans le cas continu, il su¢ t de remplacer les valeurs xi par les
centres des classes.
k ' 1 + 3; 3 log n
3) Formule de Yule
p
k ' 2; 5 4 n
Amplitude des classes Il faut mieux d’utiliser des classes de même amplitude a donnée
par
eX
a&
k
Pour une variable qualitative, on ne peut pas calculer des caractéristiques numériques. On
présente les données par des tableaux statistiques contenant les modalités et ces e¤ectifs.
Notons les e¤ectifs cumulés et les fréquences cumulées sont dé…nies pour des variables
qualitatives ordinales et non pour des variables qualitatives nominales.
Représentations graphiques
Diagrammes Dans le cas qualitatif, les représentations graphiques les plus appropriées
sont: le diagramme en colonnes, le diagramme en barre et le diagramme en secteurs.
On utilise des diagrammes à secteurs circulaires, pour représenter des aires proportion-
nelles aux fréquences de la variable statistique.
Exemple 6.21 une étude statistique dans un lycée concernant la mention du bac nous
a donné les résultats suivants
Mention SM P AB B TB Total
nombre des élèves 20 38 29 9 3 99
Tableau statistique
;
F ig 25 Diagramma en colonnes F ig 26 Diagramme en barres
F ig 27 Diagramme en secteurs
6.2.4 Exercices
Exercice 6.1 On donne la réparation des femmes âgées de 50 à 54 ans d’après le nombre
de leurs enfants vivants
F ig 30 Diagramme en battons
3) Le mode est la valeur la plus fréquente. On a le plus grand e¤ectifs est 25; d’où M o = 1:
La médiane: n = 100 est pair, alors
X n2 + X n2 +1 X50 + X51
Me = = =2
2 2
4) On ne peut pas calculer la moyenne et l’écart-type parce que la série est ouverte. On
Q3 Q1
estime la moyenne par le mode et l’écart-type par 2
:
Exercice 6.2 Dans une région de l’Algérie, un échantillon d’individus actifs a donné
les résultats suivants: 11; 1% d’agriculteurs, 10; 6% de patrons, 16; 5% de cadres, 16; 5%
d’employés, 38; 6% d’ouvriers et 6; 7% de personnels de service et autres catégories.
1) Quels sont la population étudiée? le caractère? la nature du caractère? les modal-
ités?
2) Représenter cette distribution par le diagramme qui semble le mieux adapté.
(
100% ! 360
() = 39; 96 ;
11; 1% !
F ig 31 Diagramme en secteurs
Exercice 6.3 On observe deux groupes de 100 personnes atteintes d’une maladie. Les
uns ont subi le traitement A et les autres le traitement B. Les temps d’hospitalisation,
Représenter ces répartitions par le diagramme qui convient. Que peut-on conclure?
Solution. On représente ces répartitions par des histogrammes. Cherchons tout d’abord
les e¤ectifs corrigés hi = ai ni :
;
F ig 32 Histogramme A F ig 33 Histogramme B
L’étendue est eX
eX = max xi min xi = 50; 3 40; 2 = 10; 1
1 i 40 1 i 40
Classe [40; 2; 42; 2[ [42; 2; 44; 2[ [44; 2; 46; 2[ [46; 2; 48; 2[ [48; 2; 50; 2[ [50; 2; 52; 2[
E¤ectif 4 5 9 14 7 1
F ig 34 L’histogramme
3) On présente les centres de classes, les e¤ectifs cumulés, les fréquences et les fréquences
cumulées dans le tableau suivant:
ni Ni
Classes xi ni Ni fi = n
Fi = n
ni xi ni x2i
[40:2; 42:2[ 41:2 4 4 0:1 0:1 164:8 6789:76
[42:2; 44:2[ 43:2 5 9 0:125 0:225 216:0 9331:2
[44:2; 46:2[ 45:2 9 18 0:225 0:45 406:8 18387:36
[46:2; 48:2[ 47:2 14 32 0:35 0:8 660:8 31189:76
[48:2; 50:2[ 49:2 7 39 0:175 0:975 344:4 16944:48
[50:2; 52:2[ 51:2 1 40 0:025 1 51:2 2621:44
P
n = 40 1 1844:0 85264:
4) La sigmoïde est le polygone d’e¤ectifs cumulés (F ig 35).
Donc
M o = 47; 033
n
La médiane est l’abscisse de point de segment [EF ] dont sa ordonné égale à 2
et
(EF ) : 7x y 305:4 = 0
7 (M e) 20 305:4 = 0 () M e = 46:486:
On peut aussi appliquer le théorème de Tales pour déterminer la médiane. On prend les
points M M e; n2 ; I (M e; nm ) ; H (bm+1 ; nm ) et F (bm+1 ; nm+1 ) :
Nous avons (IM ) (HF ) et d’après Tales on a
IM IE
= ;
HF HE
cela nous donne
20 18 Me 46; 2 1 M e 46; 2
= () = :
32 18 48; 2 46; 2 7 2
Ça nous donne
M e = 46; 486:
6) La moyenne est
1P 1844
X= ni xi = = 46; 1:
n 40
La variance est
1X 2 85264
s2X = ni x2i X = (46; 1)2 = 6; 39:
n 40
Remarque 6.19 On peut calculer la moyenne et la variance en utilisant une variable
auxiliaire U :
X xm
U= ;
am
tels que xm et am sont respectivement le centre et l’amplitude de la classe médiane.
xm = 47; 2; am = 2
Calculons tout d’abord la moyenne et la variance provisoires U et s2U puis on applique les
propriétés
digrammes pour apparaitre s’il existe la liaison entre ces variables. On détermine des
indicateurs (de Khi-deux, phi-deux, Cramer et de Tschuprow.)
Données et présentations
On considère dans le cas de deux variables statistiques un table statistique dit table de
contingence. les xi sont disposées en lignes et les yj en colonnes. kp est la dimension de
ce tableau, nij est le nombre de modalités conjointes des modalités xi et yj : Les quantités
nij sont dits l’e¤ectifs conjoints.
Table de contingence
X Y y1 yj ::: Yp Total
x1 n11 n1j ::: n1p n1:
.. ..
. .
xi ni1 nij nip ni:
.. ..
. .
xk nk1 nkj nkp nk:
Total n:1 n:j n:p n
ni: (i = 1; 2; :::; k) et n:j s(j = 1; 2; :::; p) ont appelés e¤ectifs marginaux. Ils sont dé…nis
par
P
p P
k
ni: = nij et n:j = nij :
j=1 i=1
Ils véri…ent
p
P
k P
p X
k X
ni: = n:j = nij = n
i=1 j=1 i=1 j=1
Représentations graphiques
Pro…ls
Khi-deux On utilise le Khi deux pour comparer une table de contingence observée
sur un échantillon de taille n, d’e¤ectifs conjoints nij , avec une table de contingence
donnée (standard) sur la population d’e¤ectifs conjoints n0ij , en calculant tous d’abord la
quantité
2
P
k P
p nij n0ij
(**)
i=1 j=1 n0ij
Pour mesurer la liaison sur une table de contingence, on utilise l’expression ( ) en
ni: +n:j
choisissant pour l’e¤ectif standard n0ij l’e¤ectif correspondant a l’absence de liaison n
:
2
Dé…nition 6.36 On appelle khi-deux, l’indicateur dé…ni par
ni: n:j 2
2
P
k P
p nij n
= ni: n:j
i=1 j=1 n
2
Le coe¢ cient est toujours positif ou nul et n’est pas majoré. On peut trouver des
2
coe¢ cients plus grands qu’on l’espérer. Il y a d’autres coe¢ cients plus précis que le
khi-deux.
Phi-deux
2
Dé…nition 6.37 Le phi-deux est la quantité donnée par
2
2
=
n
0 T C 1
Exemple 6.23 Une étude statistique sur deux variables statistiques qualitatives X et Y
sur un échantillon de taille n = 100 a donné les résultats suivants:
X Y y1 y2 y3 ni:
x1 10 2 8 20
x2 10 15 25 50
x3 8 12 10 30
n:j 28 29 43 100
ni: n:j
Pour calculer les indices de liaison, On calcul tout d’abord 2
n n
La table suivante nous donne les valeurs i: 2 :j :
5; 6 5; 8 8; 6 20
14 14; 5 21; 5 50
8; 4 8; 7 12; 9 30
28 29 43 100
Le khi-deux
Le phi-deux
2
2 9; 64
= = = 0; 0964
n 100
Coe¢ cient de Tschuprow
s s
2 0; 0964
T = = = 0; 16:
(k 1) (p 1) (3 1) (3 1)
Coe¢ cient de Cramer
s r
2 0; 0964
C= = = 0; 22:
inf (k; p) 1 3 1
Cette valeur est faible par rapport a son intervalle de variation [0; 1], mais la liaison
n’est pas négligeable.
Pour étudier la liaison entre deux variables quantitatives discrètes, il faut faire un graph-
ique dit nuage de points. La forme générale de ce graphique indique l’existence ou non
de liaison entre les deux variables.
Pour connaître l’intensité de la liaison entre ces deux variables, on calcule un indicateur
de liaison. (Covariance, Coe¢ cient de corrélation).
Nuage de points Il s’agit d’un graphique pour représenter les observations simultanées
de deux variables quantitatives. Il consiste a considérer deux axes perpendiculaires, l’axe
horizontal représentant la variable X et l’axe vertical la variable Y , puis à représenter
chaque individu observé i par le point d’abscisse xi et d’ordonnée yi . . On notera qu’on
rencontre parfois la terminologie de diagramme de dispersion, traduction littérale. En
général le nuage de points nous donne une idée sur la variation conjointe des deux variables.
X 0 1 3 4 7 8 9 10 12
Y 2 2 4 5 7 7 9 8 10
F ig 36 Nuage de points
Série conditionnelle
fij nij
fi=j = = :
f:j n:j
P
k 1 P k
X=yj = fi=j xi = nij xi :
i=1 n:j i=1
La variance conditionnelle est donnée par
1 P k 2 P
k 2
sX=yj = nij xi X=yj = fi=j xi X=yj
n:j i=1 i=1
Remarque 6.21 On peut aussi appliquer la formule de Koenig pour calculer la variance
conditionnelle.
1 P k 2 P
k 2
sX=yj = nij x2i X=yj = fi=j x2i X=yj
n:j i=1 i=1
Dé…nition 6.42 la fréquence conditionnelle fj=i (fj sachant i); j = 1; :::; p, est
fij nij
fJ=i = =
fi: ni:
P
p 1 P P
Y =xi = fi=j yj = nij yj
j=1 ni: j=1
Covariance
1P K P p
sXY = nij xi X yj Y
n i=1 j=1
1P k P p 1 Pk P p 1 P k P p 1 Pk P p
= nij xi yj Y nij xi X nij yj + XY nij
n i=1 j=1 n i=1 j=1 n i=1 j=1 n i=1 j=1
1P k P p 1 Pk Pp 1 P p P
k 1
= nij xi yj Y xi nij X yj nij + XY n
n i=1 j=1 n i=1 j=1 n j=1 i=1 n
1P k P p 1 Pk 1 P p
= nij xi yj Y ni: xi X n:j yj + XY
n i=1 j=1 n i=1 n j=1
1P k P p 1 1
= nij xi yj Y nX XnY + XY
n i=1 j=1 n n
1P k P p
= nij xi yj XY :
n i=1 j=1
V ar ( X + Y ) 0;
2
V ar (X) + 2 Cov(X; Y ) + V ar(Y ) 0;
D’où
Cov 2 (X; Y ) V ar (X) V ar(Y ) < 0:
Preuve. i) Evidente
ii)
" #" #
X X Y Y 1P k P p xi X X X yj Y Y Y
Cov ; = nij
sX sY n i=1 j=1 sX sX sY sY
1P k P p 1 1
= nij xi X X + X yj Y Y + Y
n i=1 j=1 sX sY
1 1P k Pp sXY
= nij xi X yj Y = = rXY :
sX sY n i=1 j=1 sX sY
Z = aX + b et W = cY + d
Alors on a
rZW = rXY
D’où
sZW ac:sXY sXY
rZW = = = = rXY
sZ sW asX :csY sX :sY
Preuve.
1
P
k P
p
n
nij xi yj XY
sXY i=1 j=1
rXY = =v !
sx sy u
u P
k 2 P
p
2
t 1
ni: x2i X 1
n:j yj2 Y
n n
i=1 j=1
!
1
P
k P
p
1
P
k
1
P
p
n
nij xi yj n
ni: xi n
n:j yj
i=1 j=1 i=1 j=1
= v
u" #2 !2 3
u P P 2
P
p P
p
u 1 k k
41
t n ni: x2i 1
n
ni: xi n
n:j yj2 1
n
n:j yj 5
i=1 i=1 j=1 j=1
" !#
1
P
k P
p P
k P
p
n2
n nij xi yj ni: xi n:j yj
i=1 j=1 i=1 j=1
= v
u" #2 !2 3
u P k P
k 2
P
p P
p
1 u 4n 5
n2
t n ni: x2i ni: xi n:j yj2 n:j yj
i=1 i=1 j=1 j=1
" !#
P
k P
p P
k P
p
n nij xi yj ni: xi n:j yj
i=1 j=1 i=1 j=1
= v
u" #2 !2 3
u Pk P
k 2
P
p P
p
u 4n 5
t n ni: x2i ni: xi n:j yj2 n:j yj
i=1 i=1 j=1 j=1
Interprétation i) si rXY > 0 : Les deux variables varient dans le même sens
ii) si rXY < 0 : Les deux variables varient en sens opposé
iii) jrXY j indique l’intensité de la liaison.
Si jrXY j est proche de 1, la liaison est forte et si elle est proche de 0; la liaison est faible.
Prenons comme exemples
iv) jrXY j ' 0; 9 : la liaison est très forte
v) jrXY j ' 0; 5 : La liaison est moyenne
vi) jrXY j ' 0; 1 : La liaison est très faible
vii) jrXY j = 1 : La liaison est linéaire parfaite i:e il existe les relations:
Y = aX + b et X = cY + d;
1P 9 54 1P 9 54
X= xi = = 6; Y = yi = = 6;
9 i=1 9 9 i=1 9
et
1P 9 464
2 p
s2X = x2 X = 36 = 15; 56; sX = 15:56 = 3; 94
9 i=1 i 9
1P 9 2 392 p
s2Y = y2 Y = 62 = 7; 5 6; sy = 7; 5 6 = 2; 75:
9 i=1 i 9
La covariance
1P 9 420
sXY = xi yi XY = 6 6 = 10; 67:
9 i=1 9
Le coe¢ cient de corrélation
sXY 10; 67
rXY = = = 0; 98
sX sY 3; 94 2; 75
Donc X et Y sont positivement varies et très fortement corrélées.
(G1 G2 ) : Y = aX + b;
avec
Y2 Y1
a= et b = Y 1 aX 1 ou b = Y 2 aX 2 ;
X2 X1
et en…n nous avons l’équation de Mayer
Y2 Y1 Y2 Y1
Y = X +Y1 X 1;
X2 X1 X2 X1
ou bien
Y2 Y1 Y2 Y1
Y = X +Y2 X2
X2 X1 X2 X1
Exemple 6.26 Dans l’exemple 6.26, nous avons
D’où ( (
0+1+3+4+7 8+9+10+12
X G1 = 5
=3 X G2 = 4
= 39
4
2+2+4+5+7
; 7+9+8+10 17
Y G1 = 5
=4 Y G2 = 4
= 2
Méthode des moindres carrés Le critère des moindres carrés est une méthode a
utilisé pour minimiser une somme de carrés. cette somme est donnée par
P
n
F (a; b) = [yi (axi + b)]2
i=1
F ig 37 Droite de régression
Points critiques:
8 P
n
( >
@F (a;b)
=0 < xi [yi (axi + b)] = 0
@a i=1
() Pn
@F (a;b)
=0 >
: [yi (axi + b)] = 0
@b
i=1
8 Pn Pn Pn 8 P n Pn Pn
>
< 2
xi yi a xi b xi = 0 >
< a x2i + b xi = x i yi
i=1 i=1 i=1 i=1 i=1 i=1
Pn P
n () Pn P
n
>
: yi a xi nb = 0 >
: a xi + nb = yi :
i=1 i=1 i=1 i=1
1Pn 1P n 1P n 2 1P n
a x2 + Y aX X = xi yi () a x2 X = xi yi XY:
n i=1 i n i=1 n i=1 i n i=1
D’où
sXY bb = Y sXY
b
a= ; X
s2X s2X
sXY sXY
Pour con…rmer que le point m s2X
;Y s2X
X est un minimum, on calcul les dérivées
partielles d’ordre 2: 8
> @ 2 F (a;b) P
n
>
> = x2i
>
< @a2
i=1
@ 2 F (a;b)
@a2
=n
>
> Pn
>
> 2
: @ @a@bF (a;b)
= xi
i=1
0 Pn P n 1
x2i xi
B i=1 i=1 C
donc la matice Hiciène est @ Pn A ; le déterminant dit Hisien est
xi n
i=1
P
n P
n
x2i xi P
n P
n 2
i=1
Pn
i=1
=n x2i xi > 0:
xi n i=1 i=1
i=1
Et on a aussi
P
n
x2i > 0
i=1
et
10; 67 10; 67
Dx (Y ) : X = Y +6 6
7; 56 7; 56
Dx (Y ) : X = 1; 41Y 2; 47
Exemple 6.28 le tableau suivant nous donne le nombre de kilomètres parcourus par des
cyclistes en fonction du nombre d’heure passé sur la piste durant une course d’endurance.
La première colonne représente le nombre d’heure et la deuxième colonne représente le
kilométrage parcouru.
La droite des moindres carrés est donnée par la …gure suivante (F ig 38)
aX + bb;
L’équation de la droite de régression des moindres carrés est Y = b
; bb = Y
XY
b
a= 2
aX
X
on obtient donc,
b
a = 9; 20 et bb = 59; 28 9; 20 5; 64 = 7; 39:
Ajustement fonctionnel Lorsque l’on veut modéliser les données, la question qui se
pose est de trouver l’équation des courbes de régression. Ces courbes généralement à
des fonctions compliquées mais on peut chercher à les approcher par des fonctions plus
simples. Le principe général est de partir d’une forme de fonction connue et de chercher les
paramètres qui ajustent le mieux possible les courbes obtenues aux courbes de régression.
Par exemple, si l’on part de l’idée que la courbe de régression, serait une droite, alors
F ig 39 Ajustement linéaire
F ig 40
Ajustement exponentiel
F ig 41 Ajustement exponentiel
y = bax :
On remarque que
ln y = x ln a + ln b:
On pose z = ln y; on détermine l’équation de la droite de régression de z en x, l’équation
obtenue est de
la forme
z = Ax + B;
6.4 Exercices
Exercice 6.5 Le tableau ci-dessous donne la distribution des notes en physique (X) et
en Bio-statistique (Y ) d’un échantillon de 100 étudiants:
X Y [08; 10[ [10; 12[ [12; 14[ [14; 16[ [16; 18[ [18; 20[
[18; 20[ 2 4 4
[16; 18[ 1 4 6 5
[14; 16[ 5 10 8 1
[12; 14[ 1 4 9 5 2
[10; 12[ 3 6 6 2
[08; 10[ 3 5 4
6.4. Exercices
Chapter 6. STATISTIQUE DESCRIPTIVE 182
Solution.
X Y [08; 10[ [10; 12[ [12; 14[ [14; 16[ [16; 18[ [18; 20[ Total
[18; 20[ 2 4 4 10
[16; 18[ 1 4 6 5 16
[14; 16[ 5 10 8 1 24
[12; 14[ 1 4 9 5 2 21
[10; 12[ 3 6 6 2 17
[08; 10[ 3 5 4 12
Total 7 15 25 23 20 10 100
1) La série marginale de X
6.4. Exercices
Chapter 6. STATISTIQUE DESCRIPTIVE 183
La moyenne et l’écart-type de X
1390
X = = 13; 9;
100
20212 p
s2X = (13:9)2 = 8; 91; sX = 8; 91 = 2; 985
100
La série marginale de Y:
1 P 6 36
U= n:j uj = = 0; 36:
100 i=1 100
La moyenne de Y est
1 P 6 2 208
s2U = n:j yj U = ( 0; 36)2 = 1; 95:
100 j=1 100
La variance de Y est
s2Y = 22 s2U = 4 1; 95 = 7; 80:
L’écart-type de Y est
p
sY = 7; 80 = 2; 79
47
2) a) na = 4 étudiants, b) fb = 100
= 0; 47, nc = 22 étudiants, c) pd = 84%:
6.4. Exercices
Chapter 6. STATISTIQUE DESCRIPTIVE 184
7 31
V = = 0; 28; s2V = ( 0; 28)2 = 1; 16;
25 25
et en …n nous avons
X=12 Y <14 = 2 ( 0; 28) + 13 = 12; 44
p
s2X=y = 4 1; 16 = 4; 64; sX=y = 4; 64 = 2; 15
yj 9 11 13 15 17 19
xi ui # v j ! 2 1 0 1 2 3 ni: ni: ui ni: u2i
19 2 24 4 16 4 24 10 20 40
17 1 10 44 6 12 5 15 16 16 16
15 0 50 10 0 80 10 24 0 0
13 1 12 44 90 5 5 2 4 21 21 21
11 2 3 12 6 12 60 2 4 17 34 68
9 3 3 18 5 15 40 12 36 108
n:j 7 15 25 23 20 10 100 55 = A 253 = C
n::j v:j 14 15 0 23 40 30 64 = B
n:j vj2 28 15 0 23 80 90 236 = D
P
nij 32 31 0 1 24 39 125 = E
6.4. Exercices
Chapter 6. STATISTIQUE DESCRIPTIVE 185
!
P
6 P
6 P P
n nij ui vj ni: ui n:j vj
i=1 j=1 i j
rXY = rU V = v
u" #2 !2 3
u P6 P
6 2
P
6 P
6
u 4n 5
t n ni: u2i ni: ui n:j vj2 n:j vj
i=1 i=1 j=1 j=1
sX y
Dxy (Y ) : X = rXY Y +X r Y = 0; 82Y + 2; 86
sY x
Exercice 6.6 Une entreprise pharmaceutique a mis sur le marché un nouveau cosmétique
qui a connu un grand succès. Les résultats de la vente sont résumés sur le tableau suivant:
Temps (mois):T 1 2 3 4 5 6 7 8
Nbre de vendues:V 10 23 38 77 165 318 642 1270
Solution. 1)
V = P:QT =) log V = T log Q + P
Posons
Y = log V; a = log Q; b = log p; et X = T
6.4. Exercices
Chapter 6. STATISTIQUE DESCRIPTIVE 186
P
xi = ti 1 2 3 4 5 6 7 8 = 36
P
yi = log vi 1 1; 36 1; 58 1; 89 2; 22 2; 50 2; 81 3; 10 = 16; 459
P
x2i 1 4 9 16 25 36 49 64 = 204
P
yi2 1 1; 85 2; 50 3; 56 4; 92 6; 26 7; 89 9; 63 = 37; 604
P
xi yi 1 2:72 4; 74 7; 546 11; 09 15; 02 19; 67 24; 83 = 86; 594
On résout ce système d’équations
(
204a + 36b = 86; 594
:
36a + 8b = 16; 459
On trouve
a = 0; 298 = log Q () Q = 100;298
X = T et Y = log V
P P
8 P
8
8 xi yi xi yi
i i=1 i=1
rXY = v" #" #
u 2 2
u P8 P
8 P
8 P
8
t 8 x2 xi 8 yi2 yi
i
i=1 i=1 i=1 i=1
6.4. Exercices
Chapter 6. STATISTIQUE DESCRIPTIVE 187
Solution. 1) Détermination de et C:
Posons
Y = log P; a = ; X = log V et b = log C
on trouve:
a= 1; 82 et b = 5; 028;
6.4. Exercices
Chapter 6. STATISTIQUE DESCRIPTIVE 188
P = CV = 105;076 V 1:82
X = log V et Y = log P
Solution.
P P
6 P
6
6 xi yi xi yi
i i=1 i=1
rXY = v" #" #
u 2 2
u P6 P
6 P
6 P
6
t 6 x2 xi 6 yi2 yi
i
i=1 i=1 i=1 i=1
6.4. Exercices
Part III
TESTS STATISTIQUES
189
CHAPTER 7
Estimation
190
Chapter 7. Estimation 191
Pour pouvoir considérer Tn (x1 ; x2 ; :::; xn ) comme une valeur approchée de , il faut que
les valeurs prises par Tn ne s’écartent pas trop de . Comme Tn est une v.a., on ne peut
imposer une condition qu’à sa valeur moyenne.
Dé…nition 7.3 Le biais d’un estimateur Tn est l’écart entre sa moyenne et la vraie valeur
du paramètre :
b = E (Tn )
Dé…nition 7.4 Un estimateur Tn de est dit sans biais si pour tout de et tout entier
positif n; on a
E (Tn ) =
Dé…nition 7.5 Un estimateur Tn de est dit asymptotiquement sans biais si pour tout
de ; on a
lim E (Tn ) =
n !1
Dé…nition 7.6 On dit qu’un estimateur Tn est convergent si la suite de v.a. (Tn ) converge
en probabilité vers la valeur du paramètre . i:e pour tout de
Théorème 7.1 Tout estimateur sans biais, ou asymptotiquement sans biais, dont la vari-
ance tend vers zéro, quand n tend vers l’in…ni, est convergent.
Estimateur optimal
Qualité d’un estimateur La qualité d’un estimateur est mesurée par l’erreur quad-
ratique moyenne dé…nie comme suit
Comparaison de deux estimateurs Dans le cas où l’estimateur est sans biais, l’erreur
quadratique moyenne est égale à sa variance. Dans ce cas, on pourra comparer deux
estimateurs Tn et Tn0 de même paramètre :
Dé…nition 7.8 Soient Tn ; Tn0 deux estimateurs de . On dit que Tn est plus e¢ cace que
Tn0 si pour tout et pour tout n
V ar (Tn ) V ar (Tn0 )
Inégalité de Fréchet-Darmois-Cramer-Rao
si X est continue
Estimateur e¢ cace
Dé…nition 7.12 On dit qu’un estimateur sans biais Tn de est e¢ cace si sa variance
est égale à la borne inférieure de FDCR. i:e
1
V ar (Tn ) =
In ( )
Dé…nition 7.13 Un estimateur optimal dans la classe des estimateurs sans biais est dit
e¢ cace
Méthodes d’estimation
Les paramètres les plus fréquents à estimer sont la moyenne et la variance, qui sont
respectivement estimés par la moyenne et la variance empiriques. Dans le cas où il n’y
a pas d’estimateur évident, on en utilise quelque méthodes, en prend comme exemples la
méthode du maximum de vraisemblance et la méthode des moments
Cette dé…nition ne renseigne en aucune façon, ni sur l’existence, ni sur l’unicité, d’un
tel estimateur. La recherche de l’emv peut se faire directement par recherche du maximum
de L, ou dans le cas particulier où la fonction L est deux fois dérivable par rapport à ,
comme solution de l’équation
@L @2L
= 0; qui véri…e aussi <0
@ @ 2
Solution. La vraisemblance
P
n
xi
i=1
Q
n
L(x1 ; x2 ; :::; xn ; ) = P (X = xi ) = P
n :
i=1 n+ xi
((1 + ) i=1
La log-vraisemblance
P
n P
n
ln (L (x1 ; x2 ; :::; xn ; )) = xi ln n+ xi ln (1 + ) :
i=1 i=1
Sa dérivée est
@ ln (L) 1P n 1 Pn
= xi n+ xi :
@ i=1 1+ i=1
@ ln (L) 1P n
= 0 () = xi = X n :
@ n i=1
Sa dérivée seconde
@ 2 ln (L) 1 P
n 1 Pn
= xi + n + xi
@ 2 2
i=1 (1 + )2 i=1
nX n 1
= 2 + n 1 + Xn :
(1 + )2
Pour = X n ; ona
@ 2 ln (L) nX n 1
= + 2n 1 + Xn
@ 2 2
Xn 1 + Xn
n n
= + <0
Xn 1 + Xn
Donc l’emv est la moyenne empirique
bn = X n
Méthode des moments La méthode des moments consiste à égaler moment théorique
et moment empirique correspondant.
Dans le cas où le paramètre à estimer est = E (X), moyenne théorique de la loi.
L’estimateur naturel est la moyenne empirique, ou moyenne de l’échantillon
1P n
Xn = Xi
n i=1
De même, pour estimer le paramètre = V ar (X), variance de la loi, nous retenons
comme estimateur la variance empirique
1P n 2
s2n = Xi Xn
n i=1
Plus généralement, si l’un des moments d’ordre k 2 N , non centré
mk = E X k = mk ( ) ;
ou centré
k = E (X m1 )k = k ( );
1P n 1P n
m kn = Xik = mk ( ) ou kn = Xi X n = k ( )
n i=1 n i=1
La solution de cette équation, si elle existe et est unique, sera appelée estimateur obtenu
par la méthode des moments.
On résout l’équation X n = 3
Xn = () = 3X n
3
Donc Tn = 3X n est l’estimateur de construit par la méthode des moments, il est sans
biais,
E (Tn ) = 3E X n = 3 = ::
3
et convergent d’après la loi des grands nombres.
Tn = 3X n ! 3E (X) =
p
Pour l’e¢ cacité, on peut rien déduire car X dépend du paramètre de la loi parce que elle
prend ses valeurs dans l’intervalle [0; ]; donc les conditions de l’inégalité FDCR ne sont
pas remplies.
P ( 2 [T1 ; T2 ]) =
La raison pour laquelle il est précisé que l’intervalle est aléatoire est que les bornes T1
et T2 de cet intervalle sont des variables aléatoires.
L’idée d’un intervalle de con…ance est donc de donner une plage de valeurs possibles
avec un degré de con…ance associé. Un intervalle [T1 ; T2 ] de niveau 95% pour , signi…e
qu’il y a une probabilité de 95% que soit bien compris entre T1 et T2 . En général, il
n’est pas possible de donner un intervalle de longueur …nie où l’on peut trouver avec
une probabilité de 100%. On se …xe donc un taux d’erreur acceptable (on admet qu’on
peut se tromper avec une probabilité de : ex : 5%, 1%, 0:5%; ...).
Pour construire cet intervalle, on cherche tout d’abord un estimateur ponctuel Tn dont on
connaît la loi en fonction de , puis on détermine des valeurs en fonction de : t1 = t1 ( )
et t2 = t2 ( ) telles que
P [t1 ( ) Tn t2 ( )] =
Puis inverser cet intervalle pour Tn pour obtenir un intervalle pour , dont ces bornes
sont dépends de Tn . i:e On détermine deux valeurs a = a(Tn ) et b = b(Tn ) telles que
P [a (Tn ) b (Tn )] =
t1 ( ) Tn et Tn t2 ( )
pour Tn …xé.
Soient par exemple les deux fonctions t1 et t2 sont continues et croissantes. Alors
t1 ( ) Tn () t1 1 (Tn ) et Tn t2 ( ) () t2 1 (Tn )
Intervalle unilatéral ( 1 2 = 0)
P ( 2 [T1;n ; T2;n ]) ! :
n!1
" r r #
pbn (1 pbn ) pbn (1 pbn )
IC1 (p) = pbn u ; pbn + u ;
n n
où ua est dé…ni comme suit :
Pour tout U N (0; 1), P (jUj > u ) = , soit encore P (jU j > u ) = 2 .
Preuve. On suppose que n su¢ samment grand pour assurer l’approximation
U N (0; 1). Le schéma ci-dessous nous donne
P( u U u )=1 ;
P( u U u ) = P U2 u2 = 1 :
q
n
Et pour U = p(1 p)
(b
pn p) ; nous avons
n
P (b
pn p)2 u2 =1 ;
p (1 p)
ceci équivaut à
u2 u2
P 1+ p2 2b
p+ p + pb2 0 =1
n n
Notons I l’ensemble de solution de l’inéquation.
u2 u2
1+ p2 2b
p+ p + pb2 0: (*)
n n
Nous avons donc
P (p 2 I ) = 1 :
Donc I est l’intervalle de con…ance cherché
u2 pn (1 pbn )
4b
4 = u2 2
+ ;
n n
et les racines sont q
u2 u2 pn (1 pbn )
4b
2b
p+ n
u n2
+ n
u2
2 1+ n
Alors
2 q q 3
u2 u2 pn (1 pbn )
4b u2 u2 pn (1 pbn )
4b
6 2b
p+ n
u n2
+ n
2b
p+ n
+u n2
+ n 7
I =4 ; 5:
u2 u2
2 1+ n
2 1+ n
P X <d =
!
X d
= P <
p p
n n
p p p
d n n d n
= P < X < :
p
n
On a d’après le théorème central limite, si n est grand, X N (0; 1). Donc
on a p p p
d n d n d n
= =2 1;
i:e p
d n +1
= ;
2
d’où p
d n 1 +1
=
2
i:e
+1 1
d= p ;
n 2
où est la fonction de répartition de la loi normale centrée réduite.
On peut construire un intervalle de con…ance pour la moyenne de deux manières;
1) Choisir une marge d’erreur d puis déterminer le seuil de con…ance :
2) Choisir un seuil de con…ance puis déterminer la marge d’erreur d:
2
Théorème 7.4 Lorsque est connu un intervalle de con…ance au niveau =1 de
est
Xn u1 p ; X n + u1 p ;
2
n 2
n
où u1 2
est le fractile d’ordre 1 2
de la loi normale centrée réduite. i:e; u1 2
=
1
1 2 telle que est la fonction de répartition de la loi N (0; 1)
Preuve. On sait que la moyenne empirique X n est un estimateur sans biais de et que
X n N ; pn
L’intervalle de con…ance pour le paramètre est déterminé comme suit
P d Xn d =
Divisons par p
n
; on trouve
p p p
d n n d n
P Xn =
p p
n d n
et comme Xn N (0; 1), posons u 1
= . Alors on a
1 2
p
n
P u1 1 Xn u1 1 = :
2 2
P Xn u1 p X n + u1 p =
2
n 2
n
Donc l’intervalle de con…ance de niveau =1 pour avec connu est
Xn u1 p ; X n + u1 p
2
n 2
n
S S
Xn tn 1;1 pn ; X n + tn 1;1 2 pn
2
n n
où tn 1;1 2
est le quantile d’ordre 1 2
de la loi de Student à n 1 degrés de liberté.
2 2
Preuve. On remplace le paramètre par un estimateur de (qui est la variance em-
pirique corrigée)
1 P
n 2
Sn2 = Xi X
n 1 i=1
On utilise la variable statistique suivante
p
n
Xn ;
Sn
P d Xn d =
Ceci équivaut à p p p
d n n d n
P Xn = :
Sn Sn Sn
Posons p
n
Tn 1 = Xn :
Sn
On trouve p p
d n d n
P Tn 1 = ;
Sn Sn
avec Tn 1 suit la loi de Student de paramètre (n 1).
S S
Xn tn 1; pn ; X n + tn 1; pn
n n
ns2n
P a 2
b =1
Ce qui donne
ns2n 2 ns2n
P =1 :
b a
Il n’y a qu’une seule condition pour déterminer a et b et il reste un degré d’incertitude
puisque la loi n’est pas symétrique. Si on pose
2 2
1 =P n a et 2 =P n b :
F ig 44
1 P
n 2
Sn2 = Xi Xn ;
n 1 i=1
2
de loi connue, (n 1) Sn2 2
n 1: Donc on peut trouver deux constantes a; b telles que
(n 1) Sn2
P a 2
b =1 :
Ce qui donne
1) Sn2
(n 2 (n 1) Sn2
P =1 :
b a
Ici aussi, Il n’y a qu’une seule condition pour déterminer a et b et il reste un degré
d’incertitude puisque la loi n’est pas symétrique. Si on pose
2 2
1 =P n 1 a et 2 =P n 1 b ;
2
P T1 T2 = =1 :
Rappelons que
(n 1) Sn2 2
2 n 1:
2 1 1 1
P T1 T2 = P 2
T2 T1
(n 1) Sn2 (n 1) Sn2 (n 1) Sn2
= P 2
T2 T1
(n 1) Sn2 (n 1) Sn2
= P Kn 1 = :
T2 T1
Si on veut un intervalle centré sur l’estimateur, il faut prendre T1 et T2 ; tels que
(n 1) Sn2 1
P Kn 1 = (1 )= ;
T2 2 2
et
(n 1) Sn2 1
P Kn 1 = (1 )=
T1 2 2
2
(n 1)Sn 2
où Kn 1 = 2 n 1:
Soient
(n 1) Sn2 (n 1) Sn2
= Zn 1; 1 (1 ) et = Zn 1;1 1 (1 )
T1 2 T2 2
et !
(n 1) Sn2 2 (n 1) Sn2
P =
Zn 1; 21 (1 ) Zn 1;1 1 (1 )
2
7.3 Exercices
Exercice 7.1 Le nombre d’accidents mortels par mois, à un carrefour dangereux, est une
v.a. X qui suit une loi de Poisson de paramètre , que l’on cherche à estimer à partir
d’un échantillon X1 ; X2 ; :::; Xn de cette loi. Étudier les propriétés de l’estimateur naturel
de ce paramètre et véri…er que c’est aussi l’estimateur du maximum de vraisemblance.
Xn ! = E (X) :
p
7.3. Exercices
Chapter 7. Estimation 207
Il converge en moyenne quadratique puisqu’il est sans biais et que sa variance tend vers
zéro
1 P n 1 P n
V ar X n = V ar (Xi ) = = ! 0:
n2 i=1 n2 i=1 n
Pour démontrer qu’il est e¢ cace en calculant la quantité d’information de Fisher
P
n
xi
i=1 n
e
L(x1 ; x2 ; :::; xn ; ) = Q
n :
xi
i=1
D’où
P
n P
n
ln (L (x1 ; x2 ; :::; xn ; )) = xi ln n ln xi ;
i=1 i=1
et
@ ln (L) 1Pn
= xi n
@ i=1
@ 2 ln (L) 1 P
n
= xi ;
@ 2 2
i=1
pour calculer
@ 2 ln (L) 1 P
n n
In ( ) = E = E (Xi ) =
@ 2 2
i=1
Donc
1
BF ( ) = = = V ar X n
In ( ) n
Donc est un estimateur e¢ cace.
@ 2 ln(L)
Comme @ ln(L)
@
s’annule pour = X n et @ 2
< 0. Alors X n est un estimateur du
maximum de vraisemblance
Exercice 7.2 Soit X1 ; X2 :::; Xn un échantillon d’une v.a. X à valeurs entières, de loi
dé…nie pour k 2 N par
k
P (X = k) = ;
(1 + )k+1
où est un paramètre positif. Déterminer l’estimateur du maximum de vraisemblance
de et étudier ses propriétés.
Solution. D’après l’exemple 6.1, nous avons trouvé que l’estimateur du maximum de
vraissemblance est la moyenne empirique
bn = X n
7.3. Exercices
Chapter 7. Estimation 208
P
1 @2 P
1 @2 1 2
k (k 1) xk 2
= xk = =
k=2 @x2 k=0 @x2 1 x (1 x)2
Calcul de V ar bn
k
P
1 P
1
E (X (X 1)) = k (k 1) P (X = k) = k (k 1)
k=0 k=0 (1 + )k+1
2 k 2
P
1
= k (k 1)
(1 + )3 k=2 1+
2
2 2 2 2
= 3 = (1 + )3 = 2
(1 + )3 1 (1 + )3
1+
La variance de X
@ 2 ln (l) 1 P n 1 Pn
In ( ) = E = E (Xi ) n + E (Xi )
@ 2 2
i=1 (1 + )2 i=1
n 1 n n n
= 2 2 (n + n ) = =
(1 + ) 1+ (1 + )
7.3. Exercices
Chapter 7. Estimation 209
Exercice 7.3 1) On s’intéresse aux intentions de votes d’une population pour un candidat
C , soit p la proportion d’individu qui lui sont favorables si l’on prélève un échantillon
de taille 900, dans lequel nous dénombrons 243 intention de votes pour C , quel serait
l’intervale de con…ance pour p de niveau 0; 95?
2) Quelle est la taille de l’échantillon á prélevé pour obtenir un estimateur dont la
précision absolu est au maximum égale á 0; 04?
Solution. 1) pb = 243
900
= 0; 27:
L’intervalle de con…ance pour p de niveau de con…ance = 1 = 0; 95 est
" r r #
pb (1 pb) pb (1 pb)
I:C = pb U ; pb + U
n n
Exercice 7.4 Supposons que les notes (sur un total de 200) obtenue dans un examen de
statistique soient distribuées suivant une loi normale. On examine un echantillon aléatoire
simple (EAS) de 26 notes fournit une moyenne de 125 et un écart-type de 10:
1) Déterminer les I:C pour la moyenne et pour la variance de niveau de con…ance de
0; 95:
2) A quel niveau de probabilité peut-on déduire que la moyenne se situe entre 120 et
130 avec une probabilité de (1 )?
7.3. Exercices
Chapter 7. Estimation 210
Sn Sn
2 X p
tn 1;1 2 ; X + p tn 1;1 2
n 1 n 1
10 10
= 125 p 2; 0595; 125 + p 2; 0595
25 25
= [120; 130] :
" #
2 ns2n ns2n
2 2
; 2
n 1;1 2
n 1; 2
26 100 26 100
= ;
40; 646 13; 120
= [63; 967; 198; 17]
2) On cherche tn 1;1 2
pour que
Sn Sn
X+p tn 1;1 X+p tn 1;1 = 10
n 1 2
n 1 2
Sn
p
tn 1;1 2 = 5
n 1
n = 26, il est proche de 30 on utilise l’approximation d’un Student pour une loi normale.
On tire de table N (0; 1) la valeur de 1 2
et chercher : i; e
1 = 0 99379 , = 0; 01242
2
Exercice 7.5 On a e¤ectué 25 pesées d’un médicament, avec une balance dont la précision
est mesurée par l’écart type + 1. La totalisation de ces pesées étant de 30; 25 g. Donner
un intervalle de con…ance de niveau 0; 90 pour le poids de ce médicament.
7.3. Exercices
Chapter 7. Estimation 211
Solution. On peut considérer que la valeur indiquée par la balance est une v.a. X de
loi normale, d’espérance égale au poids réel de médicament et d’écart type = 1. Le
P
25
fractile d’ordre 0; 95 de la loi normale étant u0;95 = 1; 6449, l’observation xi = 30; 25
i=1
conduit à l’estimation ponctuelle X = 1; 21 puis à l’intervalle de con…ance
1 1
X u0;95 p ; X u0;95 p = 1; 21 1; 6449 p ; 1; 21 1; 6449 p
n n 25 5
= [0; 88; 1; 54]
Compte tenu du petit nombre de mesures et de la valeur élevée de l’écart type, cet
intervalle est peu précis.
Exercice 7.6 Un fabricant d’ampoules électriques annonce une durée de vie moyenne de
ses ampoules de 170 heures. A…n de véri…er cette a¢ rmation, un organisme de défense
des consommateurs prélève au hasard 100ampoules dans un lot de fabrication et, à l’issue
de l’expérimentation, constate une moyenne de durée de vie de 158 heures, avec un écart
type empirique de 30 heures. Si on admet que cette durée de vie suit une loi normale,
peut-on déduire de cette enquête que l’a¢ rmation du fabricant est mensongère?
Exercice 7.7 Pour estimer la précision d’un thermomètre, on réalise n = 100 mesures
indépendantes de la température d’un liquide maintenu à une température constante de 20
P 2
100
degrés Celsius. Les observations xi , 1 i 100, ayant conduit à la valeur xi = 40011,
i=1
construire un intervalle de con…ance de niveau 0; 95 pour la précision de ce thermomètre,
2
mesurée par la dispersion des mesures.
7.3. Exercices
Chapter 7. Estimation 212
Les fractiles d’ordre 0; 025 et 0; 975 de la loi de khi-deux à 100 degrés de liberté, lus dans la
2 2 2
table de , sont respectivement 0;025;100 = 74; 22 et 0;975;100 = 129; 56, d’où l’intervalle
bilatéral symétrique
" #
2 ns2n ns2n 100 0; 11 100 0; 11
2 2
; 2
= ;
n;1 n; 2 129; 56 74; 22
2
Exercice 7.8 Le nombre d’interruptions du tra…c de plus d’une minute, dans une
journée, sur ligne téléphonique, est supposé suivre une loi de Poisson de paramètre
inconnu, que l’on se propose d’estimer à partir du relevé de ces interruptions sur
200journées. Les moments empiriques calculés sur cet échantillon ont pour valeurs
2
X 200 = 3 et S200 = 3; 2. En déduire un intervalle de con…ance de niveau 0; 95 pour
le paramètre de cette loi de Poisson.
7.3. Exercices
CHAPTER 8
TESTS
Dé…nition 8.1 Un test statistique est une procédure de décision entre deux hypothèses
concernant un ou plusieurs échantillons.
Exemple 8.1 E¢ cacité d’un nouveau médicament. On souhaite tester l’e¢ cacité d’un
nouveau médicament par rapport au médicament couramment utilisé. On dispose d’un
échantillon de 100 patients divisé en 2 groupes:
213
Chapter 8. TESTS 214
8.1 Dé…nitions
8.1.1 Hypothèse
Dé…nition 8.2 L’hypothèse nulle notée H0 est celle que l’on considère vraie a priori. Le
but du test est de décider si cet a priori est crédible.
Les deux hypothèses ne sont pas symétriques. H1 est choisie uniquement par défaut si
H0 n’est pas considérée comme crédible.
i) Le choix de H0 et de H1 est en général imposé par le test qu’on utilise et ne relève
donc pas de l’utilisateur.
ii) C’est l’hypothèse H0 qui est soumise au test et toute la démarche du test s’e¤ectue
en considérant cette hypothèse comme vraie.
Ecriture de l’hypothèse
Supposons que nous a¢ rmions que la valeur d’un paramètre d’une population est égale
à la valeur 0. On s’intéresse au changement possible du paramètre dans l’une ou l’autre
direction (soit > 0 soit < 0 ). On e¤ectue un test bilatéral.
Les hypothèses H0 et H1 sont alors:
(
H0 : = 0
H1 : 6= 0
Exemple 8.3 Soit 1 et 2 les moyennes de tension des deux populations correspondant
à la prise de médicament ou de placebo. Une manière de démontrer que le médicament
modi…e la tension est de montrer que 2 est di¤érent de 1.
8.1. Dé…nitions
Chapter 8. TESTS 215
H1 : 1 6= 2
8.1. Dé…nitions
Chapter 8. TESTS 216
On a le tableau suivant:
Réalité !
Décision # H0 vraie H0 fausse
acceptation de H0 1
rejet de H0 1
Le risque étant …xé au départ, la règle de décision est construite à partir de
l’hypothèse H1 et de la colonne "H0 vraie" de ce tableau.
Remarque 8.2 Les deux types d’erreur possibles ne sont pas du tout de la même import-
ance. En e¤et, rejeter l’hypothèse H0 alors qu’elle est vraie (risque de première espèce,
qui est maîtrisé) est beaucoup plus coûteux que de la conserver à tort (risque de deuxième
espèce, non maîtrisé).
Exemple 8.4 Soit la moyenne du niveau de radioactivité en pico curies par litre. La
valeur 0 = 5 est considérée comme la valeur critique entre eau potable et non potable.
On peut donc souhaiter tester H0 : 0 5 contre H1 : 0 < 5. L’erreur de première
espèce a alors pour conséquence de laisser boire de l’eau toxique, alors que l’erreur de
deuxième espèce conduit seulement à jeter de l’eau potable.
L’enjeu en théorie des tests est de construire des tests uniformément les plus puissants.
8.1. Dé…nitions
Chapter 8. TESTS 217
P (ST 2 W=H0 ) = ;
P (ST 2
= W=H0 ) = 1 ;
Et
P (ST 2 W=H1 ) = ;
P (ST 2
= W=H1 ) = 1 ;
Latéralité du test
Test bilatéral: On veut rejeter H0 si Sobs est trop grand ou trop petit, sans a priori.
La région de rejet est alors de la forme ] 1; 1] [ [ 2 ; +1[
Test unilatéral à gauche: On veut rejeter H0 seulement si Sobs est trop petit. La
région de rejet est alors de la forme ] 1; 1 ].
On peut schématiser les régions de rejet et de non-rejet de H0 comme suit:
1. Dans le cas d’un test bilatéral: La zone de rejet est constituée de deux intervalles
disjoints.
8.1. Dé…nitions
Chapter 8. TESTS 218
F ig 45 Test bilatéral
P( > 0) = :
8.1. Dé…nitions
Chapter 8. TESTS 219
Les tables statistiques donnant les quantiles des di¤érentes lois usuelles n’a plus lieu
d’être avec la pratique d’un logiciel statistique. En e¤et, ceux-ci fournissent directement
la probabilité critique ou P -valeur associée à un test donné. Plutôt que de chercher dans
une table les -quantiles des lois associées, il su¢ t donc de comparer la probabilité critique
fournit avec le seuil ou niveau de test prédéterminé. En pratique, au lieu de calculer la
région critique W , on préfère donner un seuil critique appelé P -valeur.
Remarque 8.5 La P -valeur mesure le degré de signi…cation du test. Plus elle est faible
par rapport à , plus le test a un degré de signi…cation important et plus elle est proche
de 0, la contradiction entre H0 et le résultat observé avec l’échantillon plus est forte.
Après avoir dé…ni la question posée et le modèle statistique sous-jacent, une démarche de
test suit les étapes suivantes:
1. Choix de H0 et de H1 . Fixer .
8.1. Dé…nitions
Chapter 8. TESTS 220
Le choix du test et guidé par la question posée et la structure des données issues de
l’expérience. En général voici un guide sommaire.
Tests paramétriques:
les observations sont supposées suivre un modèle gaussien. Pour accepter la normalité
asymptotique par le théorème de la limite centrale, il faut choisir un échantillon su¢ sam-
ment de grande taille.
Un échantillon
–Comparaison de la moyenne de l’échantillon à une valeur théorique
–Comparer une proportion à une valeur théorique
Deux échantillons indépendants
–Comparaison de deux moyennes (Tests de Student)
Tests statistiques élémentaires
–Comparaison de deux variances (Tests de Fisher)
–Comparaison de deux proportions
Deux échantillons appariés.
Le même échantillon est observé à deux instants di¤érents ou dans deux conditions
di¤érentes (Student apparié)
Plusieurs échantillons à un facteur
Tests d’adéquation
–Comparaison de deux distributions (Tests de khi-deux)
–Normalité d’une distribution (Tests de Kolmogorov, Shapiro Wilks)
Tests non-paramétrique Dans le cas: petit échantillon et distribution non gaussienne
(tests d’adéquation)
Deux échantillons indépendants Comparaison de deux médianes (Test de Mann-
Whitney).
PH0 X n > xn est la probabilité critique calculée par le logiciel et à comparer avec .
Test unilatéral à gauche H1 : < 0 . Même méthode que précédemment,
sauf que l’on remplace l’événement X n > xn par X n < xn .
Test bilatéral H1 : 6= 0 : Même méthode que précédemment, sauf que l’on remplace
l’événement X n > xn par Xn 0 > jxn 0j :
2
La variance est inconnue
C’est le test de Student. On suppose les réalisations d’un n-échantillon (X1 ; X2 ; :::; Xn )
2 2
issu d’une loi N ( ; ) avec et inconnues.
2
Test bilatéral On teste H0 : = 0 contre H1 : 6= 0. Comme est inconnue, on
l’estime par la variance empirique Sn2 . Par conséquent, la règle de décision est la suivante:
p p
n n
Rejet de H0 () P jxn
Xn 0j 0< ; >
Sn sn
où sn est l’estimation ponctuelle de l’écart-type empirique Sn associé à la réalisation du
p
n
n échantillon (X1 ; X2 ; :::; Xn ). Sous H0 , on sait que Tn 1 = Sn
Xn 0 suit la loi de
Student à (n 1) degrés de liberté. Ainsi, la valeur de la probabilité critique est calculée
à partir de la loi de Student, et l’on compare …nalement avec le risque de première espèce.
Les tests unilatéraux se déduisent de la même manière.
Sn2 s2n
PH0 (n 1) 2
> (n 1) 2
0 0
niveau exactement pour toute valeur. Il est souvent plus simple de considérer une
approximation gaussienne de la loi binomiale par le théorème de la limite centrale sous la
condition que les nombres n 0 et n (1 ) soient su¢ samment grands, en pratique, plus
grands que 10.
La statistique de test:
jX n 0 j
p ;
n 0 (1 0)
suit une loi normale centrée réduite et sa réalisation est comparée avec le 1 2
-quantile
de cette loi.
Test unilatéral. On teste H0 : 0 contre l’hypothèse alternative H1 : > 0,
en supposant que la variable X suit une loi binomiale B (n; ). La statistique du test est
la même mais comparée cette fois avec le quantile d’ordre 1 de la loi normale pour
un test unilatéral.
Le test de l’hypothèse H0 : 1 = 2 est basé sur la loi des di¤érences des moyennes.
Sachant que X et Y sont des variables aléatoires normales de moyennes respectivement
2 2
1, et de variances ; .
1 2
2 n1 n2
Rappelons que
2 2
1 2
(X Y) N 0; + :
n1 n2
Donc Tester 1 = 2 revient à tester la moyenne 1 2 = 0 d’une variable aléatoire
(X Y ) normale et de variance connue comme dans un test à un échantillon.
2 2
1= 2 inconnues.
Cette hypothèse d’égalité des variances peut être véri…ée avec le test ci-dessous. Dans ce
cas,
1 1
(X Y) N 0; + :
n1 n2
La variance doit être estimée par S 2 et la statistique de test est le quotient d’une variable
normale par une variable de Khi-deux; c’est une variable de Student à (n1 + n2 2) degrés
de liberté:
X Y
q Tn1 +n2 2
1 1
S n1
+ n2
2 2
1 6= 2 inconnues.
Lorsque les e¤ectifs des deux échantillons sont élevés (supérieurs à 20), le test précédent
peut être utilisé.
X Y 1 1
( ) N 0; (1 )( + ) ;
n1 n2 n1 n2
est estimée par P et le test approché de niveau conduit à rejeter H0 si la réalisation
de la statistique de test:
X Y
n1 n2
p
P (1 P )(1=n1 + 1=n2 )
dépasse le quantile u1 2
de la loi normale centrée réduite.
Remarque 8.7 Deux tests di¤érents sont ainsi proposés pour comparer deux moyennes
celui basé sur deux échantillons indépendants et celui basé sur des échantillons appariés.
La di¤érence est importante: la variance de la statistique de test intègre (S dans le cas
indépendant), ou non (SD dans le cas apparié), la variabilité des échantillons. Comme
le test apparié est épargné par cette source de variabilité supplémentaire, il est plus
puissant que le test sur échantillons indépendants ; ce test est à favoriser lorsque cela est
expérimentalement possible.
n(n + 1) m(m + 1)
U = min nm + R1 ; nm + R2
2 2
La loi de U est tabulée (e¤ectifs < 16) ou, lorsque n et m sont su¢ samment grands,
(nm+1) nm(n+m+1)
U suit une loi normale de moyenne 2
et de variance 12
, le test se ramène au
test de la moyenne d’un échantillon normale.
La loi de la statistique R est tabulée et pour des valeurs plus grandes R suit approx-
n(n+1) n(n+1)(2n+1)
imativement une loi normale de moyenne 4
et de variance 24
.
2
8.6 Test de Khi-deux
Le test de Khi-deux utilise des propriétés de la loi multinomiale. Il permet de juger si une
hypothèse concernant la loi de probabilité d’une variable aléatoire est compatible avec la
réalisation d’un échantillon. Deux cas sont à distinguer:
a) la fonction de répartition F est entièrement spéci…ée, et ses paramètres sont connus.
b) on connaît seulement la forme de la loi de distribution, et ses paramètres sont estimés
à partir d’un échantillon.
Soit (X1 ; X2 ; :::; Xn ) un n-échantillon d’une v.a.r. X prenant ses valeurs dans l’ensemble
P
k
fx1 ; x2 ; :::; xk g: On se donne un vecteur p = (p1 ; p2 ; :::; pk ), tel pi = 1. On veut tester
i=1
l’hypothèse
H0 : pour tout i = 1; 2; :::; k ; P (X = xi ) = pi contre l’hypothèse
H1 : il existe j 2 f1; 2; :::; kg tel que P (X = xj ) 6= pj .
2
8.6.1 Test de pour une loi uniforme discrète
Soit la v.a.r. Ni correspond à l’e¤ectif observé de la valeur xi , tandis que npi correspond
à l’e¤ectif théorique espéré de la valeur xi (e¤ectif calculé à partir de la distribution
théorique F ). Sous l’hypothèse H0 , la fréquence observée
2
8.6. Test de Khi-deux
Chapter 8. TESTS 228
Exemple 8.7 On note les résultats sur 100 lancés d’un dé et l’on obtient le tableau
suivant:
Face 1 2 3 4 5 6
Ni;obs :E¤ectifs 7 18 26 15 18 16
npi 16; 67 16; 67 16; 67 16; 67 16; 67 16; 67
2
(16;67i;obs npi )
npi
5; 61 0; 11 5; 23 0; 17 0; 11 0; 03
1
où les e¤ectifs théoriques sont npi = 100 6
= 16; 67 si le dé est équilibré (c’est-à-dire
2
sous H0 ). D’où la valeur Dobs est
Pk (N
i;obs
2 npi )2
= Dobs = 11; 24:
i=1 npi
Comme on a 6 classes, on utilise donc la loi du 2 à 5 degrés de liberté. À l’aide des
tables, on trouve la valeur de la probabilité cherchée:
2
8.6. Test de Khi-deux
Chapter 8. TESTS 229
8.7 Exercices
Exercice 8.1 Dans un service médicale, une étude statistique a montré que l’attente
(en minute) avant de consulter suit une loi normale de moyenne 18 et écart-type 7; 2.
Après une réorganisation de service, une étude est e¤ectuée pour contrôler s’il y a eu une
amélioration du temps d’attente.
Attente [2; 6[ [6; 10[ [10; 12[ [12; 14[ [14; 18[ [18; 26[ [26; 34[
E¤ectif 8 14 9 11 30 16 12
1 P 7
X 100 = ni Xi = 15; 78:
100 i=1
ET s
1 P 7
s2100 = ni Xi (15; 78)2 = 7; 2768
100 i=1
Donc la déviation normale est s100 = 7; 3114:
Posons l’hypothèses: H0 : Le temps d’attente suit la loi N (15; 78; 7; 3114) contre H1 :
Le temps d’attente ne suit pas la loi N (15; 78; 7; 3114) :
Supposons que H0 vraie et on calcul les e¤ectifs théoriques
P
Xi 6 [6; 10[ [10; 12[ [12; 14[ [14; 18[ [18; 26[ 26
Oi 8 14 9 11 30 16 12
Ti 9; 01 12; 47 8; 67 10; 37 21; 27 30; 13 8; 08 1578
2
(Ti Oi )
Ti
0; 11 0; 188 0; 013 0; 038 3; 58 6; 63 1; 90 12; 46
2
P
7 (T
i Oi )2
cal = = 12; 46:
i=1 Ti
8.7. Exercices
Chapter 8. TESTS 230
Ici nous avons le degré de liberté est 7 1 2 = 4; parce que nous avons estimé 2
paramètres sur le même échantillon.
pour un risque de 5%, par la lecture du table de 2 ; 20;05 = 9; 49:
Comme 2cal > 20;05 . Alors, on rejette H0 :
2) Sachant que = 2%, on suppose les hypothèses suivantes:
H0 : Le temps moyen d’attente n’a pas changé = 18:
H0 : Le temps moyen d’attente, < 18:
Soit X la v.a égale au temps d’attente sur tout l’échantillon de taille100 suit la loi
normale de moyenne 18 et d’écart-type 7;2
10
:
Sous H0 , en cherche la valeur a de telle que
P X 18 a = 0; 98;
ce qui équivalent à
X 18 a
P = 0; 98:
7; 2 7; 2
X 18
Soit T = 7;2
; alors T N (0; 1) ; donc
a
P T = 0; 98;
0; 72
Soit par symétrie de la loi normale
a
P T = 0; 98:
0; 72
Donc, par lecture inverse sur la table de N (0; 1), on trouve
a
= 2; 055 i:e a = 1; 48:
0; 72
Ainsi on peut énoncer la règle de décision suivante:
Si la moyenne de l’échantillon me 16; 52, on accepte H0 avec un risque inconnue.
Si la moyenne de l’échantillon me < 16; 52, on rejette H0 ; donc on accepte H1 avec une
probabilité de risque = 2%
2) On sait que la moyenne empirique me est un estimateur sans biais de l’espérance.
Ici la probabilité critique vaut:
P X me sous H0 :
D’où
8.7. Exercices
Chapter 8. TESTS 231
Exercice 8.3 On veut savoir si la résistance moyenne de composants produits dans une
usine est 400 . On considère que la distribution des résistances est normale, et on mesure
pour 16 composants les valeurs:
8.7. Exercices
Chapter 8. TESTS 232
b) Si l’on fait l’hypothèse H0 : "le lot respecte la norme de 400 ," alors dans 95% des
cas la moyenne sur un échantillon d’e¤ectif 16 se trouve dans l’intervalle
6:742 6:742
400 T15 ; 400 + T15 ;
4 4
T15 étant lu dans la table de la loi de Student à 15 degrés de liberté: T15 = 2; 1314. Ainsi
l’intervalle de con…ance 95% pour la résistance est
Exercice 8.4 Une entreprise fabrique des pièces en sous-traitance. La direction décide de
mettre en place une politique de rechercher la qualité. Pour ce faire, toutes les machines
ont été systématiquement révisées et on a dé…ni une nouvelle organisation dans l’atelier:
les taches de contrôle sont réparties à chaque étape du processus de fabrication et le taux
de pièces défectueuses est tombe 1%. Quelques mois plus tard, une opération de contrôle
est e¤ectuée pour véri…er si la norme 1% (hypothèse nulle) des pièces défectueuses reste
valable. Sur les 5000 pièces contrôlées 100 s’avèrent défectueuses, soit 2% (hypothèse
alternative). Le directeur de l’entreprise décide que si l’hypothèse nulle est véri…ée, il ne
modi…era plus son processus de production (décision D0 ) et au contraire si c’est l’hypothèse
alternative, il entreprendra une action de sensibilisation des salariés de cet atelier au
problème de la qualité (décision D1 ). Pour choisir entre ces deux hypothèses, il tire un
échantillon de 1500 pièces.
1) si le directeur se …xe un risque de 1% d’entreprendre une action de sensibilisation
des salariès à tort, formuler la règle de décision du test unilatéral.
2) Si dans l’échantillon prélevé, il y a 18 pièces défectueuses, quelle sera la décision de
directeur: devra-t-il entreprendre un action formation?
3) Calculer le risque de ne pas modi…er le processus, alors qu’on le devrait. Comment
s’appelle ce risque?
8.7. Exercices
Chapter 8. TESTS 233
Ce qui équivalant à
P (F a + 0; 01) = 0; 99:
On sait que
F 0; 01
T = N (0; 1) :
0; 00257
Donc
a
P (F a + 0; 01) = 0; 99 () P T = 0; 99;
0; 00257
par la lecture inverse de la table de N (0; 1), on a
a
= 2; 33 () a = 0; 006:
0; 00257
Régle de décision:
Si fe > 1; 6% on rejette H0 avec une risque de 1%:
Si fe 1; 6% on accepte H0 :
2) Sur l’échantillon fe = 1; 2%, donc on accepte H0 :
3) On calcule le risque du 2eme espèce.
Sous H0 :
F N (0; 02; 0; 00361)
8.7. Exercices
Chapter 8. TESTS 234
Exercice 8.5 Un laboratoire pharmaceutique désire étudier les e¤ets secondaires poten-
tiels d’un médicament sur le taux de cholestérol des patients. Cent volontaires sains sont
donc choisis pour tester le médicament.
a) Avant l’expérience, le taux de cholestérol moyen de ces volontaires est de 2; 02
0; 2 g=l. Le taux de cholestérol moyen dans la population étant de 2g=l, véri…er que cet
échantillon est représentatif au risque 5%.
b) Après un mois de traitement, seuls 97 volontaires reviennent faire un test. Leur taux
moyen de cholestérol est passé à 2; 09 g=l avec un écart-type d’échantillon de 0; 25 g=l. La
di¤érence est-elle signi…cative au risque 5%? Au risque 1%?
Solution. a) Soit X1 la variable aléatoire qui mesure le taux de cholestérol d’un individu
; E(X1 ) = 1 = 2.
X 1 est le taux moyen mesuré sur un échantillon de taille n1 = 100. Alors n1 étant plus
p
n
grand que 30, on peut considérer que s1
X1 2 suit une loi normale, avec s1 = 0; 2
estimation ponctuelle de l’écart-type de X1 . Ainsi, dans 95% des cas le taux moyen
observé sur un échantillon sera compris dans
0:2 0:2
2 1; 96 ; 2 + 1; 96 = [1; 961; 2; 039] :
10 10
Le taux de cholestérol moyen des volontaires étant bien dans cet intervalle, on peut
considérer que cet échantillon est représentatif.
b) Soit X2 la variable aléatoire mesurant le taux de cholestérol d’un individu après un
mois de traitement ; son espérance 2 est inconnue. X 2 est le taux moyen d’un échantillon
de taille n2 = 97. On fait l’hypothèse H0 : « les taux de cholestérol moyens sont les mêmes
avant et après traitement » . Alors 1 = 2, et on peut considérer que
X X2
q 12 N (0; 1)
s1 s2
n1
+ n22
(avec s1 = 0:2; s2 = 0:25), et par conséquent on détermine l’intervalle de con…ance au
risque 5% de X1 X2 :
2 s s 3
4 1; 96 s21 s22 s21 s22 5 = [ 0; 063; 0; 063] :
+ ; 1; 96 +
n1 n2 n1 n2
Comme la di¤érence entre les taux moyens mesurés 2; 02 2; 09 = 0; 07 n’est pas dans
cet intervalle, elle est signi…cative, et on rejette H0 donc on considère, au risque 5% de se
tromper, que le médicament a un e¤et. L’intervalle de con…ance au risque 1% est
2 s s 3
2 2 2 2
4 2; 57 s1 + s2 ; [ 2; 57] s1 + s2 5 = [ 0; 083; 0; 083] ;
n1 n2 n1 n2
8.7. Exercices
Chapter 8. TESTS 235
intervalle qui contient la valeur 2; 02 2; 09 = 0; 07. Donc la di¤érence n’est pas signi…c-
ative au risque 1%.
[8] M. Genin. Tests statistiques. Université de Lille 2 EA 2694 - Santé Publique : Epid
emiologie et Qualité des soins.
239
Bibliography 240
[15] C. SUQUET Introduction au Calcul des Probabilités. Univ des Sciences et Technolo-
gies de Lille U.F.R. de Mathématiques Pures et Appliquées, F-59655. 2002–2003.
Bibliography