Vous êtes sur la page 1sur 243

Université Salah Boubnider Constantine 3

Docteur : El-Hacène CHALABI

Année universitaire : 2020/2021


Université Salah Boubnider Constantine 3

Cours P robabilites et Staistique


avec Exercices Corriges

Docteur: El Hacene CHALABI

Année universtaire: 2020/2021

1
Dédicace

À la mémoire de ma mère.
CONTENTS

I PROBABILITÉS 3

1 ANALYSE COMBINATOIRE 4
1.1 GÉNÉRALITÉS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 L’ensemble étudié et ces éléments . . . . . . . . . . . . . . . . . . . 4
1.1.2 Di¤érentes dispositions . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 Principe Fondamental de l’Anlyse Combinatoire . . . . . . . . . . . 5
1.1.4 Principe d’addition . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 ARRANGEMENTS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 Arrangements avec répétition . . . . . . . . . . . . . . . . . . . . . 6
1.2.2 Arrangements sans répétitions . . . . . . . . . . . . . . . . . . . . . 7
1.2.3 PERMUTATIONS . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 COMBINAISONS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.1 Combinaisons sans répétition . . . . . . . . . . . . . . . . . . . . . 10
1.3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.3 Combinaisons avec répétition . . . . . . . . . . . . . . . . . . . . . 12
1.4 TRIANGLE DE PASCAL ET BINÔME DE NEWTON . . . . . . . . . . 13
1.4.1 Triangle de Pascal . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.2 Binôme de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2 THÉORIE DES ENSEMBLES 17


2.1 Sous-ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.1 Réunion et Intersection . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.2 Correspondance entre logique et ensembles . . . . . . . . . . . . . . 20
2.1.3 Ensemble complémentaire . . . . . . . . . . . . . . . . . . . . . . . 20

1
Contents 2

3 PROBABILITÉS. 22
3.1 Expériences, Evénements Aléatoires . . . . . . . . . . . . . . . . . . . . . . 22
3.1.1 Dé…nitions générales . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.1.2 Opérations sur les événements . . . . . . . . . . . . . . . . . . . . . 24
3.2 Probabilité et Espace probabilisé . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.1 Propriétés élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.3.1 Evénements dépendants . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

4 VARIABLES ALÉATOIRES RÉELLES 51


4.1 Dé…nition et caractérisation d’une variable aléatoire . . . . . . . . . . . . . 51
4.1.1 Dé…nition d’une variable aléatoire . . . . . . . . . . . . . . . . . . . 51
4.1.2 Probabilité d’une variable aléatoire . . . . . . . . . . . . . . . . . . 52
4.2 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.2.1 Propriétés principales . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.2.2 Loi d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . 53
4.3 Les di¤érents types de variables aléatoires . . . . . . . . . . . . . . . . . . 53
4.3.1 Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . 53
4.3.2 Variables aléatoires discrètes réelles . . . . . . . . . . . . . . . . . . 54
4.3.3 Caractérisation de la loi de v.a.r. discrète . . . . . . . . . . . . . . . 55
4.4 Variables aléatoires continues . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.4.1 Densité de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.4.2 . Fonction de répartition. . . . . . . . . . . . . . . . . . . . . . . . . 60
4.4.3 Caractérisation de la loi de v.a.r. continue . . . . . . . . . . . . . . 61
4.5 Variables aléatoires à deux dimensions . . . . . . . . . . . . . . . . . . . . 67
4.6 Dé…nitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.6.1 Variables discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.6.2 Variables continues . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.6.3 Lois marginales et lois conditionnelles . . . . . . . . . . . . . . . . . 67
4.6.4 Espérance mathématique . . . . . . . . . . . . . . . . . . . . . . . . 68
4.6.5 Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.6.6 Corrélation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.6.7 Résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

5 LOIS USUELLES 78
5.1 Lois discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

Contents
Contents 3

5.1.1 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . 78


5.1.2 Loi uniforme sur f1; 2; :::; N g ; N 2 N. . . . . . . . . . . . . 80
5.1.3 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.1.4 Loi hypergéométrique . . . . . . . . . . . . . . . . . . . . . 83
5.1.5 Loi géométrique . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.1.6 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.2 Lois continues. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.2.1 Loi uniforme: . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.2.2 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.2.3 La loi normale: . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5.2.4 Loi Log-Normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.2.5 Loi Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
5.2.6 Loi du Kh-deux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
5.3 Résumé: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.3.1 Lois discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.3.2 Lois continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.4 Théorème centrale limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.4.1 Loi Faible des Grands Nombres . . . . . . . . . . . . . . . . . . . . 105
5.4.2 Loi Forte des Grands Nombres . . . . . . . . . . . . . . . . . . . . . 106
5.4.3 Théorème Central Limite . . . . . . . . . . . . . . . . . . . . . . . . 106
5.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

II STATISTIQUE 118

6 STATISTIQUE DESCRIPTIVE 119


6.1 Dé…nitions de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
6.1.1 Langage probabiliste et langage statistique . . . . . . . . . . . . . . 120
6.2 Statistique unidimensionnelle . . . . . . . . . . . . . . . . . . . . . . . . . 121
6.2.1 Variable quantitative discrète . . . . . . . . . . . . . . . . . . . . . 121
6.2.2 Variable quantitative continue . . . . . . . . . . . . . . . . . . . . . 143
6.2.3 Variable statistique qualitative . . . . . . . . . . . . . . . . . . . . . 151
6.2.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
6.3 Statistique bidimensionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . 159
6.3.1 Cas de deux variables qualitatives . . . . . . . . . . . . . . . . . . . 159
6.3.2 Cas de deux variables quantitatives . . . . . . . . . . . . . . . . . . 164
6.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177

Contents
Contents 4

III TESTS STATISTIQUES 185

7 Estimation 186
7.1 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
7.1.1 Dé…nitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . 186
7.2 Estimation par intervalle de con…ance . . . . . . . . . . . . . . . . . . . . . 192
7.2.1 Dé…nition et principe de construction . . . . . . . . . . . . . . . . . 192
7.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202

8 TESTS 209
8.1 Dé…nitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
8.1.1 Hypothèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
8.1.2 Statistique de test . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
8.1.3 Risques associés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
8.1.4 Seuil de signi…cation du test . . . . . . . . . . . . . . . . . . . . . . 211
8.1.5 Niveau et puissance . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
8.1.6 Région critique. Région d’acceptation . . . . . . . . . . . . . . . . . 212
8.2 Tests paramétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
8.2.1 Test sur l’espérance d’une loi normale . . . . . . . . . . . . . . . . . 217
8.2.2 Test sur l’écart type normale . . . . . . . . . . . . . . . . . . . . . . 218
8.2.3 Test sur une proportion . . . . . . . . . . . . . . . . . . . . . . . . 218
8.3 Comparaison de deux échantillons . . . . . . . . . . . . . . . . . . . . . . . 219
8.3.1 Comparaison de deux moyennes . . . . . . . . . . . . . . . . . . . . 219
8.3.2 Comparaison de deux variances: . . . . . . . . . . . . . . . . . . . . 220
8.3.3 Comparaisons de deux proportions . . . . . . . . . . . . . . . . . . 220
8.4 Deux échantillons appariés . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
8.5 Tests non-paramétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
8.5.1 Test de Wilcoxon-Mann-Whitney pour 2 échantillons indépendants 222
8.5.2 Test de Wilcoxon pour échantillons appariés . . . . . . . . . . . . . 222
8.5.3 Test de Kruskal-Wallis pour plusieurs échantillons . . . . . . . . . . 223
8.6 Test de Khi-deux 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
8.6.1 Test de 2 pour une loi uniforme discrète . . . . . . . . . . . . . . . 223
8.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
8.8 Tables statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
8.8.1 Table des quantiles de la loi normale . . . . . . . . . . . . . . . . . 231
8.8.2 Fonction de répartition de la loi normale centrée réduite . . . . . . 232
8.8.3 Table des quantiles de la loi kh-deux . . . . . . . . . . . . . . . . . 233
8.8.4 Table de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234

Contents
Contents 5

Bibliography 235

Contents
Contents 6

INTRODUCTION
Aucune spécialité scienti…que ne peut se passer de statistique et de probabilités, car elles
sont incluses dans tous les domaines de la vie quotidienne. Et en raison de l’importance de
cette matière, elle devrait être enseignée à la majorité des spécialités universitaires. Par
conséquent, dans ce polycopié, qui s’adresse spéci…quement aux étudiants de première
année en pharmacie, j’ai un peu développé et ajouté quelques chapitres dont nous ne
pouvons pas comprendre les leçons programmées, comme l’analyse combinatoire et la
théorie des ensembles par rapport au probabilités et les estimations par rapport au tests,
ainsi qu’au pro…t du reste des étudiants tels que les étudiants en médecine, en médecine
dentaire, en biologie, même les étudiants en mathématiques et en informatique.
Pour compléter notre polycopié, je me suis appuyé sur plusieurs références di¤érentes.
J’ai également présenté les chapitres de manière détaillée et claire, en donnant les preuves,
exemples et illustrations nécessaires pour permettre aux étudiants de comprendre facile-
ment le contenu. J’ai également joint chaque chapitre avec des exercices résolus a…n de
consolider les concepts parmi les étudiants.
Nous avons divisé ce polycopié comme suit: La première partie l’a consacré aux probab-
ilités, et il comprenait: l’analyse combinatoire, la théorie des ensembles, les probabilités,
les variables aléatoires unidimensionnelles et bidimensionnelles, les lois usuelles discrètes
et continues, ainsi que le théorème de limite centrale. La deuxième partie, la statistique,
dans laquelle elle traitait des variables statistiques unidimensionnelles et à deux dimen-
sions, et dans la dernière partie, les tests staistiques et les estimations, dans lesquels
l’estimation par intervalle de con…ance et certains types de tests paramétriques et non
paramétriques. En…n, nous espérons que nos étudiants béné…cieront de cette note et les
aideront à comprendre le module et de la maîtriser.

Contents
Part I

PROBABILITÉS

7
CHAPTER 1

ANALYSE COMBINATOIRE

L’analyse combinatoire (A.C) est le dénombrement des dispositions que l’on peut former
à l’aide des éléments d’un ensemble …ni. L’(A.C) est utilisé particulièrement en théorie
des probabilités dites combinatoires.

1.1 GÉNÉRALITÉS
1.1.1 L’ensemble étudié et ces éléments
Représentons les éléments d’un ensemble comporte n éléments par x1 ; x2 ; :::; xn :
Si xi et xj sont équivalents, on dit qu’ils sont indiscernables. Si xi et xj sont di¤érents,
on dit qu’ils sont discernables.
On notera les éléments indiscernables d’un ensemble …ni par la même lettre et les
éléments discernables ou distincts par des lettres di¤érentes.
Les n éléments de peuvent être:
- tous discernables = fx1 ; x2 ; :::; xn g avec xi 6= xj pour i 6= j;
- tous indiscernables = fx; x; x; :::; xg ;
- certains sont indiscernables = fx1 ; x1 ; :::; x1 ; x2 ; x2 ; :::; x2 ; :::; xk ; xk ; :::; xk g
Pk
Si le nombre des xi est ni , (i = 1; 2; :::; k); avec n = ni : Dans ce cas l’ensemble
i=1
est formé de k groupes, chaque groupe i contient ni éléments indiscernables. On dira que
ni est le nombre de répétitions de l’élément xi dans :

8
Chapter 1. ANALYSE COMBINATOIRE 9

1.1.2 Di¤érentes dispositions


Une disposition est l’ensemble formé d’éléments choisis parmi les n éléments de
l’ensemble étudié.
Un élément …gurant dans une disposition est caractérisé par le nombre de fois où il
…gure dans l’ensemble ou par sa place dans la disposition.

Dé…nition 1.1 Disposition avec répétition: C’est une disposition où un élément peut
…gurer plus d’une fois.

Dé…nition 1.2 Disposition sans répétition: C’est une disposition où un élément peut
apparaître 0 ou 1 fois.

Dé…nition 1.3 Disposition ordonnée: L’ordre d’obtention d’un élément est import-
ant.

Dé…nition 1.4 Disposition non-ordonnée: L’ordre d’obtention d’un élément n’est


pas important, on n’en tient pas compte dans la caractérisation de la disposition.

Remarque 1.1 - On peut considérer une disposition ordonnée de k éléments comme un


k-uplet et une disposition non ordonnée de k éléments comme un sous ensemble de k
éléments.

Exemple 1.1 (2; 4; 6) ; (2; 6; 4) ; (4; 2; 6) ; (4; 6; 2) ; (6; 2; 4) ; (6; 4; 2) sont des disposi-
tions ordonnées qui sont toutes di¤érentes.
f2; 4; 6g ; f2; 6; 4g ; f4; 2; 6g ; f4; 6; 2g ; f6; 2; 4g ; f6; 4; 4g ; sont des dispositions non
ordonnées qui sont toutes identiques.

1.1.3 Principe Fondamental de l’Anlyse Combinatoire


Principe de multiplication:

Dé…nition 1.5 Soit E1 ; E2 ; :::; :Ep des ensembles …nis. Le produit cartésien des en-
semble E1 ; E2 ; :::; :Ep est

E1 E2 ::: Ep = f(x1 ; x2 ; :::; xp ) ; x1 2 E1 ; x2 2 E2 ; :::; xp 2 Ep g

Soit Ei (i = 1; 2; :::; p) constitué de ni éléments, le principe fondamental de l’analyse


combinatoire (PFAC) est comme suit:
Le nombre totale de p-uplets que l’on peut former à partir des éléments de
E1 ; E2 ; :::; :Ep est n1 n2 ::: np :

1.1. GÉNÉRALITÉS
Chapter 1. ANALYSE COMBINATOIRE 10

Si une expérience peut se décomposer en p opérations successives qui peuvent s’e¤ectuer


de n1 ; n2 ; :::; np manières distinctes, alors l’expérience peut se faire de n = n1 n2 ...np
manières di¤érentes.

Exemple 1.2 Combien de nombres di¤érents de 6 chi¤res existe-t-il?


a) S’il n’y a aucune restriction ?
b) Si les nombres doivent être divisibles par 5 ?
c) si les répétitions de chi¤res sont exclues ?

Solution. Le premier chi¤re ne peut pas être 0 car si tel était, le nombre aurait 5 chi¤res.
a) On applique le PFAC et on obtient

9 10 10 10 10 10 = 900000:

b) Le nombre se termine soit par 0 soit par 5, donc on applique également le PFAC et
on obtient
9 10 10 10 10 2 = 180000:
c) On applique toujours le même principe mais cette fois-ci on aura

9 9 8 7 6 5 = 136080

Car chaque chi¤re choisi ne peut plus être utilisé à nouveau.

1.1.4 Principe d’addition


Si une expérience A peut être réalisée de m façons distinctes et si une expérience B
peut être réalisée de k manières di¤érentes, les deux expériences ne pouvant être réalisées
simultanément, alors il y a: n = m + k façons distinctes de réaliser A ou B.
Si les deux expériences peuvent être réalisées simultanément, alors la formule devient:
n=m+k p où p est le nombre de réalisations communes.

1.2 ARRANGEMENTS
1.2.1 Arrangements avec répétition
Dé…nition 1.6 On appelle arrangement avec répétition de p éléments choisis parmi n
éléments discernables toute disposition ordonnée de ces p éléments où chaque éléments
peut-être répété jusqu’à p fois.

1.2. ARRANGEMENTS
Chapter 1. ANALYSE COMBINATOIRE 11

On peut obtenir un arrangement avec répétition de p éléments choisis parmi n en tirant


d’abord un élément, on remet parmi les n éléments après avoir noté sa nature, et on répète
p fois l’opération. (Tirage avec remise)
Le rang du tirage sert alors à ordonner les objets retenus.

Proposition 1.1 Le nombre d’arrangements avec répétition de p éléments que l’on peut
former avec n éléments est donné par

epn = n
A n :::n = np

Preuve. Il existe n façons pour choisir chacun des p éléments de l’arrangement, on a


donc d’après le PFAC, le nombre total d’arrangements avec répétition est

n n :::n = np

e426 = 264 = 456976 mots de 4


Exemple 1.3 On peut former avec l’alphabet français A
lettres (ces mots n’ont pas forcément un sens)

Exemple 1.4 Dans une urne contenant n boules distinguables et numérotées, on tire
p boules l’une après l’autre (on s’intéresse à l’ordre) en les remettant dans l’urne après
chaque tirage (on accepte les répétitions). Le nombre de tirages possibles est le nombre
d’arrangements avec répétition de p éléments de l’ensemble f1; 2; :::; ng i:e np tirages.

1.2.2 Arrangements sans répétitions


Dé…nition 1.7 On appelle arrangement sans répétition de p éléments choisis parmi n
éléments distincts toute disposition ordonnée de ces p éléments où chaque élément ne
peut apparaître qu’une seule fois.

On peut obtenir un arrangement sans répétition de p éléments choisis parmi n; en


tirant d’abord un élément parmi les n, puis un deuxième parmi les (n 1) restants, etc...
(Tirage sans remise).
Le rang du tirage sert alors à ordonner les objets retenus.
Un arrangement sans répétition de p éléments choisis parmi n éléments distincts est
un p-uplet tel que la première coordonnée peut être choisie de n façons, la deuxième de
(n 1) façons , ... et la peme de (n p + 1) façons.

1.2. ARRANGEMENTS
Chapter 1. ANALYSE COMBINATOIRE 12

Proposition 1.2 Le nombre d’arrangements sans répétition de p; (p n) éléments que


l’on peut former avec n éléments distincts est donné par

Apn = n (n 1) (n 2) ::: (n p + 1)

Preuve. Il existe n façons pour choisir le 1er élément de l’arrangement. Pour chaque
chois de 1er élément, il existe (n 1) façons pour choisir le 2eme élément de l’arrangement
(puisqu’il ne doit pas y avoir répétition d’un élément). En itérant, on véri…e que pour
chaque chois de (p 1) premiers éléments, il existe (n p + 1) façons pour choisir le peme
élément de l’arrangement. D’après le PFAC, on a le nombre total d’arrangements sans
répétition est
n (n 1) (n 2) ::: (n p + 1)

Exemple 1.5 Dans l’exemple précédent 1.3, si on utilise chaque lettre qu’une seule fois,
on obtient:
A426 = 26 25 24 23 = 358800 mots de 4 lettres di¤érentes (ces mots n’ont pas
forcément un sens).

Exemple 1.6 Dans une urne contenant n boules distinguables et numérotées, on tire
p boules l’une après l’autre (on s’intéresse à l’ordre) sans les remettre dans l’urne (on
n’autorise pas de répétition). Le nombre de tirages possibles est le nombre d’arrangements
sans répétition de p éléments de l’ensemble f1; 2; :::; ng i:e Apn tirages.

1.2.3 PERMUTATIONS
Permutations sans répétition

C’est le cas où p = n

Dé…nition 1.8 On appelle permutation sans répétition de n éléments distincts, tout


arrangement sans répétition de ces n éléments.

Dé…nition 1.9 On appelle factorielle n, le nombre n! dé…nie par


Q
n
n! = i=1 2 ::: n
i=1

Par convention, notons que


0! = 1

1.2. ARRANGEMENTS
Chapter 1. ANALYSE COMBINATOIRE 13

Nous pouvons également utiliser une dé…nition récursive

n! = n (n 1)!

Proposition 1.3 Le nombre de permutations sans répétition de n éléments distincts est


donné par

Pn = Ann = n (n 1) (n 2) ::: 3 2 1 = n!
Preuve.
Pn = Ann = n (n 1) (n 2) ::: 3 2 1 = n!
Car (n n + 1) = 1:

Remarque 1.2 Deux permutations ne di¤èrent que par l’ordre de n éléments distincts
qui la composent.
Le nombre de permutations de n éléments est le nombre de manières possibles
d’ordonner ces n éléments.

Exemple 1.7 Dans une urne contenant n boules distinguables et numérotées, on tire
les n boules l’une après l’autre (on s’intéresse à l’ordre) sans les remettre dans l’urne (on
n’autorise pas de répétition). Le nombre de tirages possibles est le nombre de permutations
sans répétition des éléments de l’ensemble f1; 2; :::; ng i:e n! tirages.

Exemple 1.8 Combien de méthodes peuvent être arrangées 5 livres de mathématiques,


4 livres de science et 3 livres de chimie tels que les livres de chacune matière restent
ensemble.

Solution. Nous avons 5! façons pour ranger les livres de mathématiques, 4! façons pour
ranger les livres de science et 3! façons pour ranger les livres de chimie et comme nous
avons 3! façons pour ranger les trois spécialités, donc nous avons …nalement le nombre de
rangement de ces livres est
5! 4! 3! 3! = 103680

Permutations avec répétition

Dé…nition 1.10 Si nous avons n éléments non tous discernables. On répartit ces élé-
ments en k groupes discernables. Chaque groupe contient des éléments indiscernables.
P
k
Les e¤ectifs respectifs des k groupes sont notés n1 ; n2 ; :::; nk tels que n = ni :
i=1

1.2. ARRANGEMENTS
Chapter 1. ANALYSE COMBINATOIRE 14

On appelle permutation avec répétition de ces n éléments toute disposition ordonnée


de ces n éléments.

Proposition 1.4 Le nombre de permutations avec répétition de n éléments dé…nis dans


la dé…nition précédente est donné par
n!
Pnn1 ;n2 ;:::;nk =
n1 ! n2 ! ::: nk !
Preuve. Il y a n! permutations di¤érentes de ces n éléments. Pour obtenir le nombre de
permutations avec répétition, il faut considérer le fait que les éléments de même groupe
vont former une même permutation. Or le nombre de permutations identiques former par
les éléments de groupe k est nk !, donc le nombre total de permutations avec répétition de
n!
ces n éléments est n1 ! n2 ! ::: nk !

Remarque 1.3 La permutation avec répétition n’est pas un cas particulier


d’arrangement avec répétition, contrairement au cas de permutation sans répétition. La
répétition n’a pas le même sens pour permutation et arrangement.
Dans le cas des permutations: répétition, signi…e qu’un groupe d’éléments donné peut
apparaitre plusieurs fois.
Dans le cas des arrangements: répétition, signi…e qu’un ’élément donné peut être réutil-
iser plusieurs fois.

Exemple 1.9 Combien de mots di¤érents peut-on écrire avec toutes les lettres du mot
"STATISTIQUE" ?
11!
Solution. On peut écrire 2! 3! 1! 2! 1! 1! 1!
= 1663 200 mots di¤érents avec ces 11 lettres
(ces mots n’ont pas forcément un sens)

1.3 COMBINAISONS
1.3.1 Combinaisons sans répétition
Dé…nition 1.11 On appelle combinaison sans répétition de P éléments pris parmi n
éléments discernables toute disposition non ordonnée de p éléments choisis sans répétion
parmi ces n éléments.

Remarque 1.4 On peut considère une combinaison sans répétition de p éléments parmi
n éléments discernables comme un sous ensemble de cardinal p de l’ensemble de ces n
éléments.

1.3. COMBINAISONS
Chapter 1. ANALYSE COMBINATOIRE 15

Proposition 1.5 Le nombre de combinaisons sans répétitions de p (p n) éléments


choisis parmi n éléments discernables est donné par
Apn
Cnp =
p!
Preuve. On peut former de chaque combinaison de p éléments parmi n éléments discern-
ables p! arrangements sans répétition de ces p éléments, d’où

p!Cnp = Apn

Remarque 1.5 Deux combinaisons ne di¤èrent que par la nature des éléments la com-
posent.

1.3.2 Propriétés
Soient n et p deux entiers naturels. Alors on a
1) Pour tous n 1 et p n; Apn = (nn!p)! :
2) Pour tous n 1 et p n; ;..Cnp = p!(nn! p)!
3) Pour tout n 1; Cn0 = Cnn = 1:
4) Pour tous n 1 et p n; Cnp = Cnn p :
p+1
5) Pour tous n 1 et p n; Cnp + Cnp+1 = Cn+1 :
Preuve. 1)

Apn = n (n 1) (n 2) ::: (n p + 1)
n (n 1) (n 2) ::: (n p + 1) (n p) ::: 2 1
=
(n p) ::: 2 1
n!
= :
(n p)!
2)
Apn n! 1 n!
Cnp = = =
p! (n p)! p! p! (n p)!
3)
n! n!
Cn0 = = =1
0! (n 0)! 1 n!
de même
n! n!
Cnn = = =1
n! (n n)! n! 1
4)
n! n!
Cnn p
= = = Cnp
(n p)! (n n + P )! (n p)!p!

1.3. COMBINAISONS
Chapter 1. ANALYSE COMBINATOIRE 16

5)

n! n!
Cnp + Cnp+1 = +
p! (n p)! (p + 1)! (n p 1)!
n! n!
= +
p! (n p) (n p 1)! (p + 1) p! (n p 1)!
n! (p + 1 + n p) (n + 1) n! p+1
= = = Cn+1 :
(p + 1)! (n p)! (p + 1)! (n p)!

Exemple 1.10 Un groupe de 12 personnes doit être partagé en 2 groupes de 6 personnes.


Un groupe partira en Alger et l’autre en Oron. Combien y a-t-il de manières d’organiser
les voyages ?
6
Solution. Il y a C12 possibilités de former le premier groupe puis C66 possibilités de former
6 12!
le deuxième, donc il y a C12 C66 = 6! 6!
1 = 924 manières d’organiser les voyages.

1.3.3 Combinaisons avec répétition


Dé…nition 1.12 On appelle combinaison avec répétition de p éléments parmi n éléments
discernables, toute disposition non ordonnée de ces P éléments où chaque éléments peut-
être répété jusqu’à p fois.

Exemple 1.11 Les combinaisons avec répétition de 3 éléments choisis parmi les 4 élé-
ments a; b; c; d sont:

fa; a; ag ; fa; a; bg ; fa; a; cg ; fa; a; dg ; fa; b; cg ; fa; b; dg ; fa; c; dg ;


fb; c; dg ; fb; b; bg ; fb; b; ag ; fb; b; cg ; fb; b; dg ; fc; c; cg ; fc; c; ag ;
fc; c; bg ; fc; c; dg ; fd; d; dg ; fd; d; ag ; fd; d; bg ; fd; d; cg :

Le nombre de ces combinaisons est 20 = 3!6!3! = (4+3 1)!


3!(4 1)!
= C63 = C4+3
3
1;
De manière générale, on peut citer la proposition suivante:

Proposition 1.6 Le nombre de combinaisons avec répétition de p éléments parmi n élé-


ments discernables est
enp = (n + p 1)! = Cn+p
C p
1
p! (n 1)!

1.3. COMBINAISONS
Chapter 1. ANALYSE COMBINATOIRE 17

1.4 TRIANGLE DE PASCAL ET BINÔME DE


NEWTON
1.4.1 Triangle de Pascal
En appliquant les propriétés 3) et 5) de 1.3.2 ; Cnp se trouve à l’intersection de colonne p
et la ligne n: Chaque élément est la somme de ceux situés au-dessus et au-dessus à gauche
de lui-même, conformément à la formule de récurrence,
p+1
En appliquant Cn0 = Cnn = 1 et Cnp + Cnp+1 = Cn+1 ; pour construire le tableau suivant
dit triangle de Pascal.

Cnp + Cnp+1
#
p+1
Cn+1

1.4.2 Binôme de Newton


Nous avons connu les identités remarquables pour développer (a + b)n pour n = 2; 3: On
peut généraliser ces identités pour un entier naturel quelconque n, en utilisant la formule
du binôme.

Théorème 1.1 Pour tous réels a; b et pour tout entier naturel non nul n, nous avons
P
n
(a + b)n = Cnk an k bk
k=0

Preuve. (Par récurrence)


Pour n = 1;
(a + b)1 = 1a + 1b = C10 a + C11 b

1.4. TRIANGLE DE PASCAL ET BINÔME DE NEWTON


Chapter 1. ANALYSE COMBINATOIRE 18

n = 2;
(a + b)2 = 1a2 + 2ab + b2 = C20 a2 + C21 ab + C22 b2

On suppose qu’elle est vraie pour n et on démontre qu’elle est vraie pour n + 1;
n+1
D’après la propriété 5) de 1.3.2 et comme Cn0 = Cn+1
0
et Cnn = Cn+1 : Alors on peut
écrire:

(a + b)n+1 = (a + b) (a + b)n
= (a + b) Cn0 an + Cn1 an 1 b + ::: + Cnn 1 abn 1
+ Cnn bn
= Cn0 an+1 + Cn0 + Cn1 an b + ::: + Cnn 1
+ Cnn abn + Cnn bn+1
0
= Cn+1 an+1 + Cn+1
1
an b + ::: + Cn+1
n
abn + Cn+1
n+1 n+1
b
P k n+1 k k
n+1
= Cn+1 a b
k=0

D’où
P
n
8a; b 2 R; 8n 2 N ; (a + b)n = Cnk an k bk
k=0

Exemple 1.12 Si on pose a = 1; et b = 1; on trouve

8n 2 N ; Cn0 +1n +::: + Cnn = 2n

Exemple 1.13 Développer (a b)6

Solution. D’après le triangle de Pascal pour n = 6; les coe¢ cients sont


1; 6; 15; 20; 15; 6; 1:

(a b)6 = (a + ( b))6
= a6 + 6a5 ( b) + 15a4 ( b)2 + 20a3 ( b)3 + 15a2 ( b)4 +
+6a ( b)5 + ( 6)6
= a6 6a5 b + 15a4 b2 20a3 b3 + 15a2 b4 6ab5 + 66 :

1.5 Exercices

1.5. Exercices
Chapter 1. ANALYSE COMBINATOIRE 19

Exercice 1.1 Un cadenas à numéros a trois roues, chacune porte les numéros 0 à 9.
Combien de nombres secrets y a-t-il ?

Solution. Chaque roue du cadenas représente une expérience. Le nombre de possibilités


e3 = 103 = 1000, c’est en fait tous les nombres de 000 à 999.
totales est donc, A10

Exercice 1.2 On veut disposer 10 livres sur un rayon d’une bibliothèque. Quatre d’entre
eux sont des livres de mathématiques, trois de chimie, deux de physique et un de langue.
Combien y a-t-il de dispositions possibles de ranger ses livres de façon que tous les livres
traitant du même sujet restent groupés. ?

Solution. Nous avons 4M; 3C ; 2P; 1L donc 4 groupes donnant 4! dispositions


di¤érentes, à l’intérieur de chaque groupe nous avons respectivement 4!; 3!; 2!; 1! per-
mutations possibles. Le résultat d’après le principe fondamental de l’analyse combinatoire
est
4! 4! 3! 2! 1! = 6912:

Exercice 1.3 Dans un groupe il y a 8 hommes, 10 femmes et 7 enfants. De combien de


manières di¤érentes peut-on les placer sur une ligne si
a) ils peuvent se placer librement ?
b) Les hommes désirent rester groupés ?

Solution. a) On considère les individus comme étant tous discernables, nous


sommes dans le cas d’une permutation de 25 éléments, le résultat est 25! =
15511210043330985984000000 permutations possibles. Si on désirait les essayer toutes,
cela prendrait 491857 années à raison d’un milliard de permutations par seconde !
b) On considère les hommes comme étant un seul et unique individu. Ayant regroupé
les 8 hommes il nous reste 1 + 8 + 7 = 16 éléments à permuter donc 16!. Mais, à l’intérieur
du groupe d’homme nous avons 8! permutations possibles. En appliquant le PFAC on
obtient …nalement 16! 8! = 843606888284160000;

Exercice 1.4 Combien de nombres di¤érents peut-on écrire avec les chi¤res 3; 3; 5; 5; 5; 4
?:

Solution. C’est une permutation d’éléments partiellement indiscernables, le résultat est


6!
= 60
2! 3! 1!

1.5. Exercices
Chapter 1. ANALYSE COMBINATOIRE 20

Exercice 1.5 Quel est le nombre de groupe de six personnes que l’on peut former avec 4
hommes et 6 femmes si l’on veut qu’ils contiennent obligatoirement:
1) exactement 2 hommes.
2) au moins 2 hommes.

Solution. 1) Le nombre de groupes demandés est le nombre de choix de 2 hommes parmi


4 et 4 femme parmi 6, le résultat est
4! 6!
C42 C64 = = 90
2! 2! 4! 2!
2) Au moins 2 hommes. C’est les combinaisons sans répétition, le résultat est
6! 6!
C42 C64 + C43 C63 + C44 C62 = 90 + 4 +
3! 3! 2! 4!
= 185

Exercice 1.6 Une urne contient 8 boules rouges, 3 boules blanches et 9 boules bleues; on
extrait de cette urne 3 boules au hasard en un seul tirage. Quel est le nombre de façons
de tirer
1) trois boules rouges?
2) une boule de chaque couleur?
3) au moins l’une des boules soit blanche?

Solution. Le tirage en une seule fois élimine la notion d’ordre.


1) Le nombre de façons de tirer 3 boules rouges est le nombre de choix de 3 éléments
parmi 8;d’où le résultat est
8!
C83 =
= 56
3! 5!
2) Le nombre de façons de tirer une boule de chaque couleur est le nombre de choix
d’un élément parmi 8 et un élément parmi 3 et 1 élément parmi 9;d’où le résultat est

C81 C31 C91 = 8 3 9 = 216


3) Le nombre de façons de tirer au moins l’une des boules soit blanche est
17!
C31 2
C17 + C32 1
C17 + C33 = 3 + 3 17 + 1 = 460
2! 15!
Ou bien le résultat est donné directement par
3 3 20! 17!
C20 C17 = = 460
3! 17! 3! 14!

1.5. Exercices
CHAPTER 2

THÉORIE DES ENSEMBLES

De façon générale les ensembles que l’on considère sont des parties d’un ensemble déter-
miné appelé référentiel, cette conception permettant d’éviter les paradoxes de la théorie
des ensembles. Ce pendant les opérations d’inclusion, de réunion et d’intersection sont
dé…nies indépendamment d’un référentiel. Mais la complémentation n’est pas dé…nie.
Dans ce paragraphe, nous rappelons les principales propriétés que nous aurons utilisé
dans la suite.

2.1 Sous-ensembles
Dé…nition 2.1 On dit qu’un ensemble A est inclus dans un autre ensemble B; (A B),
si tout élément de A est un élément de B:
si A B, on dit que A est un sous-ensemble de B:
Si A n’inclus pas dans B, on note A * B:

Remarque 2.1 Pour qu’un ensemble A n’inclus pas dans l’ensemble B, il faut et il su¢ t
qu’il existe un élément de A qui n’appartienne pas à B:

Exemple 2.1 L’ensemble vide est inclus dans tout ensemble non vide.
Un ensemble est inclus dans lui-même.

Proposition 2.1 Soient A; B et C trois ensembles non vides, alors on a


(i) A A (Propriété de ré‡exivité)
(ii) (A B et B A) =) A = b (Propriété d’antisymétrie)
(iii) (A B et B C) =) A C (Propriété de transitivité)

21
Chapter 2. THÉORIE DES ENSEMBLES 22

Dé…nition 2.2 On dit que deux ensembles sont égaux, si tout élément d’e l’un de ces
ensembles appartient à l’autre ensemble. Autrement dit

A = B () (A B et B A)
Dé…nition 2.3 Un ensemble est dit …ni si le nombre d’éléments qui le composent est
un entier naturel. Dans ce cas, le nombre d’éléments est appelé cardinal de l’ensemble et
est noté Card ( ) :
Un ensemble qui n’est pas …ni est dit in…ni.
Un ensemble qui contient qu’un seul élément est dit singleton.
L’ensemble vide est l’ensemble qui ne contient aucun élément, on le note par : Par
convention Card ( ) = 0:

Proposition 2.2 Soient A et B deux ensembles, alors

A B =) Card (A) Card (B)


Dé…nition 2.4 Un ensemble est dit dénombrable s’il existe une bijection entre cet en-
semble et l’ensemble des entiers naturels.

Dé…nition 2.5 Les sous-ensembles d’un ensemble dé…nissent un ensemble appelé en-
semble des parties de et noté P ( ) :

Remarque 2.2 1) P ( ) contient toujours et :


2) Les éléments de P ( ) sont des sous-ensembles de et non pas des éléments de :
3) Il y équivalence entre les assertions A 2 P ( ) et A :

Exemple 2.2 Soit = f1; 2; 3g, alors

P ( ) = f ; f1g ; f2g ; f3g ; f1; 2g ; f1; 3g ; f2; 3g ; f1; 2; 3gg


On constate que
Card (P ( )) = 8 = 23

Proposition 2.3 Soit un ensemble …ni ; alors

Card (P ( )) = 2Card( )

Preuve. Soit Card ( ) = n; il y a un ensemble de 0 élément c’est , il y a n singletons, il


y a Cnk ensembles de k éléments (c’est le nombre de possibilités de choisir k éléments parmi
n sans ordre et sans répétition i:e le nombre de combinaisons Cnk ). Ainsi, en utilisant la
formule du binôme de Newton pour a = b = 1:
P
n P
n
Card (P ( )) = Cnk = Cnk (1)k (1)n k
= (1 + 1)n = 2n
i=1 i=1

2.1. Sous-ensembles
Chapter 2. THÉORIE DES ENSEMBLES 23

2.1.1 Réunion et Intersection


Dé…nition 2.6 Soient A, B deux sous-ensembles d’un ensemble : On appelle réunion
des ensembles A et B l’ensemble noté A [ B constitué par les éléments de appartenant
à A ou à B. Autrement dit

A [ B = f! 2 ; ! 2 A ou ! 2 Bg

Dé…nition 2.7 Soient A, B deux sous-ensembles d’un ensemble : On appelle inter-


section des ensembles A et B l’ensemble noté A \ B constitué par les éléments de
appartenant à A et à B. Autrement dit

A \ B = f! 2 ; ! 2 A et ! 2 Bg

Dé…nition 2.8 Deux ensembles A et B sont dit disjoints si et seulement si A \ B = :

Dé…nition 2.9 Soient A1 ; A2 ; :::; An des sous-ensembles de l’ensemble : On dit que


les ensembles A1 ; A2 ; :::; An forment une partition de si et seulement si les conditions
suivantes sont satisfaites
1) 8i; j 2 f1; 2; :::; ng ; Ai \ Aj = pour i 6= j
Sn
2) Ai = :
i=1

Exemple 2.3 soit l’ensemble

= fa; b; c; d; e; f; g; hg

fa; bg ; fc; dg ; feg ; ff; g; hg forment une partition de


fa; b; cg ; fc; dg ; feg ; ff; g; hg ne forment pas une partition de
fa; bg ; fc; dg ; feg ; fg; hg ne forment pas une partition de :

Proposition 2.4 Soient A et B deux ensembles …nis alors on a


1)
Card (A [ B) = Card (A) + Card (B) Card (A \ B)
2) si A et B sont disjoints, alors

Card (A [ B) = Card (A) + Card (B)

Proposition 2.5 Soient A; B; C; B1 ; B2 ; :::; Bn des sous-ensembles d’un ensemble : Al-


ors on a
1) Si A 2 P ( ) et B 2 P ( ), alors A [ B 2 P ( ) et A \ B 2 P ( )

2.1. Sous-ensembles
Chapter 2. THÉORIE DES ENSEMBLES 24

([ et \ sont des lois de composition internes)


2) 8A; B 2 P ( ) ; A [ B = B [ A et A \ B = B \ A
([ et \ sont commutatives)
3) 8A; B; C 2 P ( ) ; (A [ B) [ C = A [ (B [ C) = A [ B [ C
8A; B; C 2 P ( ) ; (A \ B) \ C = A \ (B \ C) = A \ B \ C
([ et \ sont associatives)
4) 8A 2 P ( ) ; A [ = A ( est l’élément neutre pour l’union)
8A 2 P ( ) ; A \ = A ( est l’élément neutre pour l’intersection)
Sn S
n
5) A \ Bi = (A \ Bi ). (L’intersection est distributive sur la réunion)
i=1 i=1
T
n T
n
A[ Bi = (A [ Bi ) : (La réunion est distributive sur l’intersection)
i=1 i=1

2.1.2 Correspondance entre logique et ensembles


! 2 A [ B , ! 2 A ou ! 2 B !2
= A[B ,! 2
= A et ! 2
=B
! 2 A \ B , ! 2 A et ! 2 B !2
= A\B ,! 2 = A ou ! 2 =B
S
n S
n
!2 Ai , 9k 2 f1; 2; :::; ng ! 2 Ak !2
= Ai , 8k 2 f1; 2; :::; ng ! 2
= Ak
i=1 i=1
T
n T
n
!2 Ai , 8k 2 f1; 2; :::; ng ! 2 Ak !2
= Ai , 9k 2 f1; 2; :::; ng ! 2 Ak
i=1 i=1

2.1.3 Ensemble complémentaire


Dé…nition 2.10 Soient A un sous-ensemble d’un ensemble : On appelle complémentaire
de A dans ; l’ensemble constitué des éléments de qui n’appartiennent pas à A: On
note cet ensemble C A ou A:Autrement dit

A = f! 2 ; ! 2
= Ag
Proposition 2.6 Soient A; B deux sous-ensembles d’un ensemble , alors on a
1) A = A
2) = et =
3) A \ A = ; A [ A =
4) A [ B = A \ B; A \ B = A [ B (Lois de Morgon)
5) A B =) B A
6) Card A = Card ( ) Card (A)

Dé…nition 2.11 Soient A; B deus sous-ensembles d’un ensemble : On appelle di¤érence


des ensembles A et B, l’ensemble noté A B est constitué des éléments de A qui
n’appartiennent pas à B: Autrement dit

A B = f! 2 ; ! 2 A et ! 2
= Bg

2.1. Sous-ensembles
Chapter 2. THÉORIE DES ENSEMBLES 25

Dé…nition 2.12 Soient A; B deus sous-ensembles d’un ensemble : On appelle di¤érence


symétrique des ensembles A et B, l’ensemble noté A4B est constitué des éléments de A
qui n’appartiennent pas à B ou des éléments de B qui n’appartiennent pas à A. Autrement
dit
A4B = f! 2 ; (! 2 A et ! 2
= B) ou (! 2 B et ! 2
= A)g

Remarque 2.3 On peut véri…er facilement d’après les dé…nitions précédentes que

A B =A\B et A4B = (A B) [ (B A) :

Dé…nition 2.13 On appelle Tribu ou -algèbre toute famille d’ensembles non vides A ,
véri…ant les conditions suivantes
i) 2 A
ii) A 2 A =)A 2 A (Stabilité par complémentation)
S
1
iii) soit i 1; Ai; 2 A =) Ai 2 A (Stabilité par union dénombrable).
i=1

2.1. Sous-ensembles
CHAPTER 3

PROBABILITÉS.

La théorie des probabilités est une branche relativement récente des théories
mathématiques. Le concept des probabilités semblait être connu des Grecs
et des Égyptiens. Cependant, ce n’est que vers le milieu du XVIIe siècle que
l’on peut situer le début de cette théorie. D’abord limitée à l’étude des jeux
de hasard, elle s’est rapidement étendue à tous les domaines de la Science, en
Physique (théorie du potentiel, physique statistique, physique corpusculaire,
...etc.), en Informatique, en Économie, en Génétique, en Psychologie, ... etc.
Le mot probabilité ou l’adjectif probable est bien souvent synonyme du mot
chance. Les premiers résultats mathématiques furent introduits par Pascal
et Fermat au milieu du XVIIe siècle. Puis, apparaissent, à la …n du XVIIe
siècle, le nom de Huyghens et surtout au XVIIIe siècle, les noms de Bernoulli,
De Moivre, Bayes, Laplace, Gauss et au XXe siècle, Poincaré, Borel, Fréchet,
Lévy, Kolmogorov, Khintchin, .... Alors que la théorie du calcul des probab-
ilités s’est développée rapidement au cours du XXe siècle.

3.1 Expériences, Evénements Aléatoires


3.1.1 Dé…nitions générales
Dé…nition 3.1 Une expérience aléatoire ou stochastique est une expérience dont il n’est
pas possible de prévoir le résultat (l’issue); on suppose qu’elle peut être répétée indé…ni-
ment dans les mêmes conditions.

26
Chapter 3. PROBABILITÉS. 27

Exemple 3.1 Jeter d’un dé


Observation de la durée de fonctionnement sans panne d’un appareil.
Jeu de pile ou face
Succession d’appels à un standard téléphonique non surchargé.

Dé…nition 3.2 Un résultat ou issue d’une expérience sera notée !; l’ensemble de tous les
résultats (issues) possibles d’une expérience est appelé ensemble fondamental ou univers
des possibles et sera noté . Cet ensemble peut être …ni, dénombrable ou non dénom-
brable.

La détermination de l’ensemble fondamental dépend de ce que l’on cherche à établir.

Exemple 3.2 On jette un dé et on désire calculer la probabilité que le chi¤re 5 sorte;


alors l’univers est:
= f1; 2; 3; 4; 5; 6g
Ici est …ni Card ( ) = 6:
On jette le même dé et on veut calculer la probabilité qu’un nombre pair sorte; dans
ce cas, on peut choisir :

= fi; p; où i est pour impair et p pour pairg

Ici est …ni


On jette une pièce de monnaie et on s’intéresse au nombre de fois qu’il faut lancer la
pièce pour obtenir 8 fois “face”; dans ce cas, on a:

=N f0; 1; 2; 3; 4; 5; 6; 7g

Ici est dénombrable.


La durée de vie d’un appareil donne l’univers

= R+

Ici est non dénombrable.

Dé…nition 3.3 Un ensemble A d’issues possibles d’une expérience est un événement,


c’est un sous-ensemble de l’univers, A ; s’il ne contient qu’un seul résultat f!g, on
parle d’un événement élémentaire.

Exemple 3.3 Jeter d’un dé: A = f2g est un événement ´élémentaire, B = f2; 3; 5g est
l’événement “ il sort un nombre premier.”.
Observation de la durée de fonctionnement sans panne d’un appareil: A : “l’appareil
fonctionne plus de 100 heures”; A = ]100; +1[.

3.1. Expériences, Evénements Aléatoires


Chapter 3. PROBABILITÉS. 28

Dé…nition 3.4 Un événement A est dit réalisé si le résultat de l’expérience appartient à


cet ensemble.

C’est pourquoi on dit que:


est l’événement certain et est l’événement impossible.

Proposition 3.1 Un univers comprenant n éléments a 2n sous-ensembles, il y a 2n événe-


ments possibles.

Preuve. Les sous ensembles de cet univers sont les combinaisons de k éléments pris parmi
n éléments; (k = 0; 1; 2; :::; n), i:e

Cn0 + Cn1 + ::: + Cnn = 2n :

3.1.2 Opérations sur les événements


1) À tout événement A est associé son contraire, non A ou A qui est réalisé si et seulement
si A ne l’est pas.
2) Pour tout couple d’événements (A; B); l’événement A \ B est réalisé si A et B
sont réalisés.
3) Pour tout couple d’événements (A; B); l’événement A [ B est réalisé si l’un des
deux ou si les deux sont réalisés.
4) Deux événements A et B sont incompatibles si la réalisation de l’un implique la non
réalisation de l’autre.
5) Les événements A1 ; A2 ; ::; An forment un système complet d’événements ou système
exhaustif si les ensembles qui leur sont associés forment une partition de l’espace .
6) Implication A B ou A =) B: l’événement A ne peut être réalisé sans que B le
soit.
7) A [ B = A \ B; A \ B = A [ B (Lois de Morgon).
8) A \ (B [ C) = (A \ B) [ (A \ C) (Distributivité de \ sur [),
A [ (B \ C) = (A [ B) \ (A [ C) (Distributivité de [ sur \).

Remarque 3.1 Toutes les opérations précédemment dé…nies s’étendent à plus de deux
événements. La classe des événements associés à une expérience aléatoire est donc une
tribu A de parties de .

Dé…nition 3.5 Le couple ( ; A) formé d’un ensemble et d’une tribu A de parties de


est dit espace probabilisable.

3.1. Expériences, Evénements Aléatoires


Chapter 3. PROBABILITÉS. 29

Parallélisme entre la vocabulaire ensembliste et la vocabulaire probabiliste

Il existe un vocabulaire propre aux événements, di¤érent du vocabulaire ensembliste.

Notations Vocabulaire ensembliste Vocabulaire probabiliste


ensemble plein événement certain
ensemble vide événement impossible
! élément de événement élémentaire
A sous-ensemble de événement
!2A ! appartient à A ! réalise A
A B A inclus dans A implique B
A[B réunion de A et B A ou B
A\B intersection de A et B A et B
A complémentaire de A événement contraire de A
A\B = A et B disjointes A et B incompatibles
Ai \ Bj = et [Ai = partition de système complet d’événements

Exemple 3.4 Au lancer du dé, on considère les événements:


A : ”il sort un nombre premier”.
B : ”il sort un nombre inférieur à 2”.
C : ”il sort un nombre impair ”.
Alors:
A = f2; 3; 5g ; B = f1g ; C = f1; 3; 5g
A [ B = f1; 2; 3; 5g est l’événement “il sort un nombre premier ou inférieur à 2”.
A \ C = f3; 5g est l’événement “il sort un nombre premier et impair”.
A = f1; 4; 6g est l’événement “il sort un nombre non premier”.
A \ B = est l’événement impossible; A et B sont incompatibles.

Expériences composées

Une expérience aléatoire peut être décomposée en deux ou plus expériences partielles.

Exemple 3.5 On lance un dé blanc puis un dé noir, On considère ici l’issue comme un
couple ordonné (i; j), où i désigne le résultat du dé blanc et j celui du dé noir.
L’univers de cette expérience est

= (i; j) 2 N2 ; 1 i 6; 1 j 6

3.1. Expériences, Evénements Aléatoires


Chapter 3. PROBABILITÉS. 30

L’événement “le dé blanc donne un nombre premier et le noir un nombre impair”est

A = f(2; 1) ; (2; 3) ; (2; 5) ; (3; 1) ; (3; 3) ; (3; 5) ; (5; 1) ; (5; 3) ; (5; 5)g

3.2 Probabilité et Espace probabilisé


Dé…nition 3.6 Soit ( ; A) un espace d’événements. On appelle probabilité sur ( ; A),
une application de A dans [0; 1] telle que:

(i) P ( ) = 1
S P
1
(ii) P ( Ai ) = P (Ai ) pour toute suite (Ai )i2N d’éléments de A deux à deux in-
i2N i=1
compatibles.
Le triplet ( ; A; P ) est dit espace probabilisé.

Dé…nition 3.7 Si l’univers des issues possibles est …ni et qu’on peut supposer que toutes
les issues soient équiprobables (aucune issue n’est privilégiée), alors la probabilité que
l’événement A se réalise est donnée par :

Card (A) Nombre de cas favorables


P (A) = =
Card ( ) Nombre de cas possibles
Le calcul d’une probabilité dans ce cas se ramène alors à l’analyse combinatoire.
Attention: Cette formule n’est valable que lorsque les événements élémentaires sont
bien équiprobables. Dans ce cas, il su¢ t de savoir calculer le cardinal des ensembles
considérés pour calculer les probabilités.

Exemple 3.6 n appareils identiques sont mis en service simultanément. Après un temps
T , on constate que k de ces appareils sont en panne. La probabilité de l’événement A:“un
appareil tombe en panne après un temps T ”sera
k
P (A) =
n

3.2.1 Propriétés élémentaires


De la dé…nition, on peut déduire la proposition suivante:

Proposition 3.2 Une probabilité P véri…e les assertions suivantes:


(i) 8A 2 A; P (A) = 1 P (A)
(ii) P ( ) = 0
(iii) 8 (A; B) 2 A2 ; P (A [ B) = P (A) + P (B) P (A \ B)

3.2. Probabilité et Espace probabilisé


Chapter 3. PROBABILITÉS. 31

(iv)8 (A; B; C) 2 A3 ;

P (A [ B [ B) = P (A) + P (B) + P (C) P (A \ B) P (A \ C)


P (B \ C) + P (A \ B \ C)

(v) Si A et B; deux événements de A; sont tels que A B; on a alors

P (A) P (B)

(vi) Inégalité de Boole : si A1 ; A2 ; ...; An sont des événements de A, on a :

S
n X
n
P( Ai ) P (Ai ):
i=1 i=1

Preuve. ( i) Comme
=A[A et A \ A = :
On a alors
P ( ) = 1 = P (A) + P A
( ii) On sait que = ; donc on a

P( )=1 P( )=1 1=0

( iii) On a
A [ B = A \ B [ B et A\B \B =
Donc
P (A [ B) = P A \ B + P (B)
Or
A=A\ = A \ B [ B = (A \ B) [ A \ B
D’où
P (A) = P (A \ B) + P A \ B
Ainsi
P A \ B = P (A) P (A \ B)
D’où
P (A [ B) = P (A) + P (B) P (A \ B)

3.2. Probabilité et Espace probabilisé


Chapter 3. PROBABILITÉS. 32

( iv) D’après ( iii)

P (A [ B [ C) = P (A [ B) + P (C) P [(A [ B) \ C]
= P (A) + P (B) P (A \ B) + P (C)
P [(A \ C) [ (B \ C)]
= P (A) + P (B) P (A \ B) + P (C)
[P (A \ C) + P (B \ C) P (A \ B \ C)]
= P (A) + P (B) + P (C) P (A \ B) P (A \ C)
P (B \ C) + P (A \ B \ C)

( v) Par récurrence.
On a vu que
P B \ A = P (B) P (A \ B)
Or
A B =) A \ B = A
D’où
P (B) P (A) = P B \ A 0
( vi) D’après ( iii) La formule est vraie pour n = 2. Supposons qu’elle est vraie au rang
n: On a alors
S
n+1 S
n X
n+1
P( Ai ) P( Ai ) + P (An+1 ) = P (Ai )
i=1 i=1 i=1
La formule est donc vraie pour tout n.

Remarque 3.2 1) P (A) = 0 n’implique pas A = ?. L’événement A tel que P (A) = 0


est un événement presque impossible ou événement négligeable
2) P (A) = 1 n’implique pas A = L’événement A tel que P (A) = 1 est un événement
presque certain.

Exemple 3.7 Jet de deux dés distincts. On considère les événements


A: “au moins un dé donne 2”.
B: “au moins un dé donne 4”.
C: “la somme des points est 10”.
L’univers est
= f(1; 1) ; (1; 2) ; :::; (6; 6)g ; Card ( ) = 36
L’événement A est

A = f(2; 1) ; (1; 2) ; (2; 2) ; (2; 3) ; (3; 2) ; (2; 4) ; (4; 2) ; (2; 5) ; (5; 2) ; (2; 6) ; (6; 2)g

3.2. Probabilité et Espace probabilisé


Chapter 3. PROBABILITÉS. 33

L’événement B est

A = f(4; 1) ; (1; 4) ; (4; 2) ; (2; 4) ; (4; 3) ; (3; 4) ; (4; 4) ; (4; 5) ; (5; 4) ; (4; 6) ; (6; 4)g

L’événement C est

C = f(4; 6) ; (6; 4) ; (5; 5) ; (5; 6) ; (6; 5) ; (6; 6)g

On obtient
11 1
P (A) = P (B) = ; P (C) =
36 6
Ainsi:
A\C =

B \ C = f(4; 6) ; (6; 4)g


1) A et C sont incompatibles
17
P (A [ C) = = P (A) + P (C)
36
2) B et C ne sont pas incompatibles
15
P (B [ C) = 6= P (B) + P (C)
36
11 1 1 15
P (B [ C) = P (B) + P (C) P (B \ C) = + = :
36 6 18 36

3.2. Probabilité et Espace probabilisé


Chapter 3. PROBABILITÉS. 34

3.3 Probabilités conditionnelles


On veut calculer la probabilité d’avoir un cancer du poumon. Information supplémentaire:
vous fumez une vingtaine de cigarettes par jour. Cette information va changer la prob-
abilité. L’outil qui permet cette mise à jour est la probabilité conditionnelle.
La notion de probabilités conditionnelles est l’un des concepts fondamentaux de la
théorie des probabilités. Elle intervient dans les situations suivantes:
–On cherche à calculer la probabilité de réalisation d’un événement alors qu’une partie
de l’information concernant le résultat est connue et on ne souhaite pas de modi…er la
modélisation associée à l’expérience aléatoire considérée.
–Il est parfois beaucoup plus simple de modéliser une expérience aléatoire en utilisant
des probabilités conditionnelles plutôt que d’utiliser toute l’information disponible pour
dé…nir l’espace probabilisés (qui peut être di¢ cile à préciser)
Donc, on s’intéresse à la réalisation de l’événement A sachant l’événement B est réalisé.

Exemple 3.8 On considère l’espace probabilisé ( ; P ( ) ; P ) : On lance deux fois un dé,


l’univers est
= (i; j) 2 N2 ; 1 i 6; 1 j 6
Soit l’événement A : “la somme des deux résultats égale ”:

A = f(3; 6) ; (6; 3) ; (4; 5) ; (5; 4)g

Donc
Card (A) 4 1
P (A) = = =
Card ( ) 36 9
Soit l’événement B : “obtenir 3 au premier lancer”.

B = f(3; j) ; j 2 N; 1 j 6g

Donc
Card (B) 6 1
P (B) = = =
Card ( ) 36 6
Maintenant, on pose la question suivante:
Sachant que l’on obtient 3 au premier lancé, qu’elle est la probabilité que la somme
des deux résultats égale à 9? i:e La probabilité de A sachant B:
le nouveau univers est
0
= f(3; j) ; j 2 N; 1 j 6g = \B =B

et le nouveau espace probabilisé est ( 0 ; P ( 0 ) ; P 0 ) où P 0 est la probabilité uniforme


0
sur

3.3. Probabilités conditionnelles


Chapter 3. PROBABILITÉS. 35

On dé…nit dans cet espace, l’événement A0 : la somme des deux résultats égale à 9.

A0 = f(3; 6)g = A \ B

Donc
Card (A0 ) 1
P (A0 ) = =
Card ( 0 ) 6
Remarquons que l’on aurait pu, en calculant P (A \ B) dans l’espace ( ; P ( ) ; P ) ;
s’a¤ranchir de cette nouvelle modélisation, puisque
Card (A0 ) Card (A \ B)
P (A0 ) = 0
=
Card ( ) Card (B)
Card(A\B)
Card( ) P (A \ B)
= Card(B)
=
P (B)
Card( )

Exemple 3.9 Une urne contient 10 boules blanches, 5 boules jaunes et 10 boules noires.
On tire une boule de l’urne et on constate qu’elle n’est pas blanche, quelle est la probabilité
qu’elle soit jaune?
Dans l’espace ( ; P ( ) ; P ) ; On note par B :“ l’événement "la boule tirée est blanche”,
par J : “l’événement "la boule tirée est jaune”et par N : l’événement “la boule tirée est
noire”, on a donc
Card ( ) = 25
10 2 5 1
P (B) = P (N ) = = ; P (J) = =
25 5 25 5
Comme on constate que la boule tirée n’est pas blanche, i:e : Le nouveau espace est
( 0 ; P ( 0 ) ; P 0 ) où P 0 est la probabilité uniforme sur 0
avec

Card ( 0 ) = 15

D’où la probabilité demandée est


Card (J) 5 1
P = 0
= =
Card ( ) 15 3
Dé…nition 3.8 Soient ( ; A; P ) un espace probabilisé, A 2 A; B 2 A tel que P (B) 6= 0

La probabilité conditionnelle de A sachant B est l’application P de A dans [0; 1] dé…nie


par:
P (A \ B)
P (A=B) =
P (B)
Proposition 3.3 L’application

PB : A 2 A !P (A=B)

dé…nit une probabilité sur le même espace probabilisé ( ; A; P ).

3.3. Probabilités conditionnelles


Chapter 3. PROBABILITÉS. 36

Preuve. 1) 8A 2 A on a PB (A) = P (A=B) 0; car P (A \ B) 0 et P (B) > 0;


et on a aussi, comme

A\B B =) P (A \ B) P (B)

Alors
PB (A) = P (A B) 1
2)
P ( \ B) P (B)
PB ( ) = P ( =B) = = = 1:
P (B) P (B)
3) Si A1 \ A2 = ; alors (A1 \ B) \ (A2 \ B) = ; d’où
P (B \ (A1 [ A2 ))
PB (A1 [ A2 ) = P (A1 [ A2 =B) =
P (B)
P (B \ A1 ) [ (B \ A2 ) P (B \ A1 ) P (B \ A2 )
= = +
P (B) P (B) P (B)
= PB (A1 ) + PB (A2 ) = P (A1 B) + P (A2 B):

La formule est vraie pour n = 2.


Supposons la vraie au rang n. .i:e pour un entier naturel n, et si Ai \ Aj = 8i 6= j on
a
S
n S
n P
n
PB Ai =P Ai =B = PB (Ai ) :
i=1 i=1 i=1
On a alors
S
n+1 S
n
P B\ Ai P B \ An+1 [ Ai
S
n+1
i=1 i=1
PB Ai = =
i=1 P (B) P (B)
S
n
P (B \ An+1 ) [ B \ Ai
i=1
=
P (B)
S
n
P B\ Ai
P ((B \ An+1 )) i=1
= +
P (B) P (B)
S
n
= PB (An+1 ) + PB Ai
i=1
P
n P
n+1 P
n+1
= PB (An+1 ) + PB (Ai ) = PB (Ai ) = P (Ai =B)
i=1 i=1 i=1

D’où
S S P P
PB Ai =P Ai =B = PB (Ai ) = P (Ai =B)
i2N i2N i=1 i=1
La formule est donc vraie pour tout n, par récurrence.

3.3. Probabilités conditionnelles


Chapter 3. PROBABILITÉS. 37

Proposition 3.4 Soient A; B 2 A, on a


1) P A=B = 1 P (A=B)
2) P (A \ B) = P (A) P (B=A) = P (B) P (A=B)

Preuve. 1) On a
B = (A \ B) [ A \ B :
Et on a aussi
(A \ B) \ A \ B = :
Alors
P (B) = P (A \ B) + P A \ B
Divisons par P (B), on trouve
P (A \ B) P A \ B
1= +
P (B) P (B)
D’où
P (A \ B) P (A \ B)
=1
P (B) P (B)
i:e
P A=B = 1 P (A=B)
2) On déduire immédiatement la 2eme , en utilisant la dé…nition de la probabilité con-
ditionnelle.

Remarque 3.3 Si l’événements A et B sont incompatibles, alors:

P (A=B) = 0

3.3.1 Evénements dépendants


Dé…nition 3.9 Deux événements ne sont pas incompatibles A et B sont dits dépendants
si la probabilité de réalisation de l’événement A changé selon que B est réalisé ou non.

Principe des probabilités composées

On tire de la dé…nition de probabilité conditionnelle la formule suivante dite principe des


probabilités composées.

P (A \ B) = P (A=B)P (B) = P (B=A)P (A) (3.1)

Remarque 3.4 La formule précédente est valable même si les probabilités P (A) et P (B)
sont nulles toutes les deux, mais dans ces conditions, on ne peut pas dé…nir P (A=B) ni
P (B=A).

3.3. Probabilités conditionnelles


Chapter 3. PROBABILITÉS. 38

Formule de Poincaré

La formule de Poincaré est la généralisation de principe des probabilités composées

Théorème 3.1 (formule de Poincaré) que l’on démontre par récurrence

P (A1 \ A2 \ ::: \ An ) = P (A1 )P (A2 =A1 ) P (A3 =A1 \ A2 ) ::: (3.2)


::: P (An =A1 \ A2 \ ::: \ An 1 )

Preuve. Nous avons d’après le principe des probabilités composées pour n = 2, on a

P (A1 \ A2 ) = P (A2 =A1 )P (A1 )

Supposons que (3:2) est vraie à l’ordre n 2; alors on a

P (A1 \ A2 \ ::: \ An \ An+1 ) = P ((A1 \ A2 \ ::: \ An ) \ An+1 )


= P (An+1 = (A1 \ A2 \ ::: \ An )) P (A1 \ A2 \ ::: \ An )
= P (A1 )P (A2 =A1 ) P (A3 =A1 \ A2 ) :::
::: P (An =A1 \ A2 \ ::: \ An 1 )
P (An+1 =A1 \ A2 \ ::: \ An )

D’où la formule est vraie pour tout entier n 2:

Evénements indépendants

Dé…nition 3.10 Soient A et B deux événements d’un espace probabilisé ( ; A; P ), tels


que P (A) > 0 et P (B) > 0. Les événements A et B sont dits indépendants si

P (A \ B) = P (A)P (B)

Remarque 3.5 L’indépendance des événements A et B se caractérise aussi par les re-
lations
P (A=B) = P (A) ou P (B=A) = P (B)

i:e : la probabilité de réalisation de l’événement ( A resp B) n’est pas modi…ée par une
information concernant la réalisation de l’événement B (resp A)

Remarque 3.6 1) Les deux concepts, incompatibles et indépendants, sont totalement


di¤érents, car:
La propriété « les événements A et B sont incompatibles » implique:

P (A [ B) = P (A) + P (B)

3.3. Probabilités conditionnelles


Chapter 3. PROBABILITÉS. 39

La propriété « les événements A et B sont indépendants » implique:

P (A \ B) = P (A)P (B)
2) Deux événements incompatibles A et B, avec P (A) > 0 et P (B) > 0, ne sont jamais
indépendants.
En e¤et, A \ B = ; entraine P (A \ B) = 0 6= P (A)P (B):
3) Deux événements peuvent être indépendants pour une loi de probabilité et non pour
une autre loi.

Théorème 3.2 Soient A et B deux événements tels que P (A) > 0 et P (B) > 0. Alors
les quatre propriétés suivantes sont équivalentes
a) A et B indépendants
b) A et B sont indépendants
c) A et B sont indépendants
d) A et B sont indépendants

Preuve. a)=)b)?
A et B indépendants;

P A\B = P (B) P (A \ B)
= P (B) P (A) P (B)
= (1 P (A)) P (B) = P A P (B)
Donc A et B sont indépendants
b)=)c)?
A et B sont indépendants,

P A\B = 1 P A\B
= 1 P A[B
= 1 P A P (B) + P A P (B)
= 1 P A 1 P A P (B)
= 1 P A [1 P (B)]
= P (A) P B
Donc A et B sont indépendants
c)=)d)?
A et B sont indépendants

P A\B = P B P B\A =P B P B P (A)


= P B [1 P (A)] = P B P A

3.3. Probabilités conditionnelles


Chapter 3. PROBABILITÉS. 40

Donc A et B sont indépendants


d)=)a)?
A et B sont indépendants

P (A \ B) = P A [ B
= 1 P A[B
= 1 P A P B +P A P B
= 1 P A 1 P A P B
= 1 P A 1 P B
P (A) P (B)

Donc A et B sont indépendants.

Exemple 3.10 Une urne contient 12 boules numérotées de 1 à 12. On en tire une au
hasard et on considère les évènements :
A :“tirage d’un nombre pair”,
B : “tirage d’un multiple de 3”.
L’espace probabilisé qui s’impose naturellement ici est = f1; 2; ::: ; 12g muni de
l’équiprobabilité P . Les évènements A et B s’écrivent :

A = f2; 4; 6; 8; 10; 12g;

B = f3; 6; 9; 12g;

A \ B = f6; 12g
6 1 4 1
P (A) = = ; P (B) = =
12 2 12 3
2 1
P (A \ B) = = ;
12 6
1 1 1
P (A)P (B) = = ;
2 3 6
donc A et B sont indépendants.
On rajoute maintenant dans l’urne une boule numérotée treize et on recommence
l’expérience. Les évènements A et B restent les mêmes, mais le modèle a changé. On a
maintenant l’équiprobabilité P0 sur = f1; 2; :::; 13g et :
6 4
P0 (A) = ; P0 (B) = ;
13 13
2
P0 (A \ B) = :
13

3.3. Probabilités conditionnelles


Chapter 3. PROBABILITÉS. 41

Mais
6 4 24 2
P0 (A)P0 (B) = = 6=
13 13 1696 13
Donc A et B ne sont plus indépendants.
Un peu de ré‡exion, permet de relier ces résultats calculatoires avec la notion intuitive
d’indépendance présentée dans la dé…nition ces dessus. Dans le premier cas, la proportion
des multiples de trois parmi les pairs est la même que parmi les impairs. Le fait de savoir
que la boule tirée est paire ne modi…e en rien notre information sur B. Par contre dans le
deuxième cas, l’ajout de la treizième boule modi…e la proportion des multiples de trois :
elle est plus élevée chez les pairs que chez les impairs. Donc le fait de savoir que la boule
tirée est paire augmente un peu la probabilité que nous pouvons attribuer à B.
En e¤et: 2
P (A \ B) 1
P (A=B) = = 12
4 = = P (A)
P (B) 12
2
et 1
P (A \ B) 6 1
P (B=A) = = 1 = = P (B)
P (A) 2
3
Mais dans le deuxième cas, nous avons:
2
P (A \ B) 13 1
P (A=B) = = 4 = 6= P (A)
P (B) 13
2

et aussi 2
P (A \ B) 13 1
P (B=A) = = 6 = 6= P (B)
P (A) 13
3

Indépendance deux à deux et indépendance mutuelle Le principe des probabilités


composées se traduit par la formule de Poincaré:

P (A1 \ A2 \ ::: \ An ) = P (A1 ) P (A2 =A1 ) P (A3 =A1 \ A2 ) :::


::: P (An =A1 \ A2 \ ::: \ An 1 )

Dé…nition 3.11 Les événements Ai , i = 1; :::; n sont mutuellement indépendants ssi,


pour tout
fi1 ; :::; ik g f1; :::; ng, on a:

P (Ai1 \ Ai2 \ ::: \ Aik ) = P (Ai1 ) P (Ai2 ) ::: P (Aik )

Remarque 3.7 L’indépendance mutuelle implique l’indépendance deux à deux mais la


réciproque est fausse.

3.3. Probabilités conditionnelles


Chapter 3. PROBABILITÉS. 42

Exemple 3.11 Jet de deux pièces à Pile ou Face:

= fP P; P F; F P; F F g

Cet espace est muni de la probabilité uniforme. On note A l’événement “la première pièce
donne Pile”, B l’événement “la seconde pièce donne Face” et C l’événement “les deux
pièces donnent le même résultat”.
1
A = fP P; P F g; P (A) =
2
1
B = fP F; F F g; P (B) =
2
1
C = fP P; F F g; P (C) =
2
A \ B = fP F g; P (A \ B) = 1=4 = P (A)P (B)
A \ C = fP P g; P (A \ C) = 1=4 = P (A)P (C)
B \ C = fF F g; P (B \ C) = 1=4 = P (B)P (C)
A \ B \ C = ;; P (A \ B \ C) = 0 6= P (A)P (B)P (C)
Ainsi les événements A,B et C sont 2 à 2 indépendants mais ne sont pas mutuellement
indépendants.

Formule des probabilités totales

Théorème 3.3 (Formule des probabilités totales). Soit A un événement tel que 0 <
P (A) < 1. Pour tout événement B, on a

P (B) = P (B=A)P (A) + P (B=A)P (A)

Preuve. Comme

= A [ A; et B = B \ = B \ A [ A = (B \ A) [ B \ A

et
(B \ A) \ B \ A =
Donc
P (B) = P (B \ A) + B \ A
et par la dé…nition de probabilité conditionnelle en déduire que:

P (B) = P (B A)P (A) + P (B A)P (A)

3.3. Probabilités conditionnelles


Chapter 3. PROBABILITÉS. 43

Théorème 3.4 (Formule des probabilités totales généralisé). On considère un événe-


ment B de probabilité non nulle et l’ensemble (Ai )i=1;:::;n de toutes les causes possibles de
réalisation de cet événement, cet ensemble forme un ensemble complet d’événements et
l’événement A se produit en même temps qu’un et un seul des causes Ai , i:e :

B = (B \ A1 ) [ (A \ A2 ) [ ::: [ (A \ An )

Alors
P
n
P (B) = P (B=Ai )P (Ai )
i=1

Preuve. Soit (Ai )i=1;2;:::;n un système complet de ;


Comme
= A1 [ A2 [ [An
et

B = B\ = B \ (A1 [ A2 [ [An )
= (B \ A1 ) [ (B \ A2 ) \ ::: \ (B \ An )

et comme pour tous i 6= j


(B \ Ai ) \ (B \ Aj ) =

Donc
P (B) = P (B \ A1 ) + P (B \ A2 ) + ::: + P (B \ An )

et d’après le principe des probabilités composées on obtient

P (B) = P (B=A1 ) P (A1 ) + P (B=A2 ) P (A2 ) + ::: + P (B=An ) P (An )

Probabilité de Bayes

La formule de Bayes nous permet de calculer la probabilité d’un événement complexe dont
on sait qu’un de ces composants (cause) s’est réalisé.

Exemple 3.12 Un ensemble de boules blanches (B) et boules noires (N ) sont réparties
dans 2 urnes U1 et U2 . p1 est la proportion de boule blanches dans U1 , p2 dans U2 ;
q1 = 1 p1 est la proportion de boule noirs dans U1 , q2 dans U2 . On demande à un
opérateur d’e¤ectuer un tirage en deux temps :
1) d’abord, il choisit une urne, 1 est la probabilité de choisir l’urne U1 , 2 pour U2 ;

3.3. Probabilités conditionnelles


Chapter 3. PROBABILITÉS. 44

2) puis il extrait une boule de l’urne.


Constatant la couleur de la boule (par exemple boule blanche), nous devons calculer la
probabilité que la boule provienne de l’urne U1 (ou U2 ). Cette probabilité conditionnelle
est dite Probabilité de Bayes.

Théorème 3.5 (Théorème de Bayes). . Soient ( ; A; P ) un espace probabilisé et soit A


un événement tel que 0 < P (A) < 1. Pour tout événement B. Alors on a

P (B=A) P (A)
P (A=B) =
P (B=A) P (A) + P B=A P A
Preuve. On a par dé…nition de probabilité conditionnelle

P (A \ B) = P (B=A) P (A)

et d’après la formule de probabilités totales

P (B) = P (B=A) P (A) + P B=A P A :

D’où
P (A \ B) P (B=A) P (A)
P (A=B) = =
P (B) P (B=A) P (A) + P B=A P A

Théorème 3.6 (Théorème de Bayes généralisé). Soient ( ; A; P ) un espace


probabilisé, A1 ; A2 ; :::; An un système complet de : Alors pour tout événement B de
on a
P (B=Ak ) P (Ak )
P (Ak =B) = P
n
P (B=Ai )P (Ai )
i=1

Preuve. On a par dé…nition de probabilité conditionnelle

P (Ak \ B) = P (B=Ak ) P (Ak ) ;

et d’après la formule de probabilités totales généralisé


P
n
P (B) = P (B=Ai )P (Ai )
i=1

d’où
P (Ak \ B) P (B=Ak ) P (Ak )
P (Ak =B) = = Pn
P (B)
P (B=Ai )P (Ai )
i=1

3.3. Probabilités conditionnelles


Chapter 3. PROBABILITÉS. 45

Exemple 3.13 Une population composée de 35% d’hommes et 65% de femmes. On


suppose que 3% des hommes et 0; 6% femmes sont albinos. On choisit au hasard une
personne dans cette population.
1) Quelles est la probabilité que cette personne soit albinos?
2) Sachant que la personne est albinos, quelles est la probabilité qu’elle soit un homme?

Solution. A: "La personne choisie est homme"; A : "La personne choisie est femme" et
B : "La personne choisie est albinos". Nous avons d’après les données

P (A) = 0; 35; P A = 0; 65; P (B=A) = 0; 03; P B=A = 0; 006

1) D’apres le théorème des probabilités totales:

P (B) = P (A) P (B=A) + P P (A)P (B=A)


= 0; 35 0; 03 + 0; 65 0; 006 = 0; 0144

2) Daprès le théorème de Bayes:

P (B=A) P (A)
P (A=B) =
P (B=A)P (A) + P P (B=A)P (A)
0; 35 0; 03
= = 0; 729
0; 0144

3.4 Exercices
Exercice 3.1 On sélectionne un échantillon ordonné de taille 3 d’un ensemble de 26
jetons sur lesquels …gurent les lettres de l’alphabet. Calculer la probabilité des événements
suivants :
a) A : “ce sont 3 voyelles” ;
b) B : “ce sont 3 consonnes” ;
c) C : “c’est le mot LOT” ;
d) D : c“’est un anagramme du mot LOT”.

Solution. Le nombre de voyelles est de 6 et celui des consonnes de 20.


3
a) L’ordre n’importe pas ici, l’ensemble fondamental aura donc C26 = 2600 éléments
et le cardinal de l’ensemble qui nous intéresse est C63 = 20, de ce fait, la probabilité sera

C63 20 1
P (A) = 3
= = = 0; 0076923
C26 2600 130

3.4. Exercices
Chapter 3. PROBABILITÉS. 46

3
b) L’ordre n’importe pas ici, l’ensemble fondamental aura donc C26 = 2600 éléments et
3
le cardinal de l’ensemble qui nous intéresse est C20 = 1140, de ce fait la probabilité sera
3
C20 1140 57
P (B) = 3
= = = 0; 43846
C26 2600 130
c) dans le mot "LOT" l’ordre a de l’importance, le nombre d’arrangements de 3 lettres
que l’on peut faire avec ces 26 jetons est
26!
A326 = = 15600
(26 3)!
Le mot "LOT" étant l’un de ces arrangements, on a donc
1
P (C) = = 0; 000064103
15600
d)
1 1
P (D) = 3
= = P (C) 3! = 0; 00038462
C26 2600

Exercice 3.2 On prend au hasard, en même temps, trois médicaments dans un lot de
15; dont 5 sont périmés. Calculer la probabilité des événements suivants:
A : "au moins un médicament est périmé" ;
B : "les 3 médicaments sont périmés" ;
C : "exactement un médicament est périmé".

Solution. le nombre de cas possibles est le nombre de combinaisons de 3 éléments parmi


15;
3
C15 = 455
On dé…nit l’événement A: aucun médicament périmé. Le nombre de cas favorables est

3
Card A = C10 = 120
3
C10 120
P (A) = 1 P A =1 3
C15
=1 455
= 0; 73626:
C53
P (B) = 3 = 0; 02198
C15
1
C5 C102
P (C) = 3
C15
= 0; 49451:

Exercice 3.3 Un certain type de voiture présente parfois deux vices de fabrication; on
sait que 7% de ces voitures ont le premier défaut, 11% le deuxième défaut et 2% ont les
deux défauts. Calculer la probabilité qu’une voiture de ce type soit exempte de défauts.

3.4. Exercices
Chapter 3. PROBABILITÉS. 47

Solution. On considère les événements:


A: "La voiture a le premier défaut".
B: "La voiture a le deuxième défaut". Alors, la donnée implique que:

P (A) = 0; 07; P (B) = 0; 11 et P (A \ B) = 0; 02

L’événement dont on cherche la probabilité étant A \ B, on a alors:

P (A \ B) = P (A [ B) = 1 P (A [ B)
= 1 [P (A) + P (B) P (A \ B)] = 1 (0; 07 + 0; 11 0; 02) = 0; 84

Exercice 3.4 Soit P une probabilité sur un ensemble . A et B deux événements de


tels que
5 1 2
P (A [ B) = ; P (A \ B) = et P (A) =
7 5 9
Calculer P (B); P (A \ B); P (B \ A);.P A \ B et P A [ B

Solution. P (B) =?
Nous avons
P (A [ B) = P (A) + P (B) P (A \ B)

P (B) = P (A [ B) P (A) + P (A \ B)
5 2 1 218
= + =
7 9 5 315
P (A \ B) =?

P (A \ B) = P (A) P (A \ B)
2 1 1
= =
9 5 45
P (B \ A) =?

P (B \ A) = P (B) P (A \ B)
218 1 31
= =
315 5 63
P A \ B =?

P A\B = P A[B =1 P (A [ B)
5 2
= 1 =
7 7

3.4. Exercices
Chapter 3. PROBABILITÉS. 48

P A [ B =?

P A[B = P A\B
= 1 P (A \ B)
1 4
= 1 =
5 5
ou bien

P A[B = P A +P B P A\B
2 218 2 4
= 1 + 1 =
9 315 7 5

Exercice 3.5 Une agence de voyage fait un sondage statistique sur la connaissance de
trois pays A; B; C . On constate que parmi les personnes interrogées, 42% connaissent
A, 55% connaissent B, 34% connaissent C, 18% connaissent A et B, 10% connaissent A
et C; 15% connaissent B et C, 8% connaissent les trois pays. Un voyage est prévu pour
l’une des personnes ayant répondu au sondage. On tire au sort le gagnant. Quelle est la
probabilité pour que le gagnant soit une personne :
a) connaissant au moins l’un de ces trois pays ?
b) ne connaissant aucun de ces trois pays ?
c) connaissant exactement deux des trois pays ?
d) connaissant A, mais ne connaissant ni B, ni C?
e) connaissant A et B mais ne connaissant pas C?

Solution. De l’énoncé on tire :

P (A) = 0; 42; P (B) = 0; 55; P (C) = 0; 34; P (A \ B) = 0; 18;


P (A \ C) = 0; 10; P (B \ C) = 0; 15; P (A \ B \ C) = 0; 08

a) "Au moins un des pays"= A [ B [ C

P (A [ B [ C) = P (A) + P (B) + P (C) P (A \ B) P (A \ C) P (B \ C) + P (A \ B \ C)


= 0; 42 + 0; 55 + 0; 34 0; 18 0; 10 0; 15 + 0; 08 = 0; 96

b) " Ne connaissant aucun de ces trois pays" est l’événement complémentaire de "au
moins un des pays"= A [ B [ C

P A[B[C =1 P (A [ B [ C) = 1 0; 96 = 0; 04

3.4. Exercices
Chapter 3. PROBABILITÉS. 49

c) "Exactement deux des trois pays"= (A \ B \ C) [ (A \ B \ C) [ (A \ B \ C)

P (A \ B \ C) [ (A \ B \ C) [ (A \ B \ C) = P (A \ B \ C) + P (A \ B \ C))
+P (A \ B \ C) P A\B\C \A\B\C
P A\B\C \A\B\C
P A\B\C \A\B\C
+P A \ B \ C \ A \ B \ C \ A \ B \ C
= P (A \ B) P (A \ B \ C)
+P (A \ C) P (A \ B \ C)
+P (B \ C) P (A \ B \ C)
= P (A \ B) + P (A \ C) + P (B \ C)
3P (A \ B \ C)
= 0; 18 + 0; 10 + 0; 15 3 0; 08 = 0; 19

d) "Connaissant A, mais ne connaissant ni B, ni C"= A \ B \ C

P A\B\C = P A\ B[C
= P (A) P [A \ (B [ C)]
= P (A) P [(A \ B) [ (A \ C)]
= P (A) P (A \ B) P (A \ C) + P (A \ B \ C)
= 0; 42 0; 18 0; 10 + 0; 22

e) "Connaissant A et B mais ne connaissant pas C"= A \ B \ C

P A\B\C = P (A \ B) P (A \ B \ C)
= 0; 18 0; 08 = 0; 10

Exercice 3.6 L’étude des groupes sanguins montre qu’il existe 2 agglutinogènes A et B.
Ceux-ci peuvent exister séparément (groupe A et groupe B) ou simultanément (groupe
AB) ou peuvent manquer tous les deux (groupe O). Pour les transfusions sanguines, on
sait que:
- les sujets du groupe A ne peuvent recevoir que du sang des groupes A et O:
- les sujets du groupe B ne peuvent recevoir que du sang des groupes B et O:
- les sujets du groupe AB peuvent recevoir le sang de n’importe quel groupe.

3.4. Exercices
Chapter 3. PROBABILITÉS. 50

- les sujets du groupe O ne peuvent recevoir que du sang des groupes O:


Dans une population, un sujet pris au hasard, a la probabilité: 0; 43 d’être du groupe
A, 0; 12 d’être du groupe B et 0; 40 d’être du groupe O:
1) Quelle est la probabilité qu’un sujet quelconque soit du groupe AB?
2) Dans une clinique, un malade du groupe A doit subir une transfusion.
Un donneur quelconque se présente. Quelle est la probabilité que ce donneur ait un
groupe compatible avec le receveur?
3) Même question si le malade est du groupe B?
4) On suppose maintenant qu’il y a un second malade dont on ne connait pas le groupe.
Un donneur quelconque se présente. Quelle est la probabilité que ce donneur ait un groupe
compatible avec le second malade?

Solution. = fA; B; AB; Og


1) Comme fABg = fA; B; Og, d’où

P (fABg) = 1 [P (fAg) + P (fBg) + P (fOg)]


= 1 (0; 43 + 0; 12 + 0; 4) = 0; 05

2)
P (fAg [ fOg) = P (fAg) + P (fOg) = 0; 43 + 0; 4 = 0:83
3)
P (fBg [ fOg) = P (fBg) + P (fOg) = 0; 12 + 0; 40 = 0:52
4) On note le malade par M et le donneur par D
Pour que le donneur ait un groupe compatible avec le second malade, il faut que cette
événement
E :"(M A et DA) ou (M A et DO) ou (M B et DB) ou (M B et DO) ou (M (AB) et D
quelconque) ou (M O et DO)" soit réalisé. Comme tous ces événements sont incompat-
ibles, alors:

P (E) = P (fAg) P (fAg) + P (fAg) P (fOg) + P (fBg) P (fBg)


+P (fBg) P (fOg) + P (fABg) 1 + P (fOg) P (fOg)
= (0; 43)2 + 0; 43 0; 4 + (0; 12)2 + 0; 12 0; 4 + 0; 05 + (0; 4)2
= 0; 6293 ' 0; 63:

Exercice 3.7 Un appareil électrique E est relie a deux sources de courant A et B.


L’appareil fonctionne dès qu’au moins une des sources de courant l’alimente. La source A

3.4. Exercices
Chapter 3. PROBABILITÉS. 51

est-elle même reliée à deux sources C et D (…gure ci-dessous). La source A peut fournir
du courant à E dès qu’elle reçoit du courant d’au moins une source C et D. On considère
un intervalle de temps t de longueur l. La probabilité que la source B fonctionne sans
1t
interruption durant tout l’intervalle L est P (B) = 1 e avec 1 > 0:Pour les sources
2t 3t
C et D , cette probabilité est P (C) = 1 e avec 2 > 0: P (D) = 1 e
avec 3 > 0: L’état de service de chaque source de courant B; C et D est indépend-
ant de l’état des autres. Trouver la probabilité que l’appareil E puisse fonctionne sans
interruption durant l’intervalle L (…abilité du système).

E
%-
A B
%-
C D

Solution. E = A [ B; A et B sont compatibles mais indépendants

P (E) = P (A [ B) = P (A) + P (B) P (A) P (B)


= P (A) [1 P (B)] + P (B)

A = C [ D; C et D sont compatibles mais indépendants

P (A) = P (C) + P (D) P (C) P (D)


2t 3t 2t 3t ( 2 + 3 )t
= 1 e +1 e 1 e 1 e =1 e

Finalement, on obtient

( 2 + 3 )t 1t 1t ( 1 + 2 + 3 )t
P (E) = 1 e 1+e 1 +1 e =1 e

Exercice 3.8 Les laboratoires pharmaceutiques indiquent pour chaque test sa sensibilité
est 95%, qui est la probabilité que le test soit positif si le sujet est malade, et sa spéci…cité
est 94% , qui est la probabilité que le test soit négatif si le sujet est sain. Sachant qu’en
moyenne il y a un malade sur 1000 personnes.
a) Calculer la probabilité pour que vous soyez un sujet sain alors que votre test est
positif.
b) Calculer la probabilité d’être malade alors que le test est négatif.

3.4. Exercices
Chapter 3. PROBABILITÉS. 52

Solution. On note les événements S = fla personne est saing, M = fLa personne est
maladeg,+ = fle test est positifg et = fle test est négatifg. On cherche P (S=+) et
P (M= ). On connaît les valeurs des probabilités suivantes:

P (+=M ) = 0; 95; P ( =S) = 0; 94 et P (M ) = 0; 001

a) On déduit de la formule de Bayes que:

P (S) P (+=S)
P (S=+) =
P (S) P (+=S) + P (M ) P (+=M )

Et comme

P (S) = 1 P (M ) ; P (+=S) = 1 P ( =S) et P ( =M ) = 1 P (+=M )

D’où
(1 0; 001) (1 0; 94)
P (S=+) = ' 0; 98
(1 0; 001) (1 0; 94) + 0; 001 0; 95
b) De même, on déduit de la formule de Bayes que:

P ( =M ) P (M )
P (M= ) =
P ( =M ) P (M ) + P ( =S) P (S)
0; 001 (1 0; 95)
= ' 0; 000053
(1 0; 95) 0; 001 + (1 0; 001) 0; 94
Exercice 3.9 Le gène qui détermine la couleur bleue des yeux est récessif. Pour avoir
les yeux bleus, il faut donc avoir le génotype bb. Les génotypes mm et bm donnent des
yeux marron. On suppose que les parents transmettent indi¤éremment un de leurs gènes
à leurs enfants. La sœur et la femme de Samir ont les yeux bleus, mais ses parents ont
les yeux marron.

1) Quelle est la probabilité pour que Samir ait les yeux bleus?
2) Quelle est la probabilité que le premier enfant de Samir ait les yeux bleus sachant
que Samir a les yeux marrons?
3) Quelle est la probabilité pour que le deuxième enfant de Samir ait les yeux bleus
sachant que le premier a les yeux marrons?
4) Comment expliquez-vous la di¤érence des résultats entre les deux dernières ques-
tions?
Solution. On note M le phénotype “yeux marron”, et B “yeux bleus”. Le phénotype
M provient des génotypes mm et mb, alors que le phénotype B provient que du génotype
bb. Le génotype des parents de Samir est mb:

3.4. Exercices
Chapter 3. PROBABILITÉS. 53

1) P (Samir = B) = 14 :
2) P (1 = B=Samir = M ) = 31 :
3) P (2 = B=1 = M ) = P (2=B;1=M
P (1=M )
)
; avec

P (1 = M; 2 = B) = P (1 = M; 2 = B=Samir = bb)
+P (1 = M; 2 = B=Samir = mb)
+P (1 = M; 2 = B=Samir = mm)
= P (1 = M; 2 = B=Samir = mb) P (Samir = mb)
1 1 1 1
= =
2 2 2 8

Et
1
P (1 = M ) = P (1 = M; Samir = mb) + P (1 = M; Samir = mm) =
2
Donc on a
1 2 1
P (2 = B=1 = M ) = = :
8 1 4
4) Si le premier enfant a les yeux marron, on sait déjà que Samir a les yeux marron.
On a donc plus d’information dans la question 3) que dans la question 2).

Exercice 3.10 Une maladie a¤ecte statistiquement une personne sur 1000. Un test de
dépistage permet de détecter la maladie avec une …abilité de 99%, mais il y a 0; 2% de
chances que le test donne un faux positif (i:e. une personne est déclarée malade sans
l’être).
1) Une personne est testée positivement. Quelle est la probabilité qu’elle soit réellement
malade ?
2) Une personne est testée négativement. Quelle est la probabilité qu’elle soit quand
même malade ?
3) Ce dépistage remplit-il son rôle ?

Solution. 1) Notons respectivement M; N M; et +, les événement personne malade,


non-malade, test négatif et test positif. On a
P (M \ +) P (M ) P (+=M )
P (M=+) = = ' 0; 33
P (+) P (+ \ M ) + P (+ \ N M )
2) On a aussi
P (M \ ) P (M ) P (M \ +)
P (M= ) = ' 0; 00001
P( ) 1 P (+)

3.4. Exercices
Chapter 3. PROBABILITÉS. 54

3) Il donne malade des gens qui ne le sont pas, et pas qu’un peu ! Mais si on est
détecté pas malade, on a de forte chance que cela soit vrai. Par exemple, si le test est
peu onéreux/rapide, on commence par celui-là, si le test est négatif alors on est déclaré
"sain" et si le test est positif, on fait des tests complémentaires.

Exercice 3.11 Un appareil peut être monté avec des pièces de haute qualité (40% des
cas) et avec des pièces ordinaires (60% des cas). Dans le premier cas, sa probabilité de
fonctionnement sur une durée t est égale à 0:95 ; dans le second, elle est de 0:7. L’appareil
a été soumis à un essai et s’est avéré able (fonctionnement sans défaillance sur la durée
de référence). Déterminer la probabilité que l’appareil soit composé de pièces de haute
qualité.

Solution. Notons B l’évènement "l’appareil a fonctionné sans défaillance" ; U1 (resp.


U2 ) la probabilité qu’un appareil soit composé de pièces de haute qualité (resp. de qualité
ordinaire), P (U1 ) = 0; 4 (resp. P (U2 ) = 0; 6).On nous indique que P (B=U1 ) = 0; 95 et
P (B=U2 ) = 0; 7.En appliquant le théorème de Bayes, nous obtenons:
0; 4 0 : 95
P (U1 =B) = = 0; 475
0; 4 0; 95 + 0; 6 0; 7

..

3.4. Exercices
CHAPTER 4

VARIABLES ALÉATOIRES RÉELLES

4.1 Dé…nition et caractérisation d’une variable


aléatoire
4.1.1 Dé…nition d’une variable aléatoire
Exemple introductif. On lance deux dés bien équilibrés di¤érents. L’ensemble fonda-
mental est donc
= f(1; 1) ; (1; 2) ; :::; (6; 6)g
Notons X la somme des points apparues au bout des deux jets. Les valeurs possibles
de X sont
DX = f2; 3; 4; ; 12g
X est une application de dans DX .
De manière générale, X est une application:

X: !R

X est dite variable aléatoire réelle (v.a.r), on s’intéressera aux valeurs prises par X;
(X = x), et plus particulièrement à la probabilité d’obtenir ces valeurs P (X = x). Par
1
exemple ici, la probabilité pour X = 2 est P (X = 2) = 36
:

Dé…nition 4.1 Soient l’ensemble fondamental des éventualités, ! i une épreuve de .


L’application X : ! R fait correspondre à tout élément de un nombre réel i:e

8! i 2 ; ! i 7 ! X (! i ) 2 R:

55
Chapter 4. VARIABLES ALÉATOIRES RÉELLES 56

X désigne la variable aléatoire ; xi , (i = 1; 2; :::; n) désigne les valeurs possibles de la


variable aléatoire; le domaine de dé…nition de X est DX = fx1 ; x2 ; :::; xn g :

4.1.2 Probabilité d’une variable aléatoire


Soit la variable aléatoire X : ! R telle que DX = fx1 ; x2 ; :::; xn g, la probabilité pour
que la variable X soit égale à x est la probabilité des éléments de ayant pour image la
valeur x dans l’application. Cette probabilité mesure
le degré de crédibilité de réalisation de l’évènement.

Remarque 4.1 P (X = xi ) est régie par les 3 axiomes de Kolmogorov suivants:


1) P (X = xi) 0
2) P (X = DX ) = 1
3) Si les xi sont incompatibles entre eux, on a pour tous i 6= j

P [(X = xi ) ou (X = xj )] = P (X = xi ) + P (X = xj )

4.2 Fonction de répartition


Dé…nition 4.2 La fonction de répartition de variable aléatoire réelle X est l’application
F : R ! R dé…nie par:

1
8x 2 R; F (x) = P (X (] 1; x])) = P (f!; X(!) xg)

On écrit plus simplement:


8x 2 R; F (x) = P (X x)

4.2.1 Propriétés principales


Elles se déduisent de dé…nition et des propriétés d’une probabilité la proposition suivante:

Proposition 4.1 Soit X une variable aléatoire réelle sur ( ; A; P ) : Alors sa fonction de
répartition F satisfait les propriétés suivantes
1) 8x 2 R; 0 F (x) 1
2) lim F (x) = 0
x ! 1
3) lim F (x) = 1
x !+1
4) F est croissante. i:e (8 (x; y) 2 R2 ; x y =) F (x) F (y))
5) F est continue à droite.

4.2. Fonction de répartition


Chapter 4. VARIABLES ALÉATOIRES RÉELLES 57

Preuve. 1) Se déduise directement de la dé…nition de probabilité.


2) Nous avons

1 1
lim F (x) = lim P (X (] 1; x[)) = P (X ( )) = P ( ) = 0
x ! 1 x ! 1

3) Nous avons

1 1
lim F (x) = lim P (X (] 1; x[)) = P (X (R)) = P ( ) = 1
x !+1 x !+1

1 1
4) Soit x y; alors ] 1; x[ ] 1; y[, donc X (] 1; x[) X (] 1; y[) et

1 1
P X (] 1; x[) P X (] 1; y[)

i:e
F (x) F (y) :

4.2.2 Loi d’une variable aléatoire


Dé…nition 4.3 Soient ( ; A) ; ( 0 ; A0 ) deux espaces probabilisables. Soient X : A ! A0
une variable aléatoire et P une probabilité sur ( ; A) : L’application

PX : A0 ! [0; 1]
1
A 7 ! P X (A0 )

est une probabilité sur ( 0 ; A0 ) et dite loi de probabilité de la v.a. X:

4.3 Les di¤érents types de variables aléatoires


4.3.1 Variables aléatoires discrètes
Dé…nition 4.4 Soit ( ; A; P ) un espace probabilisé. On appelle variable aléatoire dis-
crète toute application X : ! F , où F est un ensemble dénombrable. On note
fX = xg l’événement f! 2 : X (!) = xg. La famille des (P (X = x))x2F s’appelle la
loi de X:

Remarque 4.2 – Pour pouvoir considérer P (X = x) ; il faut imposer que 8x 2


F; fX = xg 2 A:
–En général l’ensemble F est égal à N ou Z ou à une partie de Z.

4.3. Les di¤érents types de variables aléatoires


Chapter 4. VARIABLES ALÉATOIRES RÉELLES 58

– Notons que (fX = xg)x2F est une famille dénombrable d’événements deux à deux
S
disjoints tels que (fX = xg) = : D’après la propriété de -additivité on a
x2F

S P
P (fX = xg) = P ((fX = xg)) = P ( ) = 1
x2F x2F

4.3.2 Variables aléatoires discrètes réelles


Dé…nition 4.5 Une variable aléatoire réelle est dite discrète si elle ne prend qu’un nombre
…ni ou dénombrable de valeurs dans R: i:e

X ( ) = fxi 2 R; i 2 I Ng :

Fonction de masse

Dé…nition 4.6 Si X est une variable aléatoire réelle discrète, la fonction

P : I ! [0; 1]
xi 7 ! pi = P (X = xi )

est appelée fonction de masse de la variable aléatoire X:

Remarque 4.3 1) si X ( ) est …ni, on pose par convention que pk = 0 pour tout k 2
N I:
2) D’après la dé…nition d’une probabilité, on déduit que:
i) pour tout i 2 I ona pi 0
P
ii) pi = 1:
i2I

Loi de probabilité:

Dé…nition 4.7 La loi de probabilité est donnée généralement par le tableau suivant:
xi x1 x2 x3 :::
P (X = xi ) P (X = x1 ) P (X = x2 ) P (X = x3 ) :::

Fonction de répartition

Dé…nition 4.8 Soit X une v.a.r. discrète prend des valeurs x1 < x2 < ::: < xi < xi+1 <
:::de fonction de masse p; sa fonction de répartition est F : R ! [0; 1] telle que
P P
F (x) = pi = P (X = xi )
xi x xi x

4.3. Les di¤érents types de variables aléatoires


Chapter 4. VARIABLES ALÉATOIRES RÉELLES 59

En particulier si X ( ) = fx1 ; x2 ; :::; xn g avec xi < xi+1 ; i = 1; 2; :::; n 1;


8
>
> 0; si x < x1
>
>
>
>
>
> p1 ; si x1 x < x2
>
>
< p1 + p2 ; si x2 x < x3
F (x) = ..
>
> .
>
>
>
>
>
> p1 + p2 + ::: + pn 1 ; si xn 1 x < xn
>
>
: 1; si si x x<1
n

Représentation graphique La …gure suivante (F ig 1) est la représentation graphique


d’une fonction de répartition d’une variable aléatoire discrète.

F ig 1

4.3.3 Caractérisation de la loi de v.a.r. discrète


On associe à toute v.a.r. discrète une fonction de masse p = (pi )i2N véré…ant:
i) Pour tout entier naturel i, 0 pi 1
P
ii) pi = 1
i2N
Récéproquement: Toute fonction p = (pi )i2N véri…ant les assertions i) et ii) est une
fonction de masse d’une v.a.r. discrète.

Exemple 4.1 On jet deux dés di¤érents D1 ; D2 . Soit X la variable aléatoire qui donne
la somme de deux résultats obtenus.
1) Donner la loi de probabilité de X:

4.3. Les di¤érents types de variables aléatoires


Chapter 4. VARIABLES ALÉATOIRES RÉELLES 60

2) Donner sa fonction de répartition et représenter graphiquement.

Solution. X est une variable aléatoire discrète de = f(1; 1) ; (1; 2) ; :::; (6; 6)g à valeurs
dans X ( ) = f2; 3; :::; 12g
D1 D2 1 2 3 4 5 6
1 (1; 1) (1; 2) (1; 3) (1; 4) (1; 5) (1; 6)
2 (2; 1) (2; 2) (2; 3) (2; 4) (2; 5) (2; 6)
3 (3; 1) (3; 2) (3; 3) (3; 4) (3; 5) (3; 6)
4 (4; 1) (4; 2) (4; 3) (4; 4) (4; 5) (4; 6)
5 (5; 1) (5; 2) (5; 3) (5; 4) (5; 5) (5; 6)
6 (6; 1) (6; 2) (6; 3) (6; 4) (6; 5) (6; 6)
1)
1 1
P (X = 2) = P (X = 12) = ; P (X = 3) = P (X = 11) =
36 18
1 5
P (X = 4) = P (X = 10) = ; P (X = 6) = P (X = 8) =
12 36
1 1
P (X = 5) = P (X = 9) = ; P (X = 7) =
9 6
Donc la loi de X est résumée comme suit
xi 2 3 4 5 6 7 8 9 10 11 12
1 1 1 1 5 1 1 5 11 1
P (X = x1 ) 36 18 12 9 36 6 1236 18936
2) La fonction de répartition est donnée par:
8
>
> 0; si x < 2
>
>
>
> 1
; si 2 x < 3
>
> 36
>
>
>
> 3
; si 3 x < 4
>
> 36
>
> 6
>
> ; si 4 x < 5
>
>
36
>
> 10
; si 5 x < 6
>
> 36
>
< 15 ;
36
si 6 x < 7
F (x) =
>
> 21
; si 7 x < 8
>
> 36
>
> 26
> 36 ;
> si 8 x < 9
>
>
>
> 30
; si 9 x < 10
>
> 36
>
> 34 ; si 10 x < 11
>
>
>
> 36
>
> 35
; si 11 x < 12
>
> 36
>
:
1; si x 12

La représentation graphique de F où X est la variable aléatoire somme des points de

4.3. Les di¤érents types de variables aléatoires


Chapter 4. VARIABLES ALÉATOIRES RÉELLES 61

deux dés. (voir F ig 2)

F ig 2 Fonction de répartition de X

Indépendance

Dé…nition 4.9 Deux variables aléatoires discrètes X et Y à valeurs respectivement


dans F et G sont dites indépendantes ssi

8x 2 F; 8y 2 G ; P (X = x; Y = y) = P (X = x) P (Y = y)

Les variables aléatoires discrètes X1 ,X2 ;...,Xn à valeurs respectivement dans F1 ,


F2 ; :::; Fn sont dites indépendantes ssi
Q
n
8x1 2 F1 ; :::; 8xn 2 Fn ; P (X1 = x1 ; :::; Xn = xn ) = P (X = xi )
i=1
Une famille quelconque de variables aléatoires discrètes est dite indépendante si toute
sous-famille …nie l’est.

Caractéristiques des variables aléatoires discrètes

Espérance et Variance Une variable aléatoire est déterminée par sa distribution de


probabilité, cependant il est commode d’en donner des caractéristiques numériques, moins
complètes, mais plus simple. Les principales sont:
–L’espérance mathématique ou moyenne, notée E(X) ou X
–La variance, V ar(X) ou 2X .
–L’´ecart-type noté X
On trouve aussi la médiane, l’étendue, les centiles, déciles et quartiles.

4.3. Les di¤érents types de variables aléatoires


Chapter 4. VARIABLES ALÉATOIRES RÉELLES 62

Dé…nition 4.10 Soit X une v.a.r. discrète son domaine de dé…nition X ( ) =


fx1 ; x2 ; ; xn g est …ni et de cardinal n:
1) L’espérance mathématique si elle existe est dé…nie par
P
n
E(X) = xi P (X = xi )
i=1

2) La variance est la moyenne des carrés des écarts à la moyenne X E(X).


P
n
V ar (X) = (xi E(X))2 P (X = xi )
i=1

3) L’écart-type est la racine carrée de la variance


p
X = V ar (X)

Moments

Dé…nition 4.11 Soient X une v.a.r. discrète son domaine de dé…nition X ( ) =


fx1 ; x2 ; ; xn g est …ni et de cardinal n; k un entier naturel:
1) L’espérance mathématique de la variable aléatoire X k est appelée moment non centré
d’ordre k de la variable X et donné par:
P
n
mk = E(X k ) = xki P (X = xi )
i=1

2) L’espérance mathématique de la variable aléatoire (X E(X))k est appelée moment


centré d’ordre k de la variable X et donné par:
P
n
Mk = E(X E(X))k = (xi E(X))k P (X = xi )
i=1

Cas particuliers: 1) Le moment non centré d’ordre 1 égale à l’espérance, m1 =


E(X):
2) Le moment centré d’ordre 2 égale à la variance, M2 = V ar(X):

Propriétés: 1) La moyenne d’une constante est égale à elle même, E (C) = C:


2) E (aX) = aE (X)
3) E (X + Y ) = E (X) + E (Y ) :
4) V ar (C) = 0:
5) V ar (aX) = a2 V ar (X) :
Preuve. 1)
P
n P
n
E (C) = Cp (X = xi ) = C p (X = xi ) = C 1 = C:
i=1 i=1

4.3. Les di¤érents types de variables aléatoires


Chapter 4. VARIABLES ALÉATOIRES RÉELLES 63

2)
P
n P
n
E (aX) = axi p (X = xi ) = a xi p (X = xi ) = aE (X) :
i=1 i=1

3)
P
n P
n P
n
E (X + Y ) = (xi + yi ) p (X = xi ) = xi p (X = xi ) + yi p (X = xi )
i=1 i=1 i=1
= E (X) + E (Y )

4)
V ar (C) = E(C E (C))2 = E(C C)2 = E(C C)2 = E(0) = 0:
5)

V ar (aX) = E(aX E (aX))2 = E [a (X E (X))]2


= a2 E (X E (X))2 = a2 V ar (X) :

Remarque 4.4 D’après les propriétés 1) et 2) L’espérance est linéaire.

Proposition 4.2 La variance est donnée aussi par:

V ar (X) = E X 2 E2 (X) = m2 m21 :

Preuve.

V ar (X) = E (X E (X))2 = E (X m1 )2 = E X 2 2E (m1 X) + m21


= E X2 2m1 E (X) + E m21 = E X 2 2m21 + m21
= E X2 E2 (X) = m2 m21 :

4.4 Variables aléatoires continues


Dé…nition 4.12 Une variable aléatoire X est dite continue si l’ensemble X ( ) est un
intervalle ou une réunion d’intervalles de R.
Une v.a.r continue est dite aussi v.a.r à densité.

4.4. Variables aléatoires continues


Chapter 4. VARIABLES ALÉATOIRES RÉELLES 64

4.4.1 Densité de probabilité


Dé…nition 4.13 Une fonction f est dite densité de probabilité de la variable aléatoire
X si:
1) f (x) 0 ; 8x 2 R
R +1
2) 1 f (x) dx = 1.

4.4.2 . Fonction de répartition.


Dé…nition 4.14 On appelle fonction de répartition de la variable aléatoire X la fonction
F telle que: Z x
F (x) = P (X x) = f (t) dt
1
La probabilité que X prenne des valeurs entre a et b est alors donnée par:
Z b
P (a X b) = f (x) dx = F (b) F (a) :
a

(Voir F ig 3)

Remarque 4.5 1) f (x) n’est pas une probabilité d’un événement.


2) P (a X b) = P (a < X b) = P (a X < b) = P (a < X < b)
3) P (X = x) = 0:

F ig 3 Lois normale P (2 X 7)

Dé…nition 4.15 Une variable aléatoire continue Z suit une loi normale centrée réduite
notée par N (0; 1), si elle admet pour densité de probabilité la fonction f dé…nie sur R
par:
1 x2
f (x) = p e 2
2
f étant une densité, la surface comprise entre l’axe des abscisses et la courbe de f a
une aire …nie égal à 1:

4.4. Variables aléatoires continues


Chapter 4. VARIABLES ALÉATOIRES RÉELLES 65

Rx
La fonction de répartition de X: x 7 ! (x) = 1
f (t) dt est égale à l’aire limitée
par la courbe de f et l’axe des abscisses et la droite d’équation t = x:(voir F ig 4).

F ig 4 Fonction de répartition

4.4.3 Caractérisation de la loi de v.a.r. continue


Soient X une v.a.r. continue sur l’espace probabilisé ( ; A; P ) et I un intervalle de R.
Alors Z Z +1
P (I) = f (t) dt = 1I (t) f (t) dt
I 1
i:e Z b
P ([a; b]) = f (x) dx
a
La loi d’une v.a.r. continue est caractérisée par sa fonction de densité.

Remarque 4.6 On associe à toute v.a.r. continue une fonction de densité f véri…ant:
i) Pour tout réel x, f (x) 0
R +1
ii) 1 f (x) = 1
Réciproquement: Toute fonction f véri…ant les assertions i) et ii) est une fonction de
densité d’une v.a.r. continue.

Relation entre fonction de répartition et densité

Soit X une variable aléatoire réelle et F sa fonction de répartition. Si la loi de probabilité


admet une densité f , on peut écrire:
Z x Z x
F (x) = PX (] 1; x[) = dP = f (x)dx
1 1

Si de plus f est continue en x; F est dérivable et F 0 (x) = f (x): On peut alors écrire:
Z b
P (a X < b) = f (x)dx = F (b) F (a)
a

4.4. Variables aléatoires continues


Chapter 4. VARIABLES ALÉATOIRES RÉELLES 66

Caractéristiques des variables aléatoires continues

Espérance et Variance

Espérance

Dé…nition 4.16 Si X une v.a.r continue de densité f On appelle espérance de X le


nombre E (X), s’il existe donné par
Z +1
E (X) = xf (x) dx
1

Remarque 4.7 Une variable aléatoire réelle n’admet pas forcément une espérance.

Exemple 4.2 Soit X une v.a.r continue de fonction de densité (loi de Cauchy) dé…nie
par
1
f (x) = :
(1 + x2 )
En e¤et
1
8x 2 R; 0;
(1 + x2 )
et Z +1
dx 1 1
2
= lim [arctan x]XX = + =1
1 (1 + x ) X !+1 2 2
Donc est bien une fonction de densité.
Mais cette intégrale Z +1
xdx
1 (1 + x2 )
n’est pas convergente, donc X n’admet pas d’espérance.

Dé…nition 4.17 Si X une v.a.r continue de densité f: et ' : R ! R une application


continue. L’espérance de ' (X) ; s’il existe est dé…nie par
Z +1
E (' (X)) = ' (x) f (x) dx:
1

Propriétés de l’espérance

Proposition 4.3 i) (linéarité). Soient X une v.a.r continue et '1 ; '2 : R ! R deux
fonctions continues et a; b deux réels. Alors on a

E [a ('1 (X)) + b'2 (X)] = aE ('1 (X)) + bE ('2 (X))

4.4. Variables aléatoires continues


Chapter 4. VARIABLES ALÉATOIRES RÉELLES 67

ii) (Positivité). Soient X une v.a.r continue et ' : R ! R une fonctions continues et
positive. Alors on a
E (' (X)) 0
iii) (Croissance). Soient X une v.a.r continue et '1 ; '2 : R ! R deux fonctions
continues telles que '1 '2 . Alors on a

E ('1 (X)) E ('2 (X))

iv) si X est une v.a.r constante et ' une fonction déterministe quelconque. Alors on a

E (' (X)) = ' (X)

Preuve. i) D’après la dé…nition de l’espérance, nous avons:


Z +1
E [a ('1 (X)) + b'2 (X)] = [a ('1 (X)) + b'2 (X)] fX (x) dx
1
Z +1 Z +1
= a ('1 (X)) fX (x) dx + b ('2 (X)) fX (x) dx
1 1
Z +1 Z +1
= a '1 (X) fX (x) dx + b '2 (X) fX (x) dx
1 1
= aE ('1 (X)) + bE ('2 (X))

d’où la linéarité de l’espérance.


ii) X est une v.a.r continue et ' 0
Z +1
E (' (X)) = ' (X) f (x) dx 0; l’intégrale d’une fonction positive
1

iii) Soit la fonction ' = '2 '1 ; la fonction ' est positive et donc d’après ii)

E (' (X)) = E ('2 (X) '1 (X)) 0

et d’après i)
E ('2 (X)) E ('1 (X)) 0
iv) Si X = c est une v.a.r. discrète telle que P (X = c) = 1; d’où
Z +1 Z +1
E (' (X)) = ' (c) f (x) dx = ' (c) f (x) dx = ' (c) 1 = ' (c)
1 1

4.4. Variables aléatoires continues


Chapter 4. VARIABLES ALÉATOIRES RÉELLES 68

Conséquences X et Y sont deux variables aléatoires admettant chacune une es-


pérance, a et b sont deux constantes:
i) (Espérance d’une constante) E(a) = a: On peut déduire que:

E[E[X]] = E[X]

Puisque E[X] ne dépend pas de X.


ii) (L’espérance mathématique est un opérateur linéaire):

E(aX + bY ) = aE(X) + bE(Y )

Dé…nition 4.18 une variable aléatoire est dite centrée si son espérance est nulle.

Moments d’ordre supérieur à 1 d’une variable aléatoire

L’espérance E(X) est le moment d’ordre 1 de la distribution, il apporte peu de renseigne-


ments sur cette variable. Les moments d’ordre supérieur à 1 (moments d’inertie) donnent
des indications sur l’étalement de la distribution.

Dé…nition 4.19 (moments non-centré d’ordre k). Un moment non-centré d’ordre k


d’une variable aléatoire continue X est donné par:
Z +1
k
mk (X) = E(X ) = xk f (x)dx
1

Dé…nition 4.20 (moments centrés). Un moment centré d’ordre k d’une variable


aléatoire continue X est dé…ni par:
h i Z +1
k
Mk (X) = E (X E (X)) = (x E (X))k f (x)dx
1

Variance

Dé…nition 4.21 La variance (moment centré d’ordre 2), ou carré de l’écart-type d’une
variable continue X est dé…nie par:
Z +1
V ar(X) = 2
X = E (X E(X)) 2
= (x E (X))2 f (x)dx
1

L’écart-type X s’exprime avec la même unité que la v.a.r.

4.4. Variables aléatoires continues


Chapter 4. VARIABLES ALÉATOIRES RÉELLES 69

Propriétés Comme dans le cas d’une variable discrète nous avons ces propriétés pour
une v.a.r. continue.
Soient a et b deux constantes réelles
i) V ar(X) = E(X 2 ) E2 (X) (Cette formule peut être utilisée pour calculer
rapidement V ar(X)).
ii) V ar(b) = 0
iii) V ar(aX + b) = a2 V ar(X)
iv) V ar(X) = 0 implique que X est presque sûrement égale à une constante.

Variable aléatoire centrée réduite

Proposition 4.4 Soient X est une variable aléatoire de carré intégrable, la variable
aléatoire U dé…nie par:
X E(X)
U=
X
est d’espérance nulle et de variance égale à 1 (dite centrée réduite, associée à X)

Preuve. D’après les propriétés d’espérance et de variance, on a,

X E(X) 1 1
E (U ) = E = [E (X) E (E (X))] = [E (X) (E (X))] = 0:
X X X

et
X E(X) 1 1 2
V ar (U ) = V ar = 2
V ar (X) = 2 X = 1:
X X X

Covariance de deux variables aléatoires La covariance des deux variables X et Y


est dé…nie par:
Cov(X; Y ) = E[(X E(X))(Y E(Y ))]

Variance d’une somme

V ar(X + Y ) = V ar(X) + V ar(Y ) + 2Cov(X; Y )

Inégalité de Bienaymé-Tchebichev

4.4. Variables aléatoires continues


Chapter 4. VARIABLES ALÉATOIRES RÉELLES 70

Inégalité de Markov

Proposition 4.5 Soit X une variable aléatoire positive d’espérance , alors pour toute
constante > 0:
P (X )

Preuve. Supposons que X est une v.a.r. continue. Alors on a


Z +1 Z Z +1
= E (X) = xf (x) dx = xf (x) dx + xf (x) dx
1 0
Z +1 Z +1
xf (x) dx f (x) dx = P (X )

d’où
P (X ):

Inégalité de Bienaymé-Tchebichev Soit X une variable aléatoire d’espérance


et d’écart-type , alors pour tout " > 0:
2
P (jX j > ")
"2
Preuve. est une application directe d’inégalité de Markov à la v.a.r. X = (X )2 avec
= "2
E (X )2 2
P (X )2 "2 =
"2 "2
D’où
2
P (jX j > ")
"2

Remarque 4.8 L’inégalité de Bienaymé-Tchebichev ne fait aucune hypothèse sur la loi


de probabilité de la v.a. sauf l’existence des moments E (X) et E (X 2 ). Cette inégalité
permet de donner une borne inférieur où supérieur d’une probabilité sans la connaissance
de la loi ou de la variable.

Remarque 4.9 L’inégalité de Bienaymé-Tchebichev nous donne des valeurs supérieur


aux valeurs exactes des probabilités.

4.4. Variables aléatoires continues


Chapter 4. VARIABLES ALÉATOIRES RÉELLES 71

Exemple 4.3 Soit X une v.a.r suit la loi normale centrée réduite.

P (jXj 3) = 1 P (jXj < 3) = 1 P ( 3 < X < 3)


= 1 [F (3) F ( 3)] = 1 [F (3) (1 F (3))]
= 2 (1 F (3)) = 2 (1 0; 9986) = 0:002 8
2
L’inégalité de Bienaymé-Tchebichev nous donne pour = 0 et =1
1
P (jXj 3) = 0; 11111
9

4.5 Variables aléatoires à deux dimensions

4.6 Dé…nitions
4.6.1 Variables discrètes
Probabilité en un point du domaine:

pij = P (X = xi ; Y = yj )

Fonction de répartition:
P P
F (x; y) = P (X x; Y y) = P (X = u; Y = v)
u x <y

4.6.2 Variables continues


Fonction de répartition:
Z x Z y
F (x; y) = P (X x; Y y) = f (u; v) dvdu
1 1

Densité de probabilité:
@ 2 F (x; x)
f (x; y) =
@x@y
Dans ce qui suit, les formules sont données pour des variables continues. Les formules,
pour les variables discrètes, s’en déduisent aisément.

4.6.3 Lois marginales et lois conditionnelles


Loi marginale de X
Z x Z +1
F (x; :) = f (u; v) dv du
1 1

4.5. Variables aléatoires à deux dimensions


Chapter 4. VARIABLES ALÉATOIRES RÉELLES 72

Z +1
@F (x; :)
= f (x; :) = f (x; y) dy
@x 1

Loi marginale de Y
Z y Z +1
F (y; :) = f (u; v) du dv
1 1
Z +1
@F (:; y)
= f (:; y) = f (x; y) dx
@y 1

Loi conditionnelle de Y /X
@F (x;y)
@x
F (y=X = x) = F (y=x) = dF (x;:)
dx

dF (y=x) f (x; y)
f (y=x) = =
dy f (x; :)

Loi conditionnelle de X/Y


@F (x;y)
@y
F (x=Y = y) = F (x=y) = dF (:;y)
dy

dF (x=y) f (x; y)
f (x=y) = =
dx f (:; y)

4.6.4 Espérance mathématique


Espérances des variables marginales
Z +1 Z +1 Z +1 Z +1
E (X) = xf (x; y) dxdy; E (Y ) = yf (x; y) dxdy
1 1 1 1

Espérances des variables conditionnelles


Z +1 Z +1
E(X=Y ) = xf (x=y)dx; E(Y =X) = yf (y=x)dy
1 1

Remarque 4.10 On remarquera que ces espérances sont elles-mêmes des variables
aléatoires.

4.6. Dé…nitions
Chapter 4. VARIABLES ALÉATOIRES RÉELLES 73

Théorème de l’espérance totale

E(X) = E[E(X=Y )]; E(Y ) = E[E(Y =X)]

4.6.5 Variance
Variances conditionnelles

V ar(X=Y ) = E[X E(X=Y )]2 ; V ar(Y =X) = E[Y E(Y =X)]2

Théorème de la variance totale

V ar(Y ) = V ar[E(Y =X)] + E[V ar(Y =X)]

4.6.6 Corrélation
Coe¢ cient de corrélation:
E[(X E(X))(Y E(Y ))] Cov(X; Y )
r= p =
V ar(X) V ar(Y ) X Y

Rapport de corrélation:
2 V ar[E(Y =X)]
Y =X =
V ar(Y )

Matrice des variances-covariances:

!
V ar(X) Cov(X; Y )
M (X; Y ) =
Cov(X; Y ) V ar(Y )

Indépendance de deux variables aléatoires.

Dé…nition 4.22 Deux variables X et Y sont indépendantes si, quel que soit deux
événements X 2 A et Y 2 B, on a:

P (X 2 A; Y 2 B) = P (X 2 A) P (Y 2 B)

4.6. Dé…nitions
Chapter 4. VARIABLES ALÉATOIRES RÉELLES 74

Propriétés

Deux variables X et Y sont indépendantes si et seulement si une de ces propriétés soit


satisfaite:
i) F (x; y) = F (x; :) F (:; y)
ii) f (x; y) = f (x; :) f (:; y)
iii) f (x=y) = f (x; :) ou f (y=x) = f (:; y)
iv) D(X;Y ) = DX DY

Variance de la somme

Si les deux variables X et Y sont indépendantes alors, les propriétés suivantes sont sat-
isfaites
1) E(XY ) = E(X) E(Y )
2) Cov(X; Y ) = 0
3) V ar(X + Y ) = V ar(X) + V ar(Y ):

4.6.7 Résumé
v.a.r.dicsrète v.a.r.continue
X( ) fx1 ; x2 ; :::; xn ; :::g R
P Rx
F (x) = P (X x) P (X = xi ) 1
f (x) dx
xi x
P Rb
P (a X b) P (X = xi ) a
f (x) dx
a xi b
P R +1
E (X) xi P (X = xi ) 1
xf (x) dx
xi 2X( )
P R +1
E [' (X)] ' (xi ) P (X = xi ) 1
' (x) f (x) dx
xi 2X( )
P R +1
E (X 2 ) x2i P (X = xi ) 1
x2 f (x) dx
xi 2X( )
P R +1
V ar (X) (xi E (X))2 P (X = xi ) 1
(x E (X))2 f (x) dx
xi 2X( )

4.7 Exercices
Exercice 4.1 Soit X une variable aléatoire admettant un moment d’ordre 2. Démontrer
que E [(X a)2 ] est minimal pour a = E(X).

Solution. Posons

f (a) = E (X a)2 = E(X 2 ) 2aE(X) + a2

4.7. Exercices
Chapter 4. VARIABLES ALÉATOIRES RÉELLES 75

. C’est un polynôme du second degré. Elle admet donc un minimum lorsque f 0 (a) = 0

2E(X) + 2a = 0

d’où
a = E(X)

Exercice 4.2 Un joueur vise une cible de 10 cm de rayon, constitué de couronnes con-
centriques, délimitées par des cercles de rayons 1; 2; : : : ; 10 cm; numérotées de 10 au
centre à 1 à la périphérie. La probabilité d’atteindre la couronne numérotée i (1 i 10)
est proportionnelle à l’aire de cette couronne, et on suppose que le joueur atteint la cible à
chaque lancer. Soit X la v.a, qui à chaque lancé associe le numéro de la couronne atteinte.
Quelle est la loi de probabilité de X ? Trouver sa fonction de répartition? Calculer son
espérance et sa variance.

Solution. Notons Si l’aire de la couronne i (P (X = xi ) est proportionnelle Si ). Alors,


on à
P (X = xi ) P (X = xi )
8i 2 f1; 2; :::; 10g ; = =
Si i2
P
10 P
10
P (X = xi ) = i2 = 1
i=1 i=1

10 + 9 + 8 + 7 + 6 + 5 + 42 + 32 + 22 + 12 = 385
2 2 2 2 2 2
=1
D’où
1
=
385
Donc la loi de probabilité est donnée par ce tableau
P
xi 1 2 3 4 5 6 7 8 9 10
pi 102 92 82 72 62 52 42 32 22 12
100 81 64 49 36 25 16 9 4 1
Pi 385 385 385 385 385 385 385 385 385 385
1

4.7. Exercices
Chapter 4. VARIABLES ALÉATOIRES RÉELLES 76

Sa fonction de répartition est:


8
>
> 0; si x < 1
>
>
>
> 100
>
> ; si 1 x<2
>
>
385
>
> 181
; si 2 x<3
>
> 385
>
>
>
>
245
; si 3 x<4
>
> 385
>
> 294
>
< 385 ; si 4 x<5
F (x) = 330
; si 5 x<6
>
>
385
>
> 355
; si 6 x<7
>
> 385
>
>
>
>
371
; si 7 x<8
>
> 385
>
> 380
>
> 385
; si 8 x<9
>
>
>
> 384
; si 9 x < 10
>
> 385
>
: 1; si 9 x<1

Pour calculet l’espérance et la variance, on utulise le tableau suivant:


P
xi 1 2 3 4 5 6 7 8 9 10
100 81 64 49 36 25 16 9 4 1
Pi 385 385 385 385 385 385 385 385 385 385
1
100 162 192 196 180 150 112 72 36 10 22
x i Pi 385 385 385 385 385 385 385 385 385 385 7
100 324 576 784 900 900 784 576 324 100 488
x2i Pi 385 385 385 385 385 385 385 385 385 385 35

L’espérance est
P
10 22
E (X) = xi P (X = xi ) = = 3; 1429
i=1 7
La variance est
2
2 2 488 22 996
V ar (X) = E X E (X) = = = 4; 0653
35 7 245

Exercice 4.3 Soit X une v.a; de fonction de répartition F donnée par


8
>
> 0; si x < 0
>
>
>
> 1
>
< 8 ; si 0 x < 2
F (x) = 3
; si 2 x < 4
>
>
8
>
> 6
> 8 ; si 4 x < 6
>
>
: 1; si 6 x < +1

1) Déterminer la fonction de masse de X:


2) Calculer l’espérance E (X) et la variance V ar (X) :

4.7. Exercices
Chapter 4. VARIABLES ALÉATOIRES RÉELLES 77

Solution. 1) la fonction de masse est donnée par


8
> 1
> p (0) = F (0) F (0 ) = 8 0= 1
>
> 8
>
> 3 1
>
< p (2) = F (2) F (2 ) = 8 8
= 28
p (x) = p (4) = F (4) F (4 ) = 68 3
= 38 :
>
>
8
>
> p (6) = F (6) F (6 ) = 1 6
= 28
>
> 8
>
: 0 en tout point de R f0; 2; 4; 6g

D’où 8
>
>
1
; si x = 0
>
> 8
>
> 2
>
< 8
; si x = 2
P (x) = 3
; si x = 4
>
>
8
>
> 2
; si x = 6
>
> 8
>
: 0 ailleurs
On peut la représentée par ce tableau
P
xi 0 2 4 6
1 2 3 2
P (X = xi ) 8 8 8 8
1

2) L’espérance et la variance
P
xi 0 2 4 6
1 2 3 2
P (X = xi ) 8 8 8 8
1
4 12 12 28
xi P (X = xi ) 0 8 8 8 8
8 48 72 128
x2i P (X = xi ) 0 8 8 8 8

L’espérance est
P
4 28
E (X) = xi P (X = xi ) = = 3; 5
i=1 8
La variance est
2
2 2 128 28
V ar (X) = E X E (X) = = 3; 75
8 8

Exercice 4.4 Une v.a.r. X a comme espérance E (X) = 50; et comme écart-type X =
10: Une nouvelle v.a.Y est constituée par la transformation linéaire Y = 10X + 100:
Déterminer:
a) E (Y ) ; b) V ar (Y ) ; c) Y:

4.7. Exercices
Chapter 4. VARIABLES ALÉATOIRES RÉELLES 78

Solution. a)

E (Y ) = E (10X + 100) = 10E (X) + 100 = 10 50 + 100 = 600:

b)
V ar (Y ) = 102 V ar (X) = 100 100 = 10000:
c)
p
Y: = 10000 = 100

Exercice 4.5 soit X une v.a.r. continue dont la densité de probabilité est de la forme:
(
(30 x) ; si 0 x 30
f (x) =
0; si non

1) Déterminer , représenter graphiquement cette loi.


2) Déterminer et tracer la fonction de répartition correspondante.
3) Trouver a) P (X > 15) b) P (0 < X < 20) c) P (X < 12) :
4) Calculer a) E (X) et b) V ar (X) :

Solution. 1) Z +1
f (x) dx = 1
1
Z 0 Z 30 Z +1
0dx + (30 x) dx + 0dx = 1
1 0 30
3
1 2
30x x =1
2 0
1
30 (30) (30)2 = 1
2
1
=
450
Donc (
1
450
(30 x) ; si 0 x 30
f (x) =
0; si non
2) Z x
F (x) = f (t) dt
1
si x < 0 Z x
F (x) = 0dt = 0
1

4.7. Exercices
Chapter 4. VARIABLES ALÉATOIRES RÉELLES 79

si 0 x 30
Z
1 x
1 1 2 (30 x)2
F (x) = (30 t) dt = 30x x =1
450 0 450 2 900
si x 30
F (x) = 1
8
>
>
< 0; si x<0
(30 x)2
F (x) = 1 ; si 0 x 30
>
>
900
: 1; si 0 x 30
3) a)
Z 30
1
P (x > 15) = (30 x) dx
15 450
1 1 1
= 30 (30) (900) 30 (15) + (225) = 0; 25
450 2 2
ou bien

P (x > 15) = 1 P (X 15) = 1 F (15)


!
2
(30 15) 1
= 1 1 =
900 4

b)
Z 20
1
P (10 x 20) = (30 x) dx
10 450
1 1 1 1
= 30 (20) (400) 30 (10) + (100) =
450 2 2 3
c)
(30 12)2 16
P (X 12) = F (12) = 1 =
900 25
4) a)
Z 30
x
E (X) = (30 x) dx
0 450
1 27000
= 15 (900) = 10
450 3
b)
Z 30
2 x2
E X = (30 x) dx
0 450
1 810000
= 10 (27000) = 150
450 4

4.7. Exercices
Chapter 4. VARIABLES ALÉATOIRES RÉELLES 80

D’où
V ar (X) = E X 2 E2 (X) = 150 100 = 50:

Exercice 4.6 Soient un nombre positif donné et X une v.a.r de densité :


(
2x
2; si x 2 [0; ]
f (x) =
0; ailleur

1) Déterminer la fonction de répartition F de X.


2) Calculer E(X) et V ar(X).

Solution. 1) si x < 0; F (x) = 0


si x Z x
2t x2
F (x) = 2 dt = 2
0
si x ; F (x) = 1: D’où
8
>
>
< 0; si x < 0
F (x) = x2
2 si 0 x
>
>
: 1; si x

2)
Z
2x 2 3 2
E(X) = x 2 dx = =
0 3 2 3
Z 2
2x 1 4
E(X 2 ) = x2 2 dx = =
0 2 2 2
D’où 2 2
4 2
V ar (X) = E(X 2 ) E2 (X) = =
2 9 18

Exercice 4.7 Soit X une v.a.r de fonction de répartition F dé…nie par:


8
>
>
< 0; si x 1
F (x) = ln x; si 1 < x e
>
>
: 1; si e < x

Calculer E(X) et V ar(X):

4.7. Exercices
Chapter 4. VARIABLES ALÉATOIRES RÉELLES 81

Solution. La fonction de densité est


(
1
x
; si 1 < x e
f (x) =
0; ailleurs

L’espérance Z e
1
E(X) = x dx = [x]e1 = e 1
1 x
La vriance
Z e
2 1 1 2 e 1 2
E(X ) = x2 dx = x 1
= e 1
1 x 2 2

1 2
V ar(X) = E(X 2 ) E2 (X) = e 1 e2 2e + 1
2
1 2 3 1
= 2e e = e2 + 4e 3
2 2 2
Exercice 4.8 On jette 3600 fois un dé équilibré. Minorer la probabilité que le nombre
d’apparitions du numéro 1 soit compris entre 480 et 720.

Solution. Soit X la v.a. comptant le nombre d’apparitions du chi¤re 1 au cours de ces


lancers. X suit une loi binomiale de paramètres 3600 et 61 . i:e X B 3600; 16 : On sait
donc que
1
E(X) = np = 3600 = 600
6
et
1 5
V ar(X) = npq = 3600 = 500
6 6
Remarquons en outre que

480 < X < 720 , 120 < X 600 < 120 , jX 600j < 120:

Par l’inégalité de Bienaymé-Tchebichev,

500
P (jX 600j 120) 0; 035:
1202
Solution. On en déduit que

P (480 < X < 720) 1 0; 035 = 0; 965:

En particulier, la probabilité que le numéro 1 apparaisse entre 480 et 720 fois au cours de
ces 3600 lancers est supérieur à 0; 96.

4.7. Exercices
CHAPTER 5

LOIS USUELLES

5.1 Lois discrètes


5.1.1 Loi de Bernoulli
Dé…nition 5.1 une épreuve de Bernoulli est une expérience aléatoire dont le résultat
peut être un succès, soit échec, mais pas les deux simultanément.

Exemple 5.1 1) On e¤ectue un tirage d’une boule dans une urne contenant des boules
blanches et noires. On appelle succès le fait d’obtenir une boule blanche et échec le fait
d’obtenir une boule noire.
2) On lance une pièce une fois et on note le résultat. La pièce peut être tomber sur
FACE (succès) ou sur FACE (échec).

Dé…nition 5.2 Lors d’une épreuve de Bernoulli, soit p la probabilité d’un succès et
q=1 p la probabilité d’un échec Soit X le nombre de succès. X suit la loi de Bernoulli
de paramètre p; (p 2 [0; 1]) ( on note X B(p) )si elle est à valeur dans f0; 1g avec
(
1 p; si x = 0
P (X = x) =
p; si x = 1

On peut écrire La loi de probabilité de Bernoulli sous la forme suivante:


(
P x (1 p)1 x ; si x = 0; 1
P (X = x) = (5.1)
0 ailleurs

82
Chapter 5. LOIS USUELLES 83

Théorème 5.1 La fonction de répartition d’une variable X B(p) est


8
>
>
< 0; si x < 0
FX (x) = 1 p; si 0 x<1 (5.2)
>
>
: 1; si x 1

Preuve.
8
>
>
P
x < 0; si x < 0
k 1 k
FX (x) = P (1 p) = 1 p; si 0 x<1
k=0 >
>
: 1; si x 1

Espérance et Variance:

E (X) = p; V ar (X) = p (1 p) = pq

Preuve. En e¤et
P
2
E (X) = kP k (1 p)1 k
=0 P 0 (1 p)1 0
+1 P 1 (1 p)1 1
=P
k=0

C’est à dire:
X=k 0 1
P (X = k) q=1 p p
:
kP (X = k) 0 p
k 2 P (X = k) 0 p
Donc
E (X) = 0 q+1 p=p
Et
E X 2 = 02 q + 12 p=p
Et en …n
V ar (X) = E X 2 E2 (X) = p p2 = p (1 p) = pq

5.1. Lois discrètes


Chapter 5. LOIS USUELLES 84

5.1.2 Loi uniforme sur f1; 2; :::; N g ; N 2 N.


Dé…nition 5.3 La v. a. r X sur l’espace de probabilité ( ; A; P ) suit une loi uniforme
sur f1; 2; :::; N g ( on note X UN ) si elle est à valeur dans f1; 2; :::; N g avec
1
8k = 1; :::; N; P (X = k) = : (5.3)
N
Cette loi modélise l’issue d’une expérience où les résultats sont équiprobables.

Exemple 5.2 Par exemple le nombre de points indiqué par un dé suit la loi uniforme sur
f1; 2; 3; 4; 5; 6g:

Espérance et variance
n+1 n2 1
E (X) = ; V ar (X) =
2 12
Preuve. En e¤et:
1 1 1 1
E (X) = 1 +2 + ::: + n = (1 + 2 + ::: + n)
n n n n
1 n n+1
= (1 + n) = ; suite arithmétique
n 2 2
Et

1 1 1 1 2
E X 2 = 12 + 22 + ::: + n2 = 1 + 22 + ::: + n2
n n n n
Nous pourrons démontré par récurrence que

n (2n2 + 3n + 1)
12 + 22 + ::: + n2 =
6
Donc
2n2 + 3n + 1
E X2 =
6
Et en …n

2n2 + 3n + 1 n2 + 2n + 1
V ar (X) = E X 2 E2 (X) =
6 4
4n2 + 6n + 2 3n2 6n 3 n2 1
= = :
12 12

5.1. Lois discrètes


Chapter 5. LOIS USUELLES 85

5.1.3 Loi binomiale


On e¤ectue n répétitions indépendantes d’une épreuve de Bernoulli dont la probabilité de
succès est p. Soit X le nombre de succès parmi les n résultats.

Dé…nition 5.4 La v.a.r X sur l’espace de probabilité ( ; A; P) suit la loi binomiale de


paramètres n et p (n 2 N et p 2 [0; 1]) ( on note X B(n; p)) si elle est à valeur
dans f0; 1; :::; ng avec
(
Cnk pk (1 p)n k ; si k = 0; 1; :::; n
; P (X = k) = : (5.4)
0; ailleurs

En e¤et, comme les Cnk pk (1 p)n k


sont positifs et en appliquant la formule du binôme
de Newton (d’où le nom de la loi).

P
n
Cnk pk (1 p)n k
= (p + 1 p)n = 1;
k=0

donc l’expression (5:4) dé…nit bien une loi de probabilité.

Propriétés.

On a les propriétés suivantes


1). Si X1 et X2 sont des variables aléatoires indépendantes telles que X1 B(n1 ; p) et
X2 B(n2 ; p) alors X1 + X2 B(n1 + n2 ; p):
2). Si Y1 ; :::; Yn sont des variables aléatoires indépendantes telles que Yi B(p), alors
P
n
la v.a X = Yi B(n; p):
i=1
La fonction de répartition de la loi Binomiale est
P
x
FX (x) = Cnk pk (1 p)n k
; si x 2 f0; 1; :::; ng
k=0

Si a x < a + 1 avec a entier, alors FX (x) = FX (a) :

Remarque 5.1 Comme le calcul de F (x) est fastidieux lorsque que n est grand, on
utilise souvent en pratique une table dite table de loi binomiale.

Espérance et Variance:

E (X) = np; V ar (X) = np (1 p) = npq

5.1. Lois discrètes


Chapter 5. LOIS USUELLES 86

Preuve. En e¤et
P
n P
n n!
E (X) = kCnk pk (1 p)n k
= k pk (1 p)n k
k=0 k=1 k! (n k)!
P
n (n 1)!
= np pk 1 (1 p)n k
k=1 (k 1)! (n k)!
nP1 (n 1)!
= np pi (1 p)n 1 i = np (p + 1 p)n 1
= np
i=0 i! (n 1 i)!
Et
P
n P
n n!
E X2 = k 2 Cnk pk (1 p)n k
= k pk (1 p)n k
k=0 k=1 (k 1)! (n k)!
Pn n!
= (k 1 + 1) pk (1 p)n k
k=1 (k 1)! (n k)!
Pn n!
= (k 1) pk (1 p)n k
k=1 (k 1)! (n k)!
Pn n!
+ pk (1 p)n k
k=1 (k 1)! (n k)!
Pn n!
= pk (1 p)n k
k=2 (k 2)! (n k)!
Pn n!
+ pk (1 p)n k
k=1 (k 1)! (n k)!
P
n (n 2)!
= n (n 1) p2 pk 2 (1 p)n k
k=2 (k 2)! (n k)!
Pn (n 1)!
+np pk 1 (1 p)n k
k=1 (k 1)! (n k)!
nP2 (n 2)!
= n (n 1) p2 pj (1 p)n 2 j
j=0 j! (n 2 j)!
nP1 (n 1)!
+np pi (1 p)n 1 i
i=0 i! (n 1_i)!
= n (n 1) p2 (p + 1 p)n 2
+ np (p + 1 p)n 1
= n2 p2 np2 + np

Donc

V ar (X) = E X 2 E2 (X) = n2 p2 np2 + np n2 p2


= np2 + np = np (1 p) = npq:

Ou bien, d’après la propriété ci-dessus 2, nous avons directement:


P
n P
n P
n
E (X) = E Yk = E (Yk ) = p = np
k=1 k=1 k=1

5.1. Lois discrètes


Chapter 5. LOIS USUELLES 87

Et
P
n P
n P
n
V ar (X) = V ar Yk = V ar (Yk ) = pq = npq:
k=1 k=1 k=1

Exemple 5.3 On jette 10 fois une pièce de monnaie bien équilibrée. On suppose que
face correspond à un succès.
On veut calculer les probabilités des événements suivants:
1) Pour que l’on ait exactement trois faces.
2) Pour obtenir au moins huit faces.
3).De n’avoir aucune face.
4). D’avoir au moins une face.

Solution. 1) p1 = P (X = 3)
3 7
3 1 1 15
p1 = C10 = ' 0; 1172
2 2 128
P
10
2) p2 = P (X = k)
k=8

10 10 10 10
8 1 9 1 10 1 1 8 9 10
p2 = C10 + C10 + C10 = C10 + C10 + C10
2 2 2 2
10
1 8 7
= C10 + 10 + 1 = ' 0; 05469:
2 128
3) P3 = P (X = 0)
0 10
0 1 1 1
P3 = C10 = ' 0; 00098
2 2 1024
4) p4 = 1 P3
1 1023
p4 = 1 = ' 0; 9990
1024 1024

5.1.4 Loi hypergéométrique


Alors que la loi binomiale intervient dans les tirages avec remise, la loi hypergéométrique
correspond aux tirages sans remise.

5.1. Lois discrètes


Chapter 5. LOIS USUELLES 88

Contexte

On tire sans remise n objets d’un ensemble de N objets dont M possèdent une cara-
ctéristique particulière et les autres (N M ) ne la possèdent pas.

Exemple 5.4 Soit X le nombre aléatoire d’objets de l’échantillon qui possèdent la cara-
ctéristique. Quelle est sa loi?
On peut prendre comme espace l’ensemble de tous les échantillons possibles (toutes
les parties à n éléments d’un ensemble de cardinal N ) muni de l’équiprobabilité. Chaque
1
échantillon a ainsi une probabilité CNn d’être choisi. Les échantillons (événements élé-
mentaires) réalisant l’événement fX = kg sont ceux qui contiennent k objets qui pos-
sèdent la caractéristique et n k objets qui ne la possèdent pas. Ceci n’est réalisable que
si 0 k M et 0 n k N M . Dénombrons ces échantillons. On les formes en
choisissant k objets parmi M et en complétant par n k objets choisis parmi N M . Il
k
y en a donc CM CNn kM . Finalement on a:
k
CM CNn k
M
P (X = k) = ; si 0 k M et 0 n k N M: (5.5)
CNn
Dé…nition 5.5 La loi dé…nie par l’expression (5:5) s’appelle loi hypergéométrique de
paramètres N; M et n. ( on note X H(N; M; n)). Le paramètre N est l’e¤ectif de la
population totale, M celui de la sous-population à laquelle on s’intéresse et n la taille de
l’échantillon observé.

Pour une taille d’échantillon …xée, plus N et M sont grands, moins les tirages sans re-
mise di¤érent des tirages avec remise. Plus précisément, la loi hypergéométrique converge
vers la loi binomiale au sens suivant:

Théorème 5.2 On suppose que quand N tend vers +1, M = M (N ) tend vers +1 en
véri…ant la condition:
M
lim
= p; avec 0 < p < 1
N !1 N
Alors, n restant …xé, la loi hypergéométrique H(N; M; n) converge vers la loi binomiale
B(n; p), ce qui signi…e que si (XN )N 1 est une suite de v.a. avec XN H(N; M; n) et Y
est une v.a. de loi binomiale B(n; p),alors :

8k = 0; 1; :::; n; lim P (XN = k) = P (Y = k)


N !1

Autrement dit :
k
CM CNn k
M
8k = 0; 1; :::; n; lim = Cnk pk (1 p)n k
N !1 CNn

5.1. Lois discrètes


Chapter 5. LOIS USUELLES 89

Remarque 5.2 Dans la pratique, on admet que cette approximation est satisfaisante
lorsque n < 0; 05N .

Espérance et variance:

N n
E (X) = np; V ar (X) = npq
N 1

Exemple 5.5 On prend au hasard, en même temps, quatre ampoules dans un lot de 30
dont 5 sont défectueuses. Calculer la probabilité des événements :
A: "au moins une ampoule est défectueuse";
B: "les 4 ampoules sont défectueuses";
C: "exactement une ampoule est défectueuse".

Solution. On utilise une loi hypergéométrique


C4
P (A) = 1 C25
4 = 0; 53841:
30
C54
P (B) = 3
C"30
= 0; 0001825:
1
C5 C25 3
P (C) = C304 = 0; 41963:

5.1.5 Loi géométrique


Exemple 5.6 Considérons une suite in…nie d’épreuves de Bernoulli répétées indépend-
antes avec même probabilité de succès p 2]0; 1[. Soit X le numéro (aléatoire) de la
première épreuve où l’on obtient un succès. Si l’on n’obtient jamais de succès, on con-
viendra que X = +1. Calculer P (X = k) pour tout k 2 N . En déduire les valeurs de
P (X 2 N ) et P (X = +1).
En notant ,
Ri = fsuccès à la ième épreuveg
On a :

fX = kg = féchec aux (k 1) premières et succès à la k ièmeg


kT1
= Ri \ Rk
i=1

Et comme les épreuves sont indépendants on a


kQ1
P fX = kg = P Ri P (Rk ) = (1 p)k 1
p
i=1

5.1. Lois discrètes


Chapter 5. LOIS USUELLES 90

Posons q = 1 p et notons que q 2]0; 1[. La décomposition de l’événement fX 2 N g


en la réunion disjointe des fX = kg; (X 2 N ) nous donne par additivité
P
1 P
1 p
P (X 2 N ) = pq k 1
=p qi = = 1; série géométrique.
k=1 i=0 1 q

Dé…nition 5.6 Une v.a.r X sur l’espace de probabilité ( ; A; P) suit la loi géométrique
de paramètre p 2]0; 1[ ( on note X G(p) ) si elle est à valeurs dans N avec
(
(1 p)k 1 p; si k 2 N
P (X = k) = : (5.6)
0; ailleurs

Lorsque X suit une loi géométrique, les probabilités P (X > n) ont une expression
particulièrement simple en fonction de q = 1 p. Calculons les de deux façons.
Première méthode: On calcule le reste d’une série géométrique
P
1 P
1 P
1
P (X > n) = qk 1p = q j p = pq n qj n
k=n+1 j=n j=n

n
P i
1 1
= pq q = pq n = qn:
i=0 1 q
Deuxième méthode: On se place dans la situation de l’exemple précédent. L’événement
fX > ng se réalise si et seulement si les n premières épreuves donnent un échec.
T
n
fX > ng = Ri
i=1

En utilisant l’indépendance des Ri on en déduit :


Q
n
P (X > n) = P Ri = q n :
i=1

Espérance et variance:
1 1 p
E (X) = ; V ar (X) =
p p2

Preuve. En e¤et
P
1 P
1 d P
1
E (X) = k:p (1 p)k 1
=p k (1 p)k 1
=p (1 p)k
k=0 k=0 dp k=0
d 1 d 1 1
= p =p =
dp 1 (1 p) dp p p

5.1. Lois discrètes


Chapter 5. LOIS USUELLES 91

On montre sur le même principe


P
1 P
1
E X2 = k 2 :p (1 p)k 1
= [k (k + 1) k] p (1 p)k 1

k=0 k=0
P
1 P
1
= p k (k + 1) (1 p)k 1
p k (1 p)k 1

k=0 k=0
d 2 P
1 1
= p (1 p)k+1
dp2 k=0 p
d2 1 1 2 1
= p 2 = 2
dp p p p p
Et en …n
2 1 1 1 p
V ar (X) = =
p2 p p 2 p2

Exemple 5.7 On lance un dé jusqu’à ce qu’apparaisse la face « 6 » .


La probabilité que le dé soit lancé exactement 8 fois est
7
1 5
P (X = 8) = = 0; 046514
6 6
Et la probabilité que le dé soit lancé 8 fois ou plus est

P (X 8) = 1 P (X < 8)
!
2 3 4 5 6
1 5 5 5 5 5 5
= 1 + + + + +
6 6 6 6 6 6 6
= 0; 27908

5.1.6 Loi de Poisson


Dé…nition 5.7 On dit que la v.a.r X sur l’espace de probabilité ( ; A; P ) suit la loi de
Poisson de paramètre > 0 ( on note X P ( ) )si elle est à valeurs dans N avec
( k
e
k!
; si k 2 N
P (X = k) = (5.7)
0; ailleurs
P
1
xk
On rappelle que pour toute réel x la série k!
converge vers ex c’est à dire
k=0

k
P
1
8 2 R; e =
k=0 k!
On a alors: k k
P
1 P
1 e P
1
P (X = k) = =e =e e =1
k=0 k=0 k! k=0 k!

5.1. Lois discrètes


Chapter 5. LOIS USUELLES 92

Donc l’expression (5.7) est bien une loi de probabilité.


Preuve. Espérance et variance:

E (X) = V ar (X) =

En e¤et:
k k k 1
P
1 e P
1 e P
1
E (X) = k = = e
k=0 k! k=1 (k 1)! k=1 (k 1)!
j
P
1
= e = e e =
j=0 j!

Et
k k 1 k 1
P
1 e P1 P1
E X2 = k2 = e k = e (k 1 + 1)
k=0 k! k=1 (k 1)! k=1 (k 1)!
k 1 k 1
P1 P1
= e (k 1) + e
k=1 (k 1)! k=1 (k 1)!
k 2 k 1
P1 P1
= 2e + e
k=2 (k 2)! k=1 (k 1)!
i j
P1 P
1
= 2e + e = 2e e + e e
i=0 i! j=0 j!
2
= + ;

Et en…n
2 2
V ar (X) = E X 2 E2 (X) = + = :

Approximation de la loi binomiale par la loi de Poisson

Nous allons considérer une v.a X qui suit une loi binomiale et voir sous quelles conditions
cette v.a va-elle suivre une loi de poisson? En e¤et la loi de poisson est plus simple qu’une
loi binomiale qui elle dépend de deux paramètres (n et p), alors que la loi de Poisson ne
dépend que d’un seul paramètre ( ). Et chaque fois qu’il est possible (si les conditions
que nous allons voir le permettent) de remplacer la loi binomiale par la loi de poisson, il
faut faire.

Théorème 5.3 Si (pn )n 1 est une suite de réels de [0; 1] véri…ant

lim npn = ; >0


n !1

5.1. Lois discrètes


Chapter 5. LOIS USUELLES 93

Alors k
n k e
lim Cnk pkn (1 pn ) = :
n !1 k!
Autrement dit

lim B(n; pn ) = P( ); avec = lim npn


n !1 n !1

Preuve. Soit X B (n; p) ; alors

P (X = k) = Cnk pk q n k
et P (X = k 1) = Cnk 1 pk 1 q n k+1

Faisons le rapport des deux expressions ainsi obtenues:


P (X = k) n! (k 1)! (n k + 1)!
= pk q n k
P (X = k 1) k! (n k)! n!pk 1 q n k+1
n k+1p
=
k q
Multiplions numérateur et dénominateur par n :
P (X = k) np n k+1
=
P (X = k 1) k nq
Soient les conditions suivantes: n augmente ( le nombre de tirage est très grand ) et p
faible: p ! 0 (événement rares). Alors q = (1 p) ! 1:
L’expression
n k+1 n 1 + nk + n1 1 + nk + n1
= =
nq nq q
Et
1 + nk + n1
lim =1
n !1 q
Ainsi:
P (X = k) np
=
P (X = k 1) k
Cette dernière expression n’est vraie que si théoriquement : n ! 1 et p ! 0: k 2 N,
donc:
P (X = 1) P (X = 2) np P (X = 3) np
= np; = = ; =
P (X = 0) P (X = 1) 2 P (X = 2) 3
Ou 8
>
> P (X = 1) = npP (X = 0)
>
>
>
> np (np)2
< P (X = 2) = 2 P (X = 1) =
> 2!
3
P (X = 0)
(np)
P (X = 3) = np
3
P (X = 2) = 3!
P (X = 0)
>
> ..
>
> .
>
>
>
: k
P (X = k) = (np)
k!
P (X = 0)

5.1. Lois discrètes


Chapter 5. LOIS USUELLES 94

Comme P (X = k) est une loi de probabilité, nous aurons forcément:


P
1
P (X = k) = 1
k=0

Donc:
P (X = 0) + P (X = 1) + ::: + P (X = k) + ::: = 1
Ou
np (np)k
P (X = 0) + P (X = 0) + ::: + P (X = 0) + ::: = 1
1! k!
!
np (np)2 (np)k
P (X = 0) 1 + + + ::: + + ::: = 1
1! 2! k!
Ou
P1 (np)k
P (X = 0) =1
k=0 k!
Donc:
P (X = 0) :enp = 1 () P (X = 0) = e np

Et
(np)k (np)k np
P (X = k) = P (X = 0) = e
k! k!
Posons np =
k
P (X = k) = :e
k!

Application pratique:

Remarque 5.3 Le théorème précédent sert de justi…cation théorique à la règle pratique


suivante : lorsque n est «grand» et np «petit» , on peut remplacer la loi binomiale B(n; p)
par la loi de Poisson P( ) où = np. En général on considère que n de l’ordre de quelques
centaines et np de l’ordre de quelques unités ( si on a à la fois: n 50 et np < 5:) donnent
une bonne approximation.

5.1. Lois discrètes


Chapter 5. LOIS USUELLES 95

Voici à titre d’exemple (F ig 5) l’approximation de B (50; 0; 08) vers P (4) :

F ig 5 Lois B (50; 0; 08) et P (4)

Exemple 5.8 La probabilité pour qu’un individu ait une mauvaise réaction à l’injection
1
d’un certain vaccin est de 1000 . Déterminer la probabilité pour que sur 2000 individus:
1) 3 aient une mauvaise réaction.
2) Plus de deux aient une réaction dangereuse
Solution. L’utilisation de la loi binomiale pour la résolution de cet exemple. En e¤et:
1
X B 2000; 1000 :
1)
3
P (X = 3) = C2000 (0; 001)3 : (0; 999)1997
2)

P (X > 2) = 1 [P (X = 0) + P (X = 1) + P (X = 2)]
= 1 0
C2000 (0; 001)0 : (0; 999)2000 1
C2000 (0; 001)1 : (0; 999)1999
2
C2000 (0; 001)2 : (0; 999)1998

L’utilisation de la loi de Poisson est conseillée:


1
n = 2000 > 50 et np = 2000 =2<5
1000
k
P (X = k) = :e
k!
= np = 2
2k 2
P (X = k) = :e
k!
1)
23 2
P (X = 3) = :e ' 0; 180
3!

5.1. Lois discrètes


Chapter 5. LOIS USUELLES 96

2)

P (X > 2) = 1 [P (X = 0) + P (X = 1) + +P (X = 2)]
1 2 2 5
= 1 2
+ 2 + 2 =1 ' 0; 323:
e e e e2

5.2 Lois continues.

5.2.1 Loi uniforme:


Dé…nition 5.8 une v.a.r X sur l’espace de probabilité ( ; A; P) suit la loi uniforme sur
l’intervalle [a; b]; (on note X U (a; b)) si elle admet pour densité la fonction f dé…nie
sur R par: (
1
b a
si a x b
f (x) = (5.8)
0; ailleurs
En e¤et
Z +1 Z a Z b Z +1
1 1
f (x) dx = 0dx + dx + 0dx = [x]ba
1 1 a b a b b a
b a
= =1
b a
Donc l’expression (5:8) est bien une densité.

Espérance et Variance

a+b (b a)2
E (X) = ; V ar (X) = :
2 12

Preuve. En e¤et:
Z b
x 1 b b 2 a2 a+b
E (X) = dx = x2 a
= = :
a b a 2 (b a) 2 (b a) 2

Z b
2 x2 b 3 a3 1 b
E X = dx = x3 a
=
a b a 3 (b a) 3 (b a)
2 2
(b a) (a + ab + b ) (a + ab + b2 )
2
= =
3 (b a) 3

5.2. Lois continues.


Chapter 5. LOIS USUELLES 97

Donc
a2 + ab + b2 a2 + 2ab + b2
V ar (X) = E X 2 E2 (X) =
3 4
2 2 2
a 2ab + b (b a)
= =
12 12
La fonction de répartition de la loi U (a; b) est:
8
>
>
< 0; si x a
FX (x) = x a (5.9)
; si a x b
>
>
b a
: 1 si x b
Puisque: Z x
1 x a
F (x) = dt = ; si a < x < b
b a
a b a
lim F (x) = 0; et lim F (x) = 1
x ! 1 x !+1

Exemple 5.9 X U (10; 20) ; calculer les probabilités suivantes : P (X 12), et,
P (12 X 15).
Calculer son espérance et sa variance.

Solution. Z 12
1 1 1
P (X 12) = dx = [x]12
10 = ;
10 10 10 5
Z 20
1 1 4
P (X > 12) = dx = [x]20
12 =
12 10 10 5
Ou bien directement:
1 4
P (X > 12) = 1 P (X 12) = 1 = ;
5 5
Z 15
1 1 3
P (12 X 15) = dx = [x]15
12 = :
12 10 10 10
L’espérance et la variance:

10 + 20 (20 10)2 25
E (X) = = 15; V ar (X) = = :
2 12 3

Exemple 5.10 A partir de 7 heures, les bus passent toutes les 15 minutes à un arrêt
donné. Ils passent donc à 7h; 00, 7h; 15, 7; h30 et ainsi de suite. Un usager se présente
entre 7h; 00 et 7h; 30 à cet arrêt, l’heure exacte de son arrivée étant une variable uniforme
sur cette période. Trouver la probabilité qu’il doive attendre moins de 5 minutes, puis
plus de 10 minutes.

5.2. Lois continues.


Chapter 5. LOIS USUELLES 98

Solution. Désignons par X le nombre de minutes s’écoulant à partir de 7h; 00 jusqu’à


l’arrivée de l’usager. X N (0; 30).
a) L’attente n’est inférieure à 5 minutes que si l’usager arrive entre 7h; 10 et 7h; l5 ou
entre 7h; 25 et 7h; 30. La probabilité d’attendre moins de 5 minutes est:
Z 15 Z 30
1 1
P (10 < X < 15) + P (25 < X < 30) = dx + dx
10 30 25 30
1 1
= [x]15
10 + [x]30
30 30 25
5+5 1
= = :
30 3
b) De même, il n’attendra plus de 10 minutes que s’il arrive entre 7h; 00 et 7h; 05 ou
entre 7h; 15 et 7h; 20, donc la probabilité d’attendre plus de 10 minutes est:

Z 20Z 5
1 1
P (0 < X < 5) + P (15 < X < 20) = dx + dx
0 30 15 30
1 1 5+5 1
= [x]50 + [x]20
15 = = :
30 30 30 3

5.2.2 Loi exponentielle


La loi exponentielle est utilisée dans de nombreuses applications:
durée de fonctionnement d’une machine avant la première panne.
désintégration radioactive.
temps séparant l’arrivée de deux "clients" dans un phénomène d’attente (guichet,
accès à un serveur informatique, arrivée d’un accident du travail...).

Dé…nition 5.9 Une v.a.r X sur l’espace de probabilité ( ; A; P) est dite de loi exponen-
tielle de paramètre ( > 0) ; (on note X Exp( ) )si sa densité est donnée par:
(
exp( x); x 0
f (x) = (5.10)
0; ailleurs

En e¤et
Z +1 Z 0 Z +1
x 1 x +1
f (x) dx = 0dx + e dx = 0 + e 0
=1
1 1 0

5.2. Lois continues.


Chapter 5. LOIS USUELLES 99

Donc l’expression (5:10) est bien une densité.


La fonction de répartition de la loi Exp( ) est:
(
1 exp( x); x 0
FX (x) = (5.11)
0; ailleurs
En e¤et Z x
t 1 t x x
F (x) = e dt = e 0
=1 e ; x 0
0

Espérance et Variance:
1 1
E(X) = ; V ar(X) = 2

Preuve. En e¤et

Z +1
E(X) = xf (x)dx
1
Z Z +1
0
= 0dx + x e x dx
1 0
Z +1
x +1
= xe 0
+ e x dx
0
1 x +1 1
= e 0 =

Et
Z +1 Z +1
2 2
E(X ) = x f (x)dx = x2 e x
dx
0
Z 0+1
x +1
= x2 e 0
+2 xe x
dx
0
1 2
= 0+2 E(X) = 2;

Et en …n

2
2 2 2 1
V ar(X) = E(X ) E (X) = 2

1
= 2

Exemple 5.11 On suppose que le temps d’attente moyen entre deux bus est de 3 minutes.
Quelle est la probabilité que vous attendez plus de 5 minutes ?

5.2. Lois continues.


Chapter 5. LOIS USUELLES 100

Solution. La v.a X qui représente le temps d’attente (en minutes) entre deux bus peut
être modélisée par une loi exponentielle d’espérance égale à 3, c’est à dire de paramètre
= 13 et donc X Exp( 13 ).
Donc la probabilité d’attendre plus que 5 minutes est:
Z +1 h i+1
1 1x 1 1 5
P (X > 5) = e 3 dx = 3 e 3x =e 3 ' 0; 1889:
5 3 3 5

5.2.3 La loi normale:


La loi normale est une des principales distributions de probabilité. Elle a été introduite
par le mathématicien Abraham de Moivre en 1733 et utilisée par lui a…n d’approcher des
probabilités associées à des variables aléatoires binomiales possédant un paramètre n très
grand. Cette loi a été mise en évidence par Gauss et permet de modéliser de nombreuses
études biométriques.

Dé…nition 5.10 Une v.a.r X sur l’espace de probabilité ( ; A; P) est dite de loi Normale
2
de paramètres et (on note X N( ; ))si sa densité est donnée par:
!
1 (x )2
f (x) = p exp 2
(5.12)
2 2

F ig 6:Densité de loi normale N (0; 1)

Remarque 5.4 La fonction de répartition de la loi normale


Z x !
1 (t )2
F :x2R7 ! p exp dt
2 1 2 2

5.2. Lois continues.


Chapter 5. LOIS USUELLES 101

n’est pas exprimable à l’aide des fonctions usuelles (Puissances, trigonométriques, hyper-
boliques et leurs fonctions réciproques). Les valeurs numériques prises par la fonction de
répartition de la loi normale sont tabulées.

On peut toutefois montrer par un calcul que


En e¤et
Z !
+1 2
1 (t )
lim F (x) = p exp 2
dt = 1
x !+1 2 1 2
Preuve. Désignons par I la valeur de la limite. Il s’agit de montrer que I = 1. Re-
t
marquons pour cela que le changement de variable y = permet d’établir que on
obtient donc:
Z ! Z
1 +1
(t )2 1 +1
1 2
I= p exp 2
dt = p exp y dy:
2 1 2 2 1 2
Remarquons que I est un réel strictement positif car la fonction intégrée est une fonction
strictement positive sur R; Considérons l’application
(x21 + x22 )
: (x1 ; x2 ) 2 R2 7 ! exp
2
On a d’une part
Z Z
RR +1
1 2 +1
1 2
(x1 ; x2 ) dx1 dx2 = exp x dx1 exp x dx2 = 2 I2
R2
1 2 1 1 2 2
Et d’autre part, en utilisant un changement de coordonnées polaires, on obtient
Z 2 Z +1
RR r2
R2
(x 1 ; x 2 ) dx 1 dx 2 = exp rdrd
0 0 2
Z +1 +1
r2 r2
= 2 exp rdr = 2 exp
0 2 2 0
= 2

On déduit que 2 I 2 = 2 ce qui permet de conclure, puisque I est un réel positif, que
I = 1:
Donc f est bien une densité.

Espérance et Variance:
2
E(X) = ; V ar(X) =
Preuve. En e¤et: Z +1
1 1
( x ) dx
2
E (X) = p xe 2
2 1

5.2. Lois continues.


Chapter 5. LOIS USUELLES 102

Faisons le changement de variable:


x
y= =) x = y + =) dx = dy

Preuve.
Z +1 Z +1
1 1 x
( )
2 1 1 2
y
E (X) = p xe 2 dx = p ( y + )e 2 dy
2 1 2 1
Z +1 Z +1
1 1 x 2
e 2 ( ) dy
1 2
y
= p ye 2 dx + p
2 1 2 1
1 h i
1 2 +1
= p e 2y + 1=0+ =
2 1

On rappelle que pour tout réel positif et pour tout fonction impaire et continue sur
R+
[ ; + ], on a h (x) dx = 0:
2) On véri…e par un calcul analogue que E (X 2 ) = 2 + 2 , ce qui permet d’établir que
2
V ar (X) = :
En e¤et
Z +1 Z +1
1 ( x
)
2 1 1 1 2
E X 2
= p xe 2
dx = p 2 ( y + )2 e 2 y dy
1 2 2 1
2 Z +1 Z +1 2 Z +1
1 2 1 2 1 2
2 y y y
= p y e 2 dy + 2 p ye 2 dy + p e 2 dy
2 1 2 1 2 1
2 Z +1 2 Z +1
1 2 1 2
y
= p y:ye 2 dy + 0 + p e 2 y dy
2 1 2 1

Or Z +1 h i+1 Z +1
1 1 2
y 1 2
y 1 1 2
y
p y:ye 2 dy = ye 2 +p e 2 dy
2 1 1 2 1
D’où Z +1
2 2 2 1 1 2
y 2 2
E X = + :p e 2 dy = +
2 1
Et
2 2 2 2
V ar (X) = + =

Théorème 5.4 (très important) Soit X une v.a continue. Et soit Z la v.a centrée et
réduite associe à X: Alors

2 X
X N( ; ) () Z = N (0; 1)

5.2. Lois continues.


Chapter 5. LOIS USUELLES 103

Preuve. =)? Prouvons l’équivalence logique dans un premier sens:


Soit X N ( ; 2 ) et considérons la v.a Z centrée et réduite associée à X. on a

X
8x 2 R; FZ (x) = P (Z x) = P x = P (X + x)
Z + x
1 1 2
( t ) dt
= FX ( + x) = p e 2
2 1

Posons
t
z= =) t = + z =) dt = dz
Z x
1 1 2
FZ (x) = p e 2 z dz
2 1
On reconnait ici la fonction de répartition de la loi normale correspondant à Z = 0 et
Z = 1. Ce qui montre que Z suit la loi normale de paramètres 0 et 1
(=? Soit X une v.a continue admettant une espérance mathématique et une et un
X
écart-type : Telle que Z = N (0; 1). Cherchons la fonction de répartition de X:

X x x
8x 2 R; FX (x) = P (X x) = P =P Z
Z x
x 1 1 2
z
= FZ =p e 2 dz
2 1

Faisons le changement de variable


1
t= z+ =) dz = dt

On obtient Z x
1 1 x 2
FX (x) = p e 2 ( ) dt
2 1
Ce reconnait ici la fonction de répartition de la loi normale de paramètres et : Ce
2
qui montre que X N( ; )

Dé…nition 5.11 . Si Z N (0; 1) on dénote la fonction de répartition de Z par (:).


Donc, on a Z Z
x x
1 1 2
t
(x) = P (Z x) = p e 2 dt
1 2 1

2
Remarque 5.5 Tout calcul de probabilités à partir d’une loi normale N ( ; ) se ramène
donc par réduction (conséquence du théorème ci-dessus ) à un calcul de probabilité à partir
de N (0; 1)

5.2. Lois continues.


Chapter 5. LOIS USUELLES 104

Remarque 5.6 On peut aussi remarquer que si Z est de loi N (0; 1), alors Z aussi et
donc, pour u > 0,

P( u Z u) = P (Z u) P (Z u) = P (Z u) P (Z u)
= P (Z u) 1 + P (Z u) = 2P (Z u) 1

Exemple 5.12 Supposons que la v.a X égale au poids d’un nouveau-né suive une loi
normale de moyenne 3; 2 kg et d’écart-type 0; 4 kg:
1) Quelle est la probabilité qu’un nouveau-né pèse plus de 4 kg?
2) Quelle est la probabilité qu’un nouveau-né pèse moins de 3 kg?
3) Quelle est la probabilité qu’un nouveau-né pèse entre 2; 8 kg et 3; 6 kg?

Solution. 1)

X 3; 2 4 3; 2
P (X > 4) = P > = P (Z > 2) = 1 FZ (2)
0; 4 0; 4
= 1 0; 977725 = 0; 02275

2)

X 3; 2 3 3; 2
P (X < 3) = P < = P (Z < 0; 5) = 1 FZ (0; 5)
0; 4 0; 4
= 1 0; 6951 = 0; 3085

3)

2; 8 3; 2 X 3; 2 3; 6 3; 2
P (2; 8 < X < 3; 6) = P < <
0; 4 0; 4 0; 4
= P ( 1 < Z < 1) = FZ (1) FZ ( 1) = [1 FZ (1)]
= 2FZ (1) 1=2 0; 8413 1 = 0; 6826

Approximation de la loi de Poisson

Lorsque ! 1, il est possible d’approximer une loi de Poisson P ( ) par une loi normale
p
N ; .
En pratique, dès 18, nous obtenons une approximation satisfaisante, par exemple

5.2. Lois continues.


Chapter 5. LOIS USUELLES 105

pour = 18, nous avons la distribution de la loi de Poisson (voir F ig 7) :

F ig 7. Approximation Poisson par Normale

5.2.4 Loi Log-Normale


Dé…nition 5.12 Soit Y une v.a.de loi normale d’espérance et d’écart type . La v.a.
X = eY suit une loi dite Log-Normale de paramètres et ( 2 R; > 0 ). On notera
par X LN ( ; ) :
La fonction de densité de Y est donnée alors par:
!
1 1 (ln x )2
f (x) = p : exp 2
; x > 0: (5.13)
2 x 2

La représentation de la densité de loi Log normale est donnée par (F ig 8):

F ig 8: Densité de loi Log normale

Espérance et Variance
1 2 2 2
E (X) = exp + ; V ar (X) = exp 1 exp 2 +
2

5.2. Lois continues.


Chapter 5. LOIS USUELLES 106

Remarque 5.7 La loi Log-normale a beaucoup d’applications en géologie.

5.2.5 Loi Gamma


Dé…nition 5.13 La v.a.r. X sur l’espace de probabilité ( ; A; P) suit une loi Gamma de
paramètres ( ; ) (on note X ( ; )) si elle est à valeurs dans R+ et pour densité la
fonction (
1 1 x
( )
x e ; si x 0
f (x) = ; > 0; >0 (5.14)
0; ailleurs
où Z +1
1
( )= x e x dx
0

Remarque 5.8 La fonction Gamma prolonge la fonction factorielle sur l’ensemble des
réels au sens où

8n 2 N; (n + 1) = n! et 8 > 0; ( + 1) = ( )

De plus on a
1 p
=
2
En e¤et Z +1
( + 1) = x e x dx
0
Faisons une intégration par partie
Z +1
x +1 1
( + 1) = x e 0
+ x e x dx = ( )
0

et Z +1
x +1
(1) = e x dx = e 0
= 1 = 0!
0
Z +1
x +1
(2) = xe x dx = xe 0
+ (1) = 1 = 1!
0
Z +1
x +1
(3) = x2 e x dx = x2 e 0
+ 2 (2) = 2 = 2!
0
Z +1
x +1
(4) = x3 e x dx = x3 e 0
+ 3 (3) = 3 2 = 3!
0
Z +1
x +1
(5) = x4 e x dx = x4 e 0
+ 4 (4) = 4 3 2 = 4!
0
On peut montrer par récurrence que

8n 2 N; (n + 1) = n!

5.2. Lois continues.


Chapter 5. LOIS USUELLES 107

Supposons que la proposition soit vraie pour n et on démontre qu’elle est vraie pour
n+1
Z +1 Z +1
n+1 x n+1 x +1
(n + 2) = x e dx = x e 0
+ (n + 1) xn e x dx
0 0
= (n + 1) (n + 1) = (n + 1) n! = (n + 1)!

En e¤et, Posons y = x =) dx = 1 dy; d’où


Z +1 Z +1
1 1 x 1 1
x e dx = 1 y e y dy = ( )=1
0 ( ) ( ) 0 ( )

Donc l’expression(5:14) est bien une densité.

Espérance et Variance

E (X) = ; V ar (X) = 2

Preuve.
Z +1
1
E (X) = x x 1 exp ( x) dx
0 ( )
Z +1
= x exp ( x) dx
( ) 0

y
Faisons le changement de variable y = x =) x = =) dx = 1 dy
Z +1
y y
E (X) = exp dy
( ) 0
Z +1
= +1 y exp ( y) dy
( ) 0
1 1
= ( + 1) = ( )
( ) ( )
= :

5.2. Lois continues.


Chapter 5. LOIS USUELLES 108

En utilisant la même méthode


Z +1
2 1
E X = x2 x 1 exp ( x) dx
0 ( )
Z +1
= x +1 exp ( x) dx
( ) 0
Z +1 +1
y y
= exp dy
( ) 0
Z +1
= +2 y exp ( y) dy
( ) 0
1 1
= 2 ( + 2) = 2 ( + 1) ( + 1)
( ) ( )
1
= 2 ( + 1) ( )
( )
( + 1)
= 2

Et en …n
2
( + 1)
V ar (X) = 2 2 = 2

Cas particuliers 1) La loi Gamma ( ; 1) nous donne la loi exponentielle Exp ( )


n 1
2) La loi Gamma ; , (n 2 N ) nous donne une distribution dite de Khi-deux
2 2
à n degrés de libertés.

5.2.6 Loi du Kh-deux


Nous avons déjà vu que la loi de Kh-deux à n degrés de libertés c’est un cas particulier
n
de la loi Gamma ( ; ) où = 2
et = 12 :

Dé…nition 5.14 Soient X1 , :::, Xn , n variables aléatoires indépendantes identiquement


distribuées de loi N (0; 1). La loi du Kh-deux à n degrés de liberté est la loi de la variable
Pn
aléatoire 2n = Xk2
k=1
La densité de cette loi est donnée par:
n
1 x 2
1 1
f 2 (x) = n
exp x ; x>0 (5.15)
n
2 2
2 2

Espérance et Variance

E (X) = n; V ar (X) = 2n

5.2. Lois continues.


Chapter 5. LOIS USUELLES 109

5.3 Résumé:
5.3.1 Lois discrètes

Non de la Loi Ens de valeurs Masse;P (X = k) Espérance Variance


1 N +1 N2 1
Uniforme UN f0; 1; :::; N g N 2 12
P (X = 1) = p
Bernoulli B (p) f0; 1g p p (1 p)
P (X = 0) = 1 p
Binomiale B (n; p) f0; 1; :::; ng Cnk pk (1 p)n k
np np (1 p)
k Cn k
CM
Hypergéométrique f0; 1; 2; :::; M g N M
n
CN
np np (1 p) N
N
n
1

Géométrique G (p) N p (1 p)k 1 1


p
p 1
p
k
e
Poisson P ( ) N k!

5.3.2 Lois continues


Non de la Loi Ces valeurs Masse;P (X = k) E (X) V ar (X)
1 a+b N2 1
Uniforme U (a; b) [a; b] b a 2 12
1 1
Exponentielle E ( ) R+ e x
2
(x )2
Normale N ( ; 2
) R p1 e 2 2
2
2
(ln x )2
p1 + 12 2 2 2
Log-Normale LN ( ; 2
) R+ 2
: x1 e 2 2 e e 1 e2 +

1
Gamma ( ; ) R+ ( )
x 1
e x
2
n
2 1 x 1 1
x
Khi-deux n R+ 2
e 2 n 2n
( n2 ) 2

5.4 Théorème centrale limite


P
n
Notons Sn = Xi :
i=1

5.4.1 Loi Faible des Grands Nombres


Théorème 5.5 Si X1 ; :::; Xn sont indépendantes et identiquement distribuées
d’espérance , alors pout tout " > 0

Sn
lim P " =0
n!1 n
Preuve. Inégalité de Chebyshev dit que si " > 0 on a

V ar (X)
P (jX j ") = ;
"2

5.3. Résumé:
Chapter 5. LOIS USUELLES 110

Sn
on remplace X par n
;on trouve

Sn V ar Snn
P " =
n "2
V ar (Sn ) n 2 2
= = = ;
n 2 "2 n 2 "2 n"2
on a donc
Sn
lim P " =0
n!1 n

5.4.2 Loi Forte des Grands Nombres


Théorème 5.6 Si X1 ; :::; Xn sont indépendantes et identiquement distribuées
d’espérance , alors
Sn
P lim = =1
n!1 n

5.4.3 Théorème Central Limite


Théorème 5.7 Soit X1 ; :::; Xn une suite de variables aléatoires indépendantes (discrètes
ou continues) ayant la même loi de distribution, d’espérance et d’écart-type . Alors
p
n
lim P (Sn n ) x = (x) ; (6.1)
n!1

avec est la fonction de répartition de loi normale centrée et réduite.

Remarque 5.9 Le théorème central limite dit que dans toute suite d’épreuves répétées la
moyenne d’échantillonnage centrée réduite Zn approche la courbe normale centrée réduite
Z N (0; 1), quand le nombre d’épreuves augmente.
p
n
(Sn n ) ' Z (6.2)

Par conséquent on a
p
n
lim P a (Sn n ) b = (b) (a) (6.3)
n!1

Exemple 5.13 Dans un circuit électrique 10 éléments sont montés en série. La résistance
de chaque élément, Rk , est répartie selon la même loi de probabilité avec moyenne =
2
100 et variance =1 :

5.4. Théorème centrale limite


Chapter 5. LOIS USUELLES 111

Quelle est la probabilité que la résistance totale soit comprise entre 995 et 1005 ?
Solution. On a
R = R1 + R2 + ::: + R10

avec
E(Rk ) = 100 et V ar(R) = 1; k = 1; 2; :::; 10

Alors, R N (1000; 10): Soit Z N (0; 1): Donc on a

995 1000 R 1000 1005 1000


P (995 R 1005) = P ( p p p )
10 10 10
= P ( 1; 581 Z 1; 581) = (1; 581) ( 1; 581) = 2 (1; 581) 1
0; 860:

5.5 Exercices
Exercice 5.1 On pose 20 questions à un candidat. Pour chaque question k réponses sont
proposées dont une seule est la bonne. Le candidat choisit au hasard une des réponses
proposées.

1) On lui attribue un point par bonne réponse. Soit X le nombre de points obtenus.
Quelle est la loi de X ?
2) Lorsque le candidat donne une mauvaise réponse, il peut choisir à nouveau une des
1
autres réponses proposées. On lui attribue alors 2
point par bonne réponse. Soit Y le
nombre de 12 points obtenus lors de ces seconds choix. Quelle est la loi de Y ?
3) Soit S le nombre total de points obtenus. Déterminer k pour que le candidat obtienne
en moyenne une note de 5 sur 20:
Solution. 1). On note Xi le résultat du candidat à la question i. Les v.a.d. (Xi ; 1
1
i 20) sont des v.a.d. de Bernoulli indépendantes et de même paramètre P (Xi = 1) = k
P20
comme X = Xi , la loi de X est donc la loi binomiale B(20; k1 ).
i=1
2). Si Xi = 0, on note Yi le résultat du candidat à la question i lors du second choix.
P
20
Si Xi = 1,on pose Yi = 0. Ainsi Y = Yi représente le nombre de bonnes réponses au
i=1
deuxième choix. Les v.a.d. (Yi ; 1 i 20) sont des v.a.d. indépendantes et de même
loi. Comme elles sont à valeurs dans f0; 1g, il s’agit de v.a. de Bernoulli. On détermine

5.5. Exercices
Chapter 5. LOIS USUELLES 112

leur paramètre :

P (Yi = 1) = P (Yi = 1; Xi = 0)
= P (Yi = 1=Xi = 0) P (Xi = 0)
1 k 1 1
= = :
k 1 k k
Donc Y suit la loi binomiale B(20; k1 ). On remarquera que les v.a.d. X et Y ne sont
pas indépendantes.
3). Le nombre total de points est S = X + 21 Y , Il vient E (S) = E (X) + 21 E (Y ) =
20
k
+ 10k
= 30
k
.
Il faut prendre k = 6:

Exercice 5.2 Une entreprise pharmaceutique décide de faire des économies sur les tarifs
d’a¤ranchissements des courriers publicitaires à envoyer aux clients. Pour cela, elle décide
d’a¤ranchir, au hasard, une proportion de 3 lettres sur 5 au tarif urgent, les autres au
tarif normal.
1) Quatre lettres sont envoyées dans un cabinet médical de quatre médecins : quelle est
la probabilité des événements:
A: "Au moins l’un d’entre eux reçoit une lettre au tarif urgent".
B: "Exactement 2 médecins sur les quatre reçoivent une lettre au tarif urgent".
2) Soit X la variable aléatoire : «nombre de lettres a¤ranchies au tarif urgent parmi
10 lettres» : Quelle est la loi de probabilité de X, quelle est son espérance, quelle est sa
variance?

Solution. 1) On utilise une loi binomiale, loi de la v.a : «nombre de lettres a¤ranchies
3
au tarif urgent parmi 4 lettres» n = 5, p = 5
On obtient
4
2
P (A) = 1 = 0; 9744
5
Et
2 2
2 3
P (B) = C42 = 0; 3456:
5 5
2) La loi de probabilité de X est une loi binomiale, loi de la v.a
3
: «nombre de lettres a¤ranchies au tarif urgent parmi 10 lettres» . n = 10, p = 5
, son
espérance est
3
E (X) = np = 10 =6
5
Et sa variance est
3 2 12
V ar (X) = np(1 p) = 10 = :
5 5 5

5.5. Exercices
Chapter 5. LOIS USUELLES 113

Exercice 5.3 Soit X B (n; p). Montrer que pour tous entiers naturels k; n; (k n)
on a (
(1 p)n si k = 0
P (X = k) = n k+1 p
k 1 p
(X = k 1) si j 1
Solution. Pour k = 0;

P (X = 0) = Cn0 p0 (1 p)n 0
= (1 p)n

Pour k 1:

P (X = k) = Cnk pk (1 p)n k
n!
= pk (1 p)n k
k! (n k)!
n!
= pk 1 (1 p)n k+1
(k 1)! (n k + 1)!
p n k+1 k 1 k 1
= Cn p (1 p)n (k 1)
1 p k
n k+1 p
= P (X = k 1)
k 1 p

Remarque 5.10 Cette formule est particulièrement utile lorsque n est grand et k petit.

Exercice 5.4 On sait par expérience que 70% des personnes atteintes d’un certain type
de cancer …nissent par en mourir. Dans une petite ville, 5 habitants sont atteints de la
maladie.
a) Quelle est la probabilité qu’exactement deux des cinq …nissent par en mourir?
b) Quelle est la probabilité qu’au moins une des cinq …nisse par en mourir?

Solution. Cette expérience est binomiale de paramètres n = 5; p = 0; 7:


a)
2 3
2 7 3
P (X = 2) = C5 = 0; 1323
10 10
b)

P (X 1) = 1 P (X < 1)
= 1 P (X = 0)
0 5
7 3
= 1 C50 = 0; 99757
10 10

5.5. Exercices
Chapter 5. LOIS USUELLES 114

Exercice 5.5 Un examen de 8 questions objectives donne pour chaque question un choix
de quatre réponses dont une seule est correcte. Pour réussir l’examen il faut avoir au
moins 5 bonnes réponses. Quelle est la probabilité qu’un étudiant qui ne connaît pas sa
matière et répond au hasard réussisse?

Solution. Soit X la variable aléatoire qui compte le nombre des réponses correctes;
X B 8; 41

P (X 5) = P (X = 5) + P (X = 6) + P (X = 7) + P (X = 8)
5 3 6 2 7 8 0
1 3 1 3 1 3 1 3
= C85 + C86 + C87 + C88
4 4 4 4 4 4 4 4
= 0; 027298

Exercice 5.6 Soit une urne contient 4 boules blanches et 6 boules noires. Toutes les
boules sont équiprobables.
1) On tire simultanément 5 boules et on désigne par X la v.a. égale au nombre
de boules blanches obtenues. Déterminer la loi de probabilité de X. Calculer E (X) et
V ar (X) :
2) On tire maintenant les cinq boules successivement en remettant chaque fois la boule
tirée dans l’urne avant le suivant. Soit Y la v.a égale au nombre de boules blanches
obtenues après cinq tirages. Déterminer la loi de probabilité de Y . Calculer E (Y ) et
V ar (Y ) :

Solution. 1) X suit la loi hypergéométrique H (10; 4; 5) ;

X ( ) = f0; 1; 2; 3; 4g
( C4k C65 k
5
C10
; si k 2 f0; 1; 2; 3; 4g
P (X = k) =
0; ailleurs
P
xi 0 1 2 3 4
C40 C65 6 C41 C64 60 C42 C63 120 60 6
Pi 5
C10
= 252 5
C10
= 252 5
C10
= 252 252 252
1
60 240 180 24
x i Pi 0 252 252 252 252
2
60 480 540 96 14
x2i Pi 0 252 252 252 252 3

Donc on tire du tableau ci-dessus


P
5
E (X) = xi P (X = xi ) = 2
i=1

5.5. Exercices
Chapter 5. LOIS USUELLES 115

P
5 14
E X2 = x2i P (X = xi ) =
i=1 3
et
14 1
V ar (X) = E X 2 E2 (X) = 4=
3 3
2) Y suit la loi binomiale N 5; 52
k 5 k
2 3
P (Y = k) = C5k
5 5
2
E (X) = np = 5 = 10
5
2 3 6
V ar (X) = npq = 5 = :
5 5 5

Exercice 5.7 Une population comporte en moyenne une personne mesurant plus de
1m 90 sur 80 personnes. Sur 100 personnes, calculer la probabilité qu’il y ait au moins
une personne mesurant plus de 1; 90 m (utiliser une loi de Poisson). Sur 300 personnes,
calculer la probabilité qu’il y ait au moins une personne mesurant plus de 1; 90 m

Solution. Le nombre X de personnes mesurant plus de 1; 90 m parmi 100 obéit à une


loi de Poisson de paramètre 10080
.
La probabilité qu’il y ait au moins une personne mesurant plus de 1; 90 m est donc
100
P (X 1) = 1 P [X = 0] = 1 e 80 = 0; 7135:

Sur 300 personnes : la probabilité qu’il y ait au moins une personne mesurant plus de
1; 90 m est donc

300
P (Y 1) = 1 P [Y = 0] = 1 e 80 = 0; 97648

Exercice 5.8 (Loi de Laplace). Soient un nombre réel donné et f une fonction dé…nie
pour tout réel x par:
1
f (x) = e jx j
2
1) Démontrer que f est fonction de densité d’une v.a.r. X
2) Déterminer la fonction de répartition F de X:
3) Calculer E(X) et V ar(X).

5.5. Exercices
Chapter 5. LOIS USUELLES 116

1
Solution. 1) 8x 2 R; 2
e jx j
0 et
Z +1 Z Z +1
1 jx j 1 (x ) 1 (x )
e dx = e dx + e dx
1 2 1 2 2
1 (x ) 1 (x ) +1
= e 1
e
2 2
1 1
= + =1
2 2
Donc f est bien une fonction de densité.
2) si x < Z x
1 (t ) 1 (t ) x 1 (x )
F (x) = e dt = e 1
= e
1 2 2 2
si x
Z x
1 (t ) 1 ) x 1
F (x) = e dt = e (t = e (x )
+1
2 2 2
D’où (
1
2
e(x )
; si x <
F (x) = 1 (x )
2
1 e ; si x
3)
Z Z +1
1 (x ) 1 (x )
E(X) = xe dx + xe dx
1 2 2
1 1 (x 1 ) +1 1 ) +1
= xe(x ) 1 e )
1
+ xe (x
e (x
2 2 2 2
1 1
= + + =
2 2 2 2

Z Z +1
2 1 2 (x ) 1 2 (x )
E(X ) = xe dx + xe dx
1 2 2
Z Z +1
1 2 (x ) (x ) 1 2 (x ) +1 (x )
= xe 1
xe dx + xe + xe dx
2 1 2
2 2
2
= +1+ +1= +2
2 2
2 2
V ar (X) = E(X 2 ) E2 (X) = +2 =2

Exercice 5.9 Un appareil électronique envoie à une imprimante un code qui est un
nombre de quatre chi¤res, chaque chi¤re ne pouvant prendre que les valeurs 0 ou 1 (par
exemple : 1011).

5.5. Exercices
Chapter 5. LOIS USUELLES 117

1) Combien l’appareil peut-il fabriquer de codes distincts ?


2) On supposera que tous ces codes ont la même probabilité d’être produits..Soit X
la variable aléatoire représentant le nombre de 1 …gurant dans le code. Donner la loi de
probabilité de X et calculer son espérance mathématique et sa variance.

Solution. 1) . Il y a deux possibilités pour chaque chi¤re, soit 24 = 16:


2) X peut prendre les valeurs 0; 1; 2; 3 ou 4. La loi de X est une loi binomiale
B 4; 12 :
Son espérance est
1
E (X) = np = 4 =2
2
Sa variance est
1 1
V ar (X) = npq = 4 = 1:
2 2

Exercice 5.10 On estime que 1400 passagers ont réservé, le vendredi soir, sur le TGV
Paris-Nantes de 19h300 :
Les portes du train ouvrent une demi-heure avant le départ. Parmi les usagers, 50
arrivent avant l’ouverture des portes et 70 arrivent trop tard. On considère la variable
aléatoire X, égale à la date d’arrivée d’un voyageur calculée par rapport à 19h30. (X = 0
à 19h300 et X est exprimé en minutes).
1) En admettant que cette variable X suit une loi N ( ; ), calculer et .
2) Déterminer l’heure à laquelle les portes du train doivent être ouvertes pour qu’il n’y
ait pas plus de 20 usagers qui attendent sur le quai.
3) Calculer le nombre de voyageurs ayant manqué le train si celui-ci accuse un retard
de 5 minutes.

Solution. 1) L’origine des heures d’arrivée est placée à 19h300 . X est l’heure d’arrivée
d’un voyageur comptée à partir de 19h300 et exprimée en minutes.
Parmi l’ensemble des 1400 passagers, X, variable statistique, représente l’heure
d’arrivée des voyageurs, qui est décrite par sa distribution statistique.
Si on tire un voyageur au hasard, X est la variable aléatoire « heure d’arrivée du
voyageur » , dont la loi-parente est la loi de description statistique précédente et dont les
probabilités peuvent être calculées à partir des fréquences observées dans l’ensemble de
la population.

5.5. Exercices
Chapter 5. LOIS USUELLES 118

La variable aléatoire X suit la loi N ( ; ). Soit U la variable centrée réduite associée.


On sait que 30 passagers arrivent une demi-heure avant le départ :

X 30 50
P (X 30) = P = P (U u0 ) =
1400

P (U u0 ) = 1 P (U u0 ) = 0; 357; P (U u0 ) = 0; 96429

Dans la table de la loi normale centrée réduite, on lit:

F (1; 81) = 0; 9649 et F (1; 80) = 0; 9641

Par interpolation linéaire on a donc:

u0 1; 80 0; 9643 0; 9641 0; 0002 1


= = =
1; 81 1; 80 0; 9649 0; 9641 0; 0008 4
D’où:
30 +
u0 = 1; 803 et u0 = 1; 803 =

Par ailleurs, 70 passagers arrivent trop tard:

X 70
P (X 0) = P =
1400
P (U u1 ) = 1 P (U u1 ) = 0; 05 soit P (U u1 ) = 0; 95

Dans la table de la loi normale centrée réduite on lit:

F (1; 64) = 0; 9495 et F (1; 65) = 0; 9505

Par interpolation linéaire on a donc:

u1 = 1; 645 =

On a donc le système:
( (
30+
1; 803 = = 14; 31 mn
=)
1; 645 = = 8; 70 mn

2) La variable aléatoire X suit la loi N ( 14; 31; 8; 7): On doit déterminer a pour que:

X + 14; 31 a + 14; 31
P (X a) = P
8; 7 8; 7

a + 14; 31 20
P (X a) = P U u2 = = = 0; 00143
8; 7 1400

5.5. Exercices
Chapter 5. LOIS USUELLES 119

P (U u2 ) = P (U u2 ) = 1 P (U u2 ) = 0; 00143

P (U u2 ) = 1 0; 00143 = 0; 9857

Dans la table de la loi normale centrée réduite on lit:

F (2; 19) = 0; 9857


14; 31 a
u2 = = 2; 19 et a = 33; 36 mn = 33 mn et 20s
8; 7
Il faut donc ouvrir les portes du train 33 minutes avant le départ.
3) Soit n le nombre de personnes ayant manqué le train, parti avec 5 mn de retard:

X + 14; 31 5 + 14; 31 19; 31


P (X 5) = P =P U
8; 7 8; 7 8; 7
n
P (X 5) = p =
1400
P (X 5) = P (U 2; 217)

P (U 2; 21) = 1 P (U 2; 21) = 1 F (2; 21) = 1 0; 9864 = 0; 0136

P (U 2; 22) = 1 P (U 2; 22) = 1 F (2; 22) = 1 0; 9868 = 0; 0132

Par interpolation linéaire on a donc


p 0; 0136 2; 217 2; 21 0; 007 7
= = =
0; 0132 0; 0136 2; 22 2; 21 0; 01 10
p = 0; 01332 et n = 1400 p = 18; 648

Il y aura donc, si le train accuse 5 minutes de retard, 19 personnes qui manqueront le


train.

Exercice 5.11 1) Soit Z une v.a. de loi N (0; 1). Calculer les probabilités suivantes:
P ( 1 Z 1), P ( 2 Z 2) et P ( 3 Z 3) :
2) Soit X une v.a. de loi N ( ; ). Calculer les probabilités suivantes:
P( X + ); P ( 2 X + 2 ) et P ( 3 X + 3 ):

Solution. 1)

P( 1 Z 1) = P (Z 1) P (Z 1) = P (Z 1) P (Z 1)
= P (Z 1) 1 + P (Z 1) = 2P (Z 1) 1
= 2FZ (1) 1=2 0; 8431 1 = 0; 6862

5.5. Exercices
Chapter 5. LOIS USUELLES 120

par la même méthode on obtient:

P( 2 Z 2) = 0; 9544

P( 3 Z 3) = 0; 9973
2)

X
P( X + ) = P 1 1

= P( 1 Z 1) = 0; 6862

par la même méthode on obtient:

P( 2 X +2 )=P ( 2 Z 2) = 0; 9544

P( 3 X +3 )=P ( 3 Z 3) = 0; 9973

Exercice 5.12 Si X N ( ; ) et que P (X 89) = 0; 90 et P (X 94) = 0; 95, calculer


alors et .

Solution.
89 89
P (X 89) = 0; 90 , P (Z ) = 0; 90 , FZ ( ) = 0; 9:

Donc
89
= 1; 28 ::: (1)

D’autre part,

P (X < 94) = 0; 95 , P (U < 94 ) = 0; 95 , F (94 ) = 0; 95:

Donc
94
= 1; 645 ::: (2)

La résolution du système formé des équations (1) et (2), donne

71; 46 et 13; 7:

5.5. Exercices
Chapter 5. LOIS USUELLES 121

Exercice 5.13 Soit X une v.a.r suivant une loi de densité:


1
f (x) = p e x ; pour x > 0
x
Soit Y une autre v.a.r. On suppose que la loi conditionnelle de Y sachant X est une
1
loi normale de paramètres = 0 et 2 = 2x
1) Calculer la loi du couple (Y; X)
2) Quelle est la loi conditionnelle de X sachant Y ?
3) En déduire E (X=Y ) :
1
Solution. Y N 0; 2X i:e

1 1
2xy 2 1 xy 2
f (y=x) = q e 2 =p e
2
x
2x

1) Nous avons, par dé…nition, la densité conditionnelle de Y sachant X est donnée par

f (y; x)
f (y=x) =
f (x)

On en déduit la loi du couple, pour x > 0:


1 1 1
e x(1+y )
2
xy 2 x
f (y; x) = q e p e =
2 x
x

2) Loi conditionnelle de X sachant Y: Cherchons tout d’abord la loi mrginale de Y


Z +1 Z +1
1 x(1+y2 )
f (y) = f (y; x)dx = e dx
0 0
+1
1 1 1
e x(1+y )
2
= 2
=
1+y 0 (1 + y 2 )

e x(1+y )
2
1
f (y; x)
= 1 + y 2 e x(1+y )
2
f (x=y) = = 1
f (y) (1+y 2 )

3) L’espérance
Z +1 Z +1
1 + y 2 e x(1+y ) dx
2
E (X=Y ) = f (x=y)dx =
0 0
h i+1
e x(1+y )
2
= = 1:
0

5.5. Exercices
Part II

STATISTIQUE

122
CHAPTER 6

STATISTIQUE DESCRIPTIVE

La statistique s’applique à la plupart des disciplines: médecine, agronomie, biologie, dé-


mographie, économie, sociologie, linguistique, psychologie, industrie etc . . .
L’étude de la statistique a été divisée en deux parties:
La statistique descriptive, qui est un ensemble de méthodes permettant de décrire les
unités statistiques qui composent une population.
La statistique mathématique dont l’objet est de formuler des lois à partir de
l’observation d’échantillons,. La statistique mathématique intervient dans les enquêtes
et les sondages. Elle s’appuie sur la statistique descriptive, ainsi que sur les probabilités
pour formuler des lois à partir de l’observation d’échantillons.

6.1 Dé…nitions de base


Dé…nition 6.1 La Statistique est une méthode qui consiste à réunir des données chi¤rées
sur des ensembles nombreux, puis à les analyser, à les interpréter, à les commenter, à les
critiquer et à tirer des conclusions pour prendre la décision qu’il faut.

On donne aussi un certain nombre de termes statistiques qui seront utilisés par la suite.
Population: est l’ensemble concerné par une étude statistique.
Individu (ou unité statistique): désigne tout élément de la population considérée.
Echantillon: dans une étude statistique, il est fréquent que l’on n’observe pas toute
la population.
L’échantillon est le sous-ensemble de la population sur lequel sont e¤ectivement réalisées
les observations.
Taille de l’échantillon: c’est le nombre d’individus qu’il contient. (En général, on

123
Chapter 6. STATISTIQUE DESCRIPTIVE 124

la note par n)
Enquête (statistique): c’est l’ opération consistant a observer l’ensemble des indi-
vidus d’un échantillon.
Recensement: (enquête exhaustive) enquête dans laquelle l’échantillon observé est
en fait toute la population.
Sondage (enquête non exhaustive): enquête dans laquelle l’échantillon observé est
un sous-ensemble strict de la population.
Variable statistique: c’est une caractéristique, dé…nie sur la population et observée
sur l’échantillon.
Mathématiquement: Une variable statistique est une application dé…nie sur
l’échantillon.
Modalités: sont les di¤érentes valeurs que peut prendre par la variable statistique.
On distinguera deux types de variables statistiques:
1 Variables qualitatives: sont celles prenant des valeurs non numériques (les
modalités sont des catégories).
2 Variables quantitatives: sont celles prenant des valeurs numériques.
Données: c’ est l’ensemble des variables considérées et ces observations sur les
individus.
Les données sont en général présentées sous forme de tableaux (individus en lignes et
variables en colonnes) .

6.1.1 Langage probabiliste et langage statistique


Probabilités Statistique
Espace fondamental Population
Epreuve Tirage (d’un individu), expérimentation
Evènement élémentaire Individu, observation
Variable aléatoire Variable, caractère
Epreuves répétées Echantillonnage
Nombre de répétitions d’une épreuve Taille de l’échantillon, e¤ectif total
Probabilité Fréquence observée
Loi de probabilité Distribution observée ou loi empirique
Espérance mathématique Moyenne observée
Variance mathématique Variance observée

Exemple 6.1 On considère l’ensemble des étudiants de la faculté de médecine dans une
université. On s’intéresse aux nombre d’enfants dans la famille de chaque étudiant. Dans

6.1. Dé…nitions de base


Chapter 6. STATISTIQUE DESCRIPTIVE 125

ce cas
La population est = ensemble des étudiants de la faculté.
Individu: tout étudiant inscrit à la faculté.
La variable statistique X désigne le nombre d’enfants, donc elle est quantitative et
prend ces valeurs dans
X ( ) = f0; 1; 2; 3; 4; :::g
Echantillon: on prend par exemples les étudiants de première année en pharmacie.
Taille de l’échantillon est l’e¤ectif des étudiants de première année en pharmacie.
Si on fait l’étude sur tous les étudiants de faculté, on parle de recensement.

6.2 Statistique unidimensionnelle


On considère ici une seule variable statistique, notée X.
Dans cette section, nous présenterons successivement les cas d’une variable quantitative
discrète, quantitative continue, et en …n qualitative.

6.2.1 Variable quantitative discrète


On introduit tout d’abord la notion de tableau statistique: commençons par arranger les
données par ordre croissant. Ce tableau fait intervenir les notions d’e¤ectif, de fréquence,
d’e¤ectif cumulé et de fréquence cumulée.
Les représentations graphiques usuelles de ces variables sont le diagramme en bâtons
et le diagramme cumulatif. En …n, les caractéristiques numériques permettant de résumer
une variable discrète sont soit de tendance centrale, soit de dispersion.

Dé…nition 6.2 on appelle variable quantitative discrète toute variable quantitative ne


prenant que des valeurs entières

Présentation des données:

Tableau statistique Pour construire le tableau statistique, il faut dé…nir: l’e¤ectif


partiel, l’e¤ectif cumulé, la fréquence et la fréquence cumulé.
Soit X une variable quantitative discrète. avec X ( ) = fx1 ; x2 ; :::; xn g. Supposons
que ces observations sont arrangées de l’ordre croissant.

Dé…nition 6.3 (e¤ectif). On associe pour tout xi de , le nombre d’observations de


xi (noté ni ). ni est dit e¤ectif partiel de xi : ou tout simplement e¤ectif de xi : i:e

ni = Card f! 2 ; X (!) = xi g

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 126

C’est le nombre d’individus qui ont la même valeur xi .


Le nombre n dé…nie par
Pi
n= ni
j=1

est dit e¤ectif total (c’est la somme de tous les e¤ectifs partiels).

Dé…nition 6.4 (e¤ectif cumulé") On appelle e¤ectif cumulé croissant de xi ; le nombre


Ni " dé…nie par
P
i
Ni "= ni
j=1

C’est la somme de toutes les observations des valeurs qui sont inférieurs ou égal à la valeur
considérées.

Dé…nition 6.5 (e¤ectif cumulé#) On appelle e¤ectif cumulé décroissant de xi ; le nombre


noté Ni # dé…nie par
P
n
Ni #= nj
j=i

C’est la somme de toutes les observations des valeurs qui sont supérieurs ou égal à xi .

Remarque 6.1 si nous avons k modalités, alors on a

N1 "= n1 ; Nk "= n et Nk #= nk; N1 #= n

Dé…nition 6.6 (fréquence) On appelle fréquence relative (ou tout simplement fréquence)
de xi , la quantité fi dé…nie par
ni
fi =
n
i:e La fréquence d’une valeur est le rapport de l’e¤ectif de cette valeur par l’e¤ectif
total.

Remarque 6.2 Si nous avons k modalités, alors pour tout i = 1; 2; :::; n; on a

P
k
0 fi 1 et fi = 1:
i=1

Car
P
k ni
0 ni nj = n () 0 1 () 0 fi 1:
j=1 n
Et
P
k Pk n
i 1P k n
fi = = ni = = 1
i=1 i=1 n n i=1 n

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 127

Dé…nition 6.7 (fréquence cumulé) On appelle fréquence cumulée croissante (resp.


décroissante) de xi , la quantité Fi " (resp. Fi #) dé…nie par

Ni " Pi
Fi "= = fj
n j=1

C’est la somme de toutes les fréquences relatives des valeurs qui sont inférieurs ou égal à
la valeur considérée.
(resp. par)
Ni # P n
Fi #= = fj
n j=i

C’est la somme de toutes les fréquences relatives des valeurs qui sont supérieurs ou égal
à la valeur considérée.

Remarque 6.3 Si nous avons k catégories d’observations, alors on a

F1 "= f1 ; Fk "= 1 et Fk #= fk; F1 #= 1

Remarque 6.4 Si on dit e¤ectif cumulé (resp. fréquence cumulée) sans préciser
l’accroissement, on parle à l’e¤ectif cumulé croissant (resp. fréquence cumulée croissante).

Dé…nition 6.8 (fonction de répartition) Les fréquences cumulées sont représentées au


moyen de la fonction de répartition F , dé…nie de R dans [0; 1] pour i = 1; 2; :::; k; par
8
>
> 0; si x < x1
>
>
>
>
>
> F1 ; si x1 x < x2
>
> ..
>
>
>
< .
F (x) = Fi ; si xi x < xi+1
>
> ..
>
>
>
> .
>
>
>
> Fk 1 ; si xk 1 x < xk
>
>
>
: 1; si x x
k

Dé…nition 6.9 (tableau statistique) On appelle donc tableau statistique un tableau dont
la première colonne comporte l’ensemble des k observations distinctes et ordonnées par
ordre croissant de la variable X. Dans une seconde colonne, on dispose, en face de chaque
valeur xi , son e¤ectif ni . Les e¤ectifs sont souvent remplacés par les fréquences.

Tableau de de distribution des e¤ectifs et fréquences cumulés

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 128

xi ni fi Ni " Fi " Ni # Fi #
x1 n1 f1 n1 f1 n 1
x2 n2 f2 n1 + n2 f1 + f2
.. .. .. .. .. .. ..
. . . . . . .
.. .. .. .. .. .. ..
. . . . . . .
ni
P i P i P
k P
k
xi ni fi = N
nj fj nj fj
j=1 j=1 j=i j=i
.. .. .. .. .. .. ..
. . . . . . .
.. .. .. .. ..
. . . . . nk 1 + nk fk 1 + fk
xk nk fk n 1 nk fk
Total n 1

Exemple 6.2 On a noté l’âge des 50 employés d’une entreprise pharmaceutique. Les
données sont listées ci-dessous (il s’agit de données …ctives).

24; 26; 30; 24; 34; 40; 40; 24; 50; 59;
26; 33; 26; 50; 44; 34; 34; 34; 26; 44;
40; 40; 34; 26; 40; 26; 30; 30; 40; 30;
33; 33; 40; 50; 50; 33; 34; 40; 33; 44;
59; 40; 44; 50; 50; 50; 44; 59; 59; 40:

On résume ces données dans un tableau statistique avec valeurs observées, e¤ectifs, e¤ec-
tifs cumulés croissant et décroissants, fréquences relatives, fréquences cumulés croissants
et décroissants.
xi ni Ni " Ni # fi Fi " Fi #
24 3 3 50 0; 06 0; 06 1; 00
26 6 9 47 0; 12 0; 18 0; 94
30 4 13 41 0; 08 0; 24 0; 82
33 5 18 37 0; 10 0; 34 0; 74
34 6 24 32 0; 12 0; 46 0; 64
40 10 34 26 0; 20 0; 66 0; 52
44 6 40 16 0; 12 0; 88 0; 32
50 6 46 10 0; 12 0; 92 0; 20
59 4 50 4 0; 08 1; 00 0; 08
T otal 50 1; 00

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 129

Représentations graphiques

Diagramme en bâtons Ce diagramme comporte donc un axe d’abscisses, sur lequel


…gurent les observations de la variable considérée, et un axe d’ordonnée, sur lequel …gurent
les e¤ectifs (ou les fréquences). En face de chaque observation …gure un segment vertical
sur l’axe des abscisses (un bâton), dont la hauteur est proportionnelle à l’e¤ectif (ou à la
fréquence) correspondant.

Exemple 6.3 (F ig 9) représente le diagramme en battons de la variable statistique


Précédente: "âges des employés".

F ig 9 Diagramme en battons

Diagramme cumulatif. Le diagramme cumulatif est la représentation graphique de


la fonction de répartition (cumulative) de la variable statistique. C’est une fonction en
escalier

bornes d1 d2 di dk dk+1
<a P1 = 0 p2 = f1 pi = Fi 1 pk = Fk 1 pk = 1
a q1 = 1 q2 = 1 f1 qi = 1 Fi 1 qk = 1 Fk 1 qk+1 = 0

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 130

F ig 10Diagramme cumulatif

Polygone Le polygone en e¤ectifs , e¤ectifs cumulés cumulées croissante (resp.


décroissante) est obtenu en traçant les points Mi (xi ; fi ) ; Ai (di ; Ni ") (resp. Bi (di ; Ni #)
et en interpolant linéairement entre ces points (F ig 11; F ig 12; F ig 13).
Même chose pour les polygones des fréquences.

F ig 11Polygone des e¤ectifs

F ig 12 Polyg e¤,cum, croiss F ig 13 Polyg e¤,cum, décroiss

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 131

Exemple 6.4 Pour la série distribuée par ce tableau,

nous avons les polygones cumulés croissant et décroissant (F ig 14).

F ig 14:Polygones cumulés croissant et décroissant

Paramètres de position

Mode

Dé…nition 6.10 On appelle mode (dénoté M o) de la série statistique discrète, la valeur


de la variable statistique la plus fréquente. i:e: C’est la valeur qui a le plus grand e¤ectif
(ou la plus grande fréquence).

Remarque 6.5 Le mode d’une série statistique n’est pas forcément unique.

Remarque 6.6 Le mode peut être trouvé pour tous les types de variable, quantitative
et qualitative.

Exemple 6.5 Dans l’exemple précédent, nous avons l’âge qui a le plus grand e¤ectif est
40; donc le mode de cette distribution est M o = 40:

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 132

Médiane La médiane, désignée par M e, est la valeur de la variable telle qu’il y ait
autant d’observations, en dessous d’elle qu’au-dessus ou, ce qui revient au même, la valeur
correspondant à 50% des observations.

Dé…nition 6.11 On appelle médiane (dénoté M e) d’une série statistique discrète et or-
donnée une valeur centrale qui divise la série en deux parties de même e¤ectif telle que la
première partie contenant 50% des valeurs qui sont inférieur à la médiane et la deuxième
contenant 50% des valeurs supérieurs à cette médiane.

n
Remarque 6.7 1) La médiane est la valeur de la série correspond à l’e¤ectif cumulé 2
ou la fréquence cumulé 12 :
2) la médiane est insensible aux valeurs extrêmes.

Détermination de la médiane: La médiane est une valeur centrale de la série


statistique obtenue de la manière suivante:
On trie la série statistique par ordre croissant des n valeurs observées.
Si n est impair:
M e = x n+1
2

n+1
C’est la 2
eme observation.
Si n est pair: n = 2k:
xk + xk+1
Me =
2
C’est la moyenne arithmétique des deux observations centrales.

Exemple 6.6 1) Avec la série observée suivante:

4; 1; 2; 2; 0; 4; 5; 3; 1; 2; 5
on obtient:

0; 1; 1; 2; 2; 2 ; 3; 4; 4; 5; 5
La médiane M e est la valeur qui se trouve au milieu de la série ordonnée ci-dessus.
n = 11 est impair, alors M e = 2:
2) Pour la série suivante:

0; 1; 1; 2; 2; 2, 3 ; 3; 4; 4; 5; 6

n = 12 est pair, deux valeurs se trouvent au milieu de la série. Alors la médiane est la
moyenne de ces deux valeurs:

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 133

2+3
Me = = 2; 5
2
1
Remarque 6.8 On peut dé…nir la médiane comme l’image de 2
par la réciproque de la
fonction de répartition:
1
Me = F (0; 5):

Quantiles On a vu que la fréquence cumulée Fi (0 Fi 1) donne la proportion


d’observations inférieures ou égales à xi . Une approche complémentaire consiste à se
donner, une valeur , (0 1), et à rechercher une valeur x , véri…ant F (x ) ' .
La notion de quantile d’ordre généralise la médiane. Un quantile x est donné par
l’image de par la réciproque de la fonction de répartition:

1
x =F ( )

Dé…nition 6.12 On appele quantile d’ordre , la valeur noté x , tel que la proportion
des observations qui lui sont inférieures ou égales vaut , et la proportion des observations
qui lui sont supérieures vaut 1 .

Détermination de quantiles: Soit la série ordonnée par ordre croissant suivante:

x1 ; x2 :::; xi ; :::; xn

Le quantile x est calculé comme suit:


1) Pour n entier,
1
x = (xn + xn +1 )
2
2) Pour n n’est pas entier,
x = x[n ] ;
où [n ] représente le plus petit nombre entier supérieur ou égal à n .

Remarque 6.9 La médiane est le quantile d’ordre = 12 .


On utilise souvent
le premier quartile, Q1 = x1=4
le troisième quartile, Q3 = x3=4
le premier décile, D1 = x1=10 ,
le premier quintile, q1 = x1=5
le quatrième quintile, q4 = x4=5
le neuvième décile, D9 = x9=10

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 134

Exemple 6.7 Soit la série statistique 1; 3; 5; 6; 8; 9; 12; 14; 15; 17; 18; 24; contenant
12 observations (n = 12):
Le premier quartile: Comme n = 0:25 12 = 3 2 N, on a
1 1
(x3 + x4 ) = (5 + 6) = 5; 5:
Q1 = x1=4 =
2 2
La médiane : Comme n = 0; 5 12 = 6 2 N, on a
1 1
Q2 = x1=2 = (x6 + x7 ) = (12 + 14) = 13:
2 2
Le troisième quartile : Comme n = 0; 75 12 = 9 2 N, on a
1 1
Q3 = x3=4 = (x9 + x10 ) = (15 + 17) = 16
2 2
Exemple 6.8 Soit la série statistique 1; 3; 5; 6; 8; 9; 12; 14; 15; 17; 18; 24; 26 contenant 13
observations (n = 13):
Le premier quartile : Comme n = 0; 25 13 = 3; 25 2
= N, on a

Q1 = x1=4 = x[3;25 ] = x4 = 6:

La médiane: Comme n = 0; 5 13 = 6; 5 2
= N, on a

Q2 = M e = x1=2 = x[6;5 ] = x7 = 12:

Le troisième quartile : Comme n = 0; 75 13 = 9; 75 2


= N, on a

Q3 = x 1 = x[9;75 ] = x10 = 17:


4

Moyenne La moyenne ne peut être dé…nie que sur une variable quantitative. Soit n
est l’e¤ectif total des observations.

Moyenne arithmétique simple

Dé…nition 6.13 La moyenne arithmétique (dénotée X) est la somme des valeurs obser-
vées divisée par leur nombre, i:e:
1P n
X= xi
n i=1

Moyenne pondérée
P
k
Dé…nition 6.14 Soit fn1 ; n2 ; :::; nk g un ensemble de poids; (ni 0), tel que ni = n.
i=1
La moyenne pondérée est donnée par
1P n Pk
X= ni xi = fi xi
n i=1 i=1

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 135

Remarque 6.10 1) La moyenne arithmétique est sensible aux valeurs extrêmes dans le
cadre de petits échantillons (n < 30).
2) La moyenne n’est pas nécessairement une valeur possible.

Exemple 6.9 Les notes de 15 étudiants en examen de probabilités sont


10; 10; 10; 11; 11; 12; 12; 12; 12; 12, 14; 14; 15; 15; 16. Alors la moyenne
arithmétique simple vaut:
10 + 10 + 10 + 11 + 11 + 12 + 12 + 12 + 12 + 12 + 14 + 14 + 15 + 15 + 16
X =
15
= 12; 4

La moyenne pondérée vaut:


3 10 + 2 11 + 5 12 + 2 14 + 2 15 + 16
X= = 12; 4
3+2+5+2+2+1

Moyenne géométrique La moyenne géométrique s’utilise, par exemple, pour cal-


culer la moyenne de taux d’intérêt.

Dé…nition 6.15 Soiti xi 0, on appelle moyenne géométrique la quantité mg donnée


par
p q
mg = n
x1 x2 ::: xn = n
xn1 1 xn2 2 ::: xnk k = xf11 xf22 ::: xfkk

Remarque 6.11 On peut écrire la moyenne géométrique en fonction de la moyenne


arithmétique des logarithmes des valeurs observées

1P n
mg = exp (ln mg ) = exp ln xi
n i=1
Exemple 6.10 Un client versé dans la banque une somme de 1000000 DA, avec intérêt
de 5% pour la première année et de 7% pour l’année suivante et de 10% pour la troisième
et de 13% pour la quatrième. On veut calculer La somme en DA de cet client après 4
ans.
Après une année on a

1000000 + 1000000 0; 05 = 1000000 1; 05 = 1050000 DA

Après deux années on a, on a

1000000 1; 05 1; 07 = 1123500 DA

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 136

Après trois années on a

1000000 1; 05 1; 07 1; 1 = 1235900 DA
Après quatre années on a

1000000 1; 05 1; 07 1; 1 1; 13 = 1396600 DA:


Ou bien, on calcule la moyenne géométrique des taux on obtient
p
mg = 4 1; 05 1; 07 1; 1 1; 13 = 1; 0871
Le taux moyen est mg , donc on applique ce taux 4 fois, obtient

1000000 m4g = 1000000 1; 08714 = 1396600 DA:

Moyenne harmonique La moyenne harmonique s’utilise, par exemple, pour cal-


culer la moyenne des vitesses

Dé…nition 6.16 Soit xi > 0, on appelle moyenne harmonique la quantité mh donnée par
n n 1
mh = P n = k = k
1 P ni P fi
xi xi xi
i=1 i=1 i=1
Exemple 6.11 Une voiture traverse un circuit fermé 6 foix, le premier tours avec une
vitesse v1 = 50km=h, le deuxième avec une vitesse v2 = 60km=h , le troisième avec une
vitesse v3 = 70km=h et les autres tours avec une vitesse v4 = 80km=h; On veut calculer
la vitesse moyenne de cette voiture.

On dénote la distance du circuit d; ti le temps correspond à vi (i = 1; 2; 3; 4). On sait


que: 6d = vm t; d’où
6d d d d 3d
t= ; t1 = ; t2 = ; t3 = ; t4 = :
vm v1 v2 v3 v4
Et comme
t = t1 + t2 + t3 + t3 + t4 :
Alors on a
6d d 2d d 3d 6d
= + + + = d
vm v1 v2 v3 v4 v1
+ vd2 + vd3 + 3d
v4
Donc
6 6
vm = =
1
v1
+ 1
v2
+ 1
v3
+ 3
v4
P
4
ni
vi
i=1
6
vm = 1 1 1 3 = 67; 833 km=h
50
+ 60
+ 70
+ 80

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 137

Moyenne quadratique

Dé…nition 6.17 la moyenne quadratique d’une variable statistique X est la quantité mq


dé…nie par s s s
1P n 1P k P
k
mq = x2 = ni x2i = fi x2i
n i=1 i n i=1 i=1

Exemple 6.12 Dans l’exemple 6.2; la moyenne quadratique de l’âge est


s r
1 P k 75813
mq = ni x2i = = 27; 534
100 i=1 100

Proposition 6.1 Pour toute variable statistique admet des moyennes arithmétiques X,
géométrique mg et harmonique mh on a

min xi mh mg X max xi
1 i n 1 i n

Indicateurs de position - Récapitulatif

Ind Avantages Inconvénients


Bon indicateur pour
Se prête mal aux calculs
distributions asymétriques
statistiques
Mo Boni ndicateur de population
Sensible aux variations
hétérogène
d’amplitude de classes
Insensible aux valeurs extrêmes
Boni ndicateur pour distributions
Sensible aux valeurs extrême
symétriques et dispersion faible
X Représente mal une population
Se prête facilement aux
hétérogène (polymodale)
calculs statistiques
Boni ndicateur pour distributions Se prête mal aux calculs
symétriques statistiques
Me
Moins sensible aux valeurs Classement peut être long
extrêmes que lamoyenne si les valeurs sont nombreuses.

Paramètres de dispersion

Etendue

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 138

Dé…nition 6.18 On appelle étendu de la variable statistique X (dénoté eX ) la di¤érence


entre la plus grande et la plus petite valeur observée.

eX = max xi min xi = xn x1
1 i n 1 i n

Exemple 6.13 L’étendue de l’exemple 6.2 est

eX = x50 x1 = 59 24 = 35

Ecart interquartile

Dé…nition 6.19 On appelle écart interquartile de la variable statistique X (dénoté IQ),


la di¤érence entre le troisième et le premier quartile:

IQ = Q3 Q1

Variance

Dé…nition 6.20 On appelle variance de la variable statistique X (noté s2X ) la moyenne


arithmétique des carrés des écarts à la moyenne

1P k 2 P
k 2
s2X = ni xi X = fi xi X
n i=1 i=1

Proposition 6.2 (formule de Koenig) La variance est donnée aussi par

1P k 2 2
s2X = ni x2i X = m2q X :
n i=1
Preuve.
1P k 2 1P k
s2X = ni xi X = ni x2i 2xi X + X 2
n i=1 n i=1
1P k 1P k 1 2P k
= ni x2i 2X ni xi + X ni
n i=1 n i=1 n i=1
1P k 2 2 1P k 2
= ni x2i 2X + X = ni x2i X
n i=1 n i=1

Variance corrigée SI on veut estimer une variance d’une variable statistique X d’un
échantillon de taille n, on utilise la variance corrigée.

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 139

2
Dé…nition 6.21 La variance corrigée de la variable statistique X (noté SX ) est dé…nie
par
2 1 P
k 2
SX = ni xi X
n 1 i=1
Remarque 6.12 On peut calculer la variance corrigée à partir de la variance.

2 1 nP k 2 n
SX = ni xi X = s2X :
n 1 n i=1 n 1

Ecart-type

Dé…nition 6.22 On appelle écart-type de la variable statistique X (noté sX ) la racine


carrée de la variance q
sX = s2X

Remarque 6.13 Si on veut estimer l’écart-type d’une variable statistique X d’un échan-
tillon de taille n, on utilise l’écart-type corrigée dé…nie par
q r
2 n
SX = SX = sX :
n 1

Coe¢ cient de variation:

Dé…nition 6.23 Le coe¢ cient de variation de la variable quantitative X est la quantité


CV dé…nie par:
sX
CV =
X
Le CV permet d’apprécier la représentativité de la moyenne par rapport à l’ensemble
des observations. Il mesure le degré d’homogénéité de la série. Il faut qu’il soit le plus
faible possible (en pratique < 15%).

Remarque 6.14 Si CV < 0; 25 On dit que les valeurs de la variable sont concentrées
Si CV 0; 25 On dit que les valeurs de la variable sont dispersées.

Exemple 6.14 On veut calculer Les paramètres de positions et de dispersion de la dis-


tribution de l’exemple 6.2 (l’âge de 50 employés) suivante:

xi 24 26 30 33 34 40 44 50 59 Total
ni 3 6 4 5 6 10 6 6 4 50

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 140

Exemple 6.15 Le mode: le plus grand e¤ectif est n6 = 10 donc M o = 40 ans


La médiane: n = 50 paire, d’où

x25 + x26 40 + 40
Me = = = 40 ans
2 2
Pour calculer X; s2X ; SX
2
, on utilise ce tableau
P
xi ni ni xi ni x2i Fi " Fi #
24 3 72 1728 0; 06 0; 06 1; 00
26 6 156 4056 0; 12 0; 18 0; 94
30 4 120 3600 0; 08 0; 24 0; 82
33 5 161 5313 0; 10 0; 34 0; 74
34 6 204 6936 0; 12 0; 46 0; 64
40 10 400 16000 0; 20 0; 66 0; 52
44 6 264 11616 0; 12 0; 88 0; 32
50 6 300 15000 0; 12 0; 92 0; 20
59 4 196 11564 0; 08 1; 00 0; 08
Total 50 1873 75813 1; 00

La moyenne:

1 P 9 1873
X= ni xi = = 37; 46 ans
50 i=1 50
La variance:
2
1 P 9 2 75813 1873
s2X = ni x2i X = = 113; 01
50 i=1 50 50
L’écart-type q p
sX = s2X = 113; 01 = 10; 631

La variance corrigée

2 50 2 50
SX = sX = 113; 01 = 115; 31
50 1 49
L’écart-type corrigé r
q
2 2 50
SX = SX = sX = 10; 739
49
Proposition 6.3 Soient X une variable statistique, a et b; deux constantes réelles telles
que Y = aX + b: Alors ona les propriétés suivantes:
i) Y = aX + b
ii) s2Y = a2 s2X

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 141

Preuve. i)

1P k 1P k 1P k 1 Pk
Y = ni yi = ni (axi + b) = a ni xi + b ni
n i=1 n i=1 n i=1 n i=1
n
= aX + b = aX + b:
n
ii)

1P k 2 1P k 2
s2Y = ni yi Y = ni axi + b aX b
n i=1 n i=1
1P k 2
= a2 ni xi X = a2 s2X
n i=1

Moyennes et variances dans des groupes Soit La variable statistique X dé…nie


sur une section de n étudiants contenant nA étudiants et nB étudiantes, n = nA + nB :
L’objectif est de calculer X et s2X à partir des moyennes et des variances des étudiants et
des étudiantes.
On répartit les n observations k groupes G1 ; G2 ; :::; Gk ; et on suppose que Les n1
premières observations sont dans le groupe G1 ; et les n2 deuxièmes observations sont
dans le groupe G2 ; :::; les nk k ièmes observations sont dans le groupe Gk ; avec n =
n1 + n2 + ::: + nk
On suppose aussi que la série statistique contient d’abord les unités de G1 puis les
unités de G2 ainsi de suite puis les unités de Gk :

Proposition 6.4 Soient X 1 , X 2 ; :::; X k sont respectivement les moyennes des groupes
G1 ; G2 ; :::; Gk : Alors La moyenne générale est une moyenne pondérée par la taille des
groupes des moyennes des k groupes. i:e
1
X=
n1 X 1 ; n2 X 2 ; :::; nk X k
n
P
Preuve. Nous avons par dé…nition et par linéarité de ;
!
1P n 1 P
n1 P
n2 P
n3 P
n
X = xi = xi + xi + xi + ::: + xi
n i=1 n i=1 i=n1 +1 i=n2 +1 i=nk 1 +1

1
= n1 X 1 ; n2 X 2 ; :::; nk X k :
n

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 142

Proposition 6.5 (Théorème de Huygens) Soient s2X1 , sX2 ; :::; sXk sont respectivement les
variances des groupes G1 ; G2 ; :::; Gk : Alors La variance totale, s2X est donnée par

1P k 1P k 2
s2X = ni s2Xi + ni X i X
n i=1 n i=1
Preuve. Supposons que G1 ; G2 ; :::; Gk sont arrangés dans l’ordre croissant. Alors on a
!
1P k 2 1 P n1
2 Pn2
2 Pn 2
s2X = ni xi X = xi X + xi X + ::: + xi X
n i=1 n i=1 i=n1 +1 i=nk 1 +1

1P n1
2 1 P n2
2
= xi + X 1 X 1 X + xi + X 2 X 2 X + :::
n i=1 n i=n1 +1
1 P n 2
::: + xi + X 1 X 1 X
n i=nk 1 +1
1 P1n
2 1P n1
2 2P n1
= xi X 1 + X1 X xi X 1 X 1 X
n i=1 n i=1 n i=1
1 P n2
2 1 P n2
2 2 P n2
+ xi X 2 + X2 X xi X 2 X 2 X
n i=n1 +1 n i=n1 +1 n i=n1 +1
.
+..
1 P n2
2 1 P n2
2 2 P n2
+ xi X 2 + X2 X xi X 2 X 2 X
n i=nk 1 +1 n i=nk 1 +1 n i=nk 1 +1
1 n1 2 n2 2
= n1 s2X1 + n2 s2X2 + ::: + nk s2Xk + X2 X + X 2 X + :::
n n n
nk 2
::: + Xk X
n
1P k 1P k 2
= ni s2Xi + ni X i X
n i=1 n i=1
Rappelons que
P
n
xi X =0
i=1

Cas particulier: k = 2 On divise la série en deux groupes A et B contenant respect-


ivement les nA premières valeurs et nB dernières valeurs. VA ; VB les variance de A et B:
Alors la variance totale VT est donnée par

nA nB nA 2
VT = VA + VB + XA X
nA + nB nA + nB nA + nB
nB 2
+ XB X
nA + nB

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 143

nA nB
Dé…nition 6.24 La moyenne des variance des deux groupes nA +nB
VA + nA +nB
VB
est dite Variance Intra-groupe.
nA 2
La variance des moyennes des deux groupe nA +nB
XA X +
nB 2
nA +nB
XB X est dite Variance Intergroupe.

Exemple 6.16 Une section de 100 étudiants, 60 sont des …lles, On observe que la moy-
enne et la variance du contrôle de statistique chez les …lles sont respectivement 12 et 0; 12
et chez les garçons sont respectivement 13 et 0; 5: Alors la moyenne générale de toute la
section est
60 12 + 40 13
X= = 12; 40
100
La variance générale est

60 0; 12 + 40 0; 5 60 (12 12; 4)2 + 40 (13 12; 4)2


s2X = +
100 100
= 0; 512

Ecart absolu moyen

Ecart absolu moyen à la moyenne

Dé…nition 6.25 L’écart absolu moyen à la moyenne de la variable quantitative discrète


X est la quantité eX dé…nie par

1P k P
k
eX = ni xi X = fi xi X
n i=1 i=1

Ecart absolu moyen à la médiane

Dé…nition 6.26 L’écart absolu moyen à la médiane de la variable quantitative discrète


X est la quantité eM e dé…nie par

1P k P
k
eM e = ni jxi M ej = fi jxi M ej
n i=1 i=1

Moments

Dé…nition 6.27 soient p un entier naturel, X une variable statistique quantitative. On


appelle moment d’ordre k la quantité k dé…nie par

1P k
p = ni xpi
n i=1

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 144

Dé…nition 6.28 On appelle moment centré d’ordre p la quantité mp dé…nie par

1P k p
mp = ni xi X
n i=1

Cas particuliers: 1 = X:
2 2
2 = sX + X :
m1 = 0:
m2 = s2X :

Paramètres de forme

Il existe deux mesures de forme qui caractérisent la forme des courbes représentant les
distributions (coe¢ cient d’asymétrie et .coe¢ cient d’aplatissement). Ils peuvent prendre
des valeurs positives, négatives ou nulles.

Coe¢ cient d’asymétrie

On se sert d’un coe¢ cient pour mesurer l’asymétrie d’une distribution. Elle se mesure au
moyen des coe¢ cients suivants:

Coe¢ cient d’asymétrie de Fisher

Dé…nition 6.29 Le coe¢ cient d’asymétrie de Fichier est donné par


m3
CF =
s3X

Coe¢ cient d’asymétrie de Pearson: Le coe¢ cient d’asymétrie de Pearson Cp est


donné par
X Me
CP =
sX

Coe¢ cient d’asymétrie de Yule: Le coe¢ cient d’asymétrie de Pearson est donné par
Q1 + Q3 2M e
CY =
IQ
Remarque 6.15 Les coe¢ cients ci-dessus Ck possèdent les mêmes propriétés: ils sont
négatifs si la distribution est allongée à gauche, nuls si elle est symétrique et positifs si
elle est allongée à droite.

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 145

Ck = 0, il s’agit d’une distribution parfaitement symétrie (f ig 15), et

M e = X = M o:

F ig 15 Distribution symétrie

Valeurs également distribués de part et d’autre de la valeur centrale.

Ck < 0, la distribution est du côté inférieur étalée vers la gauche (f ig 16), et

X < M e < M o:

F ig 16:étalée vers la gauche

La valeur la plus forte fréquence se situe à droite de la moyenne.

Ck > 0, la distribution est du côté supérieur étalée vers la droite (F ig 17), et

X > M e > M o:

F ig 17:étalée vers la droite

La valeur la plus forte fréquence se situe à gauche de la moyenne.

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 146

Coe¢ cient d’aplatissement

L’aplatissement se mesure au moyen des coe¢ cients suivants:

Coe¢ cient d’aplatissement de Pearson: L’aplatissement est mesuré par le coe¢ -


cient d’aplatissement de Pearson PP qui est basé sur le moment centré d’ordre 4 et est
donné par
m4
Pp = 4
X
PP > 3; courbe leptokurtique. Elle est plus pointue et possède des queues plus
longues.
PP = 3; courbe mésokurtique.
PP < 3; courbe platykurtique. Elle est plus arrondie et poss‘ede des queues plus
courtes.

Le coe¢ cient PF de Fisher: Le coe¢ cient PF de Fisher est donné par:


m4
PF = Pp 3= 4
3
X

PF > 0; courbe leptokurtique.


PF = 0; courbe mésokurtique.
P F < 0; courbe platykurtique.

Exemple 6.17 Dans la …gure suivante (F ig 18); on présente deux distributions de même
moyenne et de même variance. La distribution plus pointue est leptokurtique, l’autre est
mésokurtique. La distribution leptokurtique a une queue plus épaisse.

F ig 18

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 147

6.2.2 Variable quantitative continue


En général, on peut considérer une variable quantitative comme continue, si le nombre
d’observations distinctes de cette variable est plus élevé.

Dé…nition 6.30 Un variable statistique quantitative est dite continue lorsqu’elle peut
prendre toutes les valeurs d’un intervalle …ni ou in…ni de R:

Dans le cas où la variable statistique est continue, l’ensemble des valeurs possibles de
la variable étudiée a été divisé en k intervalles appelés classes.
On note ces classes, [bi ; bi+1 [ est la ieme classe; i = 1; 2; :::; k
a = bi+1 bi est l’amplitude de la ieme classe.
ci = bi +b2i+1 est le centre de la ieme classe
bi+1 est la borne supérieur de la ieme classe
bi est la borne inférieur de la ieme classe.
toutes les classes contenant sa borne inférieur et non sa borne supérieur sauf la dernière
classe.
L’amplitude la dernière classe est indéterminée si elle est dé…nie par «plus de .»

Présentation des données

Comme dans le cas discrète on utilise un tableau statistique, en mettant dans la première
colonne les classes rangées par ordre croissant.
Les dé…nitions d’e¤ectifs, de fréquences, d’e¤ectifs cumulés et de fréquences cumulées
sont les mêmes que dans le cas discret.

Représentations graphiques

Le diagramme en bâtons et le diagramme cumulatif en cas discret sont remplacés respect-


ivement par l’histogramme et la courbe cumulative dans le cas continu.

L’histogramme L’histogramme des fréquences d’une variable quantitative continue est


constitué de rectangles dont les bases représentent les amplitudes des classes, et dont les
surfaces sont proportionnelles aux fréquences des classes (histogramme des fréquences) ou
aux e¤ectifs (histogramme des e¤ectifs).
Si la variable est distribuée par classes de même amplitude, les hauteurs des rectangles
sont proportionnelles à leurs surfaces; par conséquent sont proportionnelles aux fréquences
et aux e¤ectifs.

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 148

Si la variable est distribuée par classes d’amplitudes inégales, la hauteur du rectangle


correspondant à la ieme classe sera hi = ai fi (ou encore hi = ai ni ). hi est dit l’e¤ectif
corrigé de ni :

Polygone Pour construire le polygone des e¤ectifs (ou des fréquences) en reliant les
milieux des bases supérieures des rectangles par des segments de droite.

Courbe cumulative Pour construire la courbe cumulative (ou polygone des fréquences
cumulées) est en portant les points dont les abscisses sont les bornes supérieures des classe
et les ordonnées les fréquences cumulées correspondantes, puis en reliant ces points par
des segments de droite.

Exemple 6.18 Le responsable des ressources humaines d’une entreprise a relevé la


distribution statistique suivante correspondant à l’ancienneté du personnel cadre dans
l’entreprise, exprimée en années :

La représention Ggraphique de cette distridution et le polygone sont donnés par (F ig 19).

F ig 19: Histogramme et Polygone

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 149

Paramètres de position

Mode Dons le cas où la variable statistique est continue, on parle de la classe modale
qui est la classe qui possède le grand nombre d’observations (la plus fréquente), le mode
appartient à cette classe.

Dé…nition 6.31 Le mode de la variable statistique continue X est la quantité M o donnée


par
41
M o = xi + ai ;
41 + 42
avec:
ai = xi+1 xi l’amplitude de la classe modale,
xi ; xi+1 son respectivement la borne inférieure et la borne supérieure de la classe modale
41 = hi hi 1 , 42 = hi hi+1 ,
hi est l’e¤ectif corrigé associé à la classe modale,
hi 1 est l’e¤ectif corrigé de la classe qui précède la classe modale,
hi+1 est l’e¤ectif corrigé de la classe qui suit la classe modale.

Détermination graphique du mode: On prend une partie de l’histogramme con-


tenant 3 rectangles consécutifs tel que le rectangle de la classe modale se trouve au milieu
de ces 3 rectangles. Puis on relie par un segment de droite la tête à droite du premier
rectangle par la tête à droite du rectangle de la classe modale et on relie la tête à gauche
du dernier rectangle par la tête à gauche du rectangle de la classe modale. Le mode est
dé…ni par l’abscisse du point d’intersection de ces deux segments.
Soient [xi 1 ; xi [ ; [xi ; xi+1 [ ; [xi+1 ; xi+2 [ trois classes consécutives telles que [xi ; xi+1 [
est la classe modale (voir la …gure ci-dessous) . Le mode est l’abscisse de point
d’intersection des droites (AB) et (CD), avec A (xi ; hi 1 ) ; B (xi+1 ; hi ) ; C (xi ; hi ) et

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 150

D (xi+1 ; hi+1 ) (F ig 20):

F ig 20 Histogramme des e¤ectifs corrigés

Preuve. Cherchons les(équations des droites (AB) et (CD).


a = hxii+1hi x1i = 4ai1
(AB) : y = ax + b; ai
i:e (AB) : y = 4ai1 x + hi 4ai1 xi
b = hi 41 xi
(
c = hxi+1 hi
= a4i 2
(CD) : y = cx + d; i+1 xi
42
i:e (AB) : y = a4i 2 x + hi+1 ai
41
xi
d = xi+1 + ai xi
On résout le système de deux équations suivant:
(
y = 4ai1 x + ni 4ai1 xi (1)
42 ai
y= ai
x + hi+1 41
xi (2)

Remplaçons (1) dans (2), on trouve

41 41 42 ai
x + ni xi = x + hi+1 + xi
ai ai ai 41

41 + 42 41 + 42
x = 41 + xi
ai ai

41
x = M o = xi + ai
41 + 42

Exemple 6.19 On désire lancer un nouveau produit pharmaceutique sur le marché ; on


recherche le prix psychologique nous permettant d’attirer le plus de consommateurs pos-
sible. La détermination du mode peut, entre autre méthode, nous permettre d’approcher

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 151

au mieux le prix psychologique de lancement du produit. Présentant le produit à un échan-


tillon représentatif de la population étudiée, nous observons pour chaque classe de prix,
les e¤ectifs prêts à faire l’acquisition du produit. Nous obtenons les résultats suivants:

Prix (en Dinars) E¤ectifs


[210; 230[ 30
[230; 250[ 60
[250; 270[ 100
[270; 290[ 20
Total 210
Les classes de prix étant toutes de même amplitude (égale à 20), les hauteurs des
rectangles de l’histogramme des e¤ectifs seront donc égales aux e¤ectifs (F ig 21).

F ig 21: Histogramme

La classe modale est [250; 270[. La projection du point d’intersection G des segments
[AB] et [CD] sur l’axe Prix correspond à la valeur exacte du mode, MG ' 257 Dinars.
Pour plus de précisons, on calcule (xG ; yG ) les coordonnées de G. Trouvons les équations
des droites (AB) et (CD).
Pour (AB) : y = ax + b La droite (AB) passe par les points A (250; 100) et B(270; 20):
( (
250a + b = 100 a= 4
()
270a + b = 20 b = 1100

D’où
(AB) : y = 4x + 1100:

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 152

Pour (CD) : y = cx + d: La droite (CD) passe par les points C(270; 100) et D (250; 60).
( (
270c + d = 100 c=2
()
250c + d = 60 d = 440

D’où
(CD) : y = 2x 440
Comme fGg = (AB) \ (CD) ; alors
( (
4xG + 1100 = yG xG = 770
3
' 256; 66
()
2xG 440 = yG yG = 2 7703
440 ' 73; 33
770
i:e : M o = xG = 3
:

Médiane La médiane dans le cas continue est égale à la quantité M e telle que F (M e) =
0; 5, avec F est la fonction cumulative de la variable statistique (fonction de répartition).
La classe médiane est la première classe contenant au moins 50% des e¤ectifs cumulés
Soient n l’e¤ectif total, bm ; am ; nm ; sont respectivement la borne inférieur, l’amplitude,
l’e¤ectif de la classe médiane, Nm 1 l’e¤ectif cumulé de la classe précédente. Alors on a
la proposition suivante:

Proposition 6.6 La médiane dans le cas d’une variable statistique continue est donnée
par
n
Nm 1 2
M e = bm + am
nm
Preuve. Prenons deux points de la courbe cumulative A (bm ; Nm 1 ) ; B (bm+1 ; Nm ) tels
que [bm ; bm+1 [ est la classe médiane puis on cherche l’équation de la droite (AB) :
(
a = Nbm
m+1 Nm
bm 1
= nam
m

(AB) : y = ax + b :
b = Nm 1 nam m
bm

D’où
nm nm
(AB) : y = x + Nm 1 bm
am am
n
Remplaçons le y par 2
pour calculer l’abscisse qui est la valeur médiane
n nm nm
= M e + Nm 1 bm
2 am am
nm n nm 1
Me = Nm 1 + bm
am 2 am 1

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 153

am
Multiplions les deux cotés par nm
, on trouve:
n
2
Nm 1
M e = bm + am
nm

Exemple 6.20 Une distribution a donné les résultats suivants pour l’âge des habitons
d’un pays

D’après le polygone des fréquences cumulées croissant (F ig 22). Graphiquement, on lit


que l’âge médiane est un peu moins de 40 ans. La médiane est calculée de la manière
suivante:

F ig 22 Polygone des fréquence cumulés

Utilisons la …gure (F ig 23) pour calculer la valeur exacte de la médiane. La classe médiane
est [35; 40[ : Prenons les deux points A (35; 36; 5) ; B(40; 51):

M e 35 40 35
= () M o = 39; 7:
50 36; 5 51 36; 5

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 154

F ig 23

Remarque 6.16 La médiane est donnée aussi par l’abscisse du point d’intersection des
courbes cumulatives croissant et décroissant (voir F ig 24).

F ig 24

Moyenne Les notions de moyennes que nous avons vus dans le cas discret restent les
mêmes dans le cas continu, il su¢ t de remplacer les valeurs xi par les centres des classes.

Paramètres de dispersion

Etendue

Dé…nition 6.32 soit les classes sont arrangées de l’ordre croissant. L’étendue de la
variable statistique continue X est la di¤érence entre la borne supérieure de la dernière
classe et la borne inférieure de la première classe.

eX = bn+1 b1

Ecarts et Variances Les notions des écarts et de variance que nous avons vus dans le
cas discret restent valables dans le cas continu, il su¢ t de remplacer les valeurs xi par les
centres des classes.

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 155

Comment faire une répartition par classes?

On général, on choisit des classes de même amplitude. Nous intéressons de nombre de


classes et de ces amplitudes.

Nombre de classes: Iy a plusieurs méthodes pour dé…nir le nombre de classes. Notons


le nombre de classe par k et l’e¤ectif totale des observations par n:
1) Si n < 50;
p
k ' n;
2) Formule de Sturge: log désigne le logarithme décimal,

k ' 1 + 3; 3 log n

3) Formule de Yule
p
k ' 2; 5 4 n

Amplitude des classes Il faut mieux d’utiliser des classes de même amplitude a donnée
par
eX
a&
k

6.2.3 Variable statistique qualitative


Dé…nition 6.33 La variable statistique est dite qualitative si ces modalités sont des
catégories (non numériques).

Nous avons de types des variables statistiques qualitatives


–Variable qualitative nominale: La variable est dite qualitative nominale si on ne peut
pas ordonner ces modalités.
–Variable qualitative ordinale: La variable est dite qualitative ordinale on peut ordon-
ner ces modalités.
Par exemple: les catégories:, grades militaires, grades d’enseignement supérieur,...

Présentation des données

Pour une variable qualitative, on ne peut pas calculer des caractéristiques numériques. On
présente les données par des tableaux statistiques contenant les modalités et ces e¤ectifs.
Notons les e¤ectifs cumulés et les fréquences cumulées sont dé…nies pour des variables
qualitatives ordinales et non pour des variables qualitatives nominales.

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 156

Représentations graphiques

Diagrammes Dans le cas qualitatif, les représentations graphiques les plus appropriées
sont: le diagramme en colonnes, le diagramme en barre et le diagramme en secteurs.
On utilise des diagrammes à secteurs circulaires, pour représenter des aires proportion-
nelles aux fréquences de la variable statistique.

Exemple 6.21 une étude statistique dans un lycée concernant la mention du bac nous
a donné les résultats suivants
Mention SM P AB B TB Total
nombre des élèves 20 38 29 9 3 99
Tableau statistique

Mention E¤ ni E¤ cumulé Ni " Fréquencefi Fréq cumuléFi " %


SM 20 20 0; 20202 0; 20202 20; 20%
P 38 58 0; 38384 0; 58586 38; 38%
AB 29 87 0; 29293 0; 87879 29; 29%
B 9 96 0; 0909 0:96969 9; 10%
TB 3 99 0; 0303 1 3; 03%
Total 99 1 100%
Représentations graphiques, en colonnes et en barres et en secteurs circulaires
(F ig 25; F ig 26 et F ig 27).

;
F ig 25 Diagramma en colonnes F ig 26 Diagramme en barres

F ig 27 Diagramme en secteurs

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 157

Polygones (F ig 28; F ig 29)

F ig 28 Polygone des e¤ectifs F ig 29 Polygone des e¤ectifs cumulés

6.2.4 Exercices
Exercice 6.1 On donne la réparation des femmes âgées de 50 à 54 ans d’après le nombre
de leurs enfants vivants

Nombre d0 enfants 0 1 2 3 4 et plus


E¤ectifs 19 25 23 14 19

1) Quels sont la population étudiée? le caractère? la nature du caractère? les


modalités?
2) Représenter cette série par le diagramme qui convient.
3) Déterminer le mode et la médiane.
4) Peut-on calculer la moyenne et l’écart-type? que convient-il de faire?

Solution. 1) La réponse de la question 1 est résumé dans le tableau suivant:

Population Caractère nature du caractère Modalités


f emmes a
^gees N ombre d’enf ants 0; 1; 2; 3;
Quantitative discrète
de 50 a 54 ans nes vivants 4 et plus

2) Le diagramme qui convient: en battons (F ig 30).

F ig 30 Diagramme en battons

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 158

3) Le mode est la valeur la plus fréquente. On a le plus grand e¤ectifs est 25; d’où M o = 1:
La médiane: n = 100 est pair, alors
X n2 + X n2 +1 X50 + X51
Me = = =2
2 2
4) On ne peut pas calculer la moyenne et l’écart-type parce que la série est ouverte. On
Q3 Q1
estime la moyenne par le mode et l’écart-type par 2
:

Exercice 6.2 Dans une région de l’Algérie, un échantillon d’individus actifs a donné
les résultats suivants: 11; 1% d’agriculteurs, 10; 6% de patrons, 16; 5% de cadres, 16; 5%
d’employés, 38; 6% d’ouvriers et 6; 7% de personnels de service et autres catégories.
1) Quels sont la population étudiée? le caractère? la nature du caractère? les modal-
ités?
2) Représenter cette distribution par le diagramme qui semble le mieux adapté.

Solution. 1) La réponse de la question 1 est résumé dans le tableau suivant:

Population Caractère Nature du caractère Modalités


Individus actifs Activité Qualititative Ag; P t; Ca; Em; Ou; P s

Le diagramme: en secteurs (F ig 31).


P
Xi Ag Pt Ca Em Ou Ps
P ourcentage 11; 1 10; 6 16; 5 16; 5 38; 6 6; 7 100
Angle en degre 39; 96 38; 16 59; 4 59; 4 138; 96 24; 12 360

(
100% ! 360
() = 39; 96 ;
11; 1% !
F ig 31 Diagramme en secteurs

Exercice 6.3 On observe deux groupes de 100 personnes atteintes d’une maladie. Les
uns ont subi le traitement A et les autres le traitement B. Les temps d’hospitalisation,

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 159

avant guérison, se répartissent comme suit:

Temps d’hospitalisation T E¤, Trait A E¤, Trait B


0 a 3mois 2 12
3 a 5mois 3 18
5 a 6mois 6 21
6 a 7mois 10 14
7 a 8mois 18 12
8 a 9mois 23 8
9 a 10 mois 18 5
10 a 12mois 12 6
12 a 18 mois 8 4
Total 100 100

Représenter ces répartitions par le diagramme qui convient. Que peut-on conclure?

Solution. On représente ces répartitions par des histogrammes. Cherchons tout d’abord
les e¤ectifs corrigés hi = ai ni :

Temps Ef ni de A Ef cor hi de A Ef n0i de B Ef cor h0i de B


0 a 3mois 2 6 12 36
3 a 5mois 3 6 18 36
5 a 6mois 6 6 21 21
6 a 7mois 10 10 14 14
7 a 8mois 18 18 12 12
8 a 9mois 23 23 8 8
9 a 10 mois 18 18 5 5
10 a 12mois 12 24 6 12
12 a 18 mois 8 48 4 24
Total 100 100

;
F ig 32 Histogramme A F ig 33 Histogramme B

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 160

Remarque 6.17 On observe le décalage de l’histogramme B vers la gauche (voir


F ig 32; F ig 33) indiquant des temps d’hospitalisations réduits i:e: Le traitement B
est plus e¢ cace que A.

Exercice 6.4 L’étude du périmètre encéphalique d’un échantillon de 40 enfants a fourni


les résultats suivants (exprimés en cm):

40; 2 42; 2 44; 4 45; 3 46; 4 47; 0 47; 8 49; 3;


40; 5 43; 0 44; 6 45; 9 46; 4 47; 0 47; 9 49; 5;
41; 3 43; 5 44; 6 45; 9 46; 8 47; 0 48; 2 49; 6;
41; 9 43; 8 44; 9 46; 2 46; 9 47; 3 48; 4 49; 9;
42; 2 44; 3 45; 1 46; 4 47; 0 47; 7 48; 5 50; 3

1) Faire une répartition par classes.


2) Représenter graphiquement ces données.
3) Déterminer les centres de classes, les e¤ectifs cumulés, les fréquences et les
fréquences cumulées.
4) Tracer la sigmoïde.
5) Déterminer le mode et la médiane.
6) Calculer la moyenne et la variance.

Solution. 1) Répartition par classes. Le Nombre des classes est


p p
k' n= 40 ' 6:

L’étendue est eX
eX = max xi min xi = 50; 3 40; 2 = 10; 1
1 i 40 1 i 40

L’amplitude a des classes est


eX
a& :
k
Nous avons
eX 10; 1
= = 1; 683 3:
k 6
On prend a = 2:

Classe [40; 2; 42; 2[ [42; 2; 44; 2[ [44; 2; 46; 2[ [46; 2; 48; 2[ [48; 2; 50; 2[ [50; 2; 52; 2[
E¤ectif 4 5 9 14 7 1

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 161

2) Représentation graphique par l’histogramme (F ig 34)

F ig 34 L’histogramme

3) On présente les centres de classes, les e¤ectifs cumulés, les fréquences et les fréquences
cumulées dans le tableau suivant:
ni Ni
Classes xi ni Ni fi = n
Fi = n
ni xi ni x2i
[40:2; 42:2[ 41:2 4 4 0:1 0:1 164:8 6789:76
[42:2; 44:2[ 43:2 5 9 0:125 0:225 216:0 9331:2
[44:2; 46:2[ 45:2 9 18 0:225 0:45 406:8 18387:36
[46:2; 48:2[ 47:2 14 32 0:35 0:8 660:8 31189:76
[48:2; 50:2[ 49:2 7 39 0:175 0:975 344:4 16944:48
[50:2; 52:2[ 51:2 1 40 0:025 1 51:2 2621:44
P
n = 40 1 1844:0 85264:
4) La sigmoïde est le polygone d’e¤ectifs cumulés (F ig 35).

F ig 35 Polygone d’e¤ectifs cumulés

5) Le mode M o: La classe modale est la classe la plus fréquente [46; 2; 48; 2[ :M o =


41
b4 + 41 +42
a = 46; 2 + 14 14 9
9+14 7
2 = 47; 033
La médiane M e : La classe médiane est la classe corresponde au premier e¤ectif cumulé
n n
2 2
= 20; d’où la classe médiane est [46; 2; 48; 2[ :
n
2
N3 20 18
M e = b4 + a = 46; 2 + 2 = 46; 486
n4 14

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 162

Remarque 6.18 On peut calculer graphiquement le mode et la médiane.


Par exemple: Le mode est l’abscisse de point d’intersection des droites (AB) et
(CD) avec A (46; 2; 14) ; B (48; 2; 7) ; C (46; 2; 29) et D (48; 2; 14)
(
(AB) : 7x + 2y 351:4 = 0
; (AB) \ (CD) = fM (47; 033; 11; 083)g
(CD) : 5x 2y 213 = 0

Donc
M o = 47; 033
n
La médiane est l’abscisse de point de segment [EF ] dont sa ordonné égale à 2
et

E (46:2; 18) ; F (48:2; 32)

(EF ) : 7x y 305:4 = 0

7 (M e) 20 305:4 = 0 () M e = 46:486:

On peut aussi appliquer le théorème de Tales pour déterminer la médiane. On prend les
points M M e; n2 ; I (M e; nm ) ; H (bm+1 ; nm ) et F (bm+1 ; nm+1 ) :
Nous avons (IM ) (HF ) et d’après Tales on a
IM IE
= ;
HF HE
cela nous donne
20 18 Me 46; 2 1 M e 46; 2
= () = :
32 18 48; 2 46; 2 7 2
Ça nous donne
M e = 46; 486:

6) La moyenne est
1P 1844
X= ni xi = = 46; 1:
n 40
La variance est
1X 2 85264
s2X = ni x2i X = (46; 1)2 = 6; 39:
n 40
Remarque 6.19 On peut calculer la moyenne et la variance en utilisant une variable
auxiliaire U :
X xm
U= ;
am
tels que xm et am sont respectivement le centre et l’amplitude de la classe médiane.

6.2. Statistique unidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 163

Exemple 6.22 Dans l’exercice 6.4, nous avons

xm = 47; 2; am = 2

Calculons tout d’abord la moyenne et la variance provisoires U et s2U puis on applique les
propriétés

X = am U + x m et s2X = a2m s2U :


P
Centre de classe xi 41; 2 43; 2 45; 2 47; 2 49; 2 51; 2
Valeurs de V.auxiliaire ui 3 2 1 0 1 2
E¤ectif ni 4 5 9 14 7 1 40
n i ui 12 10 9 0 7 2 22
ni u2i 36 20 9 0 7 4 76
22 76
U= = 0; 55; s2U = ( 0; 55)2 = 1; 5975
40 40
Finalement on obtient:
X = 2 ( 0; 55) + 47; 2 = 46; 1:
Et
s2X = 22 1; 5975 = 6; 39

6.3 Statistique bidimensionnelle


La statistique descriptive bidimensionnelle est utilisée pour étudier simultanément deux
variables statistiques sur le même échantillon. On s’intéresse à l’étude des liaisons entre
ces deux variables. Pour assurer l’existence de certains liaisons, il faut introduire des
graphiques spéci…ques (nuage de points, diagrammes en battons en parallèle des deux
variables,...). Ainsi on introduit les notions de covariance, de coe¢ cient de corrélation et
les droites de régression. On distinguera dans ce chapitre trois cas: les deux variables sont
qualitatives, les deux quantitatives ou l’une qualitative et l’autre quantitative.

6.3.1 Cas de deux variables qualitatives


Pour l’étude simultanément de deux variables qualitatives X; Y observées simultanément
sur un échantillon de taille n. Les modalités de X sont x1 ; :::; xi ; :::; xk . Les modalités
de Y sont y1 ; :::; yj ; :::; yp : On présente les données dans une table à double entrées
dit la table de contingence selon les modalités de chaque variable. Puis on construit des

6.3. Statistique bidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 164

digrammes pour apparaitre s’il existe la liaison entre ces variables. On détermine des
indicateurs (de Khi-deux, phi-deux, Cramer et de Tschuprow.)

Données et présentations

On considère dans le cas de deux variables statistiques un table statistique dit table de
contingence. les xi sont disposées en lignes et les yj en colonnes. kp est la dimension de
ce tableau, nij est le nombre de modalités conjointes des modalités xi et yj : Les quantités
nij sont dits l’e¤ectifs conjoints.

Table de contingence

X Y y1 yj ::: Yp Total
x1 n11 n1j ::: n1p n1:
.. ..
. .
xi ni1 nij nip ni:
.. ..
. .
xk nk1 nkj nkp nk:
Total n:1 n:j n:p n

ni: (i = 1; 2; :::; k) et n:j s(j = 1; 2; :::; p) ont appelés e¤ectifs marginaux. Ils sont dé…nis
par
P
p P
k
ni: = nij et n:j = nij :
j=1 i=1

Ils véri…ent
p
P
k P
p X
k X
ni: = n:j = nij = n
i=1 j=1 i=1 j=1

On dé…nit aussi respectivement les fréquences marginaux et la fréquence conjointe par


ni: n:j nij
fi: = ; f:j = et fij = :
n n n
Elles véri…ent
p
P
k P
p X
k X
fi: = f:j = fij = 1
i=1 j=1 i=1 j=1

Représentations graphiques

6.3. Statistique bidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 165

Pro…ls

Dé…nition 6.34 On appelle ieme pro…l-ligne l’ensemble des fréquences de la variable Y


conditionnelles à la modalité xi de X: i:e
ni1 ni2 nij nip
; ; :::; ; :::;
ni: ni: ni: ni:
Dé…nition 6.35 On appelle jeme pro…l-ligne l’ensemble des fréquences de la variable X
conditionnelles à la modalité yi de Y: i:e
n1j n2j nij nkj
; ; :::; ; :::;
n:J n:j n:j n:j
Remarque 6.20 La représentation graphique des pro…ls-lignes ou des pro…ls-colonnes
donne une idée assez précise de la variation conjointe des deux variables.

Indices de liaison: Il y a une équivalente entre les trois assertions suivants:


i) L’égalité de tous les pro…ls-lignes,
ii) L’égalité de tous les pro…ls-colonnes
n +n
iii) pour tout (i; j), (i = 1; 2; :::; k et j = 1; :::; p) on a nij = i n :j
Si deux variables statistiques quantitatives X; Y véri…ent les propriétés précédentes.
On dit qu’il n’existe aucune liaison entre X et Y:
En e¤et, si tous les pro…l-lignes sont égaux, alors la répartition des xi est la même
quelque soit yj . Cela signi…e que il n’y a pas d’in‡uence de la variable Y sur la répartition
de X. i:e Y n’a pas d’in‡uence sur X: Donc X et Y ne sont pas liées. En déduire le
même résultat en cas d’égalité des pro…ls colonnes.

Khi-deux On utilise le Khi deux pour comparer une table de contingence observée
sur un échantillon de taille n, d’e¤ectifs conjoints nij , avec une table de contingence
donnée (standard) sur la population d’e¤ectifs conjoints n0ij , en calculant tous d’abord la
quantité
2
P
k P
p nij n0ij
(**)
i=1 j=1 n0ij
Pour mesurer la liaison sur une table de contingence, on utilise l’expression ( ) en
ni: +n:j
choisissant pour l’e¤ectif standard n0ij l’e¤ectif correspondant a l’absence de liaison n
:

2
Dé…nition 6.36 On appelle khi-deux, l’indicateur dé…ni par
ni: n:j 2
2
P
k P
p nij n
= ni: n:j
i=1 j=1 n

6.3. Statistique bidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 166

Proposition 6.7 Le Khi-deux peut être exprimé par la formule suivante:


" #
2
2
Pk P p n ij
=n 1
i=1 j=1 ni: n:j
Preuve.
2 ni: n:j (ni: n:j )2
3
P
k P
p nij
ni: n:j 2
P
k P
p n2ij 2nij n
+ n
2
= ni: n:j
n
= n4 5
i=1 j=1 n i=1 j=1 ni: n:j
" #
P
k P
p n2ij 2nij ni: n:j (ni: n:j )2
= n + 2
i=1 j=1 ni: + n:j nni: n:j n (ni: n:j)
" #
Pk P p n2ij 2P k P p 1 P k P p
= n nij + 2 ni: n:j
i=1 j=1 ni: n:j n i=1 j=1 n i=1 j=1
" #
Pk P p n2ij 2 1
= n n + 2 n2
i=1 j=1 ni: + n:j n n
" #
Pk P p n2ij
n 1 :
i=1 j=1 ni: n:j

2
Le coe¢ cient est toujours positif ou nul et n’est pas majoré. On peut trouver des
2
coe¢ cients plus grands qu’on l’espérer. Il y a d’autres coe¢ cients plus précis que le
khi-deux.

Phi-deux
2
Dé…nition 6.37 Le phi-deux est la quantité donnée par
2
2
=
n

Coe¢ cient de Tschuprow

Dé…nition 6.38 Le coe¢ cient de Tschuprow est la quantité T donnée par


s
2
T =
(k 1) (p 1)

Coe¢ cient de Cramer

Dé…nition 6.39 Le coe¢ cient de Cramer est la quantité C donnée par


s
2
C=
(inf (k; p) 1)

6.3. Statistique bidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 167

Proposition 6.8 Les coe¢ cients T et C véri…ent:

0 T C 1

Exemple 6.23 Une étude statistique sur deux variables statistiques qualitatives X et Y
sur un échantillon de taille n = 100 a donné les résultats suivants:

X Y y1 y2 y3 ni:
x1 10 2 8 20
x2 10 15 25 50
x3 8 12 10 30
n:j 28 29 43 100
ni: n:j
Pour calculer les indices de liaison, On calcul tout d’abord 2
n n
La table suivante nous donne les valeurs i: 2 :j :

5; 6 5; 8 8; 6 20
14 14; 5 21; 5 50
8; 4 8; 7 12; 9 30
28 29 43 100

Le khi-deux

2 (10 5; 6)2 (2 5; 8)2 (8 8; 6)2 (10 14)2 (15 14; 5)2


= + + + +
5; 6 5; 8 8; 6 14 14; 5
2 2 2 2
(25 21; 5) (8 8; 4) (12 8; 7) (10 12; 9)
+ + + +
21; 5 8; 4 8; 7 12; 9
= 9; 64

Le phi-deux
2
2 9; 64
= = = 0; 0964
n 100
Coe¢ cient de Tschuprow
s s
2 0; 0964
T = = = 0; 16:
(k 1) (p 1) (3 1) (3 1)
Coe¢ cient de Cramer
s r
2 0; 0964
C= = = 0; 22:
inf (k; p) 1 3 1

Cette valeur est faible par rapport a son intervalle de variation [0; 1], mais la liaison
n’est pas négligeable.

6.3. Statistique bidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 168

6.3.2 Cas de deux variables quantitatives


Les deux variables sont discrètes:

Pour étudier la liaison entre deux variables quantitatives discrètes, il faut faire un graph-
ique dit nuage de points. La forme générale de ce graphique indique l’existence ou non
de liaison entre les deux variables.
Pour connaître l’intensité de la liaison entre ces deux variables, on calcule un indicateur
de liaison. (Covariance, Coe¢ cient de corrélation).

Nuage de points Il s’agit d’un graphique pour représenter les observations simultanées
de deux variables quantitatives. Il consiste a considérer deux axes perpendiculaires, l’axe
horizontal représentant la variable X et l’axe vertical la variable Y , puis à représenter
chaque individu observé i par le point d’abscisse xi et d’ordonnée yi . . On notera qu’on
rencontre parfois la terminologie de diagramme de dispersion, traduction littérale. En
général le nuage de points nous donne une idée sur la variation conjointe des deux variables.

Exemple 6.24 Soit la série statistique suivante:

X 0 1 3 4 7 8 9 10 12
Y 2 2 4 5 7 7 9 8 10

La représentation du nuage de points est la suivante ( F ig 36):

F ig 36 Nuage de points

Série conditionnelle

Série conditionnelle par rapport à X:

Dé…nition 6.40 La variable X conditionnée par Y = yj est la variable notée X=Y = yj


ou simplement X=yj et on dit aussi la série conditionnelle de X sachant que Y = yj .

6.3. Statistique bidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 169

On dé…nit dans ce cas, la fréquence conditionnelle, la moyenne conditionnelle et la


variance conditionnelle.

Dé…nition 6.41 La fréquence conditionnelle fi =j (fi sachant j); i = 1; :::; k, est

fij nij
fi=j = = :
f:j n:j

La moyenne conditionnelle Xyj , c’est la moyenne des valeurs de X sous la condition


Y = yj , elle est donnée par

P
k 1 P k
X=yj = fi=j xi = nij xi :
i=1 n:j i=1
La variance conditionnelle est donnée par

1 P k 2 P
k 2
sX=yj = nij xi X=yj = fi=j xi X=yj
n:j i=1 i=1

Remarque 6.21 On peut aussi appliquer la formule de Koenig pour calculer la variance
conditionnelle.
1 P k 2 P
k 2
sX=yj = nij x2i X=yj = fi=j x2i X=yj
n:j i=1 i=1

Série conditionnelle par rapport à Y: Ce sont les mêmes principes, il su¢ t de


changer les i par j et les x par les y et k par p.

Dé…nition 6.42 la fréquence conditionnelle fj=i (fj sachant i); j = 1; :::; p, est

fij nij
fJ=i = =
fi: ni:

la moyenne conditionnelle Y =xi , c’est la moyenne des valeurs de Y sous la condition


X = xi , elle est donnée par

P
p 1 P P
Y =xi = fi=j yj = nij yj
j=1 ni: j=1

La variance conditionnelle est donnée par


1 P p 2 P
p 2
sY =xi = nij yj Y =xi = fi=j yi Y =xi
ni: j=1 j=1

Covariance et Coe¢ cient de corrélation linéaire Dans le cas unidimensionnel, on


parle à la variance. On introduit maintenant une notion dite covariance, qui généralise la
notion de variance dans le cas bidimensionnel.

6.3. Statistique bidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 170

Covariance

Dé…nition 6.43 On appelle covariance de deux variables statistiques discrètes X; Y; la


quantité notée par Cov (X; Y ) ou sXY dé…nie par:
1P n P p
sXY = nij xi X yj Y
n i=1 j=1
Proposition 6.9 La covariance est donnée aussi par la formule suivante:
1P k P p
sXY = nij xi yi XY
n i=1 j=1
Preuve. On sait que
P
K P
p P
p P
K
nij = n; nij = ni: et nij = n:j
i=1 j=1 j=1 i=1

1P K P p
sXY = nij xi X yj Y
n i=1 j=1
1P k P p 1 Pk P p 1 P k P p 1 Pk P p
= nij xi yj Y nij xi X nij yj + XY nij
n i=1 j=1 n i=1 j=1 n i=1 j=1 n i=1 j=1

1P k P p 1 Pk Pp 1 P p P
k 1
= nij xi yj Y xi nij X yj nij + XY n
n i=1 j=1 n i=1 j=1 n j=1 i=1 n
1P k P p 1 Pk 1 P p
= nij xi yj Y ni: xi X n:j yj + XY
n i=1 j=1 n i=1 n j=1
1P k P p 1 1
= nij xi yj Y nX XnY + XY
n i=1 j=1 n n
1P k P p
= nij xi yj XY :
n i=1 j=1

Proposition 6.10 Soient a; b; c; d des constantes réelles et X; Y deux variables stat-


istiques quantitatives, alors

Cov (aX + b; cY + d) = acCov (X; Y ) :


Preuve.
1P K P p
Cov (aX + b; cY + d) = nij axi + b aX + b cyj + d cY + D
n i=1 j=1
1P K P p
= nij axi + b aX b cyj + d cY d
n i=1 j=1
1P K P p
= ac nij xi X yj Y = acCov (X; Y ) :
n i=1 j=1

6.3. Statistique bidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 171

Propriétés i) sXY = sY X (Symétrique).


ii) s2XY s2X s2Y (Inégalité de Cauchy Schwarz).
Preuve. i) Evidente
ii) Nous avons pour tout > 0

V ar ( X + Y ) 0;

qui nous donne


V ar ( X) + V ar(Y ) + 2Cov( X; Y ) 0;
et d’après la proposition 6.10 et les propriétés de la variance, on obtient

2
V ar (X) + 2 Cov(X; Y ) + V ar(Y ) 0;

D’où
Cov 2 (X; Y ) V ar (X) V ar(Y ) < 0:

Coe¢ cient de corrélation linéaire

Dé…nition 6.44 On appelle coe¢ cient de corrélation de deux variables statistiques X; Y


la quantité rXY dé…nie par:
sXY
rXY =
sX sY
Proposition 6.11 Pour toute variables statistiques quantitatives X; Y , nous avons les
propriétés suivantes:
i) rXY = rY X
ii) rXY = Cov XsXX ; YsYY
iii) 1 rXY 1:

Preuve. i) Evidente
ii)
" #" #
X X Y Y 1P k P p xi X X X yj Y Y Y
Cov ; = nij
sX sY n i=1 j=1 sX sX sY sY
1P k P p 1 1
= nij xi X X + X yj Y Y + Y
n i=1 j=1 sX sY
1 1P k Pp sXY
= nij xi X yj Y = = rXY :
sX sY n i=1 j=1 sX sY

6.3. Statistique bidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 172

iii) D’après l’inégalité de Cauchy Schwarz

s2XY s2X s2Y () jrXY j 1:

Proposition 6.12 Soient a; b; c; d des constantes réelles, X; Y deux variables stat-


istiques quantitatives et Z; W deux variables dé…nies respectivement par

Z = aX + b et W = cY + d

Alors on a
rZW = rXY

Preuve. Nous avons vu que

sZW = acsXY et s2Z = a2 sX et s2W = c2 sY

D’où
sZW ac:sXY sXY
rZW = = = = rXY
sZ sW asX :csY sX :sY

Proposition 6.13 Soient X; Y deux variables statistiques quantitatives, alors on a


!
k P
P p Pk Pp
n nij xi yj ni: xi n:j yj
i=1 j=1 i=1 j=1
rXY = v
u" #2 !2 3
u Pk P
k 2
P
p P
p
u 4n 5
t n ni: x2i ni: xi n:j yj2 n:j yj
i=1 i=1 j=1 j=1

6.3. Statistique bidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 173

Preuve.

1
P
k P
p

n
nij xi yj XY
sXY i=1 j=1
rXY = =v !
sx sy u
u P
k 2 P
p
2
t 1
ni: x2i X 1
n:j yj2 Y
n n
i=1 j=1
!
1
P
k P
p
1
P
k
1
P
p

n
nij xi yj n
ni: xi n
n:j yj
i=1 j=1 i=1 j=1
= v
u" #2 !2 3
u P P 2
P
p P
p
u 1 k k
41
t n ni: x2i 1
n
ni: xi n
n:j yj2 1
n
n:j yj 5
i=1 i=1 j=1 j=1
" !#
1
P
k P
p P
k P
p

n2
n nij xi yj ni: xi n:j yj
i=1 j=1 i=1 j=1
= v
u" #2 !2 3
u P k P
k 2
P
p P
p
1 u 4n 5
n2
t n ni: x2i ni: xi n:j yj2 n:j yj
i=1 i=1 j=1 j=1
" !#
P
k P
p P
k P
p
n nij xi yj ni: xi n:j yj
i=1 j=1 i=1 j=1
= v
u" #2 !2 3
u Pk P
k 2
P
p P
p
u 4n 5
t n ni: x2i ni: xi n:j yj2 n:j yj
i=1 i=1 j=1 j=1

Interprétation i) si rXY > 0 : Les deux variables varient dans le même sens
ii) si rXY < 0 : Les deux variables varient en sens opposé
iii) jrXY j indique l’intensité de la liaison.
Si jrXY j est proche de 1, la liaison est forte et si elle est proche de 0; la liaison est faible.
Prenons comme exemples
iv) jrXY j ' 0; 9 : la liaison est très forte
v) jrXY j ' 0; 5 : La liaison est moyenne
vi) jrXY j ' 0; 1 : La liaison est très faible
vii) jrXY j = 1 : La liaison est linéaire parfaite i:e il existe les relations:

Y = aX + b et X = cY + d;

où a; b; c et d sont des constantes réelles.

6.3. Statistique bidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 174

Exemple 6.25 Si on veut calculer la covariance et le coe¢ cient de corrélation de la


distribution suivante:
xi 0 1 3 4 7 8 9 10 12
yi 2 2 4 5 7 7 9 8 10
On calcul les valeurs x2i ; yi2 et xi yi :
i xi yi x2i yi2 xi yi
1 0 2 0 4 0
2 1 2 1 4 2
3 3 4 9 16 12
4 4 5 16 25 20
5 7 7 49 49 49
6 8 7 64 49 56
7 9 9 81 81 81
8 10 8 100 64 80
9 12 10 144 100 120
P
54 54 464 392 420
On tire de ce tableau
P
9 P
9 P
9
xi = 54; yi = 54; x2i = 464;
i=1 i=1 i=1
P9 P
9
yi2 = 392; et xi yi = 420:
i=1 i=1
On trouve maintenant

1P 9 54 1P 9 54
X= xi = = 6; Y = yi = = 6;
9 i=1 9 9 i=1 9
et
1P 9 464
2 p
s2X = x2 X = 36 = 15; 56; sX = 15:56 = 3; 94
9 i=1 i 9
1P 9 2 392 p
s2Y = y2 Y = 62 = 7; 5 6; sy = 7; 5 6 = 2; 75:
9 i=1 i 9
La covariance
1P 9 420
sXY = xi yi XY = 6 6 = 10; 67:
9 i=1 9
Le coe¢ cient de corrélation

sXY 10; 67
rXY = = = 0; 98
sX sY 3; 94 2; 75
Donc X et Y sont positivement varies et très fortement corrélées.

6.3. Statistique bidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 175

Régression linéaire Supposons par exemple La variable X est cause de la variable Y


et elles sont fortement corrélées.
L’objectif est de chercher une fonction f de X approchant Y , Y ' f (X) : La méthode
statistique utilisée pour déterminer cette fonction est dite régression de Y sur X: Si on
considère Y comme cause de X; on dit régression de X surY; X ' f (Y )
Dans ce paragraphe, On cherche que des fonctions de régressions a¢ nes, dites
régerssions linéaires. On utilise en général le critère appelé des moindres carrés car il
consiste a minimiser une somme de carrés.

Droite de Mayer On divise le nuage de points en deux ensembles A; B presque de


même cardinal, soient G1 ; G2 sont respectivement les barycentres des ensembles A et B:

Dé…nition 6.45 La droite (G1 G2 ) est appelée la droite de Mayer.

L’équation de Mayer Notons l’e¤ectif total de A; nA (resp nB de B) et cherchons


l’équation de (G1 G2 ) tels que
8 8
> P
nA
> P
nB
>
< xG1 = n1A xi = X 1 >
< xG2 =
1
nB
xi = X 2
i=1 i=nA
PnA ; P
nB
>
> 1 >
> 1
: yG1 = nA
yi = Y 1 : yG2 = nB
yi = Y 2
i=i i=nA

(G1 G2 ) : Y = aX + b;
avec
Y2 Y1
a= et b = Y 1 aX 1 ou b = Y 2 aX 2 ;
X2 X1
et en…n nous avons l’équation de Mayer
Y2 Y1 Y2 Y1
Y = X +Y1 X 1;
X2 X1 X2 X1
ou bien
Y2 Y1 Y2 Y1
Y = X +Y2 X2
X2 X1 X2 X1
Exemple 6.26 Dans l’exemple 6.26, nous avons

A = f(0; 2) ; (1; 2) ; (3; 4) ; (4; 5) ; (7; 7)g et


B = f(8; 7) ; (9; 9) ; (10; 8) ; (12; 10)g :

D’où ( (
0+1+3+4+7 8+9+10+12
X G1 = 5
=3 X G2 = 4
= 39
4
2+2+4+5+7
; 7+9+8+10 17
Y G1 = 5
=4 Y G2 = 4
= 2

6.3. Statistique bidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 176

Donc l’équation de Mayer est


17 17
2
4 2
4
y= 39 x+4 39 3
4
3 4
3
2
y = x+2
3

La droite de moindres carrés

Méthode des moindres carrés Le critère des moindres carrés est une méthode a
utilisé pour minimiser une somme de carrés. cette somme est donnée par
P
n
F (a; b) = [yi (axi + b)]2
i=1

La quantitéj yi (axi + b)j représente, dans le nuage de points, la distance verticale


du point Ai (xi ; yi ) à la droite d’ équation y = ax + b (voir F ig 37). Cette di¤érence
représente l’erreur commise en approchant yi par axi + b. Pour trouver l’erreur globale
commise sur l’ensemble de points, il faut faire la somme de tous ces quantités.

F ig 37 Droite de régression

a; bb qui minimise F (a; b) :


Cherchons les constantes b
8 Pn
> @F (a;b)
< @a = 2 xi [yi (axi + b)]
i=1
Pn :
> @F (a;b)
: @b = 2 [yi (axi + b)]
i=1

Points critiques:
8 P
n
( >
@F (a;b)
=0 < xi [yi (axi + b)] = 0
@a i=1
() Pn
@F (a;b)
=0 >
: [yi (axi + b)] = 0
@b
i=1
8 Pn Pn Pn 8 P n Pn Pn
>
< 2
xi yi a xi b xi = 0 >
< a x2i + b xi = x i yi
i=1 i=1 i=1 i=1 i=1 i=1
Pn P
n () Pn P
n
>
: yi a xi nb = 0 >
: a xi + nb = yi :
i=1 i=1 i=1 i=1

6.3. Statistique bidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 177

On résout ce système d’équations:


8 P
n P
n P
n 8
>
< a n1 x2i + b n1 xi = n1 xi yi < 1
P
n
1
P
n

i=1 i=1 i=1


a n
x2i + bX = n
xi yi
P
n P
n () i=1 i=1
>
: a 1
xi + b = 1
yi :
n n b=Y aX
i=1 i=1

1Pn 1P n 1P n 2 1P n
a x2 + Y aX X = xi yi () a x2 X = xi yi XY:
n i=1 i n i=1 n i=1 i n i=1
D’où
sXY bb = Y sXY
b
a= ; X
s2X s2X
sXY sXY
Pour con…rmer que le point m s2X
;Y s2X
X est un minimum, on calcul les dérivées
partielles d’ordre 2: 8
> @ 2 F (a;b) P
n
>
> = x2i
>
< @a2
i=1
@ 2 F (a;b)
@a2
=n
>
> Pn
>
> 2
: @ @a@bF (a;b)
= xi
i=1
0 Pn P n 1
x2i xi
B i=1 i=1 C
donc la matice Hiciène est @ Pn A ; le déterminant dit Hisien est
xi n
i=1

P
n P
n
x2i xi P
n P
n 2
i=1
Pn
i=1
=n x2i xi > 0:
xi n i=1 i=1
i=1

Et on a aussi
P
n
x2i > 0
i=1

Alors La fonction F admet un minimum en point m ssXY 2 ;Y


sXY
s2X
X .
X
Donc l’équation de la droite des moindres carrés si X est cause de Y est
sXY sXY
Dy (X) : Y = X +Y X:
s2X s2X
Et si Y est cause de X; nous avons l’équation:
sXY sXY
Dx (Y ) : X = Y +X Y
s2Y s2Y
Exemple 6.27 Dans l’exemple 6.26, on trouve:
10; 67 10; 67
Dy (X) : Y = X +6 6
15; 56 15; 56
Dy (X) : Y = 0; 69X + 1; 89 ;

6.3. Statistique bidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 178

et
10; 67 10; 67
Dx (Y ) : X = Y +6 6
7; 56 7; 56
Dx (Y ) : X = 1; 41Y 2; 47

aX + bb est l’équation de la droite des moindres carrés, alors:


Proposition 6.14 Si Y = b
sY bb = Y sY
b
a = rXY et rXY X:
sX sX
Preuve. Nous avons
sXY sXY sY sY
b
a= 2
= = rXY ;
sX sX sX sY sX
et
bbY sY
b
aX = Y rXY X
sX

Propriétés i) Les droites de régression de Y sur X ou de X sur Y passent par le


point moyen M X; Y :
ii) Si rXY > 0 i:e sXY > 0; (b a > 0): la droite est ascendante.
iii) Si rXY < 0 i:e sXY < 0; (b a < 0): la droite est descendante.
iv) Les valeurs Ybi = b b
aXi + b sont dites les valeurs prédites; elles ont la même moyenne
yi que Y .
v) Les valeurs ebi = Yi Ybi sont dites les résidus. Ils sont de moyenne nulle et de
a; bb).
variance 1 F (b
n

Exemple 6.28 le tableau suivant nous donne le nombre de kilomètres parcourus par des
cyclistes en fonction du nombre d’heure passé sur la piste durant une course d’endurance.
La première colonne représente le nombre d’heure et la deuxième colonne représente le
kilométrage parcouru.

6.3. Statistique bidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 179

La droite des moindres carrés est donnée par la …gure suivante (F ig 38)

F ig 38 Droite des moindres carrés

aX + bb;
L’équation de la droite de régression des moindres carrés est Y = b

; bb = Y
XY
b
a= 2
aX
X

Le calcul nous donne: X = 5; 64 ; y = 59; 28, alors,


s
1 P 14 1 P 14 2
XY = xi yi XY = 77; 03; X = xi X =8; 37;
14 i=1 14 i=1

on obtient donc,

b
a = 9; 20 et bb = 59; 28 9; 20 5; 64 = 7; 39:

Finalement, la droite de régression des moindres carrés est

Dy (X) : Y = 9; 20X + 7; 39:

Ajustement fonctionnel Lorsque l’on veut modéliser les données, la question qui se
pose est de trouver l’équation des courbes de régression. Ces courbes généralement à
des fonctions compliquées mais on peut chercher à les approcher par des fonctions plus
simples. Le principe général est de partir d’une forme de fonction connue et de chercher les
paramètres qui ajustent le mieux possible les courbes obtenues aux courbes de régression.
Par exemple, si l’on part de l’idée que la courbe de régression, serait une droite, alors

6.3. Statistique bidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 180

elle serait caractérisée par une équation de type y = ax + b (voir F ig 39).

F ig 39 Ajustement linéaire

Il faudrait alors identi…er les paramètres a et b pour connaître l’équation de la droite.


Si l’on imagine que la courbe de régression correspond à une parabole, l’équation cher-
chée serait de la forme
y = ax2 + bx + c
et dans ce cas il faudrait trouver les valeurs des trois paramètres, a; b, et c.

F ig 40

Ajustement puissance L’ajustement puissance est basé sur la courbe représentant


par l’équation de type
y = axb
On remarque que
ln y = a ln x + ln b:
On pose
V = ln y et U = ln x;
et on détermine l’équation de la droite de régression de v en u, l’équation obtenue est de
la forme
v = Au + B;
puis on en déduit l’équation de la courbe de fonction puissance
B
y = axb = Axe

6.3. Statistique bidimensionnelle


Chapter 6. STATISTIQUE DESCRIPTIVE 181

Ajustement exponentiel

F ig 41 Ajustement exponentiel

L’ajustement exponentiel a une courbe de fonction exponentielle d’équation

y = bax :

On remarque que
ln y = x ln a + ln b:
On pose z = ln y; on détermine l’équation de la droite de régression de z en x, l’équation
obtenue est de
la forme
z = Ax + B;

et on en déduit l’équation de la courbe de fonction exponentielle:


x
y = abx = eB eA = exp (Ax + B)

6.4 Exercices
Exercice 6.5 Le tableau ci-dessous donne la distribution des notes en physique (X) et
en Bio-statistique (Y ) d’un échantillon de 100 étudiants:

X Y [08; 10[ [10; 12[ [12; 14[ [14; 16[ [16; 18[ [18; 20[
[18; 20[ 2 4 4
[16; 18[ 1 4 6 5
[14; 16[ 5 10 8 1
[12; 14[ 1 4 9 5 2
[10; 12[ 3 6 6 2
[08; 10[ 3 5 4

6.4. Exercices
Chapter 6. STATISTIQUE DESCRIPTIVE 182

Les cases vides correspondent à un e¤ectif nul.


1) Déterminer les séries statistiques marginales. Calculer leur moyenne et l’écart type.
2) Déterminer à partir de ce tableau:
a) Le nombre d’étudiants ayant obtenu des notes comprises entre 14 et 16 en Bio-
statistique et entre 16 et 18 en physique
b) La proportion d’étudiants ayant eu une note inférieure à 14 en Bio-statistique.
c) Le nombre d’étudiants ayant eu une note égale ou supérieure à 14 en physique et
inférieure à 16 en Bio-statistique.
d) Le pourcentage d’étudiants qui ont réussi leur module de Bio-statistique et de
physique (la note de réussite 10).
3) Déterminer la série statistique conditionnelle de X sachant Y 2 [12; 14[ :
Calculer sa moyenne et son écart-type.
4) En utilisant les variables auxiliaires, calculer le coe¢ cient de corrélation.
5) Donner les équations des droites d’estimation Dy (X) et Dx (Y ) :

Solution.

X Y [08; 10[ [10; 12[ [12; 14[ [14; 16[ [16; 18[ [18; 20[ Total
[18; 20[ 2 4 4 10
[16; 18[ 1 4 6 5 16
[14; 16[ 5 10 8 1 24
[12; 14[ 1 4 9 5 2 21
[10; 12[ 3 6 6 2 17
[08; 10[ 3 5 4 12
Total 7 15 25 23 20 10 100

1) La série marginale de X

Classes (X) Centres xi E¤ectifs ni: ni: xi: ni: x2i


[8; 10[ 9 12 108 972
[10; 12[ 11 17 187 2057
[12; 14[ 13 21 273 3549
[14; 16[ 15 24 360 5400
[16; 18[ 17 16 272 4624
[18; 20[ 19 10 190 3610
Total 100 1390 20212

6.4. Exercices
Chapter 6. STATISTIQUE DESCRIPTIVE 183

La moyenne et l’écart-type de X
1390
X = = 13; 9;
100
20212 p
s2X = (13:9)2 = 8; 91; sX = 8; 91 = 2; 985
100
La série marginale de Y:

Classes (Y ) yj uj n:j n:j uj n:j u2j


[8; 10[ 9 3 7 21 63
[10; 12[ 11 2 15 30 60
[12; 14[ 13 1 25 25 25
[14; 16[ 15 0 23 0 0
[16; 18[ 17 1 20 20 20
[18; 20[ 19 2 10 20 40
Total 100 36 208

On utulisant la variable auxiliaire pour calculer Y et sY


Y xm 1
U= = (Y 15) :
2 2
La moyenne provisoire est

1 P 6 36
U= n:j uj = = 0; 36:
100 i=1 100

La moyenne de Y est

Y = 2U + 15 = 2 ( 0; 36) + 15 = 14; 28:

La variance provisoire est

1 P 6 2 208
s2U = n:j yj U = ( 0; 36)2 = 1; 95:
100 j=1 100

La variance de Y est
s2Y = 22 s2U = 4 1; 95 = 7; 80:

L’écart-type de Y est
p
sY = 7; 80 = 2; 79
47
2) a) na = 4 étudiants, b) fb = 100
= 0; 47, nc = 22 étudiants, c) pd = 84%:

6.4. Exercices
Chapter 6. STATISTIQUE DESCRIPTIVE 184

3) La série conditionnelle de X sachant 12 Y < 14

Classes(X=12 yi <14 ) Centres xi E¤ ni: vi ni: vi ni: vi2


[8; 10[ 9 4 2 8 16
[10; 12[ 11 6 1 6 6
[12; 14[ 13 9 0 0 0
[14; 16[ 15 5 1 5 5
[16; 18[ 17 1 2 2 4
Total 25 7 31

7 31
V = = 0; 28; s2V = ( 0; 28)2 = 1; 16;
25 25
et en …n nous avons
X=12 Y <14 = 2 ( 0; 28) + 13 = 12; 44

p
s2X=y = 4 1; 16 = 4; 64; sX=y = 4; 64 = 2; 15

4) Coe¢ cient de corrélation

yj 9 11 13 15 17 19
xi ui # v j ! 2 1 0 1 2 3 ni: ni: ui ni: u2i
19 2 24 4 16 4 24 10 20 40
17 1 10 44 6 12 5 15 16 16 16
15 0 50 10 0 80 10 24 0 0
13 1 12 44 90 5 5 2 4 21 21 21
11 2 3 12 6 12 60 2 4 17 34 68
9 3 3 18 5 15 40 12 36 108
n:j 7 15 25 23 20 10 100 55 = A 253 = C
n::j v:j 14 15 0 23 40 30 64 = B
n:j vj2 28 15 0 23 80 90 236 = D
P
nij 32 31 0 1 24 39 125 = E

6.4. Exercices
Chapter 6. STATISTIQUE DESCRIPTIVE 185

!
P
6 P
6 P P
n nij ui vj ni: ui n:j vj
i=1 j=1 i j
rXY = rU V = v
u" #2 !2 3
u P6 P
6 2
P
6 P
6
u 4n 5
t n ni: u2i ni: ui n:j vj2 n:j vj
i=1 i=1 j=1 j=1

100E AB 100 125 ( 55) 64


= p =q
(100C A2 ) (100D B2) 100 253 ( 55)2 100 236 (64)2
= 0; 77

5) Les droites d’estimation


sy y
Dy (X) : Y = rXY X +Y r X = 0:72X + 4; 28
sx x

sX y
Dxy (Y ) : X = rXY Y +X r Y = 0; 82Y + 2; 86
sY x

Exercice 6.6 Une entreprise pharmaceutique a mis sur le marché un nouveau cosmétique
qui a connu un grand succès. Les résultats de la vente sont résumés sur le tableau suivant:

Temps (mois):T 1 2 3 4 5 6 7 8
Nbre de vendues:V 10 23 38 77 165 318 642 1270

1) Ajuster ces données par une fonction exponentielle du type: V = P:QT :


2) Calculer le coe¢ cient de corrélation.
3) Estimer le nombre de vente au 10eme mois.

Solution. 1)
V = P:QT =) log V = T log Q + P

Posons
Y = log V; a = log Q; b = log p; et X = T

Les équations normales de la droite des moindres carrés Y = aX + b:sont:


8
> P
8 P
8 P
8
>
< a x2i + b xi = xi yi
i=1 i=1 i=1
>
> P
8 P
8
: a xi + nb = yi
i=1 i=1

6.4. Exercices
Chapter 6. STATISTIQUE DESCRIPTIVE 186

P
xi = ti 1 2 3 4 5 6 7 8 = 36
P
yi = log vi 1 1; 36 1; 58 1; 89 2; 22 2; 50 2; 81 3; 10 = 16; 459
P
x2i 1 4 9 16 25 36 49 64 = 204
P
yi2 1 1; 85 2; 50 3; 56 4; 92 6; 26 7; 89 9; 63 = 37; 604
P
xi yi 1 2:72 4; 74 7; 546 11; 09 15; 02 19; 67 24; 83 = 86; 594
On résout ce système d’équations
(
204a + 36b = 86; 594
:
36a + 8b = 16; 459
On trouve
a = 0; 298 = log Q () Q = 100;298

b = 0; 715 = log P () P = 100;715

Donc La relation demandée est

V = P:QT = 100;298T +0;715

2) Le coe¢ cient de corrélation entre X et Y telles que

X = T et Y = log V

P P
8 P
8
8 xi yi xi yi
i i=1 i=1
rXY = v" #" #
u 2 2
u P8 P
8 P
8 P
8
t 8 x2 xi 8 yi2 yi
i
i=1 i=1 i=1 i=1

8 86; 594 36 16:459


= q
8 204 (36)2 8 37; 604 (16:459)2
= 0; 996

3) L’estimation de nombre de vente au 10eme mois est

Vb10 = 102:983+0:71504 = 4989:3 ' 4989 boites

Exercice 6.7 Le tableau ci-dessous donne les valeurs expérimentales de la pression P


d’une masse de gaz pour di¤érentes valeurs du volume V de ce gaz:

V (cm3 ) 54; 3 61; 8 72; 4 88; 7 118; 6 194; 0


P (Kg=cm2 ) 61; 2 49; 5 37; 6 28; 4 19; 2 10; 01

6.4. Exercices
Chapter 6. STATISTIQUE DESCRIPTIVE 187

D’après les principes de la thermodynamiques, la relation liant P et V est une fonction


puissance de type P:V = C; où et C sont des constants dépendant des conditions
d’expérience.
1) Déterminer et C
2) Ecrire l’équation liant P et V:
3) Calculer le coe¢ cient de corrélation.
4) Estimer P si V = 160cm3 :

Solution. 1) Détermination de et C:

P:V = C ) log P = log V + log C

Posons
Y = log P; a = ; X = log V et b = log C

Les équations normales de la droite des moindres carrés Y = aX + b sont


8
> P
6 P
6 P
6
>
< a x2i + b xi = xi yi
i=1 i=1 i=1
>
> P
6 P
6
: a xi + 6b = yi
i=1 i=1

V (cm3 ) 45:3 61:8 72:4 88:7 118:6 194:0 Total


P (kg=cm2 ) 61; 2 49; 5 37; 6 28; 4 19; 2 10; 01
xi = log vi 1:6561 1:7910 1:8597 1:9479 2:0741 2:2878 11:74
yi = log pi 1:7868 1:6946 1:5752 1:4533 1:2833 1:0004 8:794
x2i 2:7427 3:2076 3:4586 3:7944 4:3019 5:234 23:247
yi2 3:2076 2:8717 2:4812 2:1121 1:6469 1:0004 13:32
xi yi 2:9591 3:0350 2:9294 2:8309 2:6617 2:2887 16:705
On résout ce système d’équations
(
23; 247a + 11; 74b = 16; 705
;
11; 74a + 6b = 8; 794

on trouve:
a= 1; 82 et b = 5; 028;

et donc on trouve aussi


a= 1; 82 = () = 1; 82

b = 5; 076 = log C () C = 105;076

6.4. Exercices
Chapter 6. STATISTIQUE DESCRIPTIVE 188

2) l’équation liant P et V est

P = CV = 105;076 V 1:82

3) Le coe¢ cient de corrélation entre X et Y telles que

X = log V et Y = log P

Solution.
P P
6 P
6
6 xi yi xi yi
i i=1 i=1
rXY = v" #" #
u 2 2
u P6 P
6 P
6 P
6
t 6 x2 xi 6 yi2 yi
i
i=1 i=1 i=1 i=1

6 88:568 26:784 20:248


= q
6 119:56 (26:784)2 6 70:543 (20:248)2
2:276
= = 0:721
3:1563
4) L’estimation de P si V = 160cm3 est

Pb160 = 105:076 160 1:82


= 11; 60 kg=cm3 :

6.4. Exercices
Part III

TESTS STATISTIQUES

189
CHAPTER 7

Estimation

7.1 Estimation ponctuelle


Soit X une variable statistique dépend d’un paramètre ; à valeurs dans un ensemble E
et suit une loi de probabilité P : On considère que appartient à un ensemble donné ,
k
dit espace des paramètres. (En général est un sous ensemble de R ou de R ). Pour
prendre une idée de la valeur inconnue , on utilise un échantillon (X1 ; X2 ; :::; Xn ) telles
que X1 ; X2 ; :::; Xn sont indépendantes et suivent la même loi que X. À partir des valeurs
observées, on calcule une certaine valeur numérique b approchée de dite un estimateur
de : La méthode utilisée pour e¤ectuer le calcul de b est dite une estimation. On introduit
quelque dé…nitions et propriétés.

7.1.1 Dé…nitions et propriétés


Dé…nition 7.1 On appelle estimateur de toute application Tn de l’ensemble E n dans
un ensemble F , qui à un échantillon (X1 ; X2 ; :::; Xn ) de la loi P associe une variable
aléatoire réelle (ou plusieurs dans le cas d’un paramètre multidimensionnel) dont on peut
déterminer la loi de probabilité.

La loi de. Tn (X1 ; X2 ; :::; Xn ) dépend de celle de X, et donc de , et chaque réalisation


Tn (x1 ; x2 ; :::; xn ) est une estimation de . Un estimateur est une variable statistique, en
tant que fonction de l’échantillon, qui permet d’attribuer une valeur au paramètre à
estimer. On pourrait donc le dé…nir comme une statistique à valeurs dans .

Dé…nition 7.2 On dira qu’un estimateur Tn est strict si Tn (E n ) :

190
Chapter 7. Estimation 191

Biais d’un estimateur

Pour pouvoir considérer Tn (x1 ; x2 ; :::; xn ) comme une valeur approchée de , il faut que
les valeurs prises par Tn ne s’écartent pas trop de . Comme Tn est une v.a., on ne peut
imposer une condition qu’à sa valeur moyenne.

Dé…nition 7.3 Le biais d’un estimateur Tn est l’écart entre sa moyenne et la vraie valeur
du paramètre :
b = E (Tn )

Dé…nition 7.4 Un estimateur Tn de est dit sans biais si pour tout de et tout entier
positif n; on a
E (Tn ) =

Dé…nition 7.5 Un estimateur Tn de est dit asymptotiquement sans biais si pour tout
de ; on a
lim E (Tn ) =
n !1

Convergence d’un estimateur

Dé…nition 7.6 On dit qu’un estimateur Tn est convergent si la suite de v.a. (Tn ) converge
en probabilité vers la valeur du paramètre . i:e pour tout de

Tn ! () 8" > 0; lim P (jTn j < ") = 1


p n !1

() 8" > 0; lim P (jTn j > ") = 0


n !1

Théorème 7.1 Tout estimateur sans biais, ou asymptotiquement sans biais, dont la vari-
ance tend vers zéro, quand n tend vers l’in…ni, est convergent.

Estimateur optimal

Qualité d’un estimateur La qualité d’un estimateur est mesurée par l’erreur quad-
ratique moyenne dé…nie comme suit

Dé…nition 7.7 On appelle erreur quadratique moyenne de l’estimateur Tn , la quantité


EQ (Tn ) dé…nie pour tout par

EQ (Tn ) = E (Tn )2 = V (T n) + b2n ( )

7.1. Estimation ponctuelle


Chapter 7. Estimation 192

Comparaison de deux estimateurs Dans le cas où l’estimateur est sans biais, l’erreur
quadratique moyenne est égale à sa variance. Dans ce cas, on pourra comparer deux
estimateurs Tn et Tn0 de même paramètre :

Dé…nition 7.8 Soient Tn ; Tn0 deux estimateurs de . On dit que Tn est plus e¢ cace que
Tn0 si pour tout et pour tout n

V ar (Tn ) V ar (Tn0 )

Inégalité de Fréchet-Darmois-Cramer-Rao

Dé…nition 7.9 On appelle vraisemblance de l’échantillon (X1 ; X2 ; :::; Xn ) la loi de prob-


abilité de vecteur (X1 ; X2 ; :::; Xn ), dé…nie par
Q
n
L(x1 ; x2 ; :::; xn ; ) = P (Xi = xi ; )
i=1

si X est discrète, et par


Q
n
L(x1 ; x2 ; :::; xn ; ) = f (xi ; )
i=1

si X est continue

Dé…nition 7.10 La quantité d’information de Fisher est dé…nie par:


2
@ ln L
In ( ) = E
@
Théorème 7.2 Sous les hypothèses de Cramer-Rao, en particulier si E = X( ) est
indépendant de , pour tout estimateur sans biais Tn de , on a
1
V ar (T n) = BF ( )
In ( )
Dé…nition 7.11 La quantité BF ( ) est la borne inférieure de Fréchet-Darmois-Cramer-
Rao (FDCR)

Notons que sous les conditions d’application de ce théorème, en particulier si E = X( )


est indépendant de , on obtient l’expression suivante qui est équivalente de la quantité
d’information de Fisher.
@ 2 ln L
In ( ) = E
@ 2

7.1. Estimation ponctuelle


Chapter 7. Estimation 193

Estimateur e¢ cace

Dé…nition 7.12 On dit qu’un estimateur sans biais Tn de est e¢ cace si sa variance
est égale à la borne inférieure de FDCR. i:e
1
V ar (Tn ) =
In ( )
Dé…nition 7.13 Un estimateur optimal dans la classe des estimateurs sans biais est dit
e¢ cace

Méthodes d’estimation

Les paramètres les plus fréquents à estimer sont la moyenne et la variance, qui sont
respectivement estimés par la moyenne et la variance empiriques. Dans le cas où il n’y
a pas d’estimateur évident, on en utilise quelque méthodes, en prend comme exemples la
méthode du maximum de vraisemblance et la méthode des moments

Méthode du maximum de vraisemblance La méthode du maximum de vraisemb-


lance consiste à maximiser la densité de l’échantillon.
La vraisemblance L(x1 ; x2 ; :::; xn ; ) représente la probabilité d’observer le vecteur
(x1 ; x2 ; :::; xn ) pour une valeur …xée de . Dans la situation inverse ici où on a observé
(x1 ; x2 ; :::; xn ) sans connaître la valeur de , on va attribuer à la valeur qui paraît la plus
vraisemblable, compte tenu de l’observation dont on dispose, c’est-à-dire: Celle qui va lui
attribuer la plus forte probabilité. On se …xe donc la règle suivante :
à (x1 ; x2 ; :::; xn ) …xé, on considère la vraisemblance L comme une fonction de et on
attribue à la valeur qui maximise cette fonction. D’où la dé…nition suivante.

Dé…nition 7.14 On appelle estimateur du maximum de vraisemblance (emv) toute fonc-


tion bn de ((x1 ; x2 ; :::; xn )) qui véri…e

L x; ; x2 ; :::; xn; bn = maxL(x1 ; x2 ; :::; xn ; )


2

Cette dé…nition ne renseigne en aucune façon, ni sur l’existence, ni sur l’unicité, d’un
tel estimateur. La recherche de l’emv peut se faire directement par recherche du maximum
de L, ou dans le cas particulier où la fonction L est deux fois dérivable par rapport à ,
comme solution de l’équation

@L @2L
= 0; qui véri…e aussi <0
@ @ 2

7.1. Estimation ponctuelle


Chapter 7. Estimation 194

Cependant, la vraisemblance se calculant à partir d’un produit, on préfère remplacer


ce dernier problème par le problème équivalent pour la log-vraisemblance
@ ln L @ 2 ln L
= 0; avec <0
@ @ 2
Exemple 7.1 Soit X1 ; X2 :::; Xn un échantillon d’une v.a. X à valeurs entières, de loi
dé…nie pour k 2 N par
k
P (X = k) = ;
(1 + )k+1
où est un paramètre positif. Déterminer l’estimateur du maximum de vraisemblance
de et étudier ses propriétés.

Solution. La vraisemblance
P
n
xi
i=1
Q
n
L(x1 ; x2 ; :::; xn ; ) = P (X = xi ) = P
n :
i=1 n+ xi
((1 + ) i=1

La log-vraisemblance
P
n P
n
ln (L (x1 ; x2 ; :::; xn ; )) = xi ln n+ xi ln (1 + ) :
i=1 i=1

Sa dérivée est
@ ln (L) 1P n 1 Pn
= xi n+ xi :
@ i=1 1+ i=1
@ ln (L) 1P n
= 0 () = xi = X n :
@ n i=1
Sa dérivée seconde
@ 2 ln (L) 1 P
n 1 Pn
= xi + n + xi
@ 2 2
i=1 (1 + )2 i=1

nX n 1
= 2 + n 1 + Xn :
(1 + )2
Pour = X n ; ona
@ 2 ln (L) nX n 1
= + 2n 1 + Xn
@ 2 2
Xn 1 + Xn
n n
= + <0
Xn 1 + Xn
Donc l’emv est la moyenne empirique
bn = X n

7.1. Estimation ponctuelle


Chapter 7. Estimation 195

Méthode des moments La méthode des moments consiste à égaler moment théorique
et moment empirique correspondant.
Dans le cas où le paramètre à estimer est = E (X), moyenne théorique de la loi.
L’estimateur naturel est la moyenne empirique, ou moyenne de l’échantillon
1P n
Xn = Xi
n i=1
De même, pour estimer le paramètre = V ar (X), variance de la loi, nous retenons
comme estimateur la variance empirique
1P n 2
s2n = Xi Xn
n i=1
Plus généralement, si l’un des moments d’ordre k 2 N , non centré

mk = E X k = mk ( ) ;

ou centré
k = E (X m1 )k = k ( );

dépend de , nous allons chercher un estimateur par résolution de l’équation suivante en

1P n 1P n
m kn = Xik = mk ( ) ou kn = Xi X n = k ( )
n i=1 n i=1
La solution de cette équation, si elle existe et est unique, sera appelée estimateur obtenu
par la méthode des moments.

Exemple 7.2 Soit X une v.a. de densité


(
2
1 x ; si 0 x
f (x) = ; >0;
0; ailleurs

où est un paramètre strictement positif. Déterminer par la méthode des moments un


estimateur de paramètre construit à partir d’un échantillon X1 ; X2 ; ; :::; Xn de cette loi
et étudier ses propriétés.

Solution. L’espérance de X est


Z
2 x 2 x2 x3
E (X) = x 1 dx = = :
0 2 3 0 3

On résout l’équation X n = 3

Xn = () = 3X n
3

7.1. Estimation ponctuelle


Chapter 7. Estimation 196

Donc Tn = 3X n est l’estimateur de construit par la méthode des moments, il est sans
biais,
E (Tn ) = 3E X n = 3 = ::
3
et convergent d’après la loi des grands nombres.

Tn = 3X n ! 3E (X) =
p

Pour l’e¢ cacité, on peut rien déduire car X dépend du paramètre de la loi parce que elle
prend ses valeurs dans l’intervalle [0; ]; donc les conditions de l’inégalité FDCR ne sont
pas remplies.

7.2 Estimation par intervalle de con…ance


Nous avons vu précédemment comment estimer une valeur inconnue, c’est-à dire comment
proposer une valeur approchée pour cette grandeur. Mais nous commettons nécessaire-
ment une erreur. Le but maintenant de donner cette marge d’erreur. Plus précisément
nous allons construire un intervalle dans lequel la grandeur inconnue recherchée a une
probabilité forte de se trouver.
On associe à un échantillon d’une loi inconnue un ensemble de valeurs. En général
un intervalle de tel que le paramètre appartient à cet intervalle. Cet intervalle dit
de con…ance sera déterminé par la donnée de la probabilité et de préciser le niveau de
con…ance, que la vraie valeur du paramètre appartienne à cet intervalle.

7.2.1 Dé…nition et principe de construction


Dé…nition 7.15 On appelle intervalle de con…ance pour un paramètre donné , de niveau
2 [0; 1], un intervalle aléatoire [T1 ; T2 ] tel que

P ( 2 [T1 ; T2 ]) =

La raison pour laquelle il est précisé que l’intervalle est aléatoire est que les bornes T1
et T2 de cet intervalle sont des variables aléatoires.
L’idée d’un intervalle de con…ance est donc de donner une plage de valeurs possibles
avec un degré de con…ance associé. Un intervalle [T1 ; T2 ] de niveau 95% pour , signi…e
qu’il y a une probabilité de 95% que soit bien compris entre T1 et T2 . En général, il
n’est pas possible de donner un intervalle de longueur …nie où l’on peut trouver avec
une probabilité de 100%. On se …xe donc un taux d’erreur acceptable (on admet qu’on
peut se tromper avec une probabilité de : ex : 5%, 1%, 0:5%; ...).

7.2. Estimation par intervalle de con…ance


Chapter 7. Estimation 197

Remarque 7.1 On remarque qu’un intervalle de con…ance va se rétrécir en fonction du


nombre n d’observations réalisées: plus nous avons d’observations, plus nous disposons
d’information sur la valeur de , donc plus nous sommes précis.
Inversement, quand le niveau de con…ance augmente, nous devons véri…er que la largeur
d’intervalle augmente. En e¤et, cela signi…e que nous augmentons la probabilité d’être
dans l’intervalle.

Construction d’intervalle de con…ance

Pour construire cet intervalle, on cherche tout d’abord un estimateur ponctuel Tn dont on
connaît la loi en fonction de , puis on détermine des valeurs en fonction de : t1 = t1 ( )
et t2 = t2 ( ) telles que
P [t1 ( ) Tn t2 ( )] =
Puis inverser cet intervalle pour Tn pour obtenir un intervalle pour , dont ces bornes
sont dépends de Tn . i:e On détermine deux valeurs a = a(Tn ) et b = b(Tn ) telles que

P [a (Tn ) b (Tn )] =

L’intervalle [a (Tn ) ; b (Tn )] est un intervalle de con…ance de niveau =1 pour le


paramètre
On obtient cet intervalle par déterminer un ensemble des valeurs de véri…ant:

t1 ( ) Tn et Tn t2 ( )

pour Tn …xé.
Soient par exemple les deux fonctions t1 et t2 sont continues et croissantes. Alors

t1 ( ) Tn () t1 1 (Tn ) et Tn t2 ( ) () t2 1 (Tn )

Donc l’intervalle de con…ance dans ce cas est

[a (Tn ) ; b (Tn )] = t2 1 (Tn ) ; t1 1 (Tn )

Di¤érent intervalles de con…ance

Le risque total est donné par

= P (Tn < t1 ) + P (Tn > t2 )

7.2. Estimation par intervalle de con…ance


Chapter 7. Estimation 198

peut être réparti de plusieurs façons.


Posons
1 = P ( > b (Tn )) et 2 = P ( < a (Tn ))

Les di¤érents choix possibles sont les suivants:

Intervalle bilatéral ( 1 2 > 0)

Dé…nition 7.16 L’intervalle bilatéral est dit symétrique si 1 = 2 = 2


et dit dis-
symétrique si 1 6= 2:

Remarque 7.2 a) On choisit l’intervalle bilatéral symétrique si la loi de Tn est symétrique


ou si on n’a aucune information particulière.
b) On utilise des intervalles dissymétriques dans des cas très particuliers qui peuvent
permettre de …xer 1 et 2 telles que 1 + 2 = .

Intervalle unilatéral ( 1 2 = 0)

Dé…nition 7.17 L’intervalle unilatéral est à droite si 1 = 0 et 2 = : i:e 2


]a (Tn ) ; +1[ et dit à gauche si 2 = 0 et 1 = : i:e 2 ] 1; b (Tn )[ :

Intervalle pour une proportion

Soient X1 ; X2 ; :::; Xn indépendantes et de loi de Bernoulli B(p). Une proportion p est


estimée par la proportion observée pbn = X n . Remarquons que nb
pn suit une loi binomiale
B(n; p). D’après le théorème de la limite centrale nous avons
r
n
U= pn p) ! N (0; 1) :
(b
p (1 p) n!1

Comme ce résultat étant asymptotique, alors on construire des intervalles de con…ance


asymptotiques et non exacts.

Dé…nition 7.18 Soit un paramètre donné. On appelle intervalle de con…ance asymp-


totique de niveau un intervalle aléatoire [T1;n ; T2;n ], tel que

P ( 2 [T1;n ; T2;n ]) ! :
n!1

Théorème 7.3 Soient X1 ; X2 ; :::; Xn indépendantes et de même loi de Bernoulli B(p),


alors l’estimateur de p est donnée par pbn = X n . L’intervalle asymptotique pour p de
niveau 1 est

7.2. Estimation par intervalle de con…ance


Chapter 7. Estimation 199

" r r #
pbn (1 pbn ) pbn (1 pbn )
IC1 (p) = pbn u ; pbn + u ;
n n
où ua est dé…ni comme suit :
Pour tout U N (0; 1), P (jUj > u ) = , soit encore P (jU j > u ) = 2 .
Preuve. On suppose que n su¢ samment grand pour assurer l’approximation
U N (0; 1). Le schéma ci-dessous nous donne

P( u U u )=1 ;

avec u quantile de la loi N (0; 1) dé…ni par le graphique (voir F ig 42).

F ig 42 Densité de N (0; 1) et dé…nition de u

Nous avons donc

P( u U u ) = P U2 u2 = 1 :
q
n
Et pour U = p(1 p)
(b
pn p) ; nous avons

n
P (b
pn p)2 u2 =1 ;
p (1 p)
ceci équivaut à

u2 u2
P 1+ p2 2b
p+ p + pb2 0 =1
n n
Notons I l’ensemble de solution de l’inéquation.

u2 u2
1+ p2 2b
p+ p + pb2 0: (*)
n n
Nous avons donc
P (p 2 I ) = 1 :
Donc I est l’intervalle de con…ance cherché

7.2. Estimation par intervalle de con…ance


Chapter 7. Estimation 200

On résout l’inéquation ( ) en p: Le discriminant est

u2 pn (1 pbn )
4b
4 = u2 2
+ ;
n n
et les racines sont q
u2 u2 pn (1 pbn )
4b
2b
p+ n
u n2
+ n
u2
2 1+ n

Alors
2 q q 3
u2 u2 pn (1 pbn )
4b u2 u2 pn (1 pbn )
4b
6 2b
p+ n
u n2
+ n
2b
p+ n
+u n2
+ n 7
I =4 ; 5:
u2 u2
2 1+ n
2 1+ n

Considérons n grand on applique le théorème centrale limite, pour simpli…er l’intervalle


obtenu. En remarquant que u2 est négligeable devant n, nous en déduisons l’intervalle
" r r #
pbn (1 pbn ) pbn (1 pbn )
pbn u ; pbn + u
n n

qui est un intervalle de con…ance asymptotique de niveau 1 pour le paramètre p.

Remarque 7.3 1) Cette approximation est acceptable si np (1 p) 3:


2) On peut aussi majorée p (1 p) par sa borne supérieur 41 ; on trouve le plus grand
intervalle approché suivant
u u
pbn p ; pbn + p
2 n 2 n

Intervalle de con…ance pour une moyenne

En estimant la moyenne dans une population par la moyenne X n dans un échantillon.


on fait en général une erreur. La valeur estimée n’est qu’approximative. On a souvent
recours à des estimations par intervalle. Il s’agit de déterminer un intervalle centré en
X n, X n d; X n + d de sorte qu’on puisse a¢ rmer, avec un degré de con…ance …xé, que
la moyenne se trouve dans cet intervalle.

Dé…nition 7.19 Soient X n d; X n + d un intervalle de con…ance pour : d est appelé


la marge d’erreur.
La probabilité .que se trouve dans X n d; X n + d est appelée seuil de con…ance.

7.2. Estimation par intervalle de con…ance


Chapter 7. Estimation 201

Relation entre marge d’erreur et seuil de con…ance

P X <d =

!
X d
= P <
p p
n n
p p p
d n n d n
= P < X < :

p
n
On a d’après le théorème central limite, si n est grand, X N (0; 1). Donc
on a p p p
d n d n d n
= =2 1;

i:e p
d n +1
= ;
2
d’où p
d n 1 +1
=
2
i:e
+1 1
d= p ;
n 2
où est la fonction de répartition de la loi normale centrée réduite.
On peut construire un intervalle de con…ance pour la moyenne de deux manières;
1) Choisir une marge d’erreur d puis déterminer le seuil de con…ance :
2) Choisir un seuil de con…ance puis déterminer la marge d’erreur d:

Paramètres d’une loi normale


2
Soient X1 ; X2 ; :::; Xn indépendantes et de même loi N ( ; ). A l’aide du théorème de
Fisher, on peut éterminer la précision des estimateurs que nous avons construits et nous
en déduirons ainsi des intervalles de con…ance.

Intervalle pour la moyenne si la variance est connue

2
Théorème 7.4 Lorsque est connu un intervalle de con…ance au niveau =1 de
est
Xn u1 p ; X n + u1 p ;
2
n 2
n

7.2. Estimation par intervalle de con…ance


Chapter 7. Estimation 202

où u1 2
est le fractile d’ordre 1 2
de la loi normale centrée réduite. i:e; u1 2
=
1
1 2 telle que est la fonction de répartition de la loi N (0; 1)
Preuve. On sait que la moyenne empirique X n est un estimateur sans biais de et que
X n N ; pn
L’intervalle de con…ance pour le paramètre est déterminé comme suit

P d Xn d =
Divisons par p
n
; on trouve
p p p
d n n d n
P Xn =
p p
n d n
et comme Xn N (0; 1), posons u 1
= . Alors on a
1 2
p
n
P u1 1 Xn u1 1 = :
2 2

Cela nous donne pour + =1

P Xn u1 p X n + u1 p =
2
n 2
n
Donc l’intervalle de con…ance de niveau =1 pour avec connu est

Xn u1 p ; X n + u1 p
2
n 2
n

Intervalle pour la moyenne si la variance est inconnue


2
Théorème 7.5 Lorsque est inconnu un intervalle de con…ance au niveau =1
de est

S S
Xn tn 1;1 pn ; X n + tn 1;1 2 pn
2
n n
où tn 1;1 2
est le quantile d’ordre 1 2
de la loi de Student à n 1 degrés de liberté.
2 2
Preuve. On remplace le paramètre par un estimateur de (qui est la variance em-
pirique corrigée)
1 P
n 2
Sn2 = Xi X
n 1 i=1
On utilise la variable statistique suivante
p
n
Xn ;
Sn

7.2. Estimation par intervalle de con…ance


Chapter 7. Estimation 203

qui suit la loi de Student de (n 1) de degré de liberté.

P d Xn d =

Ceci équivaut à p p p
d n n d n
P Xn = :
Sn Sn Sn
Posons p
n
Tn 1 = Xn :
Sn
On trouve p p
d n d n
P Tn 1 = ;
Sn Sn
avec Tn 1 suit la loi de Student de paramètre (n 1).

F ig 43 Densité de la loi de St n et dé…nition de tn;a

Du schéma ci-dessus, nous pouvons voir que:


p
d n
= tn 1;1 1 = tn 1;1
Sn 2 2

avec tn 1;1 2 donné sur le schéma (f ig 43).


Par conséquent
S
d = tn 1;1 pn ;
2
n
et ainsi nous avons
S S
P Xn tn 1;1 pn X n + tn 1;1 pn :
2
n 2
n
D’où l’intervalle de con…ance pour si la variance est inconnue est

S S
Xn tn 1; pn ; X n + tn 1; pn
n n

7.2. Estimation par intervalle de con…ance


Chapter 7. Estimation 204

Intervalle pour la variance si l’espérance est connue On sait que


1P n 2
s2n = Xi X
n i=1
ns2n 2
est un estimateur de et que 2 suit la loi de Khi-deux n de n degré de liberté. Donc
on peut trouver deux constantes a; b telles que

ns2n
P a 2
b =1

Ce qui donne
ns2n 2 ns2n
P =1 :
b a
Il n’y a qu’une seule condition pour déterminer a et b et il reste un degré d’incertitude
puisque la loi n’est pas symétrique. Si on pose

2 2
1 =P n a et 2 =P n b :

La seule contrainte dans le choix de 1 et 2 est 1 + 2 = :


L’intervalle de con…ance pour la variance 2 quand est connue est
" #
ns2n ns2n
2
; 2 ;
n;1 2
n; 2

où 2n;1 est le fractile d’ordre 1 2 de loi de Khi-deux de n degré de liberté.


2
La …gure suivante (F ig 44) réprésente la densité de la loi deu 2 de paramètre n et
2
dé…nition du quantile zn; tel que zn; n;1 :

F ig 44

Intervalle pour la variance si l’espérance inconnue Quand l’espérance est


2
inconnu, on utilise l’estimateur sans biais de

7.2. Estimation par intervalle de con…ance


Chapter 7. Estimation 205

1 P
n 2
Sn2 = Xi Xn ;
n 1 i=1
2
de loi connue, (n 1) Sn2 2
n 1: Donc on peut trouver deux constantes a; b telles que

(n 1) Sn2
P a 2
b =1 :

Ce qui donne
1) Sn2
(n 2 (n 1) Sn2
P =1 :
b a
Ici aussi, Il n’y a qu’une seule condition pour déterminer a et b et il reste un degré
d’incertitude puisque la loi n’est pas symétrique. Si on pose

2 2
1 =P n 1 a et 2 =P n 1 b ;

la seule contrainte dans le choix de 1 et 2 est 1 + 2 = :


L’intervalle de con…ance pour la variance 2 quand est inconnue est
" #
(n 1) Sn2 (n 1) Sn2
2
; 2
n 1;1 2
n 1; 2

Pour qoi ça?


On veut construire un intervalle de con…ance pour le paramètre 2 . Nous
P
n 2
On sait que S 2 = n 1 1 xi X est un estimateur sans biais de 2 .
i=1
On veut déterminer deux riels T1 et T2 tels que

2
P T1 T2 = =1 :

Rappelons que
(n 1) Sn2 2
2 n 1:

Nous avons donc

2 1 1 1
P T1 T2 = P 2
T2 T1
(n 1) Sn2 (n 1) Sn2 (n 1) Sn2
= P 2
T2 T1
(n 1) Sn2 (n 1) Sn2
= P Kn 1 = :
T2 T1
Si on veut un intervalle centré sur l’estimateur, il faut prendre T1 et T2 ; tels que
(n 1) Sn2 1
P Kn 1 = (1 )= ;
T2 2 2

7.2. Estimation par intervalle de con…ance


Chapter 7. Estimation 206

et
(n 1) Sn2 1
P Kn 1 = (1 )=
T1 2 2
2
(n 1)Sn 2
où Kn 1 = 2 n 1:
Soient
(n 1) Sn2 (n 1) Sn2
= Zn 1; 1 (1 ) et = Zn 1;1 1 (1 )
T1 2 T2 2

avec Zn 1; est le quantile de la loi de Kh-deux de parmètres (n 1) ; .


D’où
(n 1) Sn2 (n 1) Sn2
T1 = et T2 = ;
Zn 1; 12 (1 ) Zn 1;1 1 (1 )
2

et !
(n 1) Sn2 2 (n 1) Sn2
P =
Zn 1; 21 (1 ) Zn 1;1 1 (1 )
2

Donc l’intervalle de con…ance de niveau = 1 cherché est


" #
(n 1) Sn2 (n 1) Sn2
; :
Zn 1; 1 (1 ) Zn 1;1 1 (1 )
2 2

Et comme nous avons =1 , on obtient …nalement


" #
2 2
(n 1) Sn (n 1) Sn
; :
Zn 1; 2 Zn 1;1 2

7.3 Exercices
Exercice 7.1 Le nombre d’accidents mortels par mois, à un carrefour dangereux, est une
v.a. X qui suit une loi de Poisson de paramètre , que l’on cherche à estimer à partir
d’un échantillon X1 ; X2 ; :::; Xn de cette loi. Étudier les propriétés de l’estimateur naturel
de ce paramètre et véri…er que c’est aussi l’estimateur du maximum de vraisemblance.

Solution. On estime le paramètre = E(X), moyenne théorique de la loi, par la moyenne


de l’échantillon, ou moyenne empirique
1P n
Xn = Xi :
n i=1
On véri…e que cet estimateur est sans biais, d’après les propriétés de linéarité de l’espérance
1P n 1P n
E Xn = E (Xi ) = = :
n i=1 n i=1
et qu’il est convergent, d’après la loi des grands nombres

Xn ! = E (X) :
p

7.3. Exercices
Chapter 7. Estimation 207

Il converge en moyenne quadratique puisqu’il est sans biais et que sa variance tend vers
zéro
1 P n 1 P n
V ar X n = V ar (Xi ) = = ! 0:
n2 i=1 n2 i=1 n
Pour démontrer qu’il est e¢ cace en calculant la quantité d’information de Fisher
P
n
xi
i=1 n
e
L(x1 ; x2 ; :::; xn ; ) = Q
n :
xi
i=1

D’où
P
n P
n
ln (L (x1 ; x2 ; :::; xn ; )) = xi ln n ln xi ;
i=1 i=1

et
@ ln (L) 1Pn
= xi n
@ i=1

Les hypothèses de Cramer-Rao étant véri…ées, on peut utiliser la dérivée seconde

@ 2 ln (L) 1 P
n
= xi ;
@ 2 2
i=1

pour calculer
@ 2 ln (L) 1 P
n n
In ( ) = E = E (Xi ) =
@ 2 2
i=1

Donc
1
BF ( ) = = = V ar X n
In ( ) n
Donc est un estimateur e¢ cace.
@ 2 ln(L)
Comme @ ln(L)
@
s’annule pour = X n et @ 2
< 0. Alors X n est un estimateur du
maximum de vraisemblance

Exercice 7.2 Soit X1 ; X2 :::; Xn un échantillon d’une v.a. X à valeurs entières, de loi
dé…nie pour k 2 N par
k
P (X = k) = ;
(1 + )k+1
où est un paramètre positif. Déterminer l’estimateur du maximum de vraisemblance
de et étudier ses propriétés.

Solution. D’après l’exemple 6.1, nous avons trouvé que l’estimateur du maximum de
vraissemblance est la moyenne empirique

bn = X n

7.3. Exercices
Chapter 7. Estimation 208

Véri…ons que le paramètre est la moyenne de la loi donnée.


k k 1
P
1 P
1
E (X) = k = k :
k=0 (1 + )k+1 (1 + )2 k=1 (1 +

On rappelle que pour jxj < 1, on a


P
1 @ P
1 @ 1 1
kxk 1
= xk = = :
k=1 @x k=0 @x 1 x (1 x)2
D’où 2
1
E (X) = 2 = 2 (1 + )2 = ;
1+ 1 (1 + )
1+
et
1P n n
E b = E (Xi ) = =
n i=1 n
bn est ’un estimateur sans biais, convergent d’après la loi des grands nombres et de
variance n1 V ar (X) :
On rappelle aussi que pour jxj < 1, on a

P
1 @2 P
1 @2 1 2
k (k 1) xk 2
= xk = =
k=2 @x2 k=0 @x2 1 x (1 x)2

Calcul de V ar bn

k
P
1 P
1
E (X (X 1)) = k (k 1) P (X = k) = k (k 1)
k=0 k=0 (1 + )k+1
2 k 2
P
1
= k (k 1)
(1 + )3 k=2 1+
2
2 2 2 2
= 3 = (1 + )3 = 2
(1 + )3 1 (1 + )3
1+

La variance de X

V ar (X) = E X 2 E2 (X) = E (X (X 1)) + E (X) E2 (X)


2 2
= 2 + = (1 + )

Calcul la quantité d’information de Fisher

@ 2 ln (l) 1 P n 1 Pn
In ( ) = E = E (Xi ) n + E (Xi )
@ 2 2
i=1 (1 + )2 i=1
n 1 n n n
= 2 2 (n + n ) = =
(1 + ) 1+ (1 + )

7.3. Exercices
Chapter 7. Estimation 209

Donc la variance de bn est


V ar (X) (1 + ) 1
V ar bn = = = = BF ( )
n n In ( )

D’où l’estimateur bn est e¢ cace.

Exercice 7.3 1) On s’intéresse aux intentions de votes d’une population pour un candidat
C , soit p la proportion d’individu qui lui sont favorables si l’on prélève un échantillon
de taille 900, dans lequel nous dénombrons 243 intention de votes pour C , quel serait
l’intervale de con…ance pour p de niveau 0; 95?
2) Quelle est la taille de l’échantillon á prélevé pour obtenir un estimateur dont la
précision absolu est au maximum égale á 0; 04?

Solution. 1) pb = 243
900
= 0; 27:
L’intervalle de con…ance pour p de niveau de con…ance = 1 = 0; 95 est
" r r #
pb (1 pb) pb (1 pb)
I:C = pb U ; pb + U
n n

où U est le farctile d’ordre 0; 95 de la loi normale centrée réduite. Donc l’intervale de


co…ance cherché est
" r r #
0; 27 0; 73 0; 27 0; 73
I:C = 0; 27 1; 96 ; 0; 27 + 1; 96
900 900
= [0; 241; 0; 294]

2) Taille de l’échantillon á prélevé,


r
0; 27 0; 73 0; 27 0; 73
1; 96 0; 04 , (1; 96)2 (0; 04)2
n n
(1; 96)2 0; 27 0; 73
() n ' 474:
(0; 04)2
Donc il faut prendre un echantillon de taille supérieure à 474 individus.

Exercice 7.4 Supposons que les notes (sur un total de 200) obtenue dans un examen de
statistique soient distribuées suivant une loi normale. On examine un echantillon aléatoire
simple (EAS) de 26 notes fournit une moyenne de 125 et un écart-type de 10:
1) Déterminer les I:C pour la moyenne et pour la variance de niveau de con…ance de
0; 95:
2) A quel niveau de probabilité peut-on déduire que la moyenne se situe entre 120 et
130 avec une probabilité de (1 )?

7.3. Exercices
Chapter 7. Estimation 210

Solution. 1) X N ( ; ) ; n = 26; X = 125 et S = 10:


a)C’est l’estimation de la moyenne dans le cas où la variance est inconnue.
I:C: pour :
Soit tn 1;1 2 est le fractile d’ordre 1 2 de la loi de Student Tn 1 :

Sn Sn
2 X p
tn 1;1 2 ; X + p tn 1;1 2
n 1 n 1
10 10
= 125 p 2; 0595; 125 + p 2; 0595
25 25
= [120; 130] :

b) C’est l’estimation de la variance dans le cas où la moyenne est inconnue.


I:C: pour 2 :
Soient 2n 1;1 ; 2n 1; sont respectivement les fractiles d’ordres 1 2 et 2
de la loi
2 2

Khi-deux de (n 1) degré de liberté.

" #
2 ns2n ns2n
2 2
; 2
n 1;1 2
n 1; 2

26 100 26 100
= ;
40; 646 13; 120
= [63; 967; 198; 17]

2) On cherche tn 1;1 2
pour que

Sn Sn
X+p tn 1;1 X+p tn 1;1 = 10
n 1 2
n 1 2

Sn
p
tn 1;1 2 = 5
n 1
n = 26, il est proche de 30 on utilise l’approximation d’un Student pour une loi normale.
On tire de table N (0; 1) la valeur de 1 2
et chercher : i; e

1 = 0 99379 , = 0; 01242
2

Exercice 7.5 On a e¤ectué 25 pesées d’un médicament, avec une balance dont la précision
est mesurée par l’écart type + 1. La totalisation de ces pesées étant de 30; 25 g. Donner
un intervalle de con…ance de niveau 0; 90 pour le poids de ce médicament.

7.3. Exercices
Chapter 7. Estimation 211

Solution. On peut considérer que la valeur indiquée par la balance est une v.a. X de
loi normale, d’espérance égale au poids réel de médicament et d’écart type = 1. Le
P
25
fractile d’ordre 0; 95 de la loi normale étant u0;95 = 1; 6449, l’observation xi = 30; 25
i=1
conduit à l’estimation ponctuelle X = 1; 21 puis à l’intervalle de con…ance
1 1
X u0;95 p ; X u0;95 p = 1; 21 1; 6449 p ; 1; 21 1; 6449 p
n n 25 5
= [0; 88; 1; 54]

Compte tenu du petit nombre de mesures et de la valeur élevée de l’écart type, cet
intervalle est peu précis.

Exercice 7.6 Un fabricant d’ampoules électriques annonce une durée de vie moyenne de
ses ampoules de 170 heures. A…n de véri…er cette a¢ rmation, un organisme de défense
des consommateurs prélève au hasard 100ampoules dans un lot de fabrication et, à l’issue
de l’expérimentation, constate une moyenne de durée de vie de 158 heures, avec un écart
type empirique de 30 heures. Si on admet que cette durée de vie suit une loi normale,
peut-on déduire de cette enquête que l’a¢ rmation du fabricant est mensongère?

Solution. Pour construire un intervalle de con…ance pour la moyenne de cette loi


p
n
normale d’écart type inconnu , on utilise la statistique Sn
Xn qui suit une loi de
Student à (n 1) degrés de liberté. Avec ici n = 100, on lit dans la table le fractile d’ordre
0; 995: t0;995;99 = 2; 63. On obtient comme intervalle bilatéral symétrique :150 < m < 166.
La valeur indiquée par le fabricant est bien en dehors de cet intervalle. Si on choisit un
intervalle de même niveau, mais unilatéral à gauche, il sera dé…ni par:
p
n
P Xn < t = 0; 99
Sn
soit t = 2; 37 et l’intervalle < 165. Il y a donc 99 chances sur 100 que cette publicité
soit mensongère.

Exercice 7.7 Pour estimer la précision d’un thermomètre, on réalise n = 100 mesures
indépendantes de la température d’un liquide maintenu à une température constante de 20
P 2
100
degrés Celsius. Les observations xi , 1 i 100, ayant conduit à la valeur xi = 40011,
i=1
construire un intervalle de con…ance de niveau 0; 95 pour la précision de ce thermomètre,
2
mesurée par la dispersion des mesures.

Solution. On obtient comme estimation de la variance:


P 2
1 100
s2100 = xi 2
= 0; 11
100 i=1

7.3. Exercices
Chapter 7. Estimation 212

Les fractiles d’ordre 0; 025 et 0; 975 de la loi de khi-deux à 100 degrés de liberté, lus dans la
2 2 2
table de , sont respectivement 0;025;100 = 74; 22 et 0;975;100 = 129; 56, d’où l’intervalle
bilatéral symétrique
" #
2 ns2n ns2n 100 0; 11 100 0; 11
2 2
; 2
= ;
n;1 n; 2 129; 56 74; 22
2

= [0; 08; 0; 15]

Si on retient un intervalle unilatéral à gauche, le fractile d’ordre 0; 05 est a = 77; 93, ce


qui donne comme intervalle
2
2 [0; 0; 14] :

Exercice 7.8 Le nombre d’interruptions du tra…c de plus d’une minute, dans une
journée, sur ligne téléphonique, est supposé suivre une loi de Poisson de paramètre
inconnu, que l’on se propose d’estimer à partir du relevé de ces interruptions sur
200journées. Les moments empiriques calculés sur cet échantillon ont pour valeurs
2
X 200 = 3 et S200 = 3; 2. En déduire un intervalle de con…ance de niveau 0; 95 pour
le paramètre de cette loi de Poisson.

Solution. D’après le théorème central limite, l’estimateur du paramètre , centré et


réduit, converge en loi vers la loi normale centrée et réduite:
r
n
Xn N (0; 1)
p
Les inéquations que l’on peut en déduire s’exprimant en fonction de et , on remplace
le paramètre au dénominateur par son estimateur et l’intervalle de con…ance bilatéral
symétrique se déduit de la condition:
r
n
P u1 2 Xn u1 2
= 0; 95
Xn
où on retient comme valeur approchée de u le fractile d’ordre 0; 975 de la loi N (0; 1), soit
u0;975 = 1; 96. soit pour cet échantillon l’intervalle obtenu est alors:
2 s s 3
X 200 Xn 5
2 4X 200 u0;975 ;X n + u0;975 ;
200 n
" r r #
3 3
= 3 1; 96 ; 3 + 1; 96
200 200
= [2; 76; 3; 24] :

7.3. Exercices
CHAPTER 8

TESTS

Réaliser un test statistique consiste à mettre en œuvre une procédure permettant:


De confronter une hypothèse avec la réalité, ou plus exactement, avec ce que l’on
perçoit de la réalité à travers les observations.
De prendre une décision à la suite de cette confrontation.
Si les problèmes traités par l’estimation (ponctuelle ou par intervalle de con…ance) sont
de type quantitatif, ceux traités par les tests d’hypothèses sont d’ordre qualitatif, i:e. con-
duisent à une réponse du type rejet ou acceptation de l’hypothèse statistique considérée.
Les tests statistiques répondent à des questions comme par exemple: Le médicament
testé est-il e¢ cace? Les pièces sortant d’une machine sont-elles conformes? Un nouveau
mode de culture bactérienne est-il plus e¢ cace? Quels sont les gènes signi…cativement
di¤érentiellement exprimés dans un tissu pathologiques?...

Dé…nition 8.1 Un test statistique est une procédure de décision entre deux hypothèses
concernant un ou plusieurs échantillons.

Exemple 8.1 E¢ cacité d’un nouveau médicament. On souhaite tester l’e¢ cacité d’un
nouveau médicament par rapport au médicament couramment utilisé. On dispose d’un
échantillon de 100 patients divisé en 2 groupes:

Groupe A (50 individus): nouveau médicament. Groupe B (50 individus): médicament


classique. En observant la guérison à 1 mois :
Groupe A: 75% de guérison. Groupe B: 65% de guérison.

213
Chapter 8. TESTS 214

8.1 Dé…nitions
8.1.1 Hypothèse
Dé…nition 8.2 L’hypothèse nulle notée H0 est celle que l’on considère vraie a priori. Le
but du test est de décider si cet a priori est crédible.

Dé…nition 8.3 L’hypothèse alternative (ou contre-hypothèse) notée H1 est l’hypothèse


complémentaire de H0 .

Exemple 8.2 Sous H0 , le médicament n’a pas d’in‡uence, sous H1 le médicament a


d’in‡uence.

Remarque 8.1 Il faut faire attention que:

Les deux hypothèses ne sont pas symétriques. H1 est choisie uniquement par défaut si
H0 n’est pas considérée comme crédible.
i) Le choix de H0 et de H1 est en général imposé par le test qu’on utilise et ne relève
donc pas de l’utilisateur.
ii) C’est l’hypothèse H0 qui est soumise au test et toute la démarche du test s’e¤ectue
en considérant cette hypothèse comme vraie.

Ecriture de l’hypothèse

Supposons que nous a¢ rmions que la valeur d’un paramètre d’une population est égale
à la valeur 0. On s’intéresse au changement possible du paramètre dans l’une ou l’autre
direction (soit > 0 soit < 0 ). On e¤ectue un test bilatéral.
Les hypothèses H0 et H1 sont alors:
(
H0 : = 0
H1 : 6= 0

Exemple 8.3 Soit 1 et 2 les moyennes de tension des deux populations correspondant
à la prise de médicament ou de placebo. Une manière de démontrer que le médicament
modi…e la tension est de montrer que 2 est di¤érent de 1.

Les hypothèses deviennent alors


(
H0 : Les moyennes des deux populations sont égales
H1 : Les moyennes des deux populations sont di¤érentes

8.1. Dé…nitions
Chapter 8. TESTS 215

On l’écrit succinctement sous la forme:


(
H0 : 1 = 2

H1 : 1 6= 2

8.1.2 Statistique de test


Une fois les hypothèses de test posées, nous devons choisir la statistique de test notée
"ST ". C’est en comparant la valeur de cette statistique observée dans l’échantillon à sa
valeur sous l’hypothèse H0 que nous pourrons prendre une décision.

8.1.3 Risques associés


Dans notre démarche, nous allons établir des règles de décision qui vont nous conduire
à l’acceptation ou au rejet de l’hypothèse nulle H0 . Toutefois cette décision est fondée
sur des informations partielles des résultats d’un échantillon. Il est donc statistiquement
impossible de prendre la bonne décision à coup sûr. En pratique, on met en œuvre
une démarche qui nous permettrait, à long terme de rejeter à tort une hypothèse nulle
vraie dans une faible proportion de cas. La conclusion qui sera déduite des résultats
de l’échantillon aura un caractère probabiliste: on ne pourra prendre une décision qu’en
ayant conscience qu’il y a un certain risque qu’elle soit erronée. Ce risque nous est donné
par le seuil de signi…cation du test.

8.1.4 Seuil de signi…cation du test


Le risque, consenti à l’avance et que nous notons de rejeter à tort l’hypothèse seuil de
signi…cation du test et s’énonce en probabilité ainsi:

= P (rejeter H0 =H0 vraie)

8.1.5 Niveau et puissance


Dans un test d’hypothèse statistique, il y a deux manières de se tromper:
1. la possibilité de rejeter une hypothèse alors qu’elle est vraie. Ce risque dit de
première espèce borne la probabilité de se tromper dans ce sens, c’est-à-dire la
probabilité d’avoir un faux-positif (rejeter H0 alors qu’elle est vraie) et est notée :

2. La possibilité d’accepter une hypothèse alors qu’elle est fausse. La probabilité de se


tromper dans ce sens, i:e la probabilité d’avoir un faux-négatif (accepter H0 alors
qu’elle est fausse) est le risque de deuxième espèce, et est notée =1 .

8.1. Dé…nitions
Chapter 8. TESTS 216

On a le tableau suivant:
Réalité !
Décision # H0 vraie H0 fausse
acceptation de H0 1
rejet de H0 1
Le risque étant …xé au départ, la règle de décision est construite à partir de
l’hypothèse H1 et de la colonne "H0 vraie" de ce tableau.

Remarque 8.2 Les deux types d’erreur possibles ne sont pas du tout de la même import-
ance. En e¤et, rejeter l’hypothèse H0 alors qu’elle est vraie (risque de première espèce,
qui est maîtrisé) est beaucoup plus coûteux que de la conserver à tort (risque de deuxième
espèce, non maîtrisé).

Exemple 8.4 Soit la moyenne du niveau de radioactivité en pico curies par litre. La
valeur 0 = 5 est considérée comme la valeur critique entre eau potable et non potable.
On peut donc souhaiter tester H0 : 0 5 contre H1 : 0 < 5. L’erreur de première
espèce a alors pour conséquence de laisser boire de l’eau toxique, alors que l’erreur de
deuxième espèce conduit seulement à jeter de l’eau potable.

L’enjeu en théorie des tests est de construire des tests uniformément les plus puissants.

Dé…nition 8.4 On appelle puissance du test, notée ( ), la probabilité de rejeter H0


alors qu’elle est fausse. La puissance de test mesure donc son aptitude à bien rejeter une
hypothèse fausse: ( )=1 ( ).

8.1.6 Région critique. Région d’acceptation


A l’aide du modèle dé…ni sous H0 et à seuil de signi…cation , on fait correspondre sur
la distribution d’échantillonnage de la statistique une région de rejet de l’hypothèse nulle
H0 (appelée région critique). L’aire de cette région correspond à la probabilité . Si
par exemple, on choisit = 0; 05, cela signi…e que l’on admet d’avance que la variable
d’échantillonnage peut prendre, dans 5% des cas, une valeur se situant dans la zone de rejet
de H0 , bien que H0 soit vraie et ceci uniquement d’après le hasard de l’échantillonnage.
Sur la distribution d’échantillonnage correspondra aussi une région complémentaire, dite
région d’acceptation de H0 (ou région de non-rejet) de probabilité 1 .

Dé…nition 8.5 On appelle région critique W l’ensemble des valeurs de ST (statistique


de test) qui conduisent au rejet de H0 au pro…t de H1 :

8.1. Dé…nitions
Chapter 8. TESTS 217

D’après la dé…nition précédente et les dé…nitions de et , nous avons:

P (ST 2 W=H0 ) = ;
P (ST 2
= W=H0 ) = 1 ;

Et

P (ST 2 W=H1 ) = ;
P (ST 2
= W=H1 ) = 1 ;

Remarque 8.3 La dé…nition de la région de rejet du test dépend de la forme de


l’hypothèse alternative.

Latéralité du test

Notons la statistique observée sur l’échantillon par Sobs


La forme de la région de rejet dé…nit la latéralité du test:

Test bilatéral: On veut rejeter H0 si Sobs est trop grand ou trop petit, sans a priori.
La région de rejet est alors de la forme ] 1; 1] [ [ 2 ; +1[

Test unilatéral à droite : On veut rejeter H0 seulement si la valeur de la statistique


observée Sobs est trop grand. La région de rejet est alors de la forme [ 2 ; +1[.

Test unilatéral à gauche: On veut rejeter H0 seulement si Sobs est trop petit. La
région de rejet est alors de la forme ] 1; 1 ].
On peut schématiser les régions de rejet et de non-rejet de H0 comme suit:
1. Dans le cas d’un test bilatéral: La zone de rejet est constituée de deux intervalles
disjoints.

Exemple 8.5 E¢ cacité de deux médicaments


H0 : Le médicament classique et le nouveau ont la même e¢ cacité
H1 : Le nouveau médicament et le classique ont des e¢ cacités di¤érentes
On suppose que ST N (0; 1) sous H0 et = 0; 05:
La zone de rejet est constituée de deux intervalles disjoints, chacun de probabilité 2
,
l’un à droite et l’autre à gauche, nous avons le schéma de décision suivant ( F ig 45).

8.1. Dé…nitions
Chapter 8. TESTS 218

F ig 45 Test bilatéral

On accepte H0 si a ST a, on la rejette sinon.


2. Dans le cas d’un test unilatéral: La zone de rejet est entièrement à droite ou
entièrement à gauche

Exemple 8.6 Test de "conformité" d’une moyenne: H0 : = 0, est la moyenne


inconnue de la population. 0 est une valeur …xée. On prélève dans la population un
échantillon aléatoire simple (la population est distribuée normalement) de taille n. On
appelle X la variable aléatoire moyenne d’échantillonnage (elle prend pour valeurs les
moyennes des échantillons aléatoires simples de taille n).
Le test est dé…ni par: (
H0 : = 0
H1 : < 0

La région critique au seuil est


W=f > 0g ;

et sa probabilité critique est donnée par

P( > 0) = :

Nous avons le schéma (F ig 46).

F ig 46 Test unilatéral à gauche

On accepte H0 si ST > b, on la rejette sinon.

8.1. Dé…nitions
Chapter 8. TESTS 219

Remarque 8.4 Le choix d’un test unilatéral ou bilatéral dépend de la logique de la


situation expérimentale et doit être fait avant d’inspecter les données.

Probabilité critique ou P-valeur

Les tables statistiques donnant les quantiles des di¤érentes lois usuelles n’a plus lieu
d’être avec la pratique d’un logiciel statistique. En e¤et, ceux-ci fournissent directement
la probabilité critique ou P -valeur associée à un test donné. Plutôt que de chercher dans
une table les -quantiles des lois associées, il su¢ t donc de comparer la probabilité critique
fournit avec le seuil ou niveau de test prédéterminé. En pratique, au lieu de calculer la
région critique W , on préfère donner un seuil critique appelé P -valeur.

Dé…nition 8.6 On appelle probabilité critique ou P -valeur, la probabilité pour que la


statistique de test ST dépasse, sous l’hypothèse H0 , la valeur seuil. i:e La P -valeur
correspond à la plus petite valeur de conduisant à rejeter H0 .

Remarque 8.5 La P -valeur mesure le degré de signi…cation du test. Plus elle est faible
par rapport à , plus le test a un degré de signi…cation important et plus elle est proche
de 0, la contradiction entre H0 et le résultat observé avec l’échantillon plus est forte.

Démarche d’un test

Après avoir dé…ni la question posée et le modèle statistique sous-jacent, une démarche de
test suit les étapes suivantes:

1. Choix de H0 et de H1 . Fixer .

2. Détermination de la statistique de test.

3. Allure de la région de rejet en fonction de H1 .

4. Calcul de la région de rejet en fonction de H0

5. Calcul de la valeur observée de la statistique de test.

6. Conclusion : rejet ou acceptation de H0 au risque .

7. Si possible, calcul de la puissance du test : 1 .

8.1. Dé…nitions
Chapter 8. TESTS 220

Choix d’un test

Le choix du test et guidé par la question posée et la structure des données issues de
l’expérience. En général voici un guide sommaire.
Tests paramétriques:
les observations sont supposées suivre un modèle gaussien. Pour accepter la normalité
asymptotique par le théorème de la limite centrale, il faut choisir un échantillon su¢ sam-
ment de grande taille.
Un échantillon
–Comparaison de la moyenne de l’échantillon à une valeur théorique
–Comparer une proportion à une valeur théorique
Deux échantillons indépendants
–Comparaison de deux moyennes (Tests de Student)
Tests statistiques élémentaires
–Comparaison de deux variances (Tests de Fisher)
–Comparaison de deux proportions
Deux échantillons appariés.
Le même échantillon est observé à deux instants di¤érents ou dans deux conditions
di¤érentes (Student apparié)
Plusieurs échantillons à un facteur
Tests d’adéquation
–Comparaison de deux distributions (Tests de khi-deux)
–Normalité d’une distribution (Tests de Kolmogorov, Shapiro Wilks)
Tests non-paramétrique Dans le cas: petit échantillon et distribution non gaussienne
(tests d’adéquation)
Deux échantillons indépendants Comparaison de deux médianes (Test de Mann-
Whitney).

8.2 Tests paramétriques


Dans cette section, la question posée revient à comparer la caractéristique d’un échan-
tillon (moyenne, écart-type, proportion) à une valeur de référence connue a priori. Dans
le cas dit paramétrique, l’échantillon est supposé issu d’une distribution gaussienne ou
binomiale. Dans le cas contraire et si le nombre n d’observations est su¢ samment grand,
on se ramène à une loi normale et donc au cas paramétrique grâce au théorème de la
limite centrale. La loi de X n est approchée par N ; n :
Les procédures de test sont alors les mêmes. Dans le cas le plus défavorable petit

8.2. Tests paramétriques


Chapter 8. TESTS 221

échantillon non gaussien,


ce sont les procédures de tests dits non paramétriques.

8.2.1 Test sur l’espérance d’une loi normale


2
La variance est connue
2
On suppose les réalisations d’un n-échantillon (X1 ; X2 ; :::; Xn ) issu d’une loi N ( ; ) avec
2
inconnue et connue. L’hypothèse nulle est H0 : = 0; tel que 0 est une valeur
donnée. Il existe trois types d’hypothèse H0 correspondant à leur alternative H1 :
i) H0 composite: 0 contre H1 : > 0 , test unilatéral à droite;
ii) H0 composite: 0 contre H1 : < 0 , test unilatéral à gauche;
iii) H0 simple: = 0 contre H1 : 6= 0 , test bilatéral.
Test unilatéral à droite H1 : > 0 .
Pn
–Statistique de test: la moyenne empirique X n = n1 Xi
i=1
–Région de rejet:
Rejet de H0 () PH0 (X n > xn ) < :
La région de rejet étant donnée par la forme de H1 .
–Calcul de xn , la valeur observée de X n .
–Détermination de PH0 (X n > xn . Sous H0 , on sait que X n N ;n .
On dé…nit alors p
n
Z= Xn 0 N (0; 1) :
Ainsi on a p
n
PH0 (X n > xn ) = P Z> (xn 0)

PH0 X n > xn est la probabilité critique calculée par le logiciel et à comparer avec .
Test unilatéral à gauche H1 : < 0 . Même méthode que précédemment,
sauf que l’on remplace l’événement X n > xn par X n < xn .
Test bilatéral H1 : 6= 0 : Même méthode que précédemment, sauf que l’on remplace
l’événement X n > xn par Xn 0 > jxn 0j :

Remarque 8.6 Tester l’hypothèse H0 : = 0 équivalent à assurer que la valeur de


référence est à l’intérieur (acceptation) ou à l’extérieur (rejet) de l’intervalle de con…ance
estimant 0.

2
La variance est inconnue

C’est le test de Student. On suppose les réalisations d’un n-échantillon (X1 ; X2 ; :::; Xn )
2 2
issu d’une loi N ( ; ) avec et inconnues.

8.2. Tests paramétriques


Chapter 8. TESTS 222

2
Test bilatéral On teste H0 : = 0 contre H1 : 6= 0. Comme est inconnue, on
l’estime par la variance empirique Sn2 . Par conséquent, la règle de décision est la suivante:
p p
n n
Rejet de H0 () P jxn
Xn 0j 0< ; >
Sn sn
où sn est l’estimation ponctuelle de l’écart-type empirique Sn associé à la réalisation du
p
n
n échantillon (X1 ; X2 ; :::; Xn ). Sous H0 , on sait que Tn 1 = Sn
Xn 0 suit la loi de
Student à (n 1) degrés de liberté. Ainsi, la valeur de la probabilité critique est calculée
à partir de la loi de Student, et l’on compare …nalement avec le risque de première espèce.
Les tests unilatéraux se déduisent de la même manière.

8.2.2 Test sur l’écart type normale


Un ensemble de tests (bilatéraux, unilatérals) sont construits de manière analogue à ceux
sur la moyenne. La statistique de test vise à comparer Sn2 et un paramètre 2
0 par le
2
Sn
rapport (n 1) 2 . Cette variable suit cette soit une loi
0
du khi-deux à (n 1) degrés de liberté. Le test le plus utilisé, par exemple en contrôle
de qualité, est celui unilatéral. On veut par exemple détecter la dérive d’un procédé,
tester si la variance d’un paramètre de la production a signi…cativement augmenté même
si la moyenne est restée proche de la valeur nominale.
On veut tester l’hypothèse composite H0 : < 0 contre l’alternative H1 : > 0.

La probabilité critique est

Sn2 s2n
PH0 (n 1) 2
> (n 1) 2
0 0

Le test de niveau consiste à rejeter H0 si:


2 2
s2n 2 0 n 1;1
(n 1) 2
> n 1;1 () s2n > ;
0 n 1
2
où n 1;1 est l’(1 )-quantile d’une loi de Khi-deux à (n 1) degrés de liberté.

8.2.3 Test sur une proportion


Test bilatéral. On teste H0 : = 0 contre l’hypothèse alternative H1 : 6= 0; en
supposant que la variable X suit une loi binomiale B (n; ).
Il est possible de dé…nir un test exact mais comme la loi binomiale est associée à une
variable aléatoire discrète, la fonction de répartition est étagée et les quantiles associés
ne sont dé…nis que sur des valeurs entières; on ne peut donc pas obtenir un test de

8.2. Tests paramétriques


Chapter 8. TESTS 223

niveau exactement pour toute valeur. Il est souvent plus simple de considérer une
approximation gaussienne de la loi binomiale par le théorème de la limite centrale sous la
condition que les nombres n 0 et n (1 ) soient su¢ samment grands, en pratique, plus
grands que 10.
La statistique de test:
jX n 0 j
p ;
n 0 (1 0)

suit une loi normale centrée réduite et sa réalisation est comparée avec le 1 2
-quantile
de cette loi.
Test unilatéral. On teste H0 : 0 contre l’hypothèse alternative H1 : > 0,

en supposant que la variable X suit une loi binomiale B (n; ). La statistique du test est
la même mais comparée cette fois avec le quantile d’ordre 1 de la loi normale pour
un test unilatéral.

8.3 Comparaison de deux échantillons


L’objectif de cette section est de comparer des caractéristiques de deux populations à
l’aide d’échantillons extraits de chacune de celle-ci.

8.3.1 Comparaison de deux moyennes


2 2
On considère deux variables X et Y normales de moyennes 1, 2 et de variances 1; 2
dont sont tirés des échantillons d’e¤ectifs n1 , n2 ) ; X (resp. Y ) désigne l’estimateur de
l’espérance de la variable X (resp. Y ) et S12 (resp. S22 ) celui de la variance. Notons:

(n1 1)S12 + (n2 1)S12


S2 = ;
n1 + n2 2
2 2
1 et 2 connues.

Le test de l’hypothèse H0 : 1 = 2 est basé sur la loi des di¤érences des moyennes.
Sachant que X et Y sont des variables aléatoires normales de moyennes respectivement
2 2
1, et de variances ; .
1 2
2 n1 n2
Rappelons que
2 2
1 2
(X Y) N 0; + :
n1 n2
Donc Tester 1 = 2 revient à tester la moyenne 1 2 = 0 d’une variable aléatoire
(X Y ) normale et de variance connue comme dans un test à un échantillon.

8.3. Comparaison de deux échantillons


Chapter 8. TESTS 224

2 2
1= 2 inconnues.

Cette hypothèse d’égalité des variances peut être véri…ée avec le test ci-dessous. Dans ce
cas,
1 1
(X Y) N 0; + :
n1 n2
La variance doit être estimée par S 2 et la statistique de test est le quotient d’une variable
normale par une variable de Khi-deux; c’est une variable de Student à (n1 + n2 2) degrés
de liberté:
X Y
q Tn1 +n2 2
1 1
S n1
+ n2

Donc: Tester 1 = 2 revient à tester 1 2 = 0 d’une variable aléatoire X Y


normale et de variance inconnue comme dans un test à un échantillon.

2 2
1 6= 2 inconnues.

Lorsque les e¤ectifs des deux échantillons sont élevés (supérieurs à 20), le test précédent
peut être utilisé.

8.3.2 Comparaison de deux variances:


Il est utile de tester l’égalité de deux variances
H0 : 21 = 22 préalablement au test d’égalité des moyennes.
S2
La statistique de test est S12 qui ne doit être ni trop petite ni trop grande a…n d’accepter
2
H0 . Ce rapport de deux variables suivant des lois de Khi-deux est une variable aléatoire
suivant une loi de Fisher à (n1 1) et (n2 1) degrés de liberté.
En pratique, la plus grande quantité, disons S12 , est placée au numérateur et le test de
S12
niveau conduit à rejeter H0 si la réalisation de la statistique S22
est plus grande que le
quantile F(n1 1);(n2 2); 2 de la loi de Fisher.

8.3.3 Comparaisons de deux proportions


Les variables X et Y ne sont plus supposées normales mais binomiales de paramètres
(n1 , 1 ) et (n2 , 2 ). Le test qui suit n’est valide qu’approximativement pour des échantillons
de tailles su¢ samment grandes car il est basée sur des approximations gaussiennes des
lois binomiales.
L’hypothèse H0 : 1 = 2 et on note:
X +Y 1 1
P = ; Sd2 = P (1 P )( + )
n1 + n2 n1 n2

8.3. Comparaison de deux échantillons


Chapter 8. TESTS 225

Sous H0 : 1 = 2 = et, moyennant une approximation normale, la variable

X Y 1 1
( ) N 0; (1 )( + ) ;
n1 n2 n1 n2
est estimée par P et le test approché de niveau conduit à rejeter H0 si la réalisation
de la statistique de test:
X Y
n1 n2
p
P (1 P )(1=n1 + 1=n2 )
dépasse le quantile u1 2
de la loi normale centrée réduite.

8.4 Deux échantillons appariés


Deux variables sont observées sur le même échantillon ou encore ce même échantillon
est soumis à deux mesures successives de la même variable Par exemple: des copies
sont soumises à une double correction, deux tests biologiques sont comparés sur le même
ensemble de patients, ... Les mesures sont alors dites appariées ou en couple par opposition
à des échantillons distincts et donc indépendants.
La variable D désigne la di¤érence X Y de variables gaussiennes de moyennes 1,
2
2 et de même variance , D est supposée suivre une loi normale de moyenne 1 2
2
et de variance ; D désigne l’estimateur de la moyenne de D et SD celui de sa variance.
Le test de H0 : 1 = 2 contre H1 : 1 6= 2 revient à comparer la moyenne de D à
la valeur nulle. Comme pour un test à un échantillon normale de variance inconnue, la
p
statistique de test n SDD suit une loi de Student à (n 1) degrés de liberté. L’hypothèse
p jDj
H0 est rejetée si la réalisation de la statistique de test n SD dépasse le quantile tn 1;1 2
de la loi de Student.

Remarque 8.7 Deux tests di¤érents sont ainsi proposés pour comparer deux moyennes
celui basé sur deux échantillons indépendants et celui basé sur des échantillons appariés.
La di¤érence est importante: la variance de la statistique de test intègre (S dans le cas
indépendant), ou non (SD dans le cas apparié), la variabilité des échantillons. Comme
le test apparié est épargné par cette source de variabilité supplémentaire, il est plus
puissant que le test sur échantillons indépendants ; ce test est à favoriser lorsque cela est
expérimentalement possible.

8.4. Deux échantillons appariés


Chapter 8. TESTS 226

8.5 Tests non-paramétriques


Dans cette section nous présentons un ensemble de tests dits non-paramétriques, ils sont
exploitables quelle que soit les lois des échantillons. Lorsque les hypothèses d’un test
paramétrique sont véri…ées, un test non-paramétrique est généralement moins puissant
que son homologue. On général on utilise ces tests dans les cas où les échantillons ne sont
pas normales ou binomiales et si les échantillons sont de petites tailles.

8.5.1 Test de Wilcoxon-Mann-Whitney pour 2 échantillons in-


dépendants
Ce test repose sur l’idée que deux séries de valeurs mélangées et ordonnées par valeurs
croissantes, doivent conduire à un mélange homogène si l’hypothèse H0 est véri…ée. Soit
(x1 ; x2 ; :::; xn ) et (y1 ; y2 ; :::; ym ) deux échantillons, les deux suites étant fusionnées et réor-
données. Notons R1 (resp:R2 ) la somme des rangs des observations du 1er échantillon
(resp. 2ème échantillon) dans cette suite nous e¤ectuons un rang moyen en cas d’égalité
entre valeurs.
La statistique U est dé…nie par:

n(n + 1) m(m + 1)
U = min nm + R1 ; nm + R2
2 2
La loi de U est tabulée (e¤ectifs < 16) ou, lorsque n et m sont su¢ samment grands,
(nm+1) nm(n+m+1)
U suit une loi normale de moyenne 2
et de variance 12
, le test se ramène au
test de la moyenne d’un échantillon normale.

8.5.2 Test de Wilcoxon pour échantillons appariés


Comme pour des échantillons normales, la variable considérée est celle X Y des
di¤érences. Le test dit des signes consiste à dénombrer le nombre k de di¤érences pos-
itives. Sous l’hypothèse d’homogénéité, k suit une loi binomiale B n; 12 . Ce test est
facile à mettre en œuvre mais il est moins puissant que le test de Wilcoxon pour données
appariées. Soit (xi ; yi ) n paires d’observations de deux variables X et Y sur le même
échantillon ; (d1 ; d2 ; :::; dn ) désigne la suite des di¤érences qui sont ordonnées par ordre
croissant des valeurs absolues jdij j; notons R+ (resp. R ) la somme des rangs correspond-
ants aux valeurs positives (resp. négatives) ; R = min (R+ ; R ) . En cas de di¤érence
nulle di = 0, l’e¤ectif n est réduit d’une unité et en cas d’ex-æquo, le rang moyen est
utilisé.

8.5. Tests non-paramétriques


Chapter 8. TESTS 227

La loi de la statistique R est tabulée et pour des valeurs plus grandes R suit approx-
n(n+1) n(n+1)(2n+1)
imativement une loi normale de moyenne 4
et de variance 24
.

8.5.3 Test de Kruskal-Wallis pour plusieurs échantillons


Le test de Kruskal-Wallis est la généralisation à m échantillons de celui de Wilcoxon-
Mann-Whitney auquel il est équivalent pour m = 2. Chaque observation xm;i appartient
à l’un i des m échantillons et est remplacée par son rang rm;i dans la suite ordonnée de
(n+1)
toutes les valeurs ; r = 2
et ri désignent respectivement la moyenne globale des rangs
et la moyenne des rangs pour les observations de l’échantillon i. La statistique H de
Kruskal-Wallis est dé…nie de façon analogue à celle d’une variance interclasse par:
12 Pm 12 Pm S2
H= ni (ri r)2 = i
3 (n + 1)
n (n + 1) i=1 n (n + 1) i=1 ni
où Si est la somme des rangs du i-ème échantillon, ni son e¤ectif.
La loi de H est tabulée pour de petits e¤ectifs et, pour des e¤ectifs plus importants
(ni > 5 pour tout i), la loi de H est approchée par une loi de Khi-deux à (m 1) degrés
de liberté.

2
8.6 Test de Khi-deux
Le test de Khi-deux utilise des propriétés de la loi multinomiale. Il permet de juger si une
hypothèse concernant la loi de probabilité d’une variable aléatoire est compatible avec la
réalisation d’un échantillon. Deux cas sont à distinguer:
a) la fonction de répartition F est entièrement spéci…ée, et ses paramètres sont connus.
b) on connaît seulement la forme de la loi de distribution, et ses paramètres sont estimés
à partir d’un échantillon.
Soit (X1 ; X2 ; :::; Xn ) un n-échantillon d’une v.a.r. X prenant ses valeurs dans l’ensemble
P
k
fx1 ; x2 ; :::; xk g: On se donne un vecteur p = (p1 ; p2 ; :::; pk ), tel pi = 1. On veut tester
i=1
l’hypothèse
H0 : pour tout i = 1; 2; :::; k ; P (X = xi ) = pi contre l’hypothèse
H1 : il existe j 2 f1; 2; :::; kg tel que P (X = xj ) 6= pj .

2
8.6.1 Test de pour une loi uniforme discrète
Soit la v.a.r. Ni correspond à l’e¤ectif observé de la valeur xi , tandis que npi correspond
à l’e¤ectif théorique espéré de la valeur xi (e¤ectif calculé à partir de la distribution
théorique F ). Sous l’hypothèse H0 , la fréquence observée

2
8.6. Test de Khi-deux
Chapter 8. TESTS 228

Ni = n est “proche" de la fréquence théorique pi pour tout i. En e¤et, par la LGN,


elle converge en probabilité vers l’espérance de la v.a.r. 1fX1 =xi g , qui n’est autre que pi
La statistique de test que l’on considère est:
npi )2 (Ni
D2 =
:
npi
Elle exprime une distance dite de Khi-deux entre la distribution empirique et celle
théorique sous H0 . On admet que cette v.a.r. D2 suit une loi du Khi-deux à n degrés
de liberté, quelle que soit la loi considérée, lorsque le nombre n d’observations tend vers
l’in…ni. Le nombre de degrés de liberté est égal à :
(k 1) si la distribution théorique est entièrement déterminée, aucun paramètre n’ayant
été estimé.
(k 1 r) si r paramètres ont dû être estimés à partir des observations, pour dé…nir
complètement la distribution.
Règle de décision:
!
P
k (N
i npi )2 Pk (N
i;obs npi )2
Rejet de H0 , PH0 > < :
i=1 npi i=1 npi
Sinon, on garde l’hypothèse H0 et on considère que la distribution théorique spéci…ée
est plausible, i:e que F = F0 .

Exemple 8.7 On note les résultats sur 100 lancés d’un dé et l’on obtient le tableau
suivant:
Face 1 2 3 4 5 6
Ni;obs :E¤ectifs 7 18 26 15 18 16
npi 16; 67 16; 67 16; 67 16; 67 16; 67 16; 67
2
(16;67i;obs npi )
npi
5; 61 0; 11 5; 23 0; 17 0; 11 0; 03
1
où les e¤ectifs théoriques sont npi = 100 6
= 16; 67 si le dé est équilibré (c’est-à-dire
2
sous H0 ). D’où la valeur Dobs est

Pk (N
i;obs
2 npi )2
= Dobs = 11; 24:
i=1 npi
Comme on a 6 classes, on utilise donc la loi du 2 à 5 degrés de liberté. À l’aide des
tables, on trouve la valeur de la probabilité cherchée:

PH0 (D2 > Dobs


2
) = 0; 0468:
Cette probabilité étant supérieure à = 0; 01, alors l’hypothèse H0 “le dé est équilibré"
est acceptée au risque de = 0; 01.

2
8.6. Test de Khi-deux
Chapter 8. TESTS 229

8.7 Exercices
Exercice 8.1 Dans un service médicale, une étude statistique a montré que l’attente
(en minute) avant de consulter suit une loi normale de moyenne 18 et écart-type 7; 2.
Après une réorganisation de service, une étude est e¤ectuée pour contrôler s’il y a eu une
amélioration du temps d’attente.

Attente [2; 6[ [6; 10[ [10; 12[ [12; 14[ [14; 18[ [18; 26[ [26; 34[
E¤ectif 8 14 9 11 30 16 12

1) La distribution peut être considérer comme normale,


2) Construire un test permettant de décider si le temps d’attente a diminué depuis la
réorganisation du service (seuil 2%)
3) Calculer la probabilité critique liée à ce test.
4) Conclure à l’aide du sandage e¤ectué.

Solution. Commençons par calculer la moyenne et l’écart-type empiriques:


P
Centre(Xi ) 4 8 11 13 16 22 30
E¤ectif(ni ) 8 14 9 11 30 16 12
ni Xi 32 112 99 143 480 352 360 1578

1 P 7
X 100 = ni Xi = 15; 78:
100 i=1
ET s
1 P 7
s2100 = ni Xi (15; 78)2 = 7; 2768
100 i=1
Donc la déviation normale est s100 = 7; 3114:
Posons l’hypothèses: H0 : Le temps d’attente suit la loi N (15; 78; 7; 3114) contre H1 :
Le temps d’attente ne suit pas la loi N (15; 78; 7; 3114) :
Supposons que H0 vraie et on calcul les e¤ectifs théoriques
P
Xi 6 [6; 10[ [10; 12[ [12; 14[ [14; 18[ [18; 26[ 26
Oi 8 14 9 11 30 16 12
Ti 9; 01 12; 47 8; 67 10; 37 21; 27 30; 13 8; 08 1578
2
(Ti Oi )
Ti
0; 11 0; 188 0; 013 0; 038 3; 58 6; 63 1; 90 12; 46

Donc le Khi-deux calculé est

2
P
7 (T
i Oi )2
cal = = 12; 46:
i=1 Ti

8.7. Exercices
Chapter 8. TESTS 230

Ici nous avons le degré de liberté est 7 1 2 = 4; parce que nous avons estimé 2
paramètres sur le même échantillon.
pour un risque de 5%, par la lecture du table de 2 ; 20;05 = 9; 49:
Comme 2cal > 20;05 . Alors, on rejette H0 :
2) Sachant que = 2%, on suppose les hypothèses suivantes:
H0 : Le temps moyen d’attente n’a pas changé = 18:
H0 : Le temps moyen d’attente, < 18:
Soit X la v.a égale au temps d’attente sur tout l’échantillon de taille100 suit la loi
normale de moyenne 18 et d’écart-type 7;2
10
:
Sous H0 , en cherche la valeur a de telle que

P X 18 a = 0; 98;

ce qui équivalent à
X 18 a
P = 0; 98:
7; 2 7; 2
X 18
Soit T = 7;2
; alors T N (0; 1) ; donc
a
P T = 0; 98;
0; 72
Soit par symétrie de la loi normale
a
P T = 0; 98:
0; 72
Donc, par lecture inverse sur la table de N (0; 1), on trouve
a
= 2; 055 i:e a = 1; 48:
0; 72
Ainsi on peut énoncer la règle de décision suivante:
Si la moyenne de l’échantillon me 16; 52, on accepte H0 avec un risque inconnue.
Si la moyenne de l’échantillon me < 16; 52, on rejette H0 ; donc on accepte H1 avec une
probabilité de risque = 2%
2) On sait que la moyenne empirique me est un estimateur sans biais de l’espérance.
Ici la probabilité critique vaut:

P X me sous H0 :

D’où

P X 15; 78 = P (T 3; 08) = P (T 3; 08)


= 1 P (T 0; 08) = 1 0; 9989
= 0; 00010;

8.7. Exercices
Chapter 8. TESTS 231

la probabilité critique ici vaut à peu près 0; 1%:


3) On conclut:
À l’aide des tests classiques et comme 15; 78 < 16; 52; on rejette H0 ; il y a donc une
diminution de temps d’attente au risque = 2%:
À l’aide de probabilité critique = 2% > P C = 0; 1; on rejette H0 ; il y a donc une
diminution de temps d’attente au risque = 2%:

Exercice 8.2 Un appareil de télécommunications reçoit un signal stocké à chaque (petite)


unité de temps dans une suite de variables (Xn ). Cet appareil doit détecter un signal ef-
fectif, en le di¤érenciant d’un bruit. On suppose que le bruit est une suite de variables
indépendantes de loi normale de moyenne nulle et de variance 1. Pour un signal, la moy-
enne n’est pas nulle. Aujourd’hui on a observé une suite de 40 variables ((x1 ; x2 ; :::; x40 ),
supposées indépendantes, de variance 1. La moyenne empirique vaut 0; 6. S’agit-il de
bruit ? Construire un test pour répondre à cette question.

Solution. On veut tester H0 : = 0 contre H1 : 6= 0.


On utilise la statistique de test
X
Z=p
n
0:6
Région de rejet: jZj > 1:96 pour un risque 5%. Ici, on observe zobs = p
40
= 3:79 > 1:96,
donc on rejette H0 . On a bien un signal et de plus, la P-valeur vaut

PH0 [jZj > 3; 79] = 2(1 F (3:79)) = 0:0001

Le test est extrêmement signi…catif.

Exercice 8.3 On veut savoir si la résistance moyenne de composants produits dans une
usine est 400 . On considère que la distribution des résistances est normale, et on mesure
pour 16 composants les valeurs:

392; 396 ; 386 ; 389 ; 388 ; 387; 403; 397;


401; 391; 400; 402; 394; 406; 406; 400:

a) Donner les estimations ponctuelles des moyenne et variance.


b) Peut-on considérer, au seuil de signi…cation = 5%, que le lot respecte la norme
de 400 ? Même question avec un seuil de = 1%.

Solution. a) Le calcul de X et s, nous donne

X = 396; 125; s = 6; 742 et s2 = 45; 45:

8.7. Exercices
Chapter 8. TESTS 232

b) Si l’on fait l’hypothèse H0 : "le lot respecte la norme de 400 ," alors dans 95% des
cas la moyenne sur un échantillon d’e¤ectif 16 se trouve dans l’intervalle
6:742 6:742
400 T15 ; 400 + T15 ;
4 4
T15 étant lu dans la table de la loi de Student à 15 degrés de liberté: T15 = 2; 1314. Ainsi
l’intervalle de con…ance 95% pour la résistance est

[396; 40; 403; 59] :

Et on peut donc, au risque 5%, rejeter l’hypothèse.


Au seuil = 1%, on a dans l’hypothèse H0 un intervalle de con…ance pour la moyenne
6:742 6:742
400 T15 ; 400 + T15 ;
4 4
avec T15 = 2:9467. Ainsi, l’intervalle est

[395; 03; 404; 97] :

Au risque 1%, on ne rejette pas H0 .

Exercice 8.4 Une entreprise fabrique des pièces en sous-traitance. La direction décide de
mettre en place une politique de rechercher la qualité. Pour ce faire, toutes les machines
ont été systématiquement révisées et on a dé…ni une nouvelle organisation dans l’atelier:
les taches de contrôle sont réparties à chaque étape du processus de fabrication et le taux
de pièces défectueuses est tombe 1%. Quelques mois plus tard, une opération de contrôle
est e¤ectuée pour véri…er si la norme 1% (hypothèse nulle) des pièces défectueuses reste
valable. Sur les 5000 pièces contrôlées 100 s’avèrent défectueuses, soit 2% (hypothèse
alternative). Le directeur de l’entreprise décide que si l’hypothèse nulle est véri…ée, il ne
modi…era plus son processus de production (décision D0 ) et au contraire si c’est l’hypothèse
alternative, il entreprendra une action de sensibilisation des salariés de cet atelier au
problème de la qualité (décision D1 ). Pour choisir entre ces deux hypothèses, il tire un
échantillon de 1500 pièces.
1) si le directeur se …xe un risque de 1% d’entreprendre une action de sensibilisation
des salariès à tort, formuler la règle de décision du test unilatéral.
2) Si dans l’échantillon prélevé, il y a 18 pièces défectueuses, quelle sera la décision de
directeur: devra-t-il entreprendre un action formation?
3) Calculer le risque de ne pas modi…er le processus, alors qu’on le devrait. Comment
s’appelle ce risque?

8.7. Exercices
Chapter 8. TESTS 233

Solution. Posons les hypothèses suivantes:


H0 : le taux de pièces défectueuses est 1%; p = 0; 01:
H1 : le taux de pièces défectueuses est 2%; p = 0; 02:
Le risque dé…ni par le directeur est de 1ere espèce, donc = 1%:
Soit F la v.a. égale à la proportion de pièces défectueuses sur tout échantillon de taille
1500.
Sous H0 : Comme n > 30
r !
0; 01 0; 99
F N 0; 01; = N (0; 01; 0; 00257) :
1500

On cherche une valeur a telle que

P (F > a + 0; 01) = 0; 01:

Ce qui équivalant à
P (F a + 0; 01) = 0; 99:

On sait que
F 0; 01
T = N (0; 1) :
0; 00257
Donc
a
P (F a + 0; 01) = 0; 99 () P T = 0; 99;
0; 00257
par la lecture inverse de la table de N (0; 1), on a
a
= 2; 33 () a = 0; 006:
0; 00257
Régle de décision:
Si fe > 1; 6% on rejette H0 avec une risque de 1%:
Si fe 1; 6% on accepte H0 :
2) Sur l’échantillon fe = 1; 2%, donc on accepte H0 :
3) On calcule le risque du 2eme espèce.
Sous H0 :
F N (0; 02; 0; 00361)

= P (F 0; 016) = P (T 1; 11) = P (T 1; 11)


= 1 P (T < 1; 11) = 1 0; 8665 = 0; 1335:

Le risque est du 2eme espèce est vaut 13; 35%:

8.7. Exercices
Chapter 8. TESTS 234

Exercice 8.5 Un laboratoire pharmaceutique désire étudier les e¤ets secondaires poten-
tiels d’un médicament sur le taux de cholestérol des patients. Cent volontaires sains sont
donc choisis pour tester le médicament.
a) Avant l’expérience, le taux de cholestérol moyen de ces volontaires est de 2; 02
0; 2 g=l. Le taux de cholestérol moyen dans la population étant de 2g=l, véri…er que cet
échantillon est représentatif au risque 5%.
b) Après un mois de traitement, seuls 97 volontaires reviennent faire un test. Leur taux
moyen de cholestérol est passé à 2; 09 g=l avec un écart-type d’échantillon de 0; 25 g=l. La
di¤érence est-elle signi…cative au risque 5%? Au risque 1%?

Solution. a) Soit X1 la variable aléatoire qui mesure le taux de cholestérol d’un individu
; E(X1 ) = 1 = 2.
X 1 est le taux moyen mesuré sur un échantillon de taille n1 = 100. Alors n1 étant plus
p
n
grand que 30, on peut considérer que s1
X1 2 suit une loi normale, avec s1 = 0; 2
estimation ponctuelle de l’écart-type de X1 . Ainsi, dans 95% des cas le taux moyen
observé sur un échantillon sera compris dans
0:2 0:2
2 1; 96 ; 2 + 1; 96 = [1; 961; 2; 039] :
10 10
Le taux de cholestérol moyen des volontaires étant bien dans cet intervalle, on peut
considérer que cet échantillon est représentatif.
b) Soit X2 la variable aléatoire mesurant le taux de cholestérol d’un individu après un
mois de traitement ; son espérance 2 est inconnue. X 2 est le taux moyen d’un échantillon
de taille n2 = 97. On fait l’hypothèse H0 : « les taux de cholestérol moyens sont les mêmes
avant et après traitement » . Alors 1 = 2, et on peut considérer que
X X2
q 12 N (0; 1)
s1 s2
n1
+ n22
(avec s1 = 0:2; s2 = 0:25), et par conséquent on détermine l’intervalle de con…ance au
risque 5% de X1 X2 :
2 s s 3
4 1; 96 s21 s22 s21 s22 5 = [ 0; 063; 0; 063] :
+ ; 1; 96 +
n1 n2 n1 n2

Comme la di¤érence entre les taux moyens mesurés 2; 02 2; 09 = 0; 07 n’est pas dans
cet intervalle, elle est signi…cative, et on rejette H0 donc on considère, au risque 5% de se
tromper, que le médicament a un e¤et. L’intervalle de con…ance au risque 1% est
2 s s 3
2 2 2 2
4 2; 57 s1 + s2 ; [ 2; 57] s1 + s2 5 = [ 0; 083; 0; 083] ;
n1 n2 n1 n2

8.7. Exercices
Chapter 8. TESTS 235

intervalle qui contient la valeur 2; 02 2; 09 = 0; 07. Donc la di¤érence n’est pas signi…c-
ative au risque 1%.

8.8 Tables statistiques


8.8.1 Table des quantiles de la loi normale
1
La table suivante nous donne le quantile d’ordre p: zp = (p) pour la loi N (0; 1) :

8.8. Tables statistiques


Chapter 8. TESTS 236

8.8.2 Fonction de répartition de la loi normale centrée réduite


La table suivante nous donne la probabilité de trouver une valeur inférieur ou égale à u,
p = P (X u) où X N (0; 1) :

8.8. Tables statistiques


Chapter 8. TESTS 237

8.8.3 Table des quantiles de la loi kh-deux


2
La table suivante est la table des quantiles d’une variable à n degrés de liberté

8.8. Tables statistiques


Chapter 8. TESTS 238

8.8.4 Table de Student


la table suvante est la table de Student à n degré de liberté.

8.8. Tables statistiques


BIBLIOGRAPHY

[1] K. Abd Almoumen Cours de probabiliés et sttistique. Université Constantine.

[2] A. Ayache & J. Hamonier. Cours de Statistique Descriptive1 Un

[3] A. Baccini. Statistique Descriptive Elémentaire (version de mai 2010) Institut de


Mathématiques de Toulouse j UMR CNRS 5219 Universit.

[4] S. BALAK, O. Mazat. Introduction aux probabilités. Centre de mathématiques, In-


stitut national des sciences appliquées de Lyon., France.

[5] J. DAUXOIS Cours de Probabilités Septembre 2013

[6] J. Delmas. Introduction au calcul des probabilités et à la statistique. Exercices,


problèmes et corrections. Les Presses de L’ENSTA 32, Paris 15e 2012.

[7] L. Fred, Combinatoire, Probabilités et Statistiques, Haute Ecole d’Ingénierie et de


Gestion du canton, version 2006.

[8] M. Genin. Tests statistiques. Université de Lille 2 EA 2694 - Santé Publique : Epid
emiologie et Qualité des soins.

[9] J-. Lecoutre. Statistique et Probabilités. L’université Panthéon-Assas (Paris II)

[10] A. Perrut, Cours de Probabilités et Statistiques, Université Claude Bernard Lyon 1,


Août 2010

[11] T. Phan. J Rowenczyk. Exercices et problèmes de statistique et probabilités. Dunod,


Paris, 2012. ISBN 978

239
Bibliography 240

[12] R. Rakotomalala Probabilités et Statistique. Notes de cours. Université Lumière Lyon


2

[13] K. Redjdal. Cours de probabilités. O¢ ce des publications universitaires: 12- 2004.


Place centrale de Ben-Aknoun; Alger

[14] J. Rivaud. Exercice d’algèbre. Librairie Vuibert 75006 Paris 1975.

[15] C. SUQUET Introduction au Calcul des Probabilités. Univ des Sciences et Technolo-
gies de Lille U.F.R. de Mathématiques Pures et Appliquées, F-59655. 2002–2003.

[16] Y. Tillé. Résumé du Cours de Statistique Descriptive. Décembre 2010.

[17] Y. Velenik, Probabilités et Statistique, Université de Genève, Version Préliminaire de


20 Mars 2017. 62

[18] R. Veysseyre, Aide-mémoire Statistique et Probabilités pour l’ingénieur, 2eme édition


Dunod, Paris, 2001, 2006.

[19] J. Yves. Probabilité 2, Jean-Yves Ouvrard.

[20] Exercices corrigés -Variables aléatoires discrètes …nies: www.bibm@th.net › res-


sources › proba › vadiscrete…nie

Bibliography

Vous aimerez peut-être aussi