Académique Documents
Professionnel Documents
Culture Documents
1 Statistique descriptive 5
1.2.1 Terminologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2 Probabilités 47
2.1.1 Cardinal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
1
TABLE DES MATIÈRES TABLE DES MATIÈRES
2.1.8 Récapitulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3 Variables aléatoire 62
3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2
TABLE DES MATIÈRES TABLE DES MATIÈRES
4 Lois de Probabilités 74
3
TABLE DES MATIÈRES TABLE DES MATIÈRES
5.1 CVAD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.2 CVAC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4
Chapitre 1
Statistique descriptive
Ce chapitre introductif est consacré à l’étude de la statistique descriptive ainsi que des
différents termes qui en constituent le vocabulaire de base.
L’histoire de la "statistique" remonte à une époque très ancienne. Les activités statis-
tiques (dénombrements) ont commencé bien avant la création du mot, l’application de la
méthode et de l’analyse statistique.
Depuis l’antiquité, les Empereurs réalisaient des dénombrements de populations humaines et
de terres pour les besoins de la guerre et de l’impôt. Il y a plus de 4000 ou 5000 ans, il existait
déjà en Chine des descriptions chiffrées de la population et de l’agriculture. Les Égyptiens de
l’époque des Pharaons procédaient au dénombrement de la population. A Rome, l’empereur
Auguste fit procéder à une vaste enquête en dénombrant les soldats, les navires et les revenus
publics. Jusqu’au moyen âge, les seules "statistiques" existante étaient les dénombrements
faits dans des buts divers : assiettes de l’impôt, répartition des terres, recrutement dans l’ar-
mée est effectués avec des méthodes diverses (recensements des personnes, enregistrements
de certains actes d’état civil ...). C’est à partir du XVIII siècle le mot "statistique" crée par
ACHENWAL en 1749 à partir du mot "STATISTA" (politique). Du simple dénombrement
de populations humaines et de terres, la statistique est devenue une science qui a retenu et
continue de retenir l’attention, non seulement des empereurs et de rois, mais surtout des
personnes de sciences. Puis en XVIII-XIX siècle, beaucoup de scientifiques de tous ordre ont
apporté leur contribution au développement de cette science PASCAL, HUYGENS, BER-
5
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
1.2.1 Terminologie
Définitions 1.2.1.
Population : Ensemble que l’on observe et qui sera soumis à une analyse statistique (Par
exemple la filière de MIPC, la population féminine, les fonctionnaires de la FST,..).
Chaque élément de cet ensemble est un Individu ou Unité statistique.
Échantillon C’est un sous ensemble de la population considérée. Le nombre d’individus
dans l’échantillon est la taille de l’échantillon.
6
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
Exemple 1.2.1.
On veut étudier la croissance économique de 200 petites et moyennes entreprises (PME) au
Maroc.
• Population : Les entreprises au Maroc.
• Individu : Chaque PME au Maroc.
• Échantillon : Les 200 PME au Maroc.
Remarque 1.2.2.
On va réserver les dernières lettres de l’alphabet pour noter les variables : X, Y, Z, U...
Dans une population donnée, un caractère peut varier d’un individu à l’autre. On dit que
ce caractère présente différentes modalités.
7
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
Exemple 1.2.3.
1. Si l’on étudie la population des étudiants d’un amphithéâtre et que le caractère étudié
est l’âge, les modalités du caractère seront 18 ans, 19 ans, 20 ans, etc.
2. Si l’on étudie une population de voitures et que le caractère étudié est la couleur, les
modalités du caractère seront des couleurs : bleu, vert, blanc, etc.
Les modalités d’une variable qualitative peuvent être classées sur deux types d’échelle :
nominale ou ordinale.
Exemple 1.2.7.
Nationalité : marocaine, allemande, française.
Groupe sanguin : A, B, O, AB.
8
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
Exemple 1.2.8.
Niveau d’étude : primaire, secondaire, supérieur.
État mécanique d’une Voiture : mauvais, moyen, bon, excellent.
Il existe deux types de variables quantitatives : les variables discrètes et les variables
continues.
Exemple 1.2.9. Âge, salaire, nombre de lit dans un hôpital, nombre d’étudiants par classe.
9
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
1. À chaque valeur xi (ou classe Ci ) est associée une fréquence fi : c’est la proportion
d’individus associés à cette valeur.
ni
2. fi = est un nombre compris entre 0 et 1, que l’on peut écrire sous forme de pour-
N ∑p
∑p
∑p
ni ni N
centage et fi = = i=1 = = 1.
i=1 i=1
N N N
Si dans une série statistique X, les valeurs d’un caractère peuvent être ordonnées, on définit
l’effectif cumulé Nj de la valeur nj par la somme des effectifs de toutes les valeurs inférieures
ou égales à nj .
∑
j
Nj = ni avec 1 ≤ j ≤ p.
i=1
Il s’agit ici d’effectif cumulé croissant, on pourrait de même définir un effectif cumulé
décroissant en prenant la somme des effectifs de toutes les valeurs supérieures ou égales à ni .
Nj ∑ ni ∑
j j
Fj = = = fi avec 1 ≤ j ≤ p.
N i=1
N i=1
Soit X une variable quantitative discrète dont le nombre de modalités n’est pas trop
grand. Alors on peut dresser un tableau des fréquences auquel on peut ajouter une colonne
supplémentaire où on met les fréquences cumulées.
En ce qui concerne la représentation graphique, un seul graphique s’associe avec les variables
quantitatives discrètes : le diagramme en bâtons.
Exemple 1.2.11.
Série A : Notes obtenues à un contrôle dans une classe de 40 élèves :
10
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
3−4−4−4−4−4−5−5−5−5−6−6−6−6−7−7−7−7−7−8−8−8−9−
9 − 13 − 13 − 14 − 14 − 14 − 15 − 15 − 15 − 15 − 16 − 16 − 16 − 17 − 17 − 17 − 17.
Effectifs
1
Notes
0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
Remarque 1.2.12. Les bâtons ne doivent pas avoir d’épaisseur, car la variable prend exac-
tement les valeurs 1, 2,... On peut ajouter les fréquences sur les bâtons.
11
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
Exemple 1.2.13. Soit X, les recettes quotidiennes(en Dirhams) d’un petit magasin. On
a sélectionné un échantillon de taille n = 40 jours au hasard qui ont donné les résultats
suivants :
16, 00 − 58, 50 − 68, 20 − 78, 00 − 79, 45 − 142, 20 − 145, 3 − 186, 70 − 209, 05 − 216, 75 −
219, 70 − 247, 75 − 249, 10 − 256, 00 − 257, 15 − 262, 35 − 268, 60 − 269, 60 − 270, 15 − 284, 45 −
319, 00 − 332, 00 − 343, 29 − 350, 75 − 354, 90 − 372, 60 − 383, 20 − 389, 20 − 404, 55 − 420, 20 −
428, 50 − 432, 40 − 444, 60 − 446, 80 − 456, 10 − 458, 10 − 493, 95 − 511, 95 − 521, 05 − 621, 35.
10
Le nombre de classe à former est K = 1 + log(40) = 6, 34 ≈ 7 d’amplitude chacune égale
3
621, 35 − 16, 00
àA= = 86, 48 ≈ 90. Cette amplitude est arrondie à 90. Ce qui donne le
7
tableau des fréquences suivant, où les classes sont des intervalles fermés à gauche et ouverts
à droite sauf le dernier qui est un intervalle fermé des deux côtés.
12
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
Quand aux graphiques, on va ici privilégier trois graphiques pour les variables quantita-
tives continues.
• L’histogramme, qui est une suite de rectangles juxtaposés les uns aux autres dressés
au-dessus de chacune des classes, dont la largeur est égale à l’amplitude de la classe (prise
comme unité de mesure) et dont la surface reflète la fréquence de la classe qu’il représente.
13
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
• Le polygone des fréquences, qui consiste à joindre le milieux des sommets des rectangles
d’un histogramme par une ligne en zig-zag et cette ligne se ferme en ajoutant aux deux
extrémités deux classes fictives de même amplitude que les autres, comme ça la surface
délimitée par l’histogramme est identique à celle délimitée par le polygone des fréquences.
Polygone des fréquences donnant la répartition des 40 semaines selon les recettes hebdomadaires.
• La courbe des fréquences cumulées. Comme son nom l’indique, elle consiste à
tracer le graphique des fréquences cumulées, en mettant les limites des classes sur l’axe
14
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
horizontal et les fréquences cumulées sur l’axe vertical, ces dernières se cumulant à la fin de
chacune des classes. Ce graphique aura l’allure d’une courbe croissante variant entre 0 et 1.
La courbe des fréquences cumulées de la répartition des 40 semaines selon les recettes
Alors ici la variable est X=Boisson non-alcoolisée, qui est une variable qualitative
nominale. Pour présenter ces données sous forme de tableau, on dresse un tableau, dans la
première colonne on énumère les cinq modalités de la variable, dans la seconde colonne on
donne l’effectif de chacune des modalités (c’est-à-dire le nombre de fois que cette modalité
se répète dans l’échantillon) et dans la troisième colonne, on donne la fréquence de chacune
des modalités.
15
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
Exemple 1.2.15. Dans une clinique spécialisée en oncologie, on identifie les différents types
de cancers qui affectent les 200 derniers patients qui s’y sont inscrits :
16
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
• Le deuxième graphique qu’on peut faire est le diagramme à secteurs (ou circulaire) qui est
une sorte de tarte où chaque modalité occupe une partie qui reflète sa fréquence.
Exemple 1.2.16. Lors d’une enquête de satisfaction de la clientèle, une compagnie a de-
mandée à un échantillon de 60 clients d’indiquer leur degré de satisfaction vis-à-vis de leur
conseiller financier, sur une échelle de 1 à 7, le 1 correspondant à "pas du tout satisfait" et
le 7 correspondant à "extrêmement satisfait". On a obtenu les résultats suivants :
5−7−6−6−7−5−5−7−3−6−7−7−6−6−6−5−5−6−7−7−6−6−4−4−7−6−7−6−7−
6−5−7−5−7−6−4−7−5−7−6−6−5−3−7−7−6−6−6−6−5−5−6−6−7−7−5−6−6−6−6.
Ici la variable, "X =degré de satisfaction" est une variable qualitative ordinale. On peut
résumer l’information contenue dans ces données sous forme d’un tableau de fréquences ce
qui donne :
17
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
Définition 1.2.1. Le mode ou la classe modale d’une variable statistique X est la valeur
du caractère étudié qui a le plus grand effectif et on le note M od(X).
18
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
Remarque 1.2.17.
– Le mode est une importante mesure de tendance centrale pour les variables qualitatives
nominales.
– Une distribution peut avoir un seul mode et on dit qu’elle est uni-modale, ou plusieurs
modes et on dit qu’elle est multimodale.
Exemple 1.2.18. Dans l’exemple Diagramme en bâtons, le mode est « 7 »et « 4 », la dis-
tribution dans ce cas, elle est bi-modale.
Alors, le mode de cette variable est M od(X) = Coca − Cola (CC), cela signifie que dans cet
échantillon, la boisson la plus fréquemment achetée est Coca-Cola.
19
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
X Effectifs ni
[10; 15[ 5
[15; 20[ 3
[20; 25[ 11
[25; 30[ 6
Ici, on a la valeur 11 qui représente le plus grand effectif donc on a [20; 25[ est la classe
modale et le mode :
d1 (11 − 3)
M od(X) = xinf
i +A = 20 + 5 ≈ 23.
d1 + d2 (11 − 3) + (11 − 6)
Les Moyennes
1) Moyenne Arithmétique
15+12+3+20+8+0+18+2+14+6+16+4+14+4+15+6+5+15+16+3+7+17+13+6+13+18+2+15+5+4+14
31
= 10.
20
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
Définition 1.2.3. On considère une série statistique à caractère quantitatif prenant p va-
leurs notées x1 , x2 , . . ., xp ; chaque valeur xi apparaissant ni fois dans la série. Ainsi la
population totale a un effectif N = n1 + n2 + · · · + np . La moyenne de cette série est le
nombre x défini par :
∑
p
ni xi
n1 x1 + n2 x2 + · · · + np xP i=1
x= =
n1 + n2 + · · · + np N
Cette moyenne est appelée moyenne pondérée par les effectifs.
Exemple 1.2.22. On donne la série de notes obtenues par les étudiants dans un contrôle
de statistique :
Note 5 7 10 11 13 15 16 19
Effectif 1 6 7 4 6 7 1 3
Exemple 1.2.24. On donne la répartition des familles selon le nombre d’enfants en 1999 :
x = 0, 47 × 0 + 0, 22 × 1 + 0, 20 × 2 + 0, 08 × 3 + 0, 03 × 435 ≈ 0, 98
21
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
Supposons qu’on est devant un tableau où les données provenant d’un échantillon sont
groupées par classes. Alors pour calculer la moyenne de cet échantillon, on va utiliser une
formule approximative, où chaque classe est assimilée à son centre et on utilise la même
formule que pour le cas où les données sont groupées par valeurs. Si on note par mi , le milieu
de la ième classe et qu’on suppose que la taille de l’échantillon est N et qu’il y a k classes,
∑ k
ni mi
i=1
alors la moyenne de l’échantillon est x̄ = .
N
Exemple 1.2.25. En reprenant l’exemple où X est la recette quotidienne d’un petit magasin,
on avait le tableau suivant auquel on a ajouté une colonne à gauche contenant le milieu des
classes :
∑
k
n i mi
i=1 55 × 5 + 145 × 3 + ... + 595 × 1
x̄ = = = 298 DH
N 40
Proposition 1.2.26. Soit X une variable quantitative dont la moyenne est x̄ et soit Y une
autre variable quantitative transformée linéaire de X, c’est-à-dire que Y = aX + b où a et b
sont des constantes réelles. Alors la moyenne de Y sera égale à ȳ = ax̄ + b.
On dit que la moyenne conserve la transformation linéaire entre les variables.
Exemple 1.2.27. Soit X, le nombre d’heures qu’un étudiant travaille à temps partiel par
semaine. Supposons qu’à partir d’un échantillon d’étudiants, on a pu trouver qu’en moyenne
le nombre d’heures travaillées par ces étudiants est égale à 14, 5 heures/semaine. Si le salaire
22
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
horaire est de 20 DH et que les patrons de ces étudiants leur offrent 300 DH par semaine
pour leurs déplacements, quel est le gain net moyen hebdomadaire de ces étudiants ? Posons
Y , le gain net hebdomadaire de ces étudiants alors Y = 20X + 300 , donc le gain moyen
hebdomadaire de cet échantillon d’étudiants est égal à ȳ = 20 × 14, 5 + 300 = 590 DH.
2) Moyenne géométrique
{ }
Définition 1.2.9. On appelle moyenne géométrique de la distribution (xi , ni )1≤i≤k que
l’on note G, la racine nème du produit des xni i
√ √
Πki=1 xni i xn1 1 × xn2 2 × ... × xnk k
n n
G= =
∑
k
où n = ni .
i=1
n 1
H= = ,
∑
k
1 ∑
k
fi
ni
i=1
xi i=1
xi
∑
k
où n = ni .
i=1
On utilise la moyenne harmonique lorsqu’on veut déterminer un rapport moyen dans des
domaines où il existe des liens de proportionnalité inverse par exemple pour une distance
donné, le temps de trajet est d’autant plus court que la vitesse est élevée.
Remarque 1.2.28.
23
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
– Un inconvénient de la moyenne arithmétique est qu’elle est très sensible aux valeurs
extrêmes de la série.
– La moyenne géométrique est peu sensible aux valeurs extrêmes de la série.
– En ce qui concerne la moyenne harmonique, elle est plus sensible aux plus petites
valeurs de la série qu’aux plus grandes.
Médiane
La médiane est la valeur de la variable qui divise l’échantillon en deux groupes d’égal effectif.
Il y a 50% des données qui sont inférieures ou égales à la médiane et 50% des données qui
sont supérieures ou égales à la médiane. La médiane se calcule pour des variables qualitatives
ordinales et pour des variables quantitatives. On note la médiane d’une variable X par
M ed(X). Dans ce qui suit on va décrire les façons de calculer une médiane dans les différents
cas possibles.
1) Cas d’une variable discrète.
Méthode de détermination de la médiane, les valeurs étant rangées par ordre croissant
Deux cas sont possibles :
– S’il y a un nombre impair d’observations : N = 2k + 1, où k ∈ N, alors la médiane est la
(k + 1)ième valeur du caractère.
– S’il y a un nombre pair d’observations : N = 2k, où k ∈ N, alors la médiane est la moyenne
xk + xk+1
des k ième et (k + 1)ième valeurs du caractère (i.e ).
2
Exemple 1.2.29 (nombre impair d’observations). On donne la série statistique suivante qui
comporte 11 valeurs : 11 = 2 × 5 + 1.
3 − 4 − 4 − 5 − 7 − 9 − 11 − 13 − 15 − 16 − 18.
ème
La médiane est la 6 valeur : médiane = x6 = 9.
Exemple 1.2.30 (nombre pair d’observations). On donne la série statistique suivante qui
comporte 10 valeurs : 10 = 2 × 5.
2 − 5 − 7 − 8 − 8 − 12 − 12 − 15 − 15 − 16.
x5 + x6 8 + 12
La médiane est la moyenne des valeurs de rangs 5 et 6 : médiane = = = 10
2 2
Exemple 1.2.31. Reprenons les données de l’exemple où X est le degré de satisfaction de
la clientèle, on avait le tableau suivant :
24
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
x30 + x31
Nombre d’observation 60 donc on a 60 = 30 × 2, alors la médiane est = 6. Ce qui
2
veut dire que dans cet échantillon 50% des clients ont un degré de satisfaction de 6 ou moins
et l’autre 50% un degré de satisfaction de 6 ou plus.
(0, 5 − Fm−1 )
M ed(X) = binf + Am .
fm
Avec
• binf est la borne inférieure de la classe médiane.
• Fm−1 est la fréquence cumulée avant la classe médiane.
• fm est la la fréquence de la classe médiane.
• Am est l’amplitude de la classe médiane.
Exemple 1.2.32. En reprenant les données où X donne la recette quotidienne d’un petit
magasin, on retrouve le tableau des fréquences suivant :
25
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
Alors ici, la classe médiane est Cm = [280, 370[, binf = 280, Fm−1 = 0, 475, fm = 0, 15 et
Am = 90, ce qui donne une médiane égale à :
Ce qui veut dire qu’en se basant sur cet échantillon de données, 50% des recettes quotidiennes
de ce petit magasin sont inférieures ou égales à 295 DH et les autres 50% sont supérieures
ou égales à 295 DH.
Définition 1.2.11. la fréquence cumulée décroissante d’une valeur est la somme des fré-
quence des valeurs supérieures ou égales à cette valeur.
Notes [0; 5[ [ 5 ; 10 [ [ 10 ; 15 [ [ 15 ; 20 [
Effectif 4 17 7 2
Fréquence en % 13 57 23 7
F.c.c. 13 70 93 100
F.c.d. 100 87 30 7
26
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
Fréquence en %
100
F.c.d. F.c.c.
80
b
60
50 b
40
20
b
0 5 Médiane 10 15 Notes
Remarque 1.2.34. Le calcul de la médiane est basé sur l’ordre des observations et non sur
leur valeur. Contrairement à la moyenne, la médiane est insensible aux données extrêmes.
Dans le cas où les données sont très différentes, la médiane est une meilleure mesure de
tendance centrale.
Quartiles
Définition 1.2.4. Dans une série statistique de type quantitatif, le premier quartile et
le troisième quartile sont avec la médiane les trois valeurs du caractère qui séparent la
population en quatre groupes de mêmes effectifs.
La médiane sépare la série des valeurs ordonnées en deux parties d’effectifs égaux.
– Le premier quartile est la médiane de la première partie
– Le troisième quartile est la médiane de la seconde partie
Autrement dit :
– Le premier quartile est la plus petite valeur Q1 telle qu’au moins un quart des données
sont inférieures ou égales à Q1 .
27
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
– Le troisième quartile est la plus petite valeur Q3 telle qu’au moins trois quart des
données sont inférieures ou égales à Q3 .
| {z }| {z }| {z }
Au moins 25 % Au moins 50 % des données Au moins 25 %
des données des données
Remarque 1.2.35. Les quartiles permettent d’avoir en quelques chiffres un résumé rapide
de la série statistique. Il ne présentent un réel intérêt que lorsque les données sont en grand
nombre. Leurs calculs se feront la plupart du temps avec la calculatrice ou avec un tableur.
Définition 1.2.5. Les éléments ci-dessus permettent de définir une représentation particu-
lière d’une série statistique appelée Boîte de Tuckey ou plus simplement Boîte à moustaches
2 − 5 − 7 − 8 − 8 − 12 − 12 − 15 − 15 − 16.
0 2 4 6 8 10 12 14 16 18 20
28
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
Remarque 1.2.37. Les effectifs cumulés croissants peuvent permettre de déterminer les
quartiles et la médiane d’une série
Exemple 1.2.38. On donne la série de notes obtenues par des étudiants de Groupe 1 MIPC
dans un contrôle de statistique :
4 − 4 − 4 − 4 − 5 − 5 − 5 − 5 − 6 − 6 − 6 − 7 − 7 − 7 − 7 − 7 − 8 − 8 − 9 − 9 − 13 − 13 − 14 −
14 − 14 − 15 − 15 − 15 − 15 − 16 − 16 − 16 − 17 − 17 − 17.
Notes 4 5 6 7 8 9 13 14 15 16 17
Effectifs 4 4 3 5 2 2 2 3 4 3 3
Ecc 4 8 11 16 18 20 22 25 29 32 35
Propriétés 1.2.1. Le calcul des fréquences cumulées croissantes permet aussi d’obtenir les
quartiles.
Nous allons construire la courbe des fréquences cumulées croissantes et retrouver la mé-
diane et les quartiles graphiquement.
29
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
1
0, 925
0, 80
0, 75
0, 60
0, 50, 475
0, 375
0, 325
0, 25
0, 125
0 2 4 6 8 10 12 14 16 18 20
Q1 M ed Q3
Exemple 1.2.40. En reprenant les données où X donne la recette quotidienne d’un petit
magasin, on retrouve le tableau des fréquences suivant :
(a) Pour déterminer le premier quartile, les fréquences cumulées ont dépassé 25 % pour la
première fois au niveau de la classe [190; 280[, donc
(0, 25 − Fm−1
q1
) (0, 25 − 0, 20)
Q1 = bqinf1 + q1 Am = 190 + 90 = 206, 36.
fm 0, 275
Ce qui signifie que dans cet échantillon de données, 25% des journées, les recettes
quotidiennes de ce petit magasin ont été de 206,36 DH ou moins.
(b) Pour déterminer le deuxième quartile (on refait ce qu’on a déjà fait pour calculer la
médiane), les fréquences cumulées ont dépassé 50 % pour la première fois au niveau de
la classe [280; 370[, donc
(0, 5 − Fm−1 ) (0, 5 − 0, 475)
Q2 = binf + Am = 280 + 90 = 295.
fm 0, 15
Ce qui signifie que dans cet échantillon de données, 50 % des journées, les recettes
quotidiennes de ce petit magasin ont été de 295 DH ou moins.
30
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
(c) Pour déterminer le troisième quartile, les fréquences cumulées ont dépassé 75 % pour la
première fois au niveau de la classe [370; 460[, donc
q3 (0, 75 − Fm−1
q3
) (0, 75 − 0, 625)
Q3 = binf + q3 Am = 370 + 90 = 410, 91.
fm 0, 275
Ce qui signifie que dans cet échantillon de données, 75 % des journées, les recettes
quotidiennes de ce petit magasin ont été de 410,91 DH ou moins.
Remarque 1.2.41. Utilité des quartiles, en plus de leur utilisation comme mesures de po-
sition, s’utilisent pour détecter des données aberrantes dans toute série de données. Cette
détection se fait à l’aide d’un graphique en boîte (Box-plot) ou bien boîte à moustache.
Les indices de tendance centrale définissent le comportement général des données. Mais
les données peuvent varier beaucoup autour de cette tendance. On doit donc définir un
indice qui caractérise la variabilité des données dans l’échantillon. Cet indice est appelé
indice de dispersion parce qu’il renseigne sur la dispersion ou l’éparpillement des données
autour notamment des paramètres de tendance centrale.
Nous étudierons quatre paramètres de dispersion parmi les principaux, en mettant plus
particulièrement l’accent sur la variance et l’écart-type :
1. L’étendue et le rapport de variation
2. L’intervalle interquartile
3. La variance et l’écart-type
4. Le coefficient de variation
Définition 1.2.6.
L’étendue d’une série statistique de type quantitatif est la différence entre la plus grande et
la plus petite valeur du caractère étudié.
31
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
Exemple 1.2.42. Les notes d’élèves de deux classes au même examen ont donné les résultats
suivants :
Classe 1 9 11 12 13 7 5 11 9 13 12 14 17 8
Classe 2 7 8 10 17 16 13 19 8 14 11 15 3 11 15
Classe 1 Classe 2
Minimum 5 3
Maximum 17 19
Etendu 12 16
Rapport de Variation 3,4 6,3
Le rapport de variation nous apprend que dans la classe 1 la meilleure note est 3,4 fois plus
élevée que la note la plus faible. Ce rapport est plus important dans la classe 2 pour laquelle
il est 6,3.
Définition 1.2.7.
L’écart inter-quartile d’une série statistique de type quantitatif est la différence entre le
troisième quartile et le premier quartile du caractère étudié.
La variance
La variance d’une variable mesurée sur un échantillon est égale à la moyenne des carrés des
écarts qui séparent chaque observation de la moyenne, son calcul diffère selon la nature des
données.
1 ∑( )2 ( 1 ∑ )
n n
s2x = Vx = xi − x̄ = x2i − x̄2 .
n i=1 n i=1
2) Le cas des données groupées, soit par valeurs, soit par classes.
Soit X une variable quantitative mesurée sur un échantillon de taille n, et dont les k valeurs
32
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
sont x1 , x2 , ..., xk avec des fréquences respectivement égales à f1 , f2 , ..., fk . Alors la variance
de X dans cet échantillon est égale à
1∑ ( )2 ∑ ( )2 ( ∑ )
k k k
s2x = Vx = ni xi − x̄ = fi xi − x̄ = fi xi − x̄2 .
2
n i=1 i=1 i=1
Remarque 1.2.43.
• Dans le cas d’une variable statistique continue, xi représente le centre de la ième classe.
• La variance corrigée de X est définie par :
n 2
s∗2
x = s .
n−1 x
Pour des raisons techniques, on préfère dans la suite de calculer la variance corrigée s∗2
x .
∑
p
ni x i
i=1 0 × 4 + 1 × 2 + ... + 6 × 3
La moyenne x̄ = = = 3, 025 accident par semaine.
n 40
∑
k ( )2 ( )2 ( )2 ( )2
s2x = Vx = fi xi −x̄ = 0, 1 0−3, 025 +0, 05 1−3, 025 +...+0, 075 6−3, 025 = 2, 68.
i=1
33
1.2 Statistique à une variable CHAPITRE 1. STATISTIQUE DESCRIPTIVE
n 2 40
s∗2
x = sx = × 2, 68 = 2, 74.
n−1 39
Exemple 1.2.45. (Le cas des données groupées par classe)
En reprenant l’exemple où X est la recette quotidienne d’un petit magasin, on avait le tableau
suivant auquel on a ajouté une colonne à gauche contenant le milieu des classes :
∑
k ( )2 ( )2 ( )2 ( )2
s2x = Vx = fi mi −x̄ = 0, 125 55−298 +0, 075 145−298 +...+0, 025 595−298 = 19521.
i=1
n 2 40
s∗2
x = sx = × 19521 = 20021, 54.
n−1 39
L’écart type
L’écart type est la racine carrée de la variance :
√
sx = σx = Vx .
34
1.3 Statistique à deux Variables CHAPITRE 1. STATISTIQUE DESCRIPTIVE
Les séries statistiques à deux variables peuvent être présentées de deux façons.
Présentation 1 :
On suppose que, suite à une étude faite, on s’intéresse à deux caractères quantitatifs (ie deux
variables numériques) sur une population donnée. À chaque individu de cette population, on
associe donc un couple (xi , yi ) de nombres réels où la variable xi est la valeur de la première
variable pour l’individu considéré et où la variable yi est la valeur de la seconde variable.
L’ensemble de ces couples forme une série statistique à deux variables ou encore série statis-
tique double.
Les résultats peuvent être résumés dans un tableau :
Exemple 1.3.1.
• Au près des étudiants pris au hasard parmi une section de MIPC, on observe les notes
35
1.3 Statistique à deux Variables CHAPITRE 1. STATISTIQUE DESCRIPTIVE
d’Analyse 3 X et de statistique Y .
• Une entreprise mène une étude sur la liaison entre les dépenses mensuelles en publicité X
et le volume des ventes Y qu’elle réalise.
Caractère 2
20 (Coût de
maintenance) ×
18
16 ×
14
×
12
×
10 ×
8 ×
6
4
2
0 Caractère 1
0 1 2 3 4 5 6 7(Age de l’installation)
36
1.3 Statistique à deux Variables CHAPITRE 1. STATISTIQUE DESCRIPTIVE
Présentation 2 :
Cette présentation d’une série à deux variables (discrète ou continue) peut être sous forme
d’un tableau de contingence, qui peut être défini comme :
Tableau de contingence
Avec dm = [lm , lm+1 [ et ck = [hk , hk+1 [ sont les classes des variables statistiques Y et X
respectivement dans le cas continue.
Nous notons par fij la fréquence du coulpe (xi , yi ). Cette fréquence est donnée par :
nij ∑∑ k m
fij = , avec N = nij .
N i=1 j=1
Lois marginales : Sur la marge du tableau de contingence, on peut extraire les données
seulement par rapport à X et seulement par rapport à Y .
Effectifs et fréquences marginale par rapport à Y : nous avons, pour j = 1, ..., m
∑
k
n•j ∑
k
n•j = nij , et f•j = = fij .
i=1
N i=1
37
1.3 Statistique à deux Variables CHAPITRE 1. STATISTIQUE DESCRIPTIVE
∑
k ∑
m ∑
k ∑
m
ni• = n•j = N, et fi• = f•j = 1.
i=1 j=1 i=1 j=1
Exemple 1.3.3. Nous considérons 10 salariés qui sont observés à l’aide de deux variables
"âge" et "salaire". Les informations brutes (pas encore traitées) sont données dans le tableau
suivant,
Salaire 6000 7400 7500 8200 8200 8207 8900 9100 9950 10750
Age 15 26 20 43 47 37 52 34 50 44
Solution :
38
1.3 Statistique à deux Variables CHAPITRE 1. STATISTIQUE DESCRIPTIVE
Age\Salaire × 1000 [6, 7[ [7, 8[ [8, 9[ [9, 10[ [10, 11[ ni• fi•
[15, 25[ 1 1 0 0 0 2 0,2
[25, 35[ 0 1 0 1 0 2 0,2
[35, 45[ 0 0 2 0 1 3 0,3
[45, 55[ 0 0 1 2 0 3 0,3
n•j 1 2 3 3 1 10 1
f•j 0,1 0,2 0,3 0,3 0,1 1
De ce fait nous avons
n12 1 n21 0 n45 0 n33 2
f12 = = = 0, 1, f21 = = = 0, f45 = = = 0, et f33 = = = 0, 2.
N 10 N 10 N 10 N 10
Le nuage de points est tracé, à partir des données brutes, dans la figure suivante.
39
1.3 Statistique à deux Variables CHAPITRE 1. STATISTIQUE DESCRIPTIVE
Dans le cas d’une variable statistique à deux dimensions X et Y , les moyennes sont
données respectivement par
1 ∑ ∑
k k
x̄ = ni• xi = fi• xi , Moyenne de X.
N i=1 i=1
Et
1 ∑ ∑
m m
ȳ = n•j yj = f•j yj , Moyenne de Y .
N j=1 j=1
Exemple 1.3.4. Nous calculons x̄ et ȳ pour l’exercice traité précédemment. Nous avons la
moyenne d’âge
1( )
x̄ = 40 + 60 + 120 + 150 = 37 ans.
10
Et la moyenne du salaire
1( )
ȳ = 6, 5 + 15 + 25, 5 + 28, 5 + 10, 5 × 1000 = 8600 DH.
10
Et
1 ∑ ∑
m k
V ar(y) = y¯2 − (ȳ)2 , ¯2
avec y = 2
n•j yj = f•j yj2 .
N i=1 i=1
Série conditionnelle :
La notion de série conditionnelle est essentielle pour comprendre l’analyse de la régression.
Un tableau de contingence se compose en autant de séries conditionnelles suivant chaque
ligne et chaque colonnes.
Elle est noté par X/yj (ou Xj ) et on dit que c’est la série conditionnelle de X sachant
que Y = yj . Nous calculons dans ce cas la fréquence conditionnelle fi/j (f i sachant j), pour
i = 1, ..., k, par
nij fij
fi/j = = .
n•j f•j
40
1.3 Statistique à deux Variables CHAPITRE 1. STATISTIQUE DESCRIPTIVE
Nous avons aussi la moyenne conditionnelle x¯j , c’est à dire la moyenne des valeurs de X sous
la condition yj , elle est définie par
∑
k
1 ∑
k
x¯j = fi/j xi = nij xi .
i=1
n•j i=1
√
Pour l’écart-type conditionnel, nous avons σXj = V ar(Xj ) avec
∑
k
V ar(Xj ) = fi/j (xi − x¯j )2 = x¯2j − (x¯j )2 .
i=1
Elle est noté par Y /xi (ou Yi ) et on dit que c’est la série conditionnelle de Y sachant que
X = xi . Nous calculons dans ce cas la fréquence conditionnelle fj/i (f j sachant i), pour
j = 1, ..., m, par
nij fij
fj/i = = .
ni• fi•
Nous avons aussi la moyenne conditionnelle ȳi , c’est à dire la moyenne des valeurs de Y sous
la condition xi , elle est définie par
∑
m
1 ∑
m
ȳi = fj/i yj = nij yj .
j=1
ni• j=1
√
Pour l’écart-type conditionnel, nous avons σYi = V ar(Yi ) avec
∑
m
V ar(Yi ) = fj/i (yi − ȳi )2 = y¯i2 − (ȳi )2 .
j=1
Définition 1.3.3.
On appelle covariance de la série statistique double de variables X et Y le nombre réel :
1 ∑∑ 1 ∑∑
k m k m
Cov(x, y) = σxy = xy − x̄ȳ = nij xi yj − x̄ȳ = nij (xi − x̄)(yj − ȳ).
N i=1 j=1 N i=1 j=1
Remarque 1.3.5.
• La covariance est un paramètre qui donne la variabilité de X par rapport à Y .
• La covariance est une notion qui généralise la variance, En effet,
41
1.3 Statistique à deux Variables CHAPITRE 1. STATISTIQUE DESCRIPTIVE
• Dans le cas où nous avons un tableau des données brutes "représentation 1" (nous n’avons
pas d’effectifs), nous avons les formules suivantes :
1 ∑ 1 ∑ 1 ∑
n n n
x̄ = xi , ȳ = yi , et xy = x i yi .
N i=1 N i=1 N i=1
Il suffit que cette égalité ne soit pas vérifiée dans une seule cellule pour que les deux variables
ne soient pas indépendantes. De manière équivalente, pour tout i et j,
Les points de l’exemple précédents ne sont pas alignés. Néanmoins, ces points semblent
se distribuer approximativement autour d’une droite.
Pour une droite quelconque, on peut définir la "distance" de la droite au nuage de points
par la somme des distances Ak Hk .
Ainsi, la "meilleure" droite passant dans le nuage de points est celle dont la distance au
nuage de points est la plus petite.
42
1.3 Statistique à deux Variables CHAPITRE 1. STATISTIQUE DESCRIPTIVE
A4
×
H5
A3
×
H4
×
A1 H2 H3 A5
×
H1
×
A2
∑
n ∑
n
S(a, b) = A1 H12 + A2 H22 + ··· + An Hn2 = Ak Hk2 = e2i
k=1 k=1
Les résidus étant positifs ou négatifs, leur somme peut être de faible valeur pour une
courbe mal ajustée. On évite cette difficulté en considérant la somme des carrés des résidus (la
somme de valeurs absolues n’étant pas pratique pour des développements mathématiques).
∑
Cette somme S.(a, b) = ni=1 e2i dépend des paramètres a, b à ajuster. On choisira ces
∑
paramètres de manière qu’elle soit minimale. ni=1 e2i est appelé variation résiduelle et nous
donne une mesure de l’ampleur de l’éparpillement des observations yi autour de la courbe
d’ajustement. Nous voudrions que les erreurs entre la valeur observée yi et la valeur ajustée
yi∗ soit minimales.
43
1.3 Statistique à deux Variables CHAPITRE 1. STATISTIQUE DESCRIPTIVE
∂S ∂S
S(a, b) sera minimum lorsque = = 0.
∂a ∂b
On calcule
∂S ∑ n
= −2 (yi − b − axi ),
∂b i=1
∂S ∑ n
= −2 (yi − b − axi )xi .
∂a i=1
∑
En distribuant l’opérateur , il vient
∑
n ∑
n
yi − nb − a xi = 0,
i=1 i=1
∑
n ∑
n ∑n
xi yi − b xi − a x2i = 0,
i=1 i=1 i=1
∑n
(x − x̄)(yi − ȳ)
∑n i
a = i=1 ,
i=1 (xi − x̄)
2
b. = ȳ − ax̄
Remarque 1.
∂S ∂S
1. = = 0 ne sont que des conditions nécessaires de minimalité pour S. L’étude des
∂a ∂b
dérivées secondes montre effectivement que les valeurs trouvées minimisent S(a, b).
2. La seconde équation signifie que la droite d’ajustement passe par le point (x̄, ȳ) appelé
point moyen du nuage.
44
1.3 Statistique à deux Variables CHAPITRE 1. STATISTIQUE DESCRIPTIVE
3. Cette droite des moindres carrés est appelée droite de régression de y en x. Elle est
unique.
Proposition 1.3.6.
La droite de régression notée D(y/x) de Y en X à pour équation y = ax + b. Avec
Cov(x, y)
a= et b = ȳ − ax̄
V (x)
.
Ou bien la droite de régression notée D(y/x) de X en Y à pour équation x = a′ y + b′ . Avec
Cov(x, y)
a′ = et b′ = x̄ − a′ ȳ
V (y)
.
Définition 1.3.5.
La quantité
Cov(x, y)
ρxy = .
σx σy
s’appelle le coefficient de corrélation.
Proposition 1.3.8.
Le coefficient de corrélation est compris entre [−1, 1] ou encore |ρxy | ≤ 1.
45
1.3 Statistique à deux Variables CHAPITRE 1. STATISTIQUE DESCRIPTIVE
2. Plus le module de ρxy est proche de 0 plus il y a l’absence de liaison linéaire entre X
et Y .
(a) Si |ρxy | < 0, 7 alors l’ajustement linéaire est refusé (droite refusée).
La variable mi représente les différentes masses appliquées comme dans le schéma ci-dessous
et la variable xi les hauteurs induits depuis l’état initial.
3. Tracer le nuage de point et les deux droites. Représenter le point de coordonnée (x̄, ȳ).
46
Chapitre 2
L’analyse combinatoire est une branche des mathématiques qui étudie comment compter
les objets. Elle fournit des méthodes de dénombrement particulièrement utiles en théries des
probabilités. Le but de l’analyse combinatoire (techniques de dénombrement) est d’apprendre
à compter le nombre d’éléments d’un ensemble fini de grande cardinalité.
2.1.1 Cardinal
Définition 2.1.1. Le cardinal d’un ensemble fini E, noté Card(E), est le nombre d’éléments
de E. L’ensemble des parties de l’ensemble E est notée P(E).
P(E) = {{∅}, {a}, {b}, {c}, {a, b}, {a, c}, {b, c}, {a, b, c}}.
47
2.1 Analyse combinatoire CHAPITRE 2. PROBABILITÉS
Exemple 2.1.2.
Pour former un code, on choisit au hasard deux lettres de l’alphabet suivies de trois chiffres
non nuls. Combien peut-on former de codes distincts ?
Les cinq étapes pour former un code présentent respectivement 26, 26, 9, 9, 9 possibilités. Donc
le nombre de codes possibles est : 262 × 93 = 492804.
Définition 2.1.1. Une disposition ordonnée de r objets distincts pris parmi n est appelée
arrangement de r objets pris parmi n (on a obligatoirement r ≤ n).
Combien y en a-t-il ?
Pour compter le nombre total d’arrangements de r objets pris parmi n, il suffit de consi-
dérer les r positions comme fixées et de compter le nombre de façons dont on peut choisir les
objets pour les placer dans ces r positions. C’est une expérience à r étapes où l’on applique
la technique du paragraphe précédent (Principe de multiplication).
48
2.1 Analyse combinatoire CHAPITRE 2. PROBABILITÉS
Arn = n × (n − 1) × .. × (n − r + 1)
(n − r) × (n − r − 1) × ... × 2 × 1
= n × (n − 1) × .. × (n − r + 1) × .
(n − r) × (n − r − 1) × ... × 2 × 1
n!
Arn = n(n − 1)(n − 2) · · · (n − r + 1) = .
(n − r)!
Rappel 1. n! (lire “factorielle n”) est le produit de tous les entiers jusqu’à n,
n! = n(n − 1)(n − 2) · · · 3.2.1. Par convention, 0! = 1.
Exemple 2.1.4. Les arrangements de deux lettres prises parmi 4 lettres {a, b, c, d}
4!
sont au nombre de A24 = 2!
= 12. Ce sont : (a, b), (a, c), (a, d), (b, a), (b, c), (b, d),
(c, a), (c, b), (c, d), (d, a), (d, b), (d, c).
Définition 2.1.2. On dispose de n objets distincts. Un arrangement avec répétition des ces
n objets pris r à la fois est une manière de choisir r objets parmi n, le même objet pouvant
être pris plusieurs fois (d’où les répétitions et l’ordre compte).
49
2.1 Analyse combinatoire CHAPITRE 2. PROBABILITÉS
Conclusion : Il y a donc nr choix pour les r éléments (r peut être supérieur à n dans ce
cas).
Exemple 2.1.7. Vous achetez une valise à code 4 chiffres. Combien de possibilités avez-vous
de choisir un code ?
k = 4 avec n = 10, donc le nombre total de code possible est 104 = 10000 possibilités.
Définition 2.1.3. Une permutation de n éléments est une disposition ordonnée de ces n
éléments.
Dans les paragraphes précédents, on a supposé que les n objets étaient tous différents. Il
arrive parfois que les n objets en contiennent un certain nombre qui sont indiscernables.
Supposons qu’il n’y ait que k sortes d’objets distincts sur les n objets. Il y a
– n1 objets de la 1-ère sorte,
– n2 objets de la 2-ème sorte....
– nk objets de la k-ème sorte.
On a bien sûr n1 + n2 + · · · + nk = n.
50
2.1 Analyse combinatoire CHAPITRE 2. PROBABILITÉS
– Si on différencie les lettres B, cette disposition peut provenir des deux permutations
P ROB1 AB2 ILIT E ou P ROB2 AB1 ILIT E, soit 2! possibilités.
– Si on différencie les lettres I, cette disposition peut provenir des deux permutations
P ROBABI1 LI2 T E ou P ROBABI2 LI1 T E, soit encore 2! possibilités.
Cas général. La différenciation des n1 premiers objets donnera n1 ! fois plus d’éléments
que ce qu’on cherche, la différenciation des n2 premiers objets donnera n2 ! fois plus d’éléments
que ce qu’on cherche, et finalement on trouve que n! est n1 !n2 ! · · · nk ! fois plus grand que le
nombre cherché P. On conclut
n!
P= .
n1 !n2 ! · · · nk !
Exemple 2.1.10. Quel nombre d’anagrammes différentes peut-on former avec les lettres du
mot "Anticonstitutionnellement" ?
Définition 2.1.2. Un choix de r objets distincts pris parmi n sans tenir compte de leur
ordre est appelé combinaison de r objets pris parmi n.
Dans l’exemple précédent correspondant à l’ensemble des quatre lettres {a, b, c, d}, la
combinaison {a, b} est la même que la combinaison {b, a} alors que l’arrangement (a, b) est
différent de l’arrangement (b, a).
51
2.1 Analyse combinatoire CHAPITRE 2. PROBABILITÉS
– Dans une combinaison seul le choix des r objets compte. Comme le nombre de fa-
çons d’ordonner les r objets choisis est r!, on conclut qu’à chaque combinaison de r
objets pris parmi n, on peut associer r! arrangements et donc qu’il y a r! fois plus
d’arrangements que de combinaisons.
On conclut la proposition suivante :
Proposition 2.1.11.
( )
r Ar n(n − 1)(n − 2) · · · (n − r + 1) n!
r
Cn = = n = = .
n r! r! r!(n − r)!
Exemple 2.1.12. Le nombre de combinaisons de deux lettres prises parmi quatre {a, b, c, d}
()
est 24 = 2!2!
4!
= 6. Ce sont : {a, b}, {a, c}, {a, d}, {b, c}, {b, d}, {c, d}.
2.1.8 Récapitulation
Le triangle de Pascal se construit ligne par ligne : chaque terme est l’addition des deux
nombres de la ligne supérieure qui lui sont adjacents.
52
2.1 Analyse combinatoire CHAPITRE 2. PROBABILITÉS
(a + b)0 = 1.
(a + b)2 = a2 + 2ab + b2
(a + b)3 = a3 + 3a2 b + 3ab2 + b3 .
Mais quelles sont les formules pour des degrés supérieurs ? En comparant les formules de
degré 0, 1, 2 et 3 avec les lignes 0, 1, 2 et 3 du triangle de Pascal, vous constaterez que les
coefficients des identités binomiales correspondent avec les nombres du triangle. Donc :
53
2.2 Notions de Probabilités CHAPITRE 2. PROBABILITÉS
( ) ( )
n−p p
Le triangle est symétrique par rapport à la verticale : = .
( ) ( ) ( n ) n
p p+1 p+1
Par la construction du triangle, on a : + = .
( ) ( ) n ( n ) n+(1 )
n n n n+1
Vérifiez encore que : + + ... + = .
n n+1 n+m−1 n+m
Définitions 2.2.1.
• Une "expérience aléatoire" ou "épreuve aléatoire" est une expérience due au ha-
sard, c’est à dire dont on ne peut pas prévoir à l’avance le résultat, mais dont on connaît
toutes les issues possibles (Exemple : L’expérience est le jet d’un dé cubique ordinaire.
Le résultat de l’expérience est le nombre indiqué sur la face supérieure du dé).
• Les résultats d’une telle expérience sont appelés "éventualités" ou "événements élé-
mentaires" ou "issues"
• L’ensemble des éventualités est appelé "univers" et est souvent noté U ou Ω (Exemple :
Ω = {1, 2, 3, 4, 5, 6}).
• Un événement est une partie de Ω, c’est-à-dire un sous ensemble de l’univers, ou
encore un ensemble d’éventualités (Exemple : L’événement obtenir un nombre pair est
le sous-ensemble A = {2, 4, 6} de Ω).
• On dit que l’événement A est réalisé si le résultat de l’expérience appartient à A
(Exemple : Si la face supérieure du dé indique 5, A n’est pas réalisé. Si elle indique 4,
A est réalisé.)
• Si un événement ne contient qu’un seul élément, on dit que c’est un événement élé-
mentaire (Exemple : B = {1} est un des 6 événements élémentaires de Ω).
54
2.2 Notions de Probabilités CHAPITRE 2. PROBABILITÉS
Définitions 2.2.2.
Soit A et B deux événements liés à une expérience aléatoire dont l’univers est noté Ω.
• L’événement contraire de A dans Ω est l’événement qui contient les éléments de
Ω qui ne sont pas dans A. C’est le complémentaire de A dans Ω et il est noté A.
• L’événement «A et B» est l’événement qui contient tous les éléments de Ω qui sont
à la fois dans A et B. Cet événement est noté A∩B.
• L’événement «A ou B» est l’événement qui contient tous les éléments de Ω qui
sont soit dans A soit dans B. Cet événement est noté A∪B.
• On dit que les événements A et B sont incompatibles ou disjoints lorsqu’ils n’ont
pas d’éléments en commun, c’est à dire lorsque A∩B=∅.
Définition 2.2.1. Si l’univers Ω est constitué de n événements élémentaires {ei }, une me-
sure de probabilité sur Ω consiste à se donner n nombres Pi ∈ [0, 1], les probabilités des
événements élémentaires, tels que
∑
n
Pi = 1.
i=1
Si l’événement A est la réunion disjointe de k événements élémentaires {ei }, avec 0 < k < n,
la probabilité de A vaut, par définition,
∪
k ∑
k ∑
k
P (A) = P ( {ei }) = P (ei ) = Pi .
i=1 i=1 i=1
55
2.2 Notions de Probabilités CHAPITRE 2. PROBABILITÉS
P (A ∪ B) = P (A) + P (B).
! "
#
B ⊆ A ⇒ P (B) ≤ P (A).
! # "
56
2.2 Notions de Probabilités CHAPITRE 2. PROBABILITÉS
P (Ā) = 1 − P (A).
!
_ "
!
Preuve :
P (A) = P (A \ B) + P (A ∩ B) car A \ B et A ∩ B sont incompatibles. De même P (B) =
P (B \ A) + P (A ∩ B) car B \ A et A ∩ B sont incompatibles. De plus, P (A ∪ B) = P (A \
B) + P (B \ A) + P (A ∩ B), car A \ B , B \ A et A ∩ B sont incompatibles. En additionnant,
il vient P (A ∪ B) = P (A) + P (B) − P (A ∩ B).
!
! " "
#
∑
k
P (Aj ) = 1.
j=1
57
2.3 Probabilité conjointe CHAPITRE 2. PROBABILITÉS
Dans cette situation, on dit parfois que les Aj forment un système complet d’évènements.
"3 "5
"1
"2 "4
!
P (A ∩ B) = P (A) × P (B).
Remarque 2. Les tirages avec remise constituent une bonne illustration d’événements in-
dépendants.
58
2.3 Probabilité conjointe CHAPITRE 2. PROBABILITÉS
la réalisation de l’autre ? Il nous faut connaître pour cela le degré de dépendance des deux
événements qui est indiqué par la notion de probabilité conditionnelle.
Définition 2.3.1. Soient A et B deux événements, A étant supposé de probabilité non nulle.
On appelle probabilité conditionnelle de B par rapport à A, la probabilité de réalisation de
l’événement B sachant que A est réalisé. On la note
P (A ∩ B)
P (B|A) = .
P (A)
Remarque 4. Les tirages sans remise constituent une bonne illustration d’événements dé-
pendants.
Exercice 2.3.3. Une entreprise utilise trois types d’ampoules électriques notés T1 , T2 et T3
dans les proportions 60% , 30% , 10%. Les probabilités de bon fonctionnement de ces trois
types pour un temps donné s’élèvent à 0,9, 0,8 et 0,5 respectivement. Quelle est la probabilité
qu’une ampoule tombée en panne soit du type T1 ?
59
2.3 Probabilité conjointe CHAPITRE 2. PROBABILITÉS
Exercice 2.3.4. Une urne contient 5 boules noires et 3 boules blanches. Quelle est la pro-
babilité d’extraire 2 boules blanches en 2 tirages ?
La probabilité cherchée P (B1 ∩ B2 ) est égale à P (B1 ) × P (B2 |B1 ). Or P (B1 ) vaut 3/8
et P (B2 |B1 ) est égale à 2/7 puisque lorsqu’une boule blanche est sortie au premier tirage,
il ne reste plus que 7 boules au total, dont 2 seulement sont blanches. On conclut que
P (B1 ∩ B2 ) = 3
8
× 2
7
= 3
28
.
Exercice 2.3.5.
1. On jette deux dés non truqués. Quelle est la probabilité d’obtenir un total de 7 points ?
2. Cette fois-ci les dés sont truqués : les numéros pairs sont deux fois plus probables que
les numéros impairs. Quelle est la probabilité d’obtenir un total différent de 8 ?
Solution :
1. – L’univers est l’ensemble de tous les résultats possibles lorsqu’on jette deux dés. Ima-
ginons que les deux dés sont reconnaissables et les résultats sont donc tous les couples
(a, b) où a et b sont des nombres compris entre 1 et 6. Il contient donc 36 éléments.
On peut écrire Ω = {1, 2, 3, 4, 5, 6} × {1, 2, 3, 4, 5, 6} et card(Ω) = 36.
– Tous les résultats possibles sont équiprobables. La mesure de probabilité est donc
uniforme sur Ω.
– L’événement dont on cherche la probabilité est (somme = 7). Il est composé des
événements élémentaires (1, 6), (6, 1), (2, 5) , (5, 2), (3, 4), (4, 3). Ils sont au nombre
de 6. On peut écrire : Card(somme = 7) = 6.
Card(A) 6
– Finalement, étant donné que P (A) = Card(Ω)
, on obtient P (somme = 7) = 36
= 16 .
60
2.3 Probabilité conjointe CHAPITRE 2. PROBABILITÉS
– Tous les numéros pairs ont la même probabilité que l’on note pp ; tous les numéros
impairs ont la même probabilité que l’on note pi . L’énoncé nous permet d’écrire que
pp = 2pi .
– D’autre part, étant donné que les numéros 1,2,3,4,5,6 constituent l’ensemble des
résultats d’un jet de dé, la somme des probabilités de ces 6 résultats vaut 1. D’où
1
3pp + 3pi = 1, soit encore 9pi = 1. D’où pi = 9
et pp = 29 .
– L’événement dont on cherche la probabilité est (somme ̸= 8). Chercher directement
la probabilité de cet événement nous obligerait à considérer beaucoup de cas. Il
sera donc plus rapide de déterminer d’abord la probabilité de l’événement contraire
(somme = 8). Ce dernier est constitué des événements élémentaires (2, 6), (6, 2),
(3, 5), (5, 3), (4, 4).
– Les résultats des deux dés sont indépendants. Nous pouvons donc affirmer que
2 2 4
P ({(2, 6)}) = P ({2}) × P ({6}) = × = .
9 9 81
4 1
De même, P ({(6, 2)}) = P ({(4, 4)}) = 81
, alors que P ({(5, 3)}) = P ({(3, 5)}) = 81
– Finalement P (somme = 8) = 14
81
et P (somme ̸= 8) = 67
81
.
61
Chapitre 3
Variables aléatoires
3.1 Définition
Exemple 3.1.1. On jette deux fois une pièce de monnaie non truquée, et on s’intéresse
au nombre de fois que le côté “face" a été obtenu. Pour calculer les probabilités des divers
résultats, on introduira une variable X qui désignera le nombre de “face" obtenu. X peut
prendre les valeurs 0,1,2.
Exemple 3.1.2. On lance une fléchette vers une cible circulaire de rayon égal à 50 cm et
on s’intéresse à la distance entre la fléchette et le centre de la cible. On introduira ici une
variable X, distance entre l’impact et le centre de la cible, qui peut prendre n’importe quelle
valeur entre 0 et 50.
Dans ces deux cas, X prend des valeurs réelles qui dépendent du résultat de l’expérience
aléatoire. Les valeurs prises par X sont donc aléatoires. X est appelée variable aléatoire.
Définition 3.1.1. Soit un univers Ω associé à une expérience aléatoire, sur lequel on a défini
une mesure de probabilité. Une variable aléatoire X est une application de l’ensemble des
événements élémentaires de l’univers Ω vers R (vérifiant quelques conditions mathématiques
non explicitées ici).
Une variable aléatoire est une variable (en fait une fonction !) qui associe des valeurs
numériques à des événements aléatoires.
Par convention, une variable aléatoire sera représentée par une lettre majuscule X alors
que les valeurs particulières qu’elle peut prendre seront désignées par des lettres minuscules
x1 , x2 , . . . , xi ,..., xn .
62
3.2 Variables aléatoires discrètes CHAPITRE 3. VARIABLES ALÉATOIRE
Les deux variables aléatoires définies dans les exemples 3.1.1 et 3.1.2 sont de natures
différentes. La première est discrète, la seconde continue.
Définition 3.2.1. Une variable aléatoire discrète est une variable aléatoire qui ne prend que
des valeurs entières, en nombre fini ou dénombrable.
Pour apprécier pleinement une variable aléatoire, il est important de connaître quelles
valeurs reviennent le plus fréquemment et quelles sont celles qui apparaissent plus rarement.
Plus précisément, on cherche les probabilités associées aux différentes valeurs de la variable
Définition 3.2.2. Associer à chacune des valeurs possibles de la variable aléatoire la proba-
bilité qui lui correspond, c’est définir la loi de probabilité ou la distribution de probabilité
de la variable aléatoire.
Pour calculer la probabilité que la variable X soit égale à x, valeur possible pour X, on
cherche tous les événements élémentaires ei pour lesquels X(ei ) = x, et on a
∑
k
P (X = x) = P ({ei }),
i=1
La fonction de densité discrète f est la fonction de R dans [0, 1], qui à tout nombre
∑
réel xi associe f (xi ) = P (X = xi ). On a bien sûr i f (xi ) = 1.
63
3.2 Variables aléatoires discrètes CHAPITRE 3. VARIABLES ALÉATOIRE
x 0 1 2 total
f (x) = P (X = x) 1/4 1/2 1/4 1
Elle s’effectue à l’aide d’un diagramme en bâtons où l’on porte en abscisses les valeurs
prises par la variable aléatoire et en ordonnées les valeurs des probabilités correspondantes.
1/2
1/4
0 1 2 x
Définition 3.2.3. La fonction de répartition d’une variable aléatoire X indique pour chaque
valeur réelle x la probabilité que X prenne une valeur au plus égale à x. C’est la somme des
probabilités des valeurs de X jusqu’à x. On la note F .
∑
∀x ∈ R, F (x) = P (X ≤ x) = P (X = xi ).
xi ≤x
Exemple 3.2.2. Loi de probabilité de la v.a. discrète finie X égale à la somme des points
marqués lors du lancer de deux dés non truqués :
64
3.3 Variables aléatoires continues CHAPITRE 3. VARIABLES ALÉATOIRE
xi 2 3 4 5 6 7 8 9 10 11 12 total
f (xi ) = P (X = xi ) 1/36 1/18 1/12 1/9 5/36 1/6 5/36 1/9 1/12 1/18 1/36 1
Fonction de répartition
Définition 3.3.1. Une variable aléatoire est dite continue si elle peut prendre toutes les
valeurs d’un intervalle fini ou infini.
65
3.3 Variables aléatoires continues CHAPITRE 3. VARIABLES ALÉATOIRE
b) La probabilité que la variable aléatoire X soit comprise entre les limites a et b c’est-
à-dire P (a ≤ X ≤ b), est égale à l’aire entre l’axe des abscisses, la courbe représentative de
la fonction de densité de probabilité et les droites d’équations x = a et x = b,
∫ b
P (a ≤ X ≤ b) = f (x) dx
a
66
3.3 Variables aléatoires continues CHAPITRE 3. VARIABLES ALÉATOIRE
p(a<X<b)
x
a b
c) L’aire totale comprise entre la courbe et l’axe des abscisses est égale à 1 :
∫
f (x) dx = 1.
R
De même que pour les variables aléatoires discrètes, on peut définir la fonction de réparti-
tion F de la variable continue X qui permet de connaître la probabilité que X soit inférieure
à une valeur donnée :
∫ x
F (x) = P (X ≤ x) = f (t) dt.
−∞
Proposition 3.3.1.
2. ∀x ∈ R, F ′ (x) = f (x).
4. P (a ≤ X ≤ b) = P (b ≤ X) − P (X ≤ a) = F (b) − F (a).
5. P (X > x) = 1 − F (x).
Exercice 3.3.2.
67
3.3 Variables aléatoires continues CHAPITRE 3. VARIABLES ALÉATOIRE
3.
∫ 2
P (1 < X < 2) = e−x dx = e−1 − e−2 ∼ 0.23.
1
Si l’on s’imagine que le nombre d’observations croît indéfiniment (on passe d’un échan-
tillon de taille n à la population toute entière), les fréquences observées vont tendre vers les
probabilités théoriques et on admet que la moyenne calculée sur l’échantillon de taille n va
tendre vers une valeur limite qui sera la moyenne de l’ensemble des valeurs de la population
entière. On l’appelle espérance mathématique de la variable aléatoire X, car c’est la valeur
moyenne que l’on s’attend à avoir dans un échantillon de grande taille.
Définition 3.3.2.
1. Cas d’une variable discrète :
– Soit X une variable aléatoire discrète qui prend un nombre fini de valeurs
x1 , x2 , . . . , xn et dont la loi de probabilité est f : f (xi ) = P (X = xi ). L’ espérance
mathématique de X, notée E(X), est définie par
∑
n
E(X) = xi f (xi ).
i=1
68
3.3 Variables aléatoires continues CHAPITRE 3. VARIABLES ALÉATOIRE
Définition 3.3.3.
– On appelle variance de la variable aléatoire X la valeur moyenne des carrés des écarts
à la moyenne,
( )
V ar(X) = E (X − E(X))2 .
69
3.3 Variables aléatoires continues CHAPITRE 3. VARIABLES ALÉATOIRE
Si φ est une fonction définie sur R à valeurs dans R, l’application φ ◦ X, notée Y = φ(X)
est une variable aléatoire dont on peut déterminer la fonction de répartition et donc la loi
de probabilité à partir de celle de X.
1) Changement de variable Y = aX + b.
Les paramètres a (a ̸= 0) et b sont des nombres réels. Connaissant la fonction de répartition
de X, on peut calculer la fonction de répartition FY de la v.a. Y :
• Pour a > 0 :
( y − b) (y − b)
FY (y) = P (Y ≤ y) = P (aX + b ≤ y) = P X ≤ = FX .
a a
• Pour a < 0 :
( )
( y − b) 1 − FX y − b
si X est une v.a.continue,
FY (y) = P (Y ≤ y) = P X ≥ = ( a y − b)
a
1−P X < si X est une v.a.discrète.
a
Lorsque la variable aléatoire X est continue, on obtient la fonction de densité fY par déri-
vation de la fonction FY .
Si X est une v.a. continue et si la fonction φ est dérivable, on obtient la fonction de densité
fY par dérivation de la fonction FY .
Exemple 3.3.3. Soit une v.a. continue X, on peut calculer les fonctions de répartition et
de densité de Y = exp(X), la fonction exponentielle étant croissante :
0 si y < 0, 0 si y < 0,
FY (y) = ⇒ fY (y) =
FX (ln(y)) pour y > 0. 1 fX (ln(y)) pour y > 0.
y
70
3.3 Variables aléatoires continues CHAPITRE 3. VARIABLES ALÉATOIRE
• φ quelconque
Le principe consiste toujours à identifier la fonction de répartition FY en recherchant l’anté-
cédent pour X de l’événement {Y ≤ y = φ(x)}.
Par exemple, pour Y = X 2 :
0 si y < 0, ,
FY (y) =
P (−√y ≤ X ≤ +√y) = FX (√y) − FX (√y) pour y ≥ 0.
ξX (u) = E(e−2iπuX ).
Proposition 3.3.4. Soit X une variable aléatoire qui possède une espérance et une variance.
Alors
1 d
E(X) = − ξX (u)|u=0 ,
2iπ du
( 2 )
1 d d
V ar(X) = − 2 ξX (u)|u=0 − ( ξX (u)|u=0 ) .
2
4π du2 du
d2 ∑n
2
ξX (u) = −4π 2 x2i f (xi )e−2iπuxi = −4π 2 E(X 2 e−2iπuX ),
du i=1
71
3.3 Variables aléatoires continues CHAPITRE 3. VARIABLES ALÉATOIRE
d’où
′′ ′
ξX (0) − (ξX (0))2 = −4π 2 E(X 2 ) + 4π 2 E(X)2
= −4π 2 (E(X 2 ) − E(X)2 )
= −4π 2 V ar(X).
Dans le cas continu, le calcul est le même, au moyen de la formule pour la dérivée de la
transformée de Fourier.
Remarque 5. Une loi de probabilité régit le comportement d’une variable aléatoire. Cette
notion abstraite est associée à la population, c’est-à-dire à l’ensemble de tous les résultats
possibles d’un phénomène particulier. C’est pour cette raison que l’espérance et la variance
de la loi de probabilité, qui n’ont aucun caractère aléatoire, sont appelés paramètres de la
distribution de probabilité.
72
3.3 Variables aléatoires continues CHAPITRE 3. VARIABLES ALÉATOIRE
Les valeurs des variables centrées-réduites sont complètement indépendantes des unités
de départ. Une mesure exprimée en mètres ou en centimètres donne exactement la même
variable centrée-réduite. On peut ainsi faire des comparaisons entre variables de natures
différentes. Si un enfant est à +3 écarts-types de la moyenne pour sa taille et +1 écart-type
pour son poids, on sait qu’il est plus remarquable par sa taille que par son poids.
L’examen des variables centrées-réduites est très pratique pour déceler les valeurs “anor-
malement” grandes ou “anormalement” petites.
Le passage d’une variable aléatoire X à une variable standardisée est requis pour l’utili-
sation de certaines tables de probabilité. C’est le cas pour l’utilisation de la table de la loi
normale que nous traiterons dans le prochain chapitre.
73
Chapitre 4
Principales distributions de
probabilités
Introduction
La connaissance de ces lois théoriques possède plusieurs avantages sur le plan pratique :
– Les observations d’un phénomène particulier peuvent être remplacées par l’expression
analytique de la loi où figure un nombre restreint de paramètres (1 ou 2, rarement
plus).
– La loi théorique agit comme modèle (idéalisation) et permet ainsi de réduire les irré-
gularités de la distribution empirique. Ces irrégularités sont souvent inexplicables et
proviennent de fluctuations d’échantillonnage, d’imprécision d’appareils de mesure ou
de tout autre facteur incontrôlé ou incontrôlable.
– Des tables de probabilités ont été élaborées pour les lois les plus importantes. Elles
simplifient considérablement les calculs.
On distingue deux types des lois de probabilités : Loi de Probabilité Discrète et Loi
de Probabilité Continue.
74
4.1 Lois Discrètes CHAPITRE 4. LOIS DE PROBABILITÉS
Définition 4.1.1. On dit qu’une variable aléatoire X suit une loi uniforme discrèete lors-
qu’elle prend ses valeurs dans {1, ..., n} avec des probabilités élémentaires identiques. Puisque
la somme des ces dernières doit valoir 1, on en déduit qu’elles doivent toutes être égales à
1/n :
1
∀k = 1, ..., n P (X = k) = .
n
Paramètres de la distribution
On calcule aisément :
∑
n
k n+1
E(X) = = .
k=1
n 2
∑
n
k2 (n + 1)2 (n + 1)(2n + 1) (n + 1)2 n2 − 1
V (X) = E(X 2 ) − E(X)2 = − = − = .
k=1
n 4 6 4 12
Définition 4.2.1. Une variable aléatoire discrète qui ne prend que les valeurs 1 et 0 avec
les probabilités respectives p et q = 1 − p est appelée variable de Bernoulli.
Exemple 4.2.1. Une urne contient deux boules rouges et trois boules vertes. On tire une
boule de l’urne. La variable aléatoire X = nombre de boules rouges tirées est une variable de
Bernoulli. On a : P (X = 1) = 2/5 = p, P (X = 0) = 3/5 = q.
75
4.2 Loi Bernoulli CHAPITRE 4. LOIS DE PROBABILITÉS
Plus généralement, on utilisera une variable de Bernoulli lorsqu’on effectue une épreuve
qui n’a que deux issues : le succès ou l’échec. Une telle expérience est alors appelée épreuve
de Bernoulli. On affecte alors 1 à la variable en cas de succès et 0 en cas d’échec.
Loi de probabilités
x 0 1
f (x) = P (X = x) q p
Paramètres de la distribution
On calcule
√
E(X) = p V (X) = pq σ(X) = pq ξX (u) = q + pe−2iπu
Situation concrète
a) On effectue une épreuve de Bernoulli. Elle n’a donc que deux issues : le succès avec
une probabilité p ou l’échec avec une probabilité q.
c) Les n épreuves sont indépendantes entre elles, ce qui signifie que la probabilité de
réalisation de l’événement “succès” est la même à chaque épreuve et est toujours égale à p.
76
4.2 Loi Bernoulli CHAPITRE 4. LOIS DE PROBABILITÉS
Distribution de probabilités
La probabilité d’avoir k succès suivis de n − k échecs est pk q n−k car ces résultats sont
indépendants les uns des autres.
Combien y en a-t-il ’ Autant que de façons d’ordonner les k succès par rapport aux n − k
échecs ’ Il suffit de choisir les k places des succès parmi les n possibles et les n − k échecs
( )
prendront les places restantes. Or il y a nk manières de choisir k places parmi n.
Finalement, on obtient
( )
k k n−k
P (X = k) = p q .
n
Remarque : L’adjectif binomial vient du fait que lorsqu’on somme toutes ces probabilités,
on retrouve le développement du binôme de Newton,
∑n ( )
k k n−k
p q = (p + q)n = 1.
k=0
n
Exemple 4.2.2. Dans un exercice militaire, un soldat a le droit de tirer sur une cible mobile
10 fois, si la probabilité d’atteindre cette cible est 0, 7, quelle est la probabilité que ce soldat
atteint la cible au moins 2 fois.
Solution : Cette expérience aléatoire consiste a répéter la même expérience (tirer sur
une cible) 10 fois de suite. c’est donc une expérience binomiale. Soit X la variable aléatoire
77
4.3 Loi géométrique CHAPITRE 4. LOIS DE PROBABILITÉS
√
E(X) = np V (X) = npq σ(X) = npq ξX (u) = (q + pe−2iπu )n
a) On effectue une épreuve de Bernoulli. Elle n’a donc que deux issues : le succès avec
une probabilité p ou l’échec avec une probabilité q = 1 − p.
78
4.3 Loi géométrique CHAPITRE 4. LOIS DE PROBABILITÉS
Dans cette situation, on s’intéresse à la variable X = “nombre de fois qu’il faut répéter
l’épreuve pour obtenir le premier succès”.
Remarque 7. On est donc dans les mêmes hypothèses que pour la loi binomiale, mais le
nombre d’épreuves n’est pas fixé à l’avance. On s’arrête au premier succès.
P (X = n) = q n−1 p.
Remarque 8. L’appellation géométrique vient du fait qu’en sommant toutes les probabilités,
on obtient une série géométrique. En effet,
∑
+∞
p
q n−1 p = = 1.
n=1
1−q
On calcule
∑
∞
ξX (u) = q n−1 pe−2iπun
n=1
∑
∞
−2iπu
= pe q k e−2iπuk
k=0
−2iπu
pe
= ,
1 − qe−2iπu
79
4.4 Loi de Poisson CHAPITRE 4. LOIS DE PROBABILITÉS
√ pe−2iπu
E(X) = 1/p V ar(X) = q/p2 σ(X) = q/p ξX (u) = 1−qe−2iπu
Définition 4.4.1. On peut considérer la loi de Poisson de paramètre λ comme la loi limite
d’une loi binomiale B(n, λ/n) lorsque n tend vers l’infini, le produit des paramètres n.λ/n
restant toujours constant égal à λ.
On écrit X ↩→ P (λ).
λk
P (X = k) = e−λ .
k!
Preuve :
Si Y suit une loi B(n, λ/n), on sait que
( )
k λ k λ
P (Y = k) = ( ) (1 − )n−k
n n n
λ λ n(n − 1) · · · (n − k + 1)
k
= (1 − )n−k
n k! nk
λ λ k
λ n n−1 n−k+1
= (1 − )n (1 − )−k [ × × ··· × ].
n k! n n n n
80
4.4 Loi de Poisson CHAPITRE 4. LOIS DE PROBABILITÉS
Chaque terme du produit entre crochets tend vers 1 lorsque n tend vers l’infini. Il y a k
termes, c’est-à-dire un nombre fini. Donc le crochet tend vers 1. De même, (1 − nλ )−k tend
vers 1. De plus,
λ n λ λ
ℓn((1 − ) ) = nℓn(1 − ) ∼ n × (− )
n n n
tend vers −λ lorsque n tend vers l’infini, donc (1 − nλ )n tend vers e−λ . On conclut que
P (Y = k) tend vers e−λ λk /k!.
Remarque 10. Il existe des tables donnant la fonction de densité et la fonction de répartition
de la loi de Poisson en fonction des différentes valeurs de λ (pour λ ≤ 15).
On en déduit le tableau
√ −2iπu −1)
E(X) = λ V ar(X) = λ σ(X) = λ ξX (u) = eλ(e
La loi P (λ) est la loi limite de la loi B(n, λ/n) lorsque n tend vers l’infini. On constate que
l’espérance mathématique et la variance de la loi B(n, λ/n) convergent vers celles de la loi
P (λ) lorsque n tend vers l’infini. Cela peut se vérifier directement, en appliquant le théorème
de convergence dominée pour la mesure Peigne de Dirac (interversion d’une sommation et
d’une limite).
On approche la loi B(n, p) par la loi P (np) dès que n > 20, p ≤ 0.1 et np ≤ 5.
RÈGLE IMPORTANTE. Lorsqu’on approche une loi par une autre, on choisit le ou
les paramètres de la loi approchante de manière que l’espérance (et la variance lorsqu’on a
suffisamment de paramètres) de la loi approchante soit égale à l’espérance (et la variance)
de la loi approchée.
81
4.5 Lois Continues CHAPITRE 4. LOIS DE PROBABILITÉS
Si X1 et X2 sont des variables aléatoires indépendantes qui suivent des lois de Poisson de
paramètres respectifs λ1 et λ2 , alors X1 + X2 suit une loi de Poisson de paramètre λ1 + λ2 .
Proposition 4.5.1. Soit a et b deux réels tels que a < b.La fonction f définie sur R par
1 si x ∈ [a; b]
f (x) = b−a est une densité de probabilité.
0 sinon
Définition 4.5.1. Soit a et b deux réels tels que a < b, et X une variable aléatoire.
On dit que X suit la loi uniforme sur [a; b] lorsque X suit la loi à densité continue f
définie sur R par
1
si x ∈ [a; b]
f (x) = b−a
0 sinon
Proposition 4.5.2. Soit X une variable aléatoire suivant la loi uniforme sur [a; b]. Alors
l’espérance E(X) de X est :
∫ b
a+b
E(X) = xf (x) dx = .
a 2
(b − a)2
V (X) = .
12
82
4.5 Lois Continues CHAPITRE 4. LOIS DE PROBABILITÉS
Exemple. Lorsque l’événement attendu est la mort d’un individu (ou la panne d’un é-
quipement), α s’appelle le taux de mortalité (ou le taux de panne). Dire qu’il a une valeur
constante, c’est supposer qu’il n’y a pas de vieillissement (ou pas d’usure s’il s’agit d’un
équipement), la mort ou la panne intervenant de façon purement accidentelle.
Définition 4.5.2. Soit α un nombre strictement positif. On dit qu’une variable aléatoire
continue X suit une loi exponentielle de paramètre α si sa fonction de densité est
αe−αx pour x ≥ 0,
f (x) =
0 sinon
Proposition 4.5.3. Soit X une variable aléatoire suivant une loi exponentielle de paramètre
α. Alors l’espérance E(X) de X est :
1
E(X) = .
α
Et la variance vaut :
1
V (X) = .
α2
Exemple 4.5.4. La durée de vie T en année, d’un appareil avant la première panne suit
une loi exponentielle de paramètre α. D’après une étude, la probabilité que cet appareil tombe
83
4.5 Lois Continues CHAPITRE 4. LOIS DE PROBABILITÉS
en panne pour la première fois avant la fin de la première année est 0,2. D’aprs cette étude,
déterminer la valeur de α à 10−2 près.
Définition 4.5.3. On dit qu’une variable aléatoire X suit une loi de Cauchy de paramètres
a (strictement positif ) et m réel si sa fonction de densité f est donnée par
a 1
f (x) = .
π ((x − m)2 + a2 )
Pour tout x ∈ R.
Si la loi de X est C(0, 1) (loi de Cauchy standard) et si a et b sont des réels, alors la loi
de aX + b est C(b, a2 ).
Définition 4.5.1. Une variable aléatoire continue suit une loi normale si l’expression de sa
fonction de densité de probabilités est de la forme :
1
f (x) = √ e− 2 ( σ ) ,
1 x−m 2
x ∈ R.
σ 2π
La loi dépend des deux réels m et σ appelés paramètres de la loi normale. On la note N (m, σ).
Remarque 11.
1. Une fonction de densité de probabilité étant toujours positive, le paramètre σ est donc
un réel strictement positif.
∫
2. On démontre que f est bien une fonction de densité de probabilité car R f (x) dx = 1.
∫ √
Pour le démontrer on utilise que R e−x /2 dx = 2π (c’est l’intégrale de Gauss).
2
ξX (u) = e−2iπmu−2π
2 σ 2 u2
.
84
4.5 Lois Continues CHAPITRE 4. LOIS DE PROBABILITÉS
On en déduit, à l’aide de la formule qui exprime espérance et variance à partir des dérivées
de la fonction caractéristique, que
Nous avons vu dans le chapitre 3 qu’à toute variable aléatoire X ,on pouvait associer une
X − E(X)
variable dite standardisée d’espérance nulle et de variance unité (ceci résultait
σ(X)
des propriétés de translation et de changement d’échelle).
On montre assez facilement que si on effectue cette transformation sur une variable suivant
une loi normale, la variable standardisée suit encore une loi normale mais cette fois-ci de
paramètres 0 et 1. La loi standardisée est appelée loi normale centrée réduite, et notée
X −m
N (0, 1). Donc si X suit N (m, σ), on pose T = et T suit N (0, 1).
σ
On peut résumer la correspondance de la façon suivante :
X ⇀ N (m, σ) T ⇀ N (0, 1)
X−m
E(X) = m T = σ
E(T ) = 0
V ar(X) = σ 2 V ar(T ) = 1
Il faut garder à l’esprit que concrètement T est le nombre d’écarts-type entre la valeur de X
et la moyenne.
La loi N (0, 1) est tabulée à l’aide la fonction de répartition des valeurs positives. Elle
∫t
donne les valeurs de Φ(t) = P (0 ≤ T ≤ t) = 0 √12π e−u /2 du pour t > 0. Ce nombre
2
85
4.5 Lois Continues CHAPITRE 4. LOIS DE PROBABILITÉS
[0, t]. Pour cette raison la table de la loi normale est appelée table d’aires (elle est aussi
appelée Loi de Laplace-Gauss). Cette table ne dépend d’aucun paramètre, mais permet
cependant de déterminer les probabilités de n’importe quelle distribution normale !
La première colonne de la table indique les unités et les dixièmes des valeurs de T alors
que les centièmes des valeurs de T se lisent sur la ligne supérieure de la table. La valeur
trouvée à l’intersection de la ligne et de la colonne adéquates donne l’aire cherchée.
Remarque 12. Si la valeur de l’aire ne peut se lire directement dans les valeurs de la
table, on pourra toujours effectuer une interpolation linéaire entre deux valeurs adjacentes
ou prendre la valeur la plus proche.
86
4.5 Lois Continues CHAPITRE 4. LOIS DE PROBABILITÉS
1. On remplace une distribution concernant un nombre fini de valeurs par une distribution
sur R tout entier.
1 1
P (X = k) ≃ P (k − < Y < k + ).
2 2
Dans la pratique lorsque n est très grand, cette correction n’est pas nécessaire. On
l’effectuera cependant si on souhaite une grande précision.
Remarque 13. Remplacer une loi binomiale par une loi normale simplifie considérablement
les calculs.
En effet les tables de la loi binomiale dépendent de deux paramètres et les valeurs de n dans
ces tables sont limitées supérieurement par 20. La loi normale, elle, après standardisation ne
dépend d’aucun paramètre .
On démontre qu’on peut aussi approcher la loi de Poisson par la loi normale pour les
grandes valeurs du paramètre de la loi de Poisson. La seule qui puisse convenir est celle qui
√
a même espérance et même variance. On approche donc la loi P(λ) par la loi N (λ, λ). En
pratique, cela s’applique dès que λ ≥ 16.
87
4.5 Lois Continues CHAPITRE 4. LOIS DE PROBABILITÉS
√
On approche la loi P(λ) par la loi N (λ, λ) dès que λ ≥ 16
Remarque 14. La loi de Poisson étant elle aussi une loi discrète, on peut avoir à appliquer
la correction de continuité.
Exercice 4.5.5. Supposons qu’une tentative pour obtenir une communication téléphonique
échoue (par exemple, parce que la ligne est occupée) avec la probabilité 0.25 et réussisse avec
la probabilité 0.75. On suppose que les tentatives sont indépendantes les unes des autres.
Quelle est la probabilité d’obtenir la communication si l’on peut effectuer trois tentatives au
maximum ?
Solution : 3 essais
Nous nous intéressons à la variable X = « nombre de tentatives nécessaires pour obtenir la
communication », ce que l’on peut considérer comme le nombre d’essais à faire pour obtenir
le premier succès. X suit une loi géométrique de paramètre p = 0.75.
Exercice 4.5.6. Un fabricant de pièces de machine prétend qu’au plus 10% de ses pièces
sont défectueuses. Un acheteur a besoin de 120 pièces. Pour disposer d’un nombre suffisant
de bonnes pièces, il en commande 140. Si l’affirmation du fabricant est valable, quelle est la
probabilité que l’acheteur reçoive au moins 120 bonnes pièces ?
88
4.5 Lois Continues CHAPITRE 4. LOIS DE PROBABILITÉS
X prend ses valeurs entre 0 et 140. De plus pour chaque pièce, on n’a que deux éventua-
lités : elle est bonne ou elle est défectueuse. La probabilité qu’une pièce soit défectueuse est
0.1. Par conséquent elle est bonne avec la probabilité 0.9. On est donc dans une situation
type : X suit la loi binomiale B(140, 0.9) de paramètres n = 140 et p = 0.9.
On veut déterminer la probabilité que l’acheteur reçoive au moins 120 bonnes pièces
sur les 140, soit X ≥ 120. A priori, il nous faudrait calculer la somme des probabilités
P (X = 120) + P (X = 121) + · · · + P (X = 140), ce qui serait épouvantablement long. On
approxime donc la loi binomiale par une loi tabulée.
Comme n ≥ 30, np = 126 ≥ 15 et nq = 14, on pourra approcher la loi binomiale par une
loi normale. On choisit la loi normale qui a la même espérance et le même écart-type. Donc
X qui suit la loi B(140, 0.9) sera approchée par Y qui suit la loi N (126, 3.55).
Pour remplacer une loi discrète par une loi continue, il est préférable d’utiliser la correction
de continuité,
Y −126
On se ramène enfin à la loi normale centrée réduite. On pose T = 3.55
, et
119.5 − 126
P (Y > 119.5) = P (T > ) = P (T > −1.83)
3.55
= P (T < 1.83) = 0.5 + Φ(1.83) = 0.97.
Conclusion : l’acheteur a 97 chances sur 100 de recevoir 120 bonnes pièces sur les 140
achetées.
89
4.5 Lois Continues CHAPITRE 4. LOIS DE PROBABILITÉS
On cherche à déterminer P (X > 350). Il n’y a pas de table de la loi de Poisson pour cette
valeur du paramètre. Il nous faut donc approcher X qui suit la loi de Poisson P(300) par Y
√
qui suit la loi normale de même espérance et de même écart-type, c’est-à-dire N (300, 300).
Ici aussi, on remplace une loi discrète par une loi continue. Il faut donc appliquer la
correction de continuité
Y√−300
On se ramène finalement à la loi normale centrée réduite. On pose T = 300
.
350.5 − 300
P (Y > 350.5) = P (T > √ ) = P (T > 2.92) = 1 − Φ(2.92) = 0.5017.
300
Exercice 4.5.8. Le nombre moyen de clients qui se présentent à la caisse d’un supermarché
sur un intervalle de 5 minutes est de 10. Quelle est la probabilité qu’aucun client ne se
présente à la caisse dans un intervalle de deux minutes (deux méthodes possibles) ?
Sa fonction de densité est 2e−2x pour x > 0 exprimé en minutes. On en déduit que
∫ +∞
P (Y ≥ 2) = 2e−2x dx = [−e−2x ]+∞
2 = e−4 = 0.018.
2
90
Chapitre 5
Définition 5.1.1. Soient X et Y deux variables aléatoires discrètes dont l’ensemble des
valeurs possibles sont respectivement {x1 , x2 , . . . , xn } et {y1 , y2 , . . . , ym }. Associer à chacune
des valeurs possibles (xi , yj ) du couple (X, Y ), la probabilité f (xi , yj ), c’est définir la loi de
probabilité conjointe ou fonction de densité conjointe des variables aléatoires X et Y ,
Proposition 5.1.1.
91
5.1 CVAD CHAPITRE 5. COUPLES DE VARIABLES ALÉATOIRES
Exemple 5.1.2. Soit X le nombre de piques obtenus lors du tirage d’une carte dans un
jeu ordinaire de 52 cartes et Y le nombre de piques obtenus dans un deuxième tirage, la
première carte n’étant pas remise. X et Y ne prennent que les valeurs 0 (pas de pique) ou 1
(un pique).
f(x,y)
f(0,0)=0.56
0 1
y
0
1
x
Lorsqu’on connaît la loi conjointe des variables aléatoires X et Y , on peut aussi s’intéresser
à la loi de probabilité de X seule et de Y seule. Ce sont les lois de probabilité marginales.
Définition 5.1.2. Soit (X, Y ) une variable aléatoire à deux dimensions admettant comme
loi de probabilité conjointe f (x, y). Alors, les lois de probabilité marginales de X et Y sont
définies respectivement par
∑
m
fX (xi ) = P (X = xi ) = f (xi , yj ) pour i = 1, 2, . . . , n,
j=1
∑
n
fY (yj ) = P (Y = yi ) = f (xi , yj ) pour j = 1, 2, . . . , m.
i=1
92
5.1 CVAD CHAPITRE 5. COUPLES DE VARIABLES ALÉATOIRES
Si la loi de probabilité conjointe du couple (X, Y ) est présentée dans un tableau à double
entrée, nous obtiendrons la loi de probabilité marginale fX de X en sommant les f (xi , yj ),
suivant l’indice j (par colonnes) et celle de Y , fY , en sommant les f (xi , yj ) suivant l’indice
i (par lignes).
X\Y Y = y1 = 0 Y = y2 = 1 fX (xi )
X = x1 = 0 0.56 0.19 0.75
X = x2 = 1 0.19 0.06 0.25
fY (yj ) 0.75 0.25 1.00
Remarque 15. Le couple (X, Y ) et les deux variables X et Y constituent trois variables
aléatoires distinctes. La première est à deux dimensions, les deux autres à une dimension.
La notion équivalente dans le cas d’un couple de variables aléatoires est celle de loi de
probabilité conditionnelle permettant de mesurer la probabilité que X soit égale à une valeur
donnée lorsqu’on connaît déjà la valeur que prend Y .
Définition 5.1.3. Soit la variable aléatoire (X, Y ) à deux dimensions admettant comme loi
conjointe f (x, y) et comme lois marginales fX (x) et fY (y). Si l’on suppose que la probabilité
que X prenne la valeur xi n’est pas nulle, alors la probabilité conditionnelle de (Y = yj )
sachant que (X = xi ) s’est réalisé est définie par
f (xi , yj )
f (yj |xi ) = .
fX (xi )
Les probabilités f (yj |xi ) associées aux différentes valeurs possibles yj de Y constituent la loi
de probabilité conditionnelle de Y .
93
5.1 CVAD CHAPITRE 5. COUPLES DE VARIABLES ALÉATOIRES
De même, si l’on suppose que la probabilité que Y prenne la valeur yj n’est pas nulle,
alors la probabilité conditionnelle de (X = xi ) sachant que (Y = yj ) s’est réalisé est définie
par
f (xi , yj )
f (xi |yj ) = .
fY (yj )
Les probabilités f (xi |yj ) associées aux différentes valeurs possibles xi de X constituent
la loi de probabilité conditionnelle de X.
∑
m ∑
m
f (xi , yj )
E(Y |X = xi ) = yj f (yj |xi ) = yj pour i = 1, 2, . . . , n.
j=1 j=1
fX (xi )
Proposition 5.1.4. Soit (X, Y ) une variable aléatoire à deux dimensions admettant comme
loi de probabilité conjointe la fonction f (x, y) et comme lois de probabilité marginales fX (x)
et fY (y). Les variables aléatoires X et Y sont indépendantes si et seulement si les probabilités
conjointes sont égales au produit des probabilités marginales, f (xi , yj ) = fX (xi )×fY (yj ) pour
toutes les valeurs (xi , yj ).
Pour conclure que deux variables ne sont pas indépendantes, il suffit de trouver une valeur
du couple (X, Y ) pour laquelle la relation précédente n’est pas satisfaite.
94
5.2 CVAC CHAPITRE 5. COUPLES DE VARIABLES ALÉATOIRES
Exemple 5.1.5. Dans l’exemple du tirage de cartes, nous savons, par exemple que P ((X =
0) et (Y = 1)) = f (0, 1) = 0.19, alors que P (X = 0) × P (Y = 1) = fX (0) × fY (1) =
0.75 × 0.25 = 0.188.
Conclusion : les variables X et Y sont dépendantes, ce qui paraît cohérent étant donné
que le tirage était effectué sans remise.
Dans le cas de deux variables continues X et Y , le couple (X, Y ) est dit continu.
Proposition 5.2.1.
1. Pour tout couple (x, y) ∈ R2 , f (x, y) ≥ 0.
∫
2. R2 f (x, y) dx dy = 1.
3. Il en résulte qu’une densité de probabilité conjointe est une fonction intégrable au sens
de Lebesgue sur R2 .
De même que pour les couples de variables aléatoires discrètes, on définit les fonctions
densités de probabilité marginales et conditionnelles. Pour les définir dans le cas continu, il
suffit de remplacer les sommes du cas discret par des intégrales.
95
5.2 CVAC CHAPITRE 5. COUPLES DE VARIABLES ALÉATOIRES
Définition 5.2.1. Soit (X, Y ) une variable aléatoire continue à deux dimensions admettant
comme densité de probabilité conjointe la fonction f (x, y). Alors, les densités de probabilité
marginales de X et Y sont définies respectivement par
∫
fX (x) = f (x, y) dy pour x ∈ R,
∫R
fY (y) = f (x, y) dx pour y ∈ R.
R
Définition 5.2.2. Soit la variable aléatoire (X, Y ) à deux dimensions admettant comme loi
conjointe f (x, y) et comme lois marginales fX (x) et fY (y). Si l’on suppose que la probabilité
que X prenne la valeur x n’est pas nulle, alors la probabilité conditionnelle de (Y = y)
sachant que (X = x) s’est réalisé est définie par
f (x, y)
f (y|x) = .
fX (x)
Les probabilités f (y|x) associées aux différentes valeurs possibles y de Y constituent la loi
de probabilité conditionnelle de Y .
De même, si l’on suppose que la probabilité que Y prenne la valeur y n’est pas nulle,
alors la probabilité conditionnelle de (X = x) sachant que (Y = y) s’est réalisé est définie
par
f (x, y)
f (x|y) = .
fY (y)
Les probabilités f (x|y) associées aux différentes valeurs possibles x de X constituent la
loi de probabilité conditionnelle de X.
96
5.3 Espérance et Variance CHAPITRE 5. COUPLES DE VARIABLES ALÉATOIRES
E(XY ) = E(X)E(Y ).
ξX+Y = ξX ξY .
97
5.3 Espérance et Variance CHAPITRE 5. COUPLES DE VARIABLES ALÉATOIRES
Lorsque deux variables aléatoires ne sont pas indépendantes, il existe une caractéristique
qui permet de déterminer l’intensité de leur dépendance. C’est la covariance.
Dans le cas où X et Y sont des variables aléatoires discrètes on donne E(X.Y ) égale :
∑ ∑
E (X · Y ) = x · y · P (X = x ∩ Y = y)
x∈X(Ω) y∈Y (Ω)
Dans le cas où X et Y sont des variables aléatoires continues on donne E(X.Y ) égale :
∫
E (X · Y ) = xyf (x, y) dx dy
R2
2. Attention : La réciproque n’est pas vraie. Deux variables de covariance nulle ne sont
pas obligatoirement indépendantes.
98