Vous êtes sur la page 1sur 489

UNIVERSITÉ HASSAN II DE CASABLANCA

FACULTÉ DES SCIENCES ET TECHNIQUES

1ère Partie
Statistique Descriptive

Pr. Abdelhak FAHSI


Département de Mathematiques

Module M147, Parcours MIP (S4)


Introduction générale

1ère partie : STATISTIQUE DESCRIPTIVE - Introduction Module M147 - MIP Pr. A. FAHSI
La statistique trouve ses applications dans plusieurs
domaines scientifiques de différentes natures : économie,
biologie, chimie, physique, sociologie, médecine, sciences
de l’ingénieur, ...

La statistique comporte deux grandes branches :

1ère partie : STATISTIQUE DESCRIPTIVE - Introduction Module M147 - MIP Pr. A. FAHSI
La Statistique Descriptive : C’est un ensemble de
techniques scientifiques permettant de présenter, résumer,
analyser et interpréter des données statistiques. Ces
techniques peuvent être numériques (élaboration de
tableaux, calcul de paramètres) ou graphiques
(visualisation par des représentations graphiques).

1ère partie : STATISTIQUE DESCRIPTIVE - Introduction Module M147 - MIP Pr. A. FAHSI
La Statistique Mathématique : C’est un ensemble de
méthodes mathématiques, basées sur la modélisation et le
calcul des probabilités, qui permettent à partir de l’étude
d’un échantillon de déduire des informations, faire des
prévisions et prendre des décisions concernant une
population plus grande.

1ère partie : STATISTIQUE DESCRIPTIVE - Introduction Module M147 - MIP Pr. A. FAHSI
Objectifs de ce cours :
Apprendre et comprendre les principales techniques
de la statistique descriptive à une dimension et à
deux dimensions.
Être capable de mettre en oeuvre ces techniques de
manière appropriée pour décrire, organiser, analyser et
interpréter des données statistiques.
En résumé, Au bout de ce cours, l’étudiant doit être
capable de répondre à ce type de questions :

1ère partie : STATISTIQUE DESCRIPTIVE - Introduction Module M147 - MIP Pr. A. FAHSI
Exercice 1
L’observation de la consommation énergétique quotidienne
(en kwh) dans un local commercial durant une année a
donné les résultats suivants :

Consommation [8, 10[ [10, 14[ [14, 16[ [16, 20[ [20, 24[
Effectif 55 60 80 120 50
1 Préciser la population étudiée, le caractère étudié et sa
nature.
2 Calculer la proportion des jours dont la consommation
est comprise entre 11 et 22 kwh.
3 Tracer les diagrammes qui permettent de représenter
cette distribution statistique.
4 Calculer le mode, la médiane, la moyenne et
l’écart-type.
1ère partie : STATISTIQUE DESCRIPTIVE - Introduction Module M147 - MIP Pr. A. FAHSI
Exercice 2
La distribution conjointe d’un groupe d’étudiants selon la
note obtenue en module de statistique (caractère X ) et le
nombre d’absence (caractère Y ) est représentée dans le
tableau suivant :

Y 0 1 2 3 4
X
[0, 6[ 0 4 3 8 12
[6, 10[ 3 7 10 12 18
[10, 12[ 6 8 9 8 7
[12, 14[ 7 6 5 3 2
[14, 16[ 8 3 2 0 0
[16, 20[ 9 4 1 0 0

1ère partie : STATISTIQUE DESCRIPTIVE - Introduction Module M147 - MIP Pr. A. FAHSI
1 Déterminer les distributions marginales.
2 Quelle est la proportion des étudiants :
a) ayant validé le module de statistique (note ≥ 10) ?
b) ayant un rattrapage (note comprise entre 5 et 10) ?
c) ayant validé le module et ayant 4 absences ?
3 Les variables X et Y sont-elles indépendantes ?
4 Calculer le mode, la médiane, la moyenne et l’écart
type marginaux.
5 Calculer la covariance des deux variables X et Y .
6 Calculer le coefficient de corrélation linéaire.

1ère partie : STATISTIQUE DESCRIPTIVE - Introduction Module M147 - MIP Pr. A. FAHSI
Plan du cours de Statistique

1 Chapitre 1 : Statistique descriptive 1D (séries simples)


I- Définitions
II- Organisation des données
II.1- Tableaux statistiques
II.2- Représentations graphiques
III- Réduction des données
III.1- Paramètres de tendance centrale
III.1- Paramètres de position
III.2- Paramètres de dispersion

2 Chapitre 2 : Statistique descriptive 2D (séries doubles)


I- Tableau de contingence
II- Paramètres d’une série double
III- Ajustement linéaire

1ère partie : STATISTIQUE DESCRIPTIVE - Introduction Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II- Organisation des données
III- Réduction des données

Chapitre 1

Statistique descriptive à une


dimension

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II- Organisation des données
III- Réduction des données

I- Définitions et notations

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II- Organisation des données
III- Réduction des données

1. Population (notée P) : On appelle population, l’ensemble de


tous les éléments (de même nature) sur lesquels on veut
effectuer l’étude statistique.

Exemple
- Les étudiants inscrits à la FSTM,
- Les voitures vendues au Maroc entre 2010 et 2016,
- Les jours de l’année 2020.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II- Organisation des données
III- Réduction des données

2. Individu : Chaque élément de la population est appelé


individu (ou unité statistique).

Les individus de la population peuvent être des êtres vivants,


des objets (voitures, livres, . . . ) ou des éléments abstraits
(accidents, jours, . . . ).

Le nombre des individus d’une population, noté N, est appelé


taille ou effectif total de la population.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II- Organisation des données
III- Réduction des données

3. Echantillon : Un groupe restreint d’individus prélevés dans


la population P (sous-ensemble de P) est appelé un
échantillon de P.

Remarque : On se limite à l’étude d’un échantillon lorsque’il


est impossible ou très difficile d’étudier la population dans sa
totalité.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II- Organisation des données
III- Réduction des données

4. Caractère (variable) statistique (noté X , Y , . . .) : On appelle


caractère ou variable statistique toute description qui peut être
observée ou mésurée pour chaque individu de la population.

Exemple
- La couleur des voitures fabriquées par une usine,
- Les notes d’un groupe d’étudiants,
- Le salaire des employés d’une entreprise,
- La consommation quotidienne d’électricité durant une année,

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II- Organisation des données
III- Réduction des données

On distingue deux types de caractères :


Caractère qualitatif : C’est un caractère non mesurable.
Les valeurs du caractère ne sont pas numériques.

Exemple
La couleur, la nationalité, la situation familiale, . . .

Caractère quantitatif : C’est un caractère mesurable. Les


valeurs du caractère sont numériques.

Exemple
L’âge, le poids, la taille, le salaire, . . .

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II- Organisation des données
III- Réduction des données

5. Série brute :
Considérons un caractère X sur une population P de taille N.

A chaque individu de la population est associée une valeur du


caractère, notée x(i) .

La suite des valeurs x(1) , x(2) , . . . , x(N) (non nécessairement


distintes) est appelée série brute du caractère X .

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II- Organisation des données
III- Réduction des données

6. Modalités d’un caractère X : Les différentes valeurs


distinctes prises par le caractère X , notées x1 , x2 , . . . , xk , sont
appelées modalités de X .

L’ensemble des modalités d’un caractère X est noté :

X (P) = {x1 , x2 , . . . , xk }

k désigne le nombre de modalités de X .

Exemple
- Le caractère X = ”couleur” peut avoir comme modalités :
{noir, rouge, bleu, blanc, gris}
- Le caractère X = ”nombre d’enfants par famille” peut avoir
comme modalités : {0, 1, 2, 3, 4, 5 et plus}.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II- Organisation des données
III- Réduction des données

7. Effectif (noté ni ) : L’effectif d’une modalité xi est le nombre


d’individus présentant cette modalité.

L’effectif total de la population est égal à la somme des


effectifs de toutes les modalités du caractère étudié. On a :
k
X
ni = N
i=1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II- Organisation des données
III- Réduction des données

8. Effectif cumulé (noté Ni ) : On suppose le caractère de type


qualitatif (ordinal) et on suppose les modalités ordonnées :

x1 < x2 < . . . < xk

L’effectif cumulé d’une modalité xi est le nombre d’individus de


la population pour lesquels la valeur du caractère est
inférieure ou égale à xi . On a :

N1 = n1
i
X
Ni = nj = Ni−1 + ni , pour i ≥ 2
j=1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II- Organisation des données
III- Réduction des données

9. Fréquence ou proportion (notée fi ) : La fréquence d’une


n
modalité xi , est le rapport fi = i .
N

C’est la proportion des individus de la population présentant


cette modalité. On a :
Xk
fi = 1
i=1

Remarque
La fréquence fi appartient à l’intervalle [0, 1].

Souvent, on note les fréquences en pourcentage (avec le


symbole %) en les multipliant par 100.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II- Organisation des données
III- Réduction des données

10. Fréquence cumulée (notée Fi ) : La fréquence cumulée


d’une modalité xi est la proportion d’individus pour lesquels la
valeur du caractère est inférieure ou égale à xi . On a :

F 1 = f1
i
Ni X
Fi = = fj = Fi−1 + fi , pour i ≥ 2
N
j=1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II- Organisation des données
III- Réduction des données

11. Groupement en classes


Lorsque le nombre des modalités d’un caractère
quantitatif est élevé (supérieur à 15), on est généralement
conduit à regrouper les modalités en classes de la forme :

[xi−1 ; xi [, i = 1, 2, . . . , k

Exemple
Le caractère X = ”Note obtenue par les étudiants inscrits au
module M147” peut avoir comme modalités groupées en
classes :

[0; 5[, [5; 7[, [7; 10[, [10; 15[, [15; 20]

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II- Organisation des données
III- Réduction des données

On appelle effectif d’une classe [xi−1 ; xi [ (noté ni ) le nombre


d’individus ayant une valeur du caractère appartenant à cette
classe.

On appelle effectif cumulé de la classe [xi−1 ; xi [ (noté Ni ) le


nombre d’individus pour lesquels la valeur du caractè est
inférieure ou égale à xi ,

On a des définitions analogues pour les fréquences et les


fréquences cumulées.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II- Organisation des données
III- Réduction des données

Remarque
Le groupement en classes d’une distribution statistique conduit
à une perte d’informations par rapport aux données initiales.
Le travail avec un tel groupement suppose alors l’hypothèse
de la répartition uniforme des données à l’intérieur de chaque
classe.

Ainsi, à toute intervalle I = [a; b] inclue dans une classe


[xi−1 ; xi [ d’effectif ni correspond un effectif n(A) défini par :

(b − a)
n(I) = ni ×
(xi − xi−1 )

L’effectif de toute valeur isolée sera alors égal à zéro.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II- Organisation des données
III- Réduction des données

Remarque
L’effectif cumulé de l’intervalle I = [a; b] est égale à l’effectif
cumulé de la valeur b (c’est le nombre d’individus ayant une
valeur du caractè ≤ b). A toute valeur isolée x appartenant à

une classe [xi−1 ; xi [ d’effectif ni correspond un effectif cumulé


N(x) défini par :
x − xi−1
N(x) = Ni−1 + ni ×
xi − xi−1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II- Organisation des données
III- Réduction des données

12. Types d’un caractère quantitatif:


On distingue deux types de caractère quantitatif :

Caractère discret :
Si les modalités d’un caractère quantitatif X sont considérées
sous forme de valeurs isolées, discrètes x1 , x2 , . . . , xk , on dit
que X est un caractère de type discret.

La famille {(xi , ni )1≤i≤k } ou {(xi , fi )1≤i≤k } est appelée


distribution statistique discrète associée au caractère X .

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II- Organisation des données
III- Réduction des données

Caractère continu :
Si les modalités d’un caractère X sont groupées sous forme
de classes [x0 ; x1 [, [x1 ; x2 [, . . . , [xk−1 ; xk [, on dit que X est un
caractère de type continu.

La famille {([xi−1 ; xi [, ni )1≤i≤k } ou {([xi−1 ; xi [, fi )1≤i≤k } est


appelée distribution statistique continue associée au caractère
X.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

II- Organisation des données

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

La première étape dans une étude statistique consiste à


organiser les données statistiques observées pour pouvoir en
déduire un certain nombre de renseignements qualitatifs et
quantitatifs.

Cet objectif peut être atteint en présentant les données


observées sous forme de :
1 Tableaux statistiques,
2 Représentations graphiques,

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

II.1- Tableaux statistiques

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Un tableau statistique consiste à résumer et présenter les


données d’une série statistique associée à un caractère X
sous forme de distributions d’effectifs ou de fréquences en
fonction des modalités :

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Modalités Effectifs ...


xi ni
x1 n1
x2 n2
.. ..
. .
xk nk
Total N

Tableau statistique simple (distribution avec les effectifs)

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Modalités Fréquences ...


xi fi
x1 f1
x2 f2
.. ..
. .
xk fk
Total 1

Tableau statistique simple (distribution avec les fréquences)

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Modalités Effectifs Fréquences Eff. Cum. Fréq. Cum. ...


xi ni fi Ni Fi
x1 n1 f1 N1 = n1 F1 = f1
x2 n2 f2 N2 F2
.. .. .. .. ..
. . . . .
xk nk fk Nk = N Fk = 1
Total N 1

Tableau statistique détaillé

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Exemple1 :
Dans un atelier de contrôle technique, on a enquêté sur l’état
mécanique d’un échantillon de 70 voitures, après 5 ans de leur
mise en circulation.
On a obtenu la série statistique brute suivante :

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Bon Bon Moyen Bon Bon Mauvais


Excellent Moyen Bon Bon Excellent Moyen
Moyen Bon Excellent Mauvais Bon Bon
Bon Mauvais Excellent Bon Bon Excellent
Bon Moyen Mauvais Moyen Excellent Bon
Bon Moyen Excellent Bon Bon Excellent
Mauvais Moyen Excellent Bon Bon Moyen
Bon Excellent Bon Moyen Excellent Bon
Moyen Bon Excellent Bon Mauvais Moyen
Bon Bon Moyen Bon Bon Moyen
Mauvais Excellent Bon Moyen Bon Bon
Moyen Moyen Bon Excellent

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Questions :

- Population étudiée ?
- Caractère étudié ?
- Modalités ?
- Nature du caractère ?
- Tableau statistique ?

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Tableau statistique :

Les résultats statistiques de cette enquête (série brute) sont


résumés et présentés dans le tableau statistique suivant :

Etat Mécanique Effectif Fréquence ...


ni fi
Mauvais 7 0.1
Moyen 17 0.24
Bon 32 0.46
Excellent 14 0.2
Total 70 1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Exemple2 :
Dans un échantillon composé de 50 familles, on enquête sur le
nombre d’enfants par famille.
Les résultats de l’enquête statistique sont :

1 0 5 2 2 1 2 1 2 4
4 7 1 3 2 5 4 6 3 1
1 6 1 3 8 1 3 5 2 3
3 0 3 4 6 4 1 7 2 0
2 0 1 2 2 3 2 5 6 2

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Questions :

- Population étudiée ?
- Caractère étudié ?
- Modalités ?
- Nature du caractère ?
- Tableau statistique ?

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Tableau statistique :

Nombre Effectif ...


d’enfants ni
0 4
1 10
2 12
3 8
4 5
5 4
6 4
7 2
8 1
Total 50

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Tableau statistique détaillé :

Nombre Effectif Eff. cum. Fréquence Fréq. cum. ...


d’enfants ni Ni fi Fi
0 4 4 0.08 0.08
1 10 14 0.2 0.28
2 12 26 0.24 0.52
3 8 34 0.16 0.68
4 5 39 0.1 0.78
5 4 43 0.08 0.86
6 4 47 0.08 0.94
7 2 49 0.04 0.98
8 1 50 0.02 1
Total 50 1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Exemple3 :
En mesurant la taille de 50 femmes enceintes, on a obtenu les
résultats suivants (en cm) :

152 151.5 160 165 170


159 168 161 164 156
158.5 167 157 170.5 161.5
169 156 158.5 160.5 152
156.5 166 152.5 170 165
154 170 165 155.5 166.5
162.5 152.5 168 169 158
157 161 154.5 162 158
153.5 157.5 163 155 153
160 169.5 154 161 162

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

- Population étudiée ?
- Caractère étudié ?
- Modalités et nature du caractère ?
Le nombre des modalités observées étant élevé, il est donc
nécessaire de les grouper en classes. Le caractère étudié
sera alors traité comme un caractère continu.

On peut considérer le choix des classes suivantes :

[151; 155[
[155; 159[
[159; 163[
[163; 167[
[167; 171[

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Tableau statistique :

Taille Effectif ...


(en cm) ni
[151; 155[ 10
[155; 159[ 12
[159; 163[ 11
[163; 167[ 7
[167; 171[ 10
Total 50

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

II.2- Representations
graphiques

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Bien que un tableau statistique résume toute l’information


d’une distribution statistique, la représentation graphique
permet de visualiser et de déceler les principales
caractéristiques de la distribution statistique (tendance,
symétrie, dispersion, concentration, . . . ).

La représentation graphique des données relatives à un


caractère repose (selon le type du caractère) sur la
proportionnalité des longueurs ou des surfaces aux
effectifs des différentes modalités du caractère.

Ainsi, suivant le type du caractère étudié, on utilise


différents modes de représentations graphiques.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

A. Caractère qualitatif :
Pour un caractère qualitatif, on peut tracer un diagramme
cartésien (en rectangles) ou un diagramme sectoriel
(circulaire).

Considérons l’exemple1 : Etat mécanique des voitures :


Etat Mécanique Effectif Fréquence
ni fi
Mauvais 7 0.1
Moyen 17 0.24
Bon 32 0.46
Excellent 14 0.2
Total 70 1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

A.1) Diagramme en rectangles (ou en tuyaux d’orgue) :

Dans un repère cartésien, on représente chaque modalité par


un rectangle dont la hauteur est égale à l’effectif (ou à la
fréquence) de la modalité et dont la base est constante.

(Les rectangles ont la même base et sont séparés par la


même distance).

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Effectif
35

30

25

20

32
15

10
17
14
5
7

0
Mauvais Moyen Bon Excellent

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

A.2) Diagramme circulaire :

Chaque modalité est représentée par un secteur dont l’angle


αi (en degré) est donné par :
ni
αi = 360 × = 360 × fi
N

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Le tableau suivant donne l’angle αi correspondant à chaque


modalité :
Etat Effectif Angle
Mécanique ni αi
Mauvais 7 36◦
Moyen 17 87.4◦
Bon 32 164.6◦
Excellent 14 72◦
Total 70 360◦

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Diagramme circulaire Mauvais


10%

Excellent
20%

Moyen
24%

Bon
46%

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

B. Caractère quantitatif discret :


Pour un caractère quantitatif discret, on peut tracer un
diagramme en batôns, un polygone des fréquences, un
diagramme en escalier ou un diagramme circulaire.

Considérons l’exemple2 (Nombre d’enfants par famille) :

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Nombre Effectif Fréquence Eff. cum. Fréq. cum.


d’enfants ni fi Ni Fi
0 4 0.08 4 0.08
1 10 0.2 14 0.28
2 12 0.24 26 0.52
3 8 0.16 34 0.68
4 5 0.1 39 0.78
5 4 0.08 43 0.86
6 4 0.08 47 0.94
7 2 0.04 49 0.98
8 1 0.02 50 1
Total 50 1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

B.1) Diagramme en bâtons :

Le diagramme en bâtons consiste à représenter, dans un


repère cartésien, chaque modalité du caractère par un
segment de droite vertical dont la hauteur est égale à l’effectif
(ou à la fréquence) de la modalité.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

15 0.3
Effectif ni Fréquence fi

10 0.2

5 0.1

0 xi 0 xi
0 1 2 3 4 5 6 7 8 0 1 2 3 4 5 6 7 8

Figure: Diagramme en bâtons.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

B.2) Polygone des frèquences :

Le polygone des frèquences est construit en joignant par des


segments de droites les sommets des bâtons du diagramme
en bâtons.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

15

10

ni

0
0 1 2 3 4 5 6 7 8 x
i

Figure: Polygone des fréquences.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

B.3) Diagramme en escaliers - Fonction de répartition :

On suppose x1 < x2 < . . . < xk


On définit la fonction de répartition des effectifs, notée G,
définie de IR vers [0, N], par :
∀ x ∈ IR, G(x) est égale au nombre des individus de la
population pour lesquels la valeur du caractère est
inférieure ou égale à x (G(x) = effectif cumulé de x).
On définit la fonction de répartition des fréquences, notée
F , définie de IR vers [0, 1], par :
∀ x ∈ IR, F (x) est égale à la proportion des individus de
la population pour lesquels la valeur du caractère est
inférieure ou égale à x. (F (x) = fréquence cumulé de x).

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Donc, d’après cette définition :


La fonction de répartition des effectifs G(x) est définie par :

 0 si x < x1
G(x) = N si xi ≤ x < xi+1 , 1 ≤ i ≤ k − 1
 i
N si x ≥ xk

La fonction de répartition des fréquences F (x) est définie par :



 0 si x < x1
F (x) = F si xi ≤ x < xi+1 , 1 ≤ i ≤ k − 1
 i
1 si x ≥ xk

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Le diagramme en escalier (appelée aussi courbe cumulative


ou courbe des effectifs cumulées ou courbe des fréquences
cumulés), est la représentation graphique de la fonction de
répartition G(x) ou F (x).

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

G(x) F(x)
50 1

40 0.8

30 0.6

20 0.4

10 0.2

0 x 0 x
0 1 2 3 4 5 6 7 8 0 1 2 3 4 5 6 7 8

Figure: Courbe cumulative.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Remarque
F (x) (resp. G(x)) est nulle pour les valeurs de x
inférieures à la plus petite modalité x1 et elle est égale à 1
(resp. N) pour les valeurs de x supérieures ou égale à la
plus grande modalité xk .
F (x) (resp. G(x)) est constante, égale à F (xi ) (resp.
G(xi )), dans chaque intervalle xi ≤ x < xi+1 .
Ainsi, la courbe cumulative d’un caractère discret
présente l’aspect d’un escalier (fonction croissante et
constante par morceaux).
G(x)
On a : F (x) =
N

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

C. Caractère quantitatif continu :


Pour un caractère quantitatif continu, on peut tracer
l’histogramme, le polygone des fréquences, la courbe
cumulative ou le diagramme circulaire.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

C.1) Histogramme et Polygone des fréquences :

Les modalités sont présentées sous forme de classes


[xi−1 ; xi [, 1 ≤ i ≤ k.

L’histogramme d’un caractère continu consiste à représenter


chaque classe [xi−1 ; xi [ du caractère par un rectangle vertical
dont la base est égale à l’amplitude de la classe, notée
ai = xi − xi−1 , et dont la hauteur hi est telle que la surface
Si = ai × hi du rectangle soit proportionnelle à l’effectif ni (ou à
la fréquence fi ) de la classe :

Si = C × ni ou bien Si = C × fi

avec C une constante arbitraire à choisir.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

On distingue deux cas :

1er cas : Toutes les classes ont une même amplitude a.


Dans ce cas, pour tracer l’histogramme, on représente chaque
classe par un rectangle dont la hauteur est égale à l’effectif (ou
à la fréquence) de la classe. La base de tous les rectangles
étant la même (égale à l’amplitude a).

Cela revient à choisir la constante C égale à l’amplitude a.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Exemple3 : Taille des femmes enceintes (Classes de même


amplitude)

Taille Effectif
(en cm) ni
[151; 155[ 10
[155; 159[ 12
[159; 163[ 11
[163; 167[ 7
[167; 171[ 10
Total 50

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Histogramme : Toutes les classes ont la même amplitude.

15
Effectif ni

10

0
151 155 159 163 167 171 Taille

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Polygone des fréquences :

Lorsque toutes les classes ont une même amplitude, le


polygone des fréquences est construit, à partir de
l’histogramme, en joignant par des segments de droites les
milieux des côtés supérieurs des rectangles.

Les extrémités rejoignent l’axe des abscisses.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Polygone des fréquences : Classes de même amplitude.

15
Effectif ni

10

0
151 155 159 163 167 171 Taille

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

2ème cas : Les classes n’ont pas la même amplitude.


Dans ce cas, pour construire l’histogramme, chaque classe
[xi−1 ; xi [ doit être représentée par un rectangle dont la base
est égale à l’amplitude ai de la classe et dont la hauteur hi est
définie par :

ni fi
hi = C × ou bien hi = C ×
ai ai

où C est une constante de proportionnalité à choisir.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

hi est appelée effectif corrigé (ou fréquence corrigée) de la


classe [xi−1 ; xi [.

Le choix de la constante C est arbitraire (on peut choisir par


exemple, C = 1).

Cependant, pour simplifier les calculs et/ou pour tracer le


polygone des fréquences, il faut choisir C égale au plus grand
diviseur commun des amplitudes ai .

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Exemple3 : Taille des femmes enceintes (Classes avec des


amplitudes différentes)

Taille amplitude Effectif Eff. corrigé


(en cm) ai ni hi
[151; 155[ 4 10 10
[155; 159[ 4 12 12
[159; 167[ 8 18 9
[167; 171[ 4 10 10
Total 50

ni
avec hi = C × ( on a choisi C = PGDC(ai ) = 4).
ai

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Histogramme : avec effectifs corrigés (amplitudes différentes).

15
Effectif corrigé hi
(C=4)

10

0 Taille
151 155 159 163 167 171

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Remarque

La somme des aires des rectangles de l’histogramme est la


même dans les deux cas (même amplitude et amplitude
différentes)

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

15 15
Effectif ni Effectif corrigé hi
(C=4)

10 10

S1

5 5 S1+ S2
S2

0 0
151 155 159 163 167 171 Taille 151 155 159 163 167 171 Taille

Figure: La surface est conservée.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Polygone des fréquences (amplitudes différentes) :

Puisqu’on a choisi C = PGCD(ai ), alors chaque amplitude ai


est un multiple de C. On a alors :

ai = ki × C, avec ki un entier

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Pour construire le polygone des fréquences, on considère


chaque rectangle de l’histogramme, de base ai = xi − xi−1 ,
comme une réunion de ki sous-rectangles de même base C.

Puis, on trace les milieux des côtés supérieurs des


sous-rectangles de base C et on joint ces milieux
successivement par des segments de droites.

Les extrémités du polygone rejoignent l’axe des abscisses.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Polygone des fréquences : amplitudes différentes.

15
Effectif corrigé hi
(C=4)

10

0 Taille
151 155 159 163 167 171

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Remarque

L’aire des rectangles de l’histogramme est égale à l’aire


délimité par le polygone des fréquences.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

15 15
Effectif ni Effectif corrigé hi
(C=4)

10 10

5 5

0 0
151 155 159 163 167 171 Taille 151 155 159 163 167 171 Taille

Figure: La surface est conservée.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

C.2) Courbe cumulative - Fonction de répartition :

Comme pour le cas discret, on définit pour un caractère


continu une fonction de répartition à partir des effectifs
cumulés ou à partir des fréquences cumulées :

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

On définit la fonction de répartition des effectifs, notée G,


définie de IR vers [0, N], par :
∀ x ∈ IR, G(x) est égale au nombre des individus de la
population pour lesquels la valeur du caractère est
inférieure ou égale à x (G(x) = effectif cumulé de x).
On définit la fonction de répartition des fréquences, notée
F , définie de IR vers [0, 1], par :
∀ x ∈ IR, F (x) est égale à la proportion des individus de
la population pour lesquels la valeur du caractère est
inférieure ou égale à x. (F (x) = fréquence cumulé de x)
G(x)
On a : F (x) = N

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Remarque
Par définition, on a :

G(xi ) = Ni , pour 1 ≤ i ≤ k

F (xi ) = Fi , pour 1 ≤ i ≤ k
G(x0 ) = F (x0 ) = 0
avec Ni (resp. Fi ) est l’effectif cumulé (resp. la fréquence
cumulée) de la classe [xi−1 , xi [.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

L’hypothèse d’équirépartition des données à l’intérieur de


chaque classe implique que la fonction de répartition est
linéaire à l’intérieur de chaque classe.
Ainsi, la fonction de répartition des effectifs G(x) et la
fonction de répartition des fréquences F (x) sont définies
par :

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données


 0
 si x ≤ x0
G(xi )−G(xi−1 )
G(x) = G(xi−1 ) + xi −xi−1 (x − xi−1 ) si xi−1 ≤ x ≤ xi , 1 ≤ i ≤

 N si x ≥ xk


 0
 si x ≤ x0
F (xi )−F (xi−1 )
F (x) = F (xi−1 ) + xi −xi−1 (x − xi−1 ) si xi−1 ≤ x ≤ xi , 1 ≤ i ≤

 1 si x ≥ xk

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

La courbe cumulative est la représentation graphique de la


fonction de répartition G(x) ou F (x).

Exemple3 : Taille des femmes enceintes

Taille Effectif Eff. cum. Fréq. cum.


ni Ni Fi
[151; 155[ 10 10 0.2
[155; 159[ 12 22 0.44
[159; 163[ 11 33 0.66
[163; 167[ 7 40 0.8
[167; 171[ 10 50 1
Total 50

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Effectif cumulé (G(x)) Fréquence cumulée (F(x))


N= 50 1

40 0.8

30 0.6

20 0.4

10 0.2

0 0
151 155 159 163 167 171 Taille 151 155 159 163 167 171 Taille

Figure: Courbe cumulative.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Remarque
La courbe cumulative est construite en joignant
successivement, par des segments de droites, les points
de coordonnées (xi , G(xi )) (ou (xi , F (xi ))), 0 ≤ i ≤ k .
Aux points extrêmes x0 et xk , la courbe est
horizontalement prolongée respectivement vers la gauche
et vers la droite.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II.1- Tableaux statistiques
II- Organisation des données
II.2- Representations graphiques
III- Réduction des données

Remarque
F (x) (resp. G(x)) est une fonction continue, croissante et
linéaire par morceaux.
Si X est un caractère continu, alors on a :
Pr (X ≤ a) = Pr (X < a) = F (a), (avec Pr =proportion)
La proportion des individus tel que X ≤ a est égale à la
proportion des individus tel que X < a. Ainsi, pour un
caractère continu, les inégalités large et les inégalités
strictes sont confondues.
On en déduit :
Pr (X > a) = Pr (X ≥ a) = 1 − F (a)
Pr (a ≤ X ≤ b) = Pr (a < X < b) = F (b) − F (a)
Pr (X = a) = 0

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II- Organisation des données
III- Réduction des données

III- Réduction des données


statistiques

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Définitions et notations
II- Organisation des données
III- Réduction des données

Les tableaux statistiques et les représentations


graphiques présentent une information globale et détaillée
de la distribution d’un caractère.
Cependant, il est souvent très utile de chercher à réduire
l’information globale par des paramètres (ou indicateurs)
qui résument les caractéristiques essentielles de la
distribution et indiquent comment les valeurs de la série
se répartissent autour de ces paramètres.
Dans la suite, on va définir et interpréter les différents
types de paramètres les plus fréquemment utilisés en
statistique descriptive.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

III.1- Paramètres de tendance


centrale

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Les paramètres de tendance centrale permettent de savoir


autour de quelles valeurs, situées au centre, se répartissent
les données d’une série statistique.

Dans ce paragraphe, on va définir trois paramètres de


tendance centrale, fréquemment utilisés : la moyenne, le
mode et la médiane.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

1- La moyenne

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Définition
Soient P une population de taille N, X un caractère quantitatif
et x(1) , x(2) , . . . , x(N) la série statistique brute associée à X
(ces valeurs ne sont pas nécessairement toutes distinctes).

La moyenne arithmétique du caractère X , notée X , qu’on


appelle tout simplement moyenne, est égale à la somme de
toutes les valeurs observées divisée par le nombre de ces
valeurs :
N
1X
X = x(i)
N
i=1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Détermination pratique (à partir tableau statistique) :

a. Cas d’un caractère discret :

Soit {(xi , ni )1≤i≤k } une distribution statistique discrète. On a :

k k
1X X
X = ni xi = fi xi
N
i=1 i=1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Exemple
Considérons l’exemple 2 (Nombre d’enfants par famille) :

Les calculs peuvent être résumés dans le tableau suivant :

xi 0 1 2 3 4 5 6 7 8 Total
ni 4 10 12 8 5 4 4 2 1 50
ni × xi 0 10 24 24 20 20 24 14 8 144

Donc
144
X = = 2.88
50

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

b. Cas d’un caractère continu :

Soit {([xi−1 , xi [, ni )1≤i≤k } une distribution statistique continue.

En raison de l’hypothèse d’équi-répartition à l’intérieur des


classes, on suppose que la moyenne des observations à
l’intérieur d’une classe [xi−1 , xi [ est égale au centre de la
x + xi
classe ci = i−1 .
2

On a alors :
k k
1X X
X = ni ci = fi ci
N
i=1 i=1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Exemple
Considérons l’exemple 3 (Taille d’un groupe de femmes).

Les calculs peuvent être résumés dans le tableau suivant :


[xi ; xi+1 [ ni ci ni × ci
[151; 155[ 10 153 1530
[155; 159[ 12 157 1884
[159; 163[ 11 161 1771
[163; 167[ 7 165 1155
[167; 171[ 10 169 1690
Total 50 8030
Donc la taille moyenne est :
8030
X = = 160.6 cm
50

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Propriétés :
Soient X une variable statistique, a et b deux constantes
réelles. Si on pose le changement de variables affine
Y = aX + b, alors on a :

Y = aX + b

Si une population de taille N est composée de m


sous-populations de tailles respectives N1 , N2 , . . . , Nm et
de moyennes respectives X 1 , X 2 , . . . , X m . Alors la
moyenne X de la population globale est donnée par :
m
1X
X = Ni X i
N
i=1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Si X et Y sont deux variables statistiques définies sur une


même population, alors on a :

X +Y =X +Y

Soient X une variable statistique et ϕ une fonction réelle.


Si on pose le changement de variables Y = ϕ(X ), alors
on a :
k
1X
Y = ni ϕ(xi )
N
i=1

les xi représentent les valeurs des modalités dans le cas


discret ou les centres des classes dans le cas continu.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

2- Le mode

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Définition
Le mode d’une variable statistique X , noté Mo (X ), est la valeur
du caractère qui admet le plus grand effectif (ou la plus grande
fréquence).

C’est la valeur du caractère la plus fréquente.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Remarque :
Le mode peut être calculé pour tous les types de
caractère.
Une distribution statistique peut avoir plusieurs modes.
Pour un caractère continu, le mode appartient à la classe
modale qui correspond à l’effectif corrigé le plus élevé.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Détermination pratique :

a. Caractère qualitatif ou quantitatif discret :


Dans ce cas, le mode s’obtient facilement à partir du tableau
statistique :
Considérons l’exemple1 : Etat mécanique des voitures.
Etat Effectif Fréquence
Mécanique ni fi
Mauvais 7 0.1
Moyen 17 0.24
Bon 32 0.46
Excellent 14 0.2
Total 70 1
”Bon” est la modalité qui admet le plus grand effectif. Donc, le
mode est Mo =Bon état.
1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Considérons l’exemple2 (Nombre d’enfants par famille) :

Nombre d’enfants 0 1 2 3 4 5 6 7 8 Total


Effectif ni 4 10 12 8 5 4 4 2 1 50

L’effectif le plus élevé est n3 = 12. Il correspond à la modalité


x3 = 2. Donc, le mode de cette distribution statistique est
Mo = 2 enfants.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

c. Cas d’un caractère continu :

Dans ce cas, on définit d’abord la classe modale qui


correspond à l’effectif corrigé le plus élevé ou la fréquence
corrigée la plus élevé.
La classe modale correspond donc à la classe dont le
rectangle sur l’histogramme a la hauteur la plus élevée.

Si on note [xi ; xi+1 [ la classe modale, alors on détermine la


valeur du mode Mo en tenant compte des deux classes
adjacentes à la classe modale par la méthode suivante :

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Histogramme

Effectif corrigé
Classe modale

hi


1

2
h
i−1
hi+1

xi xi+1 x
Mo

On a :
Mo − xi x − Mo
= i+1
∆1 ∆2
1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

D’où :
∆1
Mo = xi + (xi+1 − xi )
∆1 + ∆ 2
avec
∆1 = hi − hi−1
∆2 = hi − hi+1
hi = effectif corrigé de la classe modale [xi ; xi+1 [
hi−1 = effectif corrigé de la classe adjacente [xi−1 ; xi [
hi+1 = effectif corrigé de la classe adjacente [xi+1 ; xi+2 [.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Exemple
Considérons l’exemple3 (Taille des femmes enceintes) :

Taille Effectif
(en cm) ni
[151; 155[ 10
[155; 159[ 12
[159; 163[ 11
[163; 167[ 7
[167; 171[ 10
Total 50

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Pour cet exemple, toutes les classes ont la même amplitude.


Donc, on a : hi = ni .

La classe modale est : [155; 159[.


Et on a :
∆1 = 12 − 10 = 2
∆2 = 12 − 11 = 1
d’où
2
Mo = 155 + 4 × = 157.66 cm
2+1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Considérons l’exemple3 avec des classes qui n’ont pas la


même amplitude :

Taille Effectif
(en cm) ni
[151; 155[ 10
[155; 159[ 12
[159; 167[ 18
[167; 171[ 10
Total 50

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Les classes n’ont pas la même amplitude. Donc, on a : hi 6= ni .

Taille Effectif Amplitude Eff. corrigé


(en cm) ni ai (en cm) hi
[151; 155[ 10 4 10
[155; 159[ 12 4 12
[159; 167[ 18 8 9
[167; 171[ 10 4 10
Total 50

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

La classe modale est [155; 159[ (c’est la classe qui admet le


plus grand effectif corrigé). On a :

∆1 = 12 − 10 = 2

∆2 = 12 − 9 = 3
Donc
2
Mo = 155 + 4 ×
2+3
Le mode de cette distribution est donc :

Mo = 156.6 cm

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Détermination graphique du mode :


On peut déterminer le mode graphiquement par une lecture
sur l’histogramme.
15
Effectif corrigé hi
(C=4)

10

0
151 155 Mo 159 163 167 171 Taille

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

3- La médiane

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Définition
La médiane d’une variable statistique X , notée Me (X ), est la
valeur centrale du caractère qui partage la population en deux
groupes de même effectif :
50% de la population ont des valeurs du caractère ≤ Me et
50% de la population ont des valeurs du caractère ≥ Me .

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Remarque
Cette définition n’a de sens que si les valeurs de la
distribution statistique sont ordonnées par ordre croissant.
N 1
Me doit vérifier G(Me ) = ou F (Me ) = .
2 2

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Détermination pratique :

a. Cas d’un caractère discret :


Soit {(xi , ni )1≤i≤k } une distribution statistique discrète
ordonnée : x1 < x2 < · · · < xk et soient N1 , N2 , . . . , Nk les
effectifs cumulés correspondants.
On a par définition Ni = G(xi ).

Dans le cas discret, la fonction de répartition G(x) n’est pas


continue (fonction en escalier). Donc, il n’existe pas, en
général, une valeur unique Me telle que G(Me ) = N/2.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Ainsi, on distingue deux cas :


N
1er cas : Si ne coı̈ncide avec aucune valeur Ni dans le
2
N
tableau, alors G(x) = n’admet pas de solution.
2
Dans ce cas, on considère que la médiane est la plus
petite modalité du caractère pour laquelle l’effectif cumulé
N
dépasse .
2
N
Ainsi, si on a Ni−1 < < Ni alors on considère :
2
Me = xi

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

N
2ème cas : Si coı̈ncide avec une valeur Ni , alors toute
2
valeur x comprise entre xi et xi+1 vérifie la définition de la
N
médiane G(x) = .
2
Dans ce cas, on prend la médiane égale à la valeur
centrale entre les deux modalités xi et xi+1 .
N
Ainsi, si on a = Ni alors on considère :
2
1
Me = (xi + xi+1 )
2

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Remarque

Dans le premier cas, la valeur choisie pour la médiane ne


vérifie pas la définition initiale. On l’interprète alors en
disant que : au moins 50% de la population ont des
valeurs ≤ Me et au moins 50% de la population ont des
valeurs ≥ Me .
Dans le deuxième cas, la valeur choisie pour la médiane
vérifie la définition initiale. On dit alors que : exactement
50% de la population ont des valeurs ≤ Me et
exactement 50% de la population ont des valeurs ≥ Me .

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Exemple
Considérons l’exemple2 (Nombre d’enfants par famille) :

Nbr d’enfants 0 1 2 3 4 5 6 7 8 Total


Effectif ni 4 10 12 8 5 4 4 2 1 50
Eff. Cum. Ni 4 14 26 34 39 43 47 49 50

N
On a = 25 ne coı̈ncide avec aucun effectif cumulé.
2
On a 2 est la plus petite modalité pour laquelle l’effectif cumulé
N
dépasse .
2
Donc la médiane de cette distribution statistique est Me = 2
enfants.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Interprétation :
Plus de 50% des familles (26 familles) ont le nombre d’enfants
≤ 2 et plus de 50% des familles (36 familles) ont le nombre
d’enfants ≥ 2.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Remarque :
On a le même raisonement avec les fréquences cumulées :
Si Fi−1 < 0.5 < Fi , alors la médiane est la modalité de
fréquence cumulée Fi :

Me = xi
1
Si = Fi , alors la médiane est la valeur centrale entre les
2
deux modalités de fréquences cumulées respectives Fi et
Fi+1 :
1
Me = (xi + xi+1 )
2

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Détermination graphique de la médiane : On peut déterminer


la médiane graphiquement par une lecture sur le diagramme
en escalier.
G(x)
N= 50

40

30
N/2

20

10

0 x
0 1 2 3 4 5 6 7 8

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

b. Cas d’un caractère continu :


Soit {([xi−1 ; xi [, ni )1≤i≤k } une distribution statistique continue
et soient N1 , N2 , . . . , Nk les effectifs cumulés correspondants.
On a :
Ni = G(xi ), pour 1 ≤ i ≤ k , G(x0 ) = 0

La fonction de répartition G(x) est continue et croissante.


N
Donc, il existe une valeur unique Me telle que G(Me ) = .
2

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Pour déterminer la médiane Me , on commence d’abord par


chercher la classe médiane : C’est la première classe pour
N
laquelle l’effectif cumulé est ≥ .
2
Si on note [xi−1 ; xi [ la classe médiane, on détermine la valeur
de la médiane Me ∈ [xi−1 ; xi [ par interpolation linéaire (en
tenant compte de l’hypothèse d’équirépartition à l’intérieur des
classes).

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

On a :
N
Me ∈ [xi−1 ; xi [ ⇔ Ni−1 ≤ < Ni
2
et on a :
Me − xi−1 N/2 − Ni−1
=
xi − xi−1 Ni − Ni−1
D’où
N/2 − Ni−1
Me = xi + (xi − xi−1 )
Ni − Ni−1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Remarque

On peut faire le même raisonement avec les fréquences


cumulées :
La classe médiane est la première classe pour laquelle la
1
fréquence cumulée est ≥ .
2

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

On a :
1
Me ∈ [xi−1 ; xi [ ⇔ Fi−1 ≤ < Fi
2
et on a :
Me − xi−1 1/2 − Fi−1
=
xi − xi−1 Fi − Fi
D’où
1/2 − Fi−1
Me = xi−1 + (xi − xi−1 )
Fi − Fi−1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Exemple
Considérons l’exemple3 (Taille des femmes enceintes) :

Taille Effectif Eff. cum. Fréquence Fréq. cum.


(en cm) ni Ni fi Fi
[151; 155[ 10 10 0.2 0.2
[155; 159[ 12 22 0.24 0.44
[159; 163[ 11 33 0.22 0.66
[163; 167[ 7 40 0.14 0.8
[167; 171[ 10 50 0.2 1
Total 50 1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

N N
On a = 25. Donc on a 22 ≤ ≤ 33 et par conséquent, la
2 2
classe médiane est :

Me ∈ [159, 163[

D’où
25 − 22
Me = 159 + (163 − 159) = 160.09 cm
33 − 22

Interprétation : 50 % des femmes ont une taille ≤ 160.09 cm


et 50 % des femmes ont une taille ≥ 160.09 cm.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale 1- La moyenne
III.2- Paramètres de position 2- Le mode
III.3- Paramètres de dispersion 3- La médiane

Détermination graphique :

50

40

30
N/2

20

10

0
151 155 159 163 167 171
M
e

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

III.2- Paramètres de position

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

Définition
Un paramètre de position d’ordre p (0 < p < 1) d’une variable
statistique X , noté Zp , (appelé aussi quantile ou fractile d’ordre
p), est la valeur du caractère qui permet de partager la
population de taille N en deux groupes de tailles respectives
p × N et (1 − p) × N et telle que :

Le premier groupe est formé des individus qui ont des valeurs
du caractère ≤ Zp et le deuxième groupe est formé des
individus qui ont des valeurs du caractère ≥ Zp .

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

Remarque
Cette définition n’a de sens que si les valeurs de la
distribution statistique sont ordonnées par ordre croissant.
Zp doit vérifier G(Zp ) = p × N ou F (Zp ) = p.

Dans la suite de ce paragraphe, on va définir les paramètres


de position les plus fréquemment utilisés qui sont les quartiles,
les déciles et les centiles.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

1. Les quartiles
Définition
Les quartiles sont définis comme étant les trois paramètres de
position, notés Q1 , Q2 , Q3 , d’ordre resectifs 0.25, 0.5, 0.75,
qui permettent de diviser la population en quatre groupes de
même effectif (contenant chacun 25% des individus).

On a :
Q1 = Z0.25 , Q2 = Z0.5 , Q3 = Z0.75

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

Remarque
25% de la population ont des valeurs ≤ Q1 et 75% de la
population ont des valeurs ≥ Q1 .
75% de la population ont des valeurs ≤ Q3 et 25% de la
population ont des valeurs ≥ Q3 .
25% de la population ont des valeurs comprises entre Q1
et Q2 et 25% de la population ont des valeurs comprises
entre Q2 et Q3
Le 2ème quartile Q2 coı̈ncide donc avec la médiane Me .

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

2. Les déciles
Définition
Les déciles sont définis comme étant les 9 paramètres de
position, notés D1 , D2 , . . . , D9 , d’ordre resectifs
0.1, 0.2, . . . , 0.9, qui permettent de diviser la population en
dix groupes de même effectif (contenant chacun 10% des
individus).

On a :
D1 = Z0.1 , D2 = Z0.2 , ..., D9 = Z0.9

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

3. Les centiles
Définition
Les centiles sont définis comme étant les 99 paramètres de
position, notés C1 , C2 , . . . , D99 , d’ordre resectifs
0.01, 0.02, . . . , 0.99, qui permettent de diviser la population
en cent groupes de même effectif (contenant chacun 1% des
individus).

On a :

C1 = Z0.01 , C2 = Z0.02 , ..., C99 = Z0.99

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

Remarque
Entre deux déciles consécutifs, il y a 10% des individus de
la population.
Entre deux centiles consécutifs, il y a 1% des individus de
la population.
On a : Q2 = D5 = C50 = Me .

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

Détermination pratique :

Le calcul et l’interprétation d’un paramètre de position d’ordre


p se font de manière similaire que pour la médiane.

a. Cas d’un caractère discret :

Comme pour la médiane, il n’existe pas, en général, une


valeur Zp telle que G(Zp ) = p × N (ou F (Zp ) = p).

On distingue alors deux cas :

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

1er cas : Si p × N ne coı̈ncide avec aucune valeur Ni


dans le tableau, alors G(x) = p × N n’admet pas de
solution.
Dans ce cas, on considère que Zp est la plus petite
modalité du caractère pour laquelle l’effectif cumulé
dépasse p × N.
Ainsi, si on a Ni−1 < p × N < Ni alors on considère :

Zp = xi

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

2ème cas : Si p × N coı̈ncide avec une valeur Ni , alors


toute valeur x comprise entre xi et xi+1 vérifie la relation
G(x) = p × N.
Dans ce cas, on prend Zp égale à la valeur centrale entre
les deux modalités xi et xi+1 .
Ainsi, si on a p × N = Ni alors on considère :

1
Zp = (xi + xi+1 )
2

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

Remarque

Dans le premier cas, la valeur choisie pour Zp ne vérifie


pas la définition initiale.
On l’interprète alors en disant que : au moins (100 × p)%
de la population ont des valeurs ≤ Zp et au moins
(100 × (1 − p))% de la population ont des valeurs ≥ Zp .
Dans le deuxième cas, la valeur choisie pour Zp vérifie la
définition initiale.
On dit alors que : exactement (100 × p)% de la
population ont des valeurs ≤ Zp et exactement
(100 × (1 − p))% de la population ont des valeurs ≥ Zp .

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

En résumé,
Si Ni−1 < p × N < Ni , alors on prend Zp égal à la modalité
d’effectif cumulé Ni :
Zp = xi
Si p × N = Ni , alors on prend Zp égal à la valeur milieu
entre les deux modalités d’effectifs cumulés respectifs Ni
et Ni+1 :
1
Zp = (xi + xi+1 )
2

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

Exemple
Considérons l’exemple 2 (Nombre d’enfants par famille) :

Nombre Effectif Eff. cum.


d’enfants ni Ni
0 4 4
1 10 14
2 12 26
3 8 34
4 5 39
5 4 43
6 4 47
7 2 49
8 1 50

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

Q1 = Z0.25 = 1, (4 < p × N < 14)

Me = Q2 = Z0.5 = 2, (14 < p × N < 26)

Q3 = Z0.75 = 4, (34 < p × N < 39)

D1 = Z0.1 = 1, (4 < p × N < 14)

C1 = Z0.01 = 0, (0 < p × N < 4)

(0 + 1)
C8 = Z0.08 = = 0.5, (p × N = 4)
2

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

Interprétation :

Au moins 25 % des familles ont un nombre d’enfants ≤ 1 et au


moins 75% des familles ont un nombre d’enfants ≥ 1.

8% des familles ont un nombre d’enfants < 0.5 et 92 % des


familles ont un nombre d’enfants > 0.5.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

Remarque
On a le même raisonement avec les fréquences cumulées :
Si Fi−1 < p < Fi , alors

Zp = xi

Si p = Fi , alors
1
Zp = (xi + xi+1 )
2

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

Détermination graphique :

G(x)
N= 50

40
3N/4
0.68N
30
N/2

20

N/4
10

0 x
0 1 2 3C 4 5 6 7 8
68
Q1 Me Q3

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

b. Cas d’un caractère continu :

Comme pour la médiane, on commence d’abord par chercher


la classe qui contient le paramètre Zp . C’est la première classe
pour laquelle l’effectif cumulé dépasse p × N (ou la fréquence
cumulée dépasse p). On a :

Zp ∈ [xi−1 , xi [ ⇔ Ni−1 ≤ p × N < Ni

La valeur de Zp s’obtient ensuite par interpolation linéaire :

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

On a :
Zp − xi−1 p × N − Ni−1
=
xi − xi−1 Ni − Ni−1
D’où
p × N − Ni−1
Zp = xi−1 + (xi − xi−1 )
Ni − Ni−1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

Remarque

On peut faire le même raisonement avec les fréquences


cumulées :
On a :
Zp ∈ [xi−1 ; xi [ ⇔ Fi−1 ≤ p < Fi
et on a :
Zp − xi−1 p − Fi−1
=
xi − xi−1 Fi − Fi
D’où
p − Fi−1
Zp = xi−1 + (xi − xi−1 )
Fi − Fi−1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

Exemple
Considérons l’exemple3 (Taille des femmes enceintes) :

Taille Effectif Eff. cum. Fréquence Fréq. cum.


(en cm) ni Ni fi Fi
[151; 155[ 10 10 0.2 0.2
[155; 159[ 12 22 0.24 0.44
[159; 163[ 11 33 0.22 0.66
[163; 167[ 7 40 0.14 0.8
[167; 171[ 10 50 0.2 1
Total 50 1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

5−0
D1 = 151 + 4 = 153 cm
10 − 0
12.5 − 10
Q1 = 155 + 4 = 155.83 cm
22 − 10
37.5 − 33
Q3 = 163 + 4 = 165.57 cm
40 − 33
45 − 40
D9 = 167 + 4 = 169 cm
50 − 45

Interprétation : 10 % des étudiants ont une taille ≤ 153 cm et


90 % des étudiants ont une taille ≥ 153 cm.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

Détermination graphique :

50
0.9×N

40
0.75×N

30

20

0.25×N
10
0.1×N

0
151 D 155 Q 159 163 Q 167
1 1 3
D 171 9

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

Remarque : Symétrie d’une distribution statistique


On a :
Mo = Me = X si et seulement si la distribution est
symétrique

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
III.1- Paramètres de tendance centrale
III.2- Paramètres de position
III.3- Paramètres de dispersion

Remarque : Valeurs aberrantes


En utilisant les quartiles Q1 et Q3 , on peut détecter si il
existe des valeurs aberrantes dans une série statistique.
Pour cela, on calcule les deux limites suivantes :

Linf = Q1 − 1.5 × (Q3 − Q1 )

Lsup = Q3 + 1.5 × (Q3 − Q1 )


Toute valeur qui ne se trouve pas entre ces deux limites
est jugée aberrante.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

III.3- Paramètres de dispersion

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

Les paramètres de tendance centrale et de position ne


donnent pas une information complète sur une distribution
statistique.

Deux distributions statistiques peuvent avoir les mêmes


paramètres de tendance centrale ou de position, mais cela ne
permet pas de conclure à une similitude entre ces deux
distibutions.

Ces dernières peuvent présenter des des dispersions très


différentes autour de ces mesures centrales.

On va définir quelques paramètres pour mesurer la dispersion.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

1- L’étendue

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

Définition
L’étendue d’un caractère statistique X , noté ∆X , est la
différence entre la plus grande valeur et la plus petite valeur
observées :
∆X = Max(X ) − Min(X )

Ce paramètre présente un intérêt très limité du fait qu’il


dépend uniquement des valeurs extrêmes, qui peuvent être
des valeurs aberrantes.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

2- L’étendue interquanrtiles

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

Définition
A partir des quartiles Q1 et Q3 , on peut définir un paramètre de
dispersion, noté ∆Q, appelé étendue interquartiles, défini par :

∆Q = Q3 − Q1

Le calcul de l’étendue interquartiles a l’avantage d’éviter


les valeurs extrêmes.
Plus l’intervalle interquartiles est large, plus la série est
dispersée.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

3- Ecart absolu moyen

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

Définition
L’écart absolu moyen d’un caractère statistique X , noté Em (X ),
est la moyenne arithmétique des valeurs absolues des écarts
à la moyenne :
k k
1X X
Em (X ) = |X − X | = ni |xi − X | = fi |xi − X |
N
i=1 i=1

Ce paramètre est peu maniable à cause des valeurs


absolues.
les xi représentent les modalités dans le cas discret ou
les centres des classes dans le cas continu.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

4- Variance, Ecart-type

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

Définition
La variance d’un caractère statistique X , notée V (X ), est la
moyenne arithmétique des carrés des écarts à la moyenne :
k k
1X X
V (X ) = (X − X )2 = ni (xi − X )2 = fi (xi − X )2
N
i=1 i=1

les xi représentent les modalités dans le cas discret ou les


centres des classes dans le cas continu.
Définition
L’écart-type, noté σ(X ), est la racine carrée de la variance :
p
σ(X ) = V (X )

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

Formule simplifiée de la variance :


Proposition
Pour calculer la variance, on peut utiliser la formule simplifiée
suivante :
k k
1X2 2 2 X 2
V (X ) = X2 −X = ni xi − X = fi xi2 − X
N
i=1 i=1

On dit que la variance est égale à la différence entre la


moyenne des carrées et le carré de la moyenne.

les xi représentent les modalités dans le cas discret ou les


centres des classes dans le cas continu.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

Remarque
l’écart-type est le meilleur indicateur de la dispersion
d’une distribution statistique par rapport à sa moyenne.
Elle tient compte de toutes les valeurs de la série
statistique.

plus l’écart-type est faible, plus les valeurs du caractère


sont concentrées autour de la moyenne et plus
l’écart-type est élevé, plus les valeurs du caractère sont
dispersées autour de la moyenne.

l’écart-type est nulle si et seulement si toutes les valeurs


sont identiques et égales à la moyenne.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

Propriétés

Si on pose Y = aX + b avec a et b deux constantes réelles,


alors on a :

V (Y ) = a2 V (X )

σ(Y ) = |a|σ(X )

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

Exemple Considérons l’exemple 3 (Taille d’un groupe de


femmes) :
Les calculs peuvent être résumés dans le tableau suivant :

[xi−1 ; xi [ ni ci ni × ci ni × ci2
[151; 155[ 10 153 1530 234090
[155; 159[ 12 157 1884 295788
[159; 163[ 11 161 1771 285131
[163; 167[ 7 165 1155 190575
[167; 171[ 10 169 1690 285610
Total 50 8030 1291194

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

Donc, on a :
8030
X = = 160.6 cm
50
1291194
X2 = = 25823.88
50
D’où
V (X ) = 25823.88 − 160.62 = 31, 52
p
σ(X ) = 31, 52 ' 5.61 cm

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

Remarque : Dispersion relative

La dispersion mesurée avec les paramètres présentés


précédemment est qualifiée d’absolue et elle s’exprime dans
l’unité de mesure du caractère.

Pour comparer la dispersion de deux distributions statistiques


ayant des unités différentes ou des ordres de grandeur
différents, il est nécessaire de considérer des mesures de
dispersion relative (valeurs sans unité).

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

5- Coefficient de variation

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

Définition
Le coefficient de variation d’une variable statistique X , noté
Cv (X ), est défini par :

σ(X )
Cv (X ) =
X

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

Remarque

Ce paramètre (nombre sans unité) qu’on peut exprimer en


pourcentage, permet de comparer les dispersion (ou
l’homogénéité) d’un ou de plusieurs caractères sur une ou
plusieurs populations.

Plus ce paramètre de dispersion relative est élevé , plus la


dispersion autour de la moyenne est élevée et plus
l’homogénéité est faible.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

Exemple

On a mesuré le poids et la taille d’un échantillon de 50


hommes adultes. les résultats sont résumés dans le tableau
suivant :
Variable Moyenne Exart-type
X =taille 173.59 cm 13.86 cm
Y =poids 78,42 kg 11,98 kg

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

Pour comparer l’homogénéité de ces deux variables, on


calcule leur coefficient de variation :

13.86
Cv (X ) = = 0.0798 = 7.98%
173.59
11.98
Cv (Y ) = = 0.1528 = 15.28%
78.42
Donc la taille des hommes adultes est moins dispersée (plus
homogène) que leur poids.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

Fin chapitre 1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

Exercice 1
L’observation de la consommation énergétique quotidienne (en
kwh) dans un local commercial durant une année a donné les
résultats suivants :

Consommation [8, 10[ [10, 14[ [14, 16[ [16, 20[ [20, 24[
Effectif 55 60 80 120 50

1 Préciser la population étudiée, le caractère étudié et sa


nature.
2 Calculer la proportion des jours dont la consommation est
comprise entre 11 et 22 kwh.
3 Tracer les diagrammes qui permettent de représenter
cette distribution statistique.
4 Calculer le mode, la médiane, la moyenne et l’écart-type.
1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

Exercice 2
La distribution conjointe d’un groupe d’étudiants selon la note
obtenue en module de statistique (caractère X ) et le nombre
d’absence (caractère Y ) est représentée dans le tableau
suivant :

Y 0 1 2 3 4
X
[0, 6[ 0 4 3 8 12
[6, 10[ 3 7 10 12 18
[10, 12[ 6 8 9 8 7
[12, 14[ 7 6 5 3 2
[14, 16[ 8 3 2 0 0
[16, 20[ 9 4 1 0 0

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
1- L’étendue
III.1- Paramètres de tendance centrale
2- L’étendue interquartiles
III.2- Paramètres de position
3- Ecart absolu moyen
III.3- Paramètres de dispersion
4- Variance, Ecart-type

1 Déterminer les distributions marginales et leur natures.


2 Quelle est la proportion des étudiants :
a) ayant validé le module de statistique (note ≥ 10) ?
b) ayant un rattrapage (note comprise entre 5 et 10) ?
c) ayant validé le module et ayant 4 absences ?
3 Les variables X et Y sont-elles indépendantes ?
4 Calculer le mode, la médiane, la moyenne et l’écart type
des distributions marginales.
5 Calculer la covariance du couple (X , Y ).
6 Calculer le coefficient de corrélation linéaire.
7 Déterminer les droites d’ajustement linéaire.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 1 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence
II- Paramètres statistiques
III- Ajustement linéaire

Chapitre 2

Statistique descriptive à deux


dimensions

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence
II- Paramètres statistiques
III- Ajustement linéaire

Introduction

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence
II- Paramètres statistiques
III- Ajustement linéaire

Très souvent, on peut envisager pour une même population


l’étude de deux caractères considérés simultanément.

Exemple :
- Notes de Mathématique et notes de Physique d’un groupe
d’étudiants.

- Nombre d’années d’ancienneté et revenus mensuels des


employés d’une entreprise.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence
II- Paramètres statistiques
III- Ajustement linéaire

Objectifs de ce chapitre :
Étendre les notions de la statistique descriptive à une
dimension au cas d’un couple de caractères (deux
dimensions).
Déterminer s’il y a une dépendance linéaire entre les deux
caractères.
Déterminer l’équation de cette dépendance éventuelle.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence
II- Paramètres statistiques
III- Ajustement linéaire

Notations et définitions

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence
II- Paramètres statistiques
III- Ajustement linéaire

Désignons par X et Y les deux caractères qu’on veut étudier


sur une population P de taille N.

A chaque individu est associé un couple de valeurs, noté


(x(i) , y(i) ).

La suite des couples (x(1) , y(1) ), (x(2) , y(2) ), . . . , (x(N) , y(N) ) est
appelée série statistique brute associée au couple (X , Y ).

Ces valeurs ne sont pas nécessairement toutes distinctes.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence
II- Paramètres statistiques
III- Ajustement linéaire

Les modalités de X (valeurs distinctes) sont notées :

x1 , x2 , . . . , xk

Les modalités de Y sont notées :

y1 , y2 , . . . , yp

Les valeurs (xi , yj ), 1 ≤ i ≤ k, 1 ≤ j ≤ p, sont appelées


modalités du couple (X , Y ).

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence
II- Paramètres statistiques
III- Ajustement linéaire

On appelle effectif de la modalité (xi , yj ), noté nij , le nombre


d’individus présentant cette modalité. On a :
p
k X
X
nij = N
i=1 j=1

On appelle fréquence de la modalité (xi , yj ), notée fij , la


proportion des individus présentant cette modalité. On a :
p
k X
X
fij = 1
i=1 j=1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence
II- Paramètres statistiques
III- Ajustement linéaire

Remarque
Pour les caractères quantitatifs, on peut procéder à des
groupement en classes pour l’un des caractères ou pour
les deux caractères.

On peut ainsi, définir des distributions doubles


semi-continues (un seul caracère est continu) ou
continues (les deux caractères sont continus).

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence
II- Paramètres statistiques
III- Ajustement linéaire

Remarque
Pour une distribution continue, le groupement en classes
correspond à une perte d’informations par rapport aux
données initiales : On suppose alors que la répartition
des données à l’intérieur des classes est uniforme .

Ainsi, à toute partie A = [a; b] × [c; d] ⊂ [xi−1 ; xi [×[yj−1 ; yj [


correspond un effectif n(A) défini par :

(b − a)(d − c)
n(A) = nij ×
(xi − xi−1 )(yj − yj−1 )

avec nij = effectif de la modalité ([xi−1 ; xi [, [yj−1 ; yj [).

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence
II- Paramètres statistiques
III- Ajustement linéaire

I- Tableau de contingence

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence
II- Paramètres statistiques
III- Ajustement linéaire

Comme en statistique descriptive à une dimension, les


données statistiques relatives à un couple de caractères
(X ,Y ), peuvent être présentées sous forme de distributions
d’effectifs ou de fréquences dans un tableau statistique.

Il s’agit d’un tableau à deux dimensions, appelé tableau de


contingence.

Dans ce tableau, on présente la distribution conjointe du


couple (X , Y ), la distribution marginale de X et la distribution
marginale de Y .

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence
II- Paramètres statistiques
III- Ajustement linéaire

Tableau de contingence avec les effectifs

Y y1 y2 ... yj ... yp Total


X
x1 n11 n12 ... n1j ... n1p n1.
x2 n21 n22 ... n2j ... n2p n2.
.. .. .. .. .. ..
. . . . . .
xi ni1 ni2 ... nij ... nip ni.
.. .. .. .. .. ..
. . . . . .
xk nk1 nk2 ... nkj ... nkp nk.
Total n.1 n.2 ... n.j ... n.p N

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence
II- Paramètres statistiques
III- Ajustement linéaire

- nij = effectif de la modalité (xi , yj ) du couple (X , Y )

- ni. = effectif de la modalité xi de X (∀ la valeur de Y ).

- n.j = effectif de la modalité yj de Y (∀ la valeur de X ).

Les nij sont appelés effectifs conjoints du couple (X , Y ).

Les ni. et n.j sont appelés effectifs marginaux, respectivement


de X et de Y .

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence
II- Paramètres statistiques
III- Ajustement linéaire

On a les relations :
p
X
ni. = nij
j=1

k
X
n.j = nij
i=1
k
X p
X p
k X
X
ni. = n.j = nij = N
i=1 j=1 i=1 j=1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence
II- Paramètres statistiques
III- Ajustement linéaire

Tableau de contingence avec les fréquences


Le tableau des fréquences conjointes et marginales s’obtient
en divisant tous les effectifs par la taille de la poulation N :

Y y1 y2 ... yj ... yp Total


X
x1 f11 f12 ... f1j ... f1p f1.
x2 f21 f22 ... f2j ... f2p f2.
.. .. .. .. .. ..
. . . . . .
xi fi1 fi2 ... fij ... fip fi.
.. .. .. .. .. ..
. . . . . .
xk fk1 fk2 ... fkj ... fkp fk.
Total f.1 f.2 ... f.j ... f.p 1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence
II- Paramètres statistiques
III- Ajustement linéaire

On a :
nij
fij =
N
p
ni. X
fi. = = fij
N
j=1

k
n.j X
f.j = = fij
N
i=1
k
X p
X p
k X
X
fi. = f.j = fij = 1
i=1 j=1 i=1 j=1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence
II- Paramètres statistiques
III- Ajustement linéaire

- fij représente la proportion des individus ayant la modalité


(xi , yj ) du couple (X , Y ).

- fi. représente la proportion des individus ayant la modalité xi


de X (∀ la valeur de Y ).

- f.j représente la proportion des individus ayant la modalité yj


de Y (∀ la valeur de X ).

Les fij sont appelés fréquences conjointes du couple (X , Y ).

Les fi. et f.j sont appelés fréquences marginales,


respectivement de X et de Y .

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence
II- Paramètres statistiques
III- Ajustement linéaire

Définition
La famille {((xi , yj ), nij ), 1 ≤ i ≤ k , 1 ≤ j ≤ p} est appelée
distribution conjointe du couple (X , Y ).
La famille {(xi , ni. ), 1 ≤ i ≤ k} est appelée distribution
marginale de X .
La famille {(yj , n.j ), 1 ≤ j ≤ p} est appelée distribution
marginale de Y .
les xi et yj représentent les valeurs des modalités dans le cas
discret ou les classes dans le cas continu.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence
II- Paramètres statistiques
III- Ajustement linéaire

Exemple
La distribution des notes de mathématique (variable X ) et des
notes de Physique (variable Y ) pour un groupe d’étudiants est
résumée dans le tableau de contingence suivant :

Y [0, 6[ [6, 10[ [10, 20] Total


X
[0, 6[ 18 9 0 27
[6, 10[ 3 21 9 33
[10, 12[ 2 8 77 87
[12, 16[ 0 3 34 37
[16, 20] 0 0 16 16
Total 23 41 136 200

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence
II- Paramètres statistiques
III- Ajustement linéaire

Remarque : Indépendance statistique


Proposition
On a les équivalences suivantes :

Deux variables X et Y sont indépendantes

m
∀ (i, j), fij = fi. × f.j
m
ni. × n.j
∀ (i, j), nij =
N

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence II.1- Paramètres des distributions marginales
II- Paramètres statistiques II.2- Covariance
III- Ajustement linéaire II.3- Coefficient de corrélation linéaire

II- Paramètres statistiques

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence II.1- Paramètres des distributions marginales
II- Paramètres statistiques II.2- Covariance
III- Ajustement linéaire II.3- Coefficient de corrélation linéaire

Pour une distribution double, on peut calculer deux types de


paramètres :
Les paramètres qui caractérisent un seul caractère. Ils
concernent les distributions marginales.
Les paramètres qui décrivent la relation qui existe entre
les deux caractères considérés simultanément. Ils
concernent la distribution conjointe.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence II.1- Paramètres des distributions marginales
II- Paramètres statistiques II.2- Covariance
III- Ajustement linéaire II.3- Coefficient de corrélation linéaire

II.1- Paramètres des


distributions marginales

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence II.1- Paramètres des distributions marginales
II- Paramètres statistiques II.2- Covariance
III- Ajustement linéaire II.3- Coefficient de corrélation linéaire

Les distributions marginales sont des distributions à une seule


dimension.

Elles peuvent être étudiées conformément à ce que nous


avons vu au chapitre 1.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence II.1- Paramètres des distributions marginales
II- Paramètres statistiques II.2- Covariance
III- Ajustement linéaire II.3- Coefficient de corrélation linéaire

Par exemple, les moyennes et variances marginales du couple


(X , Y ) sont définies par :
k
1X
X = ni. xi
N
i=1

p
1X
Y = n.j yj
N
j=1

k k
1X 1X 2
V (X ) = ni. (xi − X )2 = ni. xi2 − X
N N
i=1 i=1
p p
1X 1X 2
V (Y ) = n.j (yj − Y )2 = n.j yj2 − Y
N N
j=1 j=1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence II.1- Paramètres des distributions marginales
II- Paramètres statistiques II.2- Covariance
III- Ajustement linéaire II.3- Coefficient de corrélation linéaire

II.2- Covariance

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence II.1- Paramètres des distributions marginales
II- Paramètres statistiques II.2- Covariance
III- Ajustement linéaire II.3- Coefficient de corrélation linéaire

Définition
La covariance d’un couple de variables (X , Y ), notée
Cov (X , Y ), est égale à la moyenne arithmétique des produits
des écarts aux moyennes marginales X et Y :

Cov (X , Y ) = (X − X )(Y − Y )

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence II.1- Paramètres des distributions marginales
II- Paramètres statistiques II.2- Covariance
III- Ajustement linéaire II.3- Coefficient de corrélation linéaire

Pour calculer la covariance, on peut utiliser la formule


simplifiée suivante :

Cov (X , Y ) = X .Y − X .Y

On dit que la covariance est égale à la différence entre la


moyenne du produit et le produit des moyennes.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence II.1- Paramètres des distributions marginales
II- Paramètres statistiques II.2- Covariance
III- Ajustement linéaire II.3- Coefficient de corrélation linéaire

Calcul pratique de la covariance :


1er Cas : À partir des données individuelles :

Soit (x(1) , y(1) ), (x(2) , y(2) ), . . . , (x(N) , y(N) ) la série


statistique brute associée à (X , Y ) (ces valeurs ne sont
pas nécessairement toutes distinctes). On a :
N
1X
Cov (X , Y ) = (x(i) − X )(y(i) − Y )
N
i=1

ou bien
N
1X
Cov (X , Y ) = x(i) y(i) − X .Y
N
i=1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence II.1- Paramètres des distributions marginales
II- Paramètres statistiques II.2- Covariance
III- Ajustement linéaire II.3- Coefficient de corrélation linéaire

2ème Cas : À partir du tableau de contingence :

Soit {((xi , yj ), nij )1≤i≤k, 1≤j≤p } la distribution statistique


conjointe associée au couple (X , Y ). On a :
k p
1 XX
Cov (X , Y ) = nij (xi − X )(yj − Y )
N
i=1 j=1

ou bien
k p
1 XX
Cov (X , Y ) = nij xi yj − X .Y
N
i=1 j=1

Les xi et yj représentent les modalités dans le cas discret ou


les centres des classes dans le cas continu.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence II.1- Paramètres des distributions marginales
II- Paramètres statistiques II.2- Covariance
III- Ajustement linéaire II.3- Coefficient de corrélation linéaire

Exemple

Y [0, 6[ [6, 10[ [10, 20] Total


X
[0, 6[ 18 9 0 27
[6, 10[ 3 21 9 33
[10, 12[ 2 8 77 87
[12, 16[ 0 3 34 37
[16, 20] 0 0 16 16
Total 23 41 136 200

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence II.1- Paramètres des distributions marginales
II- Paramètres statistiques II.2- Covariance
III- Ajustement linéaire II.3- Coefficient de corrélation linéaire

Les calculs peuvent être résumés dans le tableau suivant :


(xi et yj représentent les centres des classes, les valeurs entre
parenthèse représentent les produits nij xi yj ).

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence II.1- Paramètres des distributions marginales
II- Paramètres statistiques II.2- Covariance
III- Ajustement linéaire II.3- Coefficient de corrélation linéaire

yj 3 8 15 Total ni. xi ni. xi2


xi
3 18 9 0 27 81 243
(162) (216) (0) (378)
8 3 21 9 33 264 2112
(72) (1344) (1080) (2496)
11 2 8 77 87 957 10527
(66) (704) (12705) (13475)
14 0 3 34 37 518 7252
(0) (336) (7140) (7476)
18 0 0 16 16 288 5184
(0) (0) (4320) (4320)
Total 23 41 136 200 2108 25318
(300) (2600) (25245) (28145)
n.j yj 69 328 2040 2437
n y 2 207 2624 30600Module 33431
1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 M147 - MIP Pr. A. FAHSI
I- Tableau de contingence II.1- Paramètres des distributions marginales
II- Paramètres statistiques II.2- Covariance
III- Ajustement linéaire II.3- Coefficient de corrélation linéaire

D’où les résultats :


2108
X = = 10.54
200
2437
Y =
= 12.185
200
25318
V (X ) = − (10.54)2 = 15.4984
200
33431
V (Y ) = − (12.185)2 = 18.6808
200
28145
Cov (X , Y ) = − 10.54 × 12.185 = 12.2951
200

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence II.1- Paramètres des distributions marginales
II- Paramètres statistiques II.2- Covariance
III- Ajustement linéaire II.3- Coefficient de corrélation linéaire

Propriétés :
Si on pose les changements de variables affines
X 0 = aX + b et Y 0 = cY + d, alors on a :
Cov (X 0 , Y 0 ) = ac × Cov (X , Y )
V (X + Y ) = V (X ) + V (Y ) + 2Cov (X , Y )
V (aX + bY ) = a2 V (X ) + b2 V (Y ) + 2ab × Cov (X , Y )
|Cov (X , Y )| ≤ σ(X )σ(Y )

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence II.1- Paramètres des distributions marginales
II- Paramètres statistiques II.2- Covariance
III- Ajustement linéaire II.3- Coefficient de corrélation linéaire

Propriétés :
Si X et Y sont indépandantes alors Cov (X , Y ) = 0. La
réciproque est fausse.
Si Cov (X , Y ) = 0 alors X et Y sont dites linéairement
indépandantes.
Cov (X , Y ) = 0 n’implique pas que X et Y sont
indépandantes (Il peut exister une relation non linéaire
entre les variables X et Y ).
Le signe de Cov (X , Y ) indique le sens de la monotonie
de la liaison entre X et Y (liaison croissante si
Cov (X , Y ) > 0, décroissante si Cov (X , Y ) < 0)

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence II.1- Paramètres des distributions marginales
II- Paramètres statistiques II.2- Covariance
III- Ajustement linéaire II.3- Coefficient de corrélation linéaire

II.3- Coefficient de corrélation


linéaire

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence II.1- Paramètres des distributions marginales
II- Paramètres statistiques II.2- Covariance
III- Ajustement linéaire II.3- Coefficient de corrélation linéaire

Définition
Le coefficient de corrélation linéaire d’un couple de variables
(X , Y ), noté r (X , Y ), est défini par :

Cov (X , Y )
r (X , Y ) =
σ(X )σ(Y )

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence II.1- Paramètres des distributions marginales
II- Paramètres statistiques II.2- Covariance
III- Ajustement linéaire II.3- Coefficient de corrélation linéaire

Propriétés
r (X , Y ) a le même signe que Cov (X , Y )
On a : −1 ≤ r (X , Y ) ≤ 1.
Si X et Y sont indépandantes alors r (X , Y ) = 0. La
réciproque est fausse.
r (X , Y ) nous renseigne sur l’intensité de la dépendance
linéaire entre X et Y :
Plus |r | est proche de 1, plus la dépendance linéaire est
forte et plus |r | est proche de 0, plus la dépendance
linéaire est faible
r (X , Y ) = ±1 ⇔ dépendance linéaire parfaite (les N
points (x(i) , y(i) ) sont alignés).

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

III- Ajustement linéaire

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

L’objectif de cette dernière partie est d’étudier, visualiser et


mesurer les dépendances éventuelles entre deux variables
statistiques X et Y .

On se limitera à l’étude du modèle le plus simple qui peut lier


les deux variables X et Y . C’est le modèle linéaire (ou affine)
qui s’exprime par l’équation d’une droite : Y = aX + b.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

Supposons que les observations des deux caractères X et Y


sont présentées sous forme de N données individuelles :
(x1 , y1 ), (x2 , y2 ), . . . , (xN , yN ).

Ces données peuvent être présentées sous forme d’un


tableau simple de ce type :

Individu 1 2 ... i ... N


Valeur de X x1 x2 ... xi ... xN
Valeur de Y y1 y2 ... yi ... yN

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

III.1- Nuage statistique

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

Pour visualiser la liaison éventuelle qui peut exister entre les


deux variables X et Y , on commence par représenter
graphiquement le nuage statistique (nuage de points) :

A chaque couple (xi , yi ), 1 ≤ i ≤ N, on fait correspondre un


point Mi , de coordonnées (xi , yi ), dans un repère cartésien.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

Exemple
On considère un échantillon de 10 arbres pour chacun
desquels, on a mesuré (en cm) le diamètre (variable X ) et la
hauteur (variable Y ) :

X 15 21 17 22 20 13 19 15 18 23
Y 300 380 330 360 420 290 350 320 360 420

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

400

350

300

250 X
10 15 20

Figure: Nuage de points (xi , yi ).

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

La forme du nuage statistique obtenu peut informer sur le type


de dépendance possible entre X et Y .

Si les points du nuage sont plus ou moins alignés, on peut


envisager une relation linéaire entre X et Y qui peut
s’exprimer par une droite (D) d’équation Y = aX + b.

L’équation de cette droite peut être obtenue en utilisant la


méthode des moindres carrés.

Cette droite s’appelle droite d’ajustement linéaire de Y en


fonction de X ou droite de régression de Y en fonction de X .

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

III.2- Méthode des moindres


carrés

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

Définition
L’ajustement linéaire par la méthode des moindres carrés,
consiste à exprimer l’éventuelle relation linéaire entre X et Y
par une droite (D) d’équation Y = aX + b qui permet de
minimiser les distances entre les points du nuage Mi (xi , yi ) et
les points correspondants sur la droite Hi (xi , axi + b) (voir
Figure 2).
Cela revient à minimiser la somme :
N
X N
X
S= (Mi Hi )2 = (axi + b − yi )2
i=1 i=1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

Y
(D)

M
n

Hn

H2

M
1
M
2
H
1 X

Figure: Fig.2 : Méthode des moindres carrées.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

Théorème
La droite de régression de Y en fonction de X , notée (D), par
la méthode des moindres carrés, a pour équation Y = aX + b
avec :
Cov (X , Y )
a= , b = Y − aX
V (X )

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

En échangeant les rôles de X et de Y nous obtenons la droite


de régression de X en fonction de Y .
Théorème
La droite de régression de X en fonction de Y , notée (D 0 ), a
pour équation X = a0 Y + b0 avec :

Cov (X , Y )
a0 = , b 0 = X − a0 Y
V (Y )

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

Propriétés

Les paramètres a, a0 , Cov (X , Y ) et r (X , Y ) sont de même


signe.
a et a0 sont liés par la relation : aa0 = r 2
Les deux droites de régression (D) et (D 0 ) se coupent au
point moyen G = (X , Y ).

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

Exemple

Reprenons l’exemple précédent :

X 15 21 17 22 20 13 19 15 18 23
Y 300 380 330 360 420 290 350 320 360 420

Le nuage de points correspondant suggère un ajustement


linéaire.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

Pour déterminer les droites de régression (D) et (D 0 ), les


calculs peuvent être résumés dans le tableau suivant :

xi yi xi2 yi2 xi yi
15 300 225 90000 4500
21 380 441 144400 7980
17 330 289 108900 5610
22 360 484 129600 7920
20 420 400 176400 8400
13 290 169 81400 3770
19 350 361 122500 6650
15 320 225 102400 4800
18 360 324 129600 6480
23 420 529 176400 9660
Total 183 3530 3447 1264300 65770

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

On obtient :
N
1X 183
X = xi = = 18.3
N 10
i=1
N
1X 3530
Y = yi = = 353
N 10
i=1
N
1 X 3447
X2 = xi2 = = 344.7
N 10
i=1
N
1 X 2 1264300
Y2 = yi = = 126430
N 10
i=1
N
1X 65770
XY = xi yi =
N 10
i=1

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

D’où
2
V (X ) = X 2 − X = 9.81
2
V (Y ) = Y 2 − Y = 1821
65770
Cov (X , Y ) = XY − X × Y = − 18.3 × 353 = 117.1
10
Donc les valeurs de a et b sont données par :

117.1
a= = 11.9368
9.81
b = 353 − 11.9368 × 18.3 = 134.5566

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

L’équation de la droite d’ajustement de Y en fonction de X est


donnée par :
(D) : Y = 11.94X + 134.56

De même, on obtient l’équation de la droite d’ajustement de X


en fonction de Y :

(D 0 ) : X = 0.064Y − 4.400

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

Pour observer graphiquement la qualité de l’ajustement


linéaire, on trace les deux droites (D) et (D 0 ) avec le nuage
des points
Y
(D’)

(D)
400

350
G

300

250 X
10 15 20

Figure: Droites deModule


1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 régression.
M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

qualité de l’ajustement linéaire

Plus l’angle entre les deux droites est petit, plus


l’ajustement est de bonne qualité.
On a un ajustement linéaire parfait si et seulement si les
deux droites sont confondues.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

III.3- Mesure de la qualité de


l’ajustement linéaire

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

Avant de déterminer une droite de régression comme modèle


de liaison linéaire entre deux variables X et Y , il faut s’assurer
de sa bonne qualité.

Le paramètre qui permet de mesurer la qualité d’un


ajustement linéaire entre deux variables X et Y est le
coefficient de corrélation linéaire r (X , Y ).

Plus |r (X , Y )| est proche de 1, plus la qualité de l’ajustement


est bonne et plus |r (X , Y )| est proche de 0, plus la qualité de
l’ajustement est mauvaise.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

Pour l’exemple précédent, on trouve :

117.1
r (X , Y ) = √ √ = 0.876
9.81 1821

La valeur de r (X , Y ) est assez proche de 1. On peut dire que


l’ajustement linéaire entre le diamètre et la hauteur d’un arbre
est de bonne qualité.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

Remarque
De façon
√ générale, on peut considérer que :
3
• si ≤ |r (X , Y )| ≤ 1, la qualité de l’ajustement est
2
bonne. √
1 3
• si ≤ |r (X , Y )| < , la qualité de l’ajustement est
2 2
médiocre.
1
• si 0 < |r (X , Y )| ≤ , la qualité de l’ajustement est
2
mauvaise.
On a un ajustement linéaire parfait si et seulement si
|r (X , Y )| = 1.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

Coefficient de détermination linéaire


Définition
Le coefficient de détermination linéaire, qu’on exprime en
pourcentage, est égal au carré du coefficient de corrélation
linéaire.

Ce paramètre permet de mesurer la proportion des variations


de l’une des variables qui peuvent être expliquées par l’autre
variable.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

Exemple
Pour l’exemple précédent, on a trouvé r (X , Y ) = 0.876. Donc
le coefficient de détermination entre X et Y est égal à

r 2 = 76.74%

Cela signifie que la variable X n’explique que 76.74% des


variations de la variable Y . Le reste est expliqué par d’autres
facteurs.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

Fin chapitre 2

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

Exercice 2
La distribution conjointe d’un groupe d’étudiants selon la note
obtenue en module de statistique (caractère X ) et le nombre
d’absence (caractère Y ) est représentée dans le tableau
suivant :

Y 0 1 2 3 4
X
[0, 6[ 0 4 3 8 12
[6, 10[ 3 7 10 12 18
[10, 12[ 6 8 9 8 7
[12, 14[ 7 6 5 3 2
[14, 16[ 8 3 2 0 0
[16, 20[ 9 4 1 0 0

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
I- Tableau de contingence III.1- Nuage statistique
II- Paramètres statistiques III.2- Méthode des moindres carrés
III- Ajustement linéaire III.3- Mesure de la qualité de l’ajustement linéaire

1 Déterminer les distributions marginales et leur natures.


2 Quelle est la proportion des étudiants :
a) ayant validé le module de statistique (note ≥ 10) ?
b) ayant un rattrapage (note comprise entre 5 et 10) ?
c) ayant validé le module et ayant 4 absences ?
3 Les variables X et Y sont-elles indépendantes ?
4 Calculer le mode, la médiane, la moyenne et l’écart type
des distributions marginales.
5 Calculer la covariance du couple (X , Y ).
6 Calculer le coefficient de corrélation linéaire.
7 Déterminer les droites d’ajustement linéaire.

1ère partie : STATISTIQUE DESCRIPTIVE - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
UNIVERSITÉ HASSAN II DE CASABLANCA
FACULTÉ DES SCIENCES ET TECHNIQUES

2ème Partie
PROBABILITES

Pr. Abdelhak FAHSI


Département de Mathematiques

Module M147, Parcours MIP (S4)


I- Notions de base
II- Espace probabilisé
III- Probabilité conditionnelle
IV- Dénombrement

Chapitre 1

Calcul des Probabilités

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
II- Espace probabilisé
III- Probabilité conditionnelle
IV- Dénombrement

Le calcul des probabilités intervient dans l’étude des


phénomènes aléatoires pour lesquels le résultat est
imprévisible.

Le but principal de ce chapitre est de se familiariser avec le


raisonnement probabiliste.

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
I.1- Expérience aléatoire - Ensemble fondamental
II- Espace probabilisé
I.2- Evénement
III- Probabilité conditionnelle
I.3- Evénements remarquables
IV- Dénombrement

I- Notions de base

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
I.1- Expérience aléatoire - Ensemble fondamental
II- Espace probabilisé
I.2- Evénement
III- Probabilité conditionnelle
I.3- Evénements remarquables
IV- Dénombrement

I.1- Expérience aléatoire - Ensemble fondamental

Définition
On appelle expérience aléatoire toute expérience dont le
résultat est imprévisible (n’est pas connu à l’avance), mais
dont l’ensemble de tous les résultats possibles est connu à
l’avance.
L’ensemble de tous les résultats possibles d’une expérience
aléatoire est appelé ensemble fondamental associé à cette
expérience. Il est noté Ω.

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
I.1- Expérience aléatoire - Ensemble fondamental
II- Espace probabilisé
I.2- Evénement
III- Probabilité conditionnelle
I.3- Evénements remarquables
IV- Dénombrement

Exemple :
Lancer un dé : Ω = {1, 2, 3, 4, 5, 6}
Lancer deux dés : Ω = {(i, j), 1 ≤ i ≤ 6; 1 ≤ j ≤ 6}
Groupe sanguin d’un individu : Ω = {A, B, AB, O}

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
I.1- Expérience aléatoire - Ensemble fondamental
II- Espace probabilisé
I.2- Evénement
III- Probabilité conditionnelle
I.3- Evénements remarquables
IV- Dénombrement

I.2- Evénement

Définition
Soit Ω un ensemble fondamental associé à une expérience
aléatoire.
On appelle événement toute partie de Ω, dont on sait dire, à
l’issue de l’expérience aléatoire, si elle est réalisée ou non.
On utilise les premières lettres de l’alphabet A, B, C, ..., pour
noter les événements.

Un événement A est dit réalisé si et seulement si le résultat de


l’expérience aléatoire est un élément de A.

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
I.1- Expérience aléatoire - Ensemble fondamental
II- Espace probabilisé
I.2- Evénement
III- Probabilité conditionnelle
I.3- Evénements remarquables
IV- Dénombrement

Exemple
On lance un dé.
Soit l’événement A = ”obtenir un numéro pair”.
On a : A = {2, 4, 6}.
On lance deux dés.
Soit l’événement B = ”la somme des numéros obtenus
est > à 10”.
On a : B = {(5, 6), (6, 5), (6, 6)}

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
I.1- Expérience aléatoire - Ensemble fondamental
II- Espace probabilisé
I.2- Evénement
III- Probabilité conditionnelle
I.3- Evénements remarquables
IV- Dénombrement

I.3- Evénements remarquables

a) Evénement élémentaire
Un événement élémentaire est un événement constitué d’un
seul élément ωi ∈ Ω. On le note {ωi }

b) Evénement impossible
Un événement qui ne peut pas être réalisé, quelle que soit le
résultat de l’expérience aléatoire est appelé événement
impossible. On le note ∅

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
I.1- Expérience aléatoire - Ensemble fondamental
II- Espace probabilisé
I.2- Evénement
III- Probabilité conditionnelle
I.3- Evénements remarquables
IV- Dénombrement

c) Evénement certain
Un événement qui est toujours réalisé, quelle que soit l’issue
de l’expérience aléatoire est appelé événement certain. On le
note Ω

d) Evénement contraire
On appelle événement contraire d’un événement A,
l’événement qui est réalisé si et seulement si A n’est pas
réalisé. On le note A

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
I.1- Expérience aléatoire - Ensemble fondamental
II- Espace probabilisé
I.2- Evénement
III- Probabilité conditionnelle
I.3- Evénements remarquables
IV- Dénombrement

e) Intersection de deux événements


On appelle intersection de deux événements A et B,
l’événement qui est réalisé si et seulement si A et B sont
réalisés simultanément. On le note A ∩ B.

f) Union de deux événements


On appelle union de deux événements A et B, l’événement qui
est réalisé si et seulement si l’un au moins des événements A
ou B est réalisé. On le note A ∪ B

On peut généraliser ces deux dernières définitions à n


événements A1 , A2 , . . . , An .

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
I.1- Expérience aléatoire - Ensemble fondamental
II- Espace probabilisé
I.2- Evénement
III- Probabilité conditionnelle
I.3- Evénements remarquables
IV- Dénombrement

g) Implication
On dit que l’événement A implique l’événement B si et
seulement si la réalisation de A entraı̂ne la réalisation de B.
On note : A ⊂ B

h) Evénements incompatibles
Deux événements A et B sont dits incompatibles si et
seulement si, ils ne peuvent pas être réalisés simultanément.
Autrement dit, A et B sont incompatibles si et seulement si

A∩B =∅

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
I.1- Expérience aléatoire - Ensemble fondamental
II- Espace probabilisé
I.2- Evénement
III- Probabilité conditionnelle
I.3- Evénements remarquables
IV- Dénombrement

i) Système complet d’événements


On dit que n événements {A1 , A2 , . . . , An } forment un
système complet d’événements de Ω si et seulement si :
1 Ils sont deux à deux incompatibles :
∀ i 6= j, Ai ∩ Aj = ∅
2 Leur réunion est l’événement certain :
A1 ∪ A2 ∪ . . . ∪ An = Ω
On dit aussi que {A1 , A2 , . . . , An } forment une partition de Ω.

Exemple
Deux événements contraires A et A forment un système
complet de Ω.

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
I.1- Expérience aléatoire - Ensemble fondamental
II- Espace probabilisé
I.2- Evénement
III- Probabilité conditionnelle
I.3- Evénements remarquables
IV- Dénombrement

Remarques et Notations :
L’ensemble de tous les événements associés à une
expérience aléatoire est noté E(Ω). On a :

E(Ω) ⊂ P(Ω)

où P(Ω) est l’ensemble des parties de Ω.


Si Ω est fini, on a :

E(Ω) = P(Ω)

Si Ω est fini, le nombre d’éléments distincts d’un


événement A est appelé cardinal de A. On le note
Card(A).

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
I.1- Expérience aléatoire - Ensemble fondamental
II- Espace probabilisé
I.2- Evénement
III- Probabilité conditionnelle
I.3- Evénements remarquables
IV- Dénombrement

Remarque
On vient de définir une correspondance entre le langage des
événements (language probabiliste) et le langage des
ensembles (langage ensembliste).

Ainsi, on établit pour les événements des propriétés


analogues à celles connues sur les ensembles :

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
I.1- Expérience aléatoire - Ensemble fondamental
II- Espace probabilisé
I.2- Evénement
III- Probabilité conditionnelle
I.3- Evénements remarquables
IV- Dénombrement

Propriétés

Si A, B et C sont des événements de Ω, alors :


A=A
∅=Ω et Ω=∅
A∩A=∅ et A∪A=Ω
A∩A=A et A∪A=A
A∩Ω=A et A∪∅=A
A∩∅=∅ et A∪Ω=Ω

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
I.1- Expérience aléatoire - Ensemble fondamental
II- Espace probabilisé
I.2- Evénement
III- Probabilité conditionnelle
I.3- Evénements remarquables
IV- Dénombrement

A∩B =B∩A et A∪B =B∪A


A ∩ (B ∩ C) = (A ∩ B) ∩ C et
A ∪ (B ∪ C) = (A ∪ B) ∪ C
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) et
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
A∩B =A∪B et A ∪ B = A ∩ B (Lois de Morgan)

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
I.1- Expérience aléatoire - Ensemble fondamental
II- Espace probabilisé
I.2- Evénement
III- Probabilité conditionnelle
I.3- Evénements remarquables
IV- Dénombrement

Si Ω est fini, alors on a :


Card(A) = Card(Ω) − Card(A)
Card(A ∪ B) = Card(A) + Card(B) − Card(A ∩ B)
Card(E(Ω)) = Card(P(Ω)) = 2Card(Ω)

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
II- Espace probabilisé II.1- Définition de la probabilité
III- Probabilité conditionnelle II.2- Cas particulier : Probabilité uniforme
IV- Dénombrement

II- Espace probabilisé

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
II- Espace probabilisé II.1- Définition de la probabilité
III- Probabilité conditionnelle II.2- Cas particulier : Probabilité uniforme
IV- Dénombrement

II.1- Définition de la probabilité

Définition
Soit Ω un ensemble fondamental et E(Ω) l’ensemble des
événements associés.
On appelle probabilité sur E(Ω) toute application :

P : E(Ω) → [0, 1]

vérifiant :
(i) P(Ω) = 1
(ii) ∀ A, B ∈ E(Ω), si A et B sont incompatibles alors :
P(A ∪ B) = P(A) + P(B).
Le triplet (Ω, E(Ω), P) est appelé espace probabilisé.

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
II- Espace probabilisé II.1- Définition de la probabilité
III- Probabilité conditionnelle II.2- Cas particulier : Probabilité uniforme
IV- Dénombrement

Remarques :

- L’idée est donc d’associer à chaque événement A ∈ E(Ω) un


nombre réel positif compris entre 0 et 1, noté P(A), qui mesure
la chance qu’à l’événement A pour se réaliser.

- P(A) est appelé probabilité de l’événement A.

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
II- Espace probabilisé II.1- Définition de la probabilité
III- Probabilité conditionnelle II.2- Cas particulier : Probabilité uniforme
IV- Dénombrement

Propriétés d’une probabilité :

Soit (Ω, E(Ω), P) un espace probabilisé.


Si A est un événement, alors P(A) = 1 − P(A)
Si A ⊂ B alors P(A) ≤ P(B)
Si A1 , A2 , . . . , An sont n événements deux à deux
[ n n
X
incompatibles alors : P( Ak ) = P(Ak )
k=1 k=1
Si A et B sont deux événements quelconques, alors :

P(A ∪ B) = P(A) + P(B) − P(A ∩ B)

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
II- Espace probabilisé II.1- Définition de la probabilité
III- Probabilité conditionnelle II.2- Cas particulier : Probabilité uniforme
IV- Dénombrement

Proposition
Soit Ω = {ω1 , ω2 , . . . , ωi , . . .} un ensemble fondamental
dénombrable (fini ou infini).
La probabilité sur Ω est complètement définie par la donnée
des probabilités P({ωi }) des événements élémentaires. On a
alors : X
∀ A ∈ E(Ω), P(A) = P({ωi })
ωi ∈A

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
II- Espace probabilisé II.1- Définition de la probabilité
III- Probabilité conditionnelle II.2- Cas particulier : Probabilité uniforme
IV- Dénombrement

Proposition
Soit (Ω, E(Ω), P) un espace probabilisé.
Si Ω est fini et si tous les événements élémentaires ont la
même probabilité pour se réaliser (on dit qu’on a
équiprobabilité). Alors la probabilité P est définie par :

Card(A) Nombre de cas favorables


∀ A ∈ P(Ω), P(A) = =
Card(Ω) Nombre de cas possibles

Cette probabilité est appelée probabilité uniforme.

Remarque
En général, on n’a pas à démontrer qu’on a équiprobabilité.
C’est plutôt l’énoncé qui le suggère.

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
II- Espace probabilisé II.1- Définition de la probabilité
III- Probabilité conditionnelle II.2- Cas particulier : Probabilité uniforme
IV- Dénombrement

Exemples :
1) On lance un dé non truqué. Calculer la probabilité
d’obtenir un point pair.
2) On lance deux dés non truqués.
Calculer la probabilité des événements suivants :
A = “obtenir au moins un point pair”
B = “les deux dés ont le même numéro”
C = “le numéro du 1er dé est supérieur au numéro du
2ème dé”

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
II- Espace probabilisé II.1- Définition de la probabilité
III- Probabilité conditionnelle II.2- Cas particulier : Probabilité uniforme
IV- Dénombrement

3) Dans une urne contenant 9 boules numérotées de 1 à 9


et 26 boules numérotées de A à Z, on tire au hasard
successivement et avec remise 6 boules pour former un
mot de passe.
- Combien de mot de passe peut-on former ?
- Quelle est la probabilité d’obtenir un mot de passe
contenant 3 lettres suivies de 3 chiffres (événement A) ?
- Quelle est la probabilité d’obtenir un mot de passe
contenant autant de chiffres que de lettres (événement
B)?

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
II- Espace probabilisé II.1- Définition de la probabilité
III- Probabilité conditionnelle II.2- Cas particulier : Probabilité uniforme
IV- Dénombrement

Remarque1
Dans beaucoup de problèmes de calcul des probabilités,
l’énoncé suggère qu’on a une probabilité uniforme.
Ainsi, nous serons souvent confrontés aux problèmes de
dénombrement des cas favorables et des cas possibles.
D’où la nécessité de définir des méthodes de dénombrement
dans les différentes situations possibles (voir dernier
paragraphe de ce chapitre).

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

III- Probabilité conditionnelle

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

Question
Soit (Ω, E(Ω), P) un espace probabilisé et soient A et B deux
événements de E(Ω). On se pose la question suivante :
Le fait de savoir que l’événement A est réalisé a-t-il un effet sur
la probabilité de réalisation de l’événement B ?

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

Exemple
La répartition d’un groupe d’étudiants selon la note du module
de statistique et le sexe est représentée dans le tableau
suivant :
Sexe Masculin Féminin Total
Note de Math
[0, 7[ 4 3 7
[7, 10[ 17 15 32
[10, 20[ 21 36 57
Total 42 54 96

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

On choisit un étudiant au hasard et on considère les


événements suivants :
A = “l’étudiant choisi est un garçon”
B = “l’étudiant choisi a validé le module”

Calculer P(A), P(B), P(B sachant A) et P(A ∩ B).


Conclure.

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

On a :
42
P(A) = .
96
57
P(B) = .
96
21
P(B sachant A) = 6= P(B)
42
21
P(A ∩ B) =
96

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

Conclusion :
- Le fait de savoir que l’événement A est réalisé a changé la
probabilité de réalisation de l’événement B.
- on constate que :

P(A ∩ B)
P(B sachant A) =
P(A)

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

III.1- Définition et propriétés

Définition
Soit (Ω, E(Ω), P) un espace probabilisé et soient A et B deux
événements tel que P(A) 6= 0.
La probabilité de réalisation de l’événement B sachant que
l’événement A est réalisé, notée P(B|A), est définie par :

P(A ∩ B)
P(B|A) =
P(A)

On l’appelle probabilité conditionnelle et on lit probabilité de B


sachant A.
On utilise aussi la notation PA (B).

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

Proposition
L’application PA : E(Ω) → [0, 1], définie par :

P(A ∩ B)
∀ B ∈ E(Ω), PA (B) = P(B|A) =
P(A)

est une probabilité sur E(Ω), appelée probabilité conditionnelle


sachant A.
Remarque
Toutes les propriétés d’une probabilité P sont aussi valables
pour une probabilité conditionnelle PA :

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

P(Ω|A) = 1
P(B|A) = 1 − P(B|A)
si B1 et B2 sont incompatibles alors
P((B1 ∪ B2 )|A) = P(B1 |A) + P(B2 |A)
si B1 et B2 sont quelconques alors
P((B1 ∪ B2 )|A) = P(B1 |A) + P(B2 |A) − P((B1 ∩ B2 )|A)
...

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

III.2- Formules de base

La notion de probabilité conditionnelle permet de calculer des


probabilités complexes à partir de situations plus simples.

Le but de ce paragraphe est d’énoncer quelques formules de


base utilisées dans ce contexte.

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

Formule des probabilités composées :

Soit (Ω, E(Ω), P) un espace probabilisé et soient A et B deux


événements de E(Ω). La formule des probabilités composées
permet, à partir de la probabilité conditionnelle, de calculer
une probabilité conjointe :

P(A ∩ B) = P(A) × P(B|A) = P(B) × P(A|B)

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

On peut généraliser cette formule à n événements


A1 , A2 , . . . , An :

P(A1 ∩ A2 ∩ · · · ∩ An ) =

P(A1 )P(A2 |A1 )P(A3 |A2 ∩ A1 ) . . . P(An |A1 ∩ A2 ∩ · · · ∩ An−1 )

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

Exemple
Une urne contient 3 boules blanches et 2 boules noires.
On tire au hasard, successivement et sans remise 2
boules.
Quelle est la probabilité de tirer 2 boules noires ?

Une urne contient 6 boules noires et 4 boules blanches.


On tire successivement et sans remise 3 boules.
Quelle est la probabilité de tirer 3 boules noires ?

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

Formule des probabilités totales :

Soit (Ω, E(Ω), P) un espace probabilisé et soient A et B deux


événements de E(Ω). La formule des probabilités totales
permet, à partir de la probabilité conditionnelle, de calculer
une probabilité marginale :

P(B) = P(B|A) × P(A) + P(B|A) × P(A)

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

On peut généraliser à n événements :


Si {A1 , A2 , . . . , An } est un système complet d’événements.
Alors, pour tout événement B de E(Ω), on a :
n
X n
X
P(B) = P(Ai ∩ B) = P(B|Ai ) × P(Ai )
i=1 i=1

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

Exemple
Une urne U1 contient 5 boules noires et 6 boules blanches et
une urne U2 contient 6 boules noires et 12 boules blanches.
On transfère une boule de l’urne U1 vers l’urne U2 et ensuite
on tire 1 boule de l’urne U2 .
Quelle est la probabilité que la boule tirée soit noire ?

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

Formule de Bayes :

Soit (Ω, E(Ω), P) un espace probabilisé. Soient A et B deux


événements de E(Ω).
La formule de Bayes permet, à partir de la probabilité
conditionnelle P(B|A), de calculer la probabilité conditionnelle
inverse P(A|B) :

P(B|A) × P(A)
P(A|B) =
P(B)

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

Exemple
Trois machines M1 , M2 et M3 de fabrication mécanique
produisent respectivement 25%, 35% et 40% de la production
totale. 5% (respectivement 4% et 3%) des pièces produites
par M1 (respectivement par M2 et M3 ) sont défectueuses
(événement D).
On choisit une pièce au hasard.
Si la pièce choisie est défectueuse, quelle est la probabilité
qu’elle soit fabriquée par M1 ?

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

Remarque
On peut utiliser un diagramme en arbre pour décrire
graphiquement toutes les séquences possibles d’une
expérience aléatoire.
Les règles de construction de ce diagramme correspondent
aux formules de base qu’on vient de proposer.

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

III.3- Evénements indépendants :

Définition
Deux événements A et B sont dits indépendants si et
seulement si la réalisation de l’un n’a aucune influence sur la
probabilité de réalisation de l’autre.
On a alors :

P(A|B) = P(A) et P(B|A) = P(B)

Corollaire
Deux événements A et B sont dits indépendants si et
seulement si :
P(A ∩ B) = P(A) × P(B)

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

Exemple
On lance un dé deux fois. Soit les événements :
A = “obtenir un point pair au premier lancer”
B = “obtenir le point 1 ou 4 au deuxième lancer”
Les événements A et B sont-ils indépendants ?

On lance une pièce de monnaie 2 fois. On considère les


événements suivants :
A = “obtenir au plus un pile”;
B = “obtenir au moins un pile et au moins face”.
Les événements A et B sont-ils indépendants ?
Même question si on lance une pièce de monnaie 3 fois.

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

Remarques
Il ne faut pas confondre événements indépendants et
événements incompatibles :
A et B sont indépendants ⇔ P(A ∩ B) = P(A) × P(B)
A et B sont incompatibles ⇔ P(A ∪ B) = P(A) + P(B)
Dans une suite de tirages successifs avec remise, les
tirages sont indépendants.
Dans une suite de tirages successifs sans remise, les
tirages ne sont pas indépendants.
Si les événements A et B sont indépendants, il en est de
même pour A et B, pour A et B et pour A et B.

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
III.1- Définition et propriétés
II- Espace probabilisé
III.2- Formules de base
III- Probabilité conditionnelle
III.3- Evénements indépendants
IV- Dénombrement

Généralisation à n evénements

Définition
n événements A1 , A2 , . . . , An d’un même espace probabilisé
sont dits indépendants dans leurs ensemble si pour toute
famille de p (p ≥ 2) événements Ai1 , Ai2 , . . . , Aip choisis parmi
les événements A1 , A2 , . . . , An , on a :

P(Ai1 ∩ Ai2 ∩ . . . ∩ Aip ) = P(Ai1 ) × P(Ai2 ) × . . . × P(Aip )

Remarque
n événements A1 , A2 , . . . , An peuvent être indépendants deux
à deux sans être indépendants dans leurs ensemble.

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

IV- Dénombrement

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

Dans beaucoup de problèmes de calcul des probabilités,


l’énoncé suggère qu’on peut appliquer la formule de
probabilité uniforme (il suffit de vérifier que Ω est fini et qu’on a
équiprobabilité).
Ainsi, pour calculer la probabilité d’un événement A, on peut
utiliser la formule :
Nombre de cas favorables Card(A)
P(A) = =
Nombre de cas possibles Card(Ω)

Le but principal de ce dernier paragraphe est de rappeler les


formules de base de l’analyse combinatoire permettant le
dénombrement des cas favorables et des cas possibles.

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

IV.1- Principe de multiplication


Proposition
Si la réalisation d’un événement A se fait en k étapes
successives (l’une après l’autre) présentant respectivement
n1 , n2 , . . . , nk possibilités, alors le nombre total de possibilités
pour réaliser A est égale au produit : n1 × n2 × . . . × nk .

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

Exemple

Combien peut-on former de codes comportant deux lettres


suivies de trois chiffres non nuls ? (événement A)

Combien peut-on former de codes comportant deux lettres


distinctes suivies de trois chiffres distincts non nuls ? (évt B)

Un restaurant propose 4 choix pour l’entrée, 3 choix pour le


plat principal, 4 choix pour le dessert et 6 choix pour la
boisson. De combien de façons peut-on composer un repas ?

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

IV.2- Principe d’addition


Proposition
Si la réalisation d’un événement A se fait par l’une ou bien
l’autre des k manières présentant respectivement
n1 , n2 , . . . , nk possibilités, alors le nombre total de possibilités
pour réaliser A est égale à la somme : n1 + n2 + . . . + nk .

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

Exemple

Combien peut-on former de codes avec cinq caractères : des


lettres suivies des chiffres non nuls avec au moins un
caractère de chaque type (événement A) ?

Combien peut-on former de codes comportant deux lettres et


trois chiffres non nuls (événement B) ?

On choisit un code au hasard dans B. Quelle est la probabilité


qu’il soit un code formé de deux lettres suivies de trois chiffres
non nuls (événement A2 ) ?

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

IV.3- Choix de p éléments parmi n éléménts distincts

Soit E un ensemble formé de n éléments distincts qu’on peut


ordonner (E = {e1 < e2 < ... < en }). Soit p ∈ IN∗ .
On s’intéresse au calcul du nombre de possibilités pour choisir
p éléments parmi les n éléments de E ?
Pour répondre à cette question, on distingue les cas suivants :

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

Choix de p éléments distincts (événement noté D).


Choix de p éléments non distincts (événement D).
Choix de p éléments ordonnés (événement noté C).
Choix de p éléments non ordonnés (événement C).

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

p-liste

Proposition1
Le nombre de possibilités pour choisir p éléments
quelconques (distincts ou non, ordonnés ou non), parmi les n
éléments de E (événement noté Ω) est donné par :

Card(Ω) = np

Chacune de ces possibilités s’appelle liste de p éléments de E


ou p-liste de E.
On a Ω = D ∪ D = C ∪ C

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

Remarque
On fait appel au dénombrement avec les puissances np
lorsque, dans le choix des p éléments, on tient compte
des répétitions (éléments distincts ou non distincts) et on
tient compte de l’ordre (éléments ordonnés ou non
ordonnés).
Dans ce cas, on peut considérer p ≤ n ou bien p > n.
Par exemple, pour les tirages successifs avec remise, on
fait appel au dénombrement avec la puissance np .

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

Arrangements

Proposition2
Le nombre de possibilités pour choisir p éléments distincts
(ordonnés ou non ordonnés), parmi les n éléments de E
(événement D) est donné par :
n!
Card(D) = Apn =
(n − p)!

Chacune de ces possibilités s’appelle arrangement de p


éléments de E ou p-arrangement de E.

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

Remarque
On fait appel au dénombrement avec les arrangements Apn
lorsque, dans le choix des p éléments parmi n, on tient
compte de l’ordre et on ne tient pas compte des
répétitions.
Dans ce cas, on doit avoir p ≤ n. Sinon, l’événement D
est impossible (P(D) = 0 si p > n).
Par exemple, pour les tirages successifs sans remise, on
fait appel au dénombrement avec Apn .

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

Combinaisons

Proposition3
Le nombre de possibilités pour choisir p éléments distincts et
ordonnés parmi les n éléments de E (événement D ∩ C) est
donné par :
n!
Card(D ∩ C) = Cnp =
p!(n − p)!

Chacune de ces possibilités s’appelle combinaison de p


éléments de E ou p-combinaison de E.

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

Remarque
On fait appel au dénombrement avec les combinaison Cnp
lorsque, dans le choix des p éléments parmi n, on ne tient
compte ni de l’ordre ni des répétitions.
Dans ce cas, on doit avoir p ≤ n. Sinon, l’événement
D ∩ C est impossible.
Par exemple, pour les tirages simultanés, on fait appel au
dénombrement avec Cnp .

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

Combinaisons avec répétitions

Proposition4
Le nombre de possibilités pour choisir p éléments ordonnés
(distincts ou non distincts) parmi les n éléments de E
(événement C) est donné par :

p (n + p − 1)!
Card(C) = Cn+p−1 =
p!(n − 1)!

Chacune de ces possibilités s’appelle combinaison avec


répétition de p éléments de E ou p-combinaison avec
répétition de E.

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

Remarque
On fait appel au dénombrement avec les combinaisons
p
avec répétition Cn+p−1 lorsque, dans le choix des p
éléments parmi n, on tient compte des répétitions et on ne
tient pas compte de l’ordre.
Dans ce cas, on peut considérer p ≤ n ou bien p > n.
Par exemple, le nombre de possibilités pour choisir p
éléments parmi n, dans un ordre croissant au sens large
p
est égal à Cn+p−1 .

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

Remarque
Les résultats des 4 propositions précédentes peuvent être
résumés dans le tableau suivant :

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

événement D événement D Total


(éléments (éléments (On tient compte
distincts) non distincts) des répétitions)
événement C
(éléments Cnp p
Cn+p−1
ordonnés)
événement C
(éléments
non ordonnés)
Total
(On tient compte Apn np
de l’ordre)

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

Avec les propriétés du tableau de contingence, on peut


compléter le remplissage du tableau. Ce qui permet de
déduire les dénombrements des autres cas possibles.

Exemple
On considère E = {1, 2, 3, 4} et p = 3. On a :

événement D événement D Total


événement C Cnp = 4 16 p
Cn+p−1 = 20
événement C 20 24 44
Total Apn = 24 40 np = 64

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

Remarque
Lorsqu’on dit on tient compte des répétitions, cela veut
dire qu’on considère les choix possibles distincts ou non
distincts.
Lorsqu’on dit on ne tient pas compte des répétitions, cela
veut dire qu’on considère les choix possibles distincts.
Lorsqu’on dit on tient compte de l’ordre, cela veut dire
qu’on considère les choix possibles ordonnés ou non
ordonnés.
Lorsqu’on dit on ne tient pas compte de l’ordre, cela veut
dire qu’on considère les choix possibles ordonnés.

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

Exemples
Dans une urne qui contient 10 boules numérotées de 0 à
9, on tire successivement et avec remise 4 boules.
Calculer le nombre de choix possibles.
Même question si les tirages sont successifs et sans
remise.
Même question si les tirages sont simultanés.
Au loto sportif, on coche l’une des trois cases 1, N ou 2
pour chacun des 15 matchs programmés. Dénombrer le
nombre de grilles possibles.

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

Combien de droites peut-on tracer à partir de 5 points non


alignés ?
Dans un jeu de 52 cartes, on choisit 5 cartes au hasard.
Calculer le nombre de mains possibles, le nombre de
mains qui contiennent exactement 3 as et le nombre de
mains qui contiennent au moins 3 as.
On lance 4 fois un dé cubique équilibré dont les faces sont
numérotées de 1 à 6.
Calculer la probabilité pour obtenir une suite de nombres
dans un ordre strictement croissant.
Calculer la probabilité pour obtenir une suite de nombres
dans un ordre croissant au sens large.

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

Permutations : arrangements avec p = n

Proposition5
Le nombre de possibilités pour choisir n éléments distincts
(ordonnés ou non ordonnés) parmi les n éléments distincts de
E, noté Pn , est donné par :

Pn = Ann = n!

Chacune de ces possibilités s’appelle permutation de n


éléments distincts.

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

Exemple
De combien de façons peut-on placer 12 personnes en
rangée pour prendre une photo ?
De combien de façons peut-on ranger 4 livres de math, 3
livres de physique et 5 livres de chimie, si on ne fait
aucune distinction entre les spécialités des livres ?
De combien de façons peut-on ranger ces livres si on veut
que les livres de même spécialité restent ensemble ?

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

Permutations d’éléménts partiellement distinguables

Proposition6
Supposons que les n éléménts de E sont partiellement
distinguables (càd les n éléments ne sont pas tous distincts).
Supposons qu’on a n1 éléments identiques de type 1, n2
éléments identiques de type 2, . . . , nk éléments identiques de
type k avec n1 + n2 + · · · + nk = n.
Alors le nombre de permutations possibles de ces n éléments,
partiellement distinguables, noté Pn (n1 , n2 , . . . , nk ), est donné
par :
n!
Pn (n1 , n2 , . . . , nk ) =
n1 ! n2 ! . . . nk !

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

Exemples
Combien de mots de 9 lettres peut-on former avec les 9
lettres du mot EVENEMENT ?
Un enfant joue avec 2 jetons rouges identiques, 3 jetons
blancs identiques et 4 jetons noirs identiques.
De combien de façons différentes peut-il aligner ces 9
jetons ?
On dispose de 4 livres de math, 3 livres de physique et 5
livres de chimie.
De combien de façons peut-on les arranger si tous les
livres sont distinguables ?
De combien de façons peut-on les arranger si les livres de
chaque spécialité sont identiques ?

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Notions de base
IV.1- Principe multiplicatif
II- Espace probabilisé
IV.2- Principe d’addition
III- Probabilité conditionnelle
IV.3- Choix de p éléments parmi n éléménts distincts
IV- Dénombrement

Fin chapitre 1

2ème partie : PROBABILITÉS - Chapitre 1 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III- Paramètres d’une variable aléatoire
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

Chapitre 2

Variables aléatoires discrètes

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III- Paramètres d’une variable aléatoire
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

Le but de ce chapitre et du chapitre suivant est d’introduire des


outils de calcul des probabilités avec les variables aléatoires.

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III- Paramètres d’une variable aléatoire
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

I- Définition

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III- Paramètres d’une variable aléatoire
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

Définition
Soit (Ω, E(Ω), P) un espace probabilisé.
On appelle variable aléatoire toute application définie sur
l’ensemble fondamental Ω et à valeurs dans R.
Autrement dit, toute application X : Ω → R, qui à chaque
élément ω ∈ Ω associe une valeur réelle X (ω), est appelée
variable aléatoire, notée X .

L’ensemble des valeurs possibles prises par la variable


aléatoire X est noté X (Ω).

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III- Paramètres d’une variable aléatoire
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

Exemple
On lance deux dés.
Soit X l’application qui à chaque élément (i, j) ∈ Ω, associe la
somme i + j.

Alors, X est une variable aléatoire sur Ω et on a :

X (Ω) = {2, 3, 4, . . . , 12}

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III- Paramètres d’une variable aléatoire
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

Remarque
Comme pour les variables statistiques, on distingue deux
types de variables aléatoires : les variables aléatoires
discrètes et les variables aléatoires continues.
Une variable aléatoire X est dite discrète si elle ne peut
prendre que des valeurs isolées (X (Ω) est un ensemble
fini ou dénombrable).
Une variable aléatoire X est dite continue si X (Ω) est non
dénombrable (X (Ω) est un intervalle ou une réunion
d’intervalles de R).

La suite de ce chapitre sera consacrée à l’étude des variables


aléatoires discrètes.

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III- Paramètres d’une variable aléatoire
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

Remarques et notations
Soit X une variable aléatoire discrète. Soit X (Ω) = {x1 , x2 , ...}.
On suppose x1 < x2 < ... < xi < xi+1 < ....
Pour tout xi ∈ X (Ω). L’ensemble {ω ∈ Ω/X (ω) = xi } est
un événement de Ω. On le note (X = xi ).
Soit I ⊂ R. L’ensemble {ω ∈ Ω/X (ω) ∈ I} est un
événement de Ω. On le note (X ∈ I).
On utilise aussi les notations : (X ≤ a), (X > a),
(a < X ≤ b), ...

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III- Paramètres d’une variable aléatoire
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

Exemple
On lance une pièce de monnaie trois fois.
Soit X = nombre de piles obtenues.
Calculer P(X = 1).
On lance un dé deux fois.
Soit Y = la somme des points obtenus.
Calculer P(Y ≤ 4).

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III- Paramètres d’une variable aléatoire
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

II- Loi de probabilité - Fonction


de répartition d’une variable
aléatoire discrète

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III- Paramètres d’une variable aléatoire
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

Définition
Soit (Ω, E(Ω), P) un espace probabilisé et soit X une variable
aléatoire discrète sur Ω.

On appelle loi de probabilité de X , l’application, notée PX ,


définie de X (Ω) vers [0, 1] par :

∀ xi ∈ X (Ω), PX (xi ) = P(X = xi )

On appelle fonction de répartition de X , l’application,


notée FX , définie de R vers [0, 1] par :

∀ x ∈ R, FX (x) = P(X ≤ x)

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III- Paramètres d’une variable aléatoire
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

Propriétés caractéristiques :
La loi de probabilité PX doit vérifier :
1 ≤ PX (xi ) ≤ 1, ∀ xi ∈ X (Ω),
0X
2 PX (xi ) = 1.
xi ∈X (Ω)

La fonction de répartition FX doit vérifier :


1 FX est croissante (au sens large),
2 FX (x) = 0 pour x < x1 ,
3 FX (x) = 1 pour x ≥ max(xi ),
4 FX est constante sur chaque intervalle [xi , xi+1 [,
discontinue à gauche aux points xi ∈ X (Ω). Le saut de
discontinuité au point xi est égal à P(X = xi ).

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III- Paramètres d’une variable aléatoire
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

Remarque
On a :
X
PX (xi ) = P(X = xi ) = P({ω})
ω∈(X =xi )
X
FX (x) = P(X ≤ x) = P(X = xi )
xi ≤x
Inversement, on peut déduire la loi de probabilité de X à
partir de sa fonction de répartition FX :
P(X = x1 ) = FX (x1 ),
P(X = xi ) = FX (xi ) − FX (xi−1 ), ∀ xi ∈ X (Ω) − {x1 }.

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III- Paramètres d’une variable aléatoire
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

Exemple1
On lance deux dés. Soit X = la somme des points obtenus.
On a :
xi 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
fX (xi ) 36 36 36 36 36 36 36 36 36 36 36
1 3 6 10 15 21 26 30 33 35
FX (xi ) 36 36 36 36 36 36 36 36 36 36 1

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III- Paramètres d’une variable aléatoire
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

Exemple2
On lance un dé jusqu’à l’obtention de la face numéro 3.
Soit X = le nombre de lancers effectués.
Déterminer la loi de probabilité et la fonction de répartition
de X .

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III- Paramètres d’une variable aléatoire
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

On a X (Ω) = IN∗ .
On a la loi de probabilité :

1 5 k−1
P(X = k ) = ( )
6 6
D’où la fonction de répartition :
5
FX (k) = 1 − ( )k
6

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III- Paramètres d’une variable aléatoire
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

5
Inversement, on a P(X > k) = ( )k .
6
Donc la fonction de répartition est donnée par :
5
FX (k) = 1 − ( )k
6
D’où la loi de probabilité :

1 5 k−1
P(X = k ) = FX (k) − FX (k − 1) = ( )
6 6

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III- Paramètres d’une variable aléatoire
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

Remarque
Pour tout a, b ∈ R on a :
P(X ≤ a) = FX (a),
P(X > a) = 1 − FX (a),
P(a < X ≤ b) = FX (b) − FX (a),
P(X = a) = 0 si a 6∈ X (Ω)
P(X = xi ) = FX (xi ) − FX (xi−1 ), ∀ xi ∈ X (Ω)

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III.1- Espérance mathématique
III- Paramètres d’une variable aléatoire
III.2- Variance - écart-type
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

III- Paramètres d’une variable


aléatoire

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III.1- Espérance mathématique
III- Paramètres d’une variable aléatoire
III.2- Variance - écart-type
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

III.1- Espérance mathématique

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III.1- Espérance mathématique
III- Paramètres d’une variable aléatoire
III.2- Variance - écart-type
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

Définition
Soit (Ω, E(Ω), p) un espace probabilisé et soit X une variable
aléatoire discrète sur Ω. On appelle espérance mathématique
de X , appelée aussi moyenne de X , le nombre réel (si il
existe), noté E(X ), défini par :
X
E(X ) = xi × P(X = xi )
xi ∈X (Ω)

On peut utiliser aussi la formule :


X
E(X ) = X (ω) × P({ω})
ω∈Ω

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III.1- Espérance mathématique
III- Paramètres d’une variable aléatoire
III.2- Variance - écart-type
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

Remarque

Si X (Ω) est fini, E(X ) existe toujours (Somme finie).


On peut remarquer la similitude des définitions de
l’espérance mathématique et de la moyenne arithmétique
d’une variable statistique discrète (les fréquences sont
remplacées par les probabilités).
Si X (Ω) est infini, E(X ) existe sous réserve de
convergence de la série numérique associée.

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III.1- Espérance mathématique
III- Paramètres d’une variable aléatoire
III.2- Variance - écart-type
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

Remarque : Espérance d’une fonction de variable aléatoire

Soit X une variable aléatoire discrète et soit g une fonction


réelle. Alors g(X ) est une variable aléatoire discrète et on a :
X
E(g(X )) = g(xi )P(X = xi )
xi ∈X (Ω)

En particulier si g(X ) = X r , On obtient


X
E(X r ) = xri P(X = xi )
xi ∈X (Ω)

Lorsqu’il existe, E(X r ) s’appelle le moment d’ordre r de X .

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III.1- Espérance mathématique
III- Paramètres d’une variable aléatoire
III.2- Variance - écart-type
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

III.2- Variance - écart-type

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III.1- Espérance mathématique
III- Paramètres d’une variable aléatoire
III.2- Variance - écart-type
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

Définition
Soit (Ω, E(Ω), P) un espace probabilisé et soit X une variable
aléatoire discrète sur Ω. On appelle variance de X le nombre
réel positif (si il existe), noté V (X ), défini par :
  X
V (X ) = E (X − E(X ))2 = (xi − E(X ))2 P(X = xi )
xi ∈X (Ω)

On appelle écart-type de X le nombre réel positif, noté σ(X ),


défini par : p
σ(X ) = V (X )

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III.1- Espérance mathématique
III- Paramètres d’une variable aléatoire
III.2- Variance - écart-type
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

Remarque

On peut utiliser la formula simplifiée :


 
V (X ) = E X 2 − (E(X ))2
 
X
= x2i P(X = xi ) − (E(X ))2
xi ∈X (Ω)

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III.1- Espérance mathématique
III- Paramètres d’une variable aléatoire
III.2- Variance - écart-type
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

Exemple

On lance un dé et on suppose que :


on gagne 10 dh si on obtient la face numéro 1,
on gagne 5 dh si on obtient la face 2 ou 3,
on gagne 2 dh si on obtient la face 4,
et on perd 5 dh si on obtient la face 5 ou 6.

Calculer l’espérance et la variance du gain.

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition
III.1- Espérance mathématique
III- Paramètres d’une variable aléatoire
III.2- Variance - écart-type
IV- Lois de probabilité usuelles
V- Couple de variables aléatoires

Propriétés :

Soient X et Y deux variables aléatoires définies sur un même


espace probabilisé et a et b deux constantes réelles, on a :
E(aX + b) = aE(X ) + b
V (aX + b) = a2 V (X )
E(X + Y ) = E(X ) + E(Y )
Si X et Y sont indépendantes alors :
E(XY ) = E(X )E(Y )
V (X + Y ) = V (X ) + V (Y )

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

IV- Lois de probabilité


discrètes usuelles

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Dans ce paragraphe, on va présenter les lois de probabilité


des variables aléatoires discrètes, les plus fréquemment
utilisées pour décrire des modèles probabilistes usuels.

Cela nous permettra, si on reconnaı̂t une de ces lois pour la


variable aléatoire étudiée, d’appliquer toutes ses formules et
ses propriétés qui seront supposées déjà démontrées.

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

IV.1- Loi uniforme

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Définition
On dit qu’une variable aléatoire discrète X suit une loi
uniforme de paramère n si et seulement si

X (Ω) = {1, 2 . . . , n}

et
1
∀ k ∈ X (Ω) P(X = k) =
n
On note X → U(n).

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Proposition
Si X est une variable aléatoire discrète qui suit une loi
uniforme U(n), alors on a :

n+1
E(X ) =
2
n2 − 1
V (X ) =
12

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Exemple
Dans une urne contenant 1 boule blanche et 9 boules noires,
on tire au hasard successivement et sans remise une boule
jusqu’à l’obtention de la boule blanche. Soit X la variable
aléatoire qui désigne le nombre de tirages effectués.
Quelle est la loi de probabilité de X ?

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

IV.2- Loi de Bernoulli

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Epreuve de Bernoulli
Définition
On appelle épreuve de Bernoulli de paramètre p toute épreuve
aléatoire n’ayant que deux résultats possibles :
un résultat priviligié, noté S, appelé succès, avec la
probabilité p,
un résultat alternatif, noté S, appelé échec, avec la
probabilité q = 1 − p.

Exemple
On lance une fois un dé équilibré et on s’intéresse à
l’événement S = ”obtenir la face n◦ 3”.

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Loi de Bernoulli

Proposition
On considère une épreuve de Bernoulli de paramètre p.
Soit X la variable aléatoire désignant le nombre de succès
obtenus. Alors on a :

X (Ω) = {0, 1}

∀ k ∈ X (Ω) P(X = k ) = pk q 1−k


E(X ) = p et V (X ) = pq

X est appelée variable aléatoire de Bernoulli et la loi de


probabilité de X est appelée loi de Bernoulli de paramètre p.
On note X → B(1, p).
2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Remarque

Le modèle de Bernoulli est le plus simple des modèles


probabilistes, cependant il est fondamental.
Ceci est dû au fait que beaucoup d’épreuves aléatoires
peuvent être considérées comme des répétitions d’épreuves
de Bernoulli.

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Dans ce contexte, on va s’itéresser aux cas suivants :


Répétitions en nombre fixe et avec indépendance (loi
binomiale),
Répétitions en nombre fixe et sans indépendance (loi
hypergéométrique),
Répétitions en nombre aléatoire et avec indépendance
jusqu’à ce que l’on obtient le premier succès (loi
géométrique),
Répétitions en nombre aléatoire et avec indépendance
jusqu’à ce que l’on obtient les k premiers succès (loi
binomiale négative).

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

IV.3- Loi binomiale

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Définition
On considère une épreuve de Bernoulli de paramètre p.
Soit X une variable aléatoire désignant le nombre de succès
obtenus lorsqu’on répète successivement cette épreuve n fois
de façon indépendante.

X est appelée variable binomiale et la loi de X est appelée loi


binomiale de paramètres n et p.

On note X → B(n, p).

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Exemple
Soit E un ensemble formé de N = (N1 + N2 ) éléments avec N1
éléments de type S (succès) et N2 éléments de type S.
On choisit au hasard, successivement avec remise, un
échantillon de n éléments dans l’ensemble E.

Soit X la variable aléatoire désignant le nombre d’éléments de


type S (nombre de succès).

Il s’agit d’une succession de n épreuves de Bernoulli


indépendantes et ayant le même paramètre p = NN1

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Proposition
Une variable aléatoire X suit une loi binomiale de paramètres
n et p si et seulement si :

X (Ω) = {0, 1, . . . , n}

∀ k ∈ X (Ω), P(X = k ) = Cnk pk q n−k


avec q = 1 − p

Proposition
Soit X une variable qui suit une loi binomiale de paramètres n
et p. Alors on a :

E(X ) = np et V (X ) = npq
2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Reconnaissance de la loi B(n, p)

Une variable aléatoire X suit une loi binomiale de paramètres


n et p si et seulement si on a les conditions suivantes :
- Le nombre de répétitions de l’épreuve de Bernoulli, de
paramètre p, est connu à l’avance (n répétitions).
- Les répétitions sont indépendantes.
- X représente le nombre de succès obtenus.

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Exemple

On lance un dé n fois.


Quelle est la probabilité d’obtenir k fois la face numéro 3 ?
Combien de lancers doit-on effectuer pour que la
probabilité d’obtenir au moins une fois le numéro 3 soit
supérieure à 0.9 ?

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Propriétés
Si X → B(n, p) et si Y = n − X , alors Y → B(n, q).
Si X et Y sont deux variables aléatoires indépendantes et
si X → B(n1 , p) et Y → B(n2 , p), alors la somme
S = X + Y suit une loi binomiale B(n1 + n2 , p).

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

IV.4- Loi hypergéométrique

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Définition
On considère une épreuve de Bernoulli de paramètre p.
On suppose qu’on a N1 possibilités pour réaliser le succès et
qu’on a N2 = N − N1 possibilités pour réaliser l’échec (p = NN1 ).
Soit X une variable aléatoire désignant le nombre de succès
obtenus lorsqu’on effectue n répétitions non indépendantes
de cette épreuve (n ≤ N).

La loi de probabilité de X est appelée loi hypergéométrique de


paramètres N, N1 et n.

On note X → H(N, N1 , n).

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Exemple
Soit E un ensemble formé de N = (N1 + N2 ) éléments avec N1
éléments de type S (succès) et N2 éléments de type S.
On choisit au hasard, simultanément ou successivement sans
remise, un échantillon de n éléments dans l’ensemble E.

Soit X la variable aléatoire désignant le nombre d’éléments de


type S (nombre de succès).

Il s’agit d’une succession de n épreuves de Bernoulli non


indépendantes et ayant le même paramètre p = NN1

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Proposition
Une variable aléatoire X suit une loi hypergéométrique de
paramètres N, N1 et n si et seulement si :

X (Ω) ⊆ {0, 1, . . . , n}
n−k
CNk 1 CN−N 1
∀ k ∈ X (Ω), P(X = k) =
CNn

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Proposition
Soit X une variable aléatoire qui suit une loi hypergéométrique
de paramètres N, N1 et n. Alors on a :

E(X ) = np

N −n
V (X ) = npq
N −1
N1
avec p = N , q =1−p

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Reconnaissance de la loi H(N, N1 , n)

Une variable aléatoire X suit une loi hypergéométrique de


paramètres N, N1 et n si et seulement si on a les conditions
suivantes :
- Le nombre de répétitions de l’épreuve de Bernoulli est connu
à l’avance (n répétitions).
- Les répétitions ne sont pas indépendantes.
- La probabilité de succès est la même pour toutes les
épreuves (p = NN1 ).
- X représente le nombre de succès obtenus.

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Exemple

Dans un jeu de loto, on choisit au hasard 6 numéros distincts


parmi {1, 2, . . . , 49}.
Parmi les 49 numéros, il y a 6 numéros gagnants (succès).
1) Calculer la probabilité pour obtenir k numéros gagnants,
2) En moyenne, combien peut-on obtenir de numéros
gagnants ?

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Notons X la variable aléatoire correspondant au nombre de


numéros gagnants.

On a X → H(49, 6, 6), Donc

X (Ω) = {0, . . . , 6}

et
6−k
C6k C43
p(X = k) = 6
C49

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

On obtient :

k 0 1 2 3
P(X = k ) 0.436 0.413 0.132 0.0177

k 4 5 6
P(X = k ) 9, 69.10−4 1, 84.10−5 7, 15.10−8

6
On a E(X ) = np = 6 49 ' 0.735

Donc en moyenne, on obtient moins d’un numéro gagnant en


jouant une grille de loto.

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Propriétés
On montre la formule de Vandermonde :
Xn
CNk 1 CNn−k
2
n
= C(N1 +N2 )
k=0
Si X → H(N, N1 , n), alors Y = (n − X ) → H(N, N2 , n).
Si X et Y sont indépendantes et si X → B(n1 , p) et
Y → B(n2 , p), alors
S = (X + Y ) → B(n1 + n2 , p),
X |(S = m) → H(n1 + n2 , n1 , m),
Y |(S = m) → H(n1 + n2 , n2 , m).

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Généralisation : loi multinomiale, loi polygéométrique


Soit E un ensemble formé de N = (N1 + N2 + ... + Nr )
éléments avec N1 éléments de type S1 , N2 éléments de type
S2 , ..., Nr éléments de type Sr (r > 2).
Soit pi la proportion d’éléments de type Si (pi = NNi ).
On choisit au hasard un échantillon de n éléments dans
l’ensemble E.
Soit Xi la variable aléatoire désignant le nombre d’éléments de
type Si (1 ≤ i ≤ r ).
On note P(X1 = k1 , X2 = k2 , ..., Xr −1 = kr −1 ) la probabilité
d’obtenir k1 éléments de type S1 , k2 éléments de type S2 , ...,
kr −1 éléments de type Sr −1 et kr = n − (k1 + k2 + ... + kr −1 )
éléments de type Sr . On distingue deux cas :

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

1er cas : Choix de manière successive avec remise :


n!
P(X1 = k1 , X2 = k2 , ..., Xr −1 = kr −1 ) = pk1 pk2 ...prkr
k1 !k2 !...kr ! 1 2

Cette loi de probabilité s’appelle loi multinomiale de


paramètres n, p1 , p2 , ..., pr −1 (pr = 1 − p1 − p2 − ... − pr −1 ).
C’est une généralisation de la loi binomiale.

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

2ème cas : Choix de manière successive sans remise ou


simultanée :

CNk11 CNk22 ...CNkrr


P(X1 = k1 , X2 = k2 , ..., Xr −1 = kr −1 ) =
CNn

Cette loi de probabilité s’appelle loi


poly-hypergéométrique de paramètres
N, N1 , N2 , ..., Nr −1 , n (Nr = N − N1 − N2 − ... − Nr −1 ).
C’est une généralisation de la loi hypergéométrique.

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Approximation d’une loi hypergéométrique

Proposition
Soit X une variable aléatoire qui suit une loi hypergéométrique
de paramètres N, N1 et n.
Si N est grand devant n (N > 20n), alors on peut approximer
la loi hypergéométrique par une loi binomiale de paramètre n
et p = NN1
n−k
CNk 1 CN−N 1
≈ Cnk pk q n−k
CNn

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

IV.5- Loi géométrique

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

On suppose maintenant qu’on répète, de manière


indépendante, une épreuve de Bernoulli de paramètre p
jusqu’à l’obtention du premier succès.

Donc, ce qui est aléatoire maintenant c’est le nombre de


répétitions nécessaires pour obtenir le premier succès.

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Définition
Soit X la variable aléatoire désignant le nombre de répétitions
indépendantes d’une épreuve de Bernoulli de paramètre p
jusqu’à l’obtention du premier succès.

La loi de probabilité de X est appelée loi géométrique de


paramètre p.

On note X → G(p).

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Proposition
Une variable aléatoire X suit une loi géométrique de
paramètre p si et seulement si :

X (Ω) = IN∗

∀ k ∈ X (Ω), P(X = k) = pq k−1

Proposition
Si une variable aléatoire X suit une loi géométrique de
paramètre p, alors on a :

1 q
E(X ) = et V (X ) = 2
p p
2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Reconnaissance

Une variable aléatoire X suit une loi géométrique de


paramètre p si et seulement si on a les conditions suivantes :
- Le nombre de répétions de l’épreuve de Bernoulli est
aléatoire.
- Les répétitions sont indépendantes.
- X représente le nombre de répétitions jusqu’à ce que le
premier succès se réalise.

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Généralisation : Loi binomiale négative

Définition
Soit X la variable aléatoire désignant le nombre de répétitions
indépendantes d’une épreuve de Bernoulli de paramètre p
jusqu’à l’obtention des r premiers succès.

La loi de probabilité de X est appelée loi binomiale négative


(ou loi de Pascal) de paramètres r et p.

On note X → BN (r , p).

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Proposition
Une variable aléatoire X suit une loi binomiale négative de
paramètres r et p si et seulement si :

X (Ω) = {r , r + 1, . . . , ∞}
r −1 r k−r
∀ k ∈ X (Ω), P(X = k ) = Ck−1 pq

Proposition
Si une variable aléatoire X suit une loi binomiale négative de
paramètres r et p, alors on a :
r q
E(X ) = et V (X ) = r 2
p p
2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI
IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Exemple

Une urne contient 5 boules blanches et 10 boules noires. On


effectue des titages suuccessifs et avec remise.
1) Quelle est la probabilité que la première boule blanche soit
tirée au 5ième tirage ?
2) Quelle est la probabilité que la 3ème boule blanche soit
tirée au 5ième tirage ?

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Soit X la variable aléatoire qui représente le nombre de boules


tirées jusqu’à l’obtention de la première boule blanche.

1
X → G( )
3
2 1 16
P(X = 5) = ( )4 =
3 3 243
Soit Y la variable aléatoire qui représente le nombre de boules
tirées jusqu’à l’obtention de 3 boules blanches.

1
Y → BN (3, )
3
1 2 8
P(Y = 5) = C42 ( )3 ( )2 =
3 3 81

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

IV.6- Loi de Poisson

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Définition
On dit qu’une variable aléatoire X suit une loi de Poisson de
paramètre λ > 0 si et seulement si :

X (Ω) = IN

et
λk e−λ
∀ k ∈ X (Ω), P(X = k ) =
k!
on note X → P(λ).

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Proposition
Soit X une variable aléatoire qui suit une loi de Poisson de
paramètre λ. Alors on a :

E(X ) = λ

V (X ) = λ

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Reconnaissance

On reconnait qu’une variable aléatoire X suit une loi de


Poisson de paramètre λ (noté λ = µ × s) si on a les conditions
suivantes :
- On s’intéresse à un phénomène aléatoire qui se produit en
moyenne µ fois par unité de temps.
- X représente le nombre de fois que ce phénomène se produit
(nombre de succès) durant une durée dégale à s unités.

(Le phénomène aléatoire se produit en moyenne λ fois durant


une durée égale à s unités).

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Exemple

On admet que le nombre moyen d’appels téléphoniques reçus


par un standardiste est égal à 12 appels par heure.
Quelle est la probabilité que ce standardiste reçoit au moins 3
appels durant une période de 10 mn ?

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Soit X la variable aléatoire qui compte le nombre d’appels


reçus pendant la durée s = 10mn = 16 h.
On a µ = 12 appels/heure. Donc, λ = µ × s = 2 et alors

X → P(2)

D’où
P(X ≥ 3) = 1 − P(X < 3) = 1 − 5e−2

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Propriétés
Si X et Y sont deux variables aléatoires indépendantes et
si X → P(λ1 ) et Y → P(λ2 ), alors
S = (X + Y ) → P(λ1 + λ2 ),
X |(S = n) → B(n, (λ1λ+λ
1
2)
),
Y |(S = n) → B(n, (λ1λ+λ
2
2)
).
Si X et Y sont deux variables aléatoires telle que leur
somme suit une loi de Poisson, alors X et Y sont
indépendantes et elles suivent eux mêmes des lois de
Poisson.

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


IV.1- Loi uniforme
I- Définition
IV.2- Loi de Bernoulli
II- Loi de probabilité - Fonction de répartition
IV.3- Loi binomiale
III- Paramètres d’une variable aléatoire
IV.4- Loi hypergéométrique
IV- Lois de probabilité usuelles
IV.5- Loi géométrique
V- Couple de variables aléatoires
IV.6- Loi de Poisson

Approximation d’une loi binomiale

Proposition
Soit X une variable aléatoire qui suit une loi binomiable de
paramètres n et p.
Si n est assez grand (n ≥ 30) et p petit (p ≤ 0.1), de telle sorte
que le produit np soit ≤ 5, alors on peut approximer la loi
binomiale B(n, p) par une loi de Poisson de paramètre λ = np :

λk e−λ
Cnk pk q n−k ≈
k!

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition V.1- Loi d’un couple aléatoire
III- Paramètres d’une variable aléatoire V.2- Variables aléatoires indépendantes
IV- Lois de probabilité usuelles V.3- Covariance
V- Couple de variables aléatoires

V- Couple de variables
aléatoires

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition V.1- Loi d’un couple aléatoire
III- Paramètres d’une variable aléatoire V.2- Variables aléatoires indépendantes
IV- Lois de probabilité usuelles V.3- Covariance
V- Couple de variables aléatoires

V.1- Loi d’un couple aléatoire

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition V.1- Loi d’un couple aléatoire
III- Paramètres d’une variable aléatoire V.2- Variables aléatoires indépendantes
IV- Lois de probabilité usuelles V.3- Covariance
V- Couple de variables aléatoires

Définition
Soit (Ω, E(Ω), P) un espace probabilisé et soient X et Y deux
variables aléatoires discrètes sur Ω.
On appelle loi de probabilité du couple (X , Y ) l’application,
notée P(X ,Y ) , définie de X (Ω) × Y (Ω) dans [0, 1] par :

∀ (xi , yj ) ∈ X (Ω)×Y (Ω), P(X ,Y ) (xi , yj ) = P (X = xi ) ∩ (Y = yj )

Les lois de probabilité de X et de Y s’appellent lois marginales


du couple (X , Y ).

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition V.1- Loi d’un couple aléatoire
III- Paramètres d’une variable aléatoire V.2- Variables aléatoires indépendantes
IV- Lois de probabilité usuelles V.3- Covariance
V- Couple de variables aléatoires

Remarques :
Pour définir la loi de probabilité du couple (X , Y ), il faut et
il suffit de connaı̂tre les valeurs pij = P(X ,Y ) (xi , yj ),
∀ (xi , yj ) ∈ X (Ω) × Y (Ω).
X
On a : pij = 1.
i,j
X
P(X ,Y ) (I × J) = P((X ∈ I) ∩ (Y ∈ J)) = pij
xi ∈I,yj ∈J

Si X (Ω) et Y (Ω) sont finis, la loi du couple (X , Y ) et les


lois marginales de X et de Y peuvent être représentées
par un tableau à deux dimensions (tableau de
contingence) :

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition V.1- Loi d’un couple aléatoire
III- Paramètres d’une variable aléatoire V.2- Variables aléatoires indépendantes
IV- Lois de probabilité usuelles V.3- Covariance
V- Couple de variables aléatoires

Exemple

Dans une urne contenant 8 boules rouges, 6 boules vertes et


4 boules blanches, on tire successivement sans remise 3
boules.
Soit X le nombre de boules rouges parmi les 3 boules tirées et
Y le nombre de boules vertes parmi les 3 boules tirées.
Déterminer la loi de probabilité du couple (X , Y ).

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition V.1- Loi d’un couple aléatoire
III- Paramètres d’une variable aléatoire V.2- Variables aléatoires indépendantes
IV- Lois de probabilité usuelles V.3- Covariance
V- Couple de variables aléatoires

Le couple (X , Y ) suit une loi poly-hypergéométrique de


paramètres N = 18, N1 = 8, N2 = 6 et n = 3 :

C8k1 C6k2 C43−k1 −k2


P(X = k1 , Y = k2 ) = 3
C18

Y 0 1 2 3 Total
X
4 36 60 20 120
0 816 816 816 816 816
48 192 120 360
1 816 816 816 0 816
112 168 280
2 816 816 0 0 816
56 56
3 816 0 0 0 816
220 396 180 20
Total 816 816 816 816 1

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition V.1- Loi d’un couple aléatoire
III- Paramètres d’une variable aléatoire V.2- Variables aléatoires indépendantes
IV- Lois de probabilité usuelles V.3- Covariance
V- Couple de variables aléatoires

V.2- Variables indépendantes

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition V.1- Loi d’un couple aléatoire
III- Paramètres d’une variable aléatoire V.2- Variables aléatoires indépendantes
IV- Lois de probabilité usuelles V.3- Covariance
V- Couple de variables aléatoires

Définition
Deux variables aléatoires X et Y sont dites indépendantes si
et seulement si ∀ (xi , yj ) ∈ X (Ω) × Y (Ω), les événements
(X = xi ) et (Y = yj ) sont indépendants.

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition V.1- Loi d’un couple aléatoire
III- Paramètres d’une variable aléatoire V.2- Variables aléatoires indépendantes
IV- Lois de probabilité usuelles V.3- Covariance
V- Couple de variables aléatoires

Corollaire
Deux variables aléatoires X et Y sont dites indépendantes si
et seulement si

∀ (xi , yj ) ∈ X (Ω) × Y (Ω), P(X ,Y ) (xi , yj ) = PX (xi ) × PY (yj )

On dit alors que la loi du couple (X , Y ) est égale au produit


des lois marginales.

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition V.1- Loi d’un couple aléatoire
III- Paramètres d’une variable aléatoire V.2- Variables aléatoires indépendantes
IV- Lois de probabilité usuelles V.3- Covariance
V- Couple de variables aléatoires

V.3- Covariance

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition V.1- Loi d’un couple aléatoire
III- Paramètres d’une variable aléatoire V.2- Variables aléatoires indépendantes
IV- Lois de probabilité usuelles V.3- Covariance
V- Couple de variables aléatoires

Définition
On appelle covariance des variables aléatoires X et Y le
nombre réel (si il existe), noté Cov (X , Y ), défini par :

Cov (X , Y ) = E(XY ) − E(X ).E(Y )

On a : X X
E(XY ) = xi .yj .pij
xi ∈X (Ω) yj ∈Y (Ω)

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition V.1- Loi d’un couple aléatoire
III- Paramètres d’une variable aléatoire V.2- Variables aléatoires indépendantes
IV- Lois de probabilité usuelles V.3- Covariance
V- Couple de variables aléatoires

Propriétés :

Soient X et Y deux variables aléatoires et a et b deux


constantes réelles, on a :
Cov (X + a, Y + b) = Cov (X , Y )
Cov (aX , bY ) = ab.Cov (X , Y )
E(XY)=E(X).E(Y)+Cov(X,Y)
V(X+Y)=V(X)+V(Y)+2Cov(X,Y)
Si X et Y sont indépendantes alors Cov (X , Y ) = 0
La réciproque est fausse.

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition V.1- Loi d’un couple aléatoire
III- Paramètres d’une variable aléatoire V.2- Variables aléatoires indépendantes
IV- Lois de probabilité usuelles V.3- Covariance
V- Couple de variables aléatoires

Exemple

\Y 0 1 2
X \
1 1
0 0 0
2 2
1 1 1
1 0
4 4 2
1 1 1
1
4 2 4
On a : E(X ) = 1/2, E(Y)=1, et E(XY)=1/2. Donc
Cov (X , Y ) = 0
Cependant X et Y ne sont pas indépendantes.

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition V.1- Loi d’un couple aléatoire
III- Paramètres d’une variable aléatoire V.2- Variables aléatoires indépendantes
IV- Lois de probabilité usuelles V.3- Covariance
V- Couple de variables aléatoires

Exercice

Soient X et Y deux variables aléatoires indépendantes


définies sur un même univers, dont les lois de probabilité sont
données par :

xi 0 1 2 3
PX (xi ) 0.1 0.2 0.3 0.4

yi 1 2 3
PY (yi ) 0.25 0.5 0.25

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition V.1- Loi d’un couple aléatoire
III- Paramètres d’une variable aléatoire V.2- Variables aléatoires indépendantes
IV- Lois de probabilité usuelles V.3- Covariance
V- Couple de variables aléatoires

1) Calculer l’espérance et la variance des deux variables.


2) Donner la loi de probabilité conjointe du couple (X , Y ).
3) Donner la loi de probabilité de T = X + Y et calculer E(T )
et V (T ).
4) Donner la loi de probabilité de Z = XY et calculer E(Z ) et
V (Z ).
5) Calculer Cov (X , Y ).

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Loi de probabilité - Fonction de répartition V.1- Loi d’un couple aléatoire
III- Paramètres d’une variable aléatoire V.2- Variables aléatoires indépendantes
IV- Lois de probabilité usuelles V.3- Covariance
V- Couple de variables aléatoires

Fin chapitre 2

2ème partie : PROBABILITÉS - Chapitre 2 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
III- Paramètres d’une variable aléatoire continue
IV- Lois usuelles
V- Approximations par une loi normale

Chapitre 3

Variables aléatoires continues

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
III- Paramètres d’une variable aléatoire continue
IV- Lois usuelles
V- Approximations par une loi normale

I- Définition

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
III- Paramètres d’une variable aléatoire continue
IV- Lois usuelles
V- Approximations par une loi normale

Définition
Soit Ω un univers infini non dénombrable.
Une variable aléatoire X définie sur Ω est dite continue si et
seulement si l’ensemble X (Ω) est infini non dénombrable.
X (Ω) est un intervalle de R ou une réunion d’intervalles de R.

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
III- Paramètres d’une variable aléatoire continue
IV- Lois usuelles
V- Approximations par une loi normale

Exemple
On lance une flèche sur une cible matérialisée par un disque
de rayon R. On a :

Ω = {M(x, y) / x2 + y2 ≤ R}
On note X la variable aléatoire qui désigne la distance du point
d’impact de la flèche au centre du disque. On a :

X (Ω) = [0, R]

X (Ω) est un intervalle de R. Donc, X est une variable aléatoire


continue.

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
II.1- Fonction de répartition
III- Paramètres d’une variable aléatoire continue
II.2- Fonction densité de probabilité
IV- Lois usuelles
V- Approximations par une loi normale

II- Fonction de répartition -


fonction densité de probabilité

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
II.1- Fonction de répartition
III- Paramètres d’une variable aléatoire continue
II.2- Fonction densité de probabilité
IV- Lois usuelles
V- Approximations par une loi normale

II.1- Fonction de répartition


Définition
Soit (Ω, E(Ω), P) un espace probabilisé et soit X une variable
aléatoire continue sur Ω.
On appelle fonction de répartition de X , l’application, notée
FX , définie de R vers [0, 1] par :

∀ x ∈ R, FX (x) = P(X ≤ x)

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
II.1- Fonction de répartition
III- Paramètres d’une variable aléatoire continue
II.2- Fonction densité de probabilité
IV- Lois usuelles
V- Approximations par une loi normale

Propriétés caractéristiques :

Soit X une variable aléatoire continue. Sa fonction de


répartition FX doit vérifier :
1 FX est croissante sur R (au sens large),
2 lim FX (x) = 0
x→−∞
3 lim FX (x) = 1,
x→+∞
4 FX est continue sur R,

Toute fonction vérifiant ces propriétés peut être considérée


comme la fonction de répartition d’une variable aléatoire
continue.

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
II.1- Fonction de répartition
III- Paramètres d’une variable aléatoire continue
II.2- Fonction densité de probabilité
IV- Lois usuelles
V- Approximations par une loi normale

II.2- Fonction densité de probabilité


Définition
Soit X une variable aléatoire continue et soit FX sa fonction de
répartition.
On appelle fonction densité de probabilité de X , notée fX , la
fonction dérivée de FX . C’est donc la fonction définie de R
vers [0, 1] par :
0
∀ x ∈ R, fX (x) = FX (x)

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
II.1- Fonction de répartition
III- Paramètres d’une variable aléatoire continue
II.2- Fonction densité de probabilité
IV- Lois usuelles
V- Approximations par une loi normale

Propriétés caractéristiques :

Soit X une variable aléatoire continue. Sa fonction densité de


probabilité fX doit vérifier :
1 fX (x) ≥ 0 ∀x ∈ R,
Z +∞
2 fX (x)dx = 1.
−∞

Toute fonction vérifiant ces propriétés peut être considérée


comme la fonction densité de probabilité d’une variable
aléatoire continue.

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
II.1- Fonction de répartition
III- Paramètres d’une variable aléatoire continue
II.2- Fonction densité de probabilité
IV- Lois usuelles
V- Approximations par une loi normale

Définition
Soit X une variable aléatoire continue et soit fX sa fonction
densité de probabilité.
On peut définir la fonction de répartition de X à partir de la
fonction densité de probabilité par la formule suivante :
Z x
∀ x ∈ R, FX (x) = fX (t)dt
−∞

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
II.1- Fonction de répartition
III- Paramètres d’une variable aléatoire continue
II.2- Fonction densité de probabilité
IV- Lois usuelles
V- Approximations par une loi normale

Remarques et propriétés
Soit X une variable aléatoire continue.
On peut effectuer les calculs des probabilités pour X , soit
en utilisant sa fonction de répartition FX , soit en utilisant
sa fonction densité de probabilité fX . On a :
Z b
P(a < X ≤ b) = FX (b) − FX (a) = fX (t)dt
a

Ainsi, la probabilité pour que X prenne une valeur isolée x


est nulle :
∀ x ∈ R, P(X = x) = 0

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
II.1- Fonction de répartition
III- Paramètres d’une variable aléatoire continue
II.2- Fonction densité de probabilité
IV- Lois usuelles
V- Approximations par une loi normale

Par conséquent, pour une variable aléatoire continue X ,


les probabilités relatives à un intervalle avec les inégalités
larges ou strictes sont identiques :
Z a
P(X ≤ a) = P(X < a) = FX (a) = fX (t)dt,
−∞
Z +∞
P(X ≥ a) = P(X > a) = 1 − FX (a) = fX (t)dt,
a
P(a < X < b) = P(a ≤ X ≤ b) = P(a < X ≤ b) = P(a ≤
Z b
X < b) = FX (b) − FX (a) = fX (t)dt,
a

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
II.1- Fonction de répartition
III- Paramètres d’une variable aléatoire continue
II.2- Fonction densité de probabilité
IV- Lois usuelles
V- Approximations par une loi normale

Exemple1
Soit X une variable aléatoire continue dont la fonction de
répartition est définie par :

a − be−2x si x > 0

FX (x) =
0 sinon

1 Déterminer les constantes a et b.


2 Déterminer la fonction densité de probabilité de X .
3 Calculer les probabilités suivantes : P(X > 1),
P(−1 < X < 2), P ((−1 < X < 2)|(X > 1)).

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
II.1- Fonction de répartition
III- Paramètres d’une variable aléatoire continue
II.2- Fonction densité de probabilité
IV- Lois usuelles
V- Approximations par une loi normale

Exemple2
Soit X une variable aléatoire continue dont la fonction densité
de probabilité est définie par :

ke−2x si x ≥ 0

fX (x) =
0 sinon

1 Déterminer la constante k .
2 Calculer la probabilité des événements suivants : (X ≥ 1),
(−1 ≤ X ≤ 2).
3 Déterminer la fonction de répartition de X .
4 Déterminer la fonction densité de probabilité de la variable
aléatoire Y = 3 − 2X .

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
II.1- Fonction de répartition
III- Paramètres d’une variable aléatoire continue
II.2- Fonction densité de probabilité
IV- Lois usuelles
V- Approximations par une loi normale

Changement de variables aléatoires

Soient X une variable alétoire continue, FX sa fonction de


répartition, fX sa fonction densité de probabilité et soit g une
fonction réelle. Alors :
Y = g(X ) est une variable aléatoire dont on peut déterminer la
fonction de répartition ou/et la fonction densité à partir de
celles de X . On a :

FY (x) = P(Y ≤ x) = P(g(X ) ≤ x) = ...

La suite des calculs dépend de la nature de la fonction g(X )


(bijective, croissante, décroissante ou quelconque).

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
II.1- Fonction de répartition
III- Paramètres d’une variable aléatoire continue
II.2- Fonction densité de probabilité
IV- Lois usuelles
V- Approximations par une loi normale

Exemple1
Soit X une variable aléatoire continue et soit Y = exp(X ). On
a:

P(X ≤ ln(x)) si x > 0
FY (x) = P(Y ≤ x) = P(exp(X ) ≤ x) =
0 sinon

Donc FY est définie par :



FX (ln(x)) si x > 0
FY (x) =
0 sinon

et on obtient la fonction densité fY par dérivation de FY :


 1
fY (x) = x fX (ln(x)) si x > 0
0 sinon

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
II.1- Fonction de répartition
III- Paramètres d’une variable aléatoire continue
II.2- Fonction densité de probabilité
IV- Lois usuelles
V- Approximations par une loi normale

Exemple2
Soit X une variable aléatoire continue et soit Y = X 2 . On a :
 √ √
2 P(− x ≤ X ≤ x) si x > 0
FY (x) = P(Y ≤ x) = P(X ≤ x) =
0 sinon

Donc FY est définie par :


 √ √
FX ( x) − FX (− x) si x > 0
FY (x) =
0 sinon

D’où :
(
1 √ √
√ (f ( x)
2 x X
+ fX (− x)) si x > 0
fY (x) =
0 sinon

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
II.1- Fonction de répartition
III- Paramètres d’une variable aléatoire continue
II.2- Fonction densité de probabilité
IV- Lois usuelles
V- Approximations par une loi normale

Exemple3
Soit X une variable aléatoire continue dont la fonction densité
de probabilité est donnée par :

4x3 si 0 < x < 1



fX (x) =
0 sinon

Déterminer la fonction densité de probabilité de la variable


Y = 1 − 3X 2 .

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
II.1- Fonction de répartition
III- Paramètres d’une variable aléatoire continue
II.2- Fonction densité de probabilité
IV- Lois usuelles
V- Approximations par une loi normale

On a
FY (x) = P(Y ≤ x) = P(1 − 3X 2 ≤ x)
1−x
= P(X 2 > )
3
( q q
1 − P(− 1−x3 ≤ X ≤ 1−x
3 ) si
1−x
3 >0
=
1 sinon
( q q
1 − FX ( 1−x
3 ) + FX (−
1−x
3 ) si x < 1
=
1 sinon

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
II.1- Fonction de répartition
III- Paramètres d’une variable aléatoire continue
II.2- Fonction densité de probabilité
IV- Lois usuelles
V- Approximations par une loi normale

D’où :
 q q
q1 1−x
+ fX (− 1−x
(fX ( 3 ) 3 )) si x < 1

fY (x) = 6 1−x
3
0 sinon

En remplaçant fX par son expression, on obtient :


 2 1−x
fY (x) = 3 ( 3 ) si −2 < x < 1
0 sinon

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité III.1- Espérance mathématique
III- Paramètres d’une variable aléatoire continue III.2- Variance et écart-type
IV- Lois usuelles III.3- Quantiles
V- Approximations par une loi normale

III- Paramètres d’une variable


aléatoire continue

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité III.1- Espérance mathématique
III- Paramètres d’une variable aléatoire continue III.2- Variance et écart-type
IV- Lois usuelles III.3- Quantiles
V- Approximations par une loi normale

III.1- Espérance mathématique


Définition
Soit X une variable aléatoire continue et soit fX sa fonction
densité de probabilité.
L’espérance mathématique de X (si elle existe) est définie par :
Z +∞
E(X ) = x.fX (x)dx
−∞

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité III.1- Espérance mathématique
III- Paramètres d’une variable aléatoire continue III.2- Variance et écart-type
IV- Lois usuelles III.3- Quantiles
V- Approximations par une loi normale

Changement de variables aléatoires

Soient X une variable alétoire continue, fX sa fonction densité


de probabilité et soit g une fonction réelle continue. Alors :
Y = g(X ) est une variable aléatoire continue dont on peut
calculer l’espérance (si elle existe) en utilisant la fonction
densité de probabilité de X . On a :
Z +∞
E(Y ) = g(x)fX (x)dx
−∞

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité III.1- Espérance mathématique
III- Paramètres d’une variable aléatoire continue III.2- Variance et écart-type
IV- Lois usuelles III.3- Quantiles
V- Approximations par une loi normale

III.2- Variance et écart-type


Définition
On suppose que l’espérance de X existe.
La variance de X (si elle existe) est définie par :

V (X ) = E(X 2 ) − (E(X ))2

Définition
Si la variance de X existe, l’écart-type de X est défini par :
p
σ(X ) = V (X )

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité III.1- Espérance mathématique
III- Paramètres d’une variable aléatoire continue III.2- Variance et écart-type
IV- Lois usuelles III.3- Quantiles
V- Approximations par une loi normale

Propriétés
Soient X et Y deux variables aléatoires continues et a et b
deux constantes réelles. On a :
E(aX + b) = aE(X ) + b,
V (aX + b) = a2 V (X ),
E(X + Y ) = E(X ) + E(Y ),
Si X et Y sont indépendantes alors :
E(XY ) = E(X )E(Y )
V (X + Y ) = V (X ) + V (Y ).

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité III.1- Espérance mathématique
III- Paramètres d’une variable aléatoire continue III.2- Variance et écart-type
IV- Lois usuelles III.3- Quantiles
V- Approximations par une loi normale

III.3- Quantiles

Définition
Soit X une variable alétoire continue et soit FX sa fonction de
répartition.
On appelle quantile d’ordre k (0 < k < 1) de X la valeur, notée
zk , telle que : FX (zk ) = k .

La médiane, notée Me , est le quantile d’ordre 1/2.


Le premier quartile, noté Q1 , est le quantile d’ordre 1/4.
Le troisième quartile, noté Q3 , est le quantile d’ordre 3/4.
i
Le i ème décile, noté Di , est le quantile d’ordre ,
10
1 ≤ i ≤ 9.

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité III.1- Espérance mathématique
III- Paramètres d’une variable aléatoire continue III.2- Variance et écart-type
IV- Lois usuelles III.3- Quantiles
V- Approximations par une loi normale

Exemple
Soit X une variable aléatoire dont la fonction densité de
probabilité est définie par :

 x si x ∈]0, 1[
fX (x) = k − x si x ∈ [1, 2]
0 sinon

1) Déterminer la constante k.
2) Calculer les quartiles, l’espérance et la variance de X .
4) Soit Y une variable aléatoire définie par Y = 3 − 2X .
a) Déterminer la fonction densité de probabilité de Y .
b) Calculer les quartiles, l’espérance et la variance de Y .

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

IV- Lois usuelles

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

IV.1- Loi uniforme

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

Définition
Soit X une variable aléatoire continue. On dit que X suit la loi
uniforme sur l’intervalle [a, b] si et seulement si sa densité de
probabilité est définie par :

 1
si x ∈ [a, b]
fX (x) = b−a
 0 sinon

On note X → U([a, b]).

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

Proposition
Soit X une variable aléatoire continue qui suit une loi uniforme
sur l’intervalle [a, b]. Alors on a :

 x0
 si x ≤ a
−a
FX (x) = si x ∈ [a, b]
 b−a
si x ≥ b

1

a+b
E(X ) = Me (X ) =
2
(a − b)2
V (X ) =
12

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

Exemple
Le temps de retard d’un train suit une loi uniformément
distribuée entre 0 et 30 minutes.
1) Quelle la probabilité que l’attente d’arrivée de ce train dure
entre 10 et 15 minutes ?
2) Sachant que le train n’est pas arrivé après 10 minutes,
quelle est la probabilité que l’attente dure encore moins de 5
minutes ?
3) Quelle la probabilité que l’attente dure entre 20 et 40
minutes ?

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

Soit X =temps de retard du train. On a X → U([0, 30]).


D’où
15 − 10 1
1) P(10 ≤ X ≤ 15) = =
30 − 0 6
5
P(10 ≤ X ≤ 15) 1
2) P(X ≤ 15|X ≥ 10) = = 30 10 =
P(X ≥ 10) 1 − 30 4
1 40 − 20
3) P(20 ≤ X ≤ 40) = 6=
3 30 − 0

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

IV.2- Loi exponentielle

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

Définition
On dit qu’une variable aléatoire continue X suit la loi
exponentielle de paramètre λ (λ > 0) si et seulement si sa
densité de probabilité est définie par :

λe−λx si x ≥ 0

fX (x) =
0 sinon

On note X → E(λ).

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

Proposition
Soit X une variable aléatoire continue qui suit une loi
exponentielle de paramètre λ. Alors on a :

1 − e−λx si x ≥ 0

FX (x) =
0 sinon

ln(2)
Me(X ) =
λ
1
E(X ) =
λ
1
V (X ) = 2
λ

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

Remarque : Reconnaissance de la loi exponentielle


La loi exponentielle peut être liée à la loi de Poisson :
Proposition
Soit Y une variable aléatoire discrète qui suit une loi de
Poisson de paramètre λ.
Si X est une variable aléatoire continue qui représente le
temps qui sépare deux réalisations consécutives de ce
processus de Poisson, alors X suit une loi exponentielle de
paramètre λ.

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

Exemple
Dans une région, les pannes d’électricité se produisent en
moyenne deux fois par mois.
a) Quelle la probabilité que durant un mois, on observe au
moins 3 pannes ?
b) Quelle la probabilité que le temps qui sépare les deux
prochaines pannes soit inférieur à 10 jours ?

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

Soit Y = nombre de pannes par mois et soit X = le temps (en


mois) qui sépare 2 pannes consécutives.
On a Y → P(2) et X → E(2). Donc
a) P(Y ≥ 3) = 1 − P(X < 3) = 1 − 5e−2 .
b) P(X < 1/3) = FX (1/3) = 1 − e−2/3 .

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

Exemple
Les données statistiques montrent que les décès dans une
urgence se produisent avec une moyenne de 3 décès par
année.
Si une personne est décédée aujourd’hui, quelle est la
probabilité que le prochain décès soit dans plus de 4 mois ?

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

IV.3- Loi Normale

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

Définition
On dit qu’une variable aléatoire continue X suit la loi normale
(ou loi de Gauss) de paramètres m et σ si et seulement si sa
fonction densité de probabilité est définie par :

(x − m)2
 
1
fX (x) = √ exp − , ∀x ∈R
σ 2π 2σ 2

On note X → N (m, σ).


N (0, 1) est appelée loi normale centrée réduite.

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

Proposition
Soit X une variable aléatoire continue qui suit une loi normale
de paramètres m et σ. Alors on a :

E(X ) = Me (X ) = Mo (X ) = m

V (X ) = σ 2

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

Définition
Soit X une variable aléatoire continue qui suit une loi normale
de paramètres m et σ. La fonction de répartition de X est
définie par :
Z x
(t − m)2
 
1
FX (x) = √ exp − dt , ∀ x ∈ R
σ 2π −∞ 2σ 2

Remarque
La fonction de répartition d’une loi normale ne peut pas être
exprimée à l’aide de fonctions usuelles.

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

Pour surmonter cette difficulté, nous utilisons des


approximations numériques. Particulièrement, nous utilisons
une table qui donne les valeurs de la fonction de répartition de
la loi normale centrée réduite N (0, 1).
Evidemment, on ne peut pas avoir de telle table pour toutes
les lois normales N (m, σ).

Cependant, on peut déduire les valeurs de la fonction de


répartition d’une loi normale quelconque N (m, σ) à partir de
celle d’une loi normale centrée réduite N (0, 1) en utilisant la
proposition suivante :

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

Proposition
La fonction densité de probabilité et la fonction de répartition
de la loi normale centrée réduite N (0, 1) sont notées
respectivement ϕ(x) et Φ(x).
Soit X une variable aléatoire qui suit une loi normale de
paramètres m et σ (X → N (m, σ)). Alors, on a :
 
x−m
FX (x) = Φ
σ
 
1 x−m
fX (x) = ϕ
σ σ

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

Utilisation de la table numérique de Φ(x)

La table fournie en annexe de ce cours est une table à double


entrée avec laquelle on peut déterminer les valeurs
approchées de Φ(x), ∀ x ∈ R.

Cette table est composée d’une grande table pour les valeurs
de x comprises entre 0 et 2.99 et d’une petite table pour les
valeurs de x comprises entre 3 et 5.9 :

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

Pour les valeurs de x variant de 0 à 2.99, on cherche dans


la 1ère colonne de la grande table, la ligne qui correspond
à la partie entière et le chiffre décimal de x et on cherche
dans la 1ère ligne de la table, la colonne qui correspond
au chiffre centième de x.
A l’intersection de cette ligne et de cette colonne, on lit la
valeur de Φ(x).
Par exemple, la valeur de Φ(1.34) se trouve à
l’intersection de la ligne 1.3 et de la colonne 0.04
On trouve : φ(1.34) = 0.90988

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

Pour les valeurs de x comprises entre 3 et 5.9, on utilise la


petite table qui donne 1 − Φ(x) :
On cherche la ligne qui correspond à la partie entière de x
et la colonne qui correspond au chiffre décimal de x.
A l’intersection de cette ligne et de cette colonne, on lit la
valeur de 1 − Φ(x).
La notation {m; k} signifie : 1 − Φ(x) = m × 10−k .
Par exemple, la valeur de 1 − Φ(4.6) se trouve à
l’intersection de la ligne 4 et de la colonne 0.6
Donc, Φ(4.6) = 1 − 2.11 × 10−6 .

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

Pour les valeurs de x avec plus de 2 chiffres après la


virgule, on détermine Φ(x) soit par arrondi soit par
interpolation linéaire (pour plus de précision).
Par exemple, la valeur de Φ(1.3476) peut être approximée
soit par Φ(1.35) (on trouve 0.91149), soit par interpolation
à partir des valeurs de Φ(1.34) et de Φ(1.35) (on trouve
0.91110).
Pour les valeurs de x > 5.9, on considère que Φ(x) ' 1.
Pour les valeurs négatives de x, on utilise la propriété :

Φ(−x) = 1 − Φ(x)

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

Exemple

Soit X → N (45, 4).


1) Calculer P(X < 39), P(X ≥ 48) et P(39 < X < 48).
2) Calculer P(|X − m| ≤ σ).
3) Déterminer la valeur de a tel que P(X < a) = 0.40129.

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

1)
P(X < 39) = FX (39) = Φ( 39−45
4 ) = Φ(−1.5) = 0.06681
P(X ≥ 48) = 1 − FX (48) = 1 − Φ(0.75) = 0.22663
P(39 < X < 48) = Φ(0.75) − Φ(−1.5) = 0.70656
2)
P(|X −m| ≤ σ) = P(m−σ < X < m+σ) = 2Φ(1)−1 = 0.68268

3)
P(X < a) = 0.40129 ⇔ Φ( a−45
4 ) = 1 − Φ(0.25) = Φ(−0.25).
D’où a = 44

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité IV.1- Loi uniforme
III- Paramètres d’une variable aléatoire continue IV.2- Loi exponentielle
IV- Lois usuelles IV.3- Loi Normale
V- Approximations par une loi normale

Propriété

Proposition
Si X1 et X2 sont deux variables aléatoires indépendantes de
lois respectives N (m1 , σ1 ) et N (m2 , σ2 ).
Alors la variable
q aléatoire S = X1 + X2 suit la loi normale
N (m1 + m2 , σ12 + σ22 ).

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
V.1- Approximation d’une loi binomiale
III- Paramètres d’une variable aléatoire continue
V.2- Approximation d’une loi de Poisson
IV- Lois usuelles
V- Approximations par une loi normale

V- Approximations par une loi


normale

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
V.1- Approximation d’une loi binomiale
III- Paramètres d’une variable aléatoire continue
V.2- Approximation d’une loi de Poisson
IV- Lois usuelles
V- Approximations par une loi normale

V.1- Approximation d’une loi binomiale

Proposition
Soit X une variable aléatoire qui suit une loi binomiale B(n, p).
Alors :
Pour n suffisamment grand (n ≥ 30) et p et q pas trop proches
de zéro (np ≥ 5 et nq ≥ 5), la loi binomiale B(n, p) peut être
approximée par la loi normale de paramètres m = np et

σ = npq.

On note : B(n, p) ≈ N (np, npq).

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
V.1- Approximation d’une loi binomiale
III- Paramètres d’une variable aléatoire continue
V.2- Approximation d’une loi de Poisson
IV- Lois usuelles
V- Approximations par une loi normale

V.2- Approximation d’une loi de Poisson

Proposition
Soit X une variable aléatoire qui suit une loi de Poisson P(λ).
Alors :
Pour λ suffisamment grand (λ ≥ 20), la loi de Poisson P(λ)
peut être
√ approximée par la loi normale de paramètres m = λ
et σ = λ.

On note : P(λ) ≈ N (λ, λ).

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
V.1- Approximation d’une loi binomiale
III- Paramètres d’une variable aléatoire continue
V.2- Approximation d’une loi de Poisson
IV- Lois usuelles
V- Approximations par une loi normale

Remarque : Correction de continuité

Il faut faire attention lorsqu’on approxime une loi d’une variable


discrète avec une loi normale qui est associée à une variable
continue.
Pour une loi discrète, les probabilités sont concentrées en des
points isolés, alors qu’une loi continue affecte une probabilité
nulle à tout point isolé.
Par exemple si X → B(100, 0.4), comment calculer P(X = 50)
avec la loi normale ?

(L’approximation par une loi normale est justifiée).

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
V.1- Approximation d’une loi binomiale
III- Paramètres d’une variable aléatoire continue
V.2- Approximation d’une loi de Poisson
IV- Lois usuelles
V- Approximations par une loi normale

Pour surmenter cette difficulté, on utilise ce qu’on appelle la


correction de continuité qui consiste à associer à toute valeur
entière k d’une variable discrète X (binomiale ou de Poisson),
l’intervalle [k − 0.5, k + 0.5] pour approximer P(X = k) avec la
loi normale. On pose donc :

P(X = k) = P(k − 0.5 ≤ X ≤ k + 0.5)

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
V.1- Approximation d’une loi binomiale
III- Paramètres d’une variable aléatoire continue
V.2- Approximation d’une loi de Poisson
IV- Lois usuelles
V- Approximations par une loi normale

De même, pour tout événement associé à la variable discrète


X (binomiale ou Poisson), on associe un événement avec une
correction de continuité de la façon suivante :

Événement associé à X Événement avec correction


(X = k) (k − 0.5 ≤ X ≤ k + 0.5)
(X ≥ k) (X ≥ k − 0.5)
(X > k) (X ≥ k + 0.5)
(X ≤ k) (X ≤ k + 0.5)
(X < k) (X ≤ k − 0.5)

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
V.1- Approximation d’une loi binomiale
III- Paramètres d’une variable aléatoire continue
V.2- Approximation d’une loi de Poisson
IV- Lois usuelles
V- Approximations par une loi normale

Exemple

1) On lance un dé 4500 fois. On appelle X la variable aléatoire


qui compte le nombre d’apparition de la face N◦ 3.

Calculer les probabilités suivantes :


- P(X = 800)
- P(700 ≤ X ≤ 800),
- P(700 < X < 800).

2) Une clinique traite en moyenne deux urgences par jour.


Quelle est la probabilité pour que la clinique traite plus de 70
urgences par mois ?

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI


I- Définition
II- Fonction de répartition et fonction densité
V.1- Approximation d’une loi binomiale
III- Paramètres d’une variable aléatoire continue
V.2- Approximation d’une loi de Poisson
IV- Lois usuelles
V- Approximations par une loi normale

Fin chapitre 3

2ème partie : PROBABILITÉS - Chapitre 3 Module M147 - MIP Pr. A. FAHSI

Vous aimerez peut-être aussi