Académique Documents
Professionnel Documents
Culture Documents
A.U. : 2019-2020
Statistique
Plan
1 Introduction
Définition
Statistique
Statistiques
Définition
Statistique
Statistiques
- Une discipline scientifique.
Définition
Statistique
Statistiques
- Une discipline scientifique.
Définition
Statistique
Statistiques
- Une discipline scientifique.
- Un ensemble de données
- L’ensemble des méthodes chiffrées contenant des
permettant de recueillir, de informations sur un
classer, de présenter et phénomène précis.
d’analyser les informations
relatives à des phénomènes
que l’on cherche à expliquer -Les résultats calculés à partir
pour en tirer des conclusions, des données.
faire des prévisions et prendre
des décisions judicieuses.
Exemples
Exemple
Exemple
Exemple
Exemple
Exemple
Exemple
Exemple
Exemple
2 Analyse statistique :
2 Analyse statistique :
2 Analyse statistique :
2 Analyse statistique :
Vocabulaire
Vocabulaire
Vocabulaire
Vocabulaire
Vocabulaire
Vocabulaire
Vocabulaire
Vocabulaire
Vocabulaire
Vocabulaire
Vocabulaire
Vocabulaire
Plan
1 Introduction
Chapitre I
1 Tableau statistique
2
Représentation graphique
Tableau Statistique
Tableau Statistique
TABLE – Les statistiques des détenus vis à vis le nombre d’enfants
Nombre Effectifs Fréquences Eff. cumulés Fq. cumulées
d’enfants ni fi (en %) Ni Fi (en %)
0 214 27,7 214 27,7
1 220 28,5 434 51,1
2 125 16,2 559 72,3
3 101 13,1 660 85,4
4 55 7,1 715 92,5
5 31 4 746 96,5
6 7 0,9 753 97,4
7 7 0,9 760 98,3
8 7 0,9 767 99,2
9 2 2,6 769 99,5
10 2 2,6 771 99,7
11 1 1,3 772 99,8
12 0 0 772 99,8
13 1 1,3 773 100
Total 773 100
Tableau Statistique
Représentations graphiques
tre
e
an
r
e
r
ur
oi
ie
te
dr
oy
pl
te
au
tis
vr
.in
ca
pl
em
ul
ou
ar
of
em
ric
pr
ns
ag
sa
Chaque modalité est représentée par un secteur dont l’angle est proportionnel
à l’effectif. La totalité de la circonférence (360◦ ) correspond à l’effectif total.
Chaque modalité est représentée par un secteur dont l’angle est proportionnel
à l’effectif. La totalité de la circonférence (360◦ ) correspond à l’effectif total.
employe
cadre
autre
artisan
agriculteur
ouvrier
sans emploi
prof.inter
0 1 2 3 4 5 6 7 8 9 10 11 13
Modalités
0 1 2 3 4 5 6 7 8 9 10 11 13
Modalités
Définition 1
A partir des effectifs cumulés Ni , on définit la fonction de répartition des
effectifs, notée G(x), définie de IR dans [0, N], par :
G(x) est égale au nombre des individus de la population pour lesquels la
valeur du caractère est inférieure ou égale à x (G(x) = effectif cumulé de x).
Définition 2
A partir des fréquences cumulées Fi , on définit la fonction de répartition des
fréquences, notée F (x), définie de IR dans [0, 1], par :
F (x) est égale à la proportion des individus de la population pour lesquels la
valeur du caractère est inférieure ou égale à x. (F (x) = fréquence cumulé de
x)
Définition 1
A partir des effectifs cumulés Ni , on définit la fonction de répartition des
effectifs, notée G(x), définie de IR dans [0, N], par :
G(x) est égale au nombre des individus de la population pour lesquels la
valeur du caractère est inférieure ou égale à x (G(x) = effectif cumulé de x).
Définition 2
A partir des fréquences cumulées Fi , on définit la fonction de répartition des
fréquences, notée F (x), définie de IR dans [0, 1], par :
F (x) est égale à la proportion des individus de la population pour lesquels la
valeur du caractère est inférieure ou égale à x. (F (x) = fréquence cumulé de
x)
1.0
0.8
Fréquences cumulées
0.6
0.4
0.2
0.0
0 5 10
Nombre d'enfants
Si = ai ∗ hi = c ∗ fi (ou c ∗ ni )
er
1 cas
Histogramme
er
1 cas
Histogramme
250
200
150
Effectifs
100
50
0
9 19 29 39 49 59 69 79 89 99
er
1 cas
Polygone des fréquences
Le polygone des fréquences est représenté en joignant les milieux des côtés
supérieurs des rectangles dans un histogramme. C’est une ligne brisée dont
les extrémités rejoignent l’axe des abscisses.
250
200
150
Effectifs
100
50
0
eme
2 cas
Histogramme seulement
eme
2 cas
Histogramme seulement
250
200
150
Effectifs
100
50
0
5 15 25 45 65 75 85 95
age
eme
3 cas
Histogramme et polygone des fréquences
250
200
200
150
150
Effectifs
Effectifs
100
100
50
50
0
5 25 45 65 85
Courbe cumulative
Comme pour le cas discret, on définit pour un caractère continu une fonction
de répartition à partir des effectifs cumulés ou à partir des fréquences
cumulées.
Par définition, on a :
Ni = G(xi+1 ), pour 1≤i ≤k
Fi = F (xi+1 ), pour 1≤i ≤k
G(x1 ) = F (x1 ) = 0
Courbe cumulative
Courbe cumulative
Courbe cumulative
Dans le cas d’une v.s.c, la courbe cumulative (ou la courbe des fréquences
cumulées) est la représentation graphique de la fonction de répartition, notée
F (x),
TABLE – Les statistiques des détenus vis à vis leur âge
Courbe cumulative
Dans le cas d’une v.s.c, la courbe cumulative (ou la courbe des fréquences
cumulées) est la représentation graphique de la fonction de répartition, notée
F (x),
800
600
Effectifs cumulés
400
200
0
5 15 25 45 65 75 85 95
age
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 32 / 105
Statistique descriptive à une dimension II- Réduction des données
−− Le mode
−− La médiane
−− Les quantile
−− La moyenne
−− L’étendue.
−− L’écart inter-quantile.
−− La variance, l’écart-type.
−− Le coefficient de variation.
−− La boite à moustache (boxplot).
Le mode
Définition
Le mode, noté M0 , est la modalité du caractère de plus grand effectif (ou la
plus grande valeur de la fréquence). C’est la modalité la plus fréquente.
Le mode
Détermination pratique : Cas d’un caractère qualitatif
Le mode
Détermination pratique : Cas d’un caractère qualitatif
200
150
100
50
0
tre
e
an
r
e
r
ur
oi
ie
te
dr
oy
pl
te
au
tis
vr
.in
ca
pl
em
ul
ou
ar
of
em
ric
pr
ns
ag
sa
Le mode
Détermination pratique : Cas de v.s.d
Les statistiques des détenus vis à vis le nombre d’enfants : le mode est
M0 = 1.
Nombre Effectifs Fréquences Eff. cumulés Fq. cumulées
d’enfants ni fi (en %) Ni Fi (en %)
0 214 27,7 214 27,7
1 220 28,5 434 51,1
2 125 16,2 559 72,3
3 101 13,1 660 85,4
4 55 7,1 715 92,5
5 31 4 746 96,5
6 7 0,9 753 97,4
7 7 0,9 760 98,3
8 7 0,9 767 99,2
9 2 2,6 769 99,5
10 2 2,6 771 99,7
11 1 1,3 772 99,8
12 0 0 772 99,8
13 1 1,3 773 100
Le mode
Détermination pratique : Cas de v.s.d
Les statistiques des détenus vis à vis le nombre d’enfants : le mode est
M0 = 1.
250
200
150
Effectifs
100
50
0
0 1 2 3 4 5 6 7 8 9 10 11 13
Modalités
Le mode
Détermination pratique : Cas de v.s.c
Le mode
Détermination pratique : Cas de v.s.c
Le mode
Détermination pratique : Cas de v.s.c
250
200
150
Effectifs
100
50
0
5 15 25 45 65 75 85 95
age
La moyenne
Définition
La moyenne arithmétique d’une distribution statistique (xi , ni )1≤i≤n que l’on
note X̄ , est la modalité donnée par :
k k
1X X
X̄ = ni xi = fi xi
n
i=1 i=1
Les xi sont les modalités dans le cas d’une v.s.d et les centres des classes
dans le cas d’une v.s.c.
N.B
La moyenne
Détermination pratique : Cas de v.s.d
La moyenne
Détermination pratique : Cas de v.s.c
Exemple
Soit P une population composée de deux sous-populations P1 et P2 de
moyennes et effectifs respectifs (X̄1 = 5.5 ; n1 = 10) et (X̄2 = 8.3 ; n2 = 14).
Alors la moyenne de la population est :
1
X̄ = (10 ∗ 5.5 + 14 ∗ 8.3) = 7.13
10 + 14
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 43 / 105
Statistique descriptive à une dimension II- Réduction des données
Exemple
Soit P une population composée de deux sous-populations P1 et P2 de
moyennes et effectifs respectifs (X̄1 = 5.5 ; n1 = 10) et (X̄2 = 8.3 ; n2 = 14).
Alors la moyenne de la population est :
1
X̄ = (10 ∗ 5.5 + 14 ∗ 8.3) = 7.13
10 + 14
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 43 / 105
Statistique descriptive à une dimension II- Réduction des données
Exemple
Soit P une population composée de deux sous-populations P1 et P2 de
moyennes et effectifs respectifs (X̄1 = 5.5 ; n1 = 10) et (X̄2 = 8.3 ; n2 = 14).
Alors la moyenne de la population est :
1
X̄ = (10 ∗ 5.5 + 14 ∗ 8.3) = 7.13
10 + 14
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 43 / 105
Statistique descriptive à une dimension II- Réduction des données
Exemple
Soit P une population composée de deux sous-populations P1 et P2 de
moyennes et effectifs respectifs (X̄1 = 5.5 ; n1 = 10) et (X̄2 = 8.3 ; n2 = 14).
Alors la moyenne de la population est :
1
X̄ = (10 ∗ 5.5 + 14 ∗ 8.3) = 7.13
10 + 14
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 43 / 105
Statistique descriptive à une dimension II- Réduction des données
Exemple
Soit P une population composée de deux sous-populations P1 et P2 de
moyennes et effectifs respectifs (X̄1 = 5.5 ; n1 = 10) et (X̄2 = 8.3 ; n2 = 14).
Alors la moyenne de la population est :
1
X̄ = (10 ∗ 5.5 + 14 ∗ 8.3) = 7.13
10 + 14
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 43 / 105
Statistique descriptive à une dimension II- Réduction des données
La médiane
Définition
On appelle médiane la modalité, notée Me , qui partage la population en deux
sous populations de même effectif : le nombre d’observations inférieures à Me
est égal au nombre d’observations supérieures à Me .
Remarque
Cette définition n’a de sens que si les modalités sont toutes ordonnées par
ordre croissant.
La médiane
Définition
On appelle médiane la modalité, notée Me , qui partage la population en deux
sous populations de même effectif : le nombre d’observations inférieures à Me
est égal au nombre d’observations supérieures à Me .
Remarque
Cette définition n’a de sens que si les modalités sont toutes ordonnées par
ordre croissant.
La médiane
Détermination pratique : Cas de v.s.d
Me = x n+1
2
La médiane
Détermination pratique : Cas de v.s.d
Me = x n+1
2
La médiane
Détermination pratique : Cas de v.s.d : Exemples
Me = x 7+1 = 3
2
10 + 11
Me = = 10.5
2
La médiane
Détermination pratique : Cas de v.s.d : Exemples
Me = x 7+1 = 3
2
10 + 11
Me = = 10.5
2
La médiane
Détermination pratique : Cas de v.s.d : Exemples
Exemple3 :
Nombre Effectifs Fréquences Eff. cumulés Fq. cumulées
d’enfants ni fi (en %) Ni Fi (en %)
0 214 27,7 214 27,7
1 220 28,5 434 51,1
2 125 16,2 559 72,3
3 101 13,1 660 85,4
4 55 7,1 715 92,5
5 31 4 746 96,5
6 7 0,9 753 97,4
7 7 0,9 760 98,3
8 7 0,9 767 99,2
9 2 2,6 769 99,5
10 2 2,6 771 99,7
11 1 1,3 772 99,8
12 0 0 772 99,8
13 1 1,3 773 100
La médiane
Détermination pratique : Cas de v.s.c
La médiane
Détermination pratique : Cas de v.s.c
La médiane
Détermination pratique : Cas de v.s.c
La médiane est unique, c’est la valeur qui correspond à l’effectf cumulé N/2,
c’est à dire (G(Me ) = N/2).
Elle peut être déterminée par l’une des deux méthodes :
1 Méthode d’interpolation : On situe d’abord la médiane à l’intérieur d’une
classe [xi , xi+1 [, appelée classe médiane telle que :
La médiane
Détermination pratique : Cas de v.s.c
La médiane est unique, c’est la valeur qui correspond à l’effectf cumulé N/2,
c’est à dire (G(Me ) = N/2).
Elle peut être déterminée par l’une des deux méthodes :
1 Méthode d’interpolation : On situe d’abord la médiane à l’intérieur d’une
classe [xi , xi+1 [, appelée classe médiane telle que :
La médiane
Détermination pratique : Cas de v.s.c : Exemple
La médiane
Détermination pratique : Cas de v.s.c : Exemple
800
600
Effectifs cumulés
F(Me)
400
200
0
Me
9 19 29 39 49 59 69 79 89
Age
Les quantiles
Définition
Le quantile (ou fractile) d’ordre p (0 ≤ p ≤ 1), noté Zp , d’une série statistique
est la modalité déterminée telle que la proportion (resp. l’effectif) des individus
ayant une modalité inférieure ou égale à Zp soit égale à p (resp. Np). On écrit
F (Zp ) = p (resp. G(Zp ) = Np).
Remarque
La médiane est le quantile d’ordre p = 1/2 (resp. N/2).
Les quantiles
Quantiles particuliers
1 Quartile : avec, p = 1/4; p = 2/4; p = 3/4
on trouve les 3 quartiles respectifs, notés
Les quantiles
Quantiles particuliers
1 Quartile : avec, p = 1/4; p = 2/4; p = 3/4
on trouve les 3 quartiles respectifs, notés
Les quantiles
Quantiles particuliers
1 Quartile : avec, p = 1/4; p = 2/4; p = 3/4
on trouve les 3 quartiles respectifs, notés
Les quantiles
Détermination algébrique : Cas de v.s.d
Les quantiles
Détermination algébrique : Cas de v.s.d
Les quantiles
Détermination algébrique : Cas de v.s.d
Exemple3 :
Nombre Effectifs Fréquences Eff. cumulés Fq. cumulées
d’enfants ni fi (en %) Ni Fi (en %)
0 214 27,7 214 27,7
1 220 28,5 434 51,1
2 125 16,2 559 72,3
3 101 13,1 660 85,4
4 55 7,1 715 92,5
5 31 4 746 96,5
6 7 0,9 753 97,4
7 7 0,9 760 98,3
8 7 0,9 767 99,2
9 2 2,6 769 99,5
10 2 2,6 771 99,7
11 1 1,3 772 99,8
12 0 0 772 99,8
13 1 1,3 773 100
Les quantiles
Détermination graphique : Cas de v.s.d
1.00
0.90
0.80
0.70
0.60
Frequence cumulee
0.50
0.40
0.30
0.20
0.10
0.00
Q1 Q2 Q3 D9 C99
D1
0 5 10
Les quantiles
Détermination pratique : Cas de v.s.c
p − Fi np − Ni
Zp = xi + (ai ) = xi + (ai )
Fi+1 − Fi Ni+1 − Ni
2 Méthode graphique : On trace la courbe cumulative, et on détermine Zp
comme l’abscisse du point de la courbe d’ordonnée F (Zp ) = p.
Les quantiles
Méthide d’interpolation : Cas de v.s.c : Exemple
Les quantiles
Méthide d’interpolation : Cas de v.s.c : Exemple
Les quantiles
Méthide d’interpolation : Cas de v.s.c : Exemple
Les quantiles
Méthide d’interpolation : Cas de v.s.c : Exemple
Les quantiles
Méthide d’interpolation : Cas de v.s.c : Exemple
Les quantiles
Méthode graphique : Cas de v.s.c : Exemple
800
600
Effectifs cumulés
400
200
0
D1 Q1 Q3 D9
9 19 29 39 49 59 69 79 89
Age
Paramètres de dispersion
Paramètres de dispersion
Exemple introductif
La moyenne des 3 matières est la même mais la dispersion des notes des 6
individus est différente d’une matière à l’autre.
L’étendue
Définition
L’étendue est la différence entre la plus grande et la plus petite valeur de la
variable. pour une variable continue, l’étendue est la différence entre la borne
supérieure de la dernière classe et la borne inférieure de la première classe.
On note
e = xmax − xmin
L’étendue
Définition
L’étendue est la différence entre la plus grande et la plus petite valeur de la
variable. pour une variable continue, l’étendue est la différence entre la borne
supérieure de la dernière classe et la borne inférieure de la première classe.
On note
e = xmax − xmin
Exemple
indiv1 indiv2 indiv3 indiv4 indiv5 indiv6 Moyenne e
A 12 10 7 11 11 9 10 5
B 20 0 0 20 0 20 10 20
C 10 10 10 10 10 10 10 0
Ce paramètre présente un intérêt très limité parce qu’il est très sensible aux
valeurs extrêmes
L’écart inter-quantile.
L’écart inter-quantile.
L’écart inter-quantile.
L’écart inter-quantile.
Définition
L’écart absolu moyen d’un caractère statistique X, noté Em (X ), est la
moyenne arithmétique des valeurs absolues des écarts à la moyenne :
k
1X
Em (X ) = ni |xi − X̄ |
n
i=1
les xi représentent les modalités dans le cas discret ou les centres des
classes dans le cas continu.
Variance et écart-type
Définition1
La variance d’une distribution statistique, X = (xi , ni )1≤i≤k , que l’on note
V (X ), est donnée par :
k k
1X X
V (X ) = ni (xi − X̄ )2 = fi (xi − X̄ )2
n
i=1 i=1
Définition2
p
L’écart-type, noté σ(X ) = V (X )
L’écart-type est donc la moyenne quadratique des écarts à la moyenne
arithmétique.
Variance et écart-type
Définition1
La variance d’une distribution statistique, X = (xi , ni )1≤i≤k , que l’on note
V (X ), est donnée par :
k k
1X X
V (X ) = ni (xi − X̄ )2 = fi (xi − X̄ )2
n
i=1 i=1
Définition2
p
L’écart-type, noté σ(X ) = V (X )
L’écart-type est donc la moyenne quadratique des écarts à la moyenne
arithmétique.
Variance et écart-type
Détermination pratique : Cas de v.s.d
xi ni fi fi ∗ xi ni ∗ xi2 fi ∗ xi2
0 214 0.28 0 0 0
1 220 0.28 0.28 220 0.28
2 125 0.16 0.32 500 0.65
3 101 0.13 0.39 909 1.18
4 55 0.07 0.28 880 1.14
5 31 0.04 0.20 775 1
6 7 0.01 0.05 252 0.33
7 7 0.01 0.06 343 0.44
8 7 0.01 0.07 448 0.58
9 2 0.003 0.02 162 0.21
10 2 0.003 0.03 200 0.26
11 1 0.001 0.01 121 0.16
12 0 0 0 0 0
13 1 0.001 0.02 169 0.22
Total 773 1 1.76 4979 6.44
2 2
V (X ) = p √ − (1.76) = 6.44 − (1.76) = 3.36
(4979/773)
σ(X ) = V (X ) = 3.36 = 1.83 Ans
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 65 / 105
Statistique descriptive à une dimension II- Réduction des données
Variance et écart-type
Détermination pratique : Cas de v.s.d
xi ni fi fi ∗ xi ni ∗ xi2 fi ∗ xi2
0 214 0.28 0 0 0
1 220 0.28 0.28 220 0.28
2 125 0.16 0.32 500 0.65
3 101 0.13 0.39 909 1.18
4 55 0.07 0.28 880 1.14
5 31 0.04 0.20 775 1
6 7 0.01 0.05 252 0.33
7 7 0.01 0.06 343 0.44
8 7 0.01 0.07 448 0.58
9 2 0.003 0.02 162 0.21
10 2 0.003 0.03 200 0.26
11 1 0.001 0.01 121 0.16
12 0 0 0 0 0
13 1 0.001 0.02 169 0.22
Total 773 1 1.76 4979 6.44
2 2
V (X ) = p √ − (1.76) = 6.44 − (1.76) = 3.36
(4979/773)
σ(X ) = V (X ) = 3.36 = 1.83 Ans
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 65 / 105
Statistique descriptive à une dimension II- Réduction des données
Variance et écart-type
Détermination pratique : Cas de v.s.d
xi ni fi fi ∗ xi ni ∗ xi2 fi ∗ xi2
0 214 0.28 0 0 0
1 220 0.28 0.28 220 0.28
2 125 0.16 0.32 500 0.65
3 101 0.13 0.39 909 1.18
4 55 0.07 0.28 880 1.14
5 31 0.04 0.20 775 1
6 7 0.01 0.05 252 0.33
7 7 0.01 0.06 343 0.44
8 7 0.01 0.07 448 0.58
9 2 0.003 0.02 162 0.21
10 2 0.003 0.03 200 0.26
11 1 0.001 0.01 121 0.16
12 0 0 0 0 0
13 1 0.001 0.02 169 0.22
Total 773 1 1.76 4979 6.44
2 2
V (X ) = p √ − (1.76) = 6.44 − (1.76) = 3.36
(4979/773)
σ(X ) = V (X ) = 3.36 = 1.83 Ans
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 65 / 105
Statistique descriptive à une dimension II- Réduction des données
Variance et écart-type
Détermination pratique : Cas de v.s.c
Variance et écart-type
Détermination pratique : Cas de v.s.c
Variance et écart-type
Propriétés de la variance
V (X + b) = V (X ), V (aX + b) = a2 V (X )
3 Soit P une population de taille n, composée de m sous-population
P1 , P2 , . . . , Pm , de tailles respectives n1 , n2 , . . . , nm , de moyennes
respectives x̄1 , x̄2 , . . . , x̄m et de variances respectives V1 , V2 , . . . , Vm .
Alors la variance V de la population p est donnée par :
m m
1X 1X
V = ni Vi + ni (x̄i − x̄)2
n n
i=1 i=1
1
Pm
où x̄ = n i=1 ni x̄i est la moyenne de la population P.
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 67 / 105
Statistique descriptive à une dimension II- Réduction des données
Variance et écart-type
Propriétés de la variance
V (X + b) = V (X ), V (aX + b) = a2 V (X )
3 Soit P une population de taille n, composée de m sous-population
P1 , P2 , . . . , Pm , de tailles respectives n1 , n2 , . . . , nm , de moyennes
respectives x̄1 , x̄2 , . . . , x̄m et de variances respectives V1 , V2 , . . . , Vm .
Alors la variance V de la population p est donnée par :
m m
1X 1X
V = ni Vi + ni (x̄i − x̄)2
n n
i=1 i=1
1
Pm
où x̄ = n i=1 ni x̄i est la moyenne de la population P.
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 67 / 105
Statistique descriptive à une dimension II- Réduction des données
Variance et écart-type
Propriétés de la variance
V (X + b) = V (X ), V (aX + b) = a2 V (X )
3 Soit P une population de taille n, composée de m sous-population
P1 , P2 , . . . , Pm , de tailles respectives n1 , n2 , . . . , nm , de moyennes
respectives x̄1 , x̄2 , . . . , x̄m et de variances respectives V1 , V2 , . . . , Vm .
Alors la variance V de la population p est donnée par :
m m
1X 1X
V = ni Vi + ni (x̄i − x̄)2
n n
i=1 i=1
1
Pm
où x̄ = n i=1 ni x̄i est la moyenne de la population P.
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 67 / 105
Statistique descriptive à une dimension II- Réduction des données
Propriétés de la variance
Remarques
1 L’écart-type (ou La variance) est un indicateur de la dispersion d’une
série par rapport à sa moyenne.
2 La variance et l’écart-type tiennent compte de toutes les valeurs d’une
série statistique.
3 Si la variance (ou l’écart-type) est faible, cela signifie que les valeurs sont
assez concentrées autour de la moyenne.
4 Si la variance (ou l’écart-type) est élevé, cela veut dire au contraire que
les valeurs sont plus dispersées autour de la moyenne.
5 La variance (ou l’écart-type) est nulle si et seulement si toutes les valeurs
sont identiques et égales à la moyenne.
Propriétés de la variance
Remarques
1 L’écart-type (ou La variance) est un indicateur de la dispersion d’une
série par rapport à sa moyenne.
2 La variance et l’écart-type tiennent compte de toutes les valeurs d’une
série statistique.
3 Si la variance (ou l’écart-type) est faible, cela signifie que les valeurs sont
assez concentrées autour de la moyenne.
4 Si la variance (ou l’écart-type) est élevé, cela veut dire au contraire que
les valeurs sont plus dispersées autour de la moyenne.
5 La variance (ou l’écart-type) est nulle si et seulement si toutes les valeurs
sont identiques et égales à la moyenne.
Propriétés de la variance
Remarques
1 L’écart-type (ou La variance) est un indicateur de la dispersion d’une
série par rapport à sa moyenne.
2 La variance et l’écart-type tiennent compte de toutes les valeurs d’une
série statistique.
3 Si la variance (ou l’écart-type) est faible, cela signifie que les valeurs sont
assez concentrées autour de la moyenne.
4 Si la variance (ou l’écart-type) est élevé, cela veut dire au contraire que
les valeurs sont plus dispersées autour de la moyenne.
5 La variance (ou l’écart-type) est nulle si et seulement si toutes les valeurs
sont identiques et égales à la moyenne.
Propriétés de la variance
Remarques
1 L’écart-type (ou La variance) est un indicateur de la dispersion d’une
série par rapport à sa moyenne.
2 La variance et l’écart-type tiennent compte de toutes les valeurs d’une
série statistique.
3 Si la variance (ou l’écart-type) est faible, cela signifie que les valeurs sont
assez concentrées autour de la moyenne.
4 Si la variance (ou l’écart-type) est élevé, cela veut dire au contraire que
les valeurs sont plus dispersées autour de la moyenne.
5 La variance (ou l’écart-type) est nulle si et seulement si toutes les valeurs
sont identiques et égales à la moyenne.
Propriétés de la variance
Remarques
1 L’écart-type (ou La variance) est un indicateur de la dispersion d’une
série par rapport à sa moyenne.
2 La variance et l’écart-type tiennent compte de toutes les valeurs d’une
série statistique.
3 Si la variance (ou l’écart-type) est faible, cela signifie que les valeurs sont
assez concentrées autour de la moyenne.
4 Si la variance (ou l’écart-type) est élevé, cela veut dire au contraire que
les valeurs sont plus dispersées autour de la moyenne.
5 La variance (ou l’écart-type) est nulle si et seulement si toutes les valeurs
sont identiques et égales à la moyenne.
Coefficient de variation
Définition
Le coefficient de variation est un paramètre relatif de dispersion, utilisé
généralement pour comparer les dispersions de deux ou plusieurs séries
statistiques. On le note Cv et il est donné par :
σ(X )
Cv = (rapport sans unité)
X̄
Exemple :
Coefficient de variation
Définition
Le coefficient de variation est un paramètre relatif de dispersion, utilisé
généralement pour comparer les dispersions de deux ou plusieurs séries
statistiques. On le note Cv et il est donné par :
σ(X )
Cv = (rapport sans unité)
X̄
Exemple :
Coefficient de variation
Définition
Le coefficient de variation est un paramètre relatif de dispersion, utilisé
généralement pour comparer les dispersions de deux ou plusieurs séries
statistiques. On le note Cv et il est donné par :
σ(X )
Cv = (rapport sans unité)
X̄
Exemple :
Boı̂te à moustaches
Définition
Une boı̂te à moustaches est un récapitulatif graphique de la distribution d’un
échantillon, dont il indique la forme, la tendance centrale et la variabilité.
Il permet de comprendre la distribution statistique et de comparer un même
caractère au sein de deux ou plusieurs populations.
Boı̂te à moustaches
Méthode de construction
outliers
Q3+1.5*∆Q
age
Q3
Me
Q1
Q1−1.5*∆Q
Boı̂te à moustaches
Méthode de construction
Remarque
Boı̂te à moustaches
Méthode de construction
Remarque
Boı̂te à moustaches
Méthode de construction
Remarque
Boı̂te à moustaches
Méthode de construction
Remarque
Boı̂te à moustaches
Interprétation
Boı̂te à moustaches
Interprétation
Boı̂te à moustaches
Interprétation
Boı̂te à moustaches
Interprétation
Boı̂te à moustaches
Interprétation
Boı̂te à moustaches
Exemple de comparaison entre distribution
48 49
40
38
33
30
27 27
20
0 1
Boı̂te à moustaches
Exemple de comparaison entre distribution : Interprétation
On remarque une légère différence entre l’âge médian chez les non
schizophrènes (38) et celui des schizophrènes (33).
L’âge des détenus est plus dispersé chez les non schizophrènes.
Boı̂te à moustaches
Exemple de comparaison entre distribution : Interprétation
On remarque une légère différence entre l’âge médian chez les non
schizophrènes (38) et celui des schizophrènes (33).
L’âge des détenus est plus dispersé chez les non schizophrènes.
Boı̂te à moustaches
Exemple de comparaison entre distribution : Interprétation
On remarque une légère différence entre l’âge médian chez les non
schizophrènes (38) et celui des schizophrènes (33).
L’âge des détenus est plus dispersé chez les non schizophrènes.
Boı̂te à moustaches
Exemple de comparaison entre distribution : Interprétation
On remarque une légère différence entre l’âge médian chez les non
schizophrènes (38) et celui des schizophrènes (33).
L’âge des détenus est plus dispersé chez les non schizophrènes.
Plan
1 Introduction
Chapitre II
Introduction
Remarques
(b − a)(d − c)
n(A) = nij ∗
(xi+1 − xi )(yj+1 − yj )
Remarques
(b − a)(d − c)
n(A) = nij ∗
(xi+1 − xi )(yj+1 − yj )
Remarques
(b − a)(d − c)
n(A) = nij ∗
(xi+1 − xi )(yj+1 − yj )
Tableau de contingence
Définition
Les données statistiques relatives à deux variables X et Y , considérées
simultanément, sont présentées sous forme de distributions d’effectifs ou de
fréquences dans un tableau statistique, appelé tableau de contingence.
H Y
H
1 2 3 4 5 6 7 ni.
X HH H
[19, 29[ 0.022 0.035 0.031 0.084 0.057 0.048 0.004 0.281
[29, 39] 0.044 0.026 0.040 0.062 0.070 0.026 0.009 0.277
[39, 49] 0.022 0.053 0.022 0.048 0.097 0.018 0 0.26
[49, 59] 0.004 0.031 0.004 0.026 0.035 0.013 0.004 0.0117
[59, 69] 0.009 0.004 0.013 0.004 0.013 0.009 0 0.052
[69, 79] 0 0 0 0.004 0.004 0 0 0.008
n.j 0.101 0.149 0.11 0.228 0.276 0.114 0.017 0.995
Définition
On appelle distribution conditionnelle de X sachant Y = yj , la distribution de
X obtenue en restreignant les modalités de Y à l’observation yj . Elle
correspond aux effectifs nij du jème colonne dans le tableau de contingence.
On la note aussi : (xi |yj , nij )1≤i≤k .
nij fij
fi |yj = =
n.j f.j
23 34 25 52 63 26 4 227
23 34 25 1 63 26 4 227
Définition
On appelle distribution conditionnelle de Y sachant X = xi , la distribution de
Y obtenue en restreignant les modalités de X à l’observation xi . Elle
correspond aux effectifs nij du ième ligne dans le tableau de contingence. On
la note aussi : (yj |xi , nij )1≤j≤p .
nij fij
fj |xi = =
ni. fi.
23 34 25 52 63 26 4 227
23 34 25 52 63 26 4 227
Introduction
8648
X̄ = = 38.1
227
Moyennes Marginales de la gravité des détenus :
873
Ȳ = = 3.85
227
Moyennes conditionnelle de l’âge des détenus ayant le niveau de gravité 4 :
19 14 11 6 1 1 1878
X̄Y =4 = 24∗ +34∗ +44∗ +54∗ +64∗ +74∗ = = 36.11
52 52 52 52 52 52 52
Moyennes conditionnelle de la gravité des détenus âgés entre 39 et 49 ans :
222 5 12 5 11 22 4 0
Ȳ39≤X ≤49 = = 1∗ +2∗ +3∗ +4∗ +5∗ +6∗ +7∗ = 3.76
59 59 59 59 59 59 59 59
Définition
La covariance entre deux variables statistiques X et Y , notée Cov (X , Y ), est
donnée par :
k p p
k X
1 XX X
Cov (X , Y ) = nij (xi − X̄ )(yj − Ȳ ) = fij (xi − X̄ )(yj − Ȳ )
N
i=1 j=1 i=1 j=1
Propriétés
1 Si X = Y alors Cov (X , Y ) = V (X ) = V (Y )
2 |Cov (X , Y )| ≤ σ(X )σ(Y )
3 Si X 0 = aX + b et Y 0 = cY + d (a, b, c et d des constantes) alors :
Cov (X 0 , Y 0 ) = acCov (X , Y )
4 La covariance est positive ou négative selon que la relation entre les
variables est croissante ou décroissante, c’est à dire selon que les deux
variables varient dans le même sens ou en sens inverse.
33162
Cov (X , Y ) = − 38.1 × 8.85 = −192.1
227
Définition
Le coefficient de corrélation associé à X et Y , que l’on note r , est donné par :
Cov (X , Y )
r= (sans unité).
σ(X )σ(Y )
Cas particulier
Si la série double est donnée sous la forme (xi , yi )1≤i≤N , c’est-à-dire par un
tableau sous la forme :
Série X x1 x2 ... xi ... xN
Série Y y1 y2 ... yi ... yN
N
1 X
Cov (X , Y ) = xi yi − X̄ Ȳ
N
i=1
Ajustement linéaire
Démarche
Cov (X , Y )
a= et b = Ȳ − aX̄
V (X )
190
● ●
100
●
●
185
● ● ●
180
90
● ● ●
●
●
175
● ● ●
poids
● ●
taille
80
170
● ● ●
●
●
●
● 165
●
●
70
● ●
●
● ● ●
●
160
●
●
●
155
60
● ●
taille poids
Cov (X , Y ) 105.84
a= = = 1.18
V (X ) 89.67
Cov (X , Y ) 105.84
a0 = = = 0.65
V (Y ) 162.15
●
100
● ●
90
●
poids
80
●G ●
●
●
●
70
● ●
●
●
●
●
60
taille
Plus les droites sont proches l’une de l’autre, meilleur est l’ajustement linéaire.
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 104 / 105
Statistique descriptive à deux dimensions III- Ajustement linéaire
Propriétés
1 r a le même signe que a, a0 et Cov (X , Y ).
2 On a r 2 = aa0 .
3 0 ≤ r 2 ≤ 1, c’est-à-dire, −1 ≤ r ≤ 1.
4 Plus |r | est proche de 1 (resp. proche de 0) plus la liaison linéaire entre X
et Y est forte (resp. faible) et donc la qualité de la régression est bonne
(resp. mauvaise).
5 Si r = ±1 on dit qu’on a une liaison linéaire totale, donc tous les points
sont alignés : corrélation parfaite.
6 Si r = 0 aucune dépendance linéaire entre les deux variables :
corrélation nulle.
N.B : Une corrélation proche ou égale à 0 ne signifie pas nécessairement que
les deux variables sont indépendantes, cela signifie seulement qu’il n’y a pas
de dépendance linéaire.
A.U. : 2019-2020
Probabilités
Plan
1 Introduction
2 Espace probabilisé
3 Dénombrement
4 Conditionnement et Indépendance
9 LoisPr.continues
A. BELMAATI usuelles MODULE M147 A.U. : 2019-2020 2 / 92
Introduction
Définition
Définition
Définition
Définition
Définition
Définition
Définition
Définition
Définition
Définition
Notions de base
Expérience (ou épreuve) aléatoire :
Une expérience dont on ne peut pas
prévoir le résultat de façon certaine.
On la note E.
Notions de base
Expérience (ou épreuve) aléatoire :
Une expérience dont on ne peut pas
prévoir le résultat de façon certaine.
On la note E.
Notions de base
Expérience (ou épreuve) aléatoire :
Une expérience dont on ne peut pas
prévoir le résultat de façon certaine.
On la note E.
Notions de base
Expérience (ou épreuve) aléatoire :
Une expérience dont on ne peut pas
prévoir le résultat de façon certaine.
On la note E.
Notions de base
Expérience (ou épreuve) aléatoire :
Une expérience dont on ne peut pas
prévoir le résultat de façon certaine.
On la note E.
Événement : Un sous-ensemble de Ω.
{w}, est appelé événement
élémentaire de Ω.
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 4 / 92
Introduction
Notions de base
Expérience (ou épreuve) aléatoire :
Une expérience dont on ne peut pas Exp1 : E = ”jet d’une pièce de
prévoir le résultat de façon certaine. monnaie”
On la note E. Ω = {P, F }.
P(Ω) = {∅; {P}; {F }; {P, F }}
Univers de E : Ensemble des résultat ω = P, est un résultat possible.
possible de E, appelé aussi ensemble A=”obtenir deux piles”=∅
fondamental, on le note Ω.
Événement : Un sous-ensemble de Ω.
{w}, est appelé événement
élémentaire de Ω.
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 4 / 92
Introduction
Notions de base
Expérience (ou épreuve) aléatoire :
Une expérience dont on ne peut pas Exp1 : E = ”jet d’une pièce de
prévoir le résultat de façon certaine. monnaie”
On la note E. Ω = {P, F }.
P(Ω) = {∅; {P}; {F }; {P, F }}
Univers de E : Ensemble des résultat ω = P, est un résultat possible.
possible de E, appelé aussi ensemble A=”obtenir deux piles”=∅
fondamental, on le note Ω.
Exp2 : E = ”jet de deux pièces de
Ensemble des parties de Ω : monnaie distinguables”.
Ensemble, noté P(Ω), constitué de Ω = {(P, P); (P, F ); (F , P); (F , F )}
tous les sous-ensemble (parties) de Ω. ω = (P, P), est un résultat possible.
A=”On obtient deux piles”={(P,P)}.
Résultat possible de E : L’élément
ω ∈ Ω.
Événement : Un sous-ensemble de Ω.
{w}, est appelé événement
élémentaire de Ω.
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 4 / 92
Introduction
Notions de base
Expérience (ou épreuve) aléatoire :
Une expérience dont on ne peut pas Exp1 : E = ”jet d’une pièce de
prévoir le résultat de façon certaine. monnaie”
On la note E. Ω = {P, F }.
P(Ω) = {∅; {P}; {F }; {P, F }}
Univers de E : Ensemble des résultat ω = P, est un résultat possible.
possible de E, appelé aussi ensemble A=”obtenir deux piles”=∅
fondamental, on le note Ω.
Exp2 : E = ”jet de deux pièces de
Ensemble des parties de Ω : monnaie distinguables”.
Ensemble, noté P(Ω), constitué de Ω = {(P, P); (P, F ); (F , P); (F , F )}
tous les sous-ensemble (parties) de Ω. ω = (P, P), est un résultat possible.
A=”On obtient deux piles”={(P,P)}.
Résultat possible de E : L’élément
ω ∈ Ω. Exp3 : E = ”lancer d’un dé régulier”
Ω = {1, 2, 3, 4, 5, 6} = [1, 6],
Événement : Un sous-ensemble de Ω. ω = 2, est un résultat possible.
{w}, est appelé événement A=”le lancer est pair”={2,4,6}.
élémentaire de Ω.
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 4 / 92
Introduction
Plan
1 Introduction
2 Espace probabilisé
3 Dénombrement
4 Conditionnement et Indépendance
9 LoisPr.continues
A. BELMAATI usuelles MODULE M147 A.U. : 2019-2020 7 / 92
Espace probabilisé
Tribu d’événements
Définition
On appelle tribu d’événements, notée T , toute famille de parties de Ω (i.e.
T ⊂ P(Ω)) vérifiant les propriétés suivantes :
1 Ω∈T
2 ∀A ∈ T , Ā ∈ T
3 Pour toute suite (An )n∈N d’éléments de T , ∪∞
n=1 An ∈ T
Tribu d’événements
Définition
On appelle tribu d’événements, notée T , toute famille de parties de Ω (i.e.
T ⊂ P(Ω)) vérifiant les propriétés suivantes :
1 Ω∈T
2 ∀A ∈ T , Ā ∈ T
3 Pour toute suite (An )n∈N d’éléments de T , ∪∞
n=1 An ∈ T
Tribu d’événements
Définition
On appelle tribu d’événements, notée T , toute famille de parties de Ω (i.e.
T ⊂ P(Ω)) vérifiant les propriétés suivantes :
1 Ω∈T
2 ∀A ∈ T , Ā ∈ T
3 Pour toute suite (An )n∈N d’éléments de T , ∪∞
n=1 An ∈ T
Probabilité
Définition
Soit Ω un ensemble fondamental et T une tribu d’événements de Ω. On
appelle probabilité sur (Ω, T ) toute application IP de T dans [0, 1] vérifiant :
(i) IP(Ω) = 1
(ii) Pour tout ensemble dénombrable d’événements deux à deux disjoints
(incompatibles) :
∞
X
IP(∪∞
n=1 An ) = IP(An )
n=1
Proposition
Soit IP une probabilité sur (Ω, T )
1 IP(∅) = 0
2 IP(A ∪ B) = IP(A) + IP(B) − IP(A ∩ B)
3 IP(Ā) = 1 − IP(A)
4 A ⊂ B ⇒ IP(B − A) = IP(B) − IP(A) et IP(A) ≤ IP(B)
B − A étant le complémentaire de A dans B.
Proposition
Soit IP une probabilité sur (Ω, T )
1 IP(∅) = 0
2 IP(A ∪ B) = IP(A) + IP(B) − IP(A ∩ B)
3 IP(Ā) = 1 − IP(A)
4 A ⊂ B ⇒ IP(B − A) = IP(B) − IP(A) et IP(A) ≤ IP(B)
B − A étant le complémentaire de A dans B.
Proposition
Soit IP une probabilité sur (Ω, T )
1 IP(∅) = 0
2 IP(A ∪ B) = IP(A) + IP(B) − IP(A ∩ B)
3 IP(Ā) = 1 − IP(A)
4 A ⊂ B ⇒ IP(B − A) = IP(B) − IP(A) et IP(A) ≤ IP(B)
B − A étant le complémentaire de A dans B.
Proposition
Soit IP une probabilité sur (Ω, T )
1 IP(∅) = 0
2 IP(A ∪ B) = IP(A) + IP(B) − IP(A ∩ B)
3 IP(Ā) = 1 − IP(A)
4 A ⊂ B ⇒ IP(B − A) = IP(B) − IP(A) et IP(A) ≤ IP(B)
B − A étant le complémentaire de A dans B.
Proposition
Soit Ω = {x1 , x2 , . . . , xn } un ensemble à n éléments. Alors toute probabilité IP
sur (Ω, P(Ω)) est entièrement déterminée par les valeurs
pi = IP({xi }), 1 ≤ i ≤ n vérifiant
pi ≥ 0 et p1 + p2 + · · · + pn = 1
Proposition
Soit Ω = {x1 , x2 , . . . , xn } un ensemble à n éléments. Alors toute probabilité IP
sur (Ω, P(Ω)) est entièrement déterminée par les valeurs
pi = IP({xi }), 1 ≤ i ≤ n vérifiant
pi ≥ 0 et p1 + p2 + · · · + pn = 1
1 1
pi = = , ∀i ∈ {1, . . . , n}
CardΩ n
Proposition
Soit Ω = {x1 , x2 , . . . , xn } un ensemble à n éléments. Alors toute probabilité IP
sur (Ω, P(Ω)) est entièrement déterminée par les valeurs
pi = IP({xi }), 1 ≤ i ≤ n vérifiant
pi ≥ 0 et p1 + p2 + · · · + pn = 1
1 1
pi = = , ∀i ∈ {1, . . . , n}
CardΩ n
Donc,
CardA
∀A ∈ P(Ω), IP(A) =
CardΩ
Exemple
Proposition
Soit (Ω, T ) un espace probabilisable avec Ω = {xi , i ∈ N} un ensemble infini
dénombrable (xi 6= xj , pour i 6= j) . Alors, il existe une probabilité IP sur (Ω, T )
telle que pi = IP({xi }), si et seulement si les nombres pi vérifient :
1 pi ≥ 0 pour tout i,
2 La série de terme général pi converge et sa somme est égale à 1.
Proposition
Soit (Ω, T ) un espace probabilisable avec Ω = {xi , i ∈ N} un ensemble infini
dénombrable (xi 6= xj , pour i 6= j) . Alors, il existe une probabilité IP sur (Ω, T )
telle que pi = IP({xi }), si et seulement si les nombres pi vérifient :
1 pi ≥ 0 pour tout i,
2 La série de terme général pi converge et sa somme est égale à 1.
Proposition
Soit (Ω, T ) un espace probabilisable avec Ω = {xi , i ∈ N} un ensemble infini
dénombrable (xi 6= xj , pour i 6= j) . Alors, il existe une probabilité IP sur (Ω, T )
telle que pi = IP({xi }), si et seulement si les nombres pi vérifient :
1 pi ≥ 0 pour tout i,
2 La série de terme général pi converge et sa somme est égale à 1.
Exemple
Plan
1 Introduction
2 Espace probabilisé
3 Dénombrement
4 Conditionnement et Indépendance
9 LoisPr.continues
A. BELMAATI usuelles MODULE M147 A.U. : 2019-2020 14 / 92
Dénombrement
Principe de multiplication
Principe
Lorsqu’un événement est la conjugaison de n étapes présentant
respectivement n1 , n2 , . . . , nn possibilités, le nombre total de possibilités
correspond au produit n1 × n2 × . . . × nn
Principe de multiplication
Application1
Une association de consommateurs note un produit selon 3 critères :
- Facilité d’utilisation (F) : Bonne (F1), Moyenne (F2), Mauvaise (F3).
- Prix (P) : Cher (P1), Pas cher (P2).
- Coût de maintenance (C) : Cher (C1), Moyen (C2), pas cher (C3).
Combien y a t-il de possibilités de classement pour un produit ?
Application2
On a un code à 4 caractères issus de la grille suivante :
1 2 3
4 5 6
7 8 9
A 0 B
Principe de multiplication
Application1
Une association de consommateurs note un produit selon 3 critères :
- Facilité d’utilisation (F) : Bonne (F1), Moyenne (F2), Mauvaise (F3).
- Prix (P) : Cher (P1), Pas cher (P2).
- Coût de maintenance (C) : Cher (C1), Moyen (C2), pas cher (C3).
Combien y a t-il de possibilités de classement pour un produit ?
Application2
On a un code à 4 caractères issus de la grille suivante :
1 2 3
4 5 6
7 8 9
A 0 B
Principe de multiplication
Application1
Une association de consommateurs note un produit selon 3 critères :
- Facilité d’utilisation (F) : Bonne (F1), Moyenne (F2), Mauvaise (F3).
- Prix (P) : Cher (P1), Pas cher (P2).
- Coût de maintenance (C) : Cher (C1), Moyen (C2), pas cher (C3).
Combien y a t-il de possibilités de classement pour un produit ?
Application2
On a un code à 4 caractères issus de la grille suivante :
1 2 3
4 5 6
7 8 9
A 0 B
Principe de multiplication
Application1
Une association de consommateurs note un produit selon 3 critères :
- Facilité d’utilisation (F) : Bonne (F1), Moyenne (F2), Mauvaise (F3).
- Prix (P) : Cher (P1), Pas cher (P2).
- Coût de maintenance (C) : Cher (C1), Moyen (C2), pas cher (C3).
Combien y a t-il de possibilités de classement pour un produit ?
Application2
On a un code à 4 caractères issus de la grille suivante :
1 2 3
4 5 6
7 8 9
A 0 B
Principe de multiplication
Application1
Une association de consommateurs note un produit selon 3 critères :
- Facilité d’utilisation (F) : Bonne (F1), Moyenne (F2), Mauvaise (F3).
- Prix (P) : Cher (P1), Pas cher (P2).
- Coût de maintenance (C) : Cher (C1), Moyen (C2), pas cher (C3).
Combien y a t-il de possibilités de classement pour un produit ?
Application2
On a un code à 4 caractères issus de la grille suivante :
1 2 3
4 5 6
7 8 9
A 0 B
Principe de multiplication
Application1
Une association de consommateurs note un produit selon 3 critères :
- Facilité d’utilisation (F) : Bonne (F1), Moyenne (F2), Mauvaise (F3).
- Prix (P) : Cher (P1), Pas cher (P2).
- Coût de maintenance (C) : Cher (C1), Moyen (C2), pas cher (C3).
Combien y a t-il de possibilités de classement pour un produit ?
Application2
On a un code à 4 caractères issus de la grille suivante :
1 2 3
4 5 6
7 8 9
A 0 B
Principe de multiplication
Application1
Une association de consommateurs note un produit selon 3 critères :
- Facilité d’utilisation (F) : Bonne (F1), Moyenne (F2), Mauvaise (F3).
- Prix (P) : Cher (P1), Pas cher (P2).
- Coût de maintenance (C) : Cher (C1), Moyen (C2), pas cher (C3).
Combien y a t-il de possibilités de classement pour un produit ?
Application2
On a un code à 4 caractères issus de la grille suivante :
1 2 3
4 5 6
7 8 9
A 0 B
Principe de multiplication
Application1
Une association de consommateurs note un produit selon 3 critères :
- Facilité d’utilisation (F) : Bonne (F1), Moyenne (F2), Mauvaise (F3).
- Prix (P) : Cher (P1), Pas cher (P2).
- Coût de maintenance (C) : Cher (C1), Moyen (C2), pas cher (C3).
Combien y a t-il de possibilités de classement pour un produit ?
Application2
On a un code à 4 caractères issus de la grille suivante :
1 2 3
4 5 6
7 8 9
A 0 B
Principe de multiplication
Application1
Une association de consommateurs note un produit selon 3 critères :
- Facilité d’utilisation (F) : Bonne (F1), Moyenne (F2), Mauvaise (F3).
- Prix (P) : Cher (P1), Pas cher (P2).
- Coût de maintenance (C) : Cher (C1), Moyen (C2), pas cher (C3).
Combien y a t-il de possibilités de classement pour un produit ?
Application2
On a un code à 4 caractères issus de la grille suivante :
1 2 3
4 5 6
7 8 9
A 0 B
Principe de multiplication
Application1
Une association de consommateurs note un produit selon 3 critères :
- Facilité d’utilisation (F) : Bonne (F1), Moyenne (F2), Mauvaise (F3).
- Prix (P) : Cher (P1), Pas cher (P2).
- Coût de maintenance (C) : Cher (C1), Moyen (C2), pas cher (C3).
Combien y a t-il de possibilités de classement pour un produit ?
Application2
On a un code à 4 caractères issus de la grille suivante :
1 2 3
4 5 6
7 8 9
A 0 B
P-listes
Définition
Une p-liste est une collection de p objets pris successivement et avec remise
parmi n objets en tenant compte de l’ordre d’apparition.
Le nombre de listes à p éléments est np
Exemple
P-listes
Définition
Une p-liste est une collection de p objets pris successivement et avec remise
parmi n objets en tenant compte de l’ordre d’apparition.
Le nombre de listes à p éléments est np
Exemple
P-listes
Définition
Une p-liste est une collection de p objets pris successivement et avec remise
parmi n objets en tenant compte de l’ordre d’apparition.
Le nombre de listes à p éléments est np
Exemple
Arrangements
Définition
Un arrangement est une collection de p objets pris successivement et sans
remise parmi n objets en tenant compte de l’ordre d’apparition.
Le nombre d’arrangements de p éléments distincts choisis parmi n est
n!
Apn = n.(n − 1).(n − 2). . . . .(n − p + 1) =
(n − p)!
Exemple
Après les prolongations d’un match de football, l’entraı̂neur doit choisir les 5
tireurs de penaltys parmi les onze joueurs et l’ordre de passage. Combien de
choix a-t-il ?
Arrangements
Définition
Un arrangement est une collection de p objets pris successivement et sans
remise parmi n objets en tenant compte de l’ordre d’apparition.
Le nombre d’arrangements de p éléments distincts choisis parmi n est
n!
Apn = n.(n − 1).(n − 2). . . . .(n − p + 1) =
(n − p)!
Exemple
Après les prolongations d’un match de football, l’entraı̂neur doit choisir les 5
tireurs de penaltys parmi les onze joueurs et l’ordre de passage. Combien de
choix a-t-il ?
Permutations
Définition
Tout classement ordonné de n éléments distincts est une permutation de ces
éléments.
Le nombre de permutations de n objets est n!
Exemple
Permutations
Définition
Tout classement ordonné de n éléments distincts est une permutation de ces
éléments.
Le nombre de permutations de n objets est n!
Exemple
Permutations
Définition
Tout classement ordonné de n éléments distincts est une permutation de ces
éléments.
Le nombre de permutations de n objets est n!
Exemple
Définition
Le nombre de permutations que l’on peut constituer si certains des éléments
sont identiques est plus petit si tous les éléments sont distincts.
Lorsque seuls k éléments sont distincts (k ≤ n), chacun d’eux apparaissant
n1 , n2 , . . . , nk fois, avec n1 + n2 + · · · + nk = n et ni ≥ 1, on a :
n!
P¯n (n1 , n2 , . . . , nk ) =
n1 ! n2 ! . . . nk !
Exemple
Définition
Le nombre de permutations que l’on peut constituer si certains des éléments
sont identiques est plus petit si tous les éléments sont distincts.
Lorsque seuls k éléments sont distincts (k ≤ n), chacun d’eux apparaissant
n1 , n2 , . . . , nk fois, avec n1 + n2 + · · · + nk = n et ni ≥ 1, on a :
n!
P¯n (n1 , n2 , . . . , nk ) =
n1 ! n2 ! . . . nk !
Exemple
Définition
Le nombre de permutations que l’on peut constituer si certains des éléments
sont identiques est plus petit si tous les éléments sont distincts.
Lorsque seuls k éléments sont distincts (k ≤ n), chacun d’eux apparaissant
n1 , n2 , . . . , nk fois, avec n1 + n2 + · · · + nk = n et ni ≥ 1, on a :
n!
P¯n (n1 , n2 , . . . , nk ) =
n1 ! n2 ! . . . nk !
Exemple
Définition
Le nombre de permutations que l’on peut constituer si certains des éléments
sont identiques est plus petit si tous les éléments sont distincts.
Lorsque seuls k éléments sont distincts (k ≤ n), chacun d’eux apparaissant
n1 , n2 , . . . , nk fois, avec n1 + n2 + · · · + nk = n et ni ≥ 1, on a :
n!
P¯n (n1 , n2 , . . . , nk ) =
n1 ! n2 ! . . . nk !
Exemple
Combinaisons
Définition
Une combinaison est collection de p objets pris simultanément parmi n, donc
sans tenir compte de l’ordre d’apparition.
Le nombre de combinaisons de p éléments choisis parmi n est :
n!
Cnp =
p!(n − p)!
Exemple
Combinaisons
Définition
Une combinaison est collection de p objets pris simultanément parmi n, donc
sans tenir compte de l’ordre d’apparition.
Le nombre de combinaisons de p éléments choisis parmi n est :
n!
Cnp =
p!(n − p)!
Exemple
Combinaisons
Définition
Une combinaison est collection de p objets pris simultanément parmi n, donc
sans tenir compte de l’ordre d’apparition.
Le nombre de combinaisons de p éléments choisis parmi n est :
n!
Cnp =
p!(n − p)!
Exemple
Combinaisons
Propriétés
1 Cn0 = Cnn = 1
2 Cnp = Cnn−p (complémentaire)
3 Cnp = Cn−1
p p−1
+ Cn−1 (triangle de Pascal)
4 Apn = p!Cnp
Pn
5 (a + b)n = i=0 Cni ai bn−i (formule de binôme)
En raison de la dernière propriété, le nombre Cni s’appelle coefficient binomial.
Combinaisons
Propriétés
1 Cn0 = Cnn = 1
2 Cnp = Cnn−p (complémentaire)
3 Cnp = Cn−1
p p−1
+ Cn−1 (triangle de Pascal)
4 Apn = p!Cnp
Pn
5 (a + b)n = i=0 Cni ai bn−i (formule de binôme)
En raison de la dernière propriété, le nombre Cni s’appelle coefficient binomial.
Combinaisons
Propriétés
1 Cn0 = Cnn = 1
2 Cnp = Cnn−p (complémentaire)
3 Cnp = Cn−1
p p−1
+ Cn−1 (triangle de Pascal)
4 Apn = p!Cnp
Pn
5 (a + b)n = i=0 Cni ai bn−i (formule de binôme)
En raison de la dernière propriété, le nombre Cni s’appelle coefficient binomial.
Combinaisons
Propriétés
1 Cn0 = Cnn = 1
2 Cnp = Cnn−p (complémentaire)
3 Cnp = Cn−1
p p−1
+ Cn−1 (triangle de Pascal)
4 Apn = p!Cnp
Pn
5 (a + b)n = i=0 Cni ai bn−i (formule de binôme)
En raison de la dernière propriété, le nombre Cni s’appelle coefficient binomial.
Combinaisons
Propriétés
1 Cn0 = Cnn = 1
2 Cnp = Cnn−p (complémentaire)
3 Cnp = Cn−1
p p−1
+ Cn−1 (triangle de Pascal)
4 Apn = p!Cnp
Pn
5 (a + b)n = i=0 Cni ai bn−i (formule de binôme)
En raison de la dernière propriété, le nombre Cni s’appelle coefficient binomial.
Combinaisons
Propriétés
1 Cn0 = Cnn = 1
2 Cnp = Cnn−p (complémentaire)
3 Cnp = Cn−1
p p−1
+ Cn−1 (triangle de Pascal)
4 Apn = p!Cnp
Pn
5 (a + b)n = i=0 Cni ai bn−i (formule de binôme)
En raison de la dernière propriété, le nombre Cni s’appelle coefficient binomial.
Combinaisons
Propriétés
1 Cn0 = Cnn = 1
2 Cnp = Cnn−p (complémentaire)
3 Cnp = Cn−1
p p−1
+ Cn−1 (triangle de Pascal)
4 Apn = p!Cnp
Pn
5 (a + b)n = i=0 Cni ai bn−i (formule de binôme)
En raison de la dernière propriété, le nombre Cni s’appelle coefficient binomial.
Plan
1 Introduction
2 Espace probabilisé
3 Dénombrement
4 Conditionnement et Indépendance
9 LoisPr.continues
A. BELMAATI usuelles MODULE M147 A.U. : 2019-2020 23 / 92
Conditionnement et Indépendance
Probabilité conditionnelle
Problème
Exemple
Probabilité conditionnelle
Problème
Exemple
Probabilité conditionnelle
Problème
Exemple
Probabilité conditionnelle
Définition
Soit (Ω, T , IP) un espace probabilisé, B un événement dont la probabilité est
non nulle. Soit A un événement, on appelle probabilité de A sachant B, et on
note IP(A|B), le nombre défini par
IP(A ∩ B)
IP(A|B) =
IP(B)
Probabilité conditionnelle
Définition
Soit (Ω, T , IP) un espace probabilisé, B un événement dont la probabilité est
non nulle. Soit A un événement, on appelle probabilité de A sachant B, et on
note IP(A|B), le nombre défini par
IP(A ∩ B)
IP(A|B) =
IP(B)
Probabilité conditionnelle
Proposition
L’application IPB : T → [0, 1], définie par
Probabilité conditionnelle
Proposition
L’application IPB : T → [0, 1], définie par
Probabilité conditionnelle
Proposition
L’application IPB : T → [0, 1], définie par
Exemple
Une urne contient r boules rouges et v boules vertes. On en tire deux l’une
après l’autre, sans remise. Quelle est la probabilité d’obtenir deux boules
rouges ?
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 26 / 92
Conditionnement et Indépendance
Probabilité conditionnelle
Corollaire
L’application IPB vérifie :
1 L’application IP(∅|B) = 0, et si A ⊃ B, IP(A|B) = 1.
2 Si les Ai sont deux à deux disjoints :
n
X
IP(∪ni=1 An |B) = IP(Ai |B)
i=1
Probabilité conditionnelle
Corollaire
L’application IPB vérifie :
1 L’application IP(∅|B) = 0, et si A ⊃ B, IP(A|B) = 1.
2 Si les Ai sont deux à deux disjoints :
n
X
IP(∪ni=1 An |B) = IP(Ai |B)
i=1
Probabilité conditionnelle
Corollaire
L’application IPB vérifie :
1 L’application IP(∅|B) = 0, et si A ⊃ B, IP(A|B) = 1.
2 Si les Ai sont deux à deux disjoints :
n
X
IP(∪ni=1 An |B) = IP(Ai |B)
i=1
Probabilité conditionnelle
Corollaire
L’application IPB vérifie :
1 L’application IP(∅|B) = 0, et si A ⊃ B, IP(A|B) = 1.
2 Si les Ai sont deux à deux disjoints :
n
X
IP(∪ni=1 An |B) = IP(Ai |B)
i=1
Probabilité conditionnelle
Corollaire
L’application IPB vérifie :
1 L’application IP(∅|B) = 0, et si A ⊃ B, IP(A|B) = 1.
2 Si les Ai sont deux à deux disjoints :
n
X
IP(∪ni=1 An |B) = IP(Ai |B)
i=1
Proposition
Soient n événements A1 , . . . , An tels que IP(A1 ∩ A2 ∩ · · · ∩ An ) 6= 0. Alors :
IP(A1 ∩A2 ∩· · ·∩An ) = IP(A1 )IP(A2 |A1 )IP(A3 |A2 ∩A1 ) . . . IP(An |A1 ∩A2 ∩· · ·∩An−1 )
Exemple
Proposition
Soient n événements A1 , . . . , An tels que IP(A1 ∩ A2 ∩ · · · ∩ An ) 6= 0. Alors :
IP(A1 ∩A2 ∩· · ·∩An ) = IP(A1 )IP(A2 |A1 )IP(A3 |A2 ∩A1 ) . . . IP(An |A1 ∩A2 ∩· · ·∩An−1 )
Exemple
Définition
Un système complet d’événements (ou une partition) est une famille
d’événements (Ai )i∈I (I ⊂ N) qui sont incompatibles deux à deux et dont la
réunion est l’ensemble Ω, c’est-à-dire
Ai ∩ Aj 6= ∅, ∀i 6= j, et ti∈I Ai = Ω
Proposition
Soit (Ai )i∈I un système complet d’événements d’un espace probabilisé tels
que IP(Ai ) 6= 0, ∀i ∈ I. Alors, pour tout événement B on a :
X
IP(B) = IP(Ai )IP(B|Ai )
i∈I
Définition
Un système complet d’événements (ou une partition) est une famille
d’événements (Ai )i∈I (I ⊂ N) qui sont incompatibles deux à deux et dont la
réunion est l’ensemble Ω, c’est-à-dire
Ai ∩ Aj 6= ∅, ∀i 6= j, et ti∈I Ai = Ω
Proposition
Soit (Ai )i∈I un système complet d’événements d’un espace probabilisé tels
que IP(Ai ) 6= 0, ∀i ∈ I. Alors, pour tout événement B on a :
X
IP(B) = IP(Ai )IP(B|Ai )
i∈I
Exemple
Exemple
Formule de Bayes
Soit B un événement de probabilité non nulle. Si les événements
Ai , (1 ≤ i ≤ n) forment une partition de Ω et aucun IP(Ai ) n’est nul, on a tout
j = 1, . . . , n :
IP(B|Ai )P(Ai )
IP(Ai |B) = P .
i∈I IP(Ai )IP(B|Ai )
Exemple
Formule de Bayes
Soit B un événement de probabilité non nulle. Si les événements
Ai , (1 ≤ i ≤ n) forment une partition de Ω et aucun IP(Ai ) n’est nul, on a tout
j = 1, . . . , n :
IP(B|Ai )P(Ai )
IP(Ai |B) = P .
i∈I IP(Ai )IP(B|Ai )
Indépendance d’événements
Définition
Deux événements A et B d’un espace probabilisé sont dits indépendants
lorsque :
IP(A ∩ B) = IP(A)IP(B)
Indépendance d’événements
Définition
Deux événements A et B d’un espace probabilisé sont dits indépendants
lorsque :
IP(A ∩ B) = IP(A)IP(B)
Proposition
Si A et B sont des événements de probabilité non nulle, les trois égalités
suivantes sont équivalentes :
1 IP(A ∩ B) = IP(A)IP(B)
2 IP(A|B) = IP(A)
3 IP(B|A) = IP(B)
Indépendance d’événements
Définition
Deux événements A et B d’un espace probabilisé sont dits indépendants
lorsque :
IP(A ∩ B) = IP(A)IP(B)
Proposition
Si A et B sont des événements de probabilité non nulle, les trois égalités
suivantes sont équivalentes :
1 IP(A ∩ B) = IP(A)IP(B)
2 IP(A|B) = IP(A)
3 IP(B|A) = IP(B)
Indépendance d’événements
Définition
Deux événements A et B d’un espace probabilisé sont dits indépendants
lorsque :
IP(A ∩ B) = IP(A)IP(B)
Proposition
Si A et B sont des événements de probabilité non nulle, les trois égalités
suivantes sont équivalentes :
1 IP(A ∩ B) = IP(A)IP(B)
2 IP(A|B) = IP(A)
3 IP(B|A) = IP(B)
Indépendance d’événements
Exemple
Remarques
1 Si A est un événement tel que IP(A) = 0 ou IP(A) = 1, alors il est
indépendant de tout événement, y compris de lui même.
2 Deux événements incompatibles A et B avec IP(A) > 0 ou IP(B) > 0 ne
sont jamais indépendants.
Indépendance d’événements
Exemple
Remarques
1 Si A est un événement tel que IP(A) = 0 ou IP(A) = 1, alors il est
indépendant de tout événement, y compris de lui même.
2 Deux événements incompatibles A et B avec IP(A) > 0 ou IP(B) > 0 ne
sont jamais indépendants.
Indépendance d’événements
Exemple
Remarques
1 Si A est un événement tel que IP(A) = 0 ou IP(A) = 1, alors il est
indépendant de tout événement, y compris de lui même.
2 Deux événements incompatibles A et B avec IP(A) > 0 ou IP(B) > 0 ne
sont jamais indépendants.
Indépendance d’événements
Définition
Trois événements A, B, C sont dits mutuellement indépendants (ou
indépendants dans leur ensemble) lorsqu’ils vérifient les quatre conditions :
1 IP(A ∩ B) = IP(A)IP(B)
2 IP(B ∩ C) = IP(B)IP(C)
3 IP(C ∩ A) = IP(C)IP(A)
4 IP(A ∩ B ∩ C) = IP(A)IP(B)IP(C)
Indépendance d’événements
Définition
Trois événements A, B, C sont dits mutuellement indépendants (ou
indépendants dans leur ensemble) lorsqu’ils vérifient les quatre conditions :
1 IP(A ∩ B) = IP(A)IP(B)
2 IP(B ∩ C) = IP(B)IP(C)
3 IP(C ∩ A) = IP(C)IP(A)
4 IP(A ∩ B ∩ C) = IP(A)IP(B)IP(C)
Indépendance d’événements
Définition
Trois événements A, B, C sont dits mutuellement indépendants (ou
indépendants dans leur ensemble) lorsqu’ils vérifient les quatre conditions :
1 IP(A ∩ B) = IP(A)IP(B)
2 IP(B ∩ C) = IP(B)IP(C)
3 IP(C ∩ A) = IP(C)IP(A)
4 IP(A ∩ B ∩ C) = IP(A)IP(B)IP(C)
Indépendance d’événements
Définition
Trois événements A, B, C sont dits mutuellement indépendants (ou
indépendants dans leur ensemble) lorsqu’ils vérifient les quatre conditions :
1 IP(A ∩ B) = IP(A)IP(B)
2 IP(B ∩ C) = IP(B)IP(C)
3 IP(C ∩ A) = IP(C)IP(A)
4 IP(A ∩ B ∩ C) = IP(A)IP(B)IP(C)
Indépendance d’événements
Définition
Trois événements A, B, C sont dits mutuellement indépendants (ou
indépendants dans leur ensemble) lorsqu’ils vérifient les quatre conditions :
1 IP(A ∩ B) = IP(A)IP(B)
2 IP(B ∩ C) = IP(B)IP(C)
3 IP(C ∩ A) = IP(C)IP(A)
4 IP(A ∩ B ∩ C) = IP(A)IP(B)IP(C)
Plan
1 Introduction
2 Espace probabilisé
3 Dénombrement
4 Conditionnement et Indépendance
9 LoisPr.continues
A. BELMAATI usuelles MODULE M147 A.U. : 2019-2020 34 / 92
Variables aléatoires discrètes
Chapitre II
Introduction
Exemple 1
Somme 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
IP(Ak ) 36 36 36 36 36 36 36 36 36 36 36
Introduction
Exemple 1
Somme 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
IP(Ak ) 36 36 36 36 36 36 36 36 36 36 36
Introduction
Exemple 1
Somme 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
IP(Ak ) 36 36 36 36 36 36 36 36 36 36 36
Génératiltés
Définition 1
Soit (Ω, T , IP) un espace probabilisé. Une variable aléatoire réelle (en abrégé
v.a.) est une application X : Ω → R telle que pour tout intervalle I de R,
l’ensemble X −1 (I) = {ω ∈ Ω, X (ω) ∈ I} soit un événement de T auquel on
peut attribuer une probabilité IP.
L’ensemble de valeurs prise par la variable aléatoire X est noté X (Ω).
Si X (Ω) est au plus dénombrable, on dit que X est une variable aléatoire
discrète.
Génératiltés
Définition 1
Soit (Ω, T , IP) un espace probabilisé. Une variable aléatoire réelle (en abrégé
v.a.) est une application X : Ω → R telle que pour tout intervalle I de R,
l’ensemble X −1 (I) = {ω ∈ Ω, X (ω) ∈ I} soit un événement de T auquel on
peut attribuer une probabilité IP.
L’ensemble de valeurs prise par la variable aléatoire X est noté X (Ω).
Si X (Ω) est au plus dénombrable, on dit que X est une variable aléatoire
discrète.
Génératiltés
Définition 2
Soit X une variable aléatoire discrète sur (Ω, T , IP). On lui associe la fonction
d’ensemble IPX définie sur la famille de toutes les parties de R, en posant :
La fonction d’ensembles IPX ainsi définie est une probabilité sur la famille de
toute les parties de R. On l’appelle la loi de probabilité associée à la variable
aléatoire X .
Génératiltés
Exemple 2
Exemple 3
Génératiltés
Exemple 2
Exemple 3
Génératiltés
Remarques
1 Soient X et Y deux v.a. d’un espace probabilisé (Ω, T , IP) on a :
1 ∀ω ∈ Ω, (X + Y )(ω) = X (ω) + Y (ω)
2 ∀ω ∈ Ω, λ ∈ R, (λX )(ω) = λX (ω)
3 ∀ω ∈ Ω, (XY )(ω) = X (ω)Y (ω)
2 Si X est une v.a. d’un espace probabilisé (Ω, T , IP) et f une application
sur R, f (X ) est aussi une variable aléatoire définie sur Ω.
On a
∀ω ∈ Ω, f (X )(ω) = f (X (ω))
Génératiltés
Remarques
1 Soient X et Y deux v.a. d’un espace probabilisé (Ω, T , IP) on a :
1 ∀ω ∈ Ω, (X + Y )(ω) = X (ω) + Y (ω)
2 ∀ω ∈ Ω, λ ∈ R, (λX )(ω) = λX (ω)
3 ∀ω ∈ Ω, (XY )(ω) = X (ω)Y (ω)
2 Si X est une v.a. d’un espace probabilisé (Ω, T , IP) et f une application
sur R, f (X ) est aussi une variable aléatoire définie sur Ω.
On a
∀ω ∈ Ω, f (X )(ω) = f (X (ω))
Génératiltés
Remarques
1 Soient X et Y deux v.a. d’un espace probabilisé (Ω, T , IP) on a :
1 ∀ω ∈ Ω, (X + Y )(ω) = X (ω) + Y (ω)
2 ∀ω ∈ Ω, λ ∈ R, (λX )(ω) = λX (ω)
3 ∀ω ∈ Ω, (XY )(ω) = X (ω)Y (ω)
2 Si X est une v.a. d’un espace probabilisé (Ω, T , IP) et f une application
sur R, f (X ) est aussi une variable aléatoire définie sur Ω.
On a
∀ω ∈ Ω, f (X )(ω) = f (X (ω))
Génératiltés
Remarques
1 Soient X et Y deux v.a. d’un espace probabilisé (Ω, T , IP) on a :
1 ∀ω ∈ Ω, (X + Y )(ω) = X (ω) + Y (ω)
2 ∀ω ∈ Ω, λ ∈ R, (λX )(ω) = λX (ω)
3 ∀ω ∈ Ω, (XY )(ω) = X (ω)Y (ω)
2 Si X est une v.a. d’un espace probabilisé (Ω, T , IP) et f une application
sur R, f (X ) est aussi une variable aléatoire définie sur Ω.
On a
∀ω ∈ Ω, f (X )(ω) = f (X (ω))
Génératiltés
Remarques
1 Soient X et Y deux v.a. d’un espace probabilisé (Ω, T , IP) on a :
1 ∀ω ∈ Ω, (X + Y )(ω) = X (ω) + Y (ω)
2 ∀ω ∈ Ω, λ ∈ R, (λX )(ω) = λX (ω)
3 ∀ω ∈ Ω, (XY )(ω) = X (ω)Y (ω)
2 Si X est une v.a. d’un espace probabilisé (Ω, T , IP) et f une application
sur R, f (X ) est aussi une variable aléatoire définie sur Ω.
On a
∀ω ∈ Ω, f (X )(ω) = f (X (ω))
Définition
Soit X une v.a. d’un espace probabilisé (Ω, T , IP). On appelle fonction de
répartition de X , la fonction numérique FX définie sur R par :
∀x ∈ R, FX (x) = IP(X ≤ x)
Exemple 1
Somme 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
IP(X = k ) 36 36 36 36 36 36 36 36 36 36 36
Définition
Soit X une v.a. d’un espace probabilisé (Ω, T , IP). On appelle fonction de
répartition de X , la fonction numérique FX définie sur R par :
∀x ∈ R, FX (x) = IP(X ≤ x)
Exemple 1
Somme 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
IP(X = k ) 36 36 36 36 36 36 36 36 36 36 36
Définition
Soit X une v.a. d’un espace probabilisé (Ω, T , IP). On appelle fonction de
répartition de X , la fonction numérique FX définie sur R par :
∀x ∈ R, FX (x) = IP(X ≤ x)
Exemple 1
Somme 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
IP(X = k ) 36 36 36 36 36 36 36 36 36 36 36
Théorème
Soit X une v.a. et soit FX sa fonction de répartition. Alors FX possède les
propriétés suivantes :
1 FX est une fonction croissante.
2 FX est continue à droite en tout point de R.
3 limx→−∞ FX (x) = 0 et limx→+∞ FX (x) = 1
Toute fonction F définie sur R à valeur dans [0, 1] vérifiant les 3 propriétés est
une fonction de répartition d’une v.a.
Proposition
Soit X une v.a. et soit FX sa fonction de répartition. Alors
1 ∀(a, b) ∈ R2 avec a < b, IP(a < X ≤ b) = FX (b) − FX (a)
2 ∀a ∈ R, IP(X = a) = FX (a) − limx→a− FX (x)
Théorème
Soit X une v.a. et soit FX sa fonction de répartition. Alors FX possède les
propriétés suivantes :
1 FX est une fonction croissante.
2 FX est continue à droite en tout point de R.
3 limx→−∞ FX (x) = 0 et limx→+∞ FX (x) = 1
Toute fonction F définie sur R à valeur dans [0, 1] vérifiant les 3 propriétés est
une fonction de répartition d’une v.a.
Proposition
Soit X une v.a. et soit FX sa fonction de répartition. Alors
1 ∀(a, b) ∈ R2 avec a < b, IP(a < X ≤ b) = FX (b) − FX (a)
2 ∀a ∈ R, IP(X = a) = FX (a) − limx→a− FX (x)
Théorème
Soit X une v.a. et soit FX sa fonction de répartition. Alors FX possède les
propriétés suivantes :
1 FX est une fonction croissante.
2 FX est continue à droite en tout point de R.
3 limx→−∞ FX (x) = 0 et limx→+∞ FX (x) = 1
Toute fonction F définie sur R à valeur dans [0, 1] vérifiant les 3 propriétés est
une fonction de répartition d’une v.a.
Proposition
Soit X une v.a. et soit FX sa fonction de répartition. Alors
1 ∀(a, b) ∈ R2 avec a < b, IP(a < X ≤ b) = FX (b) − FX (a)
2 ∀a ∈ R, IP(X = a) = FX (a) − limx→a− FX (x)
Théorème
Soit X une v.a. et soit FX sa fonction de répartition. Alors FX possède les
propriétés suivantes :
1 FX est une fonction croissante.
2 FX est continue à droite en tout point de R.
3 limx→−∞ FX (x) = 0 et limx→+∞ FX (x) = 1
Toute fonction F définie sur R à valeur dans [0, 1] vérifiant les 3 propriétés est
une fonction de répartition d’une v.a.
Proposition
Soit X une v.a. et soit FX sa fonction de répartition. Alors
1 ∀(a, b) ∈ R2 avec a < b, IP(a < X ≤ b) = FX (b) − FX (a)
2 ∀a ∈ R, IP(X = a) = FX (a) − limx→a− FX (x)
Théorème
Soit X une v.a. et soit FX sa fonction de répartition. Alors FX possède les
propriétés suivantes :
1 FX est une fonction croissante.
2 FX est continue à droite en tout point de R.
3 limx→−∞ FX (x) = 0 et limx→+∞ FX (x) = 1
Toute fonction F définie sur R à valeur dans [0, 1] vérifiant les 3 propriétés est
une fonction de répartition d’une v.a.
Proposition
Soit X une v.a. et soit FX sa fonction de répartition. Alors
1 ∀(a, b) ∈ R2 avec a < b, IP(a < X ≤ b) = FX (b) − FX (a)
2 ∀a ∈ R, IP(X = a) = FX (a) − limx→a− FX (x)
Théorème
Soit X une v.a. et soit FX sa fonction de répartition. Alors FX possède les
propriétés suivantes :
1 FX est une fonction croissante.
2 FX est continue à droite en tout point de R.
3 limx→−∞ FX (x) = 0 et limx→+∞ FX (x) = 1
Toute fonction F définie sur R à valeur dans [0, 1] vérifiant les 3 propriétés est
une fonction de répartition d’une v.a.
Proposition
Soit X une v.a. et soit FX sa fonction de répartition. Alors
1 ∀(a, b) ∈ R2 avec a < b, IP(a < X ≤ b) = FX (b) − FX (a)
2 ∀a ∈ R, IP(X = a) = FX (a) − limx→a− FX (x)
Théorème
Soit X une v.a. et soit FX sa fonction de répartition. Alors FX possède les
propriétés suivantes :
1 FX est une fonction croissante.
2 FX est continue à droite en tout point de R.
3 limx→−∞ FX (x) = 0 et limx→+∞ FX (x) = 1
Toute fonction F définie sur R à valeur dans [0, 1] vérifiant les 3 propriétés est
une fonction de répartition d’une v.a.
Proposition
Soit X une v.a. et soit FX sa fonction de répartition. Alors
1 ∀(a, b) ∈ R2 avec a < b, IP(a < X ≤ b) = FX (b) − FX (a)
2 ∀a ∈ R, IP(X = a) = FX (a) − limx→a− FX (x)
Définition
Soit X une v.a.d.
P P
1 Si xk ∈X (Ω) |xk |IP(X = xk ) = xk ∈X (Ω) |xk |pk < ∞, le nombre réel
X
E(X ) = xk pk
xk ∈X (Ω)
(somme fini si X (Ω) est fini et somme d’une série convergente si X (Ω)
est dénombrable) est appelé espérance (ou moyenne) de X .
2 si E(X ) = 0 on dit que v.a. est centrée.
Pour r ∈ N, le nombre E(X r ) = xk ∈X (Ω) xkr pk , lorsqu’il existe, est appelé
P
3
moment d’ordre r de X .
Le nombre Var (X ) = xk ∈X (Ω) xk2 pk − E(X )2 , lorsqu’il existe, est appelé
P
4
p
variance de X et σX = (Var (X )) est l’écart-type.
Définition
Soit X une v.a.d.
P P
1 Si xk ∈X (Ω) |xk |IP(X = xk ) = xk ∈X (Ω) |xk |pk < ∞, le nombre réel
X
E(X ) = xk pk
xk ∈X (Ω)
(somme fini si X (Ω) est fini et somme d’une série convergente si X (Ω)
est dénombrable) est appelé espérance (ou moyenne) de X .
2 si E(X ) = 0 on dit que v.a. est centrée.
Pour r ∈ N, le nombre E(X r ) = xk ∈X (Ω) xkr pk , lorsqu’il existe, est appelé
P
3
moment d’ordre r de X .
Le nombre Var (X ) = xk ∈X (Ω) xk2 pk − E(X )2 , lorsqu’il existe, est appelé
P
4
p
variance de X et σX = (Var (X )) est l’écart-type.
Définition
Soit X une v.a.d.
P P
1 Si xk ∈X (Ω) |xk |IP(X = xk ) = xk ∈X (Ω) |xk |pk < ∞, le nombre réel
X
E(X ) = xk pk
xk ∈X (Ω)
(somme fini si X (Ω) est fini et somme d’une série convergente si X (Ω)
est dénombrable) est appelé espérance (ou moyenne) de X .
2 si E(X ) = 0 on dit que v.a. est centrée.
Pour r ∈ N, le nombre E(X r ) = xk ∈X (Ω) xkr pk , lorsqu’il existe, est appelé
P
3
moment d’ordre r de X .
Le nombre Var (X ) = xk ∈X (Ω) xk2 pk − E(X )2 , lorsqu’il existe, est appelé
P
4
p
variance de X et σX = (Var (X )) est l’écart-type.
Définition
Soit X une v.a.d.
P P
1 Si xk ∈X (Ω) |xk |IP(X = xk ) = xk ∈X (Ω) |xk |pk < ∞, le nombre réel
X
E(X ) = xk pk
xk ∈X (Ω)
(somme fini si X (Ω) est fini et somme d’une série convergente si X (Ω)
est dénombrable) est appelé espérance (ou moyenne) de X .
2 si E(X ) = 0 on dit que v.a. est centrée.
Pour r ∈ N, le nombre E(X r ) = xk ∈X (Ω) xkr pk , lorsqu’il existe, est appelé
P
3
moment d’ordre r de X .
Le nombre Var (X ) = xk ∈X (Ω) xk2 pk − E(X )2 , lorsqu’il existe, est appelé
P
4
p
variance de X et σX = (Var (X )) est l’écart-type.
Exemple 4
On lance trois fois une pièce régulière. Soit X la variable aléatoire qui note le
nombre de piles obtenus.
Calculer l’espérance et la variance de X .
Propriété
Soient X et Y deux variables aléatoires définies sur un même espace
probabilisé et a et b deux nombres réels, on a :
1 E(aX + b) = aE(X ) + b
2 V (aX + b) = a2 V (X )
3 E(X + Y ) = E(X ) + E(Y )
4 Si X et Y sont indépendantes alors :
V (X + Y ) = V (X ) + V (Y )
Plan
1 Introduction
2 Espace probabilisé
3 Dénombrement
4 Conditionnement et Indépendance
9 LoisPr.continues
A. BELMAATI usuelles MODULE M147 A.U. : 2019-2020 46 / 92
Lois discrètes classiques
Chapitre III
Définition
On dit qu’une v.a. suit une loi uniforme sur {1, . . . , n} si X (Ω) = {1, . . . , n} et
1
∀k ∈ {1, . . . , n} IP(X = k ) =
n
Proposition
Soit X une v.a. suivant une loi uniforme sur{1, . . . , n} alors
n+1 n2 − 1
E(X ) = et Var (X ) =
2 12
Définition
On dit qu’une v.a. suit une loi uniforme sur {1, . . . , n} si X (Ω) = {1, . . . , n} et
1
∀k ∈ {1, . . . , n} IP(X = k ) =
n
Proposition
Soit X une v.a. suivant une loi uniforme sur{1, . . . , n} alors
n+1 n2 − 1
E(X ) = et Var (X ) =
2 12
Loi de Bernoulli
Définition
La v.a. X suit la loi Bernoulli de paramètre p (p ∈ [0, 1]) si elle ne dépend que
de deux valeurs 0 et 1 c-à-d X (Ω) = {0, 1} avec
IP(X = 1) = p et IP(X = 0) = 1 − p = q
On notera X ∼ B(p)
Proposition
Soit X une v.a. suivant une loi de Bernoulli de paramètre p alors
E(X ) = p et Var (X ) = pq
Exemple
1 Lancer une pièce de monnaie.
2 Obtenir un 5 après avoir lancé un dé.
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 49 / 92
Lois discrètes classiques
Loi de Bernoulli
Définition
La v.a. X suit la loi Bernoulli de paramètre p (p ∈ [0, 1]) si elle ne dépend que
de deux valeurs 0 et 1 c-à-d X (Ω) = {0, 1} avec
IP(X = 1) = p et IP(X = 0) = 1 − p = q
On notera X ∼ B(p)
Proposition
Soit X une v.a. suivant une loi de Bernoulli de paramètre p alors
E(X ) = p et Var (X ) = pq
Exemple
1 Lancer une pièce de monnaie.
2 Obtenir un 5 après avoir lancé un dé.
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 49 / 92
Lois discrètes classiques
Loi de Bernoulli
Définition
La v.a. X suit la loi Bernoulli de paramètre p (p ∈ [0, 1]) si elle ne dépend que
de deux valeurs 0 et 1 c-à-d X (Ω) = {0, 1} avec
IP(X = 1) = p et IP(X = 0) = 1 − p = q
On notera X ∼ B(p)
Proposition
Soit X une v.a. suivant une loi de Bernoulli de paramètre p alors
E(X ) = p et Var (X ) = pq
Exemple
1 Lancer une pièce de monnaie.
2 Obtenir un 5 après avoir lancé un dé.
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 49 / 92
Lois discrètes classiques
Loi de Bernoulli
Définition
La v.a. X suit la loi Bernoulli de paramètre p (p ∈ [0, 1]) si elle ne dépend que
de deux valeurs 0 et 1 c-à-d X (Ω) = {0, 1} avec
IP(X = 1) = p et IP(X = 0) = 1 − p = q
On notera X ∼ B(p)
Proposition
Soit X une v.a. suivant une loi de Bernoulli de paramètre p alors
E(X ) = p et Var (X ) = pq
Exemple
1 Lancer une pièce de monnaie.
2 Obtenir un 5 après avoir lancé un dé.
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 49 / 92
Lois discrètes classiques
Loi binomiale
Définition
Une v.a. X suit une loi binomiale de paramètres n (n ∈ N∗ ) et p (p ∈ [0, 1]) si
l’ensemble des valeurs possibles est X (Ω) = {0, 1, . . . , n} et
On note X ∼ B(n, p)
Proposition
Soit X une v.a. suivant une loi binomiale de paramètres n, p alors
Loi binomiale
Définition
Une v.a. X suit une loi binomiale de paramètres n (n ∈ N∗ ) et p (p ∈ [0, 1]) si
l’ensemble des valeurs possibles est X (Ω) = {0, 1, . . . , n} et
On note X ∼ B(n, p)
Proposition
Soit X une v.a. suivant une loi binomiale de paramètres n, p alors
Loi binomiale
Le modèle
On répète n fois, dans les mêmes conditions et indépendamment les uns des
autres, une expérience à deux issues (expérience de Bernoulli) dont la
probabilité de succès est égale à p. La variable aléatoire qui compte le
nombre de réalisations de succès est dite une variable binomiale de
paramètres n et p.
Exemples
Loi binomiale
Le modèle
On répète n fois, dans les mêmes conditions et indépendamment les uns des
autres, une expérience à deux issues (expérience de Bernoulli) dont la
probabilité de succès est égale à p. La variable aléatoire qui compte le
nombre de réalisations de succès est dite une variable binomiale de
paramètres n et p.
Exemples
Loi binomiale
Le modèle
On répète n fois, dans les mêmes conditions et indépendamment les uns des
autres, une expérience à deux issues (expérience de Bernoulli) dont la
probabilité de succès est égale à p. La variable aléatoire qui compte le
nombre de réalisations de succès est dite une variable binomiale de
paramètres n et p.
Exemples
Loi de Poisson
Définition
Une v.a. X suit une loi de Poisson de paramètres λ > 0, si l’ensemble des
valeurs possibles est X (Ω) = N et
λk
∀k ∈ N IP(X = k) = exp(−λ)
k!
On note X ∼ P(λ)
Proposition
Soit X une v.a. suivant une loi de Poisson de paramètres λ > 0 alors
E(X ) = Var (X ) = λ
Loi de Poisson
Définition
Une v.a. X suit une loi de Poisson de paramètres λ > 0, si l’ensemble des
valeurs possibles est X (Ω) = N et
λk
∀k ∈ N IP(X = k) = exp(−λ)
k!
On note X ∼ P(λ)
Proposition
Soit X une v.a. suivant une loi de Poisson de paramètres λ > 0 alors
E(X ) = Var (X ) = λ
Loi de Poisson
Le modèle
On répète, dans les mêmes conditions, indépendamment les uns des autres
et pendant une période donnée, une expérience à deux issues (expérience
de Bernoulli) dont la moyenne de succès pendant cette période est égale à λ.
La variable aléatoire qui compte le nombre de réalisations de succès durant
cette période est dite une variable de Poisson de paramètre λ.
Exemples
Loi de Poisson
Le modèle
On répète, dans les mêmes conditions, indépendamment les uns des autres
et pendant une période donnée, une expérience à deux issues (expérience
de Bernoulli) dont la moyenne de succès pendant cette période est égale à λ.
La variable aléatoire qui compte le nombre de réalisations de succès durant
cette période est dite une variable de Poisson de paramètre λ.
Exemples
Loi de Poisson
Le modèle
On répète, dans les mêmes conditions, indépendamment les uns des autres
et pendant une période donnée, une expérience à deux issues (expérience
de Bernoulli) dont la moyenne de succès pendant cette période est égale à λ.
La variable aléatoire qui compte le nombre de réalisations de succès durant
cette période est dite une variable de Poisson de paramètre λ.
Exemples
Proposition
λ
Posons pn = n alors pour k entier fixé, on a
λk
limn→∞ Cnk pnk (1 − pn )n−k = exp(−λ)
k!
Lorsque n devient grand (en général, dès que n ≥ 50, p < 0.1(On peut se
contenter de ces deux conditions pour approximer une loi binomiale par une
loi de Poisson.)), On peut approcher la loi binomiale de paramètres n et p par
une loi de Poisson de paramètre λ = np.
Loi géométrique
Définition
Une v.a. X suit une loi géométrique de paramètres p (0 < p < 1) si l’ensemble
des valeurs possibles est X (Ω) = N∗ et
∀k ∈ N IP(X = k ) = pq k−1
On note X ∼ G(p)
Proposition
Soit X une v.a. suivant une loi géométrique de paramètres p alors
1 q
E(X ) = et Var (X ) = 2
p p
Loi géométrique
Définition
Une v.a. X suit une loi géométrique de paramètres p (0 < p < 1) si l’ensemble
des valeurs possibles est X (Ω) = N∗ et
∀k ∈ N IP(X = k ) = pq k−1
On note X ∼ G(p)
Proposition
Soit X une v.a. suivant une loi géométrique de paramètres p alors
1 q
E(X ) = et Var (X ) = 2
p p
Loi géométrique
Le modèle
Exemple
Une urne contient 5 boules blanches et 10 boules noires. On tire des boules
au hasard et avec remise jusqu’à ce qu’on obtienne la première boule
blanche (succès). Quelle est la probabilité que la première boule blanche soit
tirée après 4 tirages ?
Loi géométrique
Le modèle
Exemple
Une urne contient 5 boules blanches et 10 boules noires. On tire des boules
au hasard et avec remise jusqu’à ce qu’on obtienne la première boule
blanche (succès). Quelle est la probabilité que la première boule blanche soit
tirée après 4 tirages ?
Loi Hypergémétrique
Définition
Une v.a. X suit une loi hypergéométrique de paramètres N1 , N2 , n si
l’ensemble des valeurs possibles est
X (Ω) = {max(0, n − N2 ), . . . , min(N1 , n)} et
CNk 1 CNn−k
∀k ∈ X (Ω) IP(X = k) = 2
CNn 1 +N2
On note X ∼ H(N1 , N2 , n)
Proposition
Soit X une v.a. suivant une loi hypergéométrique de paramètre N1 , N2 , n alors
N1 + N2 − n
E(X ) = np et Var (X ) = npq
N1 + N2 − 1
N1
où p = N1 +N2 et q = 1 − p
Loi Hypergémétrique
Définition
Une v.a. X suit une loi hypergéométrique de paramètres N1 , N2 , n si
l’ensemble des valeurs possibles est
X (Ω) = {max(0, n − N2 ), . . . , min(N1 , n)} et
CNk 1 CNn−k
∀k ∈ X (Ω) IP(X = k) = 2
CNn 1 +N2
On note X ∼ H(N1 , N2 , n)
Proposition
Soit X une v.a. suivant une loi hypergéométrique de paramètre N1 , N2 , n alors
N1 + N2 − n
E(X ) = np et Var (X ) = npq
N1 + N2 − 1
N1
où p = N1 +N2 et q = 1 − p
Loi Hypergémétrique
Le modèle
Exemple
Loi Hypergémétrique
Le modèle
Exemple
Plan
1 Introduction
2 Espace probabilisé
3 Dénombrement
4 Conditionnement et Indépendance
9 LoisPr.continues
A. BELMAATI usuelles MODULE M147 A.U. : 2019-2020 59 / 92
Couples de variables aléatoires discrètes
Chapitre IV
propriétés
1 ∀x ∈ X (Ω), ∀y ∈ Y (Ω), P(X = x ∩ Y = y ) ∈ [0, 1].
P P P
x∈X (Ω),y ∈Y (Ω) P(X = x, Y = y) = y P(X = x, Y = y ) = 1
2
x
propriétés
1 ∀x ∈ X (Ω), ∀y ∈ Y (Ω), P(X = x ∩ Y = y ) ∈ [0, 1].
P P P
x∈X (Ω),y ∈Y (Ω) P(X = x, Y = y) = y P(X = x, Y = y ) = 1
2
x
propriétés
1 ∀x ∈ X (Ω), ∀y ∈ Y (Ω), P(X = x ∩ Y = y ) ∈ [0, 1].
P P P
x∈X (Ω),y ∈Y (Ω) P(X = x, Y = y) = y P(X = x, Y = y ) = 1
2
x
propriétés
1 ∀x ∈ X (Ω), ∀y ∈ Y (Ω), P(X = x ∩ Y = y ) ∈ [0, 1].
P P P
x∈X (Ω),y ∈Y (Ω) P(X = x, Y = y) = y P(X = x, Y = y ) = 1
2
x
Conséquence :
∀a ∈ R, ∀b ∈ R, E(aX + bY ) = aE(X ) + bE(Y )
Covariance et corrélation
On considère un couple (X , Y ) de variables aléatoires définies sur un même
espace probabilisé.
la covariance des variables X et Y est définie par :
cov (X , Y )
ρ(X , Y ) =
σ(X )σ(Y )
Covariance et corrélation
On considère un couple (X , Y ) de variables aléatoires définies sur un même
espace probabilisé.
la covariance des variables X et Y est définie par :
cov (X , Y )
ρ(X , Y ) =
σ(X )σ(Y )
\Y 0 1 2
X \
1 1
0 0 0
2 2
1 1 1
1 0
4 4 2
1 1 1
1
4 2 4
On a : E(X ) = 1/2, E(Y)=1, et E(XY)=1/2. Donc Cov (X , Y ) = 0.
V (aX + bY ) = a2 V (X ) + b2 V (Y ) + 2abcov (X , Y )
2 Soit a et b deux nombres réels, on a
V (aX − bY ) = a2 V (X ) + b2 V (Y ) − 2abcov (X , Y )
3 Soient a, b, c, d quatre nombres réels, on a
V (aX + bY ) = a2 V (X ) + b2 V (Y ) + 2abcov (X , Y )
2 Soit a et b deux nombres réels, on a
V (aX − bY ) = a2 V (X ) + b2 V (Y ) − 2abcov (X , Y )
3 Soient a, b, c, d quatre nombres réels, on a
V (aX + bY ) = a2 V (X ) + b2 V (Y ) + 2abcov (X , Y )
2 Soit a et b deux nombres réels, on a
V (aX − bY ) = a2 V (X ) + b2 V (Y ) − 2abcov (X , Y )
3 Soient a, b, c, d quatre nombres réels, on a
Variables indépendantes
Soient X et Y deux variables définies sur le même espace probabilisé. On dit
que les variables X et Y sont indépendantes ssi ∀x ∈ X (Ω) et ∀y ∈ Y (Ω), les
évènements (X = x) et (Y = y ) sont indépendants.
Variables indépendantes
Soient X et Y deux variables définies sur le même espace probabilisé. On dit
que les variables X et Y sont indépendantes ssi ∀x ∈ X (Ω) et ∀y ∈ Y (Ω), les
évènements (X = x) et (Y = y ) sont indépendants.
On a donc cov (X , Y ) = 0
Exercice 8 (Série 4)
1) Soient X et Y deux variables aléatoires indépendantes. X suit une loi
binomiale de paramètres n1 et p, Y suit une loi binomiale de paramètres n2 et
p.
a) Déterminer la loi de probabilité de la somme S = X + Y .
b) Déterminer la loi de probabilité conditionnelle de X sachant que (S = n).
2) Soient X et Y deux variables aléatoires indépendantes suivant une loi de
Poisson de paramètres respectifs λ1 et λ2 .
a) Déterminer la loi de probabilité de S = X + Y .
b) Déterminer la loi de probabilité conditionnelle de X sachant que (S = n).
Plan
1 Introduction
2 Espace probabilisé
3 Dénombrement
4 Conditionnement et Indépendance
9 LoisPr.continues
A. BELMAATI usuelles MODULE M147 A.U. : 2019-2020 69 / 92
Variables aléatoires continues
Chapitre V
Introduction
Définition
Soit X une variable aléatoire sur (Ω, T , IP). On dit que X est une variable
aléatoire continue, si X (Ω) est infini non dénombrable.
Exemples
Introduction
Définition
Soit X une variable aléatoire sur (Ω, T , IP). On dit que X est une variable
aléatoire continue, si X (Ω) est infini non dénombrable.
Exemples
Introduction
Définition
Soit X une variable aléatoire sur (Ω, T , IP). On dit que X est une variable
aléatoire continue, si X (Ω) est infini non dénombrable.
Exemples
Définition 1
Soit X une v.a.c. d’un espace probabilisé (Ω, T , IP). On appelle fonction de
répartition de X , la fonction numérique FX définie sur R par :
∀x ∈ R, FX (x) = IP(X ≤ x)
Définition 2
Soit X une v.a.c. et FX sa Rfonction de répartition. On dit que X admet une
x
densité de probabilité f si −∞ f (t)dt existe et si l’on a
Z x
∀x ∈ R, FX (x) = f (t)dt
−∞
Définition 1
Soit X une v.a.c. d’un espace probabilisé (Ω, T , IP). On appelle fonction de
répartition de X , la fonction numérique FX définie sur R par :
∀x ∈ R, FX (x) = IP(X ≤ x)
Définition 2
Soit X une v.a.c. et FX sa Rfonction de répartition. On dit que X admet une
x
densité de probabilité f si −∞ f (t)dt existe et si l’on a
Z x
∀x ∈ R, FX (x) = f (t)dt
−∞
Proposition
Soit X une v.a.c. et FX sa fonction de répartition et f sa fonction densité.
1 La fonction FX est continue et croissante sur R.
2 ∀a ∈ R, IP(X = a) = 0 et ∀(a, b) ∈ R2 on a
Z b
IP(a < X < b) = FX (b) − FX (a) = f (t)dt
a
Remarque
On a IP(a ≤ X ≤ b) = IP(a < X ≤ b) = IP(a ≤ X < b) = IP(a < X < b) peut
être réalisé par l’aire limitée par la courbe d’équation y = f (x) et les droites
d’équations y = 0, x = a, et x = b
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 73 / 92
Variables aléatoires continues
Proposition
Soit X une v.a.c. et FX sa fonction de répartition et f sa fonction densité.
1 La fonction FX est continue et croissante sur R.
2 ∀a ∈ R, IP(X = a) = 0 et ∀(a, b) ∈ R2 on a
Z b
IP(a < X < b) = FX (b) − FX (a) = f (t)dt
a
Remarque
On a IP(a ≤ X ≤ b) = IP(a < X ≤ b) = IP(a ≤ X < b) = IP(a < X < b) peut
être réalisé par l’aire limitée par la courbe d’équation y = f (x) et les droites
d’équations y = 0, x = a, et x = b
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 73 / 92
Variables aléatoires continues
Proposition
Soit X une v.a.c. et FX sa fonction de répartition et f sa fonction densité.
1 La fonction FX est continue et croissante sur R.
2 ∀a ∈ R, IP(X = a) = 0 et ∀(a, b) ∈ R2 on a
Z b
IP(a < X < b) = FX (b) − FX (a) = f (t)dt
a
Remarque
On a IP(a ≤ X ≤ b) = IP(a < X ≤ b) = IP(a ≤ X < b) = IP(a < X < b) peut
être réalisé par l’aire limitée par la courbe d’équation y = f (x) et les droites
d’équations y = 0, x = a, et x = b
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 73 / 92
Variables aléatoires continues
Proposition
Soit X une v.a.c. et FX sa fonction de répartition et f sa fonction densité.
1 La fonction FX est continue et croissante sur R.
2 ∀a ∈ R, IP(X = a) = 0 et ∀(a, b) ∈ R2 on a
Z b
IP(a < X < b) = FX (b) − FX (a) = f (t)dt
a
Remarque
On a IP(a ≤ X ≤ b) = IP(a < X ≤ b) = IP(a ≤ X < b) = IP(a < X < b) peut
être réalisé par l’aire limitée par la courbe d’équation y = f (x) et les droites
d’équations y = 0, x = a, et x = b
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 73 / 92
Variables aléatoires continues
Proposition
Soit X une v.a.c. et FX sa fonction de répartition et f sa fonction densité.
1 La fonction FX est continue et croissante sur R.
2 ∀a ∈ R, IP(X = a) = 0 et ∀(a, b) ∈ R2 on a
Z b
IP(a < X < b) = FX (b) − FX (a) = f (t)dt
a
Remarque
On a IP(a ≤ X ≤ b) = IP(a < X ≤ b) = IP(a ≤ X < b) = IP(a < X < b) peut
être réalisé par l’aire limitée par la courbe d’équation y = f (x) et les droites
d’équations y = 0, x = a, et x = b
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 73 / 92
Variables aléatoires continues
Proposition
Soit X une v.a.c. et FX sa fonction de répartition et f sa fonction densité.
1 La fonction FX est continue et croissante sur R.
2 ∀a ∈ R, IP(X = a) = 0 et ∀(a, b) ∈ R2 on a
Z b
IP(a < X < b) = FX (b) − FX (a) = f (t)dt
a
Remarque
On a IP(a ≤ X ≤ b) = IP(a < X ≤ b) = IP(a ≤ X < b) = IP(a < X < b) peut
être réalisé par l’aire limitée par la courbe d’équation y = f (x) et les droites
d’équations y = 0, x = a, et x = b
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 73 / 92
Variables aléatoires continues
Exemple
1 Déterminer k .
2 Déterminer la fonction de répartition F (x).
3 Calculer les probabilités des événements (X ≥ 2) et (0.5 ≤ X < 1.5)
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 74 / 92
Variables aléatoires continues
Exemple
1 Déterminer k .
2 Déterminer la fonction de répartition F (x).
3 Calculer les probabilités des événements (X ≥ 2) et (0.5 ≤ X < 1.5)
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 74 / 92
Variables aléatoires continues
Exemple
1 Déterminer k .
2 Déterminer la fonction de répartition F (x).
3 Calculer les probabilités des événements (X ≥ 2) et (0.5 ≤ X < 1.5)
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 74 / 92
Variables aléatoires continues
Exemple
1 Déterminer k .
2 Déterminer la fonction de répartition F (x).
3 Calculer les probabilités des événements (X ≥ 2) et (0.5 ≤ X < 1.5)
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 74 / 92
Variables aléatoires continues
Proposition
Soit X une v.a.c. de densité f et soit
R +∞Φ une application continue ou continue
par morceaux sur R. Si l’intégrale −∞ |Φ(t)|f (t)dt existe, alors la v.a. Φ(X ) a
une espérance donnée par :
Z +∞
E(Φ(X )) = Φ(t)f (t)dt
−∞
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 75 / 92
Variables aléatoires continues
Proposition
Soit X une v.a.c. de densité f et soit
R +∞Φ une application continue ou continue
par morceaux sur R. Si l’intégrale −∞ |Φ(t)|f (t)dt existe, alors la v.a. Φ(X ) a
une espérance donnée par :
Z +∞
E(Φ(X )) = Φ(t)f (t)dt
−∞
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 75 / 92
Variables aléatoires continues
Proposition
Soit X une v.a.c. de densité f et soit
R +∞Φ une application continue ou continue
par morceaux sur R. Si l’intégrale −∞ |Φ(t)|f (t)dt existe, alors la v.a. Φ(X ) a
une espérance donnée par :
Z +∞
E(Φ(X )) = Φ(t)f (t)dt
−∞
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 75 / 92
Variables aléatoires continues
Proposition
Soit X une v.a.c. de densité f et soit
R +∞Φ une application continue ou continue
par morceaux sur R. Si l’intégrale −∞ |Φ(t)|f (t)dt existe, alors la v.a. Φ(X ) a
une espérance donnée par :
Z +∞
E(Φ(X )) = Φ(t)f (t)dt
−∞
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 75 / 92
Variables aléatoires continues
Proposition
Soit X une v.a.c. de densité f et soit
R +∞Φ une application continue ou continue
par morceaux sur R. Si l’intégrale −∞ |Φ(t)|f (t)dt existe, alors la v.a. Φ(X ) a
une espérance donnée par :
Z +∞
E(Φ(X )) = Φ(t)f (t)dt
−∞
Pr. A. BELMAATI MODULE M147 A.U. : 2019-2020 75 / 92
Variables aléatoires continues
Quelques propriétés
Exemple
2e−2x
si x ≥0
f (x) =
0 sinon
Plan
1 Introduction
2 Espace probabilisé
3 Dénombrement
4 Conditionnement et Indépendance
9 LoisPr.continues
A. BELMAATI usuelles MODULE M147 A.U. : 2019-2020 77 / 92
Variables aléatoires continues
Plan
1 Introduction
2 Espace probabilisé
3 Dénombrement
4 Conditionnement et Indépendance
9 LoisPr.continues
A. BELMAATI usuelles MODULE M147 A.U. : 2019-2020 78 / 92
Variables aléatoires continues
Chapitre VI
Loi uniforme
Définition
Une v.a. X est uniforme sur un intervalle [a, b] si, et seulement si sa densité
est donnée par 1
b−a si x ∈ [a, b]
fX (x) =
0 sinon
On note X ∼ U[a, b].
Proposition
Soit X ∼ U[a, b], alors
0 si x <a
x−a
1 FX (x) = si x ∈ [a, b]
b−a
1 si x ≥b
a+b
E(X ) = 2 .
2
(b−a)2
3 V (X ) = 12
Loi uniforme
Définition
Une v.a. X est uniforme sur un intervalle [a, b] si, et seulement si sa densité
est donnée par 1
b−a si x ∈ [a, b]
fX (x) =
0 sinon
On note X ∼ U[a, b].
Proposition
Soit X ∼ U[a, b], alors
0 si x <a
x−a
1 FX (x) = si x ∈ [a, b]
b−a
1 si x ≥b
a+b
E(X ) = 2 .
2
(b−a)2
3 V (X ) = 12
Loi uniforme
Définition
Une v.a. X est uniforme sur un intervalle [a, b] si, et seulement si sa densité
est donnée par 1
b−a si x ∈ [a, b]
fX (x) =
0 sinon
On note X ∼ U[a, b].
Proposition
Soit X ∼ U[a, b], alors
0 si x <a
x−a
1 FX (x) = si x ∈ [a, b]
b−a
1 si x ≥b
a+b
E(X ) = 2 .
2
(b−a)2
3 V (X ) = 12
Loi uniforme
Définition
Une v.a. X est uniforme sur un intervalle [a, b] si, et seulement si sa densité
est donnée par 1
b−a si x ∈ [a, b]
fX (x) =
0 sinon
On note X ∼ U[a, b].
Proposition
Soit X ∼ U[a, b], alors
0 si x <a
x−a
1 FX (x) = si x ∈ [a, b]
b−a
1 si x ≥b
a+b
E(X ) = 2 .
2
(b−a)2
3 V (X ) = 12
Loi exponentielle
Définition
Une v.a. suit une loi exponentielle de paramètre λ si, et seulement si sa
densité est donnée par
λe−λx
si x ≥0
fX (x) =
0 sinon
On note X ∼ E(λ).
Proposition
Soit X ∼ E(λ)
1 − λe−λx
si x ≥0
1 FX (x) =
0 sinon
2 E(X ) = λ1 .
1
3 V (X ) = λ2
Loi exponentielle
Définition
Une v.a. suit une loi exponentielle de paramètre λ si, et seulement si sa
densité est donnée par
λe−λx
si x ≥0
fX (x) =
0 sinon
On note X ∼ E(λ).
Proposition
Soit X ∼ E(λ)
1 − λe−λx
si x ≥0
1 FX (x) =
0 sinon
2 E(X ) = λ1 .
1
3 V (X ) = λ2
Loi exponentielle
Définition
Une v.a. suit une loi exponentielle de paramètre λ si, et seulement si sa
densité est donnée par
λe−λx
si x ≥0
fX (x) =
0 sinon
On note X ∼ E(λ).
Proposition
Soit X ∼ E(λ)
1 − λe−λx
si x ≥0
1 FX (x) =
0 sinon
2 E(X ) = λ1 .
1
3 V (X ) = λ2
Loi exponentielle
Définition
Une v.a. suit une loi exponentielle de paramètre λ si, et seulement si sa
densité est donnée par
λe−λx
si x ≥0
fX (x) =
0 sinon
On note X ∼ E(λ).
Proposition
Soit X ∼ E(λ)
1 − λe−λx
si x ≥0
1 FX (x) =
0 sinon
2 E(X ) = λ1 .
1
3 V (X ) = λ2
Loi normale
Définition 1
On dit qu’une v.a. X suit une loi normale de paramètres m et σ si, et
seulement si sa densité de probabilité est définie par :
1 (x − m)2
fX (x) = √ exp(− ), ∀x ∈ R
σ 2π 2σ 2
Définition 2
Soit X une v.a.c. de moyenne m et d’écart-type σ. On appelle variable
aléatoire centrée réduite associée à X , la variable aléatoire U donnée par :
X −m
U=
σ
Loi normale
Définition 1
On dit qu’une v.a. X suit une loi normale de paramètres m et σ si, et
seulement si sa densité de probabilité est définie par :
1 (x − m)2
fX (x) = √ exp(− ), ∀x ∈ R
σ 2π 2σ 2
Définition 2
Soit X une v.a.c. de moyenne m et d’écart-type σ. On appelle variable
aléatoire centrée réduite associée à X , la variable aléatoire U donnée par :
X −m
U=
σ
Loi normale
Définition 1
On dit qu’une v.a. X suit une loi normale de paramètres m et σ si, et
seulement si sa densité de probabilité est définie par :
1 (x − m)2
fX (x) = √ exp(− ), ∀x ∈ R
σ 2π 2σ 2
Définition 2
Soit X une v.a.c. de moyenne m et d’écart-type σ. On appelle variable
aléatoire centrée réduite associée à X , la variable aléatoire U donnée par :
X −m
U=
σ
Loi normale
Proposition
1 Si X ∼ N (m, σ) alors U ∼ N (0, 1).
2 E(X ) = m et E(U) = 0.
3 V (X ) = σ 2 et V (U) = 1.
4 La fonction de répartition associée à X est
Z x
1 (t − m)2
FX (x) = √ exp(− )dt
−∞ σ 2π 2σ 2
Loi normale
Proposition
1 Si X ∼ N (m, σ) alors U ∼ N (0, 1).
2 E(X ) = m et E(U) = 0.
3 V (X ) = σ 2 et V (U) = 1.
4 La fonction de répartition associée à X est
Z x
1 (t − m)2
FX (x) = √ exp(− )dt
−∞ σ 2π 2σ 2
Loi normale
Proposition
1 Si X ∼ N (m, σ) alors U ∼ N (0, 1).
2 E(X ) = m et E(U) = 0.
3 V (X ) = σ 2 et V (U) = 1.
4 La fonction de répartition associée à X est
Z x
1 (t − m)2
FX (x) = √ exp(− )dt
−∞ σ 2π 2σ 2
Loi normale
Proposition
1 Si X ∼ N (m, σ) alors U ∼ N (0, 1).
2 E(X ) = m et E(U) = 0.
3 V (X ) = σ 2 et V (U) = 1.
4 La fonction de répartition associée à X est
Z x
1 (t − m)2
FX (x) = √ exp(− )dt
−∞ σ 2π 2σ 2
Loi normale
Proposition
1 Si X ∼ N (m, σ) alors U ∼ N (0, 1).
2 E(X ) = m et E(U) = 0.
3 V (X ) = σ 2 et V (U) = 1.
4 La fonction de répartition associée à X est
Z x
1 (t − m)2
FX (x) = √ exp(− )dt
−∞ σ 2π 2σ 2
Loi normale
Proposition
1 Si X ∼ N (m, σ) alors U ∼ N (0, 1).
2 E(X ) = m et E(U) = 0.
3 V (X ) = σ 2 et V (U) = 1.
4 La fonction de répartition associée à X est
Z x
1 (t − m)2
FX (x) = √ exp(− )dt
−∞ σ 2π 2σ 2
−30
−30
Pr. A. BELMAATI
Loi normale
−20
−20
−10
−10
x
x
0
0
10
10
20
20
30
30
Variables aléatoires continues
function(x) function(x)
list(t = )(x) list(y = )(x)
0.00 0.05
dnorm(t,
0.100, 2)(x)
0.15 0.20 0.00 dnorm(y,
0.04 0, 4)(x)0.08
c(1, 6, 1, 29, 6, 29, 1, 1)(x) c(1, 6, 1, 29, 6, 29, 1, 1)(x)
MODULE M147
−30
−30
−20
−20
−10
−10
x
x
0
0
10
10
20
20
30
30
A.U. : 2019-2020
84 / 92
Variables aléatoires continues
Loi normale
Remarques
1 On peut toujours convertir une v.a. normale en une v.a. normale centrée
réduite.
2 La fonction de répartition d’une v.a. normale n’a pas d’expression
mathématique simple. Nous utilisons des tables numériques donnant les
valeurs de cette fonction dans le cas d’une v.a. centrée réduite.
Loi normale
Remarques
1 On peut toujours convertir une v.a. normale en une v.a. normale centrée
réduite.
2 La fonction de répartition d’une v.a. normale n’a pas d’expression
mathématique simple. Nous utilisons des tables numériques donnant les
valeurs de cette fonction dans le cas d’une v.a. centrée réduite.
Loi normale
Loi normale
Exemple
Soit x une variable suivant la loi normale N (3, 2), donc de moyenne 3 et
d’écart-type 2. On veut calculer les probabilités suivantes : P(X < 4),
P(X < −1), P(X > 1) ou les nombres ai tels que P(X < a1 ) = 0.75,
P(X > a2 ) = 0.85
Exemple
Soit x une variable suivant la loi normale N (3, 2), donc de moyenne 3 et
d’écart-type 2. On veut calculer les probabilités suivantes : P(X < 4),
P(X < −1), P(X > 1) ou les nombres ai tels que P(X < a1 ) = 0.75,
P(X > a2 ) = 0.85
Proposition
Si X1 et X2 sont deux variables aléatoires indépendantes de lois respectives
N (m1 , σ1 ) et N (m2 , σ2 ).
Alors la variable
q aléatoire S = X1 + X2 suit la loi normale
N (m1 + m2 , σ12 + σ22 ).
T.C.L.
Soit (Xn ), n ≥ 1, une suite de n variables aléatoires indépendantes, de même
é, d’espérance m et de variance σ 2 . on considère la variable
loi de probabilitP
n
aléatoire Yn = i=1 Xi .
Pour n assez
p grand, la variable aléatoire Yn converge vers la loi
N (nm, (n)σ).
On dit que Ynpsuit approximativement la loi normale, et on note
Yn ' N (nm, (n)σ).
Proposition
Si X1 et X2 sont deux variables aléatoires indépendantes de lois respectives
N (m1 , σ1 ) et N (m2 , σ2 ).
Alors la variable
q aléatoire S = X1 + X2 suit la loi normale
N (m1 + m2 , σ12 + σ22 ).
T.C.L.
Soit (Xn ), n ≥ 1, une suite de n variables aléatoires indépendantes, de même
é, d’espérance m et de variance σ 2 . on considère la variable
loi de probabilitP
n
aléatoire Yn = i=1 Xi .
Pour n assez
p grand, la variable aléatoire Yn converge vers la loi
N (nm, (n)σ).
On dit que Ynpsuit approximativement la loi normale, et on note
Yn ' N (nm, (n)σ).
Il faut faire attention lorsqu’on approxime une loi d’une variable discrète avec
une loi normale qui est associée à une variable continue.
Pour surmenter cette difficulté, on utilise ce qu’on appelle la correction de
continuité qui consiste à associer à toute valeur entière k d’une variable
discrète X (binomiale ou de Poisson), l’intervalle [k − 0.5, k + 0.5] pour
approximer P(X = k) avec la loi normale. On pose donc :
N. B : L’approximation d’une loi binomiale par une loi normale peut se faire
aussi avec les conditions n ≥ 50, np ≥ 10 et nq ≥ 10
Exemple
N. B : L’approximation d’une loi binomiale par une loi normale peut se faire
aussi avec les conditions n ≥ 50, np ≥ 10 et nq ≥ 10
Exemple
Exemple
Exemple