Académique Documents
Professionnel Documents
Culture Documents
Laurence GRAMMONT
Laurence.Grammont@univ-st-etienne.fr
April 2, 2004
2
Contents
3
4 CONTENTS
1.1 Introduction
On a un phénomène aléatoire que l’on veut comprendre. Ce phénomène
aléatoire est a priori complexe et on ne peut calculer directement les proba-
bilités de ses éventualités.
ex : comprendre la dépense annuelle des ménages français pour les loisirs.
Par exemple, calculer la probabilité qu’ils dépensent 5 000 F par an. On
dispose
d’une population pour laquelle le modèle est destiné,
d’un individu et
d’un caractère étudié (représenté par une variable aléatoire X).
Que fait-on ?
1 - Pour avoir une première idée du phénomène représenté par une vari-
able aléatoire X, on peut faire plusieurs observations de X.
5
6 CHAPTER 1. LOIS DISCRÈTES USUELLES
valeurs de x fréquences
xi ni
On étudie cette variable statistique à l’aide des techniques des statistiques
descriptives (1ere année)
Il s’agit d’une situation fréquente dans la pratique dès que l’on cherche à
mettre en évidence un caractère particulier au sein d’une population :
tout individu de cette population peut être décrit selon une alternative : soit
il présente ce caractère, soit il ne le présente pas.
Souvent les résultats possibles sont des objets qualitatifs. Pour les quan-
tifier, il faut leur trouver un codage.
On définit ainsi une v.a. X dites de Bernoulli (savant suisse 1654-1705) par
0 1
1−p p
Définition
On réalise une expérience aléatoire qui a 2 résultats possibles : le succès S, de probabilité. p,
et l’Echec
E de probabilité 1 − p. La v.a
1 si succès est une v.a. de Bernoulli
X:
0 si échec
Mode
p>q M ode = 1
p<q M ode = 0
Médiane
p > q ⇒ q < 1/2 Me = 1
p < q ⇒ q > 1/2 Me = 0
Propriété
E(X) = p
V (X) = p(1 − p)
Remarque :
La v.a. de Bernoulli est une v.a. indicatrice : elle indique la réalisation
éventuelle de l’événementde probabilité p. Le shéma de Bernoulli est le plus
simple des modèles probabilistes.
Définition :
8 CHAPTER 1. LOIS DISCRÈTES USUELLES
Propriétés
E(X) = np
V (X) = np(1 − p)
Propriété
Exercice :
Une machine à embouteiller peut tomber en panne. La probabilité d’une
panne à chaque emploi est de 0,01. La machine doit être utilisée 100 fois.
1.3. SCHÉMA BINOMIAL 9
Solution :
0
1) X ∼ B(100, 0, 01) ; P (X = 0) = C100 (0, 01)0 0, 99100 = 0, 366
1
P (X = 1) = C100 0, 01 0, 9999 = 100 × 0, 01 × 0, 9999 = 0, 377
P (X ≥ 4) = 1 − (. . .) = 0, 061
2) Y = 500X
E(Y ) = 500 E(X) = 500 × 100 × 0, 01 = 500
V (Y ) = 5002 V (X) = 5002 0, 99 = 247500
Exercice :
Dans une pépinière 95% des scions (jeunes arbres greffés) sont supposés sans
virus. Par commodité les scions sont rangés par paquets de 2. Un paquet est
dit sain si les 2 scions le sont.
1) Proba d’avoir un paquet sain ?
2) X = nb de paquets sains sur un lot de 10
Quelle est la loi de X ?
3) Un lot de 10 est accepté par l’acheteur si 9 au moins des paquets sont
sains. Proba qu’un lot soit accepté ?
Solution :
1) p = 0, 95 × 0, 95 = 0, 9025
2) X ∼ B(10, p)
3) P (X ≥ 9) = P (X = 9) + P (X = 10)
= 0, 7361
Remarque
Le schéma binomial correspond au processus de tirage d’un échantillon aléatoire
avec remise :
N1 : nb d’individus ayant la propriété S
N2 : nb d’individus n’ayant pas la propriété S
N = N1 + N2 : nb total d’individus
On fait n tirages avec remise
Soit X = nb d’individus ayant la propriété S
10 CHAPTER 1. LOIS DISCRÈTES USUELLES
N1
X ∼ B(n, p) avec p =
N
Propriété
Calcul en chaine des probalités de la loi binomiale.
Si X ∼ B(n, p) alors
(n − k + 1)p
P (X = k) = P (X = k − 1)
k(1 − p)
P (X = k) n−k+1 p
Preuve : =
P (X = k − 1) k 1−p
N2 individus type 2 : N2
Loi de probabilité
1.4. SCHÉMA HYPERGÉOMÉTRIQUE 11
N −n 2 3 3 9
V (X) = npq =2× × × = = 0, 36
N −1 5 5 4 25
σ(X) = 0, 6
Exemple 2
On choisit au hasard 10 étudiants de DEUG 6= pour un entretien : 304
étudiants sont inscrits en 1ère année, 233 en 2ème .
X = nb d’étudiants de 1ère année parmi les 10.
Calculer la probabilité d’avoir 5 étudiants de 1ère année et déterminer E(X)
et σ(X).
304
X ∼ H(537, 10, )
537
5 5
C C
P (X = 5) = 30410 233 ' 0, 227
C537
Mais on peut utiliser l’approximation
n 10 304 304
Comme = < 0, 1, on peut approximer H 537, 10, par B 10,
N 537 537 537
5 5
5 304 233
P (X = 5) = C10 ' 0, 225.
537 537
304
E(X) = np = 10 × = 5, 661
537
N −n 304 233 527
V (X) = npq = 10 × × × ' 2, 415
N −1 537 537 536
σ(X) = 1, 554
√
avec l’approximation σ(X) = npq = 1, 567.
Définition
X suit la loi géométrique de paramètre p, G(p), si elle est égale au nombre d’épreuves de
Bernoulli indépendantes qu’il faut réaliser pour obtenir pour la 1ère fois l’événementde
probabilité p.
1.5. LOI GÉOMÉTRIQUE ET LOI DE PASCAL 13
Loi de probabilité
X(Ω) = N∗ , (l’ensemble des valeurs est ∞ dénombrable)
P (X = k) = q k−1 p k ∈ N∗
fonction de répartition
n n−1
X
k−1
X 1 − qn
P (X ≤ n) = q p=p qk = p = 1 − qn
k=1 K=0
1 − q
FX (n) = 1 − q n
caractéristiques
1
E(X) =
p
1−p
V (X) =
p2
Caractéristiques
k
E(X) =
p
k(1 − p)
V (X) =
p2
Remarque : la ressemblance avec la loi binomiale n’est qu’apparente. La
grande différence est que le nombre de répétitions de l’épreuve élémentaire
de Bernoulli n’est pas connu, et c’est lui qui représente l’aléatoire du problème
14 CHAPTER 1. LOIS DISCRÈTES USUELLES
• Application
Ces 2 lois interviennent particulièrement en contrôle de qualité mais aussi
dans la surveillance des événements dont une certaine fréquence de survenue
est interprétée en terme de signal d’alarme.
• Remarque de modélisation
La probabilité de l’événement qui nous intéresse est toujours p, elle est
constante au cours du temps. Cette propriété de stationnarité n’est pas
systématique dans les situations réelles que l’on doit modéliser.
Exemple
Supposons que 5 % des pièces en sortie d’une chaine de production soient
défectueuses. On souhaite connaitre la probabilité qu’un échantillon de 20
pièces issu de cette chaine ne contienne aucune pièce défectueuse.
On peut traiter cet exemple en utilisant soit la loi Binomiale,
∞
X 1 − 0, 95∞
P (Y ≥ 21) = 0, 95k−1 0, 05 = 0, 9520 × 0, 05
k=21
1 − 0, 95
0, 05
= 0, 9520 = 0, 3585
0, 05
définition
X est une v.a. de Poisson de paramètre m si et seulement si
X(Ω) = N et
mk −m
P (X = k) = e
k!
Notation : P(m)
On est dans la situation X(Ω) infini dénombrable.
On peut maintenant poser la loi de Poisson comme modèle d’une épreuve
aléatoire :
Théorème d’approximation
Soit X ∼ B(n, p)
quand n → +∞ etp → 0 tq np → m,
L
alors X → P(m)
Modélisation
Lorsqu’un événement a une faible probabilité p d’apparition lors d’une épreuve
de Bernoulli et si l’on répète un grand nombre de fois cette épreuve (n) le
nombre total de réalisations de l’événement considéré suit à peu près une loi
de Poisson de paramètre m = np.
n > 50
Dans la pratique :
p < 0, 1
16 CHAPTER 1. LOIS DISCRÈTES USUELLES
Rmq : plus p est petit, meilleure est l’approximation. Pour cette raison
la loi de Poisson a été appelée loi des phénomènes rares.
caractéristiques Si X ∼ P(m),
E(X) = m
alors
V (X) = m
X mk
Il faut savoir que = em
k≥0
k!
X mk −m X mk−1
E(X) = k e = e−m m =m
k≥0
k! k≥1
(k − 1)!
k
X m X mk X mk
V (X) = k2 e−m − m2 = k(k − 1) e−m + k e−m − m2
k≥0
k! K≥1
k! k≥1
k!
X mk−2 X mk−1
= m2 e−m + m e−m − m2
k≥2
(k − 2)! k≥1
(k − 1)!
=m
Propriété : somme de v.a de Poisson
Si X1 et X2 sont 2 variables de Poisson P(m1 ), P(m2 ) indépendantes alors
X1 + X2 ∼ P(m1 + m2 )
(ceci est vrai pour une somme finie quelconque de v.a de Poisson indépendantes)
Preuve :
1.6. LOI DE POISSON 17
" k
#
[
P (Y = k) = P (X1 + X2 = k) = P {X1 = i} ∩ {X2 = k − i}
i=0
k
X
= P (X1 = i).P (X2 = k − i)
i=0
K
X mi1 −m1 mk−i
= e 2
e−m2
i=0
i! (k − i)!
K
X e−(m1 +m2 )
= Cki mi1 mk−i
2
i=0
k!
(m1 + m2 )k −(m1 +m2 )
= e .
k!
Propriété
Si X ∼ P(m)
P (X = k) m
=
P (X = k − 1) k
Conséquence statistique
On peut envisager une loi de Poisson comme modèle représentatif de données statistiques
discrètes pour lesquelles la variable ne prend que des valeurs entières, posi-
tives ou nulles et pour lesquelles
- la moyenne ' la variance et
fk 1
- est proportionnel à fk étant les fréquences.
fk−1 k
Exemple 1
Lors d’un sondage portant sur un grand nombre de personnes, on sait que 2%
des personnes interrogées acceptent de ne pas rester anonymes. Sachant que
l’un des sondeurs a interrogé 250 personnes (en les choisissant de manière
indépendante), calculer la probabilité
a) que ces 250 personnes souhaitent rester anonymes
b) 3 personnes acceptent de ne pas rester anonymes
c) plus de 10 personnes acceptent de ne pas rester anonymes
3
P (X = 3) = e−5 53! = 0, 14,
P (X ≥ 10) = 1 − P (X < 10) = 1 − P (X ≤ 9).
Exemple 2
Dans un hôpital parisien, il arrive en moyenne 1,25 personnes à la minute
aux urgences entre 9 h et 12 h.
X : nb de personnes observées à la minute à l’entrée de ce service.
On admet X ∼ P(m) avec m = 1, 25
Déterminer les probabilités suivantes
a) En 1mn il arrive 2 personnes b) 4 personnes au plus c) 3 personnes au
moins.
a) P (X = 2) = 0, 2238
b) P (X ≤ 4) = 0, 9909
c) P (X ≥ 3) = 1 − P (X ≤ 2)
= 1 − 0, 8685
= 0, 1315.
Chapter 2
2.1 Généralités
Exemples :
Expérience aléatoire : choisir un individu dans une population P,
X : taille d’un individu, Y : poids d’un individu.
19
20 CHAPTER 2. COUPLE DE VARIABLES ALÉATOIRES DISCRÈTES
valeurs de Y y1 y2 ... yp
valeurs de X
x1 p11 p12 + + p1p
x2 p21 p22 p2p
..
.
xn pn1 pn2 pnp
Question 1 :
Si on a la loi de probabilité du couple (X, Y ), peut-on en déduire la loi de
probabilité de X et la loi de probabilité de Y ?
Définition
Si on donne la loi du couple (X, Y ), la loi de probabilité de X et celle de Y sont appelées
lois de probabilité marginales.
Propriété
p
X
pour X : P (X = xi ) = pij (somme d’une ligne du tableau)
j=1
n
X
pour Y : P (Y = yj ) = pij (somme d’une colonne)
i=1
preuve : TVA
2.2. FONCTION DE RÉPARTITION D’UN COUPLEFONCTIONS DE RÉPARTITION MARGIN
Notations
p
X
pi• = P (X = xi ) = pij
j=1
n
X
p•j = P (Y = yj ) = pij
i=1
Propriété
p
n X
X
pij = 1
i=1 j=1
Définition
La fonction de répartition du couple (X, Y ) est définie par
FX,Y (x, y) = P [(X ≤ x) ∩ (Y ≤ y)]
Propriété
X X
F(X,Y ) (x, y) = pij
i tq j tq
xi ≤x yj ≤y
réponse : oui
Définition
On appelle variable aléatoire conditionnelle X sachant Y = yj , notée X|Y = yj
la v.a. discrète de valeurs {xi , i = 1, . . . , n}
et dont les probabilités sont
pij
P (X = xi |Y = yj ) =
p•j
Propriétés
n
X
P (X = xi |Y = yj ) = 1 ∀yj
i=1
p
X
P (Y = yj |X = xi ) = 1 ∀xi
j=1
Définition
On appelle espérance conditionnelle de X sachant Y = yj la quantité
n
X
E(X|Y = yj ) = xi P (X = xi |Y = yj ).
i=1
∀i ∈ {1, . . . , n}
(i) P (X = xi |Y = yi ) = P (X = xi ).
∀j ∈ {1, . . . , p}
(ii) ∀i, ∀j P (Y = yj |X = xi ) = P (Y = yj ).
(iii) ∀i, ∀j P (X = xi ∩ Y = yj ) = P (X = xi ) × P (Y = yj ).
Propriétés
(1) Si X et Y sont indépendantes en probabilité alors ρ(X, Y ) = 0
(2) Si ρ(X, Y ) 6= 0 alors X et Y ne sont pas indépendantes en probabilité
(3) Si ρ(X, Y ) = 0 alors X et Y ne sont pas forcément indépendantes en probabilité.
Exemple
Une urne contient b boules blanches (B) et r boules rouges (R).
On tire une boule au hasard
B→0
Soit X :
R→1
Si la boule tirée est B on la remet accompagnée de n autres boules blanches.
24 CHAPTER 2. COUPLE DE VARIABLES ALÉATOIRES DISCRÈTES
solution
X prend les valeurs 0 et 1 et
Y prend les valeurs 0 et 1. On a
P (X = 0 ; Y = 0) = P (X = 0 ∩ Y = 0)
= P (Y = 0|X = 0) × P (X = 0)
↑
la v.a. Y est conditionnée à la valeur de X
b
P (X = 0) = P (B) =
b+r
P (Y = 0|X = 0) = proba de tirer une blanche sachant qu’on a tiré une B au 1er tirage
= proba de tirer une blanche dans une urne qui comprend r rouges et
b + n blanches
b+n
= .
b+r+n
b b+n
⇒ P (X = 0, Y = 0) =
b+r b+r+n
P (X = 1 ∩ Y = 1) = P (Y = 1|X = 1) × P (X = 1)
r+n r .
=
b+r+n b+r
X\Y 0 1 Loi de X
b(b + n) rb b
0
(b + r)(b + r + n) (b + r)(b + r + n) b+r
br (r + n)r r
1
(b + r)(b + r + n) (b + r)(b + r + n) b+r
b r
Loi de Y 1
b+r b+r
Si X et Y étaient indépendantes on aurait par exemple
2.5. EQUATION D’ANALYSE DE LA VARIANCE 25
b b b(b + n) b b+n
× = ⇔ =
b+n b+r b + r(b + n + r) b+r b+n+r
⇔ b(b + n + r) = (b + n)(b + r)
⇔ b2 + bn + br = b2 + nb + nr + br
⇔ nr = 0 (impossible)
Définition
On appelle variance conditionnelle de X|Y = yj la variance de la variable aléatoire
conditionnelle X sachant Y = yj soit :
Xn
V (X|Y = yj ) = x2i P (X = xi |Y = yj ) − E 2 (X|Y = yj )
i=1
Propriété
Equation d’analyse de la variance.
V (X) = Vinter (X) + Vintra (X)
où
p
X
Vinter (X) = E(X|Y = yj )2 P (Y = yj ) − E(X)2
j=1
p
X
Vintra (X) = V (X|Y = yj )P (Y = yj )
j=1
Preuve :
26 CHAPTER 2. COUPLE DE VARIABLES ALÉATOIRES DISCRÈTES
n p
X X
V (X) = x2i P (X = xi ) − E 2 (X) or P (X = xi ) = P (X = xi ∩ Y = yj )
i=1 j=1
p
n
!
X X
= x2i P (X = xi |Y = yj )P (Y = yj ) − E 2 (X)
i=1 j=1
p n
!
X X
= x2i P (X = xi |Y = yj ) P (Y = yj ) − E 2 (X)
j=1 i=1
p
X
V (X|Y = yj ) + E 2 (X|Y = yj ) P (Y = yj ) − E 2 (X)
=
j=1
p p
X X
= V (X|Y = yj )P (Y = yj ) + E 2 (X|Y = yj )P (Y = yj ) − E 2 (X)
j=1 j=1
| {z } | {z }
Vintra (X) Vinter (X)
Propriété
X
E(Z) = pij ϕ(xi , yi )
Xi,j
V (Z) = pij ϕ2 (xi , yi ) − E(Z)2
i,j
n
X
E(XY ) = xi E(Y |X = xi )P (X = xi )
i=1
Xn
= yj E(X|Y = yj )P (Y = yj )
j=1
Preuve :
Xn X X
xi E(Y |X = xi )P (X = xi ) = xi yj P (Y = yj |X = xi )P (X = xi )
i=1 Xi j
= xi yj P (Y = yj ∩ X = xi )
i,j
X
= xi yj pij .
i,j
28 CHAPTER 2. COUPLE DE VARIABLES ALÉATOIRES DISCRÈTES
Chapter 3
Définition
La fonction de répartition du couple (X, Y ) (ou fonction de répartition conjointe)
est une fonction de R2 dans [0, 1] définie par FX,Y (x, y) = P (X ≤ x ∩ Y ≤ y)
Propriétés
29
30CHAPTER 3. COUPLE DE VARIABLES ALÉATOIRESCONTINUES
Propriétés
Si FX est la fonction de répartition de X et
fonction densité du couple (X, Y ) est définie , si elle existe, par pour presque tout x ety,
d2 FX,Y (x, y)
fX,Y (x, y) = .
dx dy
On peut également donner la fonction de répartition conjointe en fonction
de la fonction densité:
Z x Z y
FX,Y (x, y) = fX,Y (u, v)du dv ∀(x, y) ∈ R2 .
−∞ −∞
On a alors
Z bZ d
P (a < X ≤ b ∩ c ≤ Y ≤ d) = fX,Y (x, y)dx dy
a c
Propriété
Z Z
P ((X, Y ) ∈ D) = fX,Y (x, y)dx dy
D
Exemple 2 Soit (X, Y ) un couple dont la loi conjointe est une loi uniforme
sur [0, 1] ×[0, 1]
1 (x, y) ∈ [0, 1] × [0, 1]
f (x, y) =
0 ailleurs
Soit D = {(x, y) ∈ R2 : x > 0 y > 0 et x + y < 1}
Calculer P ((X, Y ) ∈ D).
32CHAPTER 3. COUPLE DE VARIABLES ALÉATOIRESCONTINUES
Z Z
P ((X, Y ) ∈ D) = 1dx dy
DZ
Z 1 1−x
= dy dx
Z0 1 0 1
x2
1
= 1 − x dx = x − = .
0 2 0 2
Propriété
Z +∞ Z +∞
fX,Y (x, y)dx dy = 1
−∞ −∞
Exemple :
kx2 + y 2 − xy x ∈ [−1, 1] et y ∈ [−1, 0]
f (x, y) =
0 sinon
a) déterminer k pour que f soit effectivement une fonction densité d’un cou-
ple (X, Y ).
b) calculer P [{0 < X < 1} ∩ {−1/2 < Y < 0}]
c) fonctions densité marginales.
d) fonction de répartition conjointe.
3.2. FONCTION DENSITÉ CONJOINTEFONCTIONS DENSITÉ MARGINALES33
Z Z
sol : a) f (x, y)dx dy = 1
ZR2Z
⇔ kx2 + y 2 − xy dy dx = 1
Z 1 DZ
0
2 2
⇔ kx + y − xy dy dx = 1
Z−11 −1
1 x
⇔ (kx2 + + ) dx = 1
−1 3 2
3 1 2 1
x 1 1 x 2 2
⇔k + [x]−1 + =1 ⇔ k+ =1
3 −1 3 4 −1 3 3
1
⇔k= .
Z 1Z 0 2
1 2
x2
Z
x 1 x
b) + y 2 − xy dy dx = + + dx
0 −1/2 2 0 4 24 8
1 1
1 x3 1 1 x2
= + +
4 3 0 24 8 2 0
1 1 1 3 1 1 1 3
= + + = + = + = .
12 24 16 24 16 8 16 16
Z +∞
c)On a fX (x) = f (x, y)dy.
−∞
Si x ∈
/ [−1, 1], fX (x) = Z
0.
0
x2 x2 1 x
Si x ∈ [−1, 1], fX (x) = + y 2 − xy dy = + + .
−1 2 2 3 2
Z +∞
On a fY (y) = f (x, y)dx.
−∞
Si y ∈
/ [−1, 0], fy (y) = 0.
Z 1 1 2 1
1 2 2 1 x3 2 1 x
y ∈ [−1, 0], fy (y) = x + y − xy dx = + y [x]−1 − y
−1 2 2 3 −1 2 −1
1
= + 2y 2 .
Z x Z y 3
d) FX,Y (x, y) = f (u, v)dv du.
−∞ −∞
P (Y ≤ y ∩ x − ≤ X ≤ x + η)
FX=x (y) = lim P (Y ≤ y|x − ≤ X ≤ x + η) = lim
→0 →0 FX (x + η) − FX (x − )
η→0 η→0
P (Y ≤ y ∩ X ∈ [x − , x + η])
= lim
→0 FX (x + η) − FX (x − )
η→0
FX,Y (x + η, y) − FX,Y (x − , y)
= lim
→0 FX (x + η) − FX (x − )
η→0
dF dFX,Y
(x, y) (x, y)
= dx = dx .
fX (x) fX (x)
Définition
La fonction de répartition de la variable conditionnelle Y |X = x, si elle existe, est égale à
dFX,Y
(x, y)
FX=x (y) = dxfX (x) .
d f (x, y)
On a fX=x (y) = FX=x (y) = .
dy fX (x)
Définition
La fonction densité de la variable conditionnelle Y |X = x est
f (x, y)
fX=x (y) =
fX (x)
Y |X = x est une variable aléatoire définie par sa fonction densité ; on peut
calculer E(Y |X = x) , V (Y |X = x) et des probabilités associées à cette
variable :
Z b Z +∞
P (a < Y < b|X = x) = fX=x (y) dy, E(Y |X = x) = y fX=x (y) dy
a −∞
36CHAPTER 3. COUPLE DE VARIABLES ALÉATOIRESCONTINUES
f (x, 0) x2 /2 3x2
sol : e) fY =0 (x) = = = six ∈ [−1, 1]. Ainsi
fY (0) 1/3 2
3x2
fY =0 (x) = x ∈ [−1, 1]
0 2 sinon
Z 1 2 1
3x 3 x3 1
f) P (0 < X < 1|Y = 0) = dx = = .
0 2 2 3 2
Z +∞ Z 1 30 1
3x 3 x4
g) E(X|Y = 0) = x fY =0 (x)dx = dx = = 0.
−∞ −1 2 2 4 −1
Preuve : Z +∞ +∞
Z
f (x, y)
E(X|Y = y) = x fY =y (x)dx = x dx.
f (y)
Z +∞ −∞ Z +∞ Z−∞+∞ Y
E(X|Y = y)fY (y)dy = x f (x, y)dy dx
−∞ −∞ −∞
Z +∞ Z +∞
= x( f (x, y)dy)dx .
−∞ −∞
| {z }
fX (x)
Définition-propriété
2 v.a. X, Y continues sont indépendantes en probabilité si et seulement si
l’une des
propriétés suivantes équivalentes sont vérifiées (si elles ont un sens)
(1) fX,Y (x, y) = fX (x) × fY (y) ∀x, y
(2) FX,Y (x, y) = FX (x) × FY (y) ∀x, y
(3) fX=x (y) = fY (y) partout où cela a un sens
(4) fY =y (x) = fX (x) partout où cela a un sens.
preuve :
d2
(2) ⇒ (1)
dxdy
Z Zx y Z x Z y
(1) ⇒ (2) f (u, v)du dv = fX (u)du fY (v)dv
−∞ −∞ −∞ −∞
f (x, y)
(1) ⇒ (3) fX=x (y) = = fY (y) ∀x, y tq fX (x) 6= 0
fX (x)
(3) ⇒ (1) on a f (x, y) = fX (x) × fY (y) ∀x, y tq fX (x) 6= 0
(4) ⇔ (1) pareil.
Théorème
Si X et Y sont indépendants alors
(1) cov(X, Y ) = 0
(2) ρ(X, Y ) = 0
(3) E(XY ) = E(X)E(Y )
(4) V (X + Y ) = V (X) + V (Y ).
La loi Normale est une des distributions que l’on rencontre le plus souvent
en pratique.
C’est la loi qui s’applique en général à une variable qui est la résultante d’un
grand nombre de causes indépendantes dont les effets s’additionnent et dont
aucune n’est prépondérante.
Exemple :
Diamètres et poids de pièces fabriquées en série.
Fluctuations accidentelles d’une grandeur économique autour de sa tendance.
39
40CHAPTER 4. LOI NORMALE OU LOI DE LAPLACE - GAUSS - GÉNÉRALITÉS
• représentation graphique
la courbe en cloche. (cf T.D)
→ La valeur de µ détermine la position de la courbe, x = µ est axe de
symétrie pour la courbe (f (µ + x) = f (µ − x) ∀x)
→ σ détermine la dispersion de la courbe.
• Fonction de répartition
2
1 t−µ
Z x Z x −
1
F (x) = f (t)dt = √ e 2 σ dt
−∞ −∞ σ 2π
• caractéristiques
E(X) = µ
V (X) = σ 2
preuve :(T.D)
Propriété 1
X −µ
X suit la loi N (µ, σ) si et seulement si suit la loi N (0, 1)
σ
preuve : T.D.
x2
1 −
La loi N (0, 1) s’appelle loi Normale centrée réduite. f (x) = √ e 2 .
2π
Elle est importante car la propriété signifie que tout calcul de probabilité
associé à la loi N (µ, σ) se ramène à un calcul de probabilité associé à la loi
N (0, 1) en faisant un changement de variable.
Propriété 2
X1 ∼ N (µ1 , σ1 ), X2 ∼ N (µp
2 , σ2 ), X1 , X2 indépendantes,
2 2
alors X1 + X2 ∼ N (µ1 + µ2 , σ1 + σ2 )
preuve : (T.D.)
généralisation
4.2. CALCULS DE PROBABILITÉ 41
La table 1
Propriété 1
42CHAPTER 4. LOI NORMALE OU LOI DE LAPLACE - GAUSS - GÉNÉRALITÉS
U ∼ N (0, 1) u > 0
P (U < −u) = F (−u) = 1 − F (u)
P (U < −1) = 1 − P (U < 1) = 0, 1587
Propriété 2 u>0
P (U > u) = 1 − P (U < u) = 1 − F (u)
Propriété 3
P (u1 ≤ U ≤ u2 ) = F (u2 ) − F (u1 )
Propriété 4
F (u) ≥ 1/2 ⇔ u ≥ 0
F (u) ≤ 1/2 ⇔ u ≤ 0
Remarque 1 : pour les probabilités d’intervalles, il est indifférent de con-
sidérer des intervalles fermés, ouverts ou mixtes puisque la probabilité d’un
point est nulle.
Propriété 5 U ∼ N (0, 1)
P (|U| < u) = 2F (u) − 1
Propriété 6 U ∼ N (0, 1)
P (|U| > u) = 2[1 − F (u)]
4.2. CALCULS DE PROBABILITÉ 43
La table 2
Elle donne les fractiles de la loi N (0, 1).
Définition : on appelle fractile d’ordre α (0 ≤ α ≤ 1),
pour une fonction de répartition F , la valeur uα tq F (uα ) = α i.e P (U ≤ uα ) = α.
Exemple
P (U < t) = 0, 01 ⇒ u0,01 = −2, 3263
P (U < t) = 0, 96 ⇒ u0,96 = 1, 7507
P (U < t) = 0, 975 ⇒ u0,975 = 1, 96
(fractile très important en statis-
P (U < t) = 0, 95 ⇒ u0,95 = 1, 6449
tique inférentielle)
• X ∼ N (3, 2) Calculer
P (X < 6, 24)
X −3 6, 24 − 3
P (X < 6, 24) = P < = P (U < 1, 62) = F (1, 62) =
2 2
0, 9474
44CHAPTER 4. LOI NORMALE OU LOI DE LAPLACE - GAUSS - GÉNÉRALITÉS
P (0 < X < 2)
• X ∼ N (1, 3) P (0 < X < 2|X > −2) =
P (X > −2)
e X−1
1 étape : P (0 < X < 2) = P [1/3 < 3 < 1/3] = P (|U| < 1/3)
P (X > −2) = P X−1 3
> −1 = P (U > −1)
2e étape : P (|U| < 1/3) = 2F (1/3) − 1
P (U > −1) = P (U < 1)
e
3 étape : Proba ' 0, 31
Condition d’application de la
loi normale
47
48CHAPTER 5. CONDITION D’APPLICATION DE LA LOI NORMALE
Théorème
P
E(Xn ) −→ µ alors Xn −→ µ
Si n→+∞
V (Xn ) −→ 0
n→+∞
Inégalité de Bienaymé-Tchebychev
Soit la v.a Z telle que E(Z) = µ, σ(Z) = σ,
1
alors P (|Z − µ| > kσ) ≤ 2 ∀k ∈ R+∗ .
k
preuve de l’inégalité de B.J admise
1 σn2 1
0 < P (|Xn − µ| > kn σn ) ≤ 2 = = V (Xn ) .
| {z } kn | {z }
↓ n → +∞ ↓ n → +∞
0 0
5.2. LOI FAIBLE DES GRANDS NOMBRES 49
P
Fn −→ p
50CHAPTER 5. CONDITION D’APPLICATION DE LA LOI NORMALE
n > 30
En pratique : npq > 18 ou
p ∈ [0, 1 ; 0, 9]
Comment procède t-on pour approcher une loi discrète par une loi continue ?
En effet pour les lois discrètes, les probabilités sont concentrées en des points
et pour les lois continues tout point a une probabilité nulle !
Exemple : soit X ∼ B(100, 0, 4) alors X ≈ N (40, 4, 9)
Comment approche-t-on P (X = 50) ?
On fait ce qu’on appelle une correction de continuité
5.6 Exercices
Exemple 1
Les gains mensuels en francs G d’un représentant sont supposés suivre une
loi Normale. Il a pu constater, sur un grand nombre de mois, la répartition
suivante des gains en F :
P (gain > 18000) = 4, 46%
P (15800 < gain ≤ 18000) = 93, 26%
P (gain ≤ 15800) = 2, 28%
1 - Calculer la moyenne et l’écart type de G qui suit N (µ, σ).
2 - Si on suppose que les gains du représentant sont indépendants d’un mois
à l’autre, quelle est la loi de proba de X = gain durant 3 mois ?
3 - P (X ≥ 53000) ?
Exercice 2
Un vigneron commercialise 2 types de vin :
5.6. EXERCICES 53
les vins ”du terroir” et les vins ”grand cru” et vendus à 30 F la bouteille. Il
subsiste des erreurs d’étiquetage et on admet qu’un acheteur de vin ”grand
cru” aura une probabilité p = 0, 12 d’avoir en fait une bouteille de vin ”du
terroir”.
1) Un restaurateur achète 200 bouteilles ”grand cru”
X : nb de bouteille de vin du terroir parmi ces bouteilles
Quelle est la loi de probabilité de X ? Calculer E(X) V (X)
Par quelle loi peut-on approcher X ?
2) Calculer P (X > 20) et P (X < 30|X > 20)
3) Au fur et à mesure de la consommation des 200 bouteilles, le restaurateur
a pu détecter chacune des bouteilles ”du terroir”. Il décide alors de ne payer
que les bouteilles ”grand cru” et de refuser de payer les bouteilles du terroir.
Calculer, avec cette hypothèse, la probabilité d’un bénéfice néanmoins positif
pour le vigneron ”sachant que” chaque bouteille de grand cru lui revient à 18
F et terroir 8 F.