Vous êtes sur la page 1sur 13

Chapitre 2 Probabilités et statistiques

Variables aléatoires discrètes

1 Variables aléatoires discrètes


On se donne un espace de probabilité (Ω, A, P) et un espace (E, E)

Definition 1.1. On appelle variable aléatoire (v.a) toute application X mesurable


X: Ω → E
( X mesurable c’est à dire X −1 (x) = {w ∈ Ω/X(w) = x} ∈ A.)
w 7→ x
On note X −1 (x) = ”X = x” = (X = x)

Les ensembles en bijection avec une partie de N sont alors appelés  ensembles au plus
dénombrables  ou encore  ensembles finis ou dénombrables .
Si E est un ensemble au plus dénombrable alors X est dite variable aléatoire discrète.
L’application PX : E → [0, 1]
s’appelle la densité de probabilité de X (ou
x 7→ P(X = x) = PX {x}
la loi de probabilité de X ou la distribuion de X).
Une variable aléatoire est complétement déterminée par sa densité.
X
Proposition 1.1. Soit X une variable aléatoire sur (Ω, A, P) alors P(X = x) = 1.
x∈X(Ω)

Example 1.1. (Lois discrètes usuelles)


1. loi uniforme sur {1, · · · , n}
C’est la probabilité de se réaliser identiquement (équibrobabilité)
exemple : Lancer un dé equilibré à 6 faces.
P(X = x) = 1/6 , ∀x ∈ {1, · · · , 6}

2. Loi de Bernoulli B(p) = B(1, p) : Soit p ∈]0, 1[ et X une v.a de loi de Bernoulli de
paramètre p. Cette loi modélise une expérience qui possède deux résultats possibles : soit le
succés soit l’echec. La variable aléatoire X prend deux valeurs 0 ou 1. Donc X(Ω) = {0, 1}
et la densité est donnée par :

p si x = 1
P(X = x) =
1 − p si x = 0

(c-à-d P(X = 1) = 1 − P(X = 0) = p)


exemple : Lancer une pièce de monnaie qu’on code ”1” pour pile et ”0” pour face.

1
3. Loi de Binomiale de paramètre n et p : B(n, p)
n ∈ N∗ : est le nombre d’expériences et p ∈]0, 1[: est la probabilité du succés pour une
expérience.
Cette loi modèlise le nombre de succés dans une répétition de n expériences identiques
indépendantes les unes des autres où la probabilité de succés de chaque expérience est p.

exemple : nombre de fois ou pile est apparu lors de n lancers d’une pièce de monnaie de
paramètre p.
Ω = {pile, f ace}, P{pile} = p et P{f ace} = 1 − p
On a n lancés identiques de la pièce de monnaie.
X est la v.a qui modèlise le nombre de ”pile”
La densité est donnée par :

P(X = k) = Cnk pk (1 − p)n−k ; k ∈ {1, · · · , n}

Remarque : A l’expérience i, Xi suit la loi de bernoulli. P{pile} = P(Xi = 1) = p et


P{f ace} = P(Xi = 0) = 1 − p
Xn
Soit Sn = Xi alors Sn suit une loi Binomiale B(n, p). P(Sn = k) = Cnk pk (1 − p)n−k
i=1

4. Loi Géométrique G(p) Soit p ∈]0, 1[ et X une v.a de loi Géométrique de paramètre p.
La densité est donnée par :

P(X = k) = p(1 − p)k−1 ; ∀k ∈ X(Ω) = N∗

On fait une suite d’essais de Bernoulli, où p represente la probabilité de succés et k désigne
le nombre d’essai réalisés pour arriver au premier succés. ( Donc on repète l’expérience
de Bernoulli jusqu’au premier succés.)
exemple : On lance une pièce de monnaie jusqu’à l’apparition de ”pile”. k désigne le
nombre d’essai.
5. Loi Hypergéométrique
On tire ( simultanement ) n boules dans une urne contenant p boules gagnantes et q
boules perdantes. X est la v.a désignant le nombre de boules gagnantes extraites. Donc
X(Ω) = {1, · · · , n} et la densié est donnée par :

Cpk Cqn−k
P(X = k) = n
Cp+q

Cette loi s’appelle loi Hypergéomérique de paramètres (n, p, q) avec p ∈]0, 1[ et n ≤ p+q.
6. Loi de Poisson P(λ) Soient λ ∈ R∗+ et X une v.a de loi de Poisson de paramètre λ. La
densié est donnée par :

λk e−λ
P(X = k) = ∀k ∈ X(Ω) = N
k!
C’est la limite d’une loi Binomiale lorsque n est grand et p petit (p = nλ ).

2
2 Lois conjointes et lois marginales
Definition 2.1. Une variable aléatoire vectorielle est une application
X : Ω −→ E = E1 × E2 × · · · × En
w 7−→ X = (X1 (w), X2 (w), · · · , Xn (w))
c-à-d X = (X1 , X2 , · · · , Xn ) ; n ≥ 2
Definition 2.2. On appelle loi conjointe (ou loi jointe) la loi du vecteur X et on la note :
PX (x) = P(X1 , X2 , ··· , Xn ) (x1 , x2 , · · · , xn ) = P(X = x) = P (X1 = x1 , X2 = x2 , · · · , Xn = xn ) .
 
P : E1 × E2 × · · · × En −→ [0, 1]
x = (x1 , x2 , · · · , xn ) 7−→ PX (x) = P(X = x) = P (X1 = x1 , X2 = x2 , · · · , Xn = xn )
Definition 2.3. On appelle loi marginale de la variable aléatoire Xi la loi de la ième compo-
sante.
X
PXi (x) = P(Xi = x) = P (X1 = x1 , · · · , Xi = x, · · · , Xn = xn ) .
x1 ∈E1 , ··· , xi−1 ∈Ei−1 , xi+1 ∈Ei+1 , ··· , xn ∈En

En pariculier, prenons un vecteur Z = (X, Y )


– PZ = P(X,Y ) est la loi conjointe de Z
– PX et PY sont les lois marginales de variable aléatoire vectorielle Z.
X
PX (x) = P(X = x) = P (X = x, Y = y)
y∈Y (Ω)
X
PY (y) = P(Y = y) = P (X = x, Y = y)
x∈X(Ω)

Example 2.1. On considère une urne contenant trois boules numérotés 1,2,3. On tire succes-
sivement deux boules sans remettre la boule tirée. Soit
X : est la v.a numéro de la première boule tirée
Y : est la v.a numéro de la deuxième boule tirée
Déterminer la densité conjointe (densité du vecteur (X, Y )) et les densités marginales associés
à X et Y.
Solution :
1. loi conjointe
X(Ω) = {1, 2, 3} et Y (Ω) = {1, 2, 3}
P(X = 1, Y = 1) = P(X = 2, Y = 2) = P(X = 3, Y = 3) = 0 puisqu’on ne peut pas avoir
le même numéro pour les deux boules.
P(X = 1, Y = 2) = P(Y = 2/X = 1)P(X = 1) = 1/2 × 1/3 = 1/6. De même, ∀i 6= j
P(X = i, Y = j) = P(Y = j/X = i)P(X = i) = 1/2 × 1/3 = 1/6

Y \X 1 2 3 loi de Y
1 0 1/6 1/6 1/3
2 1/6 0 1/6 1/3
3 1/6 1/6 0 1/3
loi de X 1/3 1/3 1/3 1

3
2. Loi marginale de X
X
P(X = 1) = P (X = 1, Y = y)
y∈{1,2,3}

= P(X = 1, Y = 1) + P(X = 1, Y = 2) + P(X = 1, Y = 3) = 1/3

On fait la somme des valeurs de la première colonne dans le tableau de la loi conjointe.
De même,
X
P(X = 2) = P (X = 2, Y = y) = 1/3
y∈{1,2,3}
On fait la somme des valeurs de la deuxième colonne dans le tableau de la loi conjointe.
X
P(X = 3) = P (X = 3, Y = y) = 1/3
y∈{1,2,3}
On fait la somme des valeurs de la troisième colonne dans le tableau de la loi conjointe.
3. Loi marginale de Y
X
P(Y = 1) = P (X = x, Y = 1)
X∈{1,2,3}

= P(X = 1, Y = 1) + P(X = 2, Y = 1) + P(X = 3, Y = 1) = 1/3

On fait la somme des valeurs de la première ligne dans le tableau de la loi conjointe.
De même,
X
P(Y = 2) = P (X = x, Y = 2) = 1/3
x∈{1,2,3}
On fait la somme des valeurs de la deuxième ligne dans le tableau de la loi conjointe.
X
P(Y = 3) = P (X = x, Y = 3) = 1/3
x∈{1,2,3}
On fait la somme des valeurs de la troisième ligne dans le tableau de la loi conjointe.
Remarque 2.1. – A partir de la loi du couple (X, Y ), on peut calculer les lois marginales
de X et de Y.
– On ne peut pas déterminer la loi du couple (X, Y ) en connaissant seulement les lois
marginales de X et de Y.

3 Moments de la variable aléatoire


3.1 Espérance (Moyenne)
Definition
X 3.1. Soit X une variable aléatoire discrète intégrable ( c’est à dire vérifiant
|x| P(X = x) < +∞) alors son espérance est définie par
x∈X(Ω)

X
E(X) = x P(X = x)
x∈X(Ω)

Propriétés : Soient X et Y deux variables aléatoires inégrables


1. E(αX + βY ) = αE(X) + βE(Y ) ; ∀ α, β ∈ R

4
2. Si X est positive alors E(X) ≥ 0
3. Si X ≥ Y alors E(X) ≥ E(Y )
4. |E(X)| ≤ E|X| et E|X + Y | ≤ E|X| + E|Y |
5. Si X = a alors E(X) = a; ∀a ∈ R.

Théorème 3.1. (Théorème de transfert)


Soit
XX une variable aléatoire discrète intégrable et ϕ une foncion vérifiant
|ϕ(x)| P(X = x) < +∞ alors on a
x∈X(Ω)

X
E(ϕ(X)) = ϕ(x) P(X = x)
x∈X(Ω)

Ce théorème nous permet de calculer l’espérance de ϕ(X) sachant seulement la densité de X.


X
En particulier, si ϕ(X) = X 2 alors E(X 2 ) = x2 P(X = x)
x∈X(Ω)

3.2 Variance et covariance


Definition 3.2. (Variance)
Soit X une variable aléatoire discrète de carré intégrable (i.e E(X 2 ) < +∞). On définit la
variance de X par
V (X) = V ar(X) = E [X − E(X)]2
 

Ou encore
V (X) = E(X 2 ) − (E(X))2

En effet :

V ar(X) = E [X − E(X)]2
E X 2 − 2X E(X) + (E(X))2
 
=
= E(X 2 ) − 2E(X)E(X) + (E(X))2
= E(X 2 ) − (E(X))2
p
Definition 3.3. On appelle écart type σ(X) = V (X)

Propriétés :
1. La variance est toujours positive.
2. ∀a, b ∈ R V (aX + b) = a2 V (X)

Definition 3.4. (Covariance) Soient X et Y deux variables aléaoires de carré intégrable


(c-à-d vérifiant E(X 2 ) < +∞ et E(Y 2 ) < +∞). On définit la covariance de X et Y par

cov(X, Y ) = E [(X − E(X)) (Y − E(Y ))]


= E(XY ) − E(X)E(Y )

5
En particulier :
cov(X, X) = V (X) et
V (X + Y ) = V (X) + V (Y ) + 2cov(X, Y )
Example 3.1. 1. Loi de Bernoulli
X
E(X) = k P(X = k) ; k ∈ {0, 1}
k∈X(Ω)
X
= k P(X = k) = P(X = 1) = p
k∈{0,1}

X
E(X 2 ) = k 2 P(X = k) = P(X = 1) = p
k∈{0,1}

V (X) = E(X 2 ) − (E(X))2 = p − p2 = p(1 − p)

2. Loi Binomiale
n
X n
X
E(X) = k P(X = k) = k Cnk pk (1 − p)n−k
k=0 k=0
n
X n!
= k pk (1 − p)n−k
k=1
k!(n − k)!
n
X n!
= pk (1 − p)n−k
k=1
(k − 1)!(n − k)!
n
X (n − 1)!
= np pk−1 (1 − p)n−k
k=1
(k − 1)!(n − k)!
n−1
X (n − 1)!
= np pk (1 − p)n−k−1
k=0
k!(n − k − 1)!
n−1
X
k
= np Cn−1 pk (1 − p)n−k−1
k=0
= np (p + 1 − p)n−1 = np

6
n
X n
X
E(X(X − 1)) = k(k − 1) P(X = k) = k(k − 1) Cnk pk (1 − p)n−k
k=0 k=0
n
X n!
= k(k − 1) pk (1 − p)n−k
k=2
k!(n − k)!
n
X n!
= pk (1 − p)n−k
k=2
(k − 2)!(n − k)!
n
2
X (n − 2)!
= n(n − 1)p pk−2 (1 − p)n−k
k=2
(k − 2)!(n − k)!
n−2
X (n − 2)!
= n(n − 1)p2 pk (1 − p)n−k−2
k=0
k!(n − k − 2)!
n−2
X
= n(n − 1)p2 k
Cn−2 pk (1 − p)n−k−2
k=0
= n(n − 1)p (p + 1 − p)n−2 = n(n − 1)p2
2

Or E(X(X − 1)) = E(X 2 ) − E(X) donc


V (X) = E(X 2 ) − (E(X))2 = E(X 2 ) − E(X) + E(X) − (E(X))2
= n(n − 1)p2 + np − (np)2 = np(1 − p)

3. Loi Géométrique
+∞
X +∞
X
E(X) = k P(X = k) = k p(1 − p)k−1
k=1 k=1
P+∞ 1 δ
P+∞  P+∞ 1
Or k=0 (1 − p)k = 1−(1−p)
= 1/p et δp k=0 (1 − p) k
= − k=1 k(1 − p)
k−1
= − p2
Donc
+∞
X p 1
E(X) = p k(1 − p)k−1 = =
k=1
p2 p

+∞
X +∞
X
E(X(X − 1)) = k(k − 1) P(X = k) = k(k − 1) p(1 − p)k−1
k=1 k=2

δ 2 P+∞  δ
P+∞  P+∞ 2
k k−1
Or δp 2 k=0 (1 − p) = − δp k=1 k(1 − p) = k=2 k(k − 1)(1 − p)k−2 = p3
Donc
+∞
X 2p(1 − p) 2(1 − p)
E(X(X − 1)) = p(1 − p) k(k − 1)(1 − p)k−2 = 3
=
k=2
p p2
donc
V (X) = E(X 2 ) − (E(X))2 = E(X 2 ) − E(X) + E(X) − (E(X))2
2(1 − p) 1 1 (1 − p)
= + − =
p2 p p2 p2

7
4. Loi de Poisson
+∞ +∞
X e−λ λk X
E(X) = k P(X = k) = k
k=0 k=1
k!
+∞ +∞ k
−λ
X λk−1 −λ
X λ
= λe = λe = λe−λ eλ = λ
k=1
(k − 1)! k=0
k!

Et
+∞ +∞
X X e−λ λk
E(X(X − 1)) = k(k − 1) P(X = k) = k(k − 1)
k=0 k=2
k!
+∞ k−2 +∞
2 −λ
X λ 2 −λ
X λk
= λe = λe = λ2 e−λ eλ = λ2
k=2
(k − 2)! k=0
k!

Donc

V (X) = E(X 2 ) − (E(X))2 = E(X 2 ) − E(X) + E(X) − (E(X))2


= λ2 + λ − λ2 = λ

5. Loi uniforme sur {0, · · · , n}


n n
X 1X
E(X) = k P(X = k) = k
k=1
n k=1
1 n(n + 1) n+1
= =
n 2 2

n n
2
X
21X 2
E(X ) = k P(X = k) = k
k=1
n k=1
1 n(n + 1)(2n + 1) (n + 1)(2n + 1)
= =
n 6 6

(n + 1)(2n + 1) (n + 1)2
V (X) = E(X 2 ) − (E(X))2 = −
6 4
(n + 1)(n − 1) n2 − 1
= =
12 12
6. Loi Hypergéométrique :
On tire n boules dans une urne contenant N boules gagnantes et M boules perdantes. La
N
probabilité de tirer une boule gagnante est p = N +M .
X est la v.a désignant le nombre de boules gagnantes extraites. Donc X(Ω) = {1, · · · , n}
et la densié est donnée par :
n−k
CNk CM
P(X = k) =
CNn +M

8
Dans ce cas E(X) = np. En effet :
n n n−k
X X CNk CM
E(X) = k P(X = k) = k
k=0 k=1
CNn +M
n
X CNk−1
−1 CM
n−k
= N
k=1
CNn +M

car k CNk = N CNk−1


−1
Donc
n
N X
E(X) = CNk−1 n−k
−1 CM
CNn +M k=1
n−1
N X
= CNj −1 CM
n−1−j
CNn +M j=0

Or la formule de Vandermonde dit que pour tout N1 et N2 on a


r
X
CNj 1 CNr−j
2
= CNr 1 +N2 ; ∀r ≤ N1 + N2
j=0

Donc
N
E(X) = CNn−1
+M −1
CNn +M
Nn
= = np
N +M
r
Definition
X3.5. Si X a une espérance mathématiques fini alors le moment de X d’ordre r est
r
E(X ) = x P(X = x); ∀r ∈ N∗
r

Proposition 3.1. 1. Soient X1 , X2 , · · · , Xn n variables aléaoires. Elles sont indépendantes


si et seulement si

P(X1 , X2 , ··· , Xn )
(x1 , x2 , · · · , xn ) = P(X1 = x1 ) × · · · × P(Xn = xn )
Yn
= P(Xi = xi )
i=1

2. Soient X1 , X2 , · · · , Xn n variables aléaoires intégrables. Elles sont indépendantes alors


a/
n
Y
E(X1 × X2 × · · · × Xn ) = E(Xi )
i=1

b/ Et
cov(Xi , Xj ) = 0 ; ∀i 6= j
En effet : cov(Xi , Xj ) = E(Xi Xj ) − E(Xi )E(Xj ) = 0.
On dit qu’elles sont 2 à 2 non corrélées.

9
c/ Et
n
X
V (X1 + X2 + · · · + Xn ) = V (Xi )
i=1

En particulier : V (X1 + X2 ) = V (X1 ) + V (X2 )


En effet : V (X1 + X2 ) = V (X1 ) + V (X2 ) + 2 cov(X1 , X2 ) = V (X1 ) + V (X2 )
Attention : Les réciproques sont fausses.
Contre Exemple : 
1 si X = 0
Soit X une variable aléatoire de loi uniforme sur {−1, 0, 1} et Y =
0 si non
– D’une part, on a
X X
E(X) = x P(X = x) = x × 1/3
x∈{−1,0,1} x∈{−1,0,1}

= −1 × 1/3 + 0 × 1/3 + 1 × 1/3 = 0

X
E(XY ) = xy P(X = x, Y = y) = 0
x,y

( Puisque Y est non nulle que quand X = 0. Donc le produit xy est nulle pour tout
x ∈ {−1, 0, 1} et y ∈ {0, 1})
D’où on a E(XY ) = E(X)E(Y )
– D’autre part, on a clairement X et Y ne sont pas indépendantes.
P(X = 0, Y = 0) = 0 (car si X = 0 alors Y = 1 : ils ne peuvent pas s’annuler au même
temps)
Or P(X = 0) = 1/3 et P(Y = 0) = 1 − P(Y = 1) = 1 − P(X = 0) = 2/3
Donc P(X = 0, Y = 0) 6= P(X = 0) × P(Y = 0)
On conclut que X et Y ne sont pas indépendantes.

3.3 Fonctions Génératrices


Definition 3.6. Soit X : Ω −→ N une variable aléatoire discrète (v.a entière). La fonction
génératrice de X (noté g ou gX ) est la fonction définie par :

g : [−1, 1] → R X
s → E(sX ) = sn P(X = n)
n∈N

Proposition 3.2. La fonction génératrice est continue sur [−1, 1] et de classe C ∞ sur ] − 1, 1[
et on a
g (k) (0)
P(X = k) =
k!
Remarque 3.1. Si X est une variable aléaoire de carré intégrable alors
1. E(X) = g 0 (1)
2. V (X) = g 00 (1) + g 0 (1) − (g 0 (1))2

10
Exemples :
1. Loi de Bernoulli
X
g(s) = sk P(X = k) ; k ∈ {0, 1}
k)
X
= sk P(X = k) = s P(X = 1) + s0 (1 − p) = sp + 1 − p
k∈{0,1}

E(X) = g 0 (1) = p
2
V (X) = g 00 (1) + g 0 (1) − (g 0 (1)) = p − p2 = p(1 − p)

2. Loi Binomiale
n
X n
X
k
g(s) = s P(X = k) = sk Cnk pk (1 − p)n−k
k=0 k=0
Xn
= Cnk (s p)k (1 − p)n−k
k=0
= (sp + 1 − p)n

E(X) = g 0 (1) = [np(sp + 1 − p)n−1 ]s=1 = np


2
V (X) = g 00 (1) + g 0 (1) − (g 0 (1))
= n(n − 1)p2 + np − (np)2 = np(1 − p)

3. Loi de Poisson
+∞ +∞
X
k
X e−λ λk
g(s) = s P(X = k) = sk
k=0 k=0
k!
+∞
−λ
X (λs)k
= e = e−λ eλs = eλ(s−1)
k=0
k!

E(X) = g 0 (1) = [λeλ(s−1) ]s=1 = λ


2
V (X) = g 00 (1) + g 0 (1) − (g 0 (1))
2
= [λ2 eλ(s−1) ]s=1 + g 0 (1) − (g 0 (1))
= λ2 + λ − λ2 = λ

11
4. Loi Géométrique
+∞
X +∞
X
k
g(s) = s P(X = k) = sk p(1 − p)k−1
k=1 k=1
+∞
X
= sp (s (1 − p))k−1
k=1
+∞
X
= sp (s (1 − p))k
k=0
sp
=
1 − s + sp

 
0 p(1 − s + sp) − sp(p − 1)
E(X) = g (1) =
(1 − s + sp)2 s=1
p p 1
= [ 2
]s=1 = 2 =
(1 − s + sp) p p

2
V (X) = g 00 (1) + g 0 (1) − (g 0 (1))
 
−2p(−1 + p)(1 − s + sp) 2
= 4
+ g 0 (1) − (g 0 (1))
(1 − s + sp) s=1
 
−2p(−1 + p) 2
= 3
+ g 0 (1) − (g 0 (1))
(1 − s + sp) s=1
2(1 − p) 1 1 1−p
= 2
+ − 2 =
p p p p2

Proposition 3.3. Soit X et Y deux variables aléatoires indépendantes alors

gX+Y (s) = gX (s) gY (s) ; ∀s ∈ [−1, 1]

Exercices :
1. Soit X et Y deux variables aléatoires indépendantes de lois de poisson de paramêtres
respectivement λ et µ.
Montrer que la variable X + Y suit une loi de poisson de paramêtres λ + µ.
Solution :

gX+Y (s) = gX (s) gY (s)


= eλ(s−1) eµ(s−1) = e(λ+µ)(s−1)

C’est la fonction génératrice d’une loi de poisson de paramêtres λ + µ. Or la fonction


génératrice caractérise la loi donc X + Y suit une loi de poisson de paramêtres λ + µ.
2. Soit X et Y deux variables aléatoires indépendantes de lois Binomiales respectivement
B(n, p) et B(m, p).

12
Montrer que la variable X + Y suit une loi Binomiales B(n + m, p).
Solution :

gX+Y (s) = gX (s) gY (s)


= (sp + 1 − p)n (sp + 1 − p)m = (sp + 1 − p)n+m

C’est la fonction génératrice d’une loi Binomiale B(n + m, p).

13