Vous êtes sur la page 1sur 46

Probabilités Appliquées

Variables aléatoire discrète

L. Horchani & N.Chaouachi

E.N.S.I

2016/2017

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 1 / 38


1 Rappel sur les manipulations de séries

2 Définition

3 Loi de probabilité d’une variable aléatoire

4 Variables aléatoires indépendantes

5 Fonction de répartitions

6 Couple de variables aléatoires

7 Paramètres d’une variable aléatoire

8 Fonction génératrice

9 Lois discrètes usuelles

10 Lois discrètes usuelles

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 2 / 38


I-Rappel sur les manipulations de séries

X n
X
Une série an est convergente si la suite ai est convergente. La
n∈N i=0
n
X X
valeur de la série est la limite de la suite ai . On dit qu’une série an
i=0
X n∈N
est absolument convergente si la série |an | est convergente.
n∈N

Théorème (Fubini)
X
Si la serie |a(n,p)| est convergente, alors on a :
(n,p)∈N2
   
X X X X X
a(n,p) =  a(n,p)  =  a(n,p) 
(n,p)∈N2 n∈N p∈N p∈N x ∈N

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 3 / 38


Proposition (Convergence dominée)
Soit (a(n,p) , n ≥ 0, p ≥ 0) une suite telle que pour tout n ≥ 0, p ≥ 0,
|a(n,p) | ≤ bn . On suppose de plus que pour tout n ≥ 0, lim a(n,p) existe.
p→+∞
X
Si la série à termes positifs bn est (absolument) convergente, alors on
n∈N
a: X X
lim a(n,p) = lim a(n,p) .
p→+∞ p→+∞
n≥0 n≥0

On se place maintenant sur R ou C.


Soit (an , n ∈ N) une suite de nombres
X complexes. La série entière associée
à la suite (an , n ∈ N) est la série an z n , z ∈ C. Le rayon de
n∈N
convergence de la série entière est défini par :
X
R = sup{r > 0; |an |r n est convergente},
n∈N

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 4 / 38


Proposition
X
1 Si |z| > R, alors la série an z n diverge trivialement (la suite (an z n )
n∈N
n’est pas bornée).
X
2 Si |z| < R, alors la série an z n est absolument convergente.
n∈N
X
3 Soit 0 < r < R. La série an z n est normalement convergente sur
n∈N
{z ∈ C; |z| ≤ r }.

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 5 / 38


Lemme (rappel de quelques formules)
Soit q un réel tel que 0 < q < 1.
n
X 1 − q n+1
qi =
i=0
1−q

+∞
X 1
qi =
i=0
1−q
+∞
X 1
iq i−1 =
i=0
(1 − q)2

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 6 / 38


II-Définition

Dans toute la suite de ce module, nous travaillerons sans le spécifier


nécessairement systématiquement sur un espace de probabilité (Ω, τ, P).
Nous pourrons également considérer sans inquiétude que toutes les parties
de Ω qui nous intéressent sont des événements (i.e. sont dans τ ).

Définition
Soit une application X : Ω → X (Ω) où X (Ω) ⊆ R. X est une variable
aléatoire réelle si et seulement si, pour tout réel x ∈ R , l’image réciproque
X −1 (x ) est un élément de τ .

Il y a là, d’une certaine façon, une contradiction dans les termes : une
variable aléatoire n’est pas une variable, c’est une fonction ; et elle n’a rien
en elle-même d’aléatoire, c’est l’espace sur lequel elle agit qui est
probabiliste.

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 7 / 38


Remarques :
1 Pour x ∈ X (Ω), on note de façon concise {X = x } l’événement
{ω ∈ Ω : X (ω) = x }.
2 La famille des nombres (P(X = x ))x ∈X (Ω) s’appelle la loi de X .
3 (X = x )x ∈X (Ω) est une famille dénombrable d’événements deux à
[
deux disjoints t.q. {X = x } = Ω, i.e c’est un s.c.e. Donc par la
x ∈X (Ω)
propriété de σ-additivité,
X  [ 
P(X = x ) = P {X = x } = P(Ω) = 1.
x ∈X (Ω) x ∈X (Ω)

4 Si X (Ω) est une partie dénombrable de R, nous dirons que X est une
variable aléatoire discrète (V.A.D).
5 Une variable aléatoire discrète sera dite finie ou infinie suivant que
l’ensemble de ses valeurs est fini ou infini.

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 8 / 38


III-Loi de probabilité d’une variable aléatoire

Définition :
∀x ∈ R , on a {X = x } ∈ τ.
On appelle loi de la v.a X , la fonction fX : R → [0, 1] t.q :

∀x ∈ R, fX (x ) = P[X = x ]

Dans la pratique, il n’est pas rare que l’on ne décrive une variable aléatoire
que par sa loi, sans se préoccuper d’écrire explicitement l’espace de
probabilités sur lequel elle est définie.
Quand dans une expérience aléatoire on ne s’intéresse qu’à la v.a X , cela
revient à se placer dans le nouvel espace fondamental (X (Ω); τ ; fX ). Dans
bien des cas, on ne précisera pas l’espace Ω choisi.

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 9 / 38


Propriété :
X
fX (x ) = 1
x ∈X (Ω)

Définition
On dira que deux v.a X et Y ont même loi, ou sont identiquement
distribués, si leurs lois fX et fY sont identiques. Cette relation sera notée

X ∼Y
La v.a X est entièrement déterminée par sa loi fX .

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 10 / 38


Exemples :

1 Dans le cas du jet de deux dés, la somme S des deux dés est une
variable aléatoire discrète à valeurs dans S(Ω) = 2, 3, . . . , 12 dont la
loi est :
s 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
P(S = s) 36 36 36 36 36 36 36 36 36 36 36

2 Soit A ⊂ Ω un événement. Sa fonction indicatrice 11A : Ω → {0, 1}


définie par
(
1, si ω ∈ A
∀ω ∈ Ω, 11A (ω)
0, sinon
est une variable aléatoire discrète de loi :

P(11A = 1) = P(A) P(11A = 0) = 1 − P(A).

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 11 / 38


IV-Variables aléatoires indépendantes

Définitions
1 Deux variables aléatoires discrètes X et Y à valeurs respective- ment
dans X (Ω) et Y (Ω) sont dites indépendantes si :

∀x ∈ X (Ω), ∀y ∈ Y (Ω), P(X = x , Y = y ) = P(X = x ) × P(Y = y ).

2 n variables aléatoires discrètes X1 , X2 , . . . , Xn à valeurs


respectivement dans X1 (Ω), . . . , Xn (Ω) sont dites indépendantes si :

∀x1 ∈ X1 (Ω), . . . , ∀xn ∈ Xn (Ω)


n
Y
P(X1 = x1 , . . . , Xn = xn ) = P(Xi = xi ).
i=1
3 Une famille quelconque de variables aléatoires discrètes est dite
indépendante si toute sous-famille finie l’est.

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 12 / 38


Exemple

Jet de 2 dés : Ω = {(i, j) : 1 ≤ i, j ≤ 6} muni de la probabilité uniforme.


Si on note X1 la valeur du premier dé et X2 celle du second, on
aX1 (i, j) = i et X2 (i, j) = j.
On vérifie facilement que :
1
∀ 1 ≤ i ≤ 6, P(X1 = i) = P(X2 = i) = ,
6
Comme :
1
∀ 1 ≤ i, j ≤ 6, P(X1 = i, X2 = j) = = P(X1 = i) × P(X2 = j),
36
les variables X1 et X2 sont indépendantes.

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 13 / 38


V-Fonction de répartition
Soit X : Ω → R une variable aléatoire réelle de l’espace de probabilité
(Ω; τ ; P) et PX sa loi de probabilité
Définition
On appelle fonction de répartition de X la fonction FX définie sur R, et à
valeurs dans [0; 1], par :

FX (x ) = PX (] − ∞; x ]) = P(X ≤ x ) ∀x ∈ R

On peut remarquer que la valeur de PX sur tout intervalle ]a; b] s’obtient


simplement à partir de la fonction de répartition :
PX (]a; b]) = P(a < X ≤ b) = FX (b) − FX (a)

Lemme
La fonction de répartition caractérise la loi : si deux variables aléatoires X
et Y ont même fonction de répartition, alors elles ont même loi.
E.N.S.I (II.1) Probabilités Appliquées 2016/2017 14 / 38
Corollaire
Les v.a. réelles Xi , 1 ≤ i ≤ n, sont indépendantes si et seulement si pour
tout xi ∈ R,
n
\ n
Y

P {Xi ≤ xi } = FXi (xi );
i=1 i=1

FXi étant la fonction de répartition de Xi .

La fonction de répartition d’une v.a a les propriétés suivantes :


Propriétés
Soit X la fonction de répartition d’une v.a X . Alors :
1 FX est croissante.
2 lim FX (x ) = 0 et lim FX (x ) = 1.
x →−∞ x →+∞
3 FX est continue à droite.
4 FX a une limite à gauche en tout point.
5 Si FX admet une discontinuité en x0 , FX (x0 ) − lim FX (.) = P(X = x0 ).
x0−

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 15 / 38


Exemple

Soit X la variable aléatoire indiquant le résultat du lancé d’un dé équilibré.


Sa fonction de répartition FX saute de 16 aux points 1; . . . ; 6

Figure – Fonction de répartition de F

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 16 / 38


VI-Couple de variables aléatoires

Définition
Un couple de variables aléatoires (X , Y ) est la donnée de deux variables
aléatoires définies sur le même espace probabilisé Ω .

Autrement un couple est une application (X , Y ) : Ω → R2 .

Définition
La loi ou densité d’un couple de v.a (X , Y ) est la la fonction
f(X ,Y ) : X (Ω) × Y (Ω) → [0, 1] t.q :

f(X ,Y ) (i, j) = P((X = i) ∩ (Y = j)), ∀i ∈ X (Ω), ∀j ∈ Y (Ω).

Cette loi est aussi appelée loi conjointe du couple (X , Y ) .

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 17 / 38


Example 1 :

On lance simultanément deux dés , et on note X le plus grand des deux


chiffres obtenus et Y le plus petit (au sens large).

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 18 / 38


Example 1 :

On lance simultanément deux dés , et on note X le plus grand des deux


chiffres obtenus et Y le plus petit (au sens large).
On a X (Ω) = {1; 2; 3; 4; 5; 6} ; Y (Ω) = {1; 2; 3; 4; 5; 6},
P((X = i) (Y = j)) = 0 si i ≤ j (le plus grand nombre ne peut pas
être inférieur au plus petit),
1
P((X = i) (Y = j)) = 36 si i = j (le seul tirage favorable sur les 36
possibles est le tirage (i, i),
1
et P((X = i) (Y = j)) = 18 si i > j(les deux tirages (i, j) et (j, i)
sont possibles),
ce qu’on peut résumer par le tableau à double entrées (X en ligne, Y en
colonne) :

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 18 / 38


HH X
HH 1 2 3 4 5 6
H
Y H
1 1 1 1 1 1
1 36 18 18 18 18 18
1 1 1 1 1
2 0 36 18 18 18 18
1 1 1 1
3 0 0 36 18 18 18
1 1 1
4 0 0 0 36 18 18
1 1
5 0 0 0 0 36 18
1
6 0 0 0 0 0 36

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 19 / 38


Proposition
Soient deux v.a.d X et Y définies sur un même espace, X et Y sont
indépendantes si et seulement si
f(X ,Y ) (x , y ) = fX (x )fY (y ), ∀(x , y ) ∈ X (Ω) × Y (Ω).

Proposition
Les événements (X = i) ∩ (Y = j) pour i ∈ X (Ω) et j ∈ Y (Ω) forment un
système complet d’événements. On a donc :
X
P((X = i) ∩ (Y = j)) = 1.
i∈X (Ω),j∈Y (Ω)

Définition
Si (X , Y ) est un couple de variables aléatoires, les lois de X et de Y sont
appelées lois marginales du couple.

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 20 / 38


Proposition
Si (X , Y ) est un couple de variables aléatoires discrètes, on peut obtenir
les lois marginales à partir de la loi conjointe :
X
∀i ∈ X (Ω), P(X = i) = P((X = i) ∩ (Y = j))
j∈Y (Ω)
X
∀j ∈ Y (Ω), P(Y = j) = P((X = i) ∩ (Y = j))
i∈X (Ω)

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 21 / 38


Exemple2 :

RQ :On peut déduire les lois marginales de la loi conjointe. Le contraire


n’est pas possible en général.

Exemple :
Une urne contient 3 boules blanches, 4 boules vertes et 5 boules bleues.
On tire 3 boules dans l’urne et on note X le nombre de boules blanches
obtenues et Y le nombre de boules vertes.

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 22 / 38


Exemple2 :

RQ :On peut déduire les lois marginales de la loi conjointe. Le contraire


n’est pas possible en général.

Exemple :
Une urne contient 3 boules blanches, 4 boules vertes et 5 boules bleues.
On tire 3 boules dans l’urne et on note X le nombre de boules blanches
obtenues et Y le nombre de boules vertes.
X (Ω) = {0; 1; 2; 3} et Y (Ω) = {0; 1; 2; 3}. On ne peut bien sûr avoir
X + Y > 3 puisqu’on ne tire que trois boules. Lorsque cela a un sens, on
a:
C i C j C 3−i−j
P((X = i) ∩ (Y = j)) = 3 4 35
C12
ce qui donne le tableau suivant :

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 22 / 38


HH Y
HH 0 1 2 3
X H
H
1 3 3 1
0 22 22 44 220
4 6 3
1 22 22 55 0
3 9
2 22 110 0 0
1
3 55 0 0 0

On en déduit les lois marginales :


i 0 1 2 3 j 0 1 2 3
21 27 27 1 14 28 12 1
P(X = i) 55 55 220 220 P(Y = j) 55 55 55 55

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 23 / 38


HH Y
HH 0 1 2 3
X H
H
1 3 3 1
0 22 22 44 220
4 6 3
1 22 22 55 0
3 9
2 22 110 0 0
1
3 55 0 0 0

On en déduit les lois marginales :


i 0 1 2 3 j 0 1 2 3
21 27 27 1 14 28 12 1
P(X = i) 55 55 220 220 P(Y = j) 55 55 55 55

Définition
La loi conditionnelle de X sachant Y = j est la loi de la variable Z définie
par :
∀i ∈ X (Ω), P(Z = i) = P(X = i/Y = j)
.
On définit de même les lois conditionnelle de Y sachant X = i.
E.N.S.I (II.1) Probabilités Appliquées 2016/2017 23 / 38
Proposition
Si X et Y sont deux variables aléatoiresindépendantes, la loi de leur
somme X + Y est donné par :
X
P(X + Y = k) = P(X = i)P(Y = k − i)
i

(la somme portant sur les valeurs de i pour les quelles P(X = i) et
P(Y = k − i) sont toutes deux non nulles).

Exemple :
Deux variables aléatoires X et Y , indépendantes sont t.q :
X (Ω) = {1; 2; . . . ; 6} et ∀i ∈ X (Ω), P(X = i) = 61
Y (Ω) = {1; 2; 3; 4} et ∀j ∈ Y (Ω), P(Y = j) = 14
La loi de X + Y se calcule aisément :

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 24 / 38


Proposition
Si X et Y sont deux variables aléatoiresindépendantes, la loi de leur
somme X + Y est donné par :
X
P(X + Y = k) = P(X = i)P(Y = k − i)
i

(la somme portant sur les valeurs de i pour les quelles P(X = i) et
P(Y = k − i) sont toutes deux non nulles).

Exemple :
Deux variables aléatoires X et Y , indépendantes sont t.q :
X (Ω) = {1; 2; . . . ; 6} et ∀i ∈ X (Ω), P(X = i) = 61
Y (Ω) = {1; 2; 3; 4} et ∀j ∈ Y (Ω), P(Y = j) = 14
La loi de X + Y se calcule aisément :
i 2 3 4 5 6 7 8 9 10
1 1 1 1 1 1 1 1 1
P(X + Y = i) 24 12 8 6 6 6 8 24 24

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 24 / 38


VII-Paramètres d’une variable aléatoire
1-Espérance

L’espérance mathématique dune v.a. X permet de caractériser la tendance


centrale ou la position de l’ensemble des valeurs possibles dune v.a.
Définition
Soit X une v.a.d, qui prend ses valeurs dans un ensemble
X (Ω) = {xn , n ∈ N} ⊂ R. L’espérance (ou espérance mathématique) de
X , notée E(X ), est définie par la formule :
X
E(X ) = xn P(X = xn ),
n∈X (Ω)

sous réserve que cette série soit absolument convergente :


X
|xn |P(X = xn ) < +∞
n∈X (Ω)

Lorsqu’une v.a admet une espérance, on parle de v.a intégrable.


E.N.S.I (II.1) Probabilités Appliquées 2016/2017 25 / 38
Formule de transfert

Soit f une fonction quelconque, définie sur l’ensemble des valeurs prises
par la variable aléatoire X , et à valeurs réelles. Alors f ◦ X est une nouvelle
variable aléatoire, typiquement notée f (X ), et on a, sous réserve de
convergence absolue des séries, on a :
X
E(f (X )) = f (xn )P(X = xn ).
n∈X (Ω

Remarque : La définition que nous avons donnée de l’espérance, n’est


autre que le résultat de l’application de la formule de transfert à
f (X ) = X , si l’on prend comme définition alternative
La formule de transfert s’applique aux fonctions à plusieurs variables

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 26 / 38


Exp : Soient X , Y ,2 v.a.d et Z = (X , Y ). Soient les fonctions
f1 (x , y ) = x + y et f2 (x , y ) = x .y . Alors :
X
E(f1 (Z )) = (x + y )f(x ,y )(x ,y )
(x ,y )∈(X (Ω),Y (Ω))

X
E(f2 (Z )) = (xy )f(x ,y )(x ,y )
(x ,y )∈(X (Ω),Y (Ω))

Remarque : Pour toute constante réelle λ, la fonction constante sur Ω,


partout égale à λ, est bien évidemment une variable aléatoire dont
l’espérance est λ.

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 27 / 38


Propriétés de l’espérance
Proposition :Linéarité de l’espérance
Soit X et Y deux variables aléatoires admettant une espérance, a et b
deux réels, alors la variable aléatoire aX + bY admet aussi une espérance
et celle-ci vaut :
E[aX + bY ] = aE[X ] + bE[Y ].

Proposition :Positivité de l’espérance


Soit X et Y deux variables aléatoires admettant une espérance et telles
que X ≤ Y , alors :E[X ] ≤ E[Y ]. En particulier, si X ≥ 0, i.e. si X ne
prend que des valeurs positives, on a E[X ] ≥ 0.

X ≤ Y signifie que pour tout ω ∈ Ω , on a X (ω) ≤ Y (ω) .


Proposition :Produit de v.a indépendantes
Si X et Y sont deux v.a.d, indépendantes, alors la variable aléatoire
Z = XY est intégrable si X et Y le sont, et E(XY ) = E(X )E(Y ).
E.N.S.I (II.1) Probabilités Appliquées 2016/2017 28 / 38
2-Moments d’une v.a

Définition
On appelle moment d’ordre k ∈ N d’une v.a.d X :
X
mk (X ) = E[X k ] = x k fX (x )
x ∈X (Ω)

Définition
On appelle moment centré d’ordre k ∈ N d’une v.a.d X :
X
mc,k (X ) = E (X − E(X ))k = (x − E(X ))k fX (x )
 

x ∈X (Ω)

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 29 / 38


Variance
Définition :Variance
Le moment centré d’ordre 2 d’une v.a.d X , s’appelle la variance et est
noté :V (X ).
X
V (X ) = E (X − E(X ))2 = (x − E(X ))2 fX (x )
 

x ∈X (Ω)
p
On appelle écart-type :σ(X ) = V (X )

La variance est une mesure de dispersion autour de la valeur centrale


qu’est l’espérence.
Définition :Covariance de X et Y :
Soient X et Y deux v.a définies sur le même espace probabilisé, toutes
deux de carré intégrable.La covariance de X et Y est :

Cov (X , Y ) = E (X − E(X ))(Y − E(Y ) ).
E.N.S.I (II.1) Probabilités Appliquées 2016/2017 30 / 38
Propriétés de la variance
Soit X une v.a.d, alors sous réserve d’existence de sa variance on a :
1 V (X ) = E[X 2 ] − E[X ]2 .
2 Si a et b sont deux réels, V (aX + b) = a2 V (X ).
3 V (X ) = 0 si et seulement si X est constante.

Propriétésde la covariance
1 Cov (X , Y ) = E(XY ) − E(X )E(Y )
2 Cov (X , X ) = V (X ).
3 ∀a, b, c, d ∈ R : Cov (aX + b, cY + d) = acCov (X , Y ).
4 V(X + Y ) = V(X) + 2Cov(X, Y ) + V(Y ).

Proposition
Si X et Y sont deux v.a indépendantes et de carré intégrable, alors
Cov (X , Y ) = 0.

F la réciproque est complètement fausse !


E.N.S.I (II.1) Probabilités Appliquées 2016/2017 31 / 38
IIX-Fonction génératrice

Lorsque X est une v.a à valeurs dans N, la loi de X est entièrement décrite
par la suite (P(X = n))n≥0 . Un moyen bien commode pour manipuler de
telles suites est celui des séries entières.
Définition : Fonction génératrice
Soit X une variable aléatoire à valeurs entières positives ou nulles. On
appelle fonction génératrice de probabilités de X , la série entière :
X
GX (z) = P(X = n)z n .
n≥0

Si z est une valeur pour laquelle la série entière converge absolument (i.e.,
à l’intérieur du rayon de convergence de la série, ou sur le cercle de
convergence), alors GX (z) = E(z X ).

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 32 / 38


Il est évident que la fonction génératrice est entièrement déterminée par la
loi de X . La réciproque est également vraie : la loi de X est entièrement
caractérisée par sa fonction génératice de probabilités. En effet, on a
immédiatement, par développement,

1 (n)
P(X = n) = G (0).
n! X
Calculs de moments par la fonction génératrice :
En dérivant formellement la fonction génératrice, puis en prenant z = 1, il
vient :
GX0 (z) =
X
nP(X = n)z n−1
n≥1

GX0 (1) =
X
nP(X = n) = E(X )
n≥1

E(X ) = GX0 (1)

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 33 / 38


GX00 (z) =
X
n(n − 1)P(X = n)z n−2
n≥1

GX00 (1) =
X
n(n − 1)P(X = n) = E(X (X − 1))
n≥1

2
V (X ) = GX00 (1) + GX0 (1) − GX0 (1)

Proposition
Soient X et Y deux variables aléatoires indépendantes, à valeurs entières.
Alors, pour Z = X + Y , on a

GZ (z) = GX (z)GY (z).

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 34 / 38


IX-Lois discrètes usuelles
1-Loi de Bernoulli

Une variable aléatoire X qui ne peut prendre que deux valeurs par exemple
0 et 1 , est appelée variable de Bernoulli.
Si l’on note p = P(X = 1), on a donc naturellement P(X = 0) = 1 − p. Le
paramètre p peut prendre n’importe quelle valeur dans [0; 1].
On note : X ∼ Be(p).

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 35 / 38


IX-Lois discrètes usuelles
1-Loi de Bernoulli

Une variable aléatoire X qui ne peut prendre que deux valeurs par exemple
0 et 1 , est appelée variable de Bernoulli.
Si l’on note p = P(X = 1), on a donc naturellement P(X = 0) = 1 − p. Le
paramètre p peut prendre n’importe quelle valeur dans [0; 1].
On note : X ∼ Be(p).

E(X ) = p
V (X ) = p(1 − p)
GX (z) = (1 − p) + pz.

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 35 / 38


2-Loi Binomilae

La loi binomiale admet deux paramètres : un entier n ≥ 0, et un réel


p ∈ [0; 1]. C’est la loi de la somme de n variables de Bernoulli
indépendantes, toutes de même paramètre p.
Autrement dit, on obtient une variable binomiale en effectuant n lancers
indépendants d’une pièce de monnaie , le résultat étant le nombre de fois
que l’on obtient Pile.
On note X ∼ B(n, p).

∀k ∈ N, P(X = k) = Cnk p k (1 − p)n−k .

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 36 / 38


2-Loi Binomilae

La loi binomiale admet deux paramètres : un entier n ≥ 0, et un réel


p ∈ [0; 1]. C’est la loi de la somme de n variables de Bernoulli
indépendantes, toutes de même paramètre p.
Autrement dit, on obtient une variable binomiale en effectuant n lancers
indépendants d’une pièce de monnaie , le résultat étant le nombre de fois
que l’on obtient Pile.
On note X ∼ B(n, p).

∀k ∈ N, P(X = k) = Cnk p k (1 − p)n−k .

E(X ) = np
V (X ) = np(1 − p)
n
GX (z) = (1 − p) + pz .

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 36 / 38


3-Loi géométrique

La loi géométrique est paramétrée par un réel 0 ≤ p ≤ 1. On obtient une


variable aléatoire géométrique dans la situation suivante : on effectue une
même expérience, qui a une probabilité p de "réussir", autant de fois, de
manière indépendante, qu’il est nécessaire pour obtenir le premier succès.
On note : X ∼ G(p).

∀k ∈ N∗ , P(X = k) = (1 − p)k−1 p.

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 37 / 38


3-Loi géométrique

La loi géométrique est paramétrée par un réel 0 ≤ p ≤ 1. On obtient une


variable aléatoire géométrique dans la situation suivante : on effectue une
même expérience, qui a une probabilité p de "réussir", autant de fois, de
manière indépendante, qu’il est nécessaire pour obtenir le premier succès.
On note : X ∼ G(p).

∀k ∈ N∗ , P(X = k) = (1 − p)k−1 p.

1
E(X ) = p
1−p
V (X ) = p2
pz
GX (z) = 1−(1−p)z .

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 37 / 38


4-Loi de Poisson

La loi de Poisson de paramètre λ ≥ 0 est définie par ses probabilités : une


variable aléatoire X est de Poisson si l’on a,
λk
∀k ∈ N, P(X = k) = e −λ .
k!
On note : X ∼ P(p).

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 38 / 38


4-Loi de Poisson

La loi de Poisson de paramètre λ ≥ 0 est définie par ses probabilités : une


variable aléatoire X est de Poisson si l’on a,
λk
∀k ∈ N, P(X = k) = e −λ .
k!
On note : X ∼ P(p).

E(X ) = λ
V (X ) = λ

GX (z) = exp λ(z − 1) .

E.N.S.I (II.1) Probabilités Appliquées 2016/2017 38 / 38