Vous êtes sur la page 1sur 45

École Supérieure d’Economie d’Oran

COURS
de

PROBABILITÉS

Pour les étudiants de deuxième année en École Préparatoire

L. Kara-Zaïtri 2017/2018
Partie I

Variables aléatoires réelles

1
Calcul de Probabilité

Rappel de cours

1. Terminologie

1. Experience aléatoire : Toute expérience dont le résultat est régi par le hasard.
2. Espace des événements (ou univers) : L’ensemble qui contient tous les résultats
possibles de l’experience aléatoire. Il est noté Ω.
3. Événements : Un résultat possible de l’expérience. C’est un élément ou un sous
ensemble de Ω.
4. Événements incompatibles : Deux événements A et B sont incompatibles (ou dis-
joints) si : A ∩ B = ∅

2. Probabilité d’un événement

Une probabilité sur l’univers Ω est une application P telle que :


• P : P(Ω) −→ [0, 1] ,
• P(Ω) = 1 ,
• Pour A et B événements incompatibles de P(Ω) : P(A ∪ B) = P(A) + P(B) .
Pour A ∈ P(Ω) :
card(A) Nombre de cas favorables à A
P(A) = =
card(Ω) Nombre de cas possibles

3. Propriétés

• ∀A ∈ P(Ω) , 0 ≤ P(A) ≤ 1 ,
• ∀A ∈ P(Ω) , P(A) = 1 − P(A) ,
• Si A ⊂ B , P(A) ≤ P(B) ,
• Pour A et B ∈ P(Ω) , P(A − B) = P(A) − P(A ∩ B) ,
• Formule de Poincaré : P(A ∪ B) = P(A) + P(B) − P(A ∩ B) .

L. Kara-Zaïtri
Rappel : Calcul de Probabilité 3

4. Tribu (ou σ-Algèbre)

Une tribu T de l’univers est un sous ensemble de P(Ω) tel que :


• Ω∈T ,
• ∀A ∈ T : A∈T ,
k
[
• Si pour i = 1, · · · , k : Ai ∈ T , alors Ai ∈ T .
i=1
Remarque. — La plus grande tribu de Ω est P(Ω).

Exemple :
Sur l’univers Ω = {1, 2, 3} :
P(Ω) = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, Ω}
• L’ensemble A = {∅, {1}, {2}, {1, 2}, Ω} n’est pas une tribu puisque les en-
sembles complémentaires de {1}, {2} et {1, 2} ne sont pas dans A.
• L’ensemble B = {∅, {1}, {2}, {1, 3}, {2, 3}, Ω} n’est pas une tribu puisque l’en-
semble {1} ∪ {2} n’est pas dans B.
• L’ensemble C = {∅, {1}, {2, 3}, Ω} est une tribu.

5. Espace probabilisé

1. Espace probabilisable : c’est l’ensemble (Ω, T ), où Ω est l’univers et T est une tribu
de l’univers.
2. Espace probabilisé : c’est l’espace probabilisable (Ω, T ) muni d’une mesure de pro-
babilité P. Il est noté (Ω, T , P).

6. Probabilité conditionnelle

La probabilité que l’événement A se réalise, sachant que lévénement B s’est déjà réalisé est
appelée "probabilité conditionnelle" et est donnée par :
P(A ∩ B)
P(A/B) =
P(B)
Propriétés :

L. Kara-Zaïtri
Rappel : Calcul de Probabilité 4

• P(A ∩ B) = P(A/B).P(B) = P(B/A).P(A) .


• P(A/B) = 1 − P(A/B) .

7. Formule des probabilités totales

Rappel : On appelle partition de l’espace d’événements Ω, la donnée des événements A1 ,


A2 , · · · , An tels que :
n
[
T
∀i, j ∈ {1, 2, · · · , n} : Ai Aj = ∅ et Ai = Ω
i=1
Formule : Soit A1 , A2 , · · · , An une partition de Ω, et soit B un événement quelconque de
Ω:
n
X \ n
X
P(B) = P(B Ai ) = P(B/Ai ).P(Ai )
i=1 i=1

8. Formule des Bayes

Soit A1 , A2 , · · · , An une partition de Ω, et soit B un événement quelconque de Ω.

P(Ai ).P(B/Ai )
P(Ai /B) =
P(B)

Exemple :
Il parait qu’à Oran, une femme sur vingt a les yeux bleus, contre un sur trente
pour les hommes. Admettons que 35% des habitants d’Oran sont des femmes et
choisissons une personne au hasard.
1. Quel est le pourcentage des personnes aux yeux bleus à Oran ?
2. Si cette personne a les yeux bleus, quelle est la probabilité que ce soit une
femme ?
Soient les événements :
— A : "La personne choisie est une femme" ,
— B : "La personne choisie est un homme" ,
— C : "La personne choisie a les yeux bleus" .
Les informations données sont :

P(C/A) = 1/20 , P(C/B) = 1/30 , P(A) = 0, 35 .

L. Kara-Zaïtri
Rappel : Calcul de Probabilité 5

1. P(C) = P(C/A).P(A) + P(C/B).P(B) = 1/20 . 0, 35 + 1/30 . 0, 65 = 3, 92%


P(C/A).P(A) 1/20 . 0, 35
2. P(A/C) = = = 44.64% .
P(C) 0.0392

9. Événements indépendants

Soient A et B deux événements quelconques de Ω. Nous disons que A est indépendant de B


si :
P(A/B) = P(A)
Remarque. — A et B sont indépendants si et seulement si :
T
P(A B) = P(A).P(B)

L. Kara-Zaïtri
Variables aléatoires réelles

Chapitre 1

1. Définition

Soit (Ω, P(Ω), P) un espace probabilisé. On appelle variable aléatoire réelle, notée v.a.r, toute
application X telles que :
X : Ω −→ R
ω 7−→ X(ω)
Remarque. — Souvent l’ensemble " {ω ∈ Ω/X(ω) = k} " est noté par " X = k ".

Exemple A :
Une urne contient une boule blanche et une boule noire. On en tire successivement
et avec remise 3 boules, et on s’interesse au nombre de boules blanches tirées.

Ω = {BBB, BBN, BN B, N BB, N N B, N BN, BN N, N N N } ⇒ card(Ω) = 8

Soit X la v.a.r qui exprime le nombre de boules blanches obtenues. Ses valeurs
possibles sont 0, 1, 2 et 3 . On note X(Ω) = {0, 1, 2, 3}.
• P(X = 0) = P({N N N }) = 18 .
• P(X = 1) = P({N N B, N BN, BN N }) = 38 .
• P(X = 2) = P({BBN, BN B, N BB}) = 83 .
• P(X = 3) = P({BBB}) = 18 .

2. Types de v.a.r

• Variable alátoire discrète (v.a.d) : X est dite v.a.d si X(Ω) est un ensemble fini ou
dénombrable.
• Variable aléatoire continue (v.a.c) : X est dite v.a.c si X(Ω) est un intervalle ou une
union d’intervalles de R.
Remarque. — Si X est une v.a.c : ∀x ∈ R , P(X = x) = 0 .

L. Kara-Zaïtri
Chapitre 1. Variables aléatoires réelles 7

3. Loi de probabilité d’une v.a.r

3..1 Variable alátoire discrète

La loi de probabilité d’une v.a.d est donnée par :


• X(Ω),
• P(X = x) pour tout x ∈ X(Ω).
Elle est souvent présentée sous forme d’un tableau.

Exemple A :
Dans l’exemple A précédent, la loi de probabilité est donnée par :

x 0 1 2 3
1 3 3 1
P(X = x) 8 8 8 8
P
Nous remarquons que : x∈Ω P(X = x) = 1 .

3..2 Variable alátoire continue

La loi de probabilité d’une v.a.c est donnée par une fonction fX définie sur R telle que :
• ∀x ∈ R : fX (x) ≥ 0,
R
• R fX (t) dt = 1.
Une telle fonction est appelée "Densité de probabilité" .

Exemple B :
Montrer que la fonction suivante est une densité de probabilité :
(
e−x Si x > 0
f (x) =
0 sinon

L. Kara-Zaïtri
Chapitre 1. Variables aléatoires réelles 8

4. Fonction de répartition d’une v.a.

La fonction de répartition de la v.a. X est une fonction F définie par :

F (x) = P(X 6 x)

Propriétés. —
• lim F (x) = 0 et lim F (x) = 1 .
x→−∞ x→+∞
• ∀x ∈ R , P(X > x) = 1 − F (x).
• ∀ a, b ∈ R , P(a < X 6 b) = F (b) − F (a).

4..1 Fonction de répartition d’une v.a.discrète

La fonction de répartition d’une v.a.d est donnée par :


X
∀ x ∈ R , F (x) = P(X = k)
k≤x

Elle est souvent présentée dans le tableau de la loi de probabilité.

Exemple A :
Dans l’exemple A précédent, la fonction de répartition est donnée par :

x 0 1 2 3
1 3 3 1
P(X = x) 8 8 8 8
1 4 7
F (x) 8 8 8
1
Remarque. — Soit X une v.a.d, et soient a , b ∈ R :
• P(a 6 X 6 b) = P(a < X 6 b) + P(X = a).
• P(a < X < b) = P(a < X 6 b) − P(X = b).

4..2 Fonction de répartition d’une v.a.continue

La fonction de répartition d’une v.a.c est donnée par :


Z x
∀x ∈ R : F (x) = f (t) dt
−∞

L. Kara-Zaïtri
Chapitre 1. Variables aléatoires réelles 9

Exemple B :
Dans l’exemple B précédent, donner (
la fonction de répartition.
Rx e−t Si t > 0
F (x) = −∞ f (t) dt , où f (t) =
0 sinon
Rx
• Si x ≤ 0 : F (x) = −∞ 0 dt = 0 .
R0 Rx
• Si x > 0 : F (x) = −∞ 0 dt + 0 e−t dt = 1 − e−x .

Remarque. — Soit X une v.a.c, et soient a , b ∈ R :


Rb
• P(a < X 6 b) = F (b) − F (a) = a f (t) dt
• P(a < X 6 b) = P(a 6 X < b) = P(a < X < b) = P(a 6 X 6 b)

4..3 Aspect graphique

• v.a. discrète : La fonction de répartition d’une v.a.d est une fonction qui monte en
escaliers de 0 à 1.
• v.a. continue : La fonction de répartition d’une v.a.c est une fonction continue qui monte
de 0 à 1.

Exemple A :
Dans l’exemple A précédent, le graphe de la fonction de répartition est donné
comme suit :

L. Kara-Zaïtri
Chapitre 1. Variables aléatoires réelles 10

Exemple B :
Dans l’exemple B précédent, le graphe de la fonction de répartition est donné
comme suit :

5. Moments d’une v.a.

5..1 Espérance mathématique

L’espérance mathématique d’une v.a X est la moyenne de ses valeurs. Elle est notée E(X).
X
• v.a.discrète : Si X est une v.a.d, alors : E(X) = k P(X = k)
k∈X(Ω)

Z +∞
• v.a.continue : Si X est une v.a.c de densité f , alors : E(X) = t . f (t) dt
−∞

Exemple A :
Dans l’exemple A précédent :

1 3 3 1
E(X) = 0. + 1. + 2. + 3. = 1, 5
8 8 8 8

Exemple B :
Dans l’exemple B précédent :
Z +∞ Z 0 Z +∞
E(X) = t . f (t) dt = t . 0 dt + t . e−t dt
−∞ −∞ 0

L. Kara-Zaïtri
Chapitre 1. Variables aléatoires réelles 11

( (
U =t dU = 1
Par parties : =⇒
dV = e−t V = −e−t
Z +∞ +∞
+∞
[−t . e−t ]0 e−t dt = −e−t 0 = 1

=⇒ E(X) = +
0

Propriétés :
Si X et Y sont deux v.a.r sur (Ω, P(Ω), P) :

• X admet une espérance ⇔ E(X) < +∞


• ∀a ∈ R , E(a) = a
• E(X + Y ) = E(X) + E(Y )
• Soit φ une fonction continue :
X
— Si X v.a.d : E (φ(X)) = φ(k) P(X = k)
k∈X(Ω)
Z +∞
— Si X v.a.c : E (φ(X)) = φ(t) f (t) dt
−∞
• ∀a , b ∈ R , E(aX + b) = aE(X) + b

5..2 Variance

La variance d’une v.a.r X est notée var(X), et est donnée par :

Var(X) = E (X − E(X))2
 

Formule de Huygens :

Var(X) = E (X − E(X))2
 

= E X 2 − 2XE(X) + (E(X))2
 

= E (X 2 ) − E [2XE(X)] + E (E(X))2
 

= E (X 2 ) − 2 (E(X))2 + (E(X))2
= E (X 2 ) − (E(X))2

Ainsi , Var(X) = E (X 2 ) − (E(X))2

L. Kara-Zaïtri
Chapitre 1. Variables aléatoires réelles 12

Exemple A :
Dans l’exemple A précédent :

1 3 3 1
E(X 2 ) = 02 . + 12 . + 22 . + 32 . = 3
8 8 8 8

=⇒ Var(X) = 3 − (1.5)2 = 0.75

Exemple B :
Dans l’exemple B précédent :
Z +∞ Z 0 Z +∞
2
E(X ) = 2
x . f (x) dx = 2
x . 0 dx + x2 . e−x dx
−∞ −∞ 0
( (
U = x2 dU = 2x
Par parties : =⇒
dV = e−x V = −e−x
Z +∞
+∞
2
=⇒ E(X ) = [−x 2
. e−x ]0 +2 x . e−x dx = 2 . E(X) = 2
0

=⇒ Var(X) = 2 − (1)2 = 1

Propriétés :
Si X et Y sont deux v.a.r sur (Ω, P(Ω), P) :

• X admet une variance ⇔ E(X) < +∞ et E(X 2 ) < +∞.


• Var(x) ≥ 0 .
• ∀a ∈ R , Var(a) = 0 .
• ∀a , b ∈ R , Var(aX + b) = a2 Var(X) .
• Si X et Y sont indépendantes, alors :∀a , b , c ∈ R :

Var(aX + bY + c) = a2 Var(X) + b2 Var(Y )

5..3 Écart-type

L’écart-type d’une v.a.r X est noté σ(X), et est donné par :


p
σ(X) = Var(X)

L. Kara-Zaïtri
Chapitre 1. Variables aléatoires réelles 13

Exemple A :

Dans l’exemple A précédent : σ(X) = 0.75 = 0.87

Exemple B :

Dans l’exemple B précédent : σ(X) = 1=1

Définitions. — Soit X une variable aléatoire réelle.


• Si E(X) = 0, alors X est une variable centrée.
• Si σ(X) = 1, alors X est une variable réduite.
• Pour centrer X : X ∗ = [X − E(X)] .
• Pour réduire X : X ∗ = [X / σ(X)] .
• Pour centrer et réduire X : X ∗ = [(X − E(X)) / σ(X)] .
Remarque. — La variable X de l’exemple B est une variable réduite mais pas centrée.

5..4 Moments d’ordre r

Soit r ∈ N∗ :

1. Moment simple : Le moment simple d’ordre r de la v.a.r X, noté µr (X) est donné
par :
µr (X) = E( X r )

2. Moment centré : Le moment centré d’ordre r de la v.a.r X, noté mr (X) est donné
par :
mr (X) = E ( [X − E(X)]r )

Exemple A :
Dans l’exemple A précédent, le moment simple d’ordre 3 :

1 3 3 1
µ3 (X) = E(X 3 ) = 03 . + 13 . + 23 . + 33 . = 6.75
8 8 8 8

L. Kara-Zaïtri
Chapitre 1. Variables aléatoires réelles 14

Le moment centré d’ordre 3 :

E [X − E(X)]3

m3 (X) =
1 3 3 1
= (0 − 1.5)3 . + (1 − 1.5)3 . + (2 − 1.5)3 . + (3 − 1.5)3 .
8 8 8 8
= 0

Exemple B :
Dans l’exemple B précédent, le moment simple d’ordre 3 :
Z +∞ Z 0 Z +∞
µ3 (X) = E(X ) = 3 3
x . f (x) dx = 3
x . 0 dx + x3 . e−x dx
−∞ −∞ 0
( (
U = x3 dU = 3x2
Par parties : =⇒
dV = e−x V = −e−x
Z +∞
+∞
3
=⇒ E(X ) = [−x 3
. e−x ]0 +3 x2 . e−x dx = 3 . E(X 2 ) = 6
0

Le moment centré d’ordre 3 :

Z +∞
3
(x − E(X))3 . f (x) dx

m3 = E [X − E(X)] =
−∞

Z +∞ Z +∞
3 −x
x3 − 3x2 + 3x − 1 . e−x dx

= (x − 1) . e dx =
0 0

Z +∞ Z +∞ Z +∞ Z +∞
3 −x 2 −x −x
= xe dx − 3 xe dx + 3 xe dx − e−x dx
0 0 0 0

= E(X 3 ) − 3E(X 2 ) + 3E(X) − 1

= 6−3×2+3×1−1=2

L. Kara-Zaïtri
Chapitre 1. Variables aléatoires réelles 15

5..5 Fonction génératrice des moments

La fonction génératrice des moments nous permet d’avoir tous les moments simples d’ordre
r , ∀r ∈ N∗ . Elle est notée gX (t) et est donnée par :

gX (t) = E etX


Le moment simple d’ordre r est donné par :

dr gX (t)
µr (X) = |t=0
dtr

Exemple A :
Dans l’exemple A précédent, la fonction génératrice des moments est donnée par :

X 1 0
etk P(X = k) = e + 3et + 3e2t + e3t .
 
gX (t) = E etX =
8
k∈X(Ω)

dgX (t) 1
3et + 6e2t + 3e3t

• =
dt 8
1
3e0 + 6e2×0 + 3e3×0 = 1.5

=⇒ E(X) =
8

d2 gX (t) 1 t 2t 3t

• = 3e + 12e + 9e
dt2 8
1
3e0 + 12e2×0 + 9e3×0 = 3
2

=⇒ E(X ) =
8

d3 gX (t) 1 t 2t 3t

• = 3e + 24e + 27e
dt3 8
1
3e0 + 24e2×0 + 27e3×0 = 6.75
3

=⇒ E(X ) =
8

Exemple B :
Dans l’exemple B précédent, la fonction génératrice des moments est donnée par :

L. Kara-Zaïtri
Chapitre 1. Variables aléatoires réelles 16

Z +∞ Z 0 Z +∞
tx tx
etx . e−x dx
tX

gX (t) = E e = e . f (x) dx = e . 0 dx +
−∞ −∞ 0

Z +∞   +∞
(t−1)x 1 (t−1)x
= e dx = e
0 t−1 0

  
 − 1
si t − 1 < 0
= t−1
+∞ si t − 1 ≥ 0

1
=⇒ gX (t) = (puisque t va prendre ensuite la valeur 0)
1−t

dgX (t) d
• = (1 − t)−1 = (1 − t)−2
dt dt
=⇒ E(X) = (1 − 0)−2 = 1

d2 gX (t) d
• 2
= (1 − t)−2 = 2 (1 − t)−3
dt dt
=⇒ E(X 2 ) = 2 (1 − 0)−3 = 2

d3 gX (t) d
• 3
= 2 (1 − t)−3 = 6 (1 − t)−4
dt dt
=⇒ E(X 3 ) = 6 (1 − 0)−4 = 6

5..6 Inégalités

Soit X une v.a.r qui admet une espérance.


1. Inégalité de Markov : Si X(Ω) ⊂ R+ :

E(X)
∀c > 1 , P(X ≥ c) ≤
c

2. Inégalité de Bienaymé-Tchebychev : Si X admet une variance :

var(X)
∀c > 1 , P (|X − E(X)| ≥ c) ≤
c2

L. Kara-Zaïtri
Lois de probabilité usuelles discrètes

Chapitre 2

1. Loi uniforme discrète :

Soit n ∈ N∗ .
On dit que la v.a X suit la loi uniforme discrète sur l’ensemble {k1 , k2 , · · · , kn } si les ki sont
équiprobables. Autrement dit :
1
X(Ω) = {k1 , k2 , · · · , kn } et ∀k ∈ X(Ω) : P(X = ki ) =
n
On note X ; U {k1 , k2 , · · · , kn } .

Exemple :
Une urne contient quatre boules numérotées : 0 , 3 , 7 et 10. On tire au hasard
une boule de l’urne et on considère la v.a X qui donne le numéro de la boule
tirée de l’urne, alors X ; U {0, 3, 7, 10}

Propriétés

1. si X ; U {a, a + 1, a + 2, · · · , b}, alors :


a+b (b − a)(b − a + 2)
E(X) = et V ar(X) = .
2 12
2. si X ; U {1, 2, 3, · · · , n}, alors :
n+1 n2 − 1
E(X) = et Var(X) = .
2 12

Exemple 1 :
Une urne contient trois boules numérotées : 4 , 5 et 6. Soit la v.a X qui donne le
numéro de la boule tirée de l’urne, alors X ; U {4, 5, 6} et :
4+6 (6 − 4)(6 − 4 + 2) 2
E(X) = =5 et Var(X) = =
2 12 3

L. Kara-Zaïtri
Chapitre 2. Lois de probabilité usuelles discrètes 18

Exemple 2 :
On lance un dé bien équilibré et on considère la v.a. X qui donne le numéro
obtenu, alors X ; U {1, 2, 3, 4, 5, 6} et :

1+6 62 − 1 35
E(X) = = 3.5 et Var(X) = =
2 12 12

2. Loi de Bernoulli de paramètre p

Soit p ∈ [0, 1].


On dit que la v.a X suit la loi de Bernoulli de paramètre p, si elle n’admet que deux résultats
possibles :
• le succès qui prend la valeur 1 avec une probabilité p ,
• l’échec qui prend la valeur 0 avec une probabilité q (où q = 1 − p).
Autrement dit :
(
p si k = 1
X(Ω) = {0, 1} et P(X = k) =
1−p si k = 0

On note X ; B(p) .

Propriété

si X ; B(p), alors :
E(X) = p et Var(X) = pq.

Exemple 1 :
Une urne contient deux boules blanches, trois noires et une rouge. On tire une
boule au hasard et on cherche à avoir la couleur blanche.
Soit X la v.a qui dit si la couleur obtenue est blanche.
2 1
• Si la boule tirée est blanche : X = 1 =⇒ P(X = 1) = = ,
6 3
1 2
• Si la boule tirée n’est pas blanche : X = 0 =⇒ P(X = 0) = 1 − = .
3 3
1 1 1 2 2
Donc X ; B( ) et E(X) = et Var(X) = × = .
3 3 3 3 9

L. Kara-Zaïtri
Chapitre 2. Lois de probabilité usuelles discrètes 19

Exemple 2 :
On lance un dé bien équilibré et on cherche à obtenir la face 4.
Soit X la v.a qui dit si la face obtenue est 4.
1
• Si la face obtenue est 4 : X = 1 =⇒ P(X = 1) = ,
6
1 5
• Si la face obtenue n’est pas 4 : X = 0 =⇒ P(X = 0) = 1 − = .
6 3
1 1 1 5 5
Donc X ; B( ) et E(X) = et Var(X) = × = .
6 6 6 6 36

3. Loi Binomiale de paramètres n et p

Soient n ∈ N∗ et p ∈ [0, 1].


On dit que la v.a X suit la loi Binomiale de paramètres n et p, si elle donne le nombre
de succès quand on répète n fois une expérience de Bernoulli de paramètre p de manières
indépendantes.
On note X ; B(n, p) .

Propriétés

Si X ; B(n, p), alors :


• X(Ω) = {0, 1, 2, · · · , n},
• ∀k ∈ X(Ω) : P(X = k) = Cnk pk (1 − p)n−k ,
• E(X) = n p,
• Var(X) = n p q.

Exemple 1 :
Une urne contient deux boules blanches, trois noires et une rouge. On tire 10
boules au hasard et avec remise.
1. Donner la probabilité d’avoir 6 boules blanches au bout de 10 tirages.
2. Combien de boules blanches espère-t-on avoir ?
On définit la v.a. X qui donne le nombre de boules blanches obtenues. Puisque
à chaque tirage on a soit un succès (boule blanche) soit un échec (boule noir ou

L. Kara-Zaïtri
Chapitre 2. Lois de probabilité usuelles discrètes 20

rouge), et qu’on répète le tirage 10 fois de manières indépendantes (tirage avec


1
remise), alors X ; B(10, ).
3
 6  10−6
6 1 1
1. P(X = 6) = C10 × 1− = 0.0569
3 3
1 10
2. E(X) = 10 × = ,
3 3
1 2 20
Var(X) = 10 × × = .
3 3 9 r
10 20
Nous espérons donc avoir ± boules blanches (entre 1.84 et 4, 82
3 9
boules blanches).

Exemple 2 :
On lance un dé bien équilibré 20 fois de suite, quelle est la probabilité d’avoir 15
fois un nombre pair ?
Soit X la v.a. qui donne le nombre de fois qu’on obtient un nombre pair. Puisqu’à
3
chaque lancé, on obtient soit un nombre pair (avec une probabilité ) soit un
6
nombre impair, et qu’on répète l’expérience 20 fois de façons indépendantes,
1
alors X ; B(20, ).
2  
15 20−15
15 1 1
P(X = 15) = C20 1− = 0.0148
2 2

4. Loi Géométrique de paramètre p

Soit p ∈ [0, 1]. On dit que la v.a X suit la loi Géométrique de paramètre p, si elle donne le
nombre nécessaire de répétitions indépendantes d’une expérience de Bernoulli pour avoir un
succès. Autrement dit, X donne le rang du premier succès obtenu.
On note X ; G(p).

Propriétés

Si X ; G(p), alors :
• X(Ω) = {1, 2, 3, · · · } = N∗ ,
• ∀k ∈ X(Ω) : P(X = k) = q k−1 p ,

L. Kara-Zaïtri
Chapitre 2. Lois de probabilité usuelles discrètes 21

1
• E(X) = ,
p
q
• Var(X) = 2 .
p
• La loi Géométrique est une loi sans mémoire :

∀ k, ` ∈ N∗ où k > ` : P (X > k/X > `) = P (X > k − `)

Exemple 1 :
Une urne contient deux boules blanches, trois noires et une rouge. On tire avec
remise des boules au hasard jusqu’à obtention d’une boule blanche. Quelle est
la probabilité de devoir tirer 5 fois des boules de l’urne pour avoir une blanche ?
Donner l’espérance et la variance de cette expérience.
Soit la v.a. X qui donne le nombre de tirages nécessaires pour obtenir une boule
 
1
blanche. Puisque les tirages sont faits de manières indépendantes : X ; G
3
 5−1  
1 1
1. P(X = 5) = 1 − × = 0.0658
3 3
1 q 2/3
2. E(X) = = 3 et Var(X) = 2 = =6
p p (1/3)2

Exemple 2 :
On lance un dé bien équilibré jusqu’à ce qu’un chiffre premier apparaisse. Si au
troisième lancé on n’a toujours pas eu de chiffre premier, quelle est la prebabilité
de ne pas en avoir avant le sixième lancé ?
Lors d’un lancé de dé, les chiffres premiers que l’on peut obtenir sont : 2 , 3 et 5.
3 1
Donc la probabilité d’avoir un succés est = .
6 2
On considère la v.a. X qui donne le nombre de lancés nécessaires pour avoir un
1
nombre premier. Il est clair que X ; G
2
P(X ≥ 6/X > 3) = P(X > 5/X > 3) = P(X > 5 − 3) = P(X > 2)
= 1 − P(X ≤ 2) = 1 − (P(X = 1) + P(X = 2))
 1−1
1 1 1
On sait que : P(X = 1) = 1 − × =
2 2 2
 2−1
1 1 1
et que : P(X = 2) = 1 − × =
2 2 4
 
1 1 1
Donc P(X ≥ 6/X > 3) = 1 − + =
2 4 4

L. Kara-Zaïtri
Chapitre 2. Lois de probabilité usuelles discrètes 22

5. Loi Hypergéométrique de paramètres N , n et p

Soient N et n ∈ N∗ , et p ∈ [0, 1].


On dit que la v.a X suit la loi Hypergéométrique de paramètres N , n et p, si elle donne le
nombre de succès obtenus lorsqu’on tire sans remise n objets d’un ensemble de N objets où
la probabilité d’avoir un succès est p.
On note X ; H(N, n, p) .

Propriétés

Si X ; H(N, n, p), alors :


• X(Ω) ⊂ {0, 1, 2, · · · , n} ,
CNk p . CNn−k
q
• ∀k ∈ X(Ω) : P(X = k) = n
,
CN
• E(X) = n p ,
N −n
• Var(X) = n p q .
N −1

Remarque. — Soit la v.a X qui donne le nombre de succès obtenus lors de tirages de n
objets :
• Si le tirage est avec remise : X ; B(n, p)
• Si le tirage est sans remise ou simultané : X ; H(N, n, p)

Exemple :
On tire sans remise cinq boules au hasard d’une urne qui contient deux boules
blanches, trois noires et une rouge. Donner la probabilité de :
1. n’avoir aucune boule blanche,
2. avoir une boule blanche,
3. avoir 4 boules blanches.
Soit la v.a. X qui donne le nombre de boules blanches obtenues. Puisque le tirage
1
se fait sans remise : X ; H(6, 5, ).
3
On remarque dans cet exemple que X(Ω) = {1, 2}.
1. P(X = 0) = 0 car 0 ∈
/ X(Ω).

L. Kara-Zaïtri
Chapitre 2. Lois de probabilité usuelles discrètes 23

C21 . C44 2 1
2. P(X = 1) = 5
= =
C6 6 3
3. P(X = 4) = 0 car 4 ∈ / X(Ω).

6. Loi de Poisson de paramètre λ

Soit λ > 0.
On dit que la v.a X suit la loi de Poisson de paramètre λ, si elle donne le nombre de fois
qu’un événement se produit sur une periode donnée ( une surface, un volume), sachant que
cet événement se produit λ fois en moyenne sur cette même période (surface, volume).
On note X ; P(λ)

Propriétés

Si X ; P(λ), alors :
• X(Ω) = {0, 1, 2, · · · , } = N
λk
• ∀k ∈ X(Ω) : P(X = k) = e−λ
k!
• E(X) = λ
• Var(X) = λ .

Exemple :
Sur une autoroute on a enregistré en moyenne 4 accidents par semaine.
1. Quelle est la probabilité que la semaine prochaine il y ait trois accidents ?
2. Quelle est la probabilité qu’il y ait un accident aujourd’hui ?
Soit la v.a. X qui donne le nombre d’accidents par semaine. X ; P(4).
43
1. P(X = 3) = e−4 = 0.1954
3!
2. Soit la v.a. Y qui donne le nombre d’accidents par jour.
4
S’il y a en moyenne 4 accidents par semaine, il y a donc accidents par
7
jour.
4
Ainsi Y ; P( ).
7
(4/7)1
=⇒ P(Y = 1) = e−4/7 = 0.3227
1!

L. Kara-Zaïtri
Lois de probabilité usuelles continues

Chapitre 3

1. Loi uniforme continue

Soient a, b ∈ R tels que a < b.


On dit que la v.a X suit la loi uniforme continue sur [a, b] si elle admet pour densité de
probabilité la fonction :
1

 si x ∈ [a, b],
f (x) = b−a
 0 sinon.
On note X ; U[a, b] .

Propriétés

si X ; U[a, b], alors :

a+b (b − a)2
E(X) = et V ar(X) =
2 12

Exemple :

 1 si x ∈ [1, 3],

• Si f (x) = 2 alors X ; U[1, 3] .


 0 sinon.
(
1 si x ∈ [0, 1],
• Si f (x) = alors X ; U[0, 1] .
0 sinon.

2. Loi exponentielle

Soit λ > 0.
On dit que la v.a X suit la loi exponentielle de paramètre λ, si elle admet pour densité de

L. Kara-Zaïtri
Chapitre 3. Lois de probabilité usuelles continues 25

probabilité la fonction : (
λe−λx si x > 0,
f (x) =
0 sinon
On note X ; E(λ) .

Propriété

si X ; E(λ), alors :

1 1
E(X) = et V ar(X) =
λ λ2

Exemple :

(
e−x si x > 0,
• Si f (x) = alors X ; E(1)
0 sinon
 x
 1 − 1
e 2 si x > 0,

• Si f (x) = 2 alors X ; E( )
 2
 0 sinon

3. Loi Normale (Loi Gaussienne, Loi de Laplace-Gauss)

3..1 Loi Normale centrée et réduite

On dit que la v.a X suit la loi Normale centrée et réduite, si elle admet pour densité de
probabilité la fonction :
1 1 2
f (x) = √ e− 2 x , ∀x ∈ R.

On note X ; N (0, 1) .

Propriétés

si X ; N (0, 1), alors :

L. Kara-Zaïtri
Chapitre 3. Lois de probabilité usuelles continues 26

E(X) = 0 et V ar(X) = 1

Fonction de répartition

Soit X ; N (0, 1), donner sa fonction de répartition.


Z x
1 1 2
F (x) = √ e− 2 t dt =?
−∞ 2π
Nous ne pouvons pas calculer cette intégrale, mais nous pouvons la représenter graphique-
ment :

Cloche symétrique par rapport à l’axe des y .


Remarque. —
Si x < 0 : F (x) = P(X ≤ x) = P(X ≥ −x) = 1 − P(X < −x).

=⇒ ∀x < 0 : F (x) = 1 − F (−x)

La fonction de répartition de la loi Normale centrée réduite est donnée par le tableau suivant :

L. Kara-Zaïtri
Chapitre 3. Lois de probabilité usuelles continues 27

x 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
3,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990
3,1 0,9990 0,9991 0,9991 0,9991 0,9992 0,9992 0,9992 0,9992 0,9993 0,9993
3,2 0,9993 0,9993 0,9994 0,9994 0,9994 0,9994 0,9994 0,9995 0,9995 0,9995
3,3 0,9995 0,9995 0,9995 0,9996 0,9996 0,9996 0,9996 0,9996 0,9996 0,9997
3,4 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9998
Chapitre 3. Lois de probabilité usuelles continues 28

Exemple :
Soit X ; N (0, 1) :
1. P(X < 2.73) = 0, 9968
2. P(X < 5) = 1
3. P(X < −0.84) = 1 − P(X < 0.84) = 1 − 0, 7995 = 0.2005

3..2 Loi Normale de paramètres µ et σ

Soient µ ∈ IR et σ > 0.
On dit que la v.a X suit la loi Normale de paramètres µ et σ, si elle admet pour densité de
probabilité la fonction :
1 1 x−µ 2
f (x) = √ e− 2 ( σ ) , ∀x ∈ R.
σ 2π
On note X ; N (µ, σ)

Fonction de répartition

Cloche symétrique par rapport à l’axe (x = µ).


Pointue pour σ petit, aplatie pour σ grand. .

L. Kara-Zaïtri
Chapitre 3. Lois de probabilité usuelles continues 29

Propriétés

si X ; N (µ, σ), alors :


1. E(X) = µ .
2. V ar(X) = σ 2 .
X −µ
3. La v.a X ∗ = ; N (0, 1).
σ

Exemple :
Soit X ; N (5, 2) :
X −5 3.69 − 5
P(X < 3.69) = P( < ) = P(X ∗ < −0.65)
2 2
= 1 − P(X ∗ < 0.65) = 1 − 0.7422 = 0.2578

4. Loi Gamma

4..1 Fonction Gamma

C’est une fonction notée Γ et définie par :


Z +∞
∀α ∈ R , Γ(α) = xα−1 e−x dx
0

Propriétés

1. Γ(1) = 1 ,
2. ∀α ≥ 1 , Γ(α) = (α − 1).Γ(α − 1) ,
3. ∀n ∈ N∗ , Γ(n) = (n − 1)! .

4..2 Loi de probabilité Gamma

Soient a, b ∈ R∗+ .
On dit que la v.a X suit la loi Gamma de paramètres a et b, si elle admet pour densité de

L. Kara-Zaïtri
Chapitre 3. Lois de probabilité usuelles continues 30

probabilité la fonction :
ba a−1 −bx

 x e si x > 0,
f (x) = Γ(a)
0 sinon.

On note X ; G(a, b) .

Propriétés

si X ; G(a, b), alors :

b b
E(X) = et V ar(X) =
a a2

5. Loi du Khi deux

Soit n ∈ N∗ .
On dit que la v.a X suit la loi du Khi deux à n degrés de liberté, si elle admet pour densité
de probabilité la fonction :
 n 1
− x
 x n2 e 2 si x ≥ 0,

f (x) = 2 2 Γ( n2 )

 0 sinon.

On note X ; Xn2 .

Propriétés

si X ; Xn2 , alors :

E(X) = n et V ar(X) = 2n

Remarque. —

1. Si X ; G(1, b) , alors X ; E(b) ,


2. Si X ; G( 21 , n2 ) , alors X ; Xn2 ,

L. Kara-Zaïtri
Chapitre 3. Lois de probabilité usuelles continues 31

3. Si X ; G(a, b) et Y ; G(a, c), et si X et Y sont indépendantes, alors


X + Y ; G(a, b + c) ,
4. Si X ; Xn2 et Y ; Xm2 , alors X + Y ; Xn+m
2
.

L. Kara-Zaïtri
Approximations de lois usuelles

Chapitre 4

1. Approx. de la loi hypergéométrique par la loi de Bi-


nomiale

Soit X ; H(N, n, p) .
n
Si ≤ 10%, nous pouvons approcher la loi hypergéométrique H(N, n, p) par la loi Binomiale
N
B(n, p) .

Exemple :
On extrait simultanément 20 boules d’une urne qui en contient 1000. Si on sait
que 20% des boules sont rouges, calculer la probabilité d’avoir 3 boules rouges de
deux façons différentes.
X ; H(1000, 20, 0.2) .
3 17
C200 C800
Méthode 1 : P(X = 3) = 20
= 0.2064 .
C1000
n 20
Méthode 2 : Puisque : = = 0.02 ≤ 10% :
N 1000

X ; B(20, 0.2) et 3
P(X = 3) = C20 (0.2)3 (0.8)17 = 0.2053 .
L’approximation a commis une erreur de 10−3 .

2. Approx. de la loi Binomiale par la loi de Poisson

Soit X ; B(n; p) .
Si n ≥ 30 ; p ≤ 0, 1 et np ≤ 15, nous pouvons approcher la loi Binomiale B(n; p) par la loi
de Poisson P(np) .

Exemple :
On extrait d’une urne 200 boules avec remise. Si on sait que 2% des boules sont
rouges, quelle est la probabilité d’avoir 3 boules rouges ?

L. Kara-Zaïtri
Chapitre 4. Approximations de lois usuelles 33

X ; B(200, 0.02) .
3
Méthode 1 : P(X = 3) = C200 (0.02)3 (0.98)197 = 0.1963 .

 n = 200 ≥ 30


Méthode 2 : Puisque : p = 0.02 ≤ 0, 1 :

 np = 4 ≤ 15

43
X ; P(4) et P(X = 3) = e−4 = 1953 .
3!
L’approximation a commis une erreur de 10−3 .

3. Approx. de la loi Binomiale par la loi Normale

Soit X ; B(n; p) .
Si n ≥ 30 ; np ≥ 15 et npq ≥ 5, nous pouvons approcher la loi Binomiale B(n; p) par la loi

Normale N (np ; npq) .

Correction de continuité

1
• Pour approcher P (X = k) avec la loi Normale, il faut calculer P (k − 2
< X ≤ k + 21 ) ,
1
• De même, pour calculer P (a ≤ X ≤ b), il faut calculer P (a − 2
< X ≤ b + 12 )

Exemple :
On extrait d’une urne 200 boules avec remise. Si on sait que 20% des boules sont
rouges :
1. Calculer la probabilité d’avoir 50 boules rouges :
X ; B(200, 0.2) .
50
Méthode 1 : P(X = 50) = C200 (0.2)50 (0.8)150 =? .

 n = 200 ≥ 30


Méthode 2 : Puisque np = 40 ≥ 15 : X ; N (40, 5.66) et

 npq = 32 ≥ 5

L. Kara-Zaïtri
Chapitre 4. Approximations de lois usuelles 34

P(X = 50) = P(49.5 < X ≤ 50.5) = P(X ≤ 50.5) − P(X ≤ 49.5)

X − 40 50.5 − 40 X − 40 49.5 − 40
= P( ≤ ) − P( ≤ )
5.66 5.66 5.66 5.66

= P(X ∗ ≤ 1.85) − P(X ∗ ≤ 1.68) = 0.9678 − 0.9535

=⇒ P(X = 50) = 0.0143

2. quelle est la probabilité d’avoir au moins 50 boules rouges ?

X − 40 50.5 − 40
P(X ≤ 50) = P(X < 50.5) = P( < ) = P(X ∗ < 1.85)
5.66 5.66

=⇒ P(X ≤ 50) = 0.9678

L. Kara-Zaïtri
Fonction génératrice des moments

Complément de cours

La fonction génératrice des moments, notée gX (t), est donnée par :

gX (t) = E etX


Propriétés

1. gX (0) = 1 ,
dr gX (t)
2. Pour r ∈ IN∗ : µr (X) = E (X r ) = dtr
|t=0 ,
3. Si X et Y sont deux v.a. telles que : ∀t , gX (t) = gY (t), alors les deux variables ont la
même distribution.

Exemple :
Donner la fonction génératrice des moments de la variable X, et en déduire
l’espérance et la variance pour chaque cas :

1. X ; B(n; p) ;
2. X ; G(p) ;
3. X ; P(λ) ;
4. X ; E(λ) ;
5. X ; N (0, 1) .

Solution :

1. X ; B(n; p) :

n n n
X
tk
X
tk
X k
Cnk pk q n−k Cnk pet q n−k
tX

• gX (t) = E e = e P(X = k) = e =
k=0 k=0 k=0

L. Kara-Zaïtri
Chapitre 4. Complément de cours : Fonction génératrice des moments 36

n
X
n
Rappelons que d’après le binôme de Newton : (a + b) = Cnk ak bn−k
k=0

n
Ainsi : gX (t) = (pet + q)

dgX (t) n−1


• = n(pet ) pet + q =⇒ E(X) = np (p + q)n−1
dt
=⇒ E(X) = np ( car p + q = 1 )

d2 gX (t) t t
n−1 t t t
n−2
• = n(pe ) pe + q + n(pe )(n − 1)(pe ) pe + q
dt2

=⇒ E(X 2 ) = np (p + q)n−1 + n(n − 1)p2 (p + q)n−2 = np + n2 p2 − np2


=⇒ V ar(X) = E(X 2 ) − (E(X))2 = np + n2 p2 − np2 − (np)2
= np − np2 = np(1 − p)
=⇒ V ar(X) = npq

2. X ; G(p) :
+∞ +∞ +∞
 X X X k
• gX (t) = E etX = etk P(X = k) = etk q k−1 p = pq −1 qet
k=1 k=1 k=1
Suite géométrique de raison qet , donc :

1 − (qet )∞
 
p p
gX (t) = t
=
q 1 − qe q(1 − qet )

qet
   
dgX (t) p p q p
• = t
=⇒ E(X) = = 2
dt q (1 − qe ) 2 q (1 − q)2 p
1
=⇒ E(X) =
p

d2 gX (t) p qet (1 − qet )2 − qet (−2qet )(1 − qet )


 
• =
dt2 q (1 − qet )4
p q(1 − q)2 + 2q 2 (1 − q) qp3 + 2q 2 p2
 
2 p + 2q
=⇒ E(X ) = = =
q (1 − q) 4 qp4 p2

1+q
Donc E(X 2 ) = ( car p + 2q = p + q + q = 1 + q )
p2  2
2 2 1+q 1
=⇒ V ar(X) = E(X ) − (E(X)) = 2

p p
q
=⇒ V ar(X) =
p2

L. Kara-Zaïtri
Chapitre 4. Complément de cours : Fonction génératrice des moments 37

3. X ; P(λ) :
+∞ +∞ k +∞
tX
 X
tk
X
tk −λ λ −λ
X (λet )k
• gX (t) = E e = e P(X = k) = e e =e
k=0 k=0
k! k=0
k!

Rappelons que le développement limité de la fonction exponentielle est :


+∞ k
x
X x
e =
k=0
k!

t t
donc gX (t) = e−λ eλe = e−λ(1−e )

dgX (t) t t
• = λet e−λ(1−e ) = λe−λ(1−e )+t =⇒ E(X) = λ
dt
d2 gX (t) t
= λ λet + 1 e−λ(1−e )+t =⇒ E(X 2 ) = λ2 + λ

• 2
dt

=⇒ V ar(X) = E(X 2 ) − (E(X))2 = λ2 + λ − λ2 = λ

4. X ; E(λ) :
Z +∞ Z +∞ Z +∞
−λx
tx tx
e−x(λ−t) dx
tX

• gX (t) = E e = e f (x)dx = e λe dx = λ
−∞ 0 0

+∞ +∞
e−x(λ−t)
Z 
−x(λ−t)
=λ e dx = λ
0 −(λ − t) 0

λ
donc gX (t) =
λ−t

dgX (t) λ 1
• = =⇒ E(X) =
dt (λ − t)2 λ
d2 gX (t) 2(λ − t) 2λ 2
• = λ =⇒ E(X 2 ) = λ 4 = 2
dt2 (λ − t)4 λ λ
 2
2 2 2 1 1
=⇒ V ar(X) = E(X ) − (E(X)) = 2 − = 2
λ λ λ

5. X ; N (0, 1) :
Z +∞ Z +∞
1 2
tx
etx √ e−x /2 dx
tX

• gX (t) = E e = e f (x)dx =
−∞ −∞ 2π
Z +∞ Z +∞
1 − 21 (x2 −2tx+t2 −t2 ) t2 1 1 2
= √ e dx = e 2 √ e− 2 (x−t) dx
−∞ 2π −∞ 2π

L. Kara-Zaïtri
Chapitre 4. Complément de cours : Fonction génératrice des moments 38

On remarque que l’intégrale ressemble à celle d’une densité d’une loi


normale centrée réduite, il suffit juste de prendre y = x − t =⇒ dy = dx
Z +∞
t2 1 1 2 t2
=⇒ gX (t) = e 2 √ e− 2 y dy =⇒ gx (t) = e 2
Z +∞ −∞ 2π
1 − 1 y2
(car √ e 2 dy = 1)
−∞ 2π
dgX (t) t2
• = te 2 =⇒ E(X) = 0
dt
2
d gX (t) t2
2 t
2
2
• = e 2 + t e 2 =⇒ E(X ) = 1
dt2

=⇒ V ar(X) = E(X 2 ) − (E(X))2 = 1 − 0 = 1

L. Kara-Zaïtri
Fonction génératrice des probabilités

Complément de cours

Soit X une variable aléatoire à valeurs dans IN.

La fonction génératrice des probabilités de X, souvent appelée "fonction génératrice", est


notée GX (t) et est donnée par :
GX (t) = E tX


Propriétés

(r)
G (0)
1. ∀r ∈ X(Ω) , P (X = r) = X ,
r!
2. GX (1) = 1 ,
dr GX (t)
3. Pour r ∈ IN∗ : dtr
|t=1 = E (X(X − 1)(X − 2)....(X − r + 1)) ,
4. E (X) = G0X (1) , et var(X) = G00X (1) + G0X (1) − (G0X (1))2 ,
5. Si X et Y sont deux v.a. telles que : ∀t , GX (t) = GY (t), alors les deux variables ont
la même distribution.

Exemple :
Donner la fonction génératrice de la variable X, et en déduire l’espérance et la
variance pour chaque cas :

1. X ; B(n; p) ;
2. X ; G(p) ;
3. X ; P(λ) .

Solution :

1. X ; B(n; p) :

L. Kara-Zaïtri
Chapitre 4. Complément de cours : Fonction génératrice des probabilités 40

n
X n
X n
X
k k
Cnk pk q n−k Cnk (tp)k q n−k
X

• GX (t) = E t = t P(X = k) = t =
k=0 k=0 k=0
n
X
Rappelons que d’après le binôme de Newton : (a + b)n = Cnk ak bn−k
k=0

Ainsi : GX (t) = (tp + q)n

dGX (t)
• = np (tp + q)n−1 =⇒ E(X) = np (p + q)n−1
dt
=⇒ E(X) = np ( car p + q = 1 )

d2 GX (t)
• = n(n − 1)p2 (tp + q)n−2
dt2

=⇒ E (X(X − 1)) = n(n − 1)p2 (p + q)n−2


=⇒ E(X 2 ) − E(X) = n2 p2 − np2
=⇒ E(X 2 ) = n2 p2 − np2 + E(X) = n2 p2 − np2 + np
=⇒ V ar(X) = n2 p2 − np2 + np − (np)2 = np(1 − p) = npq

2. X ; G(p) :
+∞
X +∞
X +∞
X
k k k−1 −1
(tq)k
X

• GX (t) = E t = t P(X = k) = t q p = pq
k=1 k=1 k=1
Suite géométrique de raison tq, donc :

1 − (tq)∞
 
p p
GX (t) = =
q 1 − tq q(1 − tq)
 
dGX (t) p q p p p
• = = =⇒ E(X) = = 2
dt q (1 − tq) 2 (1 − tq)2 (1 − q) 2 p
1
=⇒ E(X) =
p

d2 GX (t) 2pq(1 − tq) 2pq


• = =
dt2 (1 − tq)4 (1 − tq)3
2pq
=⇒ E (X(X − 1)) =
(1 − q)3
2pq
=⇒ E(X 2 ) − E(X) = 3
p
2q 2q 1
=⇒ E(X 2 ) = 2 + E(X) = 2 +
p  p2 p
2q 1 1 q + (q + p) − 1 q
=⇒ V ar(X) = 2 + − = 2
= 2
p p p p p

L. Kara-Zaïtri
Chapitre 4. Complément de cours : Fonction génératrice des probabilités 41

3. X ; P(λ) :
+∞ +∞ k +∞
X
 X
k
X
k −λ λ −λ
X (λt)k
• GX (t) = E t = t P(X = k) = t e =e
k=0 k=0
k! k=0
k!

Rappelons que le développement limité de la fonction exponentielle est :


+∞ k
x
X x
e =
k=0
k!

donc GX (t) = e−λ eλt = e−λ(1−t)

dGX (t)
• = λe−λ(1−t) =⇒ E(X) = λ
dt
d2 GX (t)
• = λ2 e−λ(1−t) =⇒ E (X(X − 1)) = λ2
dt2

=⇒ E(X 2 ) = λ2 + E(X) = λ2 + λ
=⇒ V ar(X) = λ2 + λ − λ2 = λ

L. Kara-Zaïtri
Transformations de variables aléatoires

Chapitre 5

1. Transformations de variables aléatoires discrètes :

Soit X une v.a. discrète, et soit Y = φ(X), où φ est une fonction continue sur X(Ω).

Pour définir la loi de probabilité de Y , il suffit de donner :

• Y (Ω) = {y1 , y2 , ...., yn } = {φ(x1 ), φ(x2 ), ...., φ(xn )}.


• Pour chaque yj ∈ Y (Ω) : P(Y = yj ) = P(φ(X) = yj ) = P(X = φ−1 (yj )).

Exemple :
Soit la v.a X donnée par le tableau :

x -2 -1 0 1 2
P(X = x) 1/9 3/9 2/9 1/9 2/9

Donner la loi de probabilité de la variable Y = X 2 .

Solution :

• Y (Ω) = ?

x -2 -1 0 1 2
y = x2 4 1 0 1 4

=⇒ Y (Ω) = {0, 1, 4}

• P(Y = 0) = P(X 2 = 0) = P(X = 0) = 2/9


P(Y = 1) = P(X 2 = 1) = P(X = −1) + P(X = 1) = 3/9 + 1/9 = 4/9
P(Y = 4) = P(X 2 = 4) = P(X = −2) + P(X = 2) = 1/9 + 2/9 = 3/9

L. Kara-Zaïtri
Chapitre 5. Transformations de variables aléatoires 43

Ainsi, la loi de probabilité de la variable Y est donnée par :

y 0 1 4
P(Y = y) 2/9 4/9 3/9

2. Transformations de variables aléatoires continues :

Soit X une v.a. continue, et soit Y = φ(X), où φ est une fonction continue sur X(Ω).

Pour définir la loi de probabilité de Y , il suffit de :

• Calculer sa fonction de répartition :

FY (y) = P(Y ≤ y) = P(φ(X) ≤ y) ,

• En déduire sa densité de probabilité :

dFY (y)
fY (y) =
dy

Exemple :
Soit la v.a X définie par sa densité de probabilité comme suit :
(
2x si 0<x<1
f (x) =
0 sinon

Donner la loi de probabilité de Y = 1/X.

Solution :      
1 1 1
FY (y) = P(Y ≤ y) = P ≤y =P X≥ =1−P X <
X y y

 
1
=⇒ FY (y) = 1 − FX
y

  
d d 1
=⇒ FY (y) = 1 − FX
dy dy y

L. Kara-Zaïtri
Chapitre 5. Transformations de variables aléatoires 44

 
   1 2 1

1 1 2
si 0 < < 1
=⇒ fY (y) = 2 .fX = y y y
y y
0 sinon

 2 si y > 1

=⇒ fY (y) = y3
0 sinon

L. Kara-Zaïtri