Académique Documents
Professionnel Documents
Culture Documents
Toufik Chaayra
Département : Mathématiques
Filière : SMA - S6
Module : M33
Année universitaire : 2021/2022
22 Avril, 2022
Toufik Chaayra Faculté pluridiscilinaire, Nador SMA S6 1 / 57
Lois Discrètes de probabilités - Loi de Dirac
Soit a un nombre fixé. Soit X une v.a. prenant la valeur a avec
P(X = a) = 1.
On appelle loi de Dirac au point a la probabilité δa avec
(
1 si x = a
δa (x) =
0 ̸ a
si x =
Sa fonction de répartition :
(
0 si x < a
F (x) =
1 si x ≥ a
E(X) = a
et sa variance est :
V(X) = 0
Toufik Chaayra Faculté pluridiscilinaire, Nador SMA S6 2 / 57
Lois Discrètes de probabilités - Loi Uniforme
n+1 n2 − 1
▶ E(X) = ▶ V(X) =
2 12
L’espérance et la variance :
n+1 6+1 n2 − 1 62 − 1
▶ E(X) = = = 3.5 ▶ V(X) = = = 2.91
2 2 12 12
X:Ω→R
ω 7→ {0, 1}
2
!
X
V(X) = x2i f (xi ) − E(X)2
i=1
= [(0 × q) + (1 × p)] − p2
= p − p2 = p(1-p) = pq
Sn : Ωn → R
n
X
Sn = Xi 7→ B(n, p)
i=1
Proposition :
L’espérance et la variance de la loi de binomiale sont égales
respectivement: E(X) = np et V(X) = np(1 − p)
La fonction génératrice des moments d’une loi de binomiale est:
n
tX t
MX (t) = E e = q − pe
Théorème :
Stabilité additive de la loi binomiale :
Si X → B(m; p) et Y → B(n; p) alors X + Y → B(n + m; p)
3 2
1 5
p = P(X = 3) =C53
6 6
250
= = 0, 032
7776
Proposition :
L’espérance et la variance de la loi de Poisson sont égales
respectivement: E(X) = λ et V(X) = λ
La fonction génératrice des moments d’une loi de Poisson est:
t −1
MX (t) = E e tX
= eλ(e )
Exemple:
e−4 40
1. P(X = 0) = = e−4 = 0, 018
0!
2.
P(X ≥ 3) = 1 − P(X ≤ 2)
= 1 − [P(X = 0) + P(X = 1) + P(X = 2)]
= 0, 762
3.
Proposition :
L’espérance et la variance de la loi géométrique sont égales
1 1−p
respectivement: E(X) = et V(X) =
p p2
La fonction génératrice des moments d’une loi géométrique est:
tX
p
MX (t) = E e =
1 − qet
Proposition :
L’espérance et la variance de la loi binomiale négative sont égales
1−p n
respectivement: E(X) = n et V(X) = 2 (1 − p)
p p
La fonction génératrice des moments d’une loi géométrique est:
n
p
MX (t) = E etX =
1 − qet
Résultat :
Si X1 , . . . , Xn sont des v.a. indépendantes suivent toutes la même loi
géométrique de paramètre p, alors leur somme suit une loi binomiale
négative de paramètres n et p.
1
, si a ≤ x ≤ b
fX (x) = b − a
0, sinon
On écrit : X ∼ U(a, b)
Sa fonction de répartition est :
0, si x < a
x−a
FX (x) = , si a ≤ x ≤ b
b − a
1, si x > b
Proposition :
L’espérance et la variance de la loi uniforme sont égales
(a + b) (b − a)2
respectivement: E(X) = et V(X) =
2 12
La fonction génératrice des moments d’une loi uniforme continue
sur un intervalle [a, b] est:
etb − eta
MX (t) = ; ( si t ̸= 0)
t(b − a)
MX (0) = 1
Proposition :
1 1
L’espérance: E(X) = et la variance: V(X) = 2 .
λ λ
La fonction génératrice des moments est donnée par :
h
tX
i λ
MX (t) = E e = , t<λ
λ−t
Toufik Chaayra Faculté pluridiscilinaire, Nador SMA S6 22 / 57
Lois Continues de probabilités - Loi Exponentielle
Champs d’application
1 λ
fX (x) = ; x ∈] − ∞, +∞[
π λ2 + (x − α)2
Une variable aléatoire X est dite suit une loi de probabilité loi de
log-normale de paramètres µ ∈ R∗+ et σ ∈ R∗+ si la v. a.
Y = ln X suit la loi normale d’espérance µ et d’écart-type σ.
Notée : X ∼ log N µ; σ 2 ⇐⇒ Y = ln (X) ∼ N µ, σ 2
Remarque :
1 La fonction génératrice des moments de la loi log-normale est non
définie pour les réels strictement positifs (x > 0).
2 En d’autres termes, la loi log-normale n’admet pas de fonction
génératrice des moments qui soit définie dans un intervalle ouvert
contenant x = 0.
3 Néanmoins, X admet des moments de tous les ordres entiers
positifs.
E(X) = n et V(X) = 2n
n
X
Z= Xi2 ∼ χ2n , est suit la loi de Student à n dégrées de
i=1
liberté, on écrit T ∼ tn , si sa densité est :
Toufik Chaayra Faculté pluridiscilinaire, Nador SMA S6 45 / 57
Lois Continues de probabilités - Loi de Student
1 1
fT (x) = √ n+1 ; x∈R
1 n
nB 2, 2 (1 + x2 ) 2
E(T ) = 0
Sa variance est :
n
V(T ) = , n>2
n−2
n n
1 n 2 t 2 −1
fF (t) = n m
m
n+m ; t ∈ R+
B 2, 2 1 + n
t 2
m
∂(x, y)
g(u, v) = f (x, y) = |J|f [x(u, v), y(u, v)]
∂(u, v)
1 0
g(x, z) = |J|f (x, z − x) = fX (x)fY (z − x) où J = =1
−1 1
z 1 0 1
g(x, z) = f x, |J| où J = =
x − xz2 1
x x
z 1
Donc g(x, z) = fX (x)fY et la densité de probabilité de Z
x x
s’écrit :
Z +∞ Z +∞
z 1
h(z) = g(x, z)dx = fX (x)fY dx
−∞ −∞ x x
Théorème :
Soit l’application Sn suivant une loi binomiale B(n, p). On suppose que
np → λ > 0. Alors Sn converge en loi vers une variable aléatoire de
Poisson de paramètre λ.
Autrement dit, pour tout k ∈ N on a:
e−λ λk
P (Sn = k) →
k!
k − np
La quantité t = √ suit une loi normale centrée réduite.
npq