Vous êtes sur la page 1sur 5

STT-1000

AIDE-MÉMOIRE POUR L’EXAMEN 1

Théorie des probabilités


Soit S, l’espace échantillonnal et A, B, C ∈ S, des ensembles.

• Opérations sur les ensembles:


- le complémentaire de A: A = {x : x ∈ S et x ∈
/ A}
- l’ intersection de A et B: A ∩ B = {x : x ∈ A et x ∈ B}
- l’ union de A et B: A ∪ B = {x : x ∈ A ou x ∈ B (ou les deux)}
• Propriétés des opérations:
- Lois de DeMorgan: A∪B = A∩B
A∩B = A∪B
- Lois associatives: A ∪ (B ∪ C) = (A ∪ B) ∪ C
A ∩ (B ∩ C) = (A ∩ B) ∩ C
- Lois distributives: A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
• Propriétés d’une probabilité:

– 0 ≤ P[A] ≤ 1
– P[∅] = 0 et P[S] = 1.
– A et B sont mutuellement exclusifs si et seulement si A ∩ B = ∅.
– A et B sont indépendants si et seulement si P[A ∩ B] = P[A] P[B].
S P
– Si A1 , A2 , A3 , ... sont mutuellement exclusifs, alors P[ i Ai ] = i P[Ai ].
– P[A] = 1 − P[A].
– Si A ⊂ B, alors P[A] ≤ P[B].
– P[A ∪ B] = P[A] + P[B] − P[A ∩ B].
– P[A ∪ B ∪ C] = P[A] + P[B] + P[C] − P[A ∩ B] − P[B ∩ C] − P[A ∩ C] + P[A ∩ B ∩ C].
– Dans le cas équiprobable (c’est-à-dire le cas où S est un ensemble fini et où chaque
élément de S a la même probabilité de se réaliser), on a P[A] = n(A)/n(S).

• Techniques de dénombrement:
- Permutations : ◦ il existe n! arrangements ordonnés de n éléments distincts;
n!
◦ il existe Prn = façons de choisir r objets parmi n objets
(n − r)!
en tenant compte de l’ordre.
n n!
- Combinaisons : ◦ il existe Crn = = façons de choisir r objets parmi
r r!(n − r)!
n objets sans tenir compte de l’ordre.

1
• Probabilités conditionnelles:
P[A ∩ B]
– P[A | B] = .
P[B]
– P[A ∩ B] = P[A] P[B | A] = P[B] P[A | B] (règle de multiplication)
– Si B1 , B2 , ..., Bk forment une partition de S, c’est-à-dire si B1 , B2 , ..., Bk sont mutuelle-
Sk
ment exclusifs et tels que Bi = S, alors
i=1
k
X
◦ P[A] = P[A|Bi ] P[Bi ]. (loi des probabilités totales)
i=1
P[A | Bj ] P[Bj ] P[A | Bj ] P[Bj ]
◦ P[Bj | A] = = Pk . (théorème de Bayes)
P[A] i=1 P[A|B i ] P[Bi ]

Variables aléatoires et distributions


Caractéristique Cas d’une variable discrète Cas d’une variable continue
X Rx
Répartition FX (x) = P[X ≤ x] = p(t) FX (x) = P[X ≤ x] = −∞ f (t)dt
−∞<t≤x
d
Masse/Densité pX (x) = P[X = x] fX (x) = FX (x)
dx
X Z b
Probabilité P[a < X ≤ b] = pX (x) P[a< X ≤b]= f (x)dx=FX (b)−FX (a)
a<x≤b a
X Z +∞
Espérance de X µ = E[X] = x p(x) µ = E[X] = x f (x)dx
x −∞
X Z +∞
Espérance de g(X) E[g(X)] = g(x) p(x) E[g(X)] = g(x) f (x)dx
x −∞

Variance de X σ 2 = Var[X] = E[(X − µ)2 ] = E[X 2 ] − µ2

• Soit X et Y des variables aléatoires et a et b des constantes. Alors,

E[aX + b] = aE[X] + b
V [aX + b] = a2 V [X]
V (X + Y ) = V (X) + V (Y ) Seulement si X et Y sont indépendantes.

2
Lois usuelles

Espérance Variance
Lois discrètes Fonction de masse µ σ2

Bernoulli (p) p(k) = pk (1 − p)1−k , pour k = 0, 1 p p(1 − p)


 
n
Binomiale (n, p) p(k) = pk (1 − p)n−k , pour k = 0, 1, . . . , n np np(1 − p)
k
1 1−p
Géométrique (p) p(k) = (1 − p)k−1 p, pour k = 1, 2, 3, . . .
p p2
 
k−1 r r r(1 − p)
Pascal (r, p) p(k) = p (1 − p)k−r , pour k = r, r + 1, . . .
r−1 p p2
λk
Poisson (λ) p(k) = e−λ , pour k = 0, 1, 2, . . . λ λ
k!

Densité de probabilité Espérance Variance


Lois continues (fonction de répartition pour Weibull) µ σ2
1 a+b (b − a)2
Uniforme (a, b) f (x) = , pour a ≤ x ≤ b
b−a 2 12
1 1
Exponentielle (λ) f (x) = λe−λx , pour x > 0
λ λ2
r r
Gamma (r, λ) f (x) = λ
Γ(r)
(λx)(r−1) e−λx
pour x > 0
"  λ λ2
β #
x−γ
Weibull (γ, β, δ) F (x) = 1 − exp − , pour x ≥ γ . .
δ
1 1 x−µ 2
Normale (µ, σ 2 ) f (x) = √ e− 2 ( σ ) , pour − ∞ < x < ∞ µ σ2
σ 2π

i.i.d. Pk
• Si X1 , . . . , Xk ∼ Bernoulli (p), alors X = i=1 Xi ∼ Binomiale(n, p).
i.i.d. Pk
• Si X1 , . . . , Xk ∼ Géométrique(p), alors X = i=1 Xi ∼ Pascal(r, p).
i.i.d. Pk
• Si X1 , . . . , Xk ∼ Exponentielle(λ), alors X = i=1 Xi ∼ Gamma(r, λ).
indep. Pk Pk
• Si X1 , . . . , Xk ∼ Poisson (λj ), alors X = i=1 Xi ∼ Poisson(λ) avec λ = j=1 λj .

indep. Pk Pk
• Si X1 , . . . , Xk ∼ Normale (µj , σj2 ), alors X = i=1 Xi ∼ Normale (µ, σ 2 ) avec µ = j=1 µj et
Pk
σ2 = 2
j=1 σj

3
Lois discrètes bidimensionnelles
p(x, y) = P ({X = x} ∩ {Y = y}) = P (X = x, Y = y)

• lois marginales
X
pX (x) = P (X = x) = p(x, y)
y
X
pY (y) = P (Y = y) = p(x, y)
x

• lois conditionnelles
p(x, y)
pX|Y =y (x) = P (X = x|Y = y) =
pY (y)
p(x, y)
pY |X=x (y) = P (Y = y|X = x) =
pX (x)

• Espérance conditionnelle
P
X
xxp(x, y)
E(X|Y = y) = xpX|Y =y (x) =
x
pY (y)
P
X yyp(x, y)
E(Y |X = x) = ypY |X=x (y) =
y
pX (x)

• Espérance de g(X, Y ) X
E[g(X, Y )] = g(x, y)p(x, y)
x,y

• Indépendance
X et Y sont indépendantes si et seulement si p(x, y) = pX (x)pY (y) pour tout (x, y).

• Covariance et Corrélation

Cov(X, Y ) = E{(X − E[X])(Y − E[Y ])} = E[XY ] − E[X]E[Y ]


Cov(X,Y)
ρ(X,Y ) = p − 1 ≤ ρ(X,Y ) ≤ 1
Var(X)Var(Y )

4
5

Vous aimerez peut-être aussi