Vous êtes sur la page 1sur 1

1.

Probabilités et Variables Aléatoires


Si les événements élémentaires sont équiprobables, E étant l’ensemble des événements de cardinal n
card(A)
∀ A ⊂ E(n), p(A) = n

Théorème des probabilités totales


p(A ⋃ B) = p(A) + p(B) - p(A ⋂ B)
Si les événements sont incompatibles alors p(A ⋃ B) = p(A) + p(B)
Axiome des probabilités conditionnelles
p(X⋂A)
p(X *A) = p(A)

Théorème des probabilités composées


p(A ⋂ B) = p(A) × p(B / A)
Si les événements sont indépendants alors p(A ⋂ B) = p(A) × p(B)
Loi de Bernoulli
Soit une urne contenant des boules rouges (X = 1), en proportion ϖ et des boules blanches (X = 0), en proportion 1 - ϖ ;
on tire une boule, alors :
p(X = 1) = ϖ ; p(X = 0) = 1 - ϖ
Loi binomiale (tirage non exhaustif)
On tire successivement n boules, avec remise, dans une urne contenant des boules rouges et blanches, les boules rouges en
proportion ϖ (les boules blanches en proportion 1 - ϖ). Alors, la probabilité d’obtenir k boules rouges est égale à :
n
p(K = k) =   ϖk (1 - ϖ)n-k
k
Loi hypergéométrique (tirage exhaustif)
On tire n boules, sans remise, dans une urne contenant N boules parmi lesquelles R boules rouges et N - R boules
blanches. Alors la probabilité d’obtenir k boules rouges est égale à :
R N-R
  
k n-k
p(K = k) = N
 
n

Loi de Poisson
La densité de probabilité de la loi de Poisson est égale à :
λk
p(K = k) = e-λ k!

Elle constitue également la limite de la loi binomiale quand n → ∞, ϖ → 0 et n ϖ = λ fini (en pratique n > 50 et ϖ < 0.1).
Espérance mathématique (!)
Loi de Bernouilli : 8(X) = ϖ
Loi binomiale : 8(X) = n ϖ
Loi de Poisson : 8(X) = λ
Loi hypergéométrique : 8(X) = n ϖ
Théorème de Bayes
Soit un événement B dont la réalisation dépend de l'une des causes Ai alors :
p(Ai )×p(B/Ai )
p(Ai *B) =
∑k p(Ak )×p(B/Ak )

www.thierry-verdel.com