Vous êtes sur la page 1sur 3

Méthodes pour l'étude d'une variable aléatoire

boilley.ovh/methodologie/variable-aleatoire.html

Lois de référence
On répertorie des lois de probabilités de référence, dépendant éventuellement d'un ou
plusieurs paramètres (a, b) ∈ Z2 tel que a < b, n ∈ N∗, λ ∈ R∗+.

Loi de
probabilité Notation Support P(X = k) Espérance Variance

Loi uniforme (⟦a, b⟧) ⟦a, b⟧ 1/(b − a + 1) (a + b)/2 ((b − a +


1)2 − 1)/12

Loi de ℬ(p) {0 ; 1} p si k = 1, p p(1 − p)


Bernoulli 1−p si k = 0

Loi binomiale ℬ(n, p) ⟦0 ; n⟧ (k parmi n) pk(1 np np(1 − p)


− p)n−k

Loi (p) N∗ (1 − p)k−1p 1/p (1 − p)/p2


géométrique

Loi de Poisson (λ) N λk/k! e−λ λ λ

De même, on a des lois de probabilité de référence pour les variables aléatoires à densité
avec les paramètres (a, b) ∈ R2 tel que a < b, λ ∈ R∗+, μ ∈ R, σ ∈ R∗+.

Loi de Fonction de
probabilité Notation Support densité Espérance Variance

Loi uniforme ([a, b]) [a, b] t ↦ 1/(b − a) (a + b)/2 (b − a)2/12

Loi ℰ(λ) R+ t ↦ λ e−λt 1/λ 1/λ2


exponentielle

Loi normale (μ, σ) R t ↦ 1/(σ√(2π)) μ σ2


exp(−(t −
μ)2/(2σ2))

Loi de Cauchy R t ↦ 1/(π (t2 + 1)) non définie non définie

Calcul de la loi de probabilité

1/3
Variable discrète
Si X est une variable aléatoire discrète, on calcule P(X = k) pour tout k ∈ X(Ω).

Lorsque X prend moins d'une dizaine de valeurs, on peut essayer de les calculer toutes
successivement, sinon il vaut mieux trouver une expression générale qui pourra
éventuellement être démontrée par récurrence.

Si X = Y + Z où Y et Z sont deux variables aléatoires à valeurs entières positives, on peut


écrire pour tout k ∈ N, P(X = k) = ∑i=0 k P(Y = i  et  Z = k − i).

Si en outre Y et Z sont indépendantes, alors P(X = k) = ∑i=0 k P(Y = i) P(Z = k − i).

Si X n'a que des valeurs entières, il est parfois plus facile de déterminer une relation de
récurrence sur P(X ≤ k) pour tout k ∈ N.

Variable à densité
Pour déterminer la loi de probabilité d'une variable aléatoire X à densité, il est souvent
pertinent d'essayer de calculer sa fonction de répartition FX : x ↦ P(X ≤ x) à l'aide du calcul
de probabilité notamment lorsque X s'écrit en fonction d'une autre variable aléatoire à
densité.

Maximum et minimum
Si (Y 1, … , Y n) est une famille de variables aléatoires réelles (discrètes ou à densité), alors X
= max(Y 1, … , Y n) est une variable aléatoire réelle avec pour tout x ∈ R, P(X ≤ x) = P(∀j, Y j ≤
x) donc si les variables Y j sont indépendantes, on trouve alors P(X ≤ x) = ∏j=1 n P(Y j ≤ x).

Pour déterminer la loi du minimum de variables aléatoires indépendantes, on procède


de la même manière mais en renversant les inégalités : P(min(Y 1, … , Y n) ≥ x) = ∏j=1 n P(Y j ≥
x) .

Espérance
Si X est une variable aléatoire discrète, alors son espérance s'écrit E(X) = ∑k∈X(Ω) k P(X = k)
si cette somme est absolument convergente (ce qui est toujours le cas avec un
nombre fini de valeurs).

Le théorème de transfert stipule alors que pour toute fonction réelle φ on a E(φ(X)) =
∑k∈X(Ω) φ(k) P(X = k) toujours à condition que cette somme converge absolument.

Si X est une variable aléatoire avec une densité f sur un intervalle I, alors son espérance
s'écrit E(X) = ∫I t f(t) dt si cette intégrale converge absolument (ce qui est toujours le cas
si f est définie et continue sur un segment [a, b]).

2/3
Là encore par théorème de transfert, pour toute fonction φ définie et continue sur I,
alors son espérance s'écrit E(φ(X)) = ∫I φ(t) f(t) dt à condition que l'intégrale converge
absolument.

Si (X1, … , Xn) est une famille de variables aléatoires admettant une espérance alors E(∑i=1 n
Xi) = ∑i=1 n E(Xi) .

Variance et moments
Pour tout n ∈ N∗, le moment d'ordre n d'une variable aléatoire réelle X est la valeur de
l'espérance E(Xn), si elle existe.

La variance de X peut s'exprimer selon la définition V(X) = E((X − E(X))2) ou avec la formule
de Huygens V(X) = E(X2) − (E(X))2. Elle existe si et seulement si la variable admet un
moment d'ordre 2.

Si la variable aléatoire X admet une variance, alors pour tout (a, b) ∈ R2, on a V(aX + b) =
a2 V(X).

Si (X1, … , Xn) est une famille de variables aléatoires indépendantes et admettant une
variance alors V(∑i=1 n Xi) = ∑i=1 n V(Xi) .

3/3