Académique Documents
Professionnel Documents
Culture Documents
Semestre 1 2021-2022
Probabilité
Chapitre 2 Variables aléatoires
Cas discret et cas continu
2 | Variables aléatoires Cas discret et cas
continu
Ce cours est scindé en trois parties :
Sommaire
Dénition 1.
Si P est une probabilité sur (R, B(R)), sa fonction de répartition est la fonction réelle F
dénie pour tout x ∈ R par
F(x) = P (] − ∞, x]) .
3
Chapitre 2. Variables aléatoires Cas discret et cas continu 4
Théorème 1.
La fonction de répartition F caractérise la probabilité, autrement dit,
si P est une probabilité sur (R, B(R)) de fonction de répartition F ,
si F = G,
alors P = Q.
La probabilité est entièrement connue si on connaît seulement F : on peut donc en principe retrouver
P(A) pour n'importe quel borélien A à partir de la fonction F.
Théorème 2.
Une fonction F est la fonction de répartition d'une (unique) probabilité sur (R, B(R)) si
et seulement si elle vérie les propriétés suivantes
1. F est croissante ;
2. F est continue à droite ;
3. lim F(x) = 0 et lim F(x) = 1.
x→−∞ x→+∞
Démonstration . En TD2
Exemple 1.
::::::::::: Z
Soit f une fonction positive et Riemann-intégrable telle que f (x)dx = 1. La fonction F telle
R
que pour tout x ∈ R, Z x
F(x) = f (t)dt
−∞
Exemple
::::::::::
2.
Soit α ∈ R. La mesure
( de Dirac concentrée en α est une mesure de probabilité sur R. Pour A ∈ B (R),
1 si α ∈ A
P (A) = δα (A) = . Calculons la fonction de répartition de δα .
0 si α ∈/A
si α ∈] − ∞, x]
1
Soit x ∈ R. F(x) = P (] − ∞, x]) = δα (] − ∞, x]) =
si α ∈]
/ − ∞, x]
0
si x ∈ [α; +∞[
1
F(x) = = 1[α;+∞[ (x).
si x ∈/ [α; +∞[
0
P : (Ω, A) → [0; 1]
Nous supposons que l'espace d'états Ω est dénombrable, et nous choisissons pour tribu la classe
A = P(Ω) de toutes les parties de Ω.
Une variable aléatoire X est dénie comme une application de Ω dans un ensemble E (a
priori arbitraire), X : Ω → E .
Chapitre 2. Variables aléatoires Cas discret et cas continu 6
Une variable aléatoire représente une quantité qui dépend de l'issue de l'expérience.
L'espace d'arrivée E n'est pas nécessairement dénombrable.
Par exemple, si l'expérience consiste à choisir une personne dans une salle et si X(ω)
représente la taille de la personne ω alors E = R.
L'image E de Ω par X, E = X(Ω) = {i ∈ E, ∃ω ∈ Ω tel que X(ω) = i}, est, quant à
′ ′
Pour cela, il faut évidemment que l'ensemble X−1 (A) soit dans la tribu A, ce qui a priori
n'est pas vrai pour une partie arbitraire A de E . Cela motive la dénition suivante :
PX dénit une mesure de probabilité sur E muni de la tribu de toutes ses parties F , en eet
′
| {z }
=Ω
Exemple.
::::::::::
On lance deux fois de suite un dé et on note X la variable aléatoire égale à la
somme des deux dés. Alors Ω = {(1, 1), (1, 2), . . . , (6, 6)}. On récapitule la somme des deux
dés dans le tableau ci-dessous :
PP Dé 2
PP
1 2 3 4 5 6
Dé 1
PP
PP
1 2 3 4 5 6 7
2 3 4 5 6 7 8
3 4 5 6 7 8 9
4 5 6 7 8 9 10
5 6 7 8 9 10 11
6 7 8 9 10 11 12
on a
X(Ω) = {2, . . . , 12}
X
pX
j = P (X = j) = pω .
{ω∈Ω; X(ω)=j}
Si PX est une loi munie d'un nom, par exemple une loi de Poisson, on dit aussi que X est une
variable aléatoire de Poisson.
Exemple.
::::::::::
On reprend l'exemple précédent pour dénir la loi de probabilité de la variable somme. On a
k 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
P (X = k)
36 36 36 36 36 36 36 36 36 36 36
L'ensemble des valeurs P(X = k), k ∈ X (Ω) est la loi de probabilité de la variable somme.
Chapitre 2. Variables aléatoires Cas discret et cas continu 8
{X ∈ A} et {Y ∈ B}
| {z } | {z }
X−1 (A) Y −1 (B)
E = σ (C) et F = σ (D) .
4. f (X) et g(Y) sont indépendantes pour tout couple (f, g) de fonctions mesurables réelles sur
E et F respectivement.
Soit X une variable aléatoire à valeurs dans E = R, dénie sur un espace dénombrable. On
appelle espérance, ou espérance mathématique, de X le nombre
X
E [X] = X(ω)pω
ω∈Ω
On note L1 l'espace de toutes les variables aléatoires réelles qui ont une espérance nie.
Propriétés 2.2.2.
1. L1 est un espace vectoriel et l'espérance est une forme linéaire sur L1 .
2. La fonctionnelle espérance E est positive :
X ∈ L1 et E[X] ≤ E[Y].
P
E[X] = jP (X = j) .
j∈E ′
Théorème 3.
Soit h : R → [0; +∞] une fonction mesurable et positive et X une variable aléatoire
réelle. On a pour tout a > 0,
E[h (X)]
P {ω ∈ Ω, h (X(ω)) ≥ a} ≤ .
a
E[h(X)] ≥ E[a1A ].
De plus E[a1A ] = aE[1A ] = aP (A), donc l'inégalité précédente s'écrit E[h(X)] ≥ aP (A) .
a étant strictement positif, on obtient l'inégalité recherchée.
Soit X une variable aléatoire réelle telle que X2 ∈ . On appelle variance de X le nombre
h i
2 2
σX = E (X − E[X]) .
L'écart-type mesure l'écart moyen quadratique entre les valeurs prises par X et sa
moyenne qu'on notera µX .
Si X2 ∈ L1 , on a
E[X2 ]
P (|X| ≥ a) ≤ , ∀a ∈ R∗+ .
a2
2
σX
P (|X − µX | ≥ a) ≤ , ∀a ∈ R∗+ .
a2
Démonstration .
1. On applique le théorème 3. en considérant h : x 7→ x2 .
2. On applique la propriété précedente à la varible aléatoire Y = |X − µX |.
P : (Ω, A) → [0; 1]
Soit (Ω, A) un espace mesurable. X : (Ω, A) → (R, B (R)) est une variable aléatoire si et
seulement si X est une fonction mesurable.
2 Si F est une tribu engendrée par la classe de parties C , F = σ(C) alors unr application
f est (A, σ(C))-mesurable si et seulement si
f −1 (B) ∈ A, ∀B ∈ C.
X−1 ] − ∞, a] ∈ A, ∀a ∈ R.
X−1 ] − ∞, a] ∈ A, ∀a ∈ Q.
Dénition 6.
On dénit l'image de P par une variable aléatoire X par
Fonction de répartition :
:::::::::::::::::::::::::
PX est une probabilité sur R, sa fonction de répartition, notée
FX est dénie pour x ∈ R par
FX (x) = PX ] − ∞, x] = P X−1 ] − ∞, x] .
Z x
FX (x) = fX (u)du
−∞
On dit alors que f est la densité de probabilité de X, ou encore que X est une variable
aléatoire absolument continue ou encore une variable aléatoire à densité.
donc P (X = α) = 0.
Dans les exemples suivants nous dénissons la probabilité (ou "loi") P sur R par sa densité f ;
c'est-à-dire que nous dénissons la fonction positive f d'intégrale 1, et la fonction de répartition F
de P est dénie par Z x
F(x) = f (u)du.
−∞
1
f (x) = 1[a;b] (x).
b−a
β α α−1 −βx
f (x) = x e 1R+ (x).
Γ(α)
13 2.3. Variables aléatoires dans le cas Ω = R
Z +∞
La fonction gamma dénie pour α > 0 par Γ(α) = xα−1 e−x dx.
0
α
f (x) = αβxα−1 e(−βx) 1R+ (x).
1 1 x−µ 2
f (x) = √ e− 2 ( σ ) .
2πσ
1. Cas où X est une v.a.r positive : L'intégrale d'une fonction mesurable et positive
:::::::::::::::::::::::::::::
existe toujours et est à valeurs dans [0, +∞]. On appelle espérance de X la quantité
Z
E(X) = X(ω)dPX (ω).
Ω
2. Cas où X est une v.a.r de signe quelconque : Une fonction mesurable réelle
:::::::::::::::::::::::::::::::::::::
X est PX -
intégrable si et seulement si X+ et X− sont P-intégrables.
On dit que X a une espérance nie si et seulement si E X+ < +∞ et E X− < +∞ et
Z
On écrit E(X) = X(ω)dPX (ω).
Ω
Propriétés 2.3.1.
1. L1 est un espace vectoriel et l'espérance est une forme linéaire sur L1 .
X ∈ L1 et E(X) ≤ E(Y).
Si les v.a. Xn , n ∈ N, sont positives et si la suite (Xn )n croît p.s. vers X, alors
Si la suite de v.a.r (Xn )n converge p.s. vers X et si |Xn | ≤ Y p.s avec Y une v.a.r
P-intégrable, alors
Xn ∈ L1 et lim E(Xn ) = E(X).
n→+∞
On note Lp l'ensemble des v.a.r telles que E(|X|p ) < +∞. Si X ∈ L2 alors X ∈ L1 . On dénit
la variance de X par
Var(X) = E(X2 ) − E(X)2 .
Propriétés 2.3.2.
E(|X|)
P (|X| ≥ a) ≤ , ∀a ∈ R∗+ . (Inégalité de Markov)
a
E(X2 )
P (|X| ≥ a) ≤ , ∀a ∈ R∗+ . (Inégalité de Bienaymé-Chebyshev)
a2
Var(X)
P (|X − E(X)| ≥ a) ≤ , ∀a ∈ R∗+ .
a2
Théorème 8.
3. Si X est une v.a. réelle admettant une densité fX . Si E |h(X)| < ∞ alors
Z
E(h(X)) = h(x)fX (x)dx.
R