Académique Documents
Professionnel Documents
Culture Documents
Chapitre 2
Chapitre 2
email: boufoussi@uca.ac.ma
Master/SMA/S1/2023-2024. Cours de Probabilités avancées.
2
email: boufoussi@uca.ac.ma
Contents
1 Variables aléatoires 5
1.1 Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Variables aléatoires. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Loi d'une variable aléatoire. . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.1 Variables discrètes. . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.2 Variables aléatoires absolument continues. . . . . . . . . . . . . . . 9
1.4 Espérances et moments des variables aléatoires. . . . . . . . . . . . . . . . 13
Master/SMA/S1/2023-2024. Cours de Probabilités avancées.
email: boufoussi@uca.ac.ma
1.6.2 Covariance, matrice de disperssion . . . . . . . . . . . . . . . . . . 31
3
Master/SMA/S1/2023-2024. Cours de Probabilités avancées.
4
CONTENTS
email: boufoussi@uca.ac.ma
Chapter 1
Variables aléatoires
1.1 Introduction.
Généralement, l'étude d'un phénomène aléatoire se fait à travers des valeurs pouvant le
caractériser. Autrement dit, la détermination compléte de "l'aléa", à savoir l'ensemble
Master/SMA/S1/2023-2024. Cours de Probabilités avancées.
Ω, n'est en générale pas nécessaire pour faire une étude probabiliste ou statistique d'un
phénomène aléatoire.
Par exemple le nombre de clients qui arrivent dans une le d'attente, le temps de service
et le temps d'attente de chaque client, sont des valeurs qu'on peut qualier d'aléatoire,
car non prévisible à l'avance, et qui permettent d'étudier l'état d'une le d'attente sans
email: boufoussi@uca.ac.ma
Exemple 1.1.1. 1) On tire au hasard une main de quatre cartes dans un jeu de 52
cartes. On s'interesse au nombre d'as obtenu. Ici on peut décrire complétement Ω;
c'est l'ensemble des combinaisons de quatre cartes prises parmi 52 cartes. On dénit
l'application
Ω −→ R
ω 7−→ X(ω) = nombre d'as dans ω
X est une variable dont on ne peut prévoir la valeur à l'avance, elle est donc dite aléatoire.
Elle est à valeurs dans l'ensemble {0, 1, 2, 3, 4}.
2) La durée de vie d'une ampoule électrique est une variable qui est aléatoire et qui prend
ses valeurs dans l'ensemble R+ .
3)Etude de la concentration de pesticides (X1 ) utilisee sur un domaine agricole et la
concentration en nitrates (X2 ) des eaux souterraines au niveau du champ. Pour étudier
le lien entre ces deux valeurs, il est utile de considérer le vecteur (X1 , X2 ).
4) La position d'une particule qui évolue dans un environnement peut être représentée par
un vecteur (X, Y, Z) où X, Y et Z sont des variables aléatoires à valeurs réelles.
5
6 CHAPTER 1. VARIABLES ALÉATOIRES
Pour motiver la dénition qui va suivre, prenons l'exemple de la durée de vie d'une
ampoule, qu'on note par T . On sera amené, par exemple, à déterminer la probabil-
ité de "l'événement" {ω : T (ω) ≥ t} pour t ∈ R+ . Mais pour le faire il faut déjà que
{ω : T (ω) ≥ t} soit un événement.
Soient (Ω, F, P) un espace de probabilités et (E, T) un espace mesurable.
email: boufoussi@uca.ac.ma
borélienne B(Rd ). En particulier on a
{X1 ≤ x1 , . . . , Xd ≤ xd } ∈ F, ∀(x1 , . . . , xd ) ∈ Rd ,
où X1 , . . . Xd sont les composantes du vecteur X .
En eet, la classe C := ×di=1 (−∞, xi ] , (xi )1≤i≤d ∈ R engendre la tribu borélienne
Exercice 1.2.1. Montrer que l'ensemble des v.a.r. est une algèbre.
Exercice 1.2.2. Soit (Xn , n ≥ 1) une suite de v.a.r
1) Montrer que lim sup Xn et lim inf Xn sont des v.a.r. et que l'ensemble
n n
ω : lim sup Xn (ω) = lim inf Xn (ω)
n n
est un événement.
2) Soit T : Ω −→ N une v.a. Montrer que Y , déni par Y (ω) = XT (ω) (ω), est une v.a.
1.3. LOI D'UNE VARIABLE ALÉATOIRE. 7
PX (B) = P (X ∈ B) = P X −1 (B) .
email: boufoussi@uca.ac.ma
Soit (Bn )n≥1 une famille d'éléments de B(Rd ) deux à deux incompatibles, on a
(⋆) X
PX (∪n Bn ) = P X −1 (∪n Bn ) =P ∪n X −1 (Bn ) = PX (Bn ) .
n
X −1 (B) = {e ∈ E : X(e) ∈ B} , ∀B ⊂ F .
Remarquons que la loi de X est déterminée par la restriction de P sur σ(X). Donc les
événements observés de F en dehors de ceux liés à X ne sont pas utils pour déterminer
la loi de X .
De même la loi conjointe permet aussi de déterminer les lois de tous les vecteurs (Xi1 , . . . , Xik )
avec 1 ≤ i1 < i2 < . . . < ik ≤ d. Par ailleurs, la seule connaissance des lois PXi ne permet
pas en générale de déterminer la loi conjointe du vecteur X .
Master/SMA/S1/2023-2024. Cours de Probabilités avancées.
Une variable aléatoire X est dite discrète si l'image de Ω par X est dénombrable. Pour
xer les idées, supposons que X(Ω) = {xk , k ∈ I}, où I est un ensemble d'indice dénom-
X −1 (B) = ∪k∈I : xk ∈B {X = xk } .
email: boufoussi@uca.ac.ma
X
Si on note pk = P [X = xk ], on obtient PX (B) = pk . Ce qui veut dire que la loi
k∈I : xk ∈B
de X est donnée par X
PX = p k δx k ,
k∈I
où δx (B) = IB (x), pour tout B ∈ B(R ). Voici les exemples les plus classiques:
d
1. La loi de Bernoulli de paramètre p ∈ (0, 1), qu'on notera par B(p), est la loi de
probabilité
µ = p δ1 + (1 − p) δ0 .
Elle modélise des phénomènes aléatoires à deux issues: "echec" et "réussite".
Elle décrit le nombre de "réussites" obtenues en répétant, dans les mêmes conditions,
3. La loi de Poisson de paramètre λ > 0, qu'on notera par P(λ), est la mesure de
probabilité donnée par
X λk
µλ = e−λ δk .
k! k∈N
On l'utilise pour décrire les événements rares; accidents d'avion, défauts de fabrica-
ν(B) = 0 =⇒ µ(B) = 0 .
email: boufoussi@uca.ac.ma
Dénition 1.3.3. Une v.a. X est dite absolument continue si PX ≪ λ, où λ est la mesure
dP
de Lebesgue sur Rd . La densité de Radon-Nikodym fX = X est appelée densité de la
dλ
variable aléatoire X .
Z
Dénition 1.3.4. Toute fonction borélienne p : R −→ R+ telle que
d
p(x) dλ(x) = 1
Rd
est appelée densité de probabilité.
Exemple 1.3.1. On se contentera ici de rappeler quelques exemples classiques:
1
1. Soit B ∈ B(Rd ) tel que λ(B) > 0, la fonction p(x) = IB est une densité de
λ(B)
probabilité sur Rd dite loi uniforme sur B , qu'on notera U(B).
(x − m)2
1 −
2. Soient σ > 0 et m ∈ R, la fonction fσ,m (x) = √ e 2σ 2 est une densité de
2πσ
probabilité appelée la loi normale (ou gaussienne) notée N(m, σ2 ).
3. Soit λ > 0, la loi exponentiel de paramètre λ est la loi de probabilité de densité
fλ (x) = λ e−λx IR+ (x), on la note E(λ).
10 CHAPTER 1. VARIABLES ALÉATOIRES
4. Soit α, β > 0, la loi Gamma, notée Γ(α, β) est la loi de probabilité de densité
β α α−1 −βx
fα,β (x) = x e IR+ (x).
Γ(α)
1
5. La loi de Cauchy a pour densité f (x) = .
π (1 + x2 )
PX étant nie elle s'étend de façon unique (Caratheodory-Haan) en une unique mesure
Master/SMA/S1/2023-2024. Cours de Probabilités avancées.
email: boufoussi@uca.ac.ma
P X −1 ×di=1 (−∞, xi ] ,
FX (x1 , . . . , xd ) =
= P [X1 ≤ x1 , X2 ≤ x2 , . . . Xd ≤ xd ]
1
lim FX (x − ) = P (] − ∞, x[) = FX (x) − P [X = x] .
n→∞ n
Si on note par FX (x − 0) la limite à gauche de FX en x, alors le saut de FX en x est donné
par
email: boufoussi@uca.ac.ma
PX ([x, y]) = FX (y) − FX (x − 0) et PX ([x, y)) = FX (y − 0) − FX (x − 0) .
Dénition 1.3.6. Toute fonction F vériant 1), 2), 3) et 4) est appelée fonction de
répartition.
On notera ∆F (x) = F (x) − F (x − 0) l'amplitude du saut de F en x et C(F ) =
{x ∈ R : ∆F (x) = 0} l'ensemble des points de continuité de F .
1) Soit (aj )j≥1 (resp. (bj )j≥1 ) une suite de nombres réels (resp réels
Exercice 1.3.2.X
positifs), tel que bj = 1. La fonction
j
X
G(x) := bj I[aj ,∞) (x)
j≥1
b*) Montrer qu'il existe une unique mesure de probarilité dénie sur R muni de sa tribu
boréliunne B(R), notée dF , telle que
dF ((a, b]) = F (b) − F (a) .
dF est la mesure de Lebesgue-Steiltjes associée à la fonction monotone F .
sauts de F . On dénit
X
Fd (x) = ∆F (aj )
j : aj ≤x
X
= ∆F (aj )I[aj ,∞) (x)
email: boufoussi@uca.ac.ma
x→∞
j≥1
X
donc pas nécessairement une fonction de répartition sauf si ∆F (aj ) = 1, et on a en
j≥1
particulier ∆F (x) = ∆Fd (x).
Proposition 1.3.2. La fonction Fc := F − Fd est croissante positive et continue.
Preuve. On a Fc est continue à droite car F et Fd le sont. Soit x < x′ ,
Fc (x′ ) − Fc (x) = [F (x′ ) − F (x)] − [Fd (x′ ) − Fd (x)] ,
En tendant x ↗ x′ ,
Fc (x′ ) − Fc (x′ − 0) = ∆F (x′ ) − ∆Fd (x) = 0 .
Fc est continue à gauche, donc elle est continue.
X
Fd (x′ ) − Fd (x) = F (aj ) − F (aj − 0) ≤ F (x′ ) − F (x) .
x<aj ≤x′
∀x ∈ R, , Fac (x) =
−∞
email: boufoussi@uca.ac.ma
1.4 Espérances et moments des variables aléatoires.
existe, i.e. si X + (ω) dP(ω) < ∞ ou X − (ω) dP(ω) < ∞, où X + = sup (X, 0) et
Ω Ω
X − = sup (−X, 0) On notera
Z Z
E(X) = +
X (ω) dP(ω) − X − (ω) dP(ω)
Ω Ω
Remarque 1.4.1. Une espérance mathématique s'elle existe est donc une valeur de R̄.
On verra que la variable aléatoire suivant la loi de Cauchy n'admet pas d'espérance math-
ématique.
Dans certains ouvrages de probabilités, une variable X ayant une espérance mathématique
signie que E(X) < ∞. Dans ce cours, on va toujours distinguer ses deux situations.
14 CHAPTER 1. VARIABLES ALÉATOIRES
Dénition 1.4.2. On dit qu'une variable aléatoire est centrée s'elle admet une espérance
nulle.
Dans le cas vectoriel on a la dénition
l'espérance de X .
Nous allons énoncer ici des propriétés de l'espérance mathématique qui sont des résultats
classiques dans la théorie de mesure et intégration.
Soit X, Y deux v.a.r. dénies sur un espace de probabilité (Ω, F, P). Soit A ∈ F et
a, b ∈ R.
Master/SMA/S1/2023-2024. Cours de Probabilités avancées.
email: boufoussi@uca.ac.ma
3. Linéarité: Si E(X) < ∞ et E(Y ) < ∞ alors E (aX + bY ) < ∞ et on a
E(X) ≥ E(Y ) .
6. Si X ≥ 0, P−p.s., alors
E(X) = 0 =⇒ X = 0 , P − p.s. .
7. Convergence monotone: Soit (Xn )n≥1 une suite de v.a.r. presque sûrement positives.
Si de plus la suite est croissante p.s., i.e. p.s. ∀ω ∈ Ω, ∀n ≥ 1, on a Xn (ω) ≤
Xn+1 (ω). Alors
lim ↑ EXn = E lim ↑ Xn .
n→∞ n→∞
1.4. ESPÉRANCES ET MOMENTS DES VARIABLES ALÉATOIRES. 15
h i
P ω ∈ Ω : lim Xn (ω) = X(ω) = 1 .
n
Supposons qu'il existe une v.a.r. Y positive et P− intégrable telle que pour tout
n ≥ 1, |Xn | ≤ Y , P−p.s, alors
lim EXn = EX .
n
10. σ− additivité: Soit X une v.a.r. P− intégrable et soit (An )n≥1 une suite de parties
deux à deux disjointes de F. Alors
Master/SMA/S1/2023-2024. Cours de Probabilités avancées.
X
E (X I∪n An ) = EX IAn .
n
email: boufoussi@uca.ac.ma
X = lim ↑ I
+ nI{X≥n} .
n→∞
k=0
2n k ≤X< k + 1
2n 2n
Par suite la cnvergence monotone de l'espérance entraîne
n2n −1
X k k k+1
E(X) = lim ↑ P ≤X< + nP {X ≥ n} .
n→∞
k=0
2n 2n 2n
Ceci montre clairement que pour que EX soit ni ou inni cela dépend du comportement
de P [X ≥ k] pour les grandes valeurs de k . C'est en quelque sorte la "queue" de la loi
de X qui détermine le comportement de EX . Plus précisément nous avons le résultat
suivant
Proposition 1.4.1. Soit X une variable aléatoire, alors
+∞
X +∞
X
P [|X| ≥ n] ≤ E|X| ≤ 1 + P [|X| ≥ n] .
n=1 n=1
Par suite on a
X X
n P(An ) ≤ E|X| ≤ (n + 1) P(An )
n≥0 n≥0
X
=1+ n P(An ) . (1.1)
n≥0
X X
n P (An ) = n (P [|X| ≥ n] − P [|X| ≥ n + 1])
n=0 n=0
XN
= P [|X| ≥ n] − N P [|X| ≥ N + 1] . (1.2)
n=1
email: boufoussi@uca.ac.ma
Z
N P [|X| ≥ N + 1] ≤ |X| dP .
{|X|≥N +1}
Z
Si E|X| < ∞ alors lim |X| dP = 0. Ce qui entraîne que lim N P [|X| ≥ N + 1] =
N →∞ {|X|≥N +1} N
0 et donc
+∞
X +∞
X
n P (An ) = P [|X| ≥ n] .
n=0 n=1
Exercice 1.4.1. Montrer que si X est une v.a.r. à valeurs dans N, alors
+∞
X
EX = P [X ≥ n] .
1
1.4. ESPÉRANCES ET MOMENTS DES VARIABLES ALÉATOIRES. 17
1.4.3 Moments.
Nous commençons par rappeler le théorème de transfert classique qui permet de trans-
former l'intégrale sur Ω en une intégrale sur Rn , ce qui est utile pour appliquer les méthodes
pratiques de calculs d'intégrales sur Rn .
où PX est la loi de X .
Preuve. Le résultat est vrai pour tout indicatrice de borélien et, par linéarité, pour
toute fonction mesurable étagée. Si h est mesurable positive, alors elle vérie 1.3 par le
biais d'une suite croissante de fonctions étagées qui converge simplement vers h. Enn,
le cas générale se déduit facilement en considérant h = h+ − h− .
Master/SMA/S1/2023-2024. Cours de Probabilités avancées.
Z
Exemple 1.4.1. 1. Si X est intégrable alors la formule 1.3 entraîne EX = x dPX (x).
R
email: boufoussi@uca.ac.ma
3. Si X est une variable discrète de loi PX = pk δxk où (xk ) est une famille dénom-
X
k
brable d'éléments de Rn , alors
X
E(h(X)) = h(xk ) pk .
k
k
que le barycentre des points (xk )k aectés des masses pk .
4. Un exemple important est celui des v.a.r. X suivant la loi de Cauchy
Z +∞de densité sur R
1 x
la fonction f (x) = 2
. Il est clair que EX + = EX − = dx =
π(1 + x ) 0 π(1 + x2 )
+∞. Ce qui montre que la loi de Cauchy n'admet pas d'espérance.
Soit X une v.a.r., et soit la fonction h(x) = xr avec 1 ≤ r < ∞. Alors EX r , s'il existe,
est appelé le moment d'ordre r de X et on a
Z
r
EX = xr dPX (x) .
R
18 CHAPTER 1. VARIABLES ALÉATOIRES
1.4.3.1 Variance.
Si EX 2 < ∞, alors la variance de la v.a.r. X est donnée par
Z
var(X) = σX = (X − EX)2 dP .
2
Ω
1/2
Le coecient σX = E (X − EX)2 est l'écart-type de X , il mesure la disperssion des
valeurs observées de X autour de la moyenne.
et donc
Master/SMA/S1/2023-2024. Cours de Probabilités avancées.
inf E (X − a)2 = σX
2
.
a
email: boufoussi@uca.ac.ma
σX = 0 ⇐⇒ X = EX , P p.s. .
Dans ce cas on dit que X est dégénérée en EX .
Dans le cours de mesure et intégration, l'ensemble des v.a.r. ayant un moment d'ordre
1 ≤ p < ∞ ni est l'espace Lp (Ω, F, P). Le cas p = ∞ n'a aucun d'interêt pour ce cours.
Rappelons aussi que si on considère sur Lp la relation d'équivalence
XRY ⇐⇒ X = Y P − p.s. .
Alors l'ensemble des classes d'équivalence noté par Lp = Lp /R muni de la norme ||X̄||p =
1
(E|X|p ) p est un espace de Banach (où X est un représentant de la classe X̄ ). Dans la
suite, et sans le préciser, on va souvent confondre les variables aléatoires et leurs classes
d'équivalence.
Pour le cas vectoriel, si 1 ≤ p < ∞, on dit que X est dans Lp (Ω, F, P) si pour chaque
1 ≤ i ≤ d, la composante Xi est dans Lp (Ω, F, P) et on pose alors
d
X
||X||p = (E|Xi |p )1/p
i=1
1.4. ESPÉRANCES ET MOMENTS DES VARIABLES ALÉATOIRES. 19
Y −m
la variable aléatoire X = et commençons par chercher la loi de X . Pour
σ
cela soit φ une fonction borélienne bornée (ou positive), par un simple changement
y−m
de variable x = , on a
σ
email: boufoussi@uca.ac.ma
Z +∞ 2
e−y /2
= φ(y) √ dy .
−∞ 2π
Par suite X ∼ N(0, 1). Par conséquent on a EY = m + σ EX = m et V ar(Y ) =
σ 2 V ar(X) = σ 2 . D'où
EY = m et V ar(Y ) = σ 2 .
Il est intéressant de noter que les moments de tout ordre de la loi gaussienne sont
nis. De plus, si X ∼ N(0, σ 2 ), alors
(
p 0 si p est impair
EX = p
σ Cp si p est pair ,
Qp/2
où Cp = j=0 (p − 2k − 1).
2. Une v.a.r. X suit la loi exponentielle de paramètre λ > 0 si sa densité est donnée
par f (x) = λ e−λx I{x≥0} . Un calcul simple montre que
1
EX = = σX .
λ
20 CHAPTER 1. VARIABLES ALÉATOIRES
Ces lois on les rencontre dans des problèmes de les d'attente, à cause de leur
propriété d'être "sans mémoire". En eet, soit t > s, on a
P [X ≥ t , X ≥ s] P [X ≥ t]
P [X ≥ t|X ≥ s] = =
P [X ≥ s] P [X ≥ s]
−λ(t−s)
= e = P [X ≥ t − s] .
Notons enn que tous les moments d'ordre p > 0 de X sont nis. De plus si p ≥ 1
est un entier on
p!
EX p = p .
λ
aInégalité de Jensen.
Proposition 1.4.2. (Inégalité de Jensen) Soit X une v.a.r. intégrable. Alors pour toute
fonction réelle convexe f , on a:
Master/SMA/S1/2023-2024. Cours de Probabilités avancées.
f (E(X)) ≤ E (f (X)) .
Proof. Puisque f est convexe, alors il existe une fonction ane passant par (E(X), f (E(X)))
et située sous le graphe de f , i.e. il existe a ∈ R tels que
a x + b ≤ f (x) , ∀x ∈ R , (1.5)
email: boufoussi@uca.ac.ma
(f (X))− = sup (−f (X), 0) ≤ |a| |X| + |b| .
Par suite on a E (f (X))− < ∞, ce qui veut dire que f (X) est quasi-intégrable et donc
Ef (X) est bien déni (mais non nécéssairement ni!).
Maintenant, l'inégalité 1.5 donne
a (X(ω) − EX) + f (EX) ≤ f (X(ω)) , ∀ω ∈ Ω ,
et en prenant l'espérance dans chacun des deux membres de l'inégalité on obtient le
résultat.
Remarque 1.4.4. Si la fonction est concave, alors par un argument similaire on obtient
l'inégalité inverse, à savoir
E(f (X)) ≤ f (EX) .
b Inégalité de Hölder.
Rappelons le résultat d'intégration suivant:
Proposition 1.4.3. (Inégalité ) Soit deux variables aléatoires X ∈ Lp et Y ∈
de Hölder
1 1
Lq , où 1 < p, q < ∞ sont tels que + = 1. Alors X Y est une variable intégrable et on
p q
a
E(|X Y |) ≤ (E|X|p )1/p (E|Y |q )1/q .
1.4. ESPÉRANCES ET MOMENTS DES VARIABLES ALÉATOIRES. 21
Par conséquent, nous avons l'injection continue suivante entre les espaces Lp (Ω, F, P)
Proposition 1.4.4. Si 1 ≤ p < q , alors
||X||p ≤ ||X||q
c'est à dire on a l'injection continue
Lq (Ω, F, P) ,→ Lp (Ω, F, P) .
Preuve. Il sut d'appliquer l'inégalité de Hölder aux variables |X|p et Y ≡ 1 avec le
q
paramètre α = .
p
cInégalité de Tchebychev. On a vu que la variance mesure la dispersion des valeurs
de X autour de la moyenne (l'espérance). Plus la variance est grande, plus la variable
peut prendre des valeurs dispersées et éloignées de la moyenne avec des probabilités im-
portantes. C'est ce que dit de manière générale l'inégalité de Bienaymé-Tchebychev que
nous allons établir dans un cadre plus générale.
Soit φ : R −→ R une fonction paire, croissante sur R+ et telle que φ(x) > 0 sur R \ {0}.
On a
Master/SMA/S1/2023-2024. Cours de Probabilités avancées.
Proposition 1.4.5. Soit X une v.a.r. telle que Eφ(X) < ∞, alors
Eφ(X)
P [|X| ≥ u] ≤ , ∀u > 0 . (1.6)
φ(u)
email: boufoussi@uca.ac.ma
φ(u) I{|X|≥u} ≤ φ(|X|) = φ(X) .
En prenant l'espérance dans chacun des deux membres de l'inégalité on obtient
Eφ(X)
P [|X| ≥ u] ≤ .
φ(u)
D'où le résultat.
En particulier si φ(u) = u2 , on obtient l'inégalité de Markov
EX 2
P [|X| ≥ u] ≤ , ∀u > 0 .
u2
Proposition 1.4.6. (Bienaymé-Tchebychev) Soit X une v.a.r. telle que E(X 2 ) < ∞,
alors 2
σX
P [|X − EX| > λ] ≤ , ∀λ > 0 .
λ2
Remarque 1.4.5. Si on pose λ = kσ , on obtient
1
P [E(X) − kσ ≤ X ≤ E(X) + kσ] ≥ 1 − .
k2
Dans des questions liés aux problématiques d'intervalles de conance, on peut choisir k
pour satisfaire a une condition de probabilité xée.
22 CHAPTER 1. VARIABLES ALÉATOIRES
On a vu que deux événements A et B sont indépendants ssi les tribus engendrées σ(A)
et σ(B) sont indépendantes. La variable X = IA engendre la tribu σ(IA ) = σ(A), on
peut donc naturellement généraliser la notion d'indépendance à une famille de variables
quelconques {Xα , α ∈ I}, où I est un ensemble d'indice ni ou inni dénombrable.
Dénition 1.5.1. Une famille de v.a. {Xα , α ∈ I} est dite indépendante (dans son
ensemble ou stochastiquement) si la famille des tribus engendrées {σ(Xα ) , α ∈ I} est
(stochastiquement) indépendante. Dans ce cas on écrit {Xα , α ∈ I} ⊥⊥
Remarque 1.5.1. 1. Une famille de v.a. {Xα , α ∈ I} est indépendante dans son
ensemble si pour tout sous ensemble ni d'indices J de I , on a les variables aléatoires
{Xα , α ∈ J} sont indépendantes. Maintenant pour vérier qu'une famille nie de
v.a. est indépendante il est inutile de vérier la propriété de l'indépendance pour
toutes les sous-familles , il sut de le faire pour la totalité des variables. Pour être
plus précis, soit J = {α1 , . . . , αk } et une famille {Xℓ , ℓ ∈ J} de variables aléatoires.
Pour xer les idées, on suppose que pour chaque indice ℓ ∈ J , la variable Xℓ prend
Master/SMA/S1/2023-2024. Cours de Probabilités avancées.
email: boufoussi@uca.ac.ma
2. Comme pour les événements, la notion d'indépendance deux à deux d'une famille
de v.a. est plus faible que l'indépendance (stochastique) déni ci-dessu.
F1 ⊗ F2 = σ {A1 × A2 , A1 ∈ F1 , A2 ∈ F2 } .
Proposition 1.5.1.
(X1 , . . . , Xk ) ⊥⊥ ⇐⇒ PX = ⊗ki=1 PXi (1.7)
où X = (X1 , . . . , Xk ) est le vecteur aléatoire de composantes Xi et ⊗ki=1 PXi est la mesure
produit des mesures PXi .
Preuve. D'après la remarque ci-dessu et l'unicité de la mesure produit, on a
(X1 , . . . Xk ) ⊥⊥ ⇐⇒ ∀A1 ∈ B(Rn1 ), . . . , Ak ∈ B(Rnk ) ,
k
Y
P [X1 ∈ A1 , . . . , Xk ∈ Ak ] = P [Xi ∈ Ai ] (1.8)
i=1
⇐⇒ ∀A1 ∈ B(Rn1 ), . . . , Ak ∈ B(Rnk ) ,
PX [A1 × . . . × Ak ] = ⊗k1 PXi [A1 × . . . × Ak ] .
⇐⇒ PX ≡ ⊗ki=1 PXi .
Exercice 1.5.1. Soit Cj ⊂ B(Rnj ), une classe contenant Rnj et satble par intersection
nie, telle que σ(Cj ) = B(Rnj ), 1 ≤ j ≤ k. Montrer que
Master/SMA/S1/2023-2024. Cours de Probabilités avancées.
k
Y
(X1 , . . . Xk ) ⊥⊥ ⇐⇒ ∀A1 ∈ C1 , . . . , ∀Ak ∈ Ck , PX [A1 × . . . Ak ] = PXj [Aj ] .
1
email: boufoussi@uca.ac.ma
fonction de répartition marginale Xi , 1 ≤ i ≤ n).
Proposition 1.5.2. 1. Les variables X1 , . . . , Xk sont indépendantes, ssi pour toute
famille de fonctions boréliennes (f1 , . . . , fk ), les variables f1 (X1 ), . . . , fk (Xk ) sont
indépendantes.
2. Les variables aléatoires X1 , . . . , Xk sont indépendantes ssi pour toutes f1 , . . . fk boréli-
ennes positives
E (f1 (X1 ) . . . fk (Xk )) = E (f1 (X1 )) . . . E (fk (Xk )) .
k
Y
= E (fj (Xj )) ,
j=1
email: boufoussi@uca.ac.ma
Remarque 1.5.2. Soit X1 , . . . , Xn des variables aléatoires réelles et intégrables, alors
on a n n
Y Y
(X1 , . . . , Xn ) ⊥⊥ =⇒ E Xj = EXj .
j=1 j=1
fi
Dans ce cas pour chaque 1 ≤ i ≤ n, la fonction Z , est la densité marginale de
fi (x) dx
la v.a.r. Xi .
R
Preuve Supposons que 1.10 est satisfaite, montrons que X1 , . . . Xn sont indépendantes.
Pour cela commençons par la détermination des lois marginales des variables Xi . Pour
1.5. VARIABLES INDÉPENDANTES. 25
f1
Il est donc clair que Z est la densité marginale de la variable X1 .
f1 (x) dx
Master/SMA/S1/2023-2024. Cours de Probabilités avancées.
R
Soit A1 , . . . An ∈ B(R), on a
Z
P [X1 ∈ A1 , . . . Xn ∈ An ] = f (x1 , . . . xn ) dx1 dx2 . . . dxn
A1 ×A2 ...An
Z
email: boufoussi@uca.ac.ma
= ⊗ni=1 PXi (A1 × A2 . . . An ) .
où la dernière égalité découle en utilisant le théorème de Fubini et en faisant apparaitre
les densités marginales. La proposition 1.5.1 montre que les variables X1 , . . . Xn sont
donc indépendantes. Inversement, supposons que les composantes du vecteur X sont
indépendantes et que X est absolument continue de densité f . Pour chaque i = 1, . . . , n,
on notera par fi la densité marginale de Xi , donnée par
Z
fi (x) = f (x1 , . . . xi−1 , x, xi+1 , . . . , xn ) dx1 . . . dxi−1 dxi+1 . . . dxn .
Rn−1
Proposition 1.5.4. Soit (Xi )1≤i≤n des variables aléatoires (di dimensionnalle) et soit les
entiers 0 = n0 < n1 < . . . < nk = n donnés. On dénit
Yj = Xnj−1 +1 , . . . , Xnj , j = 1, . . . k
Si les variables (Xi )1≤i≤n sont indépendantes alors il en est de même des variables (Yj )1≤j≤k .
26 CHAPTER 1. VARIABLES ALÉATOIRES
Proof. Pour xer les idées, on suppose que les variables Xi sont réelles. On a donc
σ(Yj ) = Yj−1 B(Rnj −nj−1 )
n o
nj
Les classes d'événements Cj = ∩l=n j−1 +1
X −1
l (Al ) , A nj−1 +1 , . . . , Anj
∈ B(R) , 1 ≤
j ≤ k , sont indépendantes, stables par intersections nies et contiennent Ω. Une ap-
plication du théorème des classes monotones entraîne l'indépendance des sous-tribus
(σ (Yj ))1≤j≤k . Ce qui achève la preuve.
Pour xer les idées, par exemple si on a (X, Y, Z) ⊥ ⊥, alors X (Y, Z), Y (X, Z) et
` `
(X, Y ) ⊥⊥ Z .
L'un des objectifs des statisticiens est la détermination les lois de fonctions des valeurs
observées décrivant des phénomènes aléatoires. Pour être plus précis, si X est une v.a.
décrivant les valeurs observées d'un phénomène aléatoire, il est en générale question de
trouver les lois de variables obtenues comme transformations de X . Par exemple, sup-
email: boufoussi@uca.ac.ma
quotient du poid d'un individu par le carré de sa taille. Si on note P (resp. T ) la v.a.r.
décrivant le poids (resp. la taille) de la population marocaine, il est donc intéressant
P
de déterminer la loi de la v.a.r. I = 2 . Pour des raisons d'applications à la statis-
T
tique, la détermination de la loi de la somme de variables aléatoires indépendantes a une
importance capitale.
email: boufoussi@uca.ac.ma
B(n, p) ⋆ B(m, p) = B(n + m, p) .
i=1
mesures (PXi )1≤i≤n . i.e.,
PS = PX1 ⋆ PX2 ⋆ . . . ⋆ PXn .
Preuve. Commençons par montrer le théorème dans le cas n = 2. Soit A ∈ B(Rd ), on
a
Z
PS (A) = P [X1 + X2 ∈ A] = IA (x + y) dP(X1 ,X2 ) (x, y)
R2d
` Z
= IA (x + y) dPX1 (x) dPX2 (y)
R2d
denition
= PX1 ⋆ PX2 (A) .
On suppose que le résultat est vrai pour tout 1 ≤ k ≤ n − 1. Puisque les variables
X1 , X2 . . . Xn sont indépendantes alors il en est de même pour Sn−1 = X1 +X2 +. . .+Xn−1
et Xn (on utilise les propositions 1.5.2 et 1.5.4). D'où d'après le cas n = 2, on a
Master/SMA/S1/2023-2024. Cours de Probabilités avancées.
email: boufoussi@uca.ac.ma
1.6.1 Loi d'une variable fonction d'une autre.
Soit X une variable aléatoire réelle de loi PX et soit g une application réelle. On cherche
à déterminer la loi de Y = g(X), c'est à dire, on cherche une mesure de probabilité µ sur
R telle que pour tout fonction φ mesurable bornée, on a
Z
Eφ(Y ) = φ(y) dµ(y) .
R
Prenons quelques exemples pour xer les idées. Si la variable X est discrète de loi
X
PX = pk δxk ,
k∈I
où
X
qj = pk . (1.12)
k : g(xk )=yj
X
On a donc PY = qj δyj . En particulier, si l'application g est bijective de A sur f (A),
j∈J
alors la somme 1.12 est réduite à un seul terme.
Dans le cas d'une variable absolument continue de densité fX . On a
Z
Eφ(Y ) = φ(g(x)) fX (x) dx . (1.13)
R
A ce niveau, on ne peut pas donner une régle générale pour déterminer la loi de Y .
Remarquons d'abord Y n'est pas n¢essairement absolument continue, par exemple si g
est constante par morçeaux alors la variable Y est discrète (c'est le cas par exemple de
g(x) = Ent(x) la partie entière). Par contre si g est susamment régulière (par morçeaux)
alors on pourra appliquer un changement de variable dans 1.13 ce qui permet de trouver
Master/SMA/S1/2023-2024. Cours de Probabilités avancées.
la densité de Y .
email: boufoussi@uca.ac.ma
√
2 −x2
D'où Y a pour densité fY (x) = √ exp 2 IR+ (x) . Maintenant déterminons la loi de
σ π 2σ
Y = X + . On a
Z Z
+ + 1
Eφ(X ) = φ(x ) dPX (x) = φ(0) + φ(x)) fX (x) dx .
R 2 R+
1
Par suite dPY = dδ0 + IR+ fX dx la somme de deux mesures positives qui ne sont pas
2
des mesures de probabilités sur R.
Examinons le cas vectoriel: Soit X = (X1 , . . . Xn ) un vecteur aléatoire de densité fX et
soit g : Rn −→ Rd une application. On cherche à déterminer, sous des conditions sur g ,
la densité de Y = g(X). Dans le cas où n = d, on a le résultat classique suivant
email: boufoussi@uca.ac.ma
2x 2y
x2
r r
z z
et son déterminant Jφ (x, y) = 2(1 + 2 ). On a φ−1 (t, z) = (t , ).
y 1 + t2 1 + t2
Donc on a
1 1
Jφ−1 (t, z) = = .
Jφ (φ−1 (t, z)) 2 (1 + t2 )
Par le théorème 1.6.2, le couple (T, Z) a pour densité
λ2
r
z
f(T,Z) (t, z) = exp −λ (t + 1) IR⋆+ ×R⋆+ (t, z) .
1 + t2 1 + t2
Remarquons que T et Z ne sont pas indépendantes.
2. Soit (X, Y ) un couple de v.a.r. indépendantes identiquement distribuées de loi uni-
forme U([0, 1]). On pose
p p
U := −2 log X cos (2πY ) , V := −2 log X sin (2πY ) .
√ √
L'application ϕ(x, y) := −2 log x cos (2πy), −2 log x sin (2πy) déni un diéo-
−1 2
Soit (u, v) = ϕ(x, y) on a x = exp (u + v 2 ).
2
−2 π
Un calcul simple montre que le jacobien Jϕ (x, y) = et donc
x
1 1 −1 2
Jϕ−1 (u, v) = −1
= exp (u + v 2 ) .
Jϕ (ϕ (u, v)) 2π 2
Par le théorème 1.6.2 la densité de (U, V ) est
f(U,V ) (u, v) = f(X,Y ) ϕ−1 (u, v) |Jϕ−1 (u, v)| IV (u, v)
1 −1 2
= exp (u + v 2 ) IR2 \(R+ ×{0}) (u, v)
2π 2
−1 2 −1 2
1 u v
= e 2 e 2 p.p.
2π
Les variables U et V sont donc indépendantes identiquement distribuées de même
loi N(0, 1). Ce résultat est classique il donne un moyen de générer la loi normale à
partir de la loi uniforme.
Master/SMA/S1/2023-2024. Cours de Probabilités avancées.
1.6.2.1 Covariance
Soit X, Y deux variables aléatoires réelles de L2 (Ω). On dénit
email: boufoussi@uca.ac.ma
la covariance de X et Y . On a les propriétés suivantes
1. Cov(X, X) = V ar(X) et Cov(X, Y ) = Cov(Y, X)
2. X ⊥
⊥ Y =⇒ Cov(X, Y ) = 0. La réciproque est en générale fausse.
3. ∀a, b, c, d ∈ R, Cov(aX + b, cY + d) = ac Cov(X, Y ).
n
X n
X X
4. V ar( ak X k ) = a2k V ar(Xk ) + 2 ai aj Cov(Xi , Xj ). Par conséquent si
k=1 k=1 1≤i<j≤n
les variables X1 , . . . , Xn sont indépendantes alors
n
X n
X
V ar( ak X k ) = a2k V ar(Xk ) .
k=1 k=1
Cov(X, Y )
Par suite Φ atteind son minimum en ā = et b1 = 0, i.e. b̄ = EY − ā EX .
var(X)
email: boufoussi@uca.ac.ma
Remarque 1.6.3. Si ρ(X, Y ) = ∓1, alors Y = āX + b̄ P−p.s..
2. ∀a ∈ R, Σ(a X) = a2 Σ(X).
Master/SMA/S1/2023-2024. Cours de Probabilités avancées.
email: boufoussi@uca.ac.ma
ment indépendantes, c'est à dire
a ∈ Rn , b ∈ R, < a, X > +b = 0 P p.s. =⇒ a = 0, et b = 0 .
Preuve.
1. La première propriété est évidente. Pour le deuxième point, on utilise le fait que
at X = X t a et on a
et
5. Soient a ∈ Rn et b ∈ R, on a
2
at X + b = 0 P p.s. ⇐⇒ E at X + b = E(at X)2 + 2b E(at X) + b2 = 0
2
⇐⇒ V ar(at X) + E(at X) + b = 0
2
⇐⇒ at Σ(X)a + E(at X) + b = 0
2
⇐⇒ at Σ(X) a = 0 et E(at X) + b = 0
⇐⇒ a = 0 et b = 0
Remarque 1.6.5. Σ(X) n'est pas dénie positive entraîne en particulier que la loi de X
est supportée par un hyperplan de Rn , i.e.
Master/SMA/S1/2023-2024. Cours de Probabilités avancées.
Puisque tout hyperplan de Rn est de mesure de Lebesgue (de Rn ) nulle, PX est donc
singulière par rapport à la mesure de Lebesgue de Rn .
email: boufoussi@uca.ac.ma