Vous êtes sur la page 1sur 20

Chapitre 23 :

Variables aléatoires

Dans tout ce chapitre, (Ω, p) désigne un espace probabilisé fini.

I. Généralités

A) Définitions

Définition 1
Une variable aléatoire est une application définie sur Ω à valeurs dans un ensemble E.
Lorsque E ⊂ R, on parle de variable aléatoire réelle.

Remarque 1. On parle de variable aléatoire alors qu’il s’agit d’une fonction.

Notation : On note généralement X une telle application :

X: Ω → E
w 7→ X(w)

Définition 2
X(Ω) = {X(w) | w ∈ Ω} est l’ensemble des valeurs prises par X.
X(Ω) est appelé support de X, ou encore univers image.

Remarque 2. Ω étant fini, X(Ω) est un ensemble fini. Ainsi :

X(Ω) = {xj | j ∈ J}

où J est un ensemble de cardinal fini (plus précisément, card(J) ⩽ card(Ω)).

Exemple :
Un sac contient 5 jetons indiscernables au toucher. Deux d’entre eux portent le chiffre 1, deux également
le chiffre 2 et 1 portent le chiffre 3. On tire simultanément 2 jetons du sac. La somme des chiffres
indiqués par les jetons tirés est une variable aléatoire X. Quelles valeurs peut-elle prendre ?
Pour dénombrer tous les couplages possibles,

on doit distinguer les jetons portant le même numéro. On
les notera 1 et 1̄. On obtient alors : Ω = {1, 1̄}; {1, 2}; {1, 3}; {1̄, 2}; {1̄, 3}; {1, 2̄}; {1̄, 2̄}; {2, 2̄}; {2, 3}; {2̄, 3} .
On en déduit que : X(Ω) = {2; 3; 4; 5}

1
B) Événements associés à une variable aléatoire

Définition 3
Soit A une partie de E. Alors X −1 (A) = {w ∈ Ω | X(w) ∈ A} est un événement de Ω que l’on note
abusivement (X ∈ A) ou {X ∈ A}.

Remarque 3.
1. Si A = {x}, alors X −1 ({x}) = {w ∈ Ω | X(w) = x} noté aussi (X = x).
2. Si X est une variable aléatoire réelle, alors X −1 (]a; +∞[) = {w ∈ Ω | X(w) > a} noté plus
simplement (X > a)
3. Soient a et b réels tels que a < b. Alors X −1 ([a; b[) = {w ∈ Ω | a ⩽ X(w) < b} noté plus simple-
ment (a ⩽ X < b).

Exemple : 
On reprend l’exemple précédent avec Ω = {1, 1̄}; {1, 2}; {1, 3}; {1̄, 2}; {1̄, 3}; {1, 2̄}; {1̄, 2̄}; {2, 2̄}; {2, 3}; {2̄, 3}
et que X(Ω) = {2; 3; 4; 5}. Alors, par exemple :
— (X = 2) = X −1 ({2}) = {1, 1̄}


— (X = 4) = {2, 2̄}; {1, 3}; {1̄, 3}

— (X ⩾ 4) = (X = 4) ∪ (X = 5) = {2, 2̄}; {1, 3}; {1̄, 3}; {2, 3}; {2̄, 3}

Remarque 4. Très souvent, on ne précisera pas Ω. On se contentera de donner les valeurs que X
peut prendre, c’est-à-dire, le support de X.

Propriété 1. Les valeurs du support forment un SCE


Soit X une variable aléatoire définie sur Ω. On note X(Ω) = {xj | j ∈ J}. Alors :

{(X = xj ) | j ∈ J} est un système complet d’événements

Démonstration (Propriété 1)

Remarque 5. Cette propriété très importante est souvent utilisée dans les exercices. Par exemple, si
on a trouvé que X(Ω) = {x1 , · · · , xn }, alors pour tout événement A, la formule des probabilités totale
impliquera que :
n
X
p(A) = p(X = xk )p(X=xk ) (A)
k=1

2
C) Lois de probabilité de X

Définition 4
Soit X une variable aléatoire.
On appelle loi de probabilité de X ou distribution de probabilité de X l’application :

pX : X(Ω) → [0; 1]
x 7→ p(X = x)

Remarque 6. On notera très souvent pi = p(X = xi ).


Donner la loi de X c’est donner X(Ω) et donner le tableau avec sur la première ligne les xi (xi
étant les valeurs dans X(Ω)) et sur la deuxième ligne les pi .

Exemple :
On lance un dé deux fois et on étudie la somme des valeurs. Soit X la variable aléatoire désignant la
somme obtenue. Déterminer la loi de X.
Bien que ce ne soit pas demandé dans l’énoncé, il est clair que Ω est l’ensemble des 36 couples obtenus
par les dés. Donc X(Ω) = {2; 3; 4; 5; 6; 7; 8; 9; 10; 11; 12}. La loi de X est donnée par le tableau suivant :

xi 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
pi 36 36 36 36 36 36 36 36 36 36 36

Exercice 1
Un sac contient 5 jetons indiscernables au toucher. Deux d’entre eux portent le chiffre 1, deux
également le chiffre 2 et 1 portent le chiffre 3. On tire simultanément 2 jetons du sac. La somme
des chiffres indiqués par les jetons tirés est une variable aléatoire X. Pour chaque valeur de X
faire correspondre sa probabilité (on le fera dans un tableau).

Propriété 2. Soit X une variable aléatoire définie sur Ω. Alors :


X
p(X = x) = 1
x∈X(Ω)

Démonstration (Propriété 2)

Remarque 7. Cette propriété est très importante ! ! il faut toujours vérifier (sans l’écrire sur votre
copie ...) que la somme des pi dans votre tableau fait bien 1.

Exemple :
On reprend l’exemple précédent. On avait pour X le tableau suivant :
xi 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
pi 36 36 36 36 36 36 36 36 36 36 36
1 2 3 4 5 6 5 4 3 2 1
On a bien 36 + 36 + 36 + 36 + 36 + 36 + 36 + 36 + 36 + 36 + 36 =1

Remarque 8. Assez souvent dans les exercices, on va utiliser le fait que p(X = xk ) = p(X ⩽
xk ) − p(X < xk ) ou p(X = xk ) = p(X ⩾ xk ) − p(X > xk ), notamment lorsqu’on n’arrivera pas à
trouver la valeur de p(X = xk ) directement.

3
Exercice 2
1
On considère une variable aléatoire X telle que X(Ω) = {0; 1; 2}. On suppose que p(X = 0) = 6
et p(X ⩽ 1) = 12 . Déterminer la loi de X.

Définition 5
Lorsque deux variables aléatoires X et Y ont même distribution de probabilité, on note X ∼ Y .

X∼Y ⇐⇒ X(Ω) = Y (Ω) et pX = pY

Remarque 9. La relation ∼ est une relation d’équivalence

Définition 6
Soit X une variable aléatoire définie sur Ω et f une fonction définie sur X(Ω). Alors f ◦ X est une
variable aléatoire définie sur Ω que l’on notera f (X) ou f ◦ X appelée image de X par f .

Remarque 10. Soit X(Ω) = {x1 , · · · , xn }


➤ (f ◦ X)(Ω) = {f (x1 ) · · · , f (xn )} = {f1 , . . . , fp } où les fi sont distincts.
p(f ◦ X = fi ) =
P
➤ De plus, k|f (xk )=fi p(X = xk ).
➤ Enfin, X∼Y =⇒ f (X) ∼ f (Y )

Exemple :
On lance un dé équilibré à 6 faces numérotées −3, −2, −1, 0, 1 et 2. On considère la variable aléatoire
X égale au numéro de la face tirée.
1. Quelle est la loi de probabilité de X ? On récence toutes les issues : X(Ω) = {−3, −2, −1, 0, 1, 2}
et par équiprobabilité :
xi −3 −2 −1 0 1 2
pi 16 1
6
1
6
1
6
1
6
1
6

2. Soit Y la variable aléatoire définie par Y = X 2 . Déterminer la loi de probabilité de Y .


De même, Y (Ω) = {0, 1, 4, 9} et
yi 0 1 4 9
pi 16 26 26 16
En effet, par exemple p(Y = 4) = p(X = −2) + p(X = 2).

4
II. Moments d’une variable aléatoire

A) Espérance mathématique

Définition 7
Soit X une variable aléatoire scalaire (à valeurs dans R ou C) définie sur Ω.
On appelle espérance de X le scalaire défini par :
X
E(X) = X(w)p({w})
w∈Ω

L’espérance de X est également appelée moment d’ordre 1 de X.

Propriété 3. Autres écritures de l’espérance


Soit X une variable aléatoire scalaire définie sur Ω = {x1 , · · · , xn }. Alors :

X n
X n
X
E(X) = x p(X = x) = xi p(X = xi ) = pi xi
x∈X(Ω) i=1 i=1

Démonstration (Propriété 3)

Remarque 11.
➤ L’espérance est un indicateur de position.
➤ La notion d’espérance mathématique correspond à la notion intuitive de moyenne des xi pon-
dérée par la probabilité d’apparition des xi , c’est-à-dire pi .
➤ L’espérance d’une variable aléatoire scalaire constante vaut cette constante (E(X) = X).

Exemple :
On lance un dé équilibré à 6 faces numérotées −3, −2, −1, 0, 1 et 2.
On considère la variable aléatoire X égale au numéro de la face tirée. Déterminer l’espérance de X.
On rappelle que X(Ω) = {−3, −2, −1, 0, 1, 2} et

xi −3 −2 −1 0 1 2
pi 16 1
6
1
6
1
6
1
6
1
6

1
On a ainsi E(X) = 6 (−3 − 2 − 1 + 0 + 1 + 2) = − 12 .

Remarque 12. Il est donc pratique d’écrire la loi de X (avec le tableau) afin de calculer E(X)

Exercice 3
Un jeu consiste à lancer trois fois de suite une pièce de monnaie non équilibrée. On suppose que
la probabilité d’avoir pile est 13 . On mise 1, 5 euros pour avoir le droit de jouer. On gagne 2 euros
pour chaque pile et on perd 1 euro pour chaque face. Notons G la variable aléatoire correspondant
aux gains obtenus (une perte sera assimilée à un gain négatif).
1. Donner la loi de G.
2. Quelle est l’espérance de G ?

5
Propriété 4. Linéarité de l’espérance
Soient X et Y deux variables aléatoires scalaires définies sur Ω.
Soit (λ, µ) ∈ C2 . Alors
E(λX + µY ) = λE(X) + µE(Y )

Démonstration (Propriété 4)

Remarque 13. Pour tout (a, b) ∈ C2 , E(aX + b) = aE(X) + b.

Exemple :
On reprend l’exemple du sac avec les cinq jetons, c’est-à-dire on prend un sac contenant 5 jetons
indiscernables au toucher. Deux d’entre eux portent le chiffre 1, deux également le chiffre 2 et 1
portent le chiffre 3. On tire simultanément 2 jetons du sac. La somme des chiffres indiqués par les
jetons tirés est une variable aléatoire X.
Un joueur paye 7 euros pour tirer les deux jetons. A l’issue du jeu on lui remet deux fois la somme
indiquée par les deux jetons. Le gain du joueur est une variable aléatoire notée G. Donner l’espérance
de G.
On a G = 2X − 7. Donc E(G) = E(2X − 7) = 2E(X) − E(7) = 2E(X) − 7.
Il faut maintenant calculer E(X). Grâce à l’exercice 1, on a

xi 2 3 4 5
1 4 3 2
pi 10 10 10 10

1 36 18
donc E(X) = 10 (2 + 12 + 12 + 10) = 10 = 5 .
Ainsi E(G) = 2 × 18
5 −7= 5
1

Exercice 4
Calculer E(X − E(X)) ? Calculer E(1A ) pour tout A ⊂ Ω.

Propriété 5. Positivité de l’espérance


Soient X et Y deux variables aléatoires réelles sur Ω. Alors :
➤ X⩾0 =⇒ E(X) ⩾ 0
➤ X⩾Y =⇒ E(X) ⩾ E(Y )

Démonstration (Propriété 5)

Propriété 6. Inégalité triangulaire


Soit X une variable aléatoire scalaire définie sur Ω. Alors :

|E(X)| ⩽ E(|X|)

Démonstration (Propriété 6)

6
Propriété 7. Théorème de transfert
Soient X une variable aléatoire et f une fonction définie sur X(Ω) à valeurs dans C. Alors :
X
E(f (X)) = f (x)P (X = x)
x∈X(Ω)

Démonstration (Propriété 7)

Exemple :
Reprenons l’exemple du dé équilibré à 6 faces numérotées −3, −2, −1, 0, 1 et 2. Notons Y = X 2 . On
a vu, en utilisant la loi de Y que E(Y ) = 19
6 . On pouvait également utiliser le théorème de transfert.
Pour cela, on rappelle que X(Ω) = {−3, −2, −1, 0, 1, 2} et

xi −3 −2 −1 0 1 2
pi 16 1
6
1
6
1
6
1
6
1
6

Ainsi
1 1 1 1 1
E(Y ) = E(X 2 ) = (−3)2 × + (−2)2 × + (−1)2 × + (1)2 × + (2)2 ×
6 6 6 6 6
9+4+1+1+4 19
et on trouve E(Y ) = 6 = 6

B) Variance et écart-type

Définition 8
Soit X une variable aléatoire scalaire définie sur Ω.
On appelle variance de la variable aléatoire X le nombre réel positif ou nul :

V(X) = E((X − E(X))2 )

La variance est également appelée moment centré d’ordre 2.

Remarque 14.
➤ La variance est un indicateur de dispersion.
➤ Si X(Ω) = {x1 , · · · , xn } alors en utilisant le théorème de transfert avec la fonction définie par
f (t) = (t − E(X))2 , on obtient que :
n
X
V(X) = (xi − E(X))2 p(X = xi )
i=1

Donc la variance est la moyenne des carrés des écarts à la moyenne (qui est l’espérance).

Définition 9
Soit X une variable aléatoire scalaire définie sur Ω.
On appelle écart-type de la variable aléatoire X la racine carrée de sa variance :
q
σX = σ(X) = V(X)

7
Propriété 8. Formule de Koenig-Huyghens
Soit X une variable aléatoire scalaire définie sur Ω. Alors :

V(X) = E(X 2 ) − (E(X))2

Remarque 15. Cette formule est systématiquement celle qu’on utilise pour calculer une variance.

Exemple :
On reprend le premier exemple : on lance un dé deux fois et on étudie la somme des valeurs. Soit X
la variable aléatoire désignant la somme obtenue. On a X(Ω) = J2; 12K et

xi 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
pi 36 36 36 36 36 36 36 36 36 36 36

Déterminer l’espérance et la variance de X.


1
On a E(X) = 36 (2 + 3 × 2 + 4 × 3 + 5 × 4 + 6 × 5 + 7 × 6 + 8 × 5 + 9 × 4 + 10 × 3 + 11 × 2 + 12) = 7.
Pour la variance, on commence par calculer E(X 2 ). On a
1
E(X 2 ) = 36 (4 + 9 × 2 + 16 × 3 + 25 × 4 + 36 × 5 + 49 × 6 + 64 × 5 + 81 × 4 + 100 × 3 + 121 × 2 + 144)
c’est-à-dire E(X 2 ) = 1974 329
36 = 6 .
329 35
Ainsi, d’après la formule de Koenig-Huyghens V(X) = E(X 2 ) − (E(X))2 = − 49 = .
6 6

Exercice 5
On dispose d’un dé truqué : il existe a ∈ R tel que pour tout k ∈ {1, . . . , 6} la probabilité
d’obtenir la face numérotée k est égale à a × k. On lance ce dé et on note X la variable aléatoire
égale au numéro de la face obtenue.
1. Calculer le réel a. En déduire la loi de X puis calculer son espérance et sa variance.
1
2. On définit la variable aléatoire Y = X. Calculer E(Y ).

Remarque 16. La variance n’est pas linéaire à cause du carré dans la formule. Cependant :

Propriété 9.
Soit X une variable aléatoire scalaire définie sur Ω. Alors, pour tout (λ, µ) ∈ C2 :

V(λX + µ) = λ2 V(X)

Démonstration (Propriété 9)

8
Définition 10
➤ On dit que la variable aléatoire X est centrée lorsque E(X) = 0. Dans le cas contraire, on
dit que X − E(X) est la variable aléatoire centrée associée à X.
➤ On dit que la variable aléatoire X est réduite lorsque σ(X) = 1. Dans le cas contraire, et
X
lorsque σ(X) ̸= 0, on dit que la variable aléatoire réduite associée à X.
σ(X)
➤ On dit que la variable aléatoire X est centrée réduite lorsque E(X) = 0 et σ(X) = 1.
X − E(X)
Dans le cas contraire, et lorsque σ(X) ̸= 0, on appelle X ∗ = la variable aléatoire
σ(X)
centrée réduite associée à X.

Exercice 6
Soit X une variable aléatoire dont la distribution de probabilité est la suivante :
p(X = 0) = 41 , p(X = 1) = 15 et p(X = 2) = a, où a ∈ R.
1. Déterminer X(Ω) puis le réel a.
2. Calculer l’espérance et la variance de X.
3. X est-elle une variable aléatoire centrée ? réduite ?
Déterminer alors la variable centrée réduite X ∗ associée à X.
4. On considère la variable aléatoire Y = 3X + 2
(a) Déterminer la loi de Y .
(b) Calculer l’espérance et la variance de Y en utilisant deux manières différentes.
5. Reprendre les questions précédentes avec les variables aléatoires X 2 , |X| et exp(X).

Propriété 10. Inégalités de Markov et de Bienaymé-Tchebychev


Soient a un réel strictement positif et X une variable aléatoire scalaire. Alors :
E(|X|)
➤ Inégalité de Markov : p(|X| ⩾ a) ⩽
a
V(X)
➤ Inégalité de Bienaymé-Tchebychev : p(|X − E(X)| ⩾ a) ⩽
a2

Démonstration (Propriété 10)

Remarque 17. On en déduit donc, en utilisant le complémentaire, que pour tout t > 0 :

V(X)
p(|X − E(X)| < t) ⩾ 1 −
t2

Exercice 7
1. Le nombre de pièces sortant d’une usine en une journée est une variable aléatoire d’espé-
rance 50. Donner une majoration de la probabilité que la production dépasse 75 pièces.
2. Durant une épidémie, les urgences d’un hôpital recevaient en moyenne 50 patients chaque
jour, avec un écart-type de 5. La capacité de traitement de cet hôpital est estimée à 75
patients quotidien. Donner une majoration de la probabilité que l’hôpital soit débordé.

9
III. Lois de probabilités usuelles

A) Loi uniforme

Définition 11
On dit qu’une variable aléatoire X est une variable uniforme sur X(Ω) = {x1 , · · · , xn } lorsque
l’espace probabilisé (X(Ω), pX ) est équiprobable. On la note alors U({x1 , · · · , xn }). Ainsi :
1
X ∼ U({x1 , · · · , xn }) ⇐⇒ ∀ i ∈ J1, nK, p(xi ) =
n

Exemple :
1. Dans un jeu de loto, on tire au hasard un jeton dans un sac contenant 99 jetons numérotés de 1
à 99. Soit X la variable aléatoire donnant le nombre indiqué par le jeton. On a X(Ω) = J1; 99K
1
et p(X = i) = 99 . Ainsi X a une loi uniforme sur {1, · · · , 99}, c’est-à -dire X ∼ U({1, · · · , 99}).
2. Autre exemple classique : on lance un dé numéroté de 1 à 6. Soit X la variable aléatoire donnant
le chiffre obtenu par le dé. Alors X ∼ U({1, · · · , 6}).

x1 + · · · + xn
Propriété 11. Si X ∼ U({x1 , · · · , xn }) alors E(X) = .
n

Démonstration (Propriété 11)

Remarque 18. Notation d’une variable aléatoire uniforme sur J1; nK


Lorsque X est une variable uniforme sur X(Ω) = J1; nK, on notera plutôt X ∼ U(n) au lieu de
X ∼ U({1, · · · , n}).

Propriété 12. Espérance et variance d’une variable aléatoire uniforme sur J1; nK
n+1 n2 − 1
Si X ∼ U(n) alors E(X) = et V(X) = .
2 12

Démonstration (Propriété 12)

Exemple :
Déterminer l’espérance et la variance dans le cas du loto.
9800 2450
On sait que X ∼ U(99), donc d’après la propriété précédente E(X) = 50 et V(X) = 12 = 3 .

Exercice 8
Un trousseau de 5 clefs contient une seule clef ouvrant une serrure donnée. On les essaie l’une
après l’autre au hasard. Soit X la variable aléatoire donnant le nombre d’essais nécessaires.
Calculer la loi, l’espérance et la variance de X.

10
B) Loi de Bernoulli

Définition 12
On dit qu’une variable aléatoire X est une variable de Bernoulli de paramètre p lorsque
X(Ω) = {0; 1} et p(X = 1) = p et p(X = 0) = 1 − p. On la note alors B(p).

Propriété 13. Espérance et variance d’une loi de Bernoulli


Si X ∼ B(p) alors E(X) = p et V(X) = p(1 − p).

Démonstration (Propriété 13)

Remarque 19. Interprétation de la loi de Bernoulli


Soit A un événement tel que p(A) = p. On peut associer à A une variable de Bernoulli qui vaut 1
si A est réalisé et 0 s’il ne l’est pas. Ainsi, X est la fonction indicatrice de l’événement A.

Exemple :
On lance un dé cubique et on s’intéresse à l’obtention du chiffre 1. On note A l’événement "obtenir un
1". Soit X la variable aléatoire X = 1A . Alors X est une variable aléatoire de Bernoulli de paramètre
1 1 1 1 5
6 et donc E(X) = 6 et V(X) = 6 − 36 = 36 .

C) Loi binomiale

Définition 13
On dit que la variable aléatoire X est une variable binomiale de paramètres n ∈ N∗ et p ∈ [0; 1]
lorsque X(Ω) = J0, nK et pour tout k ∈ J0, nK :
!
n k
p(X = k) = p (1 − p)n−k
k

On note B(n, p) une telle variable.

Exemple :
Soit X ∼ B(2, 13 ). Donner le tableau pour la loi de X.
On a X(Ω) = {0, 1, 2} et
xi 0 1 2
pi 49 49 19
En effet !   
2 1 0 2 2 4
— on a p(X = 0) = = ,
0 3 3 9
!   
2 1 1 2 1 4
— de même p(X = 1) = =
1 3 3 9
!   
2 0
2 1 2 1
— et p(X = 2) = = .
2 3 3 9

11
Propriété 14. Espérance et variance d’une loi binomiale
Soient n ∈ N∗ et p ∈ [0, 1] et X ∼ B(n, p). Alors :

E(X) = np et V(X) = np(1 − p)

Démonstration (Propriété 14)

Remarque 20. Lien entre loi de Bernoulli et binomiale


➤ On voit que pour tout p ∈ [0, 1], B(p) ∼ B(1, p).
➤ Au lycée, vous avez défini la variable aléatoire binomiale comme celle qui comptait les suc-
cès dans un schéma de Bernoulli, c’est-à-dire dans une succession de n épreuves de Bernoulli
identiques, et donc indépendantes. Nous admettons ce résultat pour l’instant et le démontrerons
dans la partie sur l’indépendance.

Exemples :
1. Une urne contient 5 boules blanches et 10 boules noires. On tire au hasard avec remise 6 boules
de l’urne. On note X la variable aléatoire qui compte le nombre de boules blanches obtenues.
Alors X ∼ B(6, 31 ).
1 1 2 4
Déterminer l’espérance et la variance de X. On a E(X) = 6 × = 2 et V(X) = 6 × × = .
3 3 3 3
2. On lance 8 fois une pièce équilibrée et on note X la variable aléatoire correspondant au nombre
de piles obtenus. Alors X ∼ B(8, 12 ).
1 1 1
Déterminer l’espérance et la variance de X. On a E(X) = 8 × = 4 et V(X) = 8 × × = 2.
2 2 2

Exercice 9
Une entreprise produit en grande quantité des stylos. La probabilité qu’un stylo présente un
défaut est égale à 0, 1. On prélève dans cette production, successivement et avec remise huit
stylos. On note X la variable aléatoire qui compte le nombre de stylos présentant un défaut
parmi les huit stylos prélevés.
1. Donner la loi de X.
2. Calculer la probabilité des événements suivants :
(a) A : « il n’y a aucun stylo avec un défaut » ;
(b) B : « il y a au moins un stylo avec un défaut » ;
(c) C : « il y a exactement deux stylos avec un défaut ».

Exercice 10
On effectue une suite de n lancers d’une pièce équilibrée (n ∈ N∗ ). Déterminer n pour que l’on
puisse affirmer, avec un risque d’erreur inférieur à 4% , que la fréquence des piles obtenus diffère
de 21 d’au plus 3%.

12
IV. Couple de variables aléatoires

A) Définitions

Définition 14
Soient X : Ω → E et Y : Ω → F deux variables aléatoires.
On appelle couple de variables aléatoires l’application :

Ω → E×F
Z = (X, Y ) :
w 7→ (X(w), Y (w))

On dit que X et Y sont les variables marginales du couple Z = (X, Y ).

Exemple :
On lance deux dés. On note X le plus petit des deux nombres obtenus et Y le plus grand. Alors
Z = (X, Y ) est une couple de variables aléatoires et Z(Ω) = {(i, j) ∈ J1; 6K2 | i ⩽ j}.

Remarque 21. Bien que ce soit une jolie définition, ce n’est pas bien utile dans les exercices ...

Exercice 11
Une urne contient 2 boules blanches, 3 rouges et 1 verte. On tire trois boules et on note X le
nombre de boules blanches, Y le nombre de boules rouges. Déterminer Z(Ω).

Définition 15
Soient X : Ω → E et Y : Ω → F deux variables aléatoires.
On note X(Ω) = {x1 , · · · , xn } et Y (Ω) = {y1 , · · · , yp }. On appelle système complet d’événe-
ments associé au couple (X, Y ) la famille d’événements ((X = xi ) ∩ (Y = yj ))(i,j)∈J1;nK×J1;pK .
Pour plus de lisibilité, on note souvent (X = xi , Y = yj ) l’événement (X = xi ) ∩ (Y = yj ).

Exemple :
Si X(Ω) = {0, 1} et Y (Ω) = {1; 3} alors on a comme système complet d’événements :

((X = 0, Y = 1); (X = 0, Y = 3), (X = 1, Y = 1), (X = 1, Y = 3))

Remarque 22. On passe tous les couples possibles de X et de Y , d’où le fait que cela constitue un
système complet d’événements.

13
B) Lois de couple

Définition 16
On appelle loi conjointe ou encore loi de probabilité du couple Z = (X, Y ) l’application :

(X(Ω), Y (Ω)) → [0, 1]


pZ :
(x, y) 7→ p(X = x, Y = y)

Remarque 23. Présentation d’une loi conjointe


Soient X et Y deux variables aléatoires telles que X(Ω) = {x1 , · · · , xn } et Y (Ω) = {y1 , · · · , yp }.
1. Cette loi conjointe est usuellement représentée sous la forme d’un tableau à deux entrées :

y1 · · · yj
x1 p1,1 · · · p1,j
.. .. ..
. . .
xi pi,1 · · · pi,j ···
.. .. ..
. . .
Ce tableau a n lignes car il y a n valeurs de xi et p colonnes car il y a p valeurs de yj .
2. La somme des coefficients du tableau vaut 1 : cela provient du fait que l’on a un système complet
p
n X
X
d’événements donc pi,j = 1 où pi,j = p(X = xi , Y = yj ).
i=1 j=1
3. Donner la loi conjointe, c’est donc donner X(Ω), Y (Ω) et le tableau.
Exemple :
On joue avec deux dés. On désigne par X la variable aléatoire réelle égale au résultat donné par le
premier dé et Y la variable aléatoire égale au résultat donné par le second dé.
Donner la loi conjointe de Z = (X, Y ).

Exercice 12
Une urne contient trois boules : deux blanches et une noire. On tire successivement et sans remise
les trois boules de l’urne. On note X le rang d’apparition de la première boule blanche et Y celle
de la première boule noire. Déterminer la loi de (X, Y ).

Définition 17
Soit (X, Y ) un couple de variables aléatoires. On appelle loi marginale de X la loi de la variable
aléatoire X. De même, la loi marginale de Y est la loi de la variable aléatoire Y .

Propriété 15. Loi marginale en fonction de la loi du couple


Soient X : Ω → E et Y : Ω → F deux variables aléatoires. On note X(Ω) = {x1 , · · · , xn } et
Y (Ω) = {y1 , · · · , yp }. Alors, pour tout i ∈ J1, nK :
p
X
p(X = xi ) = p(X = xi , Y = yj )
j=1

De même, pour tout j ∈ J1, pK :


n
X
p(Y = yj ) = p(X = xi , Y = yj )
i=1

14
Démonstration (Propriété 15)

Exemple :
Un sac contient 5 jetons indiscernables au toucher. Deux d’entre eux portent le numéro 1, deux autres
le numéro 2 et un le numéro 3. On tire deux jetons. Soit S la somme indiquées par ces deux jetons
et T le produit de ces chiffres. Alors S(Ω) = {2, 3, 4, 5} et T (Ω) = {1, 2, 3, 4, 6}. Cherchons la loi de
probabilité du couple (S, T ). On trouve :
1 2 3 4 6
2 1/10 0 0 0 0
3 0 4/10 0 0 0
4 0 0 2/10 1/10 0
5 0 0 0 0 2/10
On peut donc facilement en déduire les lois marginales de S et de T . Par exemple, pour S :
si 2 3 4 5
pi 1/10 4/10 3/10 2/10

Définition 18
Soit (X, Y ) un couple de variables aléatoires. Soit A ⊂ X(Ω) tel que p(X ∈ A) ̸= 0.
On appelle loi conditionnelle de Y sachant (X ∈ A) l’application :

Y (Ω) → [0, 1]
p(X∈A) : p(Y = y, X ∈ A)
y 7→
p(X ∈ A)

De même, si y ∈ Y (Ω) tel que p(Y = y) ̸= 0, on peut définir la loi conditionnelle de X sachant
Y = y pour tout x ∈ X(Ω) par :

p(Y = y, X = x)
p(Y =y) (X = x) =
p(Y = y)

Exemple :
Retour à l’exemple de l’urne contenant 2 boules blanches, 3 rouges et 1 verte. On tire trois boules
simultanément et on note X le nombre de boules blanches, Y le nombre de boules rouges.
Déterminer la loi conditionnelle de X sachant (Y = 1).
On a X(Ω) = {0; 1; 2}. De plus,
— on a p(Y =1) (X = 0) = 0 car si on a pris une rouge, il faut encore prendre 2 boules, donc il y aura
forcément une blanche (car il n’y a qu’une verte).
p(Y = 1, X = 1)
— De plus, p(Y =1) (X = 1) = .
p(Y = 1)
3 3
  3 2 1
1 2 9 6 6 2
Or p(Y = 1) = 6 = et p(Y = 1, X = 1) = 1 16 1 = , donc p(Y =1) (X = 1) = = .
3
20 3
20 9 3
Autre méthode, plus rapide : il faut prendre 1 boule blanche parmi les deux blanches et donc 1
verte. Donc le nombre de tirages contenant 1 blanche sachant qu’on a une rouge est 21 11 = 2.
 

Le nombre total de tirages, sachant qu’on a déjà une rouge est : 32 = 3, car il reste à prendre


2
deux boules. D’où p(Y =1) (X = 1) = .
3
p(Y = 1, X = 2)
— Enfin, p(Y =1) (X = 2) = .
p(Y = 1)
3 2
3 3 1
Or p(Y = 1, X = 2) = 1 62 = , et finalement p(Y =1) (X = 2) = = .
3
20 9 3

15
On vérifie bien que la somme des probabilités fait 1, c’est-à-dire

p(Y =1) (X = 0) + p(Y =1) (X = 1) + p(Y =1) (X = 2) = 1

(vérification à ne pas écrire sur votre copie).

Remarque 24. Soient X et Y deux variables aléatoires telles que X(Ω) = {x1 , · · · , xn } et
Y (Ω) = {y1 , · · · , yp }.
1. Comme (Y = yj )j∈J1;pK est un système complet d’événements, en utilisant la formule des proba-
bilités totales, on obtient :
p
X
p(X = xi ) = p(Y = yj )p(Y =yj ) (X = xi )
j=1

pour tout i ∈ J1; nK, et comme (X = xi )i∈J1;nK est aussi un système complet d’événements, en
utilisant à nouveau la formule des probabilités totales, il vient que :
n
X
p(Y = yj ) = p(X = xi )p(X=xi ) (Y = yj )
i=1

pour tout j ∈ J1; pK.


2. D’après la formule de transfert, en posant Z = XY , il vient que :
X
E(Z) = zk p(Z = zk )
k

où zk ∈ {xi yj | (xi , yj ) ∈ X(Ω) × Y (Ω)}, ce qui s’écrit aussi :


p
n X
X
E(XY ) = xi yj p(X = xi , Y = yj )
i=1 j=1

Exercice 13
Soit n ⩾ 2. On dispose de n urnes U1 , · · · , Un . Pour tout k ∈ J1, nK, l’urne Uk contient k boules
numérotées de 1 à k. On choisit une urne au hasard, puis on tire une boule de cette urne.
Soient X la variable aléatoire donnant le numéro de l’urne choisie et Y la variable aléatoire
donnant le numéro de la boule obtenue.
1. Donner la loi de X et son espérance.
2. Déterminer la loi du couple (X, Y ).
3. En déduire la loi marginale de Y .

C) Covariance d’un couple

Définition 19
Soit (X, Y ) un couple de variables aléatoires discrètes scalaires.
On appelle covariance de X et de Y le scalaire, noté Cov(X, Y ), défini par :

Cov(X, Y ) = E[(X − E(X))(Y − E(Y ))]

16
Propriété 16. Liens entre covariance, espérance et variance
Soit (X, Y ) un couple de variables aléatoires discrètes scalaires.
➤ Cov(X, Y ) = Cov(Y, X)
➤ Cov(X, X) = V(X)
➤ Cov(X, Y ) = E(XY ) − E(X)E(Y )
➤ V(X + Y ) = V(X) + V(Y ) − 2 Cov(X, Y )

Démonstration (Propriété 16)

Définition 20
Soit (X, Y ) un couple de variables aléatoires discrètes scalaires.
On dit que X et Y sont décorrélées ou non corrélées lorsque Cov(X, Y ) = 0.
La décorrélation des variables aléatoires X et Y est immédiatement équivalente à :

E(XY ) = E(X)E(Y ) et V(X + Y ) = V(X) + V(Y )

D) Variables aléatoires indépendantes

Définition 21
On dit que les variables aléatoires X et Y sont indépendantes, noté X ⊥⊥ Y , lorsque :
Pour tout (A, B) ∈ P(X(Ω)) × P(Y (Ω)), les événements (X ∈ A) et (X ∈ B) sont indépendants.

∀(A, B) ∈ P(X(Ω)) × P(Y (Ω)), (X ∈ A) ⊥⊥ (X ∈ B)

Remarque 25. Traduction en termes calculatoires


Cette définition équivaut au fait que la distribution de probabilité de (X, Y ) est donnée par :

∀(x, y) ∈ X(Ω) × Y (Ω), p(X = x, Y = y)) = p(X = x)p(Y = y)


Ainsi, lorsque deux variables aléatoires sont indépendantes, la connaissance des lois marginales
suffit à déterminer celle du couple.

Exemple :
Une urne contient n jetons numérotés de 1 à n. On en tire deux avec remise et on note X et Y les
numéros des jetons obtenus respectivement au premier et second tirages. Les variables aléatoires X
et Y sont indépendantes. Par contre, si le tirage est sans remise, les variables aléatoires ne sont plus
indépendantes.

Exercice 14
Soient X et Y deux variables aléatoires telles que X(Ω) = Y (Ω) = {0, 1}. Montrer que les
variables aléatoires X et Y sont indépendantes si, et seulement si, les événements (X = 0) et
(Y = 0) sont indépendants.

17
Propriété 17. Produit de deux VA indépendantes
Soient X : Ω → E et Y : Ω → F deux variables aléatoires indépendantes.
Alors, pour toute partie V de E et toute partie W de F :

p((X, Y ) ∈ V × W ) = p(X ∈ V ) × p(Y ∈ W )

Démonstration (Propriété 17)

Exemple :
Soient X et Y deux variables aléatoires indépendantes telles que X ∼ B(4, 13 ) et Y ∼ U(5).
Déterminer p(X = 4, 2 ⩽ Y ⩽ 4).
Puisque X et Y sont indépendantes, p(X = 4, 2 ⩽ Y ⩽ 4) = p(X = 4) × p(2 ⩽ Y ⩽ 4). Or :
!   
4 1 4 2 0 1
p(X = 4) = =
4 3 3 81

4
X 3 1 3 1
et p(2 ⩽ Y ⩽ 4) = p(Y = k) = . Donc p(X = 4, 2 ⩽ Y ⩽ 5) = × = .
k=2
5 81 5 135

Propriété 18. Indépendance implique non corrélation


Soit (X, Y ) un couple de variables aléatoires scalaires.

X⊥
⊥Y =⇒ Cov(X, Y ) = 0

Démonstration (Propriété 18)

Exemple :
On lance deux dés. On note X1 la variable aléatoire donnant le chiffre obtenue par le dé 1 et X2 celui
obtenu par le dé 2. Les variables X1 et X2 sont indépendantes et suivent toutes deux une loi uniforme
2
U(6). Ainsi V(X1 ) = V(X2 ) = 6 12−1 . Appelons Y la variable aléatoire donnant la somme des deux dés.
Ainsi Y = X1 + X2 et donc V(Y ) = V(X1 ) + V(X2 ) = 35 6 .

Remarque 26. La propriété précédente peut être utile notamment pour montrer que X et Y ne sont
pas indépendantes. En effet, si vous montrez que E(X)E(Y ) ̸= E(XY ) alors X et Y ne seront pas
indépendantes.

Propriété 19. Lemme des coalitions pour 2 VA


Soient X et Y deux variables aléatoires indépendantes. Soient f une fonction définie sur X(Ω) et
g une fonction définie sur Y (Ω). Alors f (X) et g(Y ) sont indépendantes.

Démonstration (Propriété 19)

Remarque 27. Cela signifie que si X et Y sont indépendantes, alors X 2 et Y le sont, X 2 et Y 2 aussi,
etc.

18
E) Variables mutuellement indépendantes

Définition 22
Soit n ∈ N∗ . Soit Xi = Ω → Ei une variable aléatoire. On dit que les variables aléatoires X1 , · · · , Xn
sont mutuellement indépendantes lorsque pour tout (v1 , · · · , vn ) ∈ X1 (Ω) × · · · × Xn (Ω) alors :
n
\ n
Y
p( (Xi = vi )) = p(Xi = vi )
i=1 i=1

Notation : l’événement (X1 = v1 ) ∩ · · · ∩ (Xn = vn ) se note aussi (X1 = v1 , X2 = v2 , · · · , Xn = vn ).

Remarque 28. Pour montrer que trois variables aléatoires X, Y et Z telles que, par exemple X(Ω) =
{x1 , x2 } , Y (Ω) = {y1 } et Z(Ω) = {z1 , z2 } sont mutuellement indépendantes, on doit montrer que :
(i) p(X = x1 , Y = y1 , Z = z1 ) = p(X = x1 )p(Y = y1 )p(Z = z1 )
(ii) p(X = x1 , Y = y1 , Z = z2) = p(X = x1 )p(Y = y1 )p(Z = z2 )
(iii) p(X = x2 , Y = y1 , Z = z1 ) = p(X = x2 )p(Y = y1 )p(Z = z1 )
(iv) p(X = x2 , Y = y1 , Z = z2 ) = p(X = x2 )p(Y = y1 )p(Z = z2 )
De là, on en déduit alors que p(X = x1 , Y = y1 ) = p(X = x1 ) × p(Y = y1 ).
En effet, p(X = x1 , Y = y1 ) = p(X = x1 , Y = y1 , Z = z1 ) + p(X = x1 , Y = y1 , Z = z2 ) d’où

p(X = x1 , Y = y1 ) = p(X = x1 )p(Y = y1 ) (p(Z = z1) + p(Z = z2 )) = p(X = x1 )p(Y = y1 )

On fait de même pour p(X = x2 , Y = y1 ), p(X = x1 , Y = z1 ), et ainsi de suite.


On en déduit donc que les variables aléatoires X1 , · · · , Xn sont mutuellement indépendantes si,
et seulement si, les événements (Xi = vi ) sont mutuellement indépendants.

A retenir
Pour montrer que les variables X, Y et Z sont mutuellement indépendantes, on doit montrer que
p(X = xi , Y = yj , Z = zk ) pour tout (xi , yj , zk ) ∈ X(Ω) × Y (Ω) × Z(Ω) et c’est tout !

Exercice 15
Soient X et Y deux variables indépendantes suivant la loi de Bernoulli de paramètre 21 . Soit
Z = |X − Y |. Montrer que les variables X et Z sont indépendantes mais que les variables X, Y
et Z ne sont pas mutuellement indépendantes.

Remarque 29.
Soit (X1 , · · · , Xn ) des variables aléatoires mutuellement indépendantes à valeurs dans les ensembles
(E1 , · · · , En ). Alors pour toute partie (V1 , · · · , Vn ) de E1 × · · · × En :
n
\ n
Y
p( {Xi ∈ Vi }) = p(Xi ∈ Vi )
i=1 i=1

Cela signifie que si X, Y et Z sont trois variables aléatoires mutuellement indépendantes telles
que, par exemple X(Ω) = {0; 1; 2}, Y (Ω) = {1; 3; 6} et Z(Ω) = {0; 4; 5}, alors :

p(X ⩽ 1, 2 ⩽ Y ⩽ 5, Z ⩽ 3) = p(X ⩽ 1) × p(2 ⩽ Y ⩽ 5) × p(Z ⩽ 3)

c’est-à-dire ici :

p(X ⩽ 1, 2 ⩽ Y ⩽ 5, Z ⩽ 3) = (p(X = 0) + p(X = 1)) × p(Y = 3) × p(Z = 0)

19
Exercice 16
On lance trois fois de suite un dé équilibré à 6 faces. Pour i ∈ {1, 2, 3}, on note Xi la variable
aléatoire qui indique le résultat du i−ième lancer. On considère que les VA Xi sont indépendantes.
1. Exprimer l’événement A :"Le résultat du premier lancer est pair, celui du deuxième lancer
est impair et celui du troisième est supérieur à 5" à l’aide des VA Xi .
2. Calculer p(A).
3. On note S = X1 + X2 + X3 . Calculer E(S), V(S) et p(S = 4).

Propriété 20. Somme de VA de Bernoulli


Soient X1 , · · · , Xn des variables aléatoires mutuellement indépendantes et suivant chacune la loi
B(p) alors la variable aléatoire Y = X1 + · · · + Xn suit la loi B(n, p).
On retrouve la propriété étudiée au lycée.

Démonstration (Propriété 20)

Propriété 21. Lemme des coalitions (Admis)


Soient X1 , · · · , Xn des variables aléatoires mutuellement indépendantes et k ∈ J1, n − 1K. Alors,
pour toutes fonctions f définie sur X1 (Ω) × · · · × Xk (Ω) et g définie sur Xk+1 (Ω) × · · · × Xn (Ω), les
variables aléatoires f (X1 , · · · , Xk ) et g(Xk+1 , · · · , Xn ) sont mutuellement indépendantes.

Remarque 30. Extension à plus de deux coalitions


Ce résultat s’étant à plus de deux coalitions. Ainsi, avec des notations évidentes, si X1 , · · · , Xn
sont des variables aléatoires mutuellement indépendantes, alors les variables aléatoires f (X1 , · · · , Xk ),
g(Xk+1 , · · · , Xl ) et h(Xl+1 , · · · , Xl ) sont également mutuellement indépendantes.

Exercice 17 Une marche aléatoire


Soit d ∈ N∗ . On considère la variable aléatoire X à valeurs dans Zd et (Xk )k∈N∗ une suite de
variables aléatoires mutuellement indépendantes suivant chacune la loi de X et définies sur le
même espace probabilisé.
(i) On définit la suite (Sn )n∈N comme une marche aléatoire de pas X.
n
X
Ainsi, S0 = 0 et ∀ n ∈ N∗ , Sn = Xi .
i=1
(ii) On note R la variable aléatoire à valeurs dans N∗ qui renvoie le premier instant auquel la
marche aléatoire (Sn )n∈N revient en 0. Autrement dit :

R = min {n ∈ N∗ | Sn = 0}

1. Soient (k, n) ∈ N2 , tels que 1 ⩽ k ⩽ n. Démontrer que :

p((Sn = 0) ∩ (R = k)) = p(R = k)p(Sn−k = 0)

2. En déduire que :
n
∀ n ∈ N∗ ,
X
p(Sn = 0) = p(R = k)p(Sn−k = 0)
k=1

20

Vous aimerez peut-être aussi