Académique Documents
Professionnel Documents
Culture Documents
Dans tout ce chapitre, (Ω, P ) désigne un espace probabilisé fini et X et Y désignent deux VAR finies
et définies sur Ω.
On notera X(Ω) = {xi /i ∈ I} et Y (Ω) = {yj /j ∈ J} où I et J désignent une partie finie de N.
Définition 1
On appelle couple de VAR, et on note (X, Y ), l’application de Ω dans R2 définie par
Définition 2
On appelle loi du couple de VAR finies (X, Y ), ou encore loi conjointe des variables aléatoires
X et Y , l’ensemble des couples ((xi , yj ), pi,j ) où
Conseils méthodologiques :
— Déterminer la loi du couple (X, Y ) signifie qu’il faut expliciter X(Ω) et Y (Ω) puis calculer toutes
les valeurs de P ([X = xi ] ∩ [Y = yj ]) où xi ∈ X(Ω) et yj ∈ Y (Ω).
— Lorsque cela sera possible, on présentera la loi de (X, Y ) sous forme d’un tableau à double
entrée :
Y
y1 y2 ... yn
X
x1 P ([X = x1 ] ∩ [Y = y1 ]) P ([X = x1 ] ∩ [Y = y2 ]) ... P ([X = x1 ] ∩ [Y = yn ])
.. ..
x2 . .
.. .. ..
. . .
xp P ([X = xp ] ∩ [Y = y1 ]) ... ... P ([X = xp ] ∩ [Y = yn ])
Exemple 1:
Une urne contient 2 boules blanches, 3 boules rouges et 4 boules bleues. On extrait simultanément 3
boules de l’urne. On note X le nombre de boules blanches parmi ces 3 boules et Y le nombre de boules
rouges.
9
Déterminer la loi du couple (X, Y ). (On donne = 84 )
3
On a X(Ω) = {0, 1, 2} et Y (Ω) = {0, 1, 2, 3}.
— On ne choisit que 3 boules dans l’urne donc le total des boules blanches et des boules rouges ne
peut pas dépasser 3. Donc :
P ([X = 2] ∩ [Y = 2]) = P ([X = 2] ∩ [Y = 3]) = P ([X = 1] ∩ [Y = 3]) = 0
— Pour toutes les autres valeurs de X etY le raisonnement est le même. Détaillons un exemple :
9
Les tirages sont équiprobables. Il y a façon de choisir 3 boules parmi 9.
3
Y
0 1 2 3
X
4 1 18 3 12 1 1
0 = = =
84 21 84 14 84 7 84
12 1 24 2 6 1
1 = = = 0
84 7 84 7 84 14
4 1 3 1
2 = = 0 0
84 21 84 28
2 Lois marginales
Définition 3
Soit (X, Y ) un couple de VAR finies.
La loi de X et la loi de Y sont appelées les lois marginales du couple (X, Y ).
Conseils méthodologiques :
Lorsque l’on connait la loi du couple (X, Y ) on peut en déduire la loi de X (resp. de Y ) grâce à la
formule des probabilités totales appliquée avec le système complet d’événements ([Y = yj ])j∈J (resp.
([X = xi ])i∈I ) :
X
∀i ∈ I, P ([X = xi ]) = P ([X = xi ] ∩ [Y = yj ])
j∈J
X
∀j ∈ J, P ([Y = yj ]) = P ([X = xi ] ∩ [Y = yj ]).
i∈I
Exemple 2:
Reprenons l’exemple 1 et déterminons les lois marginales du couple (X, Y ).
On a X(Ω) = {0; 1; 2} et Y (Ω) = {0; 1; 2; 3}.
Les événements ([Y = 0], [Y = 1], [Y = 2], [Y = 3]) forment un système complet d’événements. D’après
la formule des probabilités totales :
P (X = 0) = P ([Y = 0] ∩ [X = 0]) + P ([Y = 1] ∩ [X = 0]) + P ([Y = 2] ∩ [X = 0]) + P ([Y = 3] ∩ [X = 0])
1 3 1 1 35
= + + + =
21 14 7 84 84
Cours TSI2 Page 2 Couples et vecteurs de VAR finies
On remarque que l’on a sommé toute les valeurs du tableau situé sur la ligne X = 0, pour obtenir
P (X = 0). Ainsi une fois que l’on a bien expliqué un calcul on peut juste donner les lois marginales en
rajoutant une ligne et une colonne au tableau de la loi de (X, Y ) :
Y
0 1 2 3 Loi de X
X
4 1 18 3 12 1 1 35 5
0 = = = =
84 21 84 14 84 7 84 84 12
12 1 24 2 6 1 42 1
1 = = = 0 =
84 7 84 7 84 14 84 2
4 1 3 1 7 1
2 = = 0 0 =
84 21 84 28 84 12
5 15 3 1
Loi de Y 1
21 28 14 84
Attention, la réciproque à la remarque précédente n’est en général pas vraie : la connaissance des lois
marginales ne suffit pas à déterminer la loi du couple.
Exemple 3:
On considère deux couples de VAR finies (X, Y ) et (X ′ , Y ′ ) dont les lois sont résumées dans les tableaux
suivants :
Y Y′
0 1 Loi de X 0 1 Loi de X ′
X X ′
1 1 1 1 3 1
0 0
4 4 2 8 8 2
1 1 1 3 1 1
1 1
4 4 2 8 8 2
1 1 1 1
Loi de Y Loi de Y ′
2 2 2 2
3 Loi conditionnelle
Définition 4
Soit (X, Y ) un couple de VAR finies et soit y ∈ Y (Ω) tel que P (Y = y) 6= 0.
On appelle loi conditionnelle de X sachant [Y = y] l’ensemble des couples (xi , P[Y =y] (X = xi ))
pour i ∈ I.
On définit de même pour x ∈ X(Ω) la loi conditionnelle de Y sachant [X = x].
Conseils méthodologiques :
Déterminer le loi conditionnelle de X sachant [Y = y] signifie qu’il faut expliciter X(Ω), puis, pour
tout x ∈ X(Ω), P[Y =y] (X = x).
Conseils méthodologiques :
Il est important de bien savoir jongler entre loi du couple, lois marginales et loi conditionnelle. Il s’agit
uniquement d’appliquer la définition des probabilités conditionnelles ou alors d’appliquer la formule
des probabilités totales mais voici tout de même un résumé de tout cela :
— Loi conditionnelle à partir de la loi du couple :
P ([X = xi ] ∩ [Y = yj ])
si P (X = xi ) 6= 0, P[X=xi] (Y = yj ) = .
P (X = xi )
P ([X = xi ] ∩ [Y = yj ])
si P (Y = yj ) 6= 0, P[Y =yj ] (X = xi ) = .
P (Y = yj )
— Loi du couple à partir de la loi conditionnelle :
P ([X = xi ] ∩ [Y = yj ]) = P (X = xi )P[X=xi ] (Y = yj ).
P ([X = xi ] ∩ [Y = yj ]) = P (Y = yj )P[Y =yj ] (X = xi ).
— Lois marginales à partir de la loi du couple :
X
P (X = xi ) = P ([X = xi ] ∩ [Y = yj ]).
j∈J
X
P (Y = yj ) = P ([X = xi ] ∩ [Y = yj ]).
i∈I
Pour l’exploitation des deux derniers points en exercice, il faudra toujours bien rédiger au moins une
fois l’utilisation de la formule des probabilités totales en précisant le système complet d’événements
utilisé (si le même type de raisonnement est utilisé plusieurs fois dans le problème il ne faudra pas
hésiter à utiliser une rédaction du type ≪ De même . . . ≫).
On remarque alors deux choses : il nous faut la loi de X et vu les calculs fait dans l’exemple précédent
il nous faut ≪ séparer ≫ la somme en plusieurs morceaux.
Étant donné que l’on choisit l’urne au hasard, X suit la loi uniforme sur J1; nK.
1
On a X(Ω) = J1; nK et ∀i ∈ X(Ω), P (X = i) = . Donc
n
j−1 n n n
X X 1 1 X1
X 1
P (Y = j) = P ([X = i])P[X=i] (Y = j) + P ([X = i])P[X=i] (Y = j) = 0 + × = .
i=1 i=j i=j
n i n i=j i
En étant rigoureux il aurait fallu distinguer le cas j = 1 car alors notre ≪ découpage de somme ≫ n’a
pas de sens mais comme la somme de i = 1 à j − 1 est ensuite nulle cela ne pose en fait pas de problème.
Remarque :
On remarque dans cet exemple que P (Y = j) s’exprime à l’aide d’une somme. Ainsi, si l’on doit ensuite
calculer l’espérance de Y on pourra voir apparaitre une ≪ double somme ≫. Comme le programme se limite
aux couples de VAR finies ces sommes seront finies et il n’y aura donc pas de difficultés de calculs (par
exemple on pourra ≪ échanger ≫ les sommes sans problème, ce qui n’est pas si facile avec des sommes
infinies).
Exemple 6:
Calculons l’espérance de la variable Y de l’exemple précédent.
Y est une VAR discrète finie donc elle admet une espérance et on a :
n n X n n X i
X X j X j X j
E(Y ) = jP (Y = j) = = =
j=1 j=1 i=j
in ni i=1 j=1
in
(i,j)∈J1;nK2 ,i6j
n i
! n
X 1X X 1 i(i + 1)
= j = ×
i=1
in j=1 i=1
in 2
n
1X 1 n(n + 1) n+3
= (i + 1) = × +n =
2n i=1 2n 2 4
Remarque :
Dans les exercices sur les couples de variables aléatoires on pourra voir apparaitre un calcul de proba-
bilité faisant intervenir les deux variables en même temps. Aucun résultat théorique n’est au programme
de ce sujet, il faudra se ramener aux valeurs de X et Y répondant à l’événement demandé. Pour résumer
≪ grossièrement ≫ :
X
P (g(X, Y ) = 0) = P ([X = x] ∩ [Y = y]).
(x,y)∈X(Ω)×Y (Ω)/g(x,y)=0
Exemple 7:
On continue avec l’exemple 4 et on souhaite calculer P (X = Y ).
n n n n
X X X 1 1 X1
On a : P (X = Y ) = P ([X = i] ∩ [Y = i]) = P (X = i)P[X=i] ([Y = i]) = = .
i=1 i=1 i=1
ni n i=1 i
Dans cette partie, X1 , X2 , . . . , Xn désignent n variables aléatoires réelles finies définies sur Ω.
Définition 5
On appelle n-uplet de VAR finies ou vecteur de n VAR finies, et on note (X1 , . . . , Xn ), l’appli-
cation de Ω dans Rn définie par :
Définition 6
— On appelle loi conjointe de (X1 , . . . , Xn ) la donnée de X1 (Ω), X2 (Ω), . . . , Xn (Ω) et pour
tout (x1 , . . . , xn ) ∈ X1 (Ω) × . . . × Xn (Ω), la donnée de P ([X1 = x1 ] ∩ . . . ∩ [Xn = xn ]).
— Les lois des Xi s’appellent les lois marginales du vecteur (X1 , . . . , Xn ).
Définition 7
On dit que deux VAR finies X et Y sont indépendantes si :
Exemple 8:
Reprenons l’expérience de l’exemple 4. Les variables X et Y sont-elles indépendantes ?
n
1 1 X1
On remarque que P ([X = 1] ∩ [Y = 2]) = 0, mais P (X = 1) × P (Y = 2) = × 6= 0.
n n i=2 i
Donc X et Y ne sont pas indépendantes.
Conseils méthodologiques :
Le plus souvent pour montrer que deux variables ne sont pas indépendantes on explicite un exemple
de valeurs de i et j pour lesquelles P ([X = i] ∩ [Y = j]) 6= P (X = i)P (Y = j).
Remarque :
Lorsque X et Y sont indépendantes on peut obtenir la loi du couple (X, Y ) à l’aide des lois de X et
de Y , ce qui n’est pas possible en général (cf. exemple 3).
Propriété 1
— Si X et Y sont indépendantes, pour toute partie A ⊂ X(Ω) et toute partie B ⊂ Y (Ω), on a :
Remarque :
On peut énoncer le deuxième point de cette propriété avec des inégalités strictes ou dans ≪ l’autre
sens ≫.
2 n variables
Définition 8
Soient X1 , ..., Xn n VAR finies. On dit que les variables X1 , ..., Xn sont mutuellement indépendantes
lorsque, pour tout (x1 , ..., xn ) ∈ X1 (Ω) × · · · × Xn (Ω) :
Propriété 3
Soient X1 , · · · , Xn des VAR finies mutuellement indépendantes et soit p ∈ {2, ..., n − 1}. Alors toute
variable aléatoire fonction des variables X1 , · · · , Xp est indépendante de toute variable aléatoire fonction
des variables Xp+1 , · · · , Xn .
Exemple 10:
Si X1 , X2 , X3 , X4 , X5 sont 5 VAR finies mutuellement indépendantes alors les variables X1 + 2X32 et
X2 − eX5 sont indépendantes.
1 Espérance
Théorème 1
X + Y et XY admettent une espérance (car VAR finies) et
Remarques :
— Il faut donc connaitre la loi du couple (X, Y ) pour calculer E(XY ).
— La démonstration de ces formules est hors programme.
Propriété 4
Si X et Y sont indépendantes alors E(XY ) = E(X)E(Y ).
Démonstration
D’après le théorème précédent :
X
E(XY ) = xi yj P ([X = xi ] ∩ [Y = yj ])
(i,j)∈I×J
X
= xi yj P (X = xi )P (Y = yj ) car X et Y sont indépendantes
(i,j)∈I×J
✷
Attention la réciproque de cette propriété est en général fausse.
Ce n’est pas parce que E(XY ) = E(X)E(Y ) que les VAR sont indépendantes.
Exemple 12:
On considère X une VAR qui suit une loi uniforme sur {−1; 0; 1} et Y la variable définie par :
(
1 si X = 0
Y = .
0 sinon
1 1 1
On a alors E(X) = (−1) × + 0 × + 1 × = 0, donc E(X)E(Y ) = 0.
3 3 3
Et de plus XY = 0 donc E(XY ) = 0.
1
Mais il est pourtant clair que X et Y ne sont pas indépendantes : P ([X = 0] ∩ [Y = 1]) = et
3
1 1 1
P (X = 0) × P (Y = 1) = × = .
3 3 9
Théorème 2
Soient X1 , . . . , Xn des VAR mutuellement indépendantes suivant toutes la loi de Bernoulli de paramètre
p (p ∈ [0; 1]).
Alors la variable aléatoire X1 + . . . + Xn suit la loi binomiale de paramètres n et p.
Remarques :
— Ce théorème permet de comprendre une nouvelle fois l’interprétation d’une loi binomiale.
On effectue n expérience indépendantes et on s’intéresse au nombre X de réalisation d’un événement
A de probabilités p.
On peut alors noter Xi la variable aléatoire qui vaut 1 si l’événement A est réalisé lors de la ième
expérience et 0 sinon. Xi suit donc la loi de Bernoulli de paramètre p, et comme les expériences
sont indépendantes, les variables Xi sont mutuellement indépendantes.
On remarque alors que X = X1 + . . . + Xn .
— La démonstration de ce théorème se fait par récurrence.
3 Covariance
a Définition
Définition 9
Soient X et Y deux VAR finies.
On appelle covariance de X et de Y le nombre réel cov(X, Y ) = E [(X − E(X))(Y − E(Y ))].
Théorème 3
Remarque :
La réciproque est en générale fausse. Dans l’exemple 12, cov(X, Y ) = 0 mais X et Y ne sont pas
indépendantes.
Remarque :
V (X + Y ) − V (X) − V (Y )
On en déduit facilement que cov(X, Y ) = .
2
Corollaire 1
Si X et Y sont deux VAR finies indépendantes on a V (X + Y ) = V (X) + V (Y ).
Remarque :
Encore une fois la réciproque à ce résultat est en général fausse.
Définition 10
Soient X et Y deux VAR finies d’écart type non nul. On appelle coefficient de corrélation linéaire
de X et Y le réel :
cov(X, Y )
ρ(X, Y ) = .
σ(X)σ(Y )
Propriété 6
Soient X et Y deux VAR finies d’écart type non nul. Alors : |ρ(X, Y )| 6 1.
Remarque :
La démonstration de cette propriété repose sur une inégalité de Cauchy-Schwarz :
p p
|E(XY )| 6 E(X 2 ) E(Y 2 )