Académique Documents
Professionnel Documents
Culture Documents
03 Vecteur
03 Vecteur
EL AMDAOUI Mustapha
22 janvier 2018
Plan
I. Couples de variables discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . 1
I.1. Loi d’un couple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
I.2. Lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
I.3. Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
I.4. Indépendance de VAR discrètes. . . . . . . . . . . . . . . . . . . . . . . . 5
II. Variable aléatoire fonction d’un couple . . . . . . . . . . . . . . . . . . . . . . . 6
II.1. Loi de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
II.2. Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
II.3. Covariance et coefficient de corrélation linéaire . . . . . . . . . . . . . . . . . . 11
III. Vecteurs de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . 14
III.1. Vecteurs aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
III.2. Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
III.3. Stabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
III.4. Espérance, variance et covariance . . . . . . . . . . . . . . . . . . . . . . . 16
1
Éléments de cours: MP Vecteur de variables aléatoires discrètes
Définition:
On appelle couple de VAR discrète et on note (X, Y ) toute application de Ω dans R2 définie par
(X, Y )(ω) = (X(ω), Y (ω)).
Remarque:
Il s’agit d’une variable aléatoire discrète car (X, Y ) (Ω) ⊂ X (Ω) × Y (Ω) est au plus dénombrable.
Définition:
On appelle loi du couple de VAR discrètes (X, Y ), ou encore loi conjointe des variables aléatoires
X et Y , l’ensemble des couples ((xi , yj ), pi,j ) où
Remarque:
— Lorsque cela sera possible, on présentera la loi de (X, Y ) sous forme d’un tableau à double entrée.
— Lorsqu’on vous demande la loi du couple (X, Y ) il faut toujours commencer par rappeler X(Ω),
Y (Ω) puis il faut donner la valeurs de P ([X = xi ] ∩ [Y = yj ]) où xi ∈ X(Ω) et yj ∈ Y (Ω).
Exemple:
Une urne contient 2 boules blanches, 3 boules rouges et 4 boules bleues. On extrait 3 boules de l’urne.
On note X le nombre de boules blanches parmi ces 3 boules et Y le nombre de boules rouges.
Déterminer la loi du couple (X, Y ).
Exemple:
Dans une succession de pile ou face pour laquelle la probabilité d’obtenir pile est p ∈]0; 1[ et la probabilité
d’obtenir face est q = 1 − p, on note X le rang d’apparition du premier pile et Y le rang d’apparition du
deuxième pile.
Déterminer la loi du couple (X, Y ).
Propriété:
Avec les notations précédentes, alors la famille (pi,j )(i,j)∈I×J est sommable de somme 1
X XX XX
pi,j = pi,j = pi,j = 1
(i,j)∈I×J j∈I i∈I i∈I j∈J
Théorème:
Soit {(xi , yi , pi,j )/(i, j) ∈ I × J} une partie de R3 , où I et J des ensembles au plus dénombrables. Si pour
tout (i, j) ∈ I ×J, pi,j > 0 et si la famille (pi,j )(i,j)∈I×J est sommable de somme 1, alors il existe un espace
probabilisé (Ω, T, P ) et deux VAR discrètes X et Y définies sur Ω tels que {((xi , yi ), pi,j ) /(i, j) ∈ I × J}
est la loi conjointe de (X, Y ).
Exemple:
Définition:
Soit (X, Y ) un couple de VAR discrètes. La loi de X est appelé la première loi marginale du couple
(X, Y ) et la loi de Y est appelée la deuxième loi marginale du couple (X, Y ).
Lorsque l’on connaît la loi du couple (X, Y ) on peut en déduire la loi de X et la loi de Y grâce à la formule
des probabilités totales :
Propriété:
Soit (X, Y ) un couple de VAR discrètes. Alors on a :
X
∀i ∈ I, P ([X = xi ]) = P ([X = xi ] ∩ [Y = yj ])
j∈J
X
∀j ∈ J, P ([Y = yi ]) = P ([X = xi ] ∩ [Y = yj ])
i∈I
Preuve:
Remarque:
Ce qu’il est important de retenir ici, c’est que lorsqu’on a la loi d’un couple pour obtenir la loi de X (ou
celle de Y ) il suffit de se servir de la formule des probabilités totales avec le système complet d’événements
([Y = yj ])j∈J (ou ([X = xi ])i∈I )
Exemple:
Reprenons l’exemple 2 et déterminons la loi deuxième loi marginale du couple (X; Y ) c’est-à-dire la loi
de Y .
Fonction de répartition
Soit (X, Y ) un couple de variables aléatoires réelles discrètes sur l’espace probabilisé (Ω, T, P ). La fonction
de répartition de (X, Y ) est la fonction de deux variables F(X,Y ) définie par
F(X,Y ) (x, y) = P (X 6 x, Y 6 y)
Espérance du couple
Soit (X, Y ) un couple de variables aléatoires réelles discrètes sur l’espace probabilisé (Ω, T, P ) admettant
une espérance, on définit le vecteur espérance E((X, Y )) du vecteur aléatoire (X, Y ) par l’égalité
E ((X, Y )) = (E (X) , E (Y ))
Définition:
Soit (X, Y ) un couple de VAR discrètes et soit y ∈ Y (Ω) tel que P (Y = y) 6= 0.
On appelle loi conditionnelle à [Y = y] de X l’ensemble des couples (xi , P[Y =y] (X = xi )) pour
i ∈ I.
On définit de même pour x ∈ X(Ω) la loi conditionnelle à [X = x] de Y .
Exemple:
Reprenons l’exemple 1 et déterminons la loi conditionnelle à [Y = 2] de X.
Remarque:
On aurait ici pu déterminer la loi conditionnelle à [Y = 2] de X directement sans se servir de la loi du
couple.
Il est important de bien savoir jongler entre loi du couple, loi marginale et loi conditionnelle. Il s’agit uniquement
d’appliquer la définition des probabilités conditionnelles ou alors d’appliquer la formule des probabilités totales
mais voici tout de même une propriété générale qui reprend tout cela.
Propriété:
Soit (X, Y ) un couple de VAR discrètes. Pour tout (i, j) ∈ I × J tels que P (X = xi ) 6= 0 et P (Y = yi ) 6= 0
on a :
• Loi conditionnelle à partir de la loi du couple :
P ([X = xi ] ∩ [Y = yj ])
P[X=xi ] (Y = yj ) =
P (X = xi )
P ([X = xi ] ∩ [Y = yj ])
P[Y =yj ] (X = xi ) =
P (Y = yj )
• Loi du couple à partir de la loi conditionnelle :
P ([X = xi ] ∩ [Y = yj ]) = P (X = xi )P[X=xi ] (Y = yj )
P ([X = xi ] ∩ [Y = yj ]) = P (Y = yj )P[Y =yj ] (X = xi )
• Lois marginales à partir des lois conditionnelles :
X
P (X = xi ) = P (Y = yj )P[Y =yj ] (X = xi )
j∈J
X
P (Y = yj ) = P (X = xi )P[X=xi ] (Y = yj )
i∈I
Exemple:
Soient X et Y deux variables aléatoires réelles discrètes telles que Y suive la loi de Poisson de paramètre λ,
où λ est un réel strictement positif, et que la loi conditionnelle de X sachant [Y = m] soit la loi binomiale
de paramètre (m, p) pour tout entier m, où p est un réel de ]0, 1[.
Donnons la loi conjointe de (X, Y ) et la loi de X
Solution: Pour tout entier m, par définition de la loi conditionnelle et de la loi binomiale de paramètre (m, p).
Par définition
P (X = k, Y = m)
∀k ∈ [[0, m]] , P[Y =m] (X = k) =
P (Y = m)
Donc, pour tout entier m et pour tout entier k de [[0, m]]
n−k λm −λ
P (X = k, Y = m) = P[Y =m] (X = k) × P (Y = m) = Cnk pk (1 − p) e
m!
On obtient donc ainsi la loi conjointe
m
m−k λ
e−λ
k k
Cm p (1 − p) si k ∈ [[0, m]]
P (X = k, Y = m) = m!
0 sinon
Comme ([Y = m])m∈N est un système complet d’événements, pour tout entier k, on a
+∞
X
P (X = k) = P[Y =m] (X = k) P (Y = m)
m=0
+∞
X n−k λm −λ
= Cnk pk (1 − p) e
m!
m=k
+∞ m−k m−k
pk λk X (1 − p) λ
= e−λ
k! (m − k)!
m=k
k k k
p λ (1−p)λ (pλ) −pλ
= e−λ e = e
k! k!
On en déduit que X suit la loi de poisson de paramètre λp
Définition:
On dit que deux VAR discrètes X et Y sont indépendantes si :
Exemple:
• Un urne contient n jetons numérotés de 1 à n. On en tire deux avec remise. Soit X et Y les variables
aléatoires égales au premier et au second numéro tiré. On a pour tout 1 6 i, j 6 n,
1
P ([X = i] ∩ [Y = j]) = = P (X = i)P (Y = j)
n2
donc les variables X et Y sont indépendantes.
• On effectue la même expérience mais sans remise. On a alors P ([X = i] ∩ [Y = i]) = 0 mais
1
P (X = i)P (Y = i) = 2 donc les variables ne sont pas indépendantes.
n
Propriété:
Les assertions suivantes sont équivalentes
1. X et Y sont indépendantes
2. Pour tout A ⊂ X(Ω) et B ⊂ Y (Ω), les événements [X ∈ A] et [Y ∈ B] sont indépendants.
Preuve: 1 ⇒ 2) Soit A ⊂ X(Ω) et B ⊂ Y (Ω), alors A × B est au plus dénombrable. Par la formule des
probabilités totales
X
P ([X ∈ A] ∩ [Y ∈ B]) = P ([X = x] ∩ [Y = y])
(x,y)∈A×B
X
= P (X = x) × P (Y = y)
(x,y)∈A×B
1 ⇐ 2) Soit (x, y) ∈ X (Ω) × Y (Ω), on prend A = {x} et B = {y}. Les événements (X = x) et (Y = y) sont
indépendants donc
P ([X = x] ∩ [Y = y]) = P (X = x)P (Y = y)
Corollaire:
Si X et Y sont indépendantes, alors
P ([X 6 x] ∩ [Y 6 y]) = P (X 6 x) × P (Y 6 y)
Propriété:
Si X et Y sont deux VARD indépendantes et si f et g sont deux fonctions numériques définies respecti-
vement sur X(Ω) et Y (Ω) alors f (X) et g(Y ) sont indépendantes.
X ∈ f −1 ({x}) ∩ Y ∈ g −1 ({y})
P (f (X) = x, g(Y ) = y) = P
X ∈ f −1 ({x}) ∩ Y ∈ g −1 ({y})
P (f (X) = x, g(Y ) = y) = P
= P X ∈ f −1 ({x}) × P Y ∈ g −1 ({y})
= P (f (X) = x) × P (g(Y ) = y)
Propriété:
Z = g(X, Y ) est une variable aléatoire réelle discrète
L’ensemble des valeurs prises par Z sont les g(x, y) avec (x, y) ∈ X (Ω) × Y (Ω). Mais il se peut que certaines
des valeurs des g(x, y) soient égales.
Propriété:
Soit Z = g(X, Y ). Alors, pour tout z ∈ Z (Ω), on a :
X
P (Z = z) = P ([X = x] ∩ [Y = y])
(x,y)∈X(Ω)×Y (Ω)
g(x,y)=z
Exemple:
Reprenons l’exemple 1 et déterminons les lois de S = X + Y et Z = XY .
Propriété:
l’application X + Y est une variable aléatoire réelle discrète, et
X
P (X + Y = s) = P (X = x, Y = y)
(x,y)∈X(Ω)×Y (Ω)
x+y=s
X
= P (X = x, Y = s − x)
x∈X(Ω)
s−x∈Y (Ω)
Exemple:
1 i+j
Lorsque X(Ω) = Y (Ω) = N, pij = P (X = i, Y = j) = . Trouver la loi de S = X + Y .
2e2 i!j!
Preuve: Posons S = X +Y , on a S (Ω) = [[0, m + n]]. De plus, pour tout k ∈ [[0, m + n]], on a, par indépendance
de X et de Y :
X
P (S = k) = P (X = i, Y = j)
i+j=k
X
= P (X = i) P (Y = j)
i+j=k
X m−i n−j
i i
= Cm p (1 − p) Cnj pj (1 − p)
i+j=k
m+n−k
X
= pk (1 − p) i
Cm Cnj
i+j=k
k m+n−k k
= p (1 − p) Cm+n Formule de Vandermonde
II.2. Espérance
Si on a calculé la loi de Z = g(X, Y ) alors on peut calculer l’espérance de façon classique mais si on n’a pas
déterminé clairement la loi de Z alors le théorème suivant peut aider...
Théorème de Transfert
La variable Z = g(X, Y ) a une espérance si et seulement si la famille (g(xi , yj ), pij )(i,j)∈I×J est sommable
et dans ce cas X
E(g(X, Y )) = g(x, y)P ([X = x] ∩ [Y = y])
(x,y)∈X(Ω)×Y (Ω)
Remarque:
Il faut donc connaître la loi du couple (X, Y ) pour utiliser ce théorème.
Notation:
P ([X = x] ∩ [Y = y]) se note P (X = x, Y = y)
Propriété:
Soit X et Y deux VAR discrètes admettant chacune une espérance et a, b deux réels. Alors la variable
aléatoire réelle discrète aX + bY admet une espérance, et
Positivité de l’espérance
Soient X une variable aléatoire discrète positive admettant une espérance.
Alors E(X) > 0. Si de plus E(X) = 0 alors X = 0 presque sûrement.
Car somme d’une famille de réels tous positifs. Si de plus E(X) = 0 alors
∀x ∈ X(Ω), xP (X = x) = 0
Corollaire:
Soient X et Y deux variables aléatoires discrètes admettant une espérance.
Si X 6 Y alors E(X) 6 E(Y ).
Propriété:
Si |X| 6 Y et si Y admet une espérance alors X aussi.
Or |X| 6 Y donc
xP (|X| = x, Y = y) 6 yP (|X| = x, Y = y)
En effet, si le terme de probabilité est nul, l’inégalité est vraie, sinon il existe ω ∈ Ω tel que |X(ω)| = x et
Y (ω) = y donc x = y et l’inégalité est encore vraie. En réordonnant la somme
X X
E(|X|) = yP (|X| = x, Y = y)
y∈Y (Ω) x∈|X|(Ω)
Par indépendance
X
E(X)E(Y ) = xyP (X = x, Y = y)
(x,y)∈X(Ω)×Y (Ω)
Attention:
la réciproque à la deuxième phrase est fausse.
Ce n’est pas parce que E(XY ) = E(X)E(Y ) que les VAR sont indépendantes.
Corollaire:
Si f (X) et g(Y ) admettent des espérances avec X et Y variables indépendantes alors
Corollaire:
Soit X et Y deux variables aléatoires indépendantes à valeurs dans N de fonctions génératrices respectives
GX et gY . Alors
GX+Y = GX × GY .
Exemple:
Soit X et Y deux variables aléatoires indépendantes de lois de Poisson de paramètres respectifs λ > 0 et
µ > 0. Déterminer, en calculant sa fonction génératrice, la loi de X + Y .
Propriété:
Si les variables X et Y admettent chacune un moment d’ordre 2. Alors XY admet une espérance et
2
E (XY ) 6 E X 2 E Y 2
Inégalité de Cauchy-Schwarz
Il y a égalité si et seulement si X est quasi nulle ou Y est une fonction quasi linéaire de X, c’est-à-dire,
il existe un réel a tel que P (Y = aX) = 1.
Soit
E(XY )2 6 E(X 2 )E(Y 2 )
• Cas E(X2 ) = 0 : On a nécessairement E(XY ) = 0 car sinon 2λE (XY ) + E Y 2 change de signe en
E Y2
− .
2E (XY )
2
En cas d’égalité, soit X est nulle presque sûr où il existe λ0 ∈ R tel que E (λ0 X + Y ) = 0, donc λ0 X + Y = 0
presque sûrement
Propriété:
L’ensemble des variables admettant un moment d’ordre 2 est un sous-espace vectoriel de l’espace des
variables admettant un moment d’ordre 1.
Définition:
Soient X et Y deux VAR discrètes admettant des moments d’ordre 2.
On appelle covariance de X et de Y le nombre réel
cov(X, Y )
ρ(X, Y ) = .
σ(X)σ(Y )
Propriété:
Soit X et Y admettant un moment d’ordre 2 alors
Remarque:
C’est ce théorème que l’on utilisera le plus souvent pour calculer la covariance.
Remarque:
cov(Y, X) = cov(X, Y ) et on a aussi cov(X, X) = V (X).
Corollaire:
Si X et Y sont indépendantes alors elles sont non corrélées cov(X, Y ) = 0.
Attention:
Deux VAR indépendantes sont non corrélées mais la réciproque est en générale fausse.
Exemple:
Soit X suivant une loi uniforme sur {−1, 0, 1}, on pose Y = X 2 .
Montrer que X et Y sont non corrélées, et l’indépendance ?
Solution: On a Y (Ω) = {0, 1} avec [Y = 1] = [X = −1] ∪ [X = 1], ainsi, par le théorème du transfert
E (XY ) = P (X = 1, Y = 1) − P (X = −1, Y = 1) = P (X = 1) − P (X = −1) = 0
et E (X) = 0, alors cov (X, Y ) = 0. Donc les variables ne sont pas corrélées.
1 2
D’autre part P (X = 1, Y = 1) = P (X = 1) = et P (Y = 1) = , donc P (X = 1, Y = 1) 6= P (X = 1) P (Y = 1)
3 3
Corollaire:
Si cov(X, Y ) 6= 0, alors X et Y ne sont pas indépendantes.
Propriété:
Soit X, Y, Z des VARD admettant des moments d’ordre 2 et soit a et b deux réels
1. cov(X, X) = V(X),
2. cov(X, Y ) = cov(Y, X),
3. cov(aX + bZ, Y ) = a.cov(X, Y ) + b.cov(Z, Y )
2
4. cov (X, Y ) 6 V (X) V (Y )
Coefficients de corrélation
Soit X, Y des VARD admettant des moments d’ordre 2 telles que V(X).V(Y ) 6= 0.
Alors
|ρ(X, Y )| 6 1
Finalement Ỹ = αX̃ presque sûrement équivaut à Y = αX +β presque sûrement, avec β = E(Y )−αE(X)
Remarque:
le coefficient de corrélation linéaire est un réel compris entre −1 et 1 qui compare les similarités entre les
lois de X et de Y . Il est égal à 1 dans le cas où l’une des variables est fonction affine croissante de l’autre
variable et il est égal à −1 dans le cas où la fonction affine est décroissante. Les valeurs intermédiaires
renseignent sur le degré de dépendance linéaire entre les deux variables. Plus le coefficient est proche
des valeurs extrêmes −1 et 1, plus la corrélation entre les variables est forte ; on emploie simplement
l’expression « fortement corrélées » pour qualifier les deux variables.
Preuve: L’existence de V(X + Y ) est justifiée car E(XY ) existe avec Cauchy-Schwarz et donc le moment
d’ordre 2 existe pour X + Y , donc la variance.
Analogie
Terminologie probabiliste Terminologie euclidienne
Covariance cov Produit scalaire < .|. >
Variance V Norme au carré k.k22
Écart type σ Norme k.k
Non corrélation Orthogonalité
VAR nulle presque sûr Vecteur nul
Définition:
On appelle vecteur aléatoire discret défini à partir des variables aléatoires X1 , · · · , Xn la variable aléatoire
discrète Z donnée par
∀ω ∈ Ω, Z(ω) = (X1 (ω), · · · , Xn (ω))
La loi de la variable Z est appelée loi conjointe des variables X1 , · · · , Xn tandis que les lois de X1 , · · · , Xn
sont les lois marginales de Z.
III.2. Indépendance
n variables
Soient X1 , ..., Xn n VAR discrètes. On dit que les variables X1 , ..., Xn sont mutuellement indépen-
dantes (ou tout simplement indépendantes) lorsque
pour tout (x1 , ..., xn ) ∈ X1 (Ω) × · · · × Xn (Ω) :
Exemple:
Propriété:
Les assertions suivantes sont équivalentes
1. X1 , · · · , Xn sont indépendantes
2. Pour tout Ai ⊂ Xi (Ω), les événements (Xi ∈ Ai )i∈[[1,n]] sont mutuellement indépendants
X n
Y
= P (Xi = xi )
n
Q i=1
(x1 ,··· ,xn )∈ Ai
i=1
n
Q
1 ⇐ 2) Soit (x1 , · · · , xn ) ∈ Xi (Ω), pour i ∈ [[1, n]] on prend Ai = {xi }. Les événements (Xi = xi ) sont
i=1
indépendants donc
Propriété:
Soient X1 , · · · , Xn des VAR discrètes mutuellement indépendantes et soit p ∈ {2, ..., n − 1}. Alors toute
variable aléatoire fonction des variables X1 , · · · , Xp est indépendante de toute variable aléatoire fonction
des variables Xp+1 , · · · , Xn .
Exemple:
Si X1 , X2 , X3 , X4 , X5 sont 5 VAR discrètes mutuellement indépendantes alors les variables X1 + 2X32 et
X2 − eX5 sont indépendantes.
Propriété:
Si la famille (Xi )16i6nk est indépendante et si 1 6 n1 < n2 < · · · < nk .
Alors la famille f1 (X1 , · · · , Xn1 ), f2 (Xn1 +1 , · · · , Xn2 ), · · · , fk (Xnk−1 +1 , · · · , Xnk ) est indépendante
III.3. Stabilités
Corollaire:
Si X1 , · · · , Xk sont VAR mutuellement indépendantes suivant des lois binomiales de paramètres
respectifs ! (n1 , p), · · · , (nk , p) alors la variable aléatoire X1 + · · · + Xk suit une loi binomiale de paramètre
Xk
ni , p .
i=1
Corollaire:
Si X1 , · · · , Xk sont VAR mutuellement indépendantes suivant des lois de Poisson de paramètres
k
X
respectifs λ1 , · · · , λk alors la variable aléatoire X1 + · · · + Xk suit une loi de Poisson de paramètre λi .
i=1
Propriété:
Soient X1 , · · · , Xn des variables aléatoires discrètes admettant toutes des espérances. Alors la variable
Xn
Xi admet une espérance et
i=1 !
Xn Xn
E Xi = E (Xi )
i=1 i=1
n
! n
X X X
V Xi = V (Xi ) + 2 cov (Xi , Xj ).
i=1 i=1 16i<j6n
n
! n
X X
Si de plus les variables sont indépendantes, alors V Xi = V (Xi ).
i=1 i=1
Exemple:
Soit X une variable aléatoire discrète suivant une loi binomiale B(n, p). On interprète X comme la somme
de n variables aléatoires indépendantes Xi suivant une loi de Bernoulli de paramètre p. Donc
n
X
X= Xi avec ∀i ∈ [[1, n]] Xi ∼ B(1, p)
i=1