Vous êtes sur la page 1sur 19

Ecole Hassania des Travaux Publics

Cours de Probabilités

Chapitre 4 : Vecteurs aléatoires

Professeur Mohammed Idrissi Kaitouni

1
I- Définitions

▪ Un vecteur aléatoire X est un aléa (mesurable) de (Ω,T,P) → (ℝn, Ɓ ℝn)

avec X(ω) = (X1(ω) , … , Xn(ω))

Commençons par vérifier que :

X est mesurable  Xi est mesurable ∀i

<= / Soit B = B1 x … x Bn un borélien de ℝn .

X-1(B) = {ω ∈ Ω / X1(ω) ∈ B1 et … et Xn(ω) ∈ Bn }

X-1(B) = ⋂𝑖 𝑋𝑖−1 (Bi) ∈ T

=> / Soit Bi un borélien de ℝ.

𝑋𝑖−1 (Bi) = X-1 (ℝ x … x ℝ x Bi x ℝ x … x ℝ) ∈ T

▪ On définit la fonction de répartition du vecteur X par :

FX : ℝn .→ [0,1]

(x1, … , xn) .→ FX (x1, … , xn)

FX (x1, … , xn) = P[X1< x1 et … et Xn < xn]

Remarque :

Si les Xi sont indépendantes alors :

FX (x1, … , xn) = ∏𝑖 FXi(xi)

2
II- Vecteurs discrets

On dit que X = (X1, … , Xn) est discret si chaque composante Xi prend ses

valeurs dans un ensemble dénombrable.

Pour mieux illustrer les vecteurs discrets, considérons le cas d’un vecteur

Z = (X,Y) à deux dimensions et soit X(Ω) = {x1, … , xi, … }

Y(Ω) = {y1, … , yj, … }

P[X= xi] = pi. et P[Y= yj] = p.j

Soit P [X= xi et Y= yj] = pij

On présente en général la loi du vecteur

Z = (X , Y) par un tableau :

Y y1 … yj … marg X

x1 p11 … p1j …
p1.
.

xi pi1 … pij … p i.
.

marg Y 1
p.1 … p.j …

3
p i . = ∑𝑗 pij et p.j = ∑𝑖 pij

∑𝑖 p i . = ∑𝑗 p.j = ∑𝑖𝑗 pij = 1

▪ On définit les lois marginales par :

Marg X

X P [X = xi]

x1
p1.
.

. .

xi p i.
.
.
.
.
.
.

Marg Y

Y P [Y = yj]

y1
p.1
.

. .

4
yj
p.j
.

. .

. .

E(X) = ∑𝑖 xi P[X= xi] = ∑𝑖 x i p i.

E(X2) = ∑𝑖 xi 2 P[X= xi] = ∑𝑖 xi2 pi.

V(X) = E(X2) – (E(X))2

E(Y) = ∑𝑗 yj P[Y= yj] = ∑𝑗 yj p.j

E(Y2) = ∑𝑗 yj2 P[Y= yj] = ∑𝑗 yj 2 p.j

V(Y) = E(Y2) – (E(Y))2

E(XY) = ∑𝑖,𝑗 xi yj P[X= xi et Y= yj]

On définit la covariance de (X,Y) par

Cov (X,Y) = E(XY) – E(X) . E(Y)

Remarquons que si X et Y sont indépendantes alors

P [ X= xi et Y= yj] = P[X= xi] . P[Y= yj] et pij = pi. p.j ∀ i et j

5
Par conséquent : Cov (X,Y) = 0

Exemple

On considère 2 des équiprobables de couleurs différentes numérotés de 1

à 6. On lance ces dés et on considère la somme S des 2 faces obtenues :

S(Ω) = {2, 3, … , 12}

On définit X et Y comme étant le reste de la division de S par 2 et par 5

respectivement.

Y 0 1 2 3 4
p i.
X

0 3/36 5/36 2/36 5/36 3/36 1/2

1 4/36 2/36 6/36 2/36 4/36 1/2

7/36 7/36 8/36 7/36 7/36 1


p.j

P00 = P [x = 0 et y = 0] = P [S est paire et S est multiple de 5] = P[S =10]

P00 = P{(4,6) , (5,5) , (6,4)} = 3/36

P01 = P [x = 0 et y = 1] = P [S est paire et (S = 6 ou 11)] = P[S = 6]

P01 = P{(1,5) , (2,4) , (3,3) , (4,2) , (5,1)} = 5/36

P02 = P [x = 0 et y = 2] = P [S est paire et (S = 2 ou 7 ou 12)]

P02 = P[S = 2 ou 12] = P{(1,1) , (6,6)} = 2/36

P03 = P [x = 0 et y = 3] = P [S est paire et S = 8] = P[S = 8]

6
P03 = P{(2,6) , (3,5) , (4,4) , (5,3) , (6,2)} = 5/36

P04 = P [x = 0 et y = 4] = P [S est paire et S = 4] = P[S = 4]

P04 = P{(1,3) , (2,2) , (3,1)} = 3/36

P10 = P [x = 1 et y = 0] = P [S est impaire et S multiple de 5] = P[S = 5]

P10 = P{(1,4) , (2,3) , (3,2) , (4,1)} = 4/36

P11 = P [x = 1 et y = 1] = P [S est impaire et S = 11] = P[S = 11]

P11 = P{(5,6) , (6,5)} = 2/36

P12 = P [x = 1 et y = 2] = P [S est impaire et S = 7] = P[S = 7]

P12 = P{(1,6) , (2,5) , (3,4) , (4,3) , (5,2) , (6,1)} = 6/36

P13 = P [x = 1 et y = 3] = P [S est impaire et S = 3] = P[S = 3]

P12 = P{(1,2) , (2,1)}= 2/36

P14 = P [x = 1 et y = 4] = P [S est impaire et S = 9] = P[S = 9]

P14 = P{(3,6) , (4,5) , (5,4) , (6,3)} = 4/36

Marg X

X
Pi.

0 1/2

1 1/2

E(X) = ∑xi pi.

E(X) = 0 x ½ + 1 x ½ = ½

7
E(X2) = ∑xi2 pi.

E(X2) = 02 x ½ + 12 x ½ = ½

V(X) = ½ - (½)2

V(X) = ¼

Marg Y

Y
P.j

0 7/36

1 7/36

2 8/36

3 7/36

4 7/36

E(Y) = ∑yj p.j

E(Y) = 0 x 7/36 + 1 x 7/36 + 2 x 8/36 + 3 x 7/36 + 4 x 7/36 = 2

E(Y2) = ∑yj2 p.j

E(Y2) = 02 x 7/36 + 12 x 7/36 + 22 x 8/36 + 32 x 7/36 + 42 x 7/36 = 5,944

V(Y) = 5,944 - 22

V(Y) = 1,944

8
E(XY) = ∑𝑖,𝑗 xi yj pij = 1

COV(X,Y) = E(XY) – E(X) E(Y) = 1- 1/2 x 2 = 0

On dit que les deux variables sont non corrélées lorsque leur covariance

est nulle.

Néanmoins, on n’a pas pij = pi. . p.j

il suffit de considérer : P00 = 3/36 ≠ p0. . p.0 =½ x 7/36 = 7/72

Donc X et Y ne sont pas indépendantes.

Remarque

La covariance est une forme bilinéaire, symétrique, positive et « presque »

définie.

En effet : Cov (X , Y) = 0 ➔ V(X) = 0 ➔ X = constante.

L’inégalité de Cauchy-Shwartz donne :

|Cov (X , Y)| ≤ √Cov (X , X) √Cov (Y , Y)

Cov (X ,Y)
-1 ≤ ≤1
𝜎(𝑋) 𝜎(𝑌)

On obtient alors la définition du coefficient de corrélation :

𝐂𝐨𝐯 (𝐗 , 𝐘)
𝒓=
𝝈(𝑿) 𝝈(𝒀)

9
III- Vecteurs aléatoires continus

Par analogie au cas discret, considérons un vecteur continu Z = (X,Y)

de densité h(x,y) telle que :


+∞ +∞
∫ ∫−∞ h(x, y) dx dy = 1
−∞

Les densités marginales sont définies par :


+∞ +∞
f(x) = ∫−∞ ℎ(𝑥, 𝑦) dy et g(y) = ∫−∞ ℎ(𝑥, 𝑦) dx

+∞ +∞ +∞
E(X) = ∫−∞ 𝑥𝑓(𝑥)dx = ∫ ∫−∞ x h(x, y) dx dy
−∞

+∞ +∞ +∞
E(Y) = ∫−∞ 𝑦 𝑔(𝑦)dy = ∫ ∫−∞ y h(x, y) dx dy
−∞

+∞
E(X2) = ∫−∞ x2𝑓(𝑥)dx

V(X) = E(X2) – (E(X))2


+∞ +∞
E(XY) = ∫ ∫−∞ x y h(x, y) dx dy
−∞

COV(X,Y) = E(XY) – E(X) . E(Y)

Si X et Y sont indépendantes, alors :

h(x,y) = f(x) g(y)

E(XY) = E(X) . E(Y)

Cov (X,Y) = 0

On définit la fonction de répartition de Z par :


𝑥 𝑦
H(x,y) = ∫ ∫ h(u, v) du dv
−∞ −∞

H(x,y) = P [X < x et Y < y ]

10
𝑥
FX (x) = P [X < x] = ∫−∞ 𝑓(𝑡)dt

𝑦
GY (y) = P [Y < y] = ∫−∞ 𝑔(𝑡)dt

X et Y sont indépendantes si et seulement si :

H(x,y) = FX (x) . GY (y) ∀ x,y

Exemple

Soit le vecteur absolument continu Z = (X,Y) qui a comme densité :

h(X,Y) = { K (x-1) e-y si 1<x<5 et y>0 , 0 sinon}

1) Trouver la valeur de la constante K.

2) Déterminer les densités marginales et calculer leurs espérances

mathématiques et leurs variances.

3) Calculer la covariance de (X,Y) ainsi que le coefficient de

corrélation.

4) Déterminer la fonction de répartition de Z ainsi que les fonctions de

répartition marginales.

5) X et Y sont elles indépendantes ?

Solution

5 +∞
1) ∫ ∫0 K(x − 1) e-y dx dy = 8 K = 1 ➔ K = 1/8
1

+∞
2) = f(x) = ∫0 1/8 (x-1) e-y dy = 1/8 (x-1) si 1<x<5 , 0 sinon

5
g(y) = ∫1 1/8 (x-1) e-y dx = e-y si y>0 , 0 sinon

11
5
+∞ 1
E(X) = ∫−∞ 𝑥 𝑓(𝑥)dx = ∫ 𝑥 (x-1) dx
8
1

+∞
E(Y) = ∫0 𝑦 e-y dy

5
+∞
1
E(XY) = ∫ ∫ xy (x-1) e-y dx dy
8
0
1

E(XY) = E(X) . E(Y)

3) Cov (X , Y) = 0 et r = 0

4) si x ≤ 1 ➔ FX (x) = P [X<x] = 0

si x ≥ 5 ➔ FX (x) = 1
𝑥
1
si 1≤x≤5 ➔ FX (x) = ∫ (t-1) dt
8
1

1 𝑋2 1
FX (x) = ( − x + )
8 2 2

Finalement :

• si x ≤ 1 ➔ FX (x) = 0

1 𝑋2 1
• si 1≤x≤5 ➔ FX (x) = ( 2 – x + 2)
8

• si x ≥ 5 ➔ FX (x) = 1

Remarquons que FX est continue en 1 et 5.

• si y ≤ 0 ➔ GY (y) = 0

• si y ≥ 0 ➔ GY (y) = 1 – e-y

Comme h(x,y) = f(x) . g(y) alors :

H(x,y) = FX (x) . GY (y)

12
• si x ≤ 1 ou y ≤ 0 ➔ H(x,y) = 0
1 𝑋2 1
• si 1≤x≤5 et y ≥ 0 ➔ H(x,y) = ( − x + ) (1 – e-y )
8 2 2

• si x ≥ 5 et y ≥ 0 ➔ H(x,y) = 1

13
IV- Stabilité d’une loi de probabilité

Soit une loi de probabilité (discrète ou continue).

Cette loi est dite stable si et seulement si, pour tout couple de variables

aléatoires X et Y indépendantes qui suivent chacune cette loi, la somme

X+Y suit également cette même loi.

1) Stabilité de la loi de Poisson

Soient X → P(λ) , Y → P(μ) et X et Y indépendantes

P [X = k] = (e-λ . λk) / ( k !) , P [Y = l] = (e-μ . μl) / ( l !)


𝑛=0
P [X + Y = n] = P( ⋃𝑘 (𝑋 = 𝑘) et (Y = n-k))

P [n] = ∑𝑛𝑘=0 (e-λ . λk) / ( k !) . (e-μ . μn-k) / ( n-k)!

P [n] = 1/(n !) ∑𝑘 (e-(λ+μ) . λk) . n ! / (k ! . (n-k) !) . λk . μn-k

P [n] = 1/(n !) e-(λ+μ) ∑𝑛𝑘=0 𝐶𝑛𝑘 λk . μn-k

P [n] = 1/(n !) e-(λ+μ) . (λ + μ)n

Donc si X → P(λ) et Y → P(μ) alors : X + Y → P(λ+μ)

2) Stabilité de la loi normale

Exemple 1 : Résistances électriques

On considère 2 unités de production qui fabriquent des résistances

électriques dont la mesure en Ω sont 2 variables X et Y :

X → N(m1, σ1) Y → N(m2, σ2)

14
Et X et Y indépendantes

Alors : X + Y → N(m1 + m2 , (σ1 2 + σ2 2) 0,5 )

En effet : E(X+Y) = E(X) + E(Y) = m1 + m2

V(X+Y) = E((X+Y)2) – (E(X+Y))2

V(X+Y) = E(X2) + E(Y2) + 2 E(XY) – (E(X))2 - (E(Y)) 2 - 2 E(X) . E(Y)

V(X+Y) = V(X) + V(Y) + 2 (E(XY) – E(X) . E(Y))

V(X+Y) = V(X) + V(Y) + 2 Cov (X, Y)

Si X et Y sont indépendantes, Cov (X, Y) = 0 et V(X+Y) = V(X) + V(Y)

Ainsi :

X → N(100Ω , 3Ω)

Y → N(200Ω , 4Ω)

Et X et Y indépendantes

Alors X + Y → N((100 + 200) Ω = 300 Ω , ((32 + 42)0,5 ) Ω = 5 Ω)

R = X + Y → N( 300 Ω , 5 Ω)

Cherchons le pourcentage de ces résistances qui mesurent entre 293 Ω

et 305 Ω .

P [ 293 ≤ R ≤ 305]

= P [R ≤ 305] – [R ≤ 293]

15
= P[ Rr ≤ (305-300)/5 ] – P [ Rr ≤ ( (293-300)/5 ]

= P[ Rr ≤ 1 ] – P [ Rr ≤ - 1,40 ]

= P[ Rr ≤ 1 ] – 1 + P [ Rr ≤ 1,40 ]

= 0,8413 – 1 + 0,9192 = 0,7605

Donc il y a 76% des résistances qui mesurent entre 293 et 305.

Exemple 2 : Nombre maximal des personnes autorisées à monter

ensemble dans un ascenseur.

Un ascenseur a une capacité de supporter une charge de 900 kg. Une

étude a révélé que le poids des personnes qui vont l’utiliser est une

variable aléatoire X → N( 70 kg , 10 kg ).

Quel est le nombre maximal n de personnes qui peuvent monter

ensemble dans cet ascenseur si on veut que le risque de surcharge soit

10-3 au maximum ?

Le poids de n personnes, d’après la stabilité de la loi normale est :

Xn → N( 70 n , 10 √𝑛)

P [ Xn > 900 kg ] = 10-3

P [ Xn < 900 kg ] = 0,9990

P [ Xn,r < (900 – 70 n) / (10 √𝑛) ] = 0,9990

16
En consultant la table de la loi normale centrée réduite

On a (900 – 70n) / (10 √𝑛) = 3,08

900 – 70n – 30,8 √𝑛 = 0

Posons x = √𝑛

70 x2 + 30,8 x – 900 = 0

x2 + 0,44 x – 12,857 = 0

Δ = 51,6216

On garde la racine positive

X = (-0,44 + √51,6216 ) / 2 ≈ 3,3724

n = x2 = 11,373 ≈11

Finalement, 11 personnes au maximum seront autorisées à monter

ensemble dans cet ascenseur pour que le risque de surcharge ne dépasse

pas 1 sur 1000.

17
V- Approximation de la loi binomiale par la loi normale

Un centre informatique a été victime d’un virus. On suppose que la

probabilité qu’un logiciel soit contaminé est p = 0,4 .

On a prélevé n = 450 logiciels et on les a testés un par un.

Soit X la variable aléatoire qui mesure le nombre K des logiciels

contaminés sur les n = 450.

Il est clair que :

X suit une loi binomiale B (n = 450 , p = 0,4)

E(X) = np = 450 x 0,4 = 180

V(X) = np (1-p) = 108

σ(X) = √108 ) ≈ 10,39

𝑘
avec P [X = k ] = 𝑐450 0,4k 0,6450-k

∀ k = 0, 1, … , 450

Si on trave le diagramme ) bâtons des probabilités pk , on peut constater

que les points représentent les sommets des bâtons p k sont répartis sur

une courbe normale avec

B (n=450 , p=0,4) → N(m = np = 180 , σ = √𝑛𝑝(1 − 𝑝) = 10,39)

Ainsi, si on cherche :

195𝑘
P = P [170 ≤ X ≤ 195 ] = ∑𝑘=170 𝐶450 0,4k 0,6450-k

18
On peut approximer cette probabilité par :

P = P [X ≤ 195] - P [X ≤ 170]

P = P [Xr ≤ (195 – 180 ) / 10,39] - P [Xr ≤ (170 – 180 ) / 10,39]

P = P [Xr ≤ 1,44] - P [Xr ≤ - 0,96]

P = 0,9251 – 1 + 0,8315

P = 0,7566

19

Vous aimerez peut-être aussi