Cours de Probabilités
1
I- Définitions
FX : ℝn .→ [0,1]
Remarque :
2
II- Vecteurs discrets
On dit que X = (X1, … , Xn) est discret si chaque composante Xi prend ses
Pour mieux illustrer les vecteurs discrets, considérons le cas d’un vecteur
Z = (X , Y) par un tableau :
Y y1 … yj … marg X
x1 p11 … p1j …
p1.
.
xi pi1 … pij … p i.
.
marg Y 1
p.1 … p.j …
3
p i . = ∑𝑗 pij et p.j = ∑𝑖 pij
Marg X
X P [X = xi]
x1
p1.
.
. .
xi p i.
.
.
.
.
.
.
Marg Y
Y P [Y = yj]
y1
p.1
.
. .
4
yj
p.j
.
. .
. .
5
Par conséquent : Cov (X,Y) = 0
Exemple
respectivement.
Y 0 1 2 3 4
p i.
X
6
P03 = P{(2,6) , (3,5) , (4,4) , (5,3) , (6,2)} = 5/36
Marg X
X
Pi.
0 1/2
1 1/2
E(X) = 0 x ½ + 1 x ½ = ½
7
E(X2) = ∑xi2 pi.
E(X2) = 02 x ½ + 12 x ½ = ½
V(X) = ½ - (½)2
V(X) = ¼
Marg Y
Y
P.j
0 7/36
1 7/36
2 8/36
3 7/36
4 7/36
V(Y) = 5,944 - 22
V(Y) = 1,944
8
E(XY) = ∑𝑖,𝑗 xi yj pij = 1
On dit que les deux variables sont non corrélées lorsque leur covariance
est nulle.
Remarque
définie.
Cov (X ,Y)
-1 ≤ ≤1
𝜎(𝑋) 𝜎(𝑌)
𝐂𝐨𝐯 (𝐗 , 𝐘)
𝒓=
𝝈(𝑿) 𝝈(𝒀)
9
III- Vecteurs aléatoires continus
+∞ +∞ +∞
E(X) = ∫−∞ 𝑥𝑓(𝑥)dx = ∫ ∫−∞ x h(x, y) dx dy
−∞
+∞ +∞ +∞
E(Y) = ∫−∞ 𝑦 𝑔(𝑦)dy = ∫ ∫−∞ y h(x, y) dx dy
−∞
+∞
E(X2) = ∫−∞ x2𝑓(𝑥)dx
Cov (X,Y) = 0
10
𝑥
FX (x) = P [X < x] = ∫−∞ 𝑓(𝑡)dt
𝑦
GY (y) = P [Y < y] = ∫−∞ 𝑔(𝑡)dt
Exemple
corrélation.
répartition marginales.
Solution
5 +∞
1) ∫ ∫0 K(x − 1) e-y dx dy = 8 K = 1 ➔ K = 1/8
1
+∞
2) = f(x) = ∫0 1/8 (x-1) e-y dy = 1/8 (x-1) si 1<x<5 , 0 sinon
5
g(y) = ∫1 1/8 (x-1) e-y dx = e-y si y>0 , 0 sinon
11
5
+∞ 1
E(X) = ∫−∞ 𝑥 𝑓(𝑥)dx = ∫ 𝑥 (x-1) dx
8
1
+∞
E(Y) = ∫0 𝑦 e-y dy
5
+∞
1
E(XY) = ∫ ∫ xy (x-1) e-y dx dy
8
0
1
3) Cov (X , Y) = 0 et r = 0
4) si x ≤ 1 ➔ FX (x) = P [X<x] = 0
si x ≥ 5 ➔ FX (x) = 1
𝑥
1
si 1≤x≤5 ➔ FX (x) = ∫ (t-1) dt
8
1
1 𝑋2 1
FX (x) = ( − x + )
8 2 2
Finalement :
• si x ≤ 1 ➔ FX (x) = 0
1 𝑋2 1
• si 1≤x≤5 ➔ FX (x) = ( 2 – x + 2)
8
• si x ≥ 5 ➔ FX (x) = 1
• si y ≤ 0 ➔ GY (y) = 0
• si y ≥ 0 ➔ GY (y) = 1 – e-y
12
• si x ≤ 1 ou y ≤ 0 ➔ H(x,y) = 0
1 𝑋2 1
• si 1≤x≤5 et y ≥ 0 ➔ H(x,y) = ( − x + ) (1 – e-y )
8 2 2
• si x ≥ 5 et y ≥ 0 ➔ H(x,y) = 1
13
IV- Stabilité d’une loi de probabilité
Cette loi est dite stable si et seulement si, pour tout couple de variables
14
Et X et Y indépendantes
Ainsi :
X → N(100Ω , 3Ω)
Y → N(200Ω , 4Ω)
Et X et Y indépendantes
R = X + Y → N( 300 Ω , 5 Ω)
et 305 Ω .
P [ 293 ≤ R ≤ 305]
= P [R ≤ 305] – [R ≤ 293]
15
= P[ Rr ≤ (305-300)/5 ] – P [ Rr ≤ ( (293-300)/5 ]
= P[ Rr ≤ 1 ] – P [ Rr ≤ - 1,40 ]
= P[ Rr ≤ 1 ] – 1 + P [ Rr ≤ 1,40 ]
étude a révélé que le poids des personnes qui vont l’utiliser est une
variable aléatoire X → N( 70 kg , 10 kg ).
10-3 au maximum ?
Xn → N( 70 n , 10 √𝑛)
16
En consultant la table de la loi normale centrée réduite
Posons x = √𝑛
70 x2 + 30,8 x – 900 = 0
x2 + 0,44 x – 12,857 = 0
Δ = 51,6216
n = x2 = 11,373 ≈11
17
V- Approximation de la loi binomiale par la loi normale
𝑘
avec P [X = k ] = 𝑐450 0,4k 0,6450-k
∀ k = 0, 1, … , 450
que les points représentent les sommets des bâtons p k sont répartis sur
Ainsi, si on cherche :
195𝑘
P = P [170 ≤ X ≤ 195 ] = ∑𝑘=170 𝐶450 0,4k 0,6450-k
18
On peut approximer cette probabilité par :
P = P [X ≤ 195] - P [X ≤ 170]
P = 0,9251 – 1 + 0,8315
P = 0,7566
19