Académique Documents
Professionnel Documents
Culture Documents
ABDELJALIL TADDIST
LYDEX-BENGURIR
MPSI 1
Definition 1
Deux VA X et Y sont dites non corrélées ou décorrélées si
cov (X , Y ) = 0.
Definition 1
Deux VA X et Y sont dites non corrélées ou décorrélées si
cov (X , Y ) = 0.
Proposition 1
Deux VA indépendantes sont non corrélée.
Definition 1
Deux VA X et Y sont dites non corrélées ou décorrélées si
cov (X , Y ) = 0.
Proposition 1
Deux VA indépendantes sont non corrélée.
demo 1
Definition 1
Deux VA X et Y sont dites non corrélées ou décorrélées si
cov (X , Y ) = 0.
Proposition 1
Deux VA indépendantes sont non corrélée.
demo 1
Preuve : a partir du théorème (??) et du théorème (??).
Definition 1
Deux VA X et Y sont dites non corrélées ou décorrélées si
cov (X , Y ) = 0.
Proposition 1
Deux VA indépendantes sont non corrélée.
demo 1
Preuve : a partir du théorème (??) et du théorème (??).
Remarque 1
Le théorème (1) n’a pas de réciproque .
Théorème 1 (Cauchy-Schwarz)
Soient X et Y deux variables aléatoires finies .Alors:
|Cov (X , Y )| ≤ σX .σY
Théorème 1 (Cauchy-Schwarz)
Soient X et Y deux variables aléatoires finies .Alors:
|Cov (X , Y )| ≤ σX .σY
Théorème 1 (Cauchy-Schwarz)
Soient X et Y deux variables aléatoires finies .Alors:
|Cov (X , Y )| ≤ σX .σY
Théorème 1 (Cauchy-Schwarz)
Soient X et Y deux variables aléatoires finies .Alors:
|Cov (X , Y )| ≤ σX .σY
Théorème 1 (Cauchy-Schwarz)
Soient X et Y deux variables aléatoires finies .Alors:
|Cov (X , Y )| ≤ σX .σY
Théorème 1 (Cauchy-Schwarz)
Soient X et Y deux variables aléatoires finies .Alors:
|Cov (X , Y )| ≤ σX .σY
Remarque 2
Remarque 2
-La covariance permet de quantifier la liaison entre les deux variables
X et Y : elle mesure leur «tendance à varier ensemble».
Remarque 2
-La covariance permet de quantifier la liaison entre les deux variables
X et Y : elle mesure leur «tendance à varier ensemble». -Si la
covariance est positive, cela signifie que la variation de X et Y se fait
dans le même sens.
Remarque 2
-La covariance permet de quantifier la liaison entre les deux variables
X et Y : elle mesure leur «tendance à varier ensemble». -Si la
covariance est positive, cela signifie que la variation de X et Y se fait
dans le même sens.- Si elle est négative, leurs variations se font en
sens contraire.
Remarque 2
-La covariance permet de quantifier la liaison entre les deux variables
X et Y : elle mesure leur «tendance à varier ensemble». -Si la
covariance est positive, cela signifie que la variation de X et Y se fait
dans le même sens.- Si elle est négative, leurs variations se font en
sens contraire.On parle respectivement de liaison positive et de liaison
négative.
Cov (X , Y ) Cov (X , Y )
ρ(X , Y ) = p =
var (X ).var (Y ) σX .σY
Cov (X , Y ) Cov (X , Y )
ρ(X , Y ) = p =
var (X ).var (Y ) σX .σY
Proposition 2
Soient X et Y deux variables aléatoires finies alors:
ρ(X , Y ) ∈ [−1, 1]
Cov (X , Y ) Cov (X , Y )
ρ(X , Y ) = p =
var (X ).var (Y ) σX .σY
Proposition 2
Soient X et Y deux variables aléatoires finies alors:
ρ(X , Y ) ∈ [−1, 1]
demo 3
En utilisant Cauchy-Schwarz
ABDELJALIL TADDIST LYDEX-BENGURIRMPSI
Chapitre18:
1 calculs des probabilités. January 31, 2024 5 / 19
Lois conjointes ( ou jointes)
Remarque 3
1 Plus |ρ(X , Y )| est proche de 1,plus la corrélation entre les deux
variable aléatoire est ”forte”.
Remarque 3
1 Plus |ρ(X , Y )| est proche de 1,plus la corrélation entre les deux
variable aléatoire est ”forte”.
2 Si on a |ρ(X , Y )| > 0, 8, on dit que les variables X et Y sont
fortement corrélées.
Remarque 3
1 Plus |ρ(X , Y )| est proche de 1,plus la corrélation entre les deux
variable aléatoire est ”forte”.
2 Si on a |ρ(X , Y )| > 0, 8, on dit que les variables X et Y sont
fortement corrélées.
3 Lorsqu’il est proche de 0, cela signifie qu’il n’y a pas de relation
linéaire entre les variables.
Remarque 3
1 Plus |ρ(X , Y )| est proche de 1,plus la corrélation entre les deux
variable aléatoire est ”forte”.
2 Si on a |ρ(X , Y )| > 0, 8, on dit que les variables X et Y sont
fortement corrélées.
3 Lorsqu’il est proche de 0, cela signifie qu’il n’y a pas de relation
linéaire entre les variables.C’est la décorrélation (Absence de
relation linéaire entre X et Y ).
Exercice 1
Exercice 1
On tire au hasard un complexe de U4 .
Exercice 1
On tire au hasard un complexe de U4 .
X = Re(z ) et Y = Im(z )
1 X et Y sont -elles indépendantes.
Exercice 1
On tire au hasard un complexe de U4 .
X = Re(z ) et Y = Im(z )
1 X et Y sont -elles indépendantes.
2 X et Y sont -elles corrélée?
demo 4
demo 4
XY −1 0 1 Loi de X
−1 0 14 0 1
4
1 1 1
0 4
0 4 2
1 0 14 0 1
4
1 1 1
Loi de Y 4 2 4
∀n ∈ N, P(X + Y = n) =
Proposition 4
La somme de deux VA indépendantes suivants des lois binomilales
B (n, p) et B (m, p) est une loi binomiale B (n + m, p).
demo 5
On peut poser X (Ω) = N puis pour i ∈ N:
demo 5
On peut poser X (Ω) = N puis pour i ∈ N:
n
P(X = i) = p i .(1 − p)n−i
i
n
(on rappelle que si i > n, = 0 et donc P(X = i) = 0) .
i
demo 5
On peut poser X (Ω) = N puis pour i ∈ N:
n
P(X = i) = p i .(1 − p)n−i
i
n
(on rappelle que si i > n, = 0 et donc P(X = i) = 0) .
i
On pose aussi Y (Ω) = N ,puis pour j ∈ N:
m
P(Y = j ) = p j (1 − p)m−j .
j
X X
P(X +Y = k ) = P(X = i, Y = j ) = P(X = i)×P(Y = j)
i+j=k i+j =k
X X
P(X +Y = k ) = P(X = i, Y = j ) = P(X = i)×P(Y = j)
i+j=k i+j =k
X n
m
i n−i
= p (1 − p) p j (1 − p)m−j
i j
i+j=k
X X
P(X +Y = k ) = P(X = i, Y = j ) = P(X = i)×P(Y = j)
i+j=k i+j =k
X n
m
i n−i
= p (1 − p) p j (1 − p)m−j
i j
i+j=k
X n m
k (n+m)−k
= p (1 − p) . .
i j
i+j=k
ABDELJALIL TADDIST LYDEX-BENGURIRMPSI
Chapitre18:
1 calculs des probabilités. January 31, 2024 13 / 19
Somme de deux loi binomiales .
(Preuve (suite))
X n m
Maintenant, est le coefficient de X k dans le
i j
i+j =k
développement de :
(1 + X )n (1 + X )m
(Preuve (suite))
X n m
Maintenant, est le coefficient de X k dans le
i j
i+j =k
développement de :
(1 + X )n (1 + X )m = (1 + X )n+m
(Preuve (suite))
X n m
Maintenant, est le coefficient de X k dans le
i j
i+j =k
développement de :
n+m
X n +m
n
(1 + X ) (1 + X ) = (1 + X ) m n+m
= Xk
k
k =0
(Preuve (suite))
X n m
Maintenant, est le coefficient de X k dans le
i j
i+j =k
développement de :
n+m
n +m X
n
(1 + X ) (1 + X ) = (1 + X ) m
= n+m
Xk
k
k =0
En identifiant les coefficients, on obtient l’identité de
VANDERMONDE :
X n m n + m
=
i j k
i+j =k
(Preuve (suite))
n +m
Finalement, P(X + Y = k ) = p k (1 − p)(n+m)−k
k
Et donc :
(Preuve (suite))
n +m
Finalement, P(X + Y = k ) = p k (1 − p)(n+m)−k
k
Et donc :
X + Y ∼ B(n + m, p).CQFD
Proposition 5
On peut généraliser le résultat précedent par:
Proposition 5
On peut généraliser le résultat précedent par: Si X1 , X2 , .., Xk sont
des variables aléatoires indépendantes ,suivants des lois binomiales tel
que ∀i : Xi ∼ B(ni , p), alors:
Proposition 5
On peut généraliser le résultat précedent par: Si X1 , X2 , .., Xk sont
des variables aléatoires indépendantes ,suivants des lois binomiales tel
que ∀i : Xi ∼ B(ni , p), alors:
X1 + X2 + .. + Xk ∼ B(n1 + ... + nk , p)
Proposition 5
On peut généraliser le résultat précedent par: Si X1 , X2 , .., Xk sont
des variables aléatoires indépendantes ,suivants des lois binomiales tel
que ∀i : Xi ∼ B(ni , p), alors:
X1 + X2 + .. + Xk ∼ B(n1 + ... + nk , p)
demo 7
Proposition 5
On peut généraliser le résultat précedent par: Si X1 , X2 , .., Xk sont
des variables aléatoires indépendantes ,suivants des lois binomiales tel
que ∀i : Xi ∼ B(ni , p), alors:
X1 + X2 + .. + Xk ∼ B(n1 + ... + nk , p)
demo 7
par récurrence sur k
Proposition 6
La somme de n variables aléatoires indépendantes et identiquement
distribuées, qui suivent une loi de Bernoulli de paramètre p , est une
variable aléatoire qui suit
Proposition 6
La somme de n variables aléatoires indépendantes et identiquement
distribuées, qui suivent une loi de Bernoulli de paramètre p , est une
variable aléatoire qui suit une loi binomiale B(n, p).
demo 8
demo 8
Si X1 , . . . , Xn sont des v.a qui suivent toutes la même loi de
Bernoulli de paramètre p.
Alors si S = X1 + . . . + Xn .
demo 8
Si X1 , . . . , Xn sont des v.a qui suivent toutes la même loi de
Bernoulli de paramètre p.
Alors si S = X1 + . . . + Xn .On a Xi (Ω) = {0, 1} et S (Ω) = {0,. . . ,n}
demo 8
Si X1 , . . . , Xn sont des v.a qui suivent toutes la même loi de
Bernoulli de paramètre p.
Alors si S = X1 + . . . + Xn .On a Xi (Ω) = {0, 1} et S (Ω) = {0,. . . ,n}
Donc ∀k ∈ {1, . . . , n} l’ événement (S = k ) correspond à k succès
parmi n dans une succession d’épreuves de Bernoulli de paramètre p.
demo 8
Si X1 , . . . , Xn sont des v.a qui suivent toutes la même loi de
Bernoulli de paramètre p.
Alors si S = X1 + . . . + Xn .On a Xi (Ω) = {0, 1} et S (Ω) = {0,. . . ,n}
Donc ∀k ∈ {1, . . . , n} l’ événement (S = k ) correspond à k succès
parmi n dans une succession d’épreuves de Bernoulli de paramètre p.
Ainsi
n k
P (S = k ) = p (1 − p)(n−k )
k
demo 8
Si X1 , . . . , Xn sont des v.a qui suivent toutes la même loi de
Bernoulli de paramètre p.
Alors si S = X1 + . . . + Xn .On a Xi (Ω) = {0, 1} et S (Ω) = {0,. . . ,n}
Donc ∀k ∈ {1, . . . , n} l’ événement (S = k ) correspond à k succès
parmi n dans une succession d’épreuves de Bernoulli de paramètre p.
Ainsi
n k
P (S = k ) = p (1 − p)(n−k )
k
Et donc:
S ∼ B(n, p)
CQFD
Merci