Académique Documents
Professionnel Documents
Culture Documents
1 Espaces probabilisés 4
1.1 Evenements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 La probabilité comme fonction d’ensembles . . . . . . . . . . . . . . . . . . . . . 5
1.3 Probabilités classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Propriétés générales des probabilités . . . . . . . . . . . . . . . . . . . . . . . . 7
2 Conditionnement et indépendance 10
2.1 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2.1 Indépendance de deux événements . . . . . . . . . . . . . . . . . . . . . . 13
2.2.2 Indépendance mutuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3 Variables aléatoires 15
3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2 Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3 Lois discrètes classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3.1 Loi de Bernouilli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3.2 Loi uniforme sur un ensemble fini de réels . . . . . . . . . . . . . . . . . 18
3.3.3 Lois binomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3.4 Lois hypergéométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3.5 Lois géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.3.6 Lois de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.4 Variables aléatoires continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.4.2 Loi pour les variables aléatoires continues . . . . . . . . . . . . . . . . . . 21
3.4.3 Analogie entre variable aléatoire continue et discrète . . . . . . . . . . . 21
3.5 Indépendance des variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . 22
3.5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.5.2 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.6 Epreuves de Bernouilli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4 Espérance mathématique 25
4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.1.1 Aspect discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.1.2 Aspect continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.1.3 Retour à l’aspect discret . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.2 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2
3
4
Chapitre 1
Espaces probabilisés
1.1 Evenements
Définition 1.1.1. On note Ω un ensemble non vide dont les éléments représentent tous les
résultats possibles ou événements élémentaire d’une expérience alétoire. Ω = {ω}, on dira que
ω, élément de Ω est un événement élémentaire.
Exemple 1.1.1. On lance une pièce symétrique et on regarde à sa tombée sur le sol, la pièce
tombe sur pile ou face. On aura alors :
Ω = {P, F }
Ω = {x ∈ [0, 1]}
Ω = {−273◦ C, ∞}
Définition 1.1.2. F = {A}, A ⊂ Ω et est appelé événement et F est la famille des événements
possibles.
Exemple 1.1.2. Si on jette un dé, l’évément A peut être “obtention d’un chiffre paire” et donc
A = {2, 4, 6} composé de trois événements élémentaires ω1 = 2, ω2 = 4, ω3 = 6.
5
6 Chapitre 1. Espaces probabilisés
Définition 1.2.1. La famille qui vérifie les trois propriétés s’appelle une tribu (ou σ-algébre).
Exemple 1.2.1 (Plus grande et plus petite tribu possible). Soit Ω fixé. F = {∅, Ω} est la plus
petite tribu possible. F = P(Ω) = {A|A ⊂ Ω} est la plus grande tribu possible.
Définition 1.2.2 (Parties de Ω). On appelle parties de Ω et on note P(Ω) :
P(Ω) = {A|A ⊂ Ω}
P (∅) = 0, P (Ω) = 1, P (P ) = p, P (F ) = 1 − p
Chapitre 1. Espaces probabilisés 7
card A
P (A) = (Définition classique des probabilités)
card Ω
[
Démonstration. ∃p tel que p = P ({ωi } = P ({ωj }). On a : A = {ω}. D’après la σ-additivité.
ω∈A
X
P (A) = P ({ω}) = p(card A)
ω∈A
Exemple 1.3.1. Les probabilités classiques peuvent être considéré par le lancer d’une pièce
dans le cas symétrique.
Exemple 1.3.2. On effectue une partie de pile ou face en trois coups. Quelle est la probabilité
d’obtenir pile aux premier et troisième lancers ? On peut modéliser cette expérience en prenant
Ω = {P, F }3 et pour famille d’événement observables F = P(Ω) l’ensemble de toutes les parties
de Ω. La pièce étant supposée symétrique, nous n’avous a priori pas de raison de supposer que
l’un des 8 triplets de résultats possibles soit favorisé ou dévaforisé par rapport aux autres. On
choisit donc P de sorte que tous les événements élémentaires aient même probabilité (hypothèse
d’équiprobabilité ou probabilité classique) soit :
1 1
∀ω ∈ Ω, P ({ω}) = = 3
card Ω 2
L’événement B dnt on veut calculer la probabilité s’écrit :
B = {(P, F, P ), (P, P, P )}
D’où :
1 1 1
P (B) = + =
8 8 4
Exemple 1.3.3. Dans une urne, on a mls n boules blanches et n boules noirs indiscernable au
toucher. On a donc n + m boules. On choisit k boules et on veut calculer P (Al ) tel que :
Donc :
card(Al )
P (Al ) =
card Ω
On a alors :
k
card(Ω) = Cn+m
et :
l
card(Al ) = Cm × Cnk−l
Donc :
l
Cm × Cnk−l
P (Al ) = k
Cn+m
8 Chapitre 1. Espaces probabilisés
Pour n = m et k = n, on a : 2
C l C k−l Cnl
P (Al ) = n 2nn = n
Cn C2n
On a : l = 0, ..., n. Soit A0 , ..., An alors :
Ak ∩ Al = ∅, k 6= l
[
Ak k Ω
k
On a aussi : ! n
[ X
1 = P (Ω) = P Al = P (Al )
l l=0
Donc : 2
n Cnl n
n 2
Cnl
X X
n
=1⇒ C2n =
l=0 C2n l=0
Proposition 1.3.2. Soit F = P(Ω) et soit P une probabilité sur F. Il existe une famille
(pk )k≥0 tel que :
1. pk ≥ 0
X
2. pk = 1
k
X
3. ∀A, P (A) = pk
k|ωk ∈A
k e−λ
Exemple 1.3.4. Soit Ω = N, pk = λ k!
pour λ > 0, k = 0... On appelle loi de Poisson P(λ)
k e−λ
la probabilité qui vérifie pk = λ k! .
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
P (A ∪ B) = P (A) + P (B\A)
et B = (A ∩ B) ∪ B\A
P (B) = P (A ∩ B) + P (B\A)
!
\
b) (An ) décroissate (∀n, An+1 ⊂ An ) alors P (An ) converge vars P Ak .
k
10 Chapitre 1. Espaces probabilisés
C
Démonstration. a) ⇒ b) : soit
! (An ) décroissante. Si on prend Bn = An , on a (Bn ) croissante.
!
[ [
Alors P (Bn ) −−−→ P Bk . Mais P (Bn ) = 1 − P (An ). Donc : P (An ) → 1 − P Bk Or :
n→∞
k k
!C ! !
C
[ \ \
1−P Bk =P (Bk ) =P (AK ) .
k k k
Propriété 1.4.7. La Remarque précédente peut constitué une propriété. On rappelle : soit (Ak )
infini alors :
∞ ∞
!
[ X
P Ak ≤ P (Ak )
k=0 k=1
n
[
Démonstration. Bn = Ak avec (Bn ) croissante. On a :
k=1
∞
!
[
P (Bn ) −−−→ P Bn
n→∞
k=1
et : ∞ ∞
[ [
Bk = Ak
k=1 k=1
alors :
∞ n n
!! !
[ [ X
P (Bn ) → P Ak =P Ak ≤ P (Ak ) ≤ P (An )
k=1 k=1 k=1
Chapitre 2
Conditionnement et indépendance
card(A)
P (A) =
card(Ω)
card(A ∩ B) P (A ∩ B)
PA (B) = =
card(A) P (A)
P (A ∩ B)
PA (B) = , B ∈ F, P (A) > 0
P (A)
11
12 Chapitre 2. Conditionnement et indépendance
Exemple 2.1.2. Supposons qu’on a deux urnes. Dans l’urne 1, on a : m boules blanches et n
noires et dans l’urne 2, m boules blanches et n boules noires. On transpose une boule au hasard
(sans regarder sa couleur) de la urne 1 vers la urne 2. Ensuite, on tire au hasard une boule dans
l’urne 2 et on regarde sa couleur.
Soit B = {la deuxième boule tirée est blanche}. On simplifie l’expérience en utilisant :
• A1 = {Première blanche}
• A2 = {Première noire}
alors on a :
m+1 m
PA1 (B) = PA2 (B) =
m+n+1 m+n+1
2.1.2 Propriétés
Proposition 2.1.1 (Conditionnement successifs). Soit B = A1 ∩ A2 ∩ ... ∩ An avec P (Ai ) > 0
alors :
P (B) = P (A1 )PA1 (A2 )PA1 ∩A2 (A3 )...PA1 ∩A2 ∩...∩An−1 (An )
Démonstration.
P (A1 ∩ A2 P (A3 ∩ (A2 ∩ A1 )) P (An ∩ (An−1 ∩ ... ∩ A1 )
P (A1 ) × ... ×
P (A1 ) P (A1 ∩ A2 ) P (An−1 ∩ ... ∩ A1 )
Exemple 2.1.3. Soit une urne avec 2n boule avec 2 boules identiques (même couleur) 2 à 2.
On choisit 2 boules à la fois et on répete l’expérience jusqu’à tant qu’il n’y a plus de boules.
Soit B = {chaque sorte de boules donne une paire de même couleur}. On introduite des
événements :
• A1 = {les 2 premières sont de même couleurs}
• A2 = {les 2 boules suivant A1 sont de même couleurs}
• ···
• An = {les 2 boules suivant An−1 sont de même couleurs}
On a alors : B = A1 ∩ ... ∩ An .
P( A1 ) = Cn2 n n−1 1
2n
n−1 P (B) = ... 2
PA1 (A2 ) = C 2 et 2
C2n 2
C2n−1 C2
2n−2 n
n!×2 n!2n 1
.. = 2n(2n−1)(2n−2)...1 = (2n)!
= Q 2k+1
.
Proposition 2.1.2 (Probabilité totale). Soit (Ak ) qui forme une partition de Ω.
1. disjoints
[
2. Ak = Ω
k
Soit B un événement. Alors : X
P (B) = P (Ak )PAk (B)
k
Chapitre 2. Conditionnement et indépendance 13
!
[ [
Démonstration. On a : B = B ∩ Ω = B ∩ Ak = (B ∩ Ak ). Alors :
k k
!
[ X
P (B) = P (B ∩ Ak ) = P (B ∩ Ak )
k k
et :
m n
P (A1 ) = et P (A2 ) =
m+n m+n
Donc :
m m+1 n m
P (B) = × + ×
m+n m+n+1 m+n m+n+1
Exemple 2.1.5. On considère un echequier de 64 cases. On choisit deux cases de l’échequier
et on y place deux fois. On dit que deux fois sont en position d’attaque si ils sont sur la même
diagonale. Soit B = {les deux fous sont en position d’attaque}. On introduit des événements.
• A1 = {le premier fou est à l’extrémité de l’échequier}
• A2 = {le premier fou est à une case de l’extrémité de l’échequier}
• A3 = {le premier fou est à deux cases de l’extrémité de l’échequier}
• A4 = {le premier fou est à trois cases de l’extrémité de l’échequier}
En A1 , le premier fou a 7 possibilités d’être en position d’attaque avec le deuxième fou. En A2 ,
il en a 9. En A3 , il en a 11 et en A4 , 13. On a alors :
28 20 12 4
P (A1 ) = , P (A2 ) = , P (A3 ) = , P (A4 ) =
64 64 64 64
7 9 11 13
PA1 (B) = , PA2 (B) = , PA3 (B) = , PA4 (B) =
63 63 63 63
Alors :
28 7 20 9 12 4 × 13
P (B) = × + × = +
64 63 64 63 64 × 63 64 × 63
Proposition 2.1.3 (Formule de Bayes). Soit A un événement de proabilité non nulle. Si les
événements Hi (1 ≤ i ≤ n) forment une partition de Ω et aucun P (Hi ) n’est nul, on a pour
tout j = 1, ..., n :
PHj (A)P (Hj )
PA (Hj ) = X
n
PHi (A)P (Hi )
i=1
Et il ne reste plus qu’à dévelpper P (A) en conditionnant par la partition (Hi , 1 ≤ i ≤ n).
14 Chapitre 2. Conditionnement et indépendance
2.2 Indépendance
2.2.1 Indépendance de deux événements
Soit A, B ∈ Ω. On suppose que A est réalisé alors P (B) = PA (B) et P (A) = PB (A). On
aura donc :
P (A ∩ B) = P (A) × P (B)
si P (A) > 0 et P (B) > 0.
P (A ∩ B) = P (A) × P (B)
A = {♣}
B = {D}
Alors :
9 4
P (A) = P (B) =
36 36
et :
A ∩ B = {D♣}
9×4 36 1
P (A ∩ B) = = 2 =
36 × 36 36 36
Proposition 2.2.1. Si A et B sont indépendants alors AC et B sont indépendants.
Démonstration.
P (AC )P (B) = (1 − P (A))P (B) = P (A) − P (A)P (B)
= P (A) − P (A ∩ B) = P (A ∩ B C )
A1 = {ω1 , ω2 }
A2 = {ω1 , ω3 }
Chapitre 2. Conditionnement et indépendance 15
A3 = {ω1 , ω3 }
On a :
1
P (Ai ) =
2
Mais pour i 6= j, Ai , Aj sont indépendants car :
1 1 1
P (Ai ∩ Aj ) = P {ω1= = = ×
4 2 2
Mais B = A2 ∩ A3 et A1 . On vérifie si oui ou non on a P (B ∩ A1 ) = P (B) ∩ P (A1 ).
1 1
P (B) = P (A1 ) =
4 2
1 1 1
P (B ∩ A1 ) = P {ω1 } = 6= ×
4 4 2
Définition 2.2.3. Soient A1 , ..., An des événements. Ils sont indépendants si :
Proposition 2.2.2. Soient A1 , ..., An des événements indépendants et T1 , ..., Tk tel que :
Ti ∩ Tj = ∅
Corollaire. On suppose Bj = Aj ou Bj = AC
j . Si A1 , ..., An sont indépendants alors B1 , ..., Bn
sont indépendants.
Chapitre 3
Variables aléatoires
3.1 Généralités
Définition 3.1.1. Soit (Ω, F, P ) est une espace probabilisée. On appelle variable aléatoire
discrète sur (Ω, F, P ) toute application X :
X : Ω → R
ω 7→ X(ω)
vérifiant :
1. {ω | X(ω) ∈ Ω} est une partie au plus dénombrable de R.
2. Pour tout x ∈ X(Ω), A = {ω ∈ Ω, X(ω) = x} fait partie de la famille F d’événements
auxquels on peut attribuer une probabilité sur P .
Un cas simple est que Ω soit fini et dénombrable alors F = P(Ω).
Exemple 3.1.1. On suppose qu’on lance 2 dés en même temps :
Ω = {(i, j), i, j = 1...6}
F = P(Ω)
X(i, j) = i + j. Les valeurs possibles sont {2, ..., 12}. Quelle est la valeur de P {X = k} ?
1 3
P {X = 2} = 36
P {X = 10} = 36
2 2
P {X = 3} = 36
P {X = 11} = 36
3 1
P {X = 4} = 36
P {X = 12} = 36
16
Chapitre 3. Variables aléatoires 17
1
Attention, dans le cas général x0 n’est pas nécessairement le plus petit élément de X(Ω), on peut très bien
avoir par exemple X(Ω) = Z.
18 Chapitre 3. Variables aléatoires
En effet, soit ω un élément de cette intersection. Alors X(ω) ≤ −n pour tout n ∈ N∗ donc
en passant à la limite, X(ω) = −∞ ce qui est impossible puisque X ne prend que des valeurs
finies2 . Donc cette intersection est vide et par (ii), lim P (X ≤ −n) = P (∅) = 0. La preuve
n→+∞
de lim F (x) = 1 est analogue.
x→+∞
1) {X = xk } ∩ {X = xn } = ∅, k 6= n
[
2) {X = xk } = {X ∈ V }
k
Démonstration. On a que :
( ( ))
[
P {X ∈ A} = {{X ∈ A} ∩ {X ∈ V }} = P {X ∈ A} ∩ {X = xk }
k
( )
[ [ X
=P {X ∈ A} ∩ {X = xk } = P {X = xk } = pk
k k|xk ∈A k|xk ∈A
Exemple
X 3.2.2. Soit {xk }k=1,...,n , x1 < x2 < ... < xn , pk = {X = xk }, F (x) = P {X ∈ A} =
pk
k|xk ∈]−∞,x]
2
Ce qui signifie que X(Ω) soit borné...
Chapitre 3. Variables aléatoires 19
Notation. X ∼ B(n, p)
La forme ci-dessus définit bien une loi de probabilité puisuqe les Cnk pk (1 − p)n−k sont positifs
et :
n
Cnk pk (1 − p)n−k = (p + (1 − p))n = 1n = 1
X
k=0
en appliquant la formule du binôme de Newton (d’où le nom de la loi). La loi binomiale B(n, p)
est la loi du nombre de succès obtenus en une suite de n épreuves répétées indépendantes avec
pour chaque épreuve une probabilité de succès p.
De même, soit A1 , ..., An une famille de n événements mutuellement indépendants ayant
tous même probabilité p et notons Xi la variable de Bernouilli indicatrice de Ai :
1 si ω ∈ Ai
Xi (ω) =
0 si ω ∈ AC
i
Pn
Alors la variable aléatoire Sn = i=1 Xi suit la loi binomiale B(n, p).
Exemple 3.3.1. Dans une production totale de N objets dont M sont défectueux, on prélève
au hasard un échantillon de n objets (tirage sans remise). Soit X le nombre aléatoire d’objets
défectueux dans l’échantillon. Quelle est sa loi ?
On peut prendre comme espace Ω l’ensemble de tous les échantillons possibles (toutes les
parties à n éléments d’un ensemble de cardinal N ) muni de l’équiprobabilité. Chaque échantillon
a ainsi une probabilité 1/CNn d’être choisi. Les échantillons (événements élémentaires) réalisent
l’événement {X = k} sont ceux qui contiennent k objets défectueux et n − k objets défectueux.
Ceci n’est réalisable que si 0 ≤ k ≤ M et 0 ≤ n−k ≤ N −M . On dénombre ces échantillons. On
les forme en choisissant k objets défectueux dans une sous-population de M et en complétant
par n−k objets non défectueux chosis dans une population de N −M . Il y en a donc CM k
×CNn−k−M .
Finalement :
CMk
× CNn−k
−M
0 ≤ k ≤ M
P (X = k) = si
CNn 0 ≤ n − k ≤ N − M
Pour une taille d’échantillon n fixée, plus N et M sont grands, moins les tirages sans remise
diffèrent des tirages avec remise. Plus précisement, la loi hypergéométrique converge vers la loi
binomiale au sens suivant :
Chapitre 3. Variables aléatoires 21
Theorème 3.3.1. On suppose que quand N tend vers +∞, M = M (N ) tend vers +∞ en
vérifiant la condition :
M
lim = p avec 0 < p < 1
N →+∞ N
Alors, n restant fixé, la loi hypergéométrique H(N, M, n) converge la loi binomiale B(n, p), ce
qui signifie que si (XN )N ≥1 est une suite de variable aléatoire avec XN ∼ H(N, M, n) et Y est
une variable de loi binomiale B(n, p) alors :
autrement dit :
k
CM × CNn−k
−M
∀k ∈ {0, 1, ..., n} lim n
= Cnk pk (1 − p)n−k
N →+∞ CN
e−λ λk
∀k ∈ N P (X = k) =
k!
Notation. X ∼ P(λ)
Plus la densité fX est élevée au dessus d’un segment, plus les chances que X a d’atteindre ce
segment sont élevées, ce qui justifie le terme "densité".
On a :
P (X ∈ [a, b]) = P (X ∈ [a, b[) = P (X ∈]a, b[) = P (X ∈]a, b[)
{X ∈ B} {Y ∈ C}
3.5.2 Généralités
Définition 3.5.1. Soient X1 , ..., Xn variables aléatoires. On dit qu’ils sont indépendants si les
événements {X1 ∈ B1 },...,{Xn ∈ Bn } sont indépendants, ∀B1 , ..., Bn ⊂ R.
Démonstration. (⇒) Bk = {ajk } alors {X1 = aj1 },...,{Xn = ajn } sont indépendants. On a
alors :
n
Y
P {X1 = aj1 , ..., Xn = ajn } = P {Xk = ajk }
k=1
(⇐)
Y
P {X1 ∈ B1 , ..., Xn ∈ Bn } = P {Xk ∈ Bk }
On remarquera que :
\
{X1 ∈ B1 , ..., Xn ∈ Bn } = {X1 ∈ aj1 , ..., Xn ∈ ajn }
(∗)
car :
Démonstration.
X
P {νk = k} = P {ε1 = a1 , ε2 = a2 , ..., εn = an } (N)
(∗)
n
X
avec (∗) = (a1 , ..., an ) | ai = {0, 1} et ai = k.
i=1
\
{νk = k} = {ε1 = a1 , ε2 = a2 , ..., εn = an }
(∗)
P {εk = ak } = pk (1 − p)n−k
Y
P {ε1 = a1 , ..., εn = an } =
(N) = pk (1 − p)n−k card(A)
avec :
0 n
X
A= (a 1 , ..., an )ai
= et ai = k
1 i=1
et card(A) = Ckn .
λk −λ
Theorème 3.6.2 (Poisson). Soit pn (k) et p = pn tel que npn → λ. Alors ∀k, pn (k) → k!
e .
Démonstration.
n!
pn (k) = k!(n−k)!
pk (1 − p)n−k
1
= k!
n(n − 1)...(n − k + 1)pk (1 − p)n−k
1 (n−1)...(n−k+1)
= k! nk−1
(np)k (1!− p)n−k
n−1 n−k+1
= 1
k
... (np)k (1 − p)n−k
n n | {z } | {z }
| {z } Bn Cn
An
On alors :
!
n−1n−2 n−k+1 1 2 k−1
An = ... = 1− 1− ... 1 − →1
n n n n n n
Bn = (np)k = (npn )k → λk
xn n 1
n−k
Cn = (1 − p) = 1+
n (1 + xnn )n
avec xn = npn → −λ → e−λ . D’où la formule.
Chapitre 3. Variables aléatoires 25
Theorème 3.6.3 (Théorème local de Moivre-Laplace). Soit Sn une variable aléatoire qui suit
une loi binomiale de paramètre p alors pour n suffisamment grand la variable :
Sn − np
Zn = √
npq
Espérance mathématique
4.1 Généralités
4.1.1 Aspect discret
Définition 4.1.1. Soit X une variable aléatoire vérifiant :
X
|xk |P (X = xk ) < ∞
xk ∈X(Ω)
L’espérance de X apparaît ainsi comme le barycentre des valeurs possibles de X pondérées par
leurs probabilités de réalisation.
4) E(X + Y ) = EX + EY
On a : X
pi = P {X = ai } = P {X = ai , Y = bj }
j
X
qj = p{Y = bj } = P {X = ai , Y = bj }
i
26
Chapitre 4. Espérance mathématique 27
X X
EX + EY = ai p i + b j aj
i j
!
X X X X
= ai P {X = ai , Y = bj } + bj P {X = ai , Y = bj }
i j j i
XX XX
= ai P {X = ai , Y = bj } + bj P {X = ai , Y = bj }
i j j i
XX
= (ai + bj )P {X = ai , Y = bj } = E(X + Y )
i j
X
Remarque. Si |ai |pi = ∞ alors X n’a pas d’espérance mathématiques.
i
5) X ≥ Y ⇒ EX ≥ EY
Démonstration du 5).
X − Y ≥ 0 ⇒ E(X − Y ) ≥ 0 ⇒ EX − EY = 0
6) |EX| = E|X|
Démonstration du 6).
−|X| ≤ X ≤ |X|
0, 1 − p
Exemple 4.1.1. 1) X = , Bernouilli :
1, p
EX = 0(1 − p) + p = p
λk −λ
P {X = k} = e
k!
On a :
∞ ∞
λk −λ λk
e = e−λ
X X
EX = k k
k=0 k! k=1 k!
∞
λk−1
= λe−λ = λe−λ eλ = λ
X
k=1 (k − 1)!
X Z +∞ Z ∞ X
= 1∆k (x)p(x)dx = 1∆k (x)p(x)dx
k∈Z −∞ −∞ k∈Z
Z ∞ Z ∞
= gh (x)p(x)dx = xp(x)dx
−∞ −∞
Elle existe si : Z ∞
|x|p(x)dx < ∞
−∞
E(XY ) = EXEY
XX XX
= ai bj P {X = ai }P {Y = bj } = P {X = ai , Y = bj } = E(XY )
i j i j
On a :
P {Y = bj } = P {f (X) = bj } (∗0 )
On pose :
Tj = {k|f (ak ) = bj }
Alors :
(∗0 ) =
X
pk
k∈Tj
et :
X X X X X
(∗) = bj pk = f (ak )pk = f (ai )pi
j k∈Tj j k∈Tj i
Exemple 4.1.2. 1) Si X suit la loi uniforme sur l’ensemble fini {x1 , ..., xn }, EX est égale à la
moyenne arithmétique des xi .
2) Si X suit la loi géométrique de paramétre p > 0 alors :
1
EX =
p
4.2 Moments
Définition 4.2.1. Les expressions EX n , E|X|p , E|X − EX|p sont des moments.
• EX n est le moment de X d’ordre n.
• E|X|p est le moment absolu de X d’ordre p.
• E|X − EX|p est le moment absolu centré d’ordre p.
Démonstration.
Exemple 4.2.1.
0 1−p
ε= , Eε = p
1 p
Démonstration.
Démonstration. Soit a = EX et b = EY
On note X1 = X − a et Y1 = Y − b.
On a que X ∼ νn
EX
P {X ≤ t} ≤
t
Démonstration dans le cas discret. Soit X de valeurs ai et de probabilité pi . On a que ai ≥ 0
X X ai 1X EX
P {X ≤ t} = pi ≤ pi ≤ ai p i =
i|ai ≥t i|ai ≥t
t t i t
Proposition 4.3.2 (Inégalité de Tchebychev). Soit X une variable alétaoire tel que EX et
Var X existent alors ∀t ≥ 0 :
Var X
P {|X − EX| ≥ t} =
t2
Démonstration.
EY E|X − EX|2 Var X
P {|X − EX| ≥ t} = P {|X − EX|2 ≥ |{z}
t2 } = = =
| {z }
s
s t2 t2
Y
Chapitre 5
P
Définition 5.1.1. Yn −
→ Y si ∀ε > 0 :
1 nσ 2 σ2 1
= = −−−−→ 0
ε2 n ε2 n n→+∞
nA ε1 + ... + εn P
= −
→ Eε1 = p = P (A)
n n
32