Professeur : H. ZIAT
2017/2018
Sommaire
1 Espace de probabilité 4
1 Langage probabiliste . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1 Expérience aléatoire . . . . . . . . . . . . . . . . . . . . . 4
1.2 Evénement aléatoire . . . . . . . . . . . . . . . . . . . . . 5
1.3 Langage des événements . . . . . . . . . . . . . . . . . . . 6
1.4 Approche intuitive d’une probabilité . . . . . . . . . . . . 6
2 Espace de probabilité fini . . . . . . . . . . . . . . . . . . . . . . . 7
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3 Probabilité uniforme . . . . . . . . . . . . . . . . . . . . . 11
2.4 Modèles d’urnes . . . . . . . . . . . . . . . . . . . . . . . . 11
3 Espace de probabilité : cas général . . . . . . . . . . . . . . . . . 13
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.3 Espace de probabilité . . . . . . . . . . . . . . . . . . . . . 16
4 Conditionnement, Indépendance . . . . . . . . . . . . . . . . . . . 18
4.1 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . 18
4.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.3 Événements indépendants . . . . . . . . . . . . . . . . . . 22
2
1.8 Opérations sur des variables aléatoires . . . . . . . . . . . 35
1.9 Moments d’une variable aléatoire discrète finie . . . . . . . 38
1.10 Cas discret infini . . . . . . . . . . . . . . . . . . . . . . . 45
2 Variables aléatoires continues . . . . . . . . . . . . . . . . . . . . 45
2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2 Variables aléatoires à densité . . . . . . . . . . . . . . . . . 47
2.3 Moments d’une variable aléatoire à densité . . . . . . . . . 51
2.4 Variables aléatoires à densité indépendantes . . . . . . . . 52
3
Chapitre 1
Espace de probabilité
1 Langage probabiliste
1.1 Expérience aléatoire
La théorie des probabilités traite des expériences dont les résultats dépendent
du hasard.
Définition 1. On appelle expérience aléatoire une expérience E qui, reproduite
dans des conditions identiques, peut conduire à plusieurs résultats possibles, et
dont on ne peut prévoir le résultat par avance.
Définition 2. L’espace de tous les résultats possibles de l’expérience est appelé
espace d’états (ou aussi univers des possibles). Il est noté Ω.
Définition 3. Un résultat possible de l’expérience est noté ω. Ainsi ω ∈ Ω.
Les expériences peuvent avoir un nombre fini ou infini de résultats possibles.
Par conséquent, l’ensemble Ω peut être fini ou infini.
Les jeux de hasard, tels Pile ou Face , jeux de cartes , loterie, fournissent des
exemples d’expériences aléatoires pour lesquels Ω est fini.
Exemple 1. 1. On lance deux pièces à Pile ou Face :
Ω = {(P, P ), (P, F ), (F, P ), (F, F )} .
Au lieu de noter les dispositions ordonnées par des couples, on peut les noter
P P, P F, F P, F F . Ainsi Ω est aussi noté par Ω = {P P, P F, F P, F F }.
2. On lance un dé :
Ω = {1, 2, 3, 4, 5, 6} .
4
3. On envoie une fléchette sur une cible circulaire de 50 cm de diamètre et l’ex-
périence consiste à décrire l’impact de la flèche dans un repère orthonormé
de centre le centre de la cible :
q
Ω = (x, y) : x2 + y 2 ≤ 5 .
Un événement aléatoire est donc totalement déterminé par l’ensemble des ré-
sultats possibles par lesquels l’événement se réalise. On peut donc identifier chaque
événement avec un sous-ensemble de Ω. Nous représenterons les événements aléa-
toires par des lettres majuscules comme A, B, . . . , A1 , . . . et les différentes épreuves
ou réalisations d’une expérience par la lettre grecque ω, comme ω . . . , ωi, . . ..
Si un événement A se réalise par les résultats ωi , ωj , . . . , ωk on le représentera
souvent par A = {ωi , ωj , . . . , ωk }.
Définition 5. (i) Les événements qui sont réalisables par un seul résultat s’ap-
pellent événements élémentaires.
(ii) Les autres événements s’appellent événements composés, ou simplement évé-
nements.
(iii) L’événement qui se réalise à chacune des épreuves, nommé l’événement cer-
tain. Cet événement correspond à l’ensemble de tous les résultats possibles
de l’expérience, donc à Ω.
(iv) L’événement qui ne peut être réalisé par aucune épreuve de l’expérience aléa-
toire, nommé l’événement impossible. Cet événement est associé à l’ensemble
vide et pour cette raison il sera représenté par ∅.
5
1.3 Langage des événements
Les événements considérés dans ce paragraphe sont issus de la même expérience
aléatoire. Le langage des événements est relié à celui des parties d’un ensemble de
la manière suivante :
Événement Parties de Ω
6
Si A et B sont deux événements incompatibles, si A a été réalisé r fois et B a été
réalisé s fois au cours des n répétitions de E, alors A ∪ B a été réalisé r + s fois
puisque A et B ne sont jamais réalisés simultanément.
Il s’ensuit que
r+s
fn (A ∪ B) =
n
r s
= +
n n
= fn (A) + fn (B).
n
fn (Ω) = = 1.
n
Nous avons aussi
n−r
fn (A) =
n
= 1 − fn (A)
et
fn (∅) = 0.
r
Intuitivement, lorsque n tend vers +∞, fn (A) = admet une limite qui
n
dépend seulement de A, que l’on appelle la probabilité de A et que l’on note
P (A).
Dans l’exemple du lancer d’un dé parfaitement équilibré, la fréquence d’appa-
1
rition de 5 a pour limite quand n tend vers +∞. La probabilité d’obtenir 5 est
6
1
alors .
6
7
2.1 Définitions
Définition 6. (i) Le couple (Ω, P(Ω)) est appelé espace probabilisable.
(ii) Les éléments de P(Ω) sont appelés événements. On prend alors A = P(Ω).
Définition 7. On appelle probabilité définie sur l’espace probabilisable (Ω, P(Ω))
toute application P : P(Ω) −→ [0, 1] vérifiant les propriétés suivantes :
(i)
P (Ω) = 1. (2.1)
(ii) pour tous A, B ∈ P(Ω) tels que A ∩ B = ∅,
P (A ∪ B) = P (A) + P (B). (2.2)
Le triplet (Ω, P(Ω), P ) est appelé espace de probabilité fini. Pour tout événement
A, le réel P (A) est appelé probabilité de A.
2.2 Propriétés
Proposition 1. Soit (Ω, P(Ω), P ) un espace de probabilité fini et soient A et B
deux événements. On a :
(i)
P (∅) = 0. (2.3)
(ii)
P (A) + P A = 1. (2.4)
(iii)
P (A \ B) = P (A) − P (A ∩ B). (2.5)
(iv) Si A ⊂ B, alors
P (A) ≤ P (B). (2.6)
Démonstration. (i) (2.3) se démontre en appliquant (2.2) avec A = B = ∅.
(ii) On a Ω = A ∪ A et A ∩ A = ∅. Donc, d’après (2.1) et (2.2)
1 = P (Ω) = P (A) + P A .
8
(iv) Si A ⊂ B alors A ∩ B = A. Il s’ensuit que
A
B
A\B
A∩B B\A
Figure 1.1 – A, B, A \ B, A ∩ B, B \ A et A ∪ B.
Démonstration. Elle sera faite par récurrence. Tout d’abord (2.7) est vérifiée pour
n = 2 d’après l’axiome (2.2).
Supposons que (2.7) soit vraie pour n et montrons la pour n + 1.
n
Les deux événements Ai et An+1 étant disjoints, il résulte de (2.2) que
[
i=1
n+1 n
! !
Ai = P Ai + P (An+1).
[ [
P
i=1 i=1
9
En appliquant alors l’hypothèse de récurrence, on on obtient
n+1
!
Ai = P (A1 ) + P (A2 ) + . . . + P (An ) + P (An+1 ).
[
P
i=1
Comme l’ensemble des singletons {ω}, pour ω ∈ Ω, est une partition finie de
Ω, on a la proposition suivante.
Proposition 3. Supposons que Ω = {ω1 , ..., ωn }.
(i) Soient p1 , p2 , . . . , pn n réels dans [0, 1], alors :
Il existe une unique probabilité telle que pi = P ({ωi }) pour i = 1, 2, . . . , n,
si et seulement si n
pi = 1. (2.8)
X
i=1
Démonstration. Montrons tout d’abord (ii). Soit P une probabilité sur Ω, et soit
A ∈ P(Ω). Alors
A=
[
{ω} .
ω∈A
Autrement dit A est réunion disjointe (et finie) des singletons {ω}, pour les ω ∈ A.
(2.9) découle donc de (2.7).
Montrons maintenant (i).
Soit P une probabilité sur Ω, et soit pi = P ({ωi }) pour i = 1, 2, . . . , n. Comme P
est à valeurs dans [0, 1], alors 0 ≤ pi ≤ 1. La condition nécessaire de (i) découle
de (2.9) en prenant A = Ω (en effet P (Ω) = 1).
Inversement , considérons n réels p1 , p2 , . . . pn vérifiant (2.8). On pose
P ({ωi }) = pi ,
et pour tout A ⊂ Ω on définit P (A) par (2.9). La vérification de (2.1) et (2.2) est
facile.
Exemple 3. Loi de Bernoulli de paramètre p ∈ [0, 1].
L’espace Ω a deux éléments, Ω = {ω1 , ω2 } et p1 = p ; p2 = 1 − p. Cette probabilité
modélise en particulier la chance pour une pièce de tomber sur Pile (ou Face) dans
un jeu de Pile ou Face . Dans ce cas, Ω = {P, F }, que l’on identifie à {0, 1}. Si la
1
pièce est équilibrée, p = . Cette probabilité peut aussi modéliser la probabilité
2
de réalisation pour toute expérience aléatoire avec deux résultats possibles.
10
2.3 Probabilité uniforme
Définition 8. On dit que la probabilité P sur l’espace fini Ω est uniforme si
pω = P ({ω}) ne dépend pas de ω.
Proposition 4. Si P est une probabilité uniforme sur l’espace fini Ω, alors pour
tout ω ∈ Ω
1
P ({ω}) = .
card(Ω)
Alors
1 1
α= = .
n card(Ω)
On déduit de (2.9) que
card(A)
P (A) = .
card(Ω)
Le calcul des probabilités se ramène, dans ce cas, à des dénombrements.
Remarquons que sur un espace fini donné Ω, il existe une et une seule probabilité
uniforme. Cette probabilité décrit mathématiquement l’expression intuitive de «au
hasard» (tirage au hasard d’une carte, lancer au hasard d’un dé, choix au hasard
d’un échantillon dans une population).
Tirage simultané
On tire toutes les boules d’un coup. Ω est alors l’ensemble de toutes les dis-
positions non ordonnées et sans répétition de n boules ou encore l’ensemble des
parties de n éléments de Ω, et le nombre de résultats possibles est
n
card(Ω) = CN .
Lennombren de cas favorables donnant la bonne répartition des couleurs est alors
CN11 . . . CNkk . La probabilité cherchée vaut alors
n1 nk
CN . . . C Nk
Pn1 n2 ...nk = 1
n .
CN
Dans le cas de deux couleurs,
n n−n
Pn1 ,n−n1 =
C N CN −N
1
1
1
1
.
n
CN
Ainsi, par exemple si dans une fabrication en série, on sait que parmi N pièces
usinées, M sont à mettre au rebut, et si on prend au hasard un échantillon de n
pièces, la probabilité pour que cet échantillon contienne k pièces défectueuses sera
CkM CNn−k−M .
n
CN
Tirage avec remise
Les tirages sont successifs. On replace la boule tirée dans l’urne avant le ti-
rage suivant. Ω est alors l’ensemble de tous les n-uplets d’éléments de l’urne ; les
répétitions étant possibles,
card(Ω) = N n .
On munit Ω de la probabilité uniforme. Le nombre de n-uplets de répartition
n1 , n2 , . . . , nk est alors égal à
n!
N1n1 . . . Nknk . (2.10)
n1 !n2 ! . . . nk !
12
En effet, le nombre de façons de déterminer les places des k couleurs parmi n dans
le tirage est égal au nombre de permutation avec répétition de n éléments où k
éléments sont distints et où le 1er figure n1 fois, le seond n2 fois, etc., soit
n!
;
n1 !n2 ! . . . nk !
et une fois la place des couleurs choisie, on a Ni possibilités pour chaque boule de
couleur i. (2.10) est ainsi vérifiée.
Finalement, on a
n! N1n1 . . . Nknk
Pn1 n2 ...nk = .
n1 !n2 ! . . . nk ! Nn
Dans le cas particulier où k = 2, p1 = p et p2 = 1 − p, la probabilité est
n1
Pn1 ,n−n1 = Cn pn1 (1 − p)n−n1 .
On reconnaît les coefficients du binôme de Newton.
n1 !n2 ! . . . nk !
A N 1 . . . A Nk ,
ce qui donne pour probabilité la même que celle du Tirage simultané. Ainsi, on
a équivalence du tirage sans remise et du tirage simultané, du point de vue de la
composition de l’échantillon, et l’on peut donc se permettre de ne pas prendre en
compte l’ordre des boules dans le tirage.
13
Proposition 5. Voici quelques propriétés des ensembles dénombrables.
(i) Tout ensemble dénombrable est infini. Mais la réciproque est fausse.
(ii) Toute partie infinie d’un ensemble dénombrable est elle-même dénombrable.
(iii) La réunion d’une famille dénombrable d’ensembles eux-mêmes dénombrables
est un ensemble dénombrable.
(iv) Si A n’est ni fini, ni dénombrable, il en est de même de A \ B, pour tout
B ⊂ A qui est fini ou dénombrable.
Si Ω est dénombrable, on peut prendre P(Ω) comme ensemble des événements.
Si Ω n’est ni fini ni dénombrable on prend un sous-ensemble non vide de P(Ω)
appelé tribu.
3.2 Tribu
Dans toute la suite, Ω désigne un ensemble non vide quelconque.
Définition 10. On appelle tribu de parties de Ω notée A, tout sous-ensemble de
P(Ω) vérifiant :
(i) Ω ∈ A.
(ii) Pour tout A ∈ A, A ∈ A.
(iii) Pour toute famille dénombrable (Ai )i∈N d’éléments de A,
[
Ai ∈ A.
i∈N
(Ω, A) est appelé espace probabilisable. Les éléments de A sont appelés événe-
ments.
Proposition 6. Soit (Ω, A) un espace probabilisable. Les propriétés suivantes sont
vérifiées :
(i) ∅ ∈ A.
(ii) Pour tous A, B ∈ A,
• (A ∪ B) ∈ A.
• (A ∩ B) ∈ A.
• (A \ B) ∈ A.
(iii) Pour toute famille dénombrable (Ai )i∈N d’éléments de A,
\
Ai ∈ A.
i∈N
14
Démonstration. (i) ∅ = Ω ∈ A.
(ii) Soient A et B dans A, on pose A1 = A, A2 = B, A3 = A4 = . . . = ∅. On a
•
A∪B = (3.1)
[
Ai ∈ A.
i∈N
• On a A ∩ B = (A ∪ B)c .
Comme A ∈ A et B ∈ A et A est une tribu alors A ∈ A et B ∈ A, donc
d’après (3.1) A ∪ B ∈ A. D’où (A ∪ B)c ∈ A et par suite A ∩ B ∈ A.
• (A \ B) = (A ∩ B) ∈ A.
(iii) On a
Ai =
\ [
Ai .
i∈N i∈N
Or
Ai ∈ A, ∀i ∈ N =⇒ Ai ∈ A =⇒
[ [
Ai ∈ A.
i∈N i∈N
D’où \
Ai ∈ A.
i∈N
i∈I
15
3.3 Espace de probabilité
Définition 12. Soit (Ω, A) un espace probabilisable. On appelle probabilité défi-
nie sur (Ω, A) toute application P : A −→ [0, 1] vérifiant les propriétés suivantes :
(i)
P (Ω) = 1. (3.2)
(ii) Si (Ai )i∈N est une famille dénombrable d’événements deux à deux incompa-
tibles, alors
+∞
!
An = P (An ). (3.3)
[ X
P
n∈N n=0
(iii)
A ∈ A =⇒ P A = 1 − P (A). (3.6)
(iv)
A ∈ A, B ∈ A =⇒ P (A \ B) = P (A) − P (A ∩ B). (3.7)
(v) P est monotone dans le sens :
A ∈ A, B ∈ A, A ⊂ B =⇒ P (A) ≤ P (B). (3.8)
16
Démonstration. Pour vérifier (3.4), on applique (3.3) avec An = ∅ pour tout
n ∈ N : si a = P (∅) on obtient n a = a, ce qui entraîne a = 0.
P
n≥2
d’où (3.5).
À partir de l’additivité de P prouvée dans (3.5), on démontre (3.6), (3.7) et (3.8)
respectivement comme dans (2.4), (2.5) et (2.6).
Les propriétés (vi) et (vii) sont admises.
Définition 13. Soit (Ω, A, P ) un espace de probabilité et soit A ∈ A.
(i) Si P (A) = 0, on dit que A est négligeable.
(ii) Soit R une propriété. Si A = {ω ∈ Ω : ω vérifie R} et si P (A) = 1, on dit
que R est presque sûrement vraie.
Exemple 6. On lance un dé cubique équilibré jusqu’à ce que l’on obtienne un 6.
Montrons que l’on effectue presque sûrement un nombre fini de lancers.
Soit F l’événement «On obtient 6 après un nombre fini de lancer». L’événement
contraire de F est F : «On n’obtient jamais 6».
Soit An l’événement «On n’obtient pas 6 au cours des n premiers lancers du dé»,
alors
+∞
F =
\
An .
n=1
17
et
5
n
lim = 0 =⇒ P F = 0
n→+∞ 6
=⇒ P (F ) = 1.
4 Conditionnement, Indépendance
4.1 Probabilité conditionnelle
Dans un espace de probabilité (Ω, A, P ), la probabilité P (B) d’un événement
B, mesure la «chance» que B a de se réaliser. Si on suppose maintenant qu’on
a l’information «l’événement A va se réaliser», où A ∈ A tel que P (A) 6= 0,
en général la «chance» que B a de se réaliser va être modifiée. En particulier
cette «chance» est nulle si les deux événements A et B sont incompatibles. Si
l’événement A implique B, cette «chance» devient une certitude.
L’approche intuitive pour formaliser cette notion est de revenir à la notion
de fréquence (voir paragraphe 1.4). La fréquence de réalisation de l’événement B
sachant que l’événement A est réalisé, sur n expériences, est égal au nombre de
réalisations de B parmi celles pour lesquelles A est réalisé. Elle vaut donc
nB∩A fn (B ∩ A)
= ,
nA fn (A)
et si l’on fait tendre n vers l’infini, on aboutit à la notion de la probabilité condi-
tionnelle suivante.
Définition 14. Étant donné un espace de probabilité (Ω, A, P ) et un événement
A ∈ A tel que P (A) > 0. On appelle probabilité conditionnelle d’un événement
B quelconque sachant A, le nombre positif
P (B ∩ A)
P (B|A) = (4.1)
P (A)
Remarque 2. P ( . |A) définit bien une probabilité sur (Ω, A).
En effet,
(i) P ( . |A) est une application à valeurs dans [0, 1], puisque P (B ∩ A) ≤ P (A)
d’après (3.8).
(ii) On a
P (Ω ∩ A) P (A)
P (Ω|A) = = = 1.
P (A) P (A)
18
(iii) Soit (Bn )n∈N une famille dénombrable d’événements deux à deux incompa-
tibles, alors
P (( Bn ) ∩ A)
! ! S
n∈N
Bn |A =
[
P
n∈N P (A)
P( (Bn ∩ A))
S
n∈N
= (distributivité de ∩ par rapport à ∪)
P (A)
P (Bn ∩ A)
P+∞
= n=0 (les (Bn ∩ A) sont incompatibles 2 à 2)
P (A)
X P (Bn ∩ A)
+∞
=
n=0 P (A)
+∞
= P (Bn |A).
X
n=0
4.2 Propriétés
Proposition 8 (Formule des probabilités composées). Si A1 , A2 , . . . , An sont n
événements de A tels que
n
!
Ai > 0, (4.2)
\
P
i=1
alors
n
!
Ai = P (A1 )P (A2 |A1 ) P (A3 |A2 ∩ A1 ) . . .
\
P
i=1
n−2 n−1
! !
(4.3)
\ \
. . . P An−1 | Ai P An | Ai .
i=1 i=1
priété (3.8) entraîne que P (A1 ) > 0. Il résulte de la formule des probabilités
conditionnelles (4.1) que
19
Alors, on a
n+1 n
! ! !
Ai = P
\ \ \
P Ai An+1
i=1 i=1
n n
! !
= P An+1 |
\ \
Ai P Ai
i=1 i=1
n n−1
! !
= P An+1 |
\ \
Ai P An | Ai . . .
i=1 i=1
. . . P (A3 |A2 ∩ A1 ) P (A2 |A1 ) P (A1 ) .
Proposition 9 (Formule des probabilités totales). Si {A1 , A2 , . . . , An } est un
système complet d’événements non négligeables de Ω. Alors pour tout événement
B de A,
n
P (B) = P (B|Ai )P (Ai). (4.4)
X
i=1
i=1
i=1
n
= P (B|Ai )P (Ai).
X
i=1
20
Démonstration. Soit i = 1, 2 . . . , n. En appliquant la formule (4.1), on a
P (Ai ∩ B)
P (Ai|B) =
P (B)
P (B|Ai )P (Ai)
= .
P (B)
En appliquant (4.4), on obtient
P (B|Ai )P (Ai)
P (Ai|B) = X
n .
P (B|Aj )P (Aj )
j=1
21
4.3 Événements indépendants
Indépendance de deux événements
Soit (Ω, A, P ) un espace de probabilité et Soient deux évènements A et B de
A. Les événements A et B sont indépendants si la réalisation de A n’affecte pas
la réalisation de B, et inversement. On peut alors écrire
P (A|B) = P (A) et P (B|A) = P (B).
Ceci signifie que la probabilité que A se réalise est indépendante du fait que B
soit réalisé ou non, et inversement.
Exemple 8. Lancer d’une pièce à pile ou face.
Soit A l’événement «le deuxième coup donne face»
et B l’événement «le premier coup donne face».
Le résultat obtenu au deuxième coup ne dépend pas du résultat obtenu au premier
coup.
1 1
P (A) = =⇒ P (A|B) = .
2 2
P (A ∩ B)
Or P (A|B) = . Ce qui entraîne
P (B)
P (A ∩ B) = P (A|B)P (B)
= P (A)P (B)
1
= .
4
Définition 15. On dit que deux événements A et B de (Ω, A, P ) sont indépen-
dants si et seulement si la probabilité de réalisation simultanée de ces événements
est égal au produit des probabilités individuelles.
P (A ∩ B) = P (A)P (B) (4.7)
Proposition 11. Soit (Ω, A, P ) un espace de probabilité et soit A et B deux
événements de A. Les propriétés suivantes sont vérifiées
(i) Si B est non négligeable (c’est-à-dire P (B) 6= 0), alors
A et B sont indépendants ⇐⇒ P (A|B) = P (A). (4.8)
(ii)
A et B sont indépendants =⇒ A et B sont indépendants . (4.9)
(iii) Si A et B sont incompatibles et non négligeables, alors A et B ne sont pas
indépendants.
22
Indépendance de trois ou plusieurs événements
Définition 16. On dit que trois événements A, B et C de (Ω, A, P ) sont indé-
pendants (ou mutuellement indépendants) si et seulement si
(i)
P (A ∩ B ∩ C) = P (A)P (B)P (C) (4.10)
(ii)
P (A ∩ B) = P (A)P (B) (4.11)
(iii)
P (A ∩ C) = P (A)P (C) (4.12)
(iv)
P (B ∩ C) = P (B)P (C). (4.13)
Remarque 3. La définition 16 peut être reformulée comme suit : Les événements
A, B et C sont indépendants si et seulement si ils sont indépendants deux à deux
et de plus chaque événement est indépendant des deux autres.
Exemple 9. Considérons un tétraèdre 1 dont les faces sont colorées de la façon
suivante : une face est blanche, une face est noire, une face est rouge et la dernière
face comprend les trois couleurs. On lance le tétraèdre sur une table et on regarde
la couleur de la face sur laquelle le tétraèdre est tombé. Soient les événements
A1 : «on voit la couleur blanche», A2 : «on voit la couleur noire», A3 : «on voit la
couleur rouge».
1 1
Notons que P (A1 ) = P (A2 ) = P (A3 ) = et que P (Ai ∩ Aj ) = pour tous i, j
2 4
tels que i, j = 1, 2, 3 et i 6= j. Alors
23
(ii) P (A|B ∩ C) = P (A)
(iii) P (B|A ∩ C) = P (B)
(iv) P C|A ∩ B = P (C).
i∈K i∈K
Définition 18. Une suite d’événements (An )n∈N∗ de (Ω, A, P ) est dite indépen-
dante (ou mutuellement indépendante) si pour tout sous-ensemble fini K ⊂ N∗
on a : !
Ai = P (Ai ).
\ Y
P
i∈K i∈K
24
Chapitre 2
1.1 Définitions
Soit Ω = {ω1 , . . . , ωr } l’espace des résultats associé à une expérience aléatoire.
On peut remplacer l’étude des probabilités relatives aux événements de Ω par
l’étude d’un ensemble de nombres réels de la manière suivante : à chaque résultat
ωk de l’expérience on associe un nombre réel xk .
Définition 19. on appelle variable aléatoire X (en abrégé v. a.) toute application
X : Ω −→ R.
25
1.2 Loi de probabilité d’une variable aléatoire discrète
On suppose donnée une probabilité P sur (Ω, P(Ω)). À chaque nombre xk on
peut faire correspondre le nombre pk défini par
pk = P ({ω ∈ Ω : X(ω) = xk }), k = 1, 2, . . . , n.
Notation : on note [X = x] l’événement {ω ∈ Ω : X(ω) = x}.
Ainsi, pk = P [X = xk ], k = 1, 2, . . . , n.
Remarque 6. On a toujours
n
pk = 1.
X
k=1
x x1 x2 . . . xn
p p1 p2 . . . pn
Dans ce tableau, l’ordre selon lequel on écrit les valeurs x1 , . . . , xn n’est pas es-
sentiel ; habituellement on écrit les valeurs dans l’ordre croissant.
26
Remarque 8. La fonction de masse de la v. a. X est définie aussi de la manière
suivante
p1 si x = x1
p2 si x = x2
.. ..
f (x) = . . (1.1)
pn si x = xn
0 ailleurs
n
et pk = 1.
X
k=1
Exemple 10. 1. Soit X une v. a. dont la loi de probabilité est donnée par le
tableau suivant
x 1 2 3
1 1 1
p
3 6 2
27
alors la fonction de masse de X est
1/3 si x = 1
1/6 si x = 2
f (x) = (1.2)
1/2 si x = 3
0 ailleurs.
x 1 2 3 4 5 6
p 1/6 1/6 1/6 1/6 1/6 1/6
Définition 22. Soit X une v. a.. La fonction F définie pour chaque x ∈ R par
F (x) = P (X ≤ x) = P ({ω ∈ Ω : X(ω) ≤ x})
s’appelle la fonction de répartition de X.
Remarque 10. La loi de probabilité d’une variable aléatoire X détermine de
manière unique la fonction de répartition.
En effet, on calcule F (x) à partir de la loi de probabilité de la v. a. X, en
cumulant les probabilités, comme suit :
Soit X une v. a. dont la loi de probabilité est donnée par le tableau suivant :
28
x x1 x2 . . . xn
p p1 p2 . . . pn
où n
pk = 1,
X
k=1
alors la fonction de répartition est déterminée de manière unique comme suit :
0 si x < x1
p1 si x1 ≤ x < x2
p1 + p2 si x2 ≤ x < x3
F (x) = .. .. (1.3)
.
.
p1 + p2 + . . . + pn−1 si xn−1 ≤ x < xn
1 si x ≥ xn .
29
sa fonction de répartition, dont le graphe est donné par la figure 2.4.
Figure 2.4 –
x 2 5 7
p 1/3 5/12 1/4
1/3 si x = 2
5/12 si x = 5
f (x) = (1.5)
1/4 si x = 7
0 ailleurs.
Remarque 12. Il est parfois plus simple de déterminer la loi d’une v. a. à partir
de sa fonction de répartition, comme le montre l’exemple suivant.
On en déduit la loi de Y :
1
P [Y = 1] = F (1) = ,
36
1
P [Y = 2] = F (2) − F (1) = ,
12
5
P [Y = 3] = F (3) − F (2) = ,
36
7
P [Y = 4] = F (4) − F (3) = ,
36
1
P [Y = 5] = F (5) − F (4) = ,
4
11
P [Y = 6] = F (6) − F (5) = .
36
{((xi , yj ), pij ) : i = 1, 2, . . . , n et j = 1, 2, . . . , m}
où pij = P ([X = xi ] ∩ [Y = yj ])
Remarque 13.
31
• pij est la probabilité pour que, simultanément X prenne la valeur xi et Y
la valeur yj .
• les pij sont souvent donnés par le tableau matriciel :
❍
❍❍ Y
y1 ... yj ... ym
X ❍❍❍
x1 p11 ... p1j ... p1m
.. .. .. .. .. ..
. . . . . .
xi pi1 ... pij ... pim
.. .. .. .. .. ..
. . . . . .
xn pn1 . . . pnj . . . pnm
Exemple 13. Reprenons l’exemple plus haut, du lancer d’un dé deux fois de
suite.
Cherchons les lois conjointes des couples (X1 , X2 ) et (X1 , Y ).
Les lois de (X1 , X2 ) et (X1 , Y ) sont données respectivement par les tableaux sui-
vants :
❍❍
❍ X2 1 2 3 4 5 6
X1 ❍❍❍
1 1 1 1 1 1
1
36 36 36 36 36 36
1 1 1 1 1 1
2
36 36 36 36 36 36
1 1 1 1 1 1
3
36 36 36 36 36 36
1 1 1 1 1 1
4
36 36 36 36 36 36
1 1 1 1 1 1
5
36 36 36 36 36 36
1 1 1 1 1 1
6
36 36 36 36 36 36
et
32
❍❍
❍ Y 1 2 3 4 5 6
X1 ❍❍❍
1 1 1 1 1 1
1
36 36 36 36 36 36
2 1 1 1 1
2 0
36 36 36 36 36
3 1 1 1
3 0 0
36 36 36 36
4 1 1
4 0 0 0
36 36 36
5 1
5 0 0 0 0
36 36
6
6 0 0 0 0 0
36
k : g(xk )=y
33
Le symbole dans la formule (1.6) signifie qu’il faut effectuer la somme
X
k : g(xk )=y
pour tous les k tels que g(xk ) = y.
Remarque 14. Dans la proposition 13, card(Y (Ω)) peut être strictement infé-
rieure à n, si en effet il existe i 6= j dans {1, 2, . . . , n} tels que g(xi) = g(xj ).
Exemple 14. Soit X une v. a. dont la loi est donnée par le tableau suivant
x −1 0 1
p 1/4 1/4 1/2
k=1
Démonstration. En effet, les événements [X = xk ], k = 1, 2, . . . , n forment un
système complet d’événements de Ω. Il résulte donc de la remarque 2 que
n
1 = P (Ω | A) = P ([X = xk ] | A).
X
k=1
34
1.7 Indépendance de deux variables aléatoires discrètes
finies
On suppose que X et Y sont deux v. a. sur le même espace fini Ω et de lois de
probabilité respectives {(xk , pk ), k = 1, 2, . . . , n} et {(yk , qk ), k = 1, 2, . . . , m}.
P ([X = xi ] ∩ [Y = yj ]) = P [X = xi ] P [Y = yj ] = pi qj ,
pour i = 1, 2, . . . , n ; j = 1, 2, . . . , m.
x x1 x2 . . . xn
p p1 p2 . . . pn
et
y y1 y2 . . . ym
q q1 q2 . . . qm
35
où
rk = P [X + Y = zk ]
= P ([X = xi ] ∩ [Y = yj ]), (1.8)
X
pour k = 1, 2, . . . , l.
Le symbole dans la formule (1.8) signifie qu’il faut effectuer la
X
k=1
pour k = 1, 2, . . . , l.
Remarque 17. Si X et Y sont indépendantes alors on a
rk = P [X + Y = zk ] =
X
pi qj ,
i,j : xi +yj =zk
pour k = 1, 2, . . . , l.
Exemple 15. Dans le cas particulier où Y = a, une v. a. constante, on obtient la
somme d’une constante et d’une v. a. X par Z = X + a comme suit
z x1 + a x2 + a . . . xk + a . . . xn + a
r p1 p2 ... pk ... pn
car
rk = P [Z = zk ]
= P [X + a = xk + a]
= P [X = xk ]
= pk .
36
La multiplication de variables aléatoires
Définition 27. On appelle variable aléatoire produit des deux v. a. X et Y , la
v. a. Z = X Y .
Proposition 16. La loi de probabilité de la v. a. Z = X Y est donnée par le
tableau
z z1 z2 . . . zk . . . zl
(1.11)
r r1 r2 . . . rk . . . rl
où
rk = P [X Y = zk ]
= P ([X = xi ] ∩ [Y = yj ]) (1.12)
X
i,j : xi yj =zk
i,j : xi yj =zk
pour k = 1, 2, . . . , l.
Remarque 18. Si les variables aléatoires X et Y sont indépendantes alors on a
rk = P [X Y = zk ] =
X
pi qj ,
i,j : xi yj =zk
pour k = 1, 2, . . . , l.
Exemple 16. Dans le cas particulier où Y = a (a 6= 0) est une variable aléatoire
constante, on obtient le produit entre une constante et une variable aléatoire X
par Z = a X comme suit
z a x1 a x2 . . . a xk . . . a xn
r p1 p2 . . . pk . . . pn
car
rk = P [Z = zk ]
= P [a X = a xk ]
= P [X = xk ]
= pk ,
pour k = 1, 2, . . . , n.
Si a = 0, alors on a
P [0X = 0] = 1.
37
L’inverse d’une variable aléatoire
Définition 28. Soit X une variable aléatoire telle que X(Ω) = {x1 , x2 , . . . , xn }.
On suppose que xk 6= 0 pour k = 1, . . . , n. L’inverse de la v. a. X est la variable
aléatoire notée Z = X −1 .
1 1 1 1
z ... ...
x1 x2 xk xn
r p1 p2 ... pk ... pn
Exemple 17. • Soit X la v.a. dont la loi est définie par le tableau suivant
x 0 1 2 3 4
7 1 1 1 1
p
11 11 11 11 11
4
10
E(X) = k P [X = k] = .
X
k=0 11
• Si X est la v. a. constante a (c’est-à-dire X(Ω) = {a}), alors E(X) = a.
Proposition 18. Si g est une fonction de R dans R définie sur X(Ω), alors
n
E(g(X)) = g(xk ) pk .
X
k=1
38
Démonstration. Soit Y = g(X) telle que Y (Ω) = {y1 , y2, . . . , ym }. D’après la
proposition 13
P [Y = yj ] = P [X = xk ] où Kj = {k : g(xk ) = yj } .
X
k∈Kj
Donc
m m
E(Y ) = yj P [Y = yj ] = P [X = xk ]
X X X
yj
j=1 j=1 k∈Kj
m m
= yj P [X = xk ] = g(xk )P [X = xk ]
X X X X
j=1 k∈Kj j=1 k∈Kj
n
= g(xk )P [X = xk ],
X
k=1
k=1
x 0 1
3 7
p
10 10
39
et
y 0 1 2
1 1 1
p
3 2 6
On suppose sue la loi du couple (X, Y ) est donnée par le tableau suivant :
❍❍
❍❍ y 0 1 2
x ❍❍
1 1
0 0
20 4
17 1 1
1
60 4 6
Les valeurs prises par la v. a. produit XY sont 0, 1, 2, c’est-à-dire XY (Ω) =
{0, 1, 2}.
La loi de XY est donnée selon la formule (1.12) par
2
3 17 7
P [X Y = 0] = P ([X = 0] ∩ [Y = k]) + P ([X = 1] ∩ [Y = 0]) = + = .
X
k=0 10 60 12
1
P [X Y = 1] = P ([X = 1] ∩ [Y = 1]) = .
4
1
P [X Y = 2] = P ([X = 1] ∩ [Y = 2]) = .
6
1 1 7
E(X Y ) = + 2 = .
4 6 12
7
E(X) = .
10
5
E(Y ) = .
6
Donc E(X Y ) = E(X) E(Y ). Mais X et Y ne sont pas indépendantes car P ([X =
3 1
0] ∩ [Y = 2]) = 0 et P ([X = 0])P ([Y = 2]) = × 6= 0.
10 6
Variance, Covariance
Définition 31. On appelle moment d’ordre 2 d’une v. a. X, le nombre
m2 (X) = E(X 2 ).
Définition 32. On appelle variance d’une v. a. X, le nombre
V(X) = E((X − E(X))2 ).
40
Remarque 21. 1. La variance d’une variable aléatoire X peut s’interpréter
comme une mesure du degré de dispersion des valeurs de la variable aléatoire
X par rapport à sa valeur moyenne. Si la variance est petite alors les valeurs
de la variable aléatoire X sont groupées dans un petit intervalle autour
de la valeur moyenne. Si par contre, la variance est grande, les valeurs de
la variable aléatoire X sont fortement dispersées dans un grand intervalle
autour de la valeur moyenne.
2. Notons que pour toute variable aléatoire X la moyenne de l’écart est zéro,
E(X − E(X)) = 0, et donc la moyenne de l’écart ne peut pas caractériser
le degré de dispersion des valeurs de la variable aléatoire X par rapport à
sa valeur moyenne. C’est pourquoi on prend plutôt la moyenne du carré de
l’écart, c’est-à-dire la variance de la variable aléatoire X.
Proposition 20. La variance de la v. a. X est égale aussi à
Démonstration. on a
41
q
(ii) σ(aX + b) = a2 V(X) = |a| σ(X).
E(G) = g(n)P [N = n]
X
n
= (11 × 7, 8 × 10−2 ) + (94 × 9, 7 × 10−4 ) + (3 575 × 7, 8 × 10−5 )
+ (2 132 885 × 7, 2 × 10−8 )
= 1, 16Dh.
Le bénéfice moyen du joueur est E(G) − 2 = −0.84 Dh. Ainsi le bénéfice moyen
du joueur est négatif, et le jeu est défavorable au joueur.
Le moment d’ordre 2 de G est
E(G2 ) = (g(n))2 P [N = n]
X
n
= (112 × 7, 8 × 10−2 ) + (942 × 9, 7 × 10−4 ) + (3 5752 × 7, 8 × 10−5)
+ (2 132 8852 × 7, 2 × 10−8 )
La variance de G est
V(G) = E(G2 ) − E(G)2 .
On peut vérifier que l’écart-type vaut σ(G) = 572. La grande valeur de l’écart-type
vient de ce que parfois (mais très rarement), le jeu peut rapporter beaucoup.
42
Définition 34. Soit X une variable aléatoire.
(i) Si σ(X) = 1, on dit que X est une v. a. réduite.
X − E(X)
(ii) Si σ(X) 6= 0, Y = est appelée v. a. centrée réduite associée à X.
σ(X)
(iii)
V(X + Y ) = V(X) + V(Y ) + 2 cov(X, Y ). (1.20)
(iv)
V(X − Y ) = V(X) + V(Y ) − 2 cov(X, Y ). (1.21)
Démonstration. (i)
cov(X, Y ) = E (X − E(X))(Y − E(Y ))
= E XY − X E(Y ) − E(X)Y + E(X) E(Y )
= E(XY ) − 2 E(X) E(Y ) + E(X) E(Y )
= E(XY ) − E(X) E(Y ).
(ii)
43
(iii)
(ii)
V(X + Y ) = V(X) + V(Y ). (1.23)
(iii)
V(X − Y ) = V(X) + V(Y ). (1.24)
Démonstration. (i) est évidente d’après (1.18). (ii) et (iii) sont aussi évidentes.
Définition 37. Soient X et Y deux v. a.. On dit que X et Y sont non corrélées
si cov(X, Y ) = 0.
44
1.10 Cas discret infini
Nous terminons ce chapitre par ce paragraphe dans lequel on généralise les
notions vues dans le cas fini au cas où les v. a. prennent un nombre dénombrable
de valeurs. Toutes les sommes rencontrées précédemment sont remplacées par des
sommes de séries numériques, dans le cas où ces séries sont convergentes.
On considère une v. a. X définie sur un ensemble dénombrable Ω et telle que X(Ω)
soit dénombrable, qu’on note
{(xk , P [X = xk ]), k ∈ N∗ } .
On convient de noter P [X = xk ] = pk .
k=1
pérance
+∞
E(X) =
X
xk pk .
k=1
Toutes les propriétés vues dans le cas fini se généralisent au cas dénombrable à
condition d’avoir la convergence des séries écrites.
45
!
(i) X −1 Ai = X −1 (Ai ).
[ [
i∈N i∈N
!
(ii) X −1 Ai = X −1 (Ai ).
\ \
i∈N i∈N
(iii) X −1
A = X −1 (A).
(iv) X −1 (R) = Ω.
Définition 40. Soit (Ω, A) un espace probabilisable et X : Ω −→ R. On dit que
X est une v. a. (relativement à A) si
P (X > x) = 1 − F (x).
46
Démonstration. (i) X étant une v. a., ∀x ∈ R, (X ≤ x) ∈ A.
Donc F (x) = P (X ≤ x) ∈ [0, 1].
(ii) Soient x et y deux réels tels que x < y. On a
(X ≤ x) ⊂ (X ≤ y) =⇒ P (X ≤ x) ≤ P (X ≤ y),
d’après (3.8) de la proposition 7.
=⇒ F (x) ≤ F (y).
n∈N
n∈N∗
1
lim P (Cn ) = P (X ≤ x0 ) =⇒ lim F x0 + = F (x0 ).
n→+∞ n→+∞ n
Comme F est croissante, on a
1
lim F (x) = lim F x0 + = F (x0 ).
x→x0
x0 <x
n→+∞ n
47
Définition 42. On dit qu’une v. a. X : Ω 7→ X(Ω) est continue si l’ensemble de
ses valeurs X(Ω) est un intervalle de R . On dit qu’une v. a. continue X admet
une densité f si pour tout intervalle [a, b] ⊂ X(Ω) :
Z b
P (X ∈ [a, b]) = f (t) dt, (2.1)
a
où f est une fonction réelle, positive ayant un nombre fini de points de disconti-
nuité.
où Z x Z x
f (t) dt = lim f (t) dt. (2.3)
−∞ a→−∞ a
où Z +∞ Z 0 Z b
f (t) dt = lim f (t) dt + lim f (t) dt. (2.5)
−∞ a→−∞ a b→+∞ 0
Proposition 25. Une fonction réelle f définie sur R est une densité de probabilité
si et seulement si les trois conditions suivantes sont vérifiées
(i) f est continue sur R sauf en un nombre fini de points.
(ii) f (x) ≥ 0 pour tout x ∈ R.
Z +∞
(iii) f (t) dt = 1.
−∞
48
Exemple 20. La fonction f définie sur R par
0 si x ≤ 0
1
f (x) = si 0 < x ≤ 1
√
2 x
0 si x > 1
est une densité de probabilité, puisqu’elle vérifie les trois conditions de la propo-
sition 25. En effet,
(i) f est continue sur R \ {0, 1}.
(ii) f (x) ≥ 0 pour tout x ∈ R.
Z +∞ Z 1
1 h√ i1
(iii) f (t) dt = √ dt = x = 1.
−∞ 0 2 t 0
Z 1
1 Z 1
1 √
En effet √ dt = lim √ dt = lim (1 − ε) = 1.
0 2 t ε→0+
ε 2 t ε→0+
49
Figure 2.6 – Graphe de F .
50
2.3 Moments d’une variable aléatoire à densité
Espérance mathématique
Définition 43. Soit X est une v. a. de densité f . Si
Z 0 Z b
lim tf (t) dt et lim tf (t) dt existent dans R,
a→−∞ a b→+∞ 0
Proposition 29. Soit X une v. a. réelle définie sur (Ω, A, P ) de densité f . Soit
g une application de classe C 1 et strictement monotone sur X(Ω). Alors g(X) est
une v. a. à densité et, g(X) admet une espérance mathématique si et seulement si
Z 0 Z b
lim g(t)f (t) dt et lim g(t)f (t) dt existent dans R,
a→−∞ a b→+∞ 0
dans ce cas,
Z +∞ Z 0 Z b
E(g(X)) = g(t)f (t) dt = lim g(t)f (t) dt + lim g(t)f (t) dt.
−∞ a→−∞ a b→+∞ 0
51
on dit que X admet une variance notée
Z +∞
V(X) = [x − E(X)]2 f (x) dx (2.7)
−∞
Z 0 Z b
= lim [x − E(X)]2 f (x) dx + lim [x − E(X)]2 f (x) dx.
a→−∞ a b→+∞ 0
Proposition 30. Soit X est une v. a. de densité f admettant une espérance ma-
thématique E(X). V(X) existe si et seulement si E(X 2 ) existe. On a
Définition 47. Soit X une v. a. à densité. Si σ(X) = 1, on dit que X est une
v. a. réduite.
52