Vous êtes sur la page 1sur 52

Statistiques et Processus Stochastiques

Professeur : H. ZIAT

2017/2018
Sommaire

1 Espace de probabilité 4
1 Langage probabiliste . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1 Expérience aléatoire . . . . . . . . . . . . . . . . . . . . . 4
1.2 Evénement aléatoire . . . . . . . . . . . . . . . . . . . . . 5
1.3 Langage des événements . . . . . . . . . . . . . . . . . . . 6
1.4 Approche intuitive d’une probabilité . . . . . . . . . . . . 6
2 Espace de probabilité fini . . . . . . . . . . . . . . . . . . . . . . . 7
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3 Probabilité uniforme . . . . . . . . . . . . . . . . . . . . . 11
2.4 Modèles d’urnes . . . . . . . . . . . . . . . . . . . . . . . . 11
3 Espace de probabilité : cas général . . . . . . . . . . . . . . . . . 13
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.3 Espace de probabilité . . . . . . . . . . . . . . . . . . . . . 16
4 Conditionnement, Indépendance . . . . . . . . . . . . . . . . . . . 18
4.1 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . 18
4.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.3 Événements indépendants . . . . . . . . . . . . . . . . . . 22

2 Variables aléatoires discrètes et continues 25


1 Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . 25
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.2 Loi de probabilité d’une variable aléatoire discrète . . . . . 26
1.3 Fonction de masse et fonction de répartition . . . . . . . . 26
1.4 Loi de probabilité d’un couple de v.a. discrètes finies . . . 31
1.5 Loi d’une fonction d’une variable aléatoire . . . . . . . . . 33
1.6 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . 34
1.7 Indépendance de deux variables aléatoires discrètes finies . 35

2
1.8 Opérations sur des variables aléatoires . . . . . . . . . . . 35
1.9 Moments d’une variable aléatoire discrète finie . . . . . . . 38
1.10 Cas discret infini . . . . . . . . . . . . . . . . . . . . . . . 45
2 Variables aléatoires continues . . . . . . . . . . . . . . . . . . . . 45
2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2 Variables aléatoires à densité . . . . . . . . . . . . . . . . . 47
2.3 Moments d’une variable aléatoire à densité . . . . . . . . . 51
2.4 Variables aléatoires à densité indépendantes . . . . . . . . 52

3
Chapitre 1

Espace de probabilité

1 Langage probabiliste
1.1 Expérience aléatoire
La théorie des probabilités traite des expériences dont les résultats dépendent
du hasard.
Définition 1. On appelle expérience aléatoire une expérience E qui, reproduite
dans des conditions identiques, peut conduire à plusieurs résultats possibles, et
dont on ne peut prévoir le résultat par avance.
Définition 2. L’espace de tous les résultats possibles de l’expérience est appelé
espace d’états (ou aussi univers des possibles). Il est noté Ω.
Définition 3. Un résultat possible de l’expérience est noté ω. Ainsi ω ∈ Ω.
Les expériences peuvent avoir un nombre fini ou infini de résultats possibles.
Par conséquent, l’ensemble Ω peut être fini ou infini.
Les jeux de hasard, tels Pile ou Face , jeux de cartes , loterie, fournissent des
exemples d’expériences aléatoires pour lesquels Ω est fini.
Exemple 1. 1. On lance deux pièces à Pile ou Face :
Ω = {(P, P ), (P, F ), (F, P ), (F, F )} .
Au lieu de noter les dispositions ordonnées par des couples, on peut les noter
P P, P F, F P, F F . Ainsi Ω est aussi noté par Ω = {P P, P F, F P, F F }.
2. On lance un dé :
Ω = {1, 2, 3, 4, 5, 6} .

4
3. On envoie une fléchette sur une cible circulaire de 50 cm de diamètre et l’ex-
périence consiste à décrire l’impact de la flèche dans un repère orthonormé
de centre le centre de la cible :
 q 
Ω = (x, y) : x2 + y 2 ≤ 5 .

1.2 Evénement aléatoire


Définition 4. On appelle événement aléatoire ou plus simplement événement (re-
lativement à l’expérience) toute situation qui peut être réalisée par un ou plusieurs
résultats possibles.

Exemple 2. Soit l’expérience qui consiste en un lancer de deux dés,

A = {la somme des deux dés est inférieure à 4}

est un événement aléatoire.

Un événement aléatoire est donc totalement déterminé par l’ensemble des ré-
sultats possibles par lesquels l’événement se réalise. On peut donc identifier chaque
événement avec un sous-ensemble de Ω. Nous représenterons les événements aléa-
toires par des lettres majuscules comme A, B, . . . , A1 , . . . et les différentes épreuves
ou réalisations d’une expérience par la lettre grecque ω, comme ω . . . , ωi, . . ..
Si un événement A se réalise par les résultats ωi , ωj , . . . , ωk on le représentera
souvent par A = {ωi , ωj , . . . , ωk }.

Définition 5. (i) Les événements qui sont réalisables par un seul résultat s’ap-
pellent événements élémentaires.
(ii) Les autres événements s’appellent événements composés, ou simplement évé-
nements.
(iii) L’événement qui se réalise à chacune des épreuves, nommé l’événement cer-
tain. Cet événement correspond à l’ensemble de tous les résultats possibles
de l’expérience, donc à Ω.
(iv) L’événement qui ne peut être réalisé par aucune épreuve de l’expérience aléa-
toire, nommé l’événement impossible. Cet événement est associé à l’ensemble
vide et pour cette raison il sera représenté par ∅.

5
1.3 Langage des événements
Les événements considérés dans ce paragraphe sont issus de la même expérience
aléatoire. Le langage des événements est relié à celui des parties d’un ensemble de
la manière suivante :

Événement Parties de Ω

Événement élémentaire singleton (partie à un élément)


Événement certain Ω
Événement impossible ∅
Événement A ou B A∪B
Événement A et B A∩B
Événement contraire de A A (ou Ac )
A implique B A⊂B
A et B sont incompatibles A∩B =∅

On note A l’ensemble de tous les événements. Il modélise l’information que


l’on peut obtenir à partir des résultats de l’expérience.

Remarque 1. Pour que la modélisation soit cohérente avec l’intuition, A doit


être stable par les opérations ensemblistes suivantes : si A, B ∈ A , alors on doit
avoir A ∩ B ∈ A, A ∪ B ∈ A, A ∈ A, Ω ∈ A et ∅ ∈ A,

1.4 Approche intuitive d’une probabilité


Soit E une expérience aléatoire. Tous les événements liés à E ont des chances
différentes d’être réalisés. Pour cela, répétons n fois E dans les mêmes conditions.
r
Si l’événement A a été réalisé r fois , le nombre est appelé fréquence de A sur
n
ces n répétitions de E. On la note
r
fn (A) = .
n
On a fn (A) ∈ [0, 1]

6
Si A et B sont deux événements incompatibles, si A a été réalisé r fois et B a été
réalisé s fois au cours des n répétitions de E, alors A ∪ B a été réalisé r + s fois
puisque A et B ne sont jamais réalisés simultanément.
Il s’ensuit que

r+s
fn (A ∪ B) =
n
r s
= +
n n
= fn (A) + fn (B).

De plus l’événement certain Ω a été réalisé n fois, alors

n
fn (Ω) = = 1.
n
Nous avons aussi

n−r
fn (A) =
n
= 1 − fn (A)

et
fn (∅) = 0.
r
Intuitivement, lorsque n tend vers +∞, fn (A) = admet une limite qui
n
dépend seulement de A, que l’on appelle la probabilité de A et que l’on note
P (A).
Dans l’exemple du lancer d’un dé parfaitement équilibré, la fréquence d’appa-
1
rition de 5 a pour limite quand n tend vers +∞. La probabilité d’obtenir 5 est
6
1
alors .
6

2 Espace de probabilité fini


Dans ce paragraphe, on suppose que Ω est un ensemble fini,

7
2.1 Définitions
Définition 6. (i) Le couple (Ω, P(Ω)) est appelé espace probabilisable.
(ii) Les éléments de P(Ω) sont appelés événements. On prend alors A = P(Ω).
Définition 7. On appelle probabilité définie sur l’espace probabilisable (Ω, P(Ω))
toute application P : P(Ω) −→ [0, 1] vérifiant les propriétés suivantes :
(i)
P (Ω) = 1. (2.1)
(ii) pour tous A, B ∈ P(Ω) tels que A ∩ B = ∅,
P (A ∪ B) = P (A) + P (B). (2.2)
Le triplet (Ω, P(Ω), P ) est appelé espace de probabilité fini. Pour tout événement
A, le réel P (A) est appelé probabilité de A.

2.2 Propriétés
Proposition 1. Soit (Ω, P(Ω), P ) un espace de probabilité fini et soient A et B
deux événements. On a :
(i)
P (∅) = 0. (2.3)
(ii)  
P (A) + P A = 1. (2.4)
(iii)
P (A \ B) = P (A) − P (A ∩ B). (2.5)
(iv) Si A ⊂ B, alors
P (A) ≤ P (B). (2.6)
Démonstration. (i) (2.3) se démontre en appliquant (2.2) avec A = B = ∅.
(ii) On a Ω = A ∪ A et A ∩ A = ∅. Donc, d’après (2.1) et (2.2)
 
1 = P (Ω) = P (A) + P A .

(iii) On décompose l’ensemble A en l’union des deux ensembles disjoints A \ B


et A ∩ B (voir figure 1.1), comme suit :
A = (A \ B) ∪ (A ∩ B).
D’après (2.2) on a P (A) = P (A \ B) + P (A ∩ B).
D’où P (A \ B) = P (A) − P (A ∩ B).

8
(iv) Si A ⊂ B alors A ∩ B = A. Il s’ensuit que

P (B) = P (B \ A) + P (A ∩ B) = P (B \ A) + P (A) ≥ P (A).

A
B

A\B
A∩B B\A

Figure 1.1 – A, B, A \ B, A ∩ B, B \ A et A ∪ B.

La propriété de l’additivité de P donné dans (2.2) à la page 8, peut être


généralisée par récurrence à une suite finie d’événements A1 , A2 , . . . , An , pour
n ∈ N∗ comme suit.

Proposition 2. Soit n ∈ N∗ et soit A1 , A2 , . . . , An une suite finie d’événements


disjoints deux à deux. Alors
n
!
Ai = P (A1 ) + P (A2 ) + . . . + P (An ). (2.7)
[
P
i=1

Démonstration. Elle sera faite par récurrence. Tout d’abord (2.7) est vérifiée pour
n = 2 d’après l’axiome (2.2).
Supposons que (2.7) soit vraie pour n et montrons la pour n + 1.
n
Les deux événements Ai et An+1 étant disjoints, il résulte de (2.2) que
[

i=1

n+1 n
! !
Ai = P Ai + P (An+1).
[ [
P
i=1 i=1

9
En appliquant alors l’hypothèse de récurrence, on on obtient
n+1
!
Ai = P (A1 ) + P (A2 ) + . . . + P (An ) + P (An+1 ).
[
P
i=1

Comme l’ensemble des singletons {ω}, pour ω ∈ Ω, est une partition finie de
Ω, on a la proposition suivante.
Proposition 3. Supposons que Ω = {ω1 , ..., ωn }.
(i) Soient p1 , p2 , . . . , pn n réels dans [0, 1], alors :
Il existe une unique probabilité telle que pi = P ({ωi }) pour i = 1, 2, . . . , n,
si et seulement si n
pi = 1. (2.8)
X

i=1

(ii) Soit P une probabilité sur Ω. Pour tout A ∈ P(Ω) on a


P (A) = P ({ω}) = (2.9)
X X

ω∈A ω∈A

Démonstration. Montrons tout d’abord (ii). Soit P une probabilité sur Ω, et soit
A ∈ P(Ω). Alors
A=
[
{ω} .
ω∈A
Autrement dit A est réunion disjointe (et finie) des singletons {ω}, pour les ω ∈ A.
(2.9) découle donc de (2.7).
Montrons maintenant (i).
Soit P une probabilité sur Ω, et soit pi = P ({ωi }) pour i = 1, 2, . . . , n. Comme P
est à valeurs dans [0, 1], alors 0 ≤ pi ≤ 1. La condition nécessaire de (i) découle
de (2.9) en prenant A = Ω (en effet P (Ω) = 1).
Inversement , considérons n réels p1 , p2 , . . . pn vérifiant (2.8). On pose
P ({ωi }) = pi ,
et pour tout A ⊂ Ω on définit P (A) par (2.9). La vérification de (2.1) et (2.2) est
facile.
Exemple 3. Loi de Bernoulli de paramètre p ∈ [0, 1].
L’espace Ω a deux éléments, Ω = {ω1 , ω2 } et p1 = p ; p2 = 1 − p. Cette probabilité
modélise en particulier la chance pour une pièce de tomber sur Pile (ou Face) dans
un jeu de Pile ou Face . Dans ce cas, Ω = {P, F }, que l’on identifie à {0, 1}. Si la
1
pièce est équilibrée, p = . Cette probabilité peut aussi modéliser la probabilité
2
de réalisation pour toute expérience aléatoire avec deux résultats possibles.

10
2.3 Probabilité uniforme
Définition 8. On dit que la probabilité P sur l’espace fini Ω est uniforme si
pω = P ({ω}) ne dépend pas de ω.

Proposition 4. Si P est une probabilité uniforme sur l’espace fini Ω, alors pour
tout ω ∈ Ω
1
P ({ω}) = .
card(Ω)

Démonstration. Comme Ω est fini, notons Ω = {ω1 , ..., ωn }.


De plus, P ({ω}) ne dépend pas de ω, alors il existe α ∈ [0, 1] tel que pour tout
i = 1, 2 . . . , n, P ({ωi }) = α. Par suite,
n n n
!
1 = P (Ω) = P {ωi } = P ({ωi }) =
[ X X
α.
i=1 i=1 i=1

Alors
1 1
α= = .
n card(Ω)
On déduit de (2.9) que
card(A)
P (A) = .
card(Ω)
Le calcul des probabilités se ramène, dans ce cas, à des dénombrements.
Remarquons que sur un espace fini donné Ω, il existe une et une seule probabilité
uniforme. Cette probabilité décrit mathématiquement l’expression intuitive de «au
hasard» (tirage au hasard d’une carte, lancer au hasard d’un dé, choix au hasard
d’un échantillon dans une population).

2.4 Modèles d’urnes


Dans ce paragraphe , on va développer différents «modèles d’urnes» qu’on
peut également voir comme des modèles de prélèvement d’échantillons dans une
population. Ils interviennent aussi en contrôle de fabrication, ou dans de multiples
autres situations.
Le modèle général est le suivant : une urne contient N boules de k couleurs
différentes, réparties en N1 boules de couleur 1, N2 boules de couleur 2, ..., Nk
Ni
boules de couleur k. On posera pi = la proportion de boules de couleur i.
N
11
On tire au hasard n boules de cette urne, n ≤ N, et on s’intéresse à la répartition
des couleurs dans l’échantillon obtenu. On note par Pn1 n2 ...nk la probabilité d’ob-
tenir n1 boules de couleur 1, n2 boules de couleur 2, ..., nk boules de couleur k,
avec n1 + n2 + . . . + nk = n. On va considérer trois façons de tirer les boules au
hasard :

Tirage simultané
On tire toutes les boules d’un coup. Ω est alors l’ensemble de toutes les dis-
positions non ordonnées et sans répétition de n boules ou encore l’ensemble des
parties de n éléments de Ω, et le nombre de résultats possibles est
n
card(Ω) = CN .
Lennombren de cas favorables donnant la bonne répartition des couleurs est alors
CN11 . . . CNkk . La probabilité cherchée vaut alors
n1 nk
CN . . . C Nk
Pn1 n2 ...nk = 1
n .
CN
Dans le cas de deux couleurs,
n n−n

Pn1 ,n−n1 =
C N CN −N
1
1
1
1
.
n
CN
Ainsi, par exemple si dans une fabrication en série, on sait que parmi N pièces
usinées, M sont à mettre au rebut, et si on prend au hasard un échantillon de n
pièces, la probabilité pour que cet échantillon contienne k pièces défectueuses sera

CkM CNn−k−M .
n
CN
Tirage avec remise
Les tirages sont successifs. On replace la boule tirée dans l’urne avant le ti-
rage suivant. Ω est alors l’ensemble de tous les n-uplets d’éléments de l’urne ; les
répétitions étant possibles,
card(Ω) = N n .
On munit Ω de la probabilité uniforme. Le nombre de n-uplets de répartition
n1 , n2 , . . . , nk est alors égal à
n!
N1n1 . . . Nknk . (2.10)
n1 !n2 ! . . . nk !

12
En effet, le nombre de façons de déterminer les places des k couleurs parmi n dans
le tirage est égal au nombre de permutation avec répétition de n éléments où k
éléments sont distints et où le 1er figure n1 fois, le seond n2 fois, etc., soit
n!
;
n1 !n2 ! . . . nk !
et une fois la place des couleurs choisie, on a Ni possibilités pour chaque boule de
couleur i. (2.10) est ainsi vérifiée.
Finalement, on a
n! N1n1 . . . Nknk
Pn1 n2 ...nk = .
n1 !n2 ! . . . nk ! Nn
Dans le cas particulier où k = 2, p1 = p et p2 = 1 − p, la probabilité est
n1
Pn1 ,n−n1 = Cn pn1 (1 − p)n−n1 .
On reconnaît les coefficients du binôme de Newton.

Tirage sans remise


On tire maintenant successivement les boules de l’urne, mais sans les replacer
dans l’urne après tirage. Ω est alors l’ensemble des dispositions ordonnées de n
éléments distincts parmi N et le nombre de cas possibles sera
AnN = N(N − 1) . . . (N − n + 1).
En raisonnant comme dans le cas avec remise, on peut montrer que le nombre de
cas favorables vaut
n! n1 nk

n1 !n2 ! . . . nk !
A N 1 . . . A Nk ,

ce qui donne pour probabilité la même que celle du Tirage simultané. Ainsi, on
a équivalence du tirage sans remise et du tirage simultané, du point de vue de la
composition de l’échantillon, et l’on peut donc se permettre de ne pas prendre en
compte l’ordre des boules dans le tirage.

3 Espace de probabilité : cas général


3.1 Introduction
Définition 9. On dit qu’un ensemble E est dénombrable s’il est en bijection avec
N, c’est-à-dire si l’on peut énumérer ses éléments en une suite (xn )n∈N .

13
Proposition 5. Voici quelques propriétés des ensembles dénombrables.
(i) Tout ensemble dénombrable est infini. Mais la réciproque est fausse.
(ii) Toute partie infinie d’un ensemble dénombrable est elle-même dénombrable.
(iii) La réunion d’une famille dénombrable d’ensembles eux-mêmes dénombrables
est un ensemble dénombrable.
(iv) Si A n’est ni fini, ni dénombrable, il en est de même de A \ B, pour tout
B ⊂ A qui est fini ou dénombrable.
Si Ω est dénombrable, on peut prendre P(Ω) comme ensemble des événements.
Si Ω n’est ni fini ni dénombrable on prend un sous-ensemble non vide de P(Ω)
appelé tribu.

3.2 Tribu
Dans toute la suite, Ω désigne un ensemble non vide quelconque.
Définition 10. On appelle tribu de parties de Ω notée A, tout sous-ensemble de
P(Ω) vérifiant :
(i) Ω ∈ A.
(ii) Pour tout A ∈ A, A ∈ A.
(iii) Pour toute famille dénombrable (Ai )i∈N d’éléments de A,
[
Ai ∈ A.
i∈N

(Ω, A) est appelé espace probabilisable. Les éléments de A sont appelés événe-
ments.
Proposition 6. Soit (Ω, A) un espace probabilisable. Les propriétés suivantes sont
vérifiées :
(i) ∅ ∈ A.
(ii) Pour tous A, B ∈ A,
• (A ∪ B) ∈ A.
• (A ∩ B) ∈ A.
• (A \ B) ∈ A.
(iii) Pour toute famille dénombrable (Ai )i∈N d’éléments de A,
\
Ai ∈ A.
i∈N

14
Démonstration. (i) ∅ = Ω ∈ A.
(ii) Soient A et B dans A, on pose A1 = A, A2 = B, A3 = A4 = . . . = ∅. On a

A∪B = (3.1)
[
Ai ∈ A.
i∈N

• On a A ∩ B = (A ∪ B)c .
Comme A ∈ A et B ∈ A et A est une tribu alors A ∈ A et B ∈ A, donc
d’après (3.1) A ∪ B ∈ A. D’où (A ∪ B)c ∈ A et par suite A ∩ B ∈ A.
• (A \ B) = (A ∩ B) ∈ A.
(iii) On a
Ai =
\ [
Ai .
i∈N i∈N

Or
Ai ∈ A, ∀i ∈ N =⇒ Ai ∈ A =⇒
[ [
Ai ∈ A.
i∈N i∈N

D’où \
Ai ∈ A.
i∈N

Exemple 4. i) Tribu Grossière : A = {Ω, ∅}.


n o
ii) Tribu de Bernoulli : A = Ω, A, A, ∅ .
iii) Tribu la plus fine : A = P(Ω).
iv) L’ensemble des intervalles ouverts de R n’est pas une tribu de parties de R.

Système complet d’événements


Définition 11. Soit A une tribu de parties de Ω. On appelle système complet
d’événements de Ω toute famille finie ou dénombrable (Ai )i∈I , telle que :
(i) Ai ∈ A, pour tout i ∈ I.
(ii) Ai = Ω.
[

i∈I

(iii) Ai ∩ Aj = ∅, pour tous i, j dans I tels que i 6= j.


n o
Exemple 5. i) Si A ∈ A, A, A est un système complet d’événements de Ω.
ii) Si Ω = {ωi : i ∈ I} est un ensemble fini ou dénombrable, alors ({ωi })i∈I est
un système complet d’événements de Ω (A = P(Ω)).

15
3.3 Espace de probabilité
Définition 12. Soit (Ω, A) un espace probabilisable. On appelle probabilité défi-
nie sur (Ω, A) toute application P : A −→ [0, 1] vérifiant les propriétés suivantes :
(i)
P (Ω) = 1. (3.2)
(ii) Si (Ai )i∈N est une famille dénombrable d’événements deux à deux incompa-
tibles, alors
+∞
!
An = P (An ). (3.3)
[ X
P
n∈N n=0

Le triplet (Ω, A, P ) est appelé espace de probabilité. Pour tout événement A,


le réel P (A) est appelé probabilité de A. L’axiome (3.3) est appelé «axiome de
σ-additivité».
Proposition 7. Soit (Ω, A, P ) un espace de probabilité. alors P vérifie les pro-
priétés suivantes :
(i)
P (∅) = 0, (3.4)
(ii) P est additive dans le sens :
A ∈ A, B ∈ A, A ∩ B = ∅ =⇒ P (A ∪ B) = P (A) + P (B). (3.5)

(iii)  
A ∈ A =⇒ P A = 1 − P (A). (3.6)
(iv)
A ∈ A, B ∈ A =⇒ P (A \ B) = P (A) − P (A ∩ B). (3.7)
(v) P est monotone dans le sens :
A ∈ A, B ∈ A, A ⊂ B =⇒ P (A) ≤ P (B). (3.8)

(vi) Pour toute suite (An )n dans A telle que ∀n ∈ N, An ⊂ An+1 ,


!
An = lim ↑ P (An ). (3.9)
[
P
n
n

(vii) Pour toute suite (An )n dans A telle que ∀n ∈ N, An+1 ⊂ An ,


!
An = lim ↓ P (An ). (3.10)
\
P
n
n

16
Démonstration. Pour vérifier (3.4), on applique (3.3) avec An = ∅ pour tout
n ∈ N : si a = P (∅) on obtient n a = a, ce qui entraîne a = 0.
P

Si maintenant A et B sont deux événements incompatibles de A, on applique (3.3)


avec A0 = A, A1 = B et An = ∅ pour tout n ≥ 2, ce qui donne
P (A ∪ B) = P (A) + P (B) + P (∅) = P (A) + P (B),
X

n≥2

d’où (3.5).
À partir de l’additivité de P prouvée dans (3.5), on démontre (3.6), (3.7) et (3.8)
respectivement comme dans (2.4), (2.5) et (2.6).
Les propriétés (vi) et (vii) sont admises.
Définition 13. Soit (Ω, A, P ) un espace de probabilité et soit A ∈ A.
(i) Si P (A) = 0, on dit que A est négligeable.
(ii) Soit R une propriété. Si A = {ω ∈ Ω : ω vérifie R} et si P (A) = 1, on dit
que R est presque sûrement vraie.
Exemple 6. On lance un dé cubique équilibré jusqu’à ce que l’on obtienne un 6.
Montrons que l’on effectue presque sûrement un nombre fini de lancers.
Soit F l’événement «On obtient 6 après un nombre fini de lancer». L’événement
contraire de F est F : «On n’obtient jamais 6».
Soit An l’événement «On n’obtient pas 6 au cours des n premiers lancers du dé»,
alors
+∞
F =
\
An .
n=1

Pour tout n ∈ N∗ , l’événement An+1 implique l’événement An (c’est-à-dire An+1 ⊂


An ). D’où, en appliquant la proposition 7 (vii), on obtient
+∞
!
 
P F =P An = lim P (An ).
\
n→+∞
i=1

L’espace de probabilité associé aux n premiers lancers du dé est (Ω, P(Ω), P ) où Ω


ici est le produit cartésien {1, 2, 3, 4, 5, 6}n et P est la probabilité uniforme définie
sur Ω. Or card(Ω) = 6n et An = {1, 2, 3, 4, 5}n =⇒ card(An ) = 5n . Ceci entraîne
que
card(An )
P (An ) =
card(Ω)
5
 n
= ,
6

17
et
5
 n  
lim = 0 =⇒ P F = 0
n→+∞ 6
=⇒ P (F ) = 1.

4 Conditionnement, Indépendance
4.1 Probabilité conditionnelle
Dans un espace de probabilité (Ω, A, P ), la probabilité P (B) d’un événement
B, mesure la «chance» que B a de se réaliser. Si on suppose maintenant qu’on
a l’information «l’événement A va se réaliser», où A ∈ A tel que P (A) 6= 0,
en général la «chance» que B a de se réaliser va être modifiée. En particulier
cette «chance» est nulle si les deux événements A et B sont incompatibles. Si
l’événement A implique B, cette «chance» devient une certitude.
L’approche intuitive pour formaliser cette notion est de revenir à la notion
de fréquence (voir paragraphe 1.4). La fréquence de réalisation de l’événement B
sachant que l’événement A est réalisé, sur n expériences, est égal au nombre de
réalisations de B parmi celles pour lesquelles A est réalisé. Elle vaut donc
nB∩A fn (B ∩ A)
= ,
nA fn (A)
et si l’on fait tendre n vers l’infini, on aboutit à la notion de la probabilité condi-
tionnelle suivante.
Définition 14. Étant donné un espace de probabilité (Ω, A, P ) et un événement
A ∈ A tel que P (A) > 0. On appelle probabilité conditionnelle d’un événement
B quelconque sachant A, le nombre positif
P (B ∩ A)
P (B|A) = (4.1)
P (A)
Remarque 2. P ( . |A) définit bien une probabilité sur (Ω, A).
En effet,
(i) P ( . |A) est une application à valeurs dans [0, 1], puisque P (B ∩ A) ≤ P (A)
d’après (3.8).
(ii) On a
P (Ω ∩ A) P (A)
P (Ω|A) = = = 1.
P (A) P (A)

18
(iii) Soit (Bn )n∈N une famille dénombrable d’événements deux à deux incompa-
tibles, alors

P (( Bn ) ∩ A)
! ! S
n∈N
Bn |A =
[
P
n∈N P (A)
P( (Bn ∩ A))
S
n∈N
= (distributivité de ∩ par rapport à ∪)
P (A)
P (Bn ∩ A)
P+∞
= n=0 (les (Bn ∩ A) sont incompatibles 2 à 2)
P (A)
X P (Bn ∩ A)
+∞
=
n=0 P (A)
+∞
= P (Bn |A).
X

n=0

4.2 Propriétés
Proposition 8 (Formule des probabilités composées). Si A1 , A2 , . . . , An sont n
événements de A tels que
n
!
Ai > 0, (4.2)
\
P
i=1

alors
n
!
Ai = P (A1 )P (A2 |A1 ) P (A3 |A2 ∩ A1 ) . . .
\
P
i=1
n−2 n−1
! !
(4.3)
\ \
. . . P An−1 | Ai P An | Ai .
i=1 i=1

Démonstration. Par récurrence. D’après (4.2) et le fait que ni=1 Ai ⊂ A1 , la pro-


T

priété (3.8) entraîne que P (A1 ) > 0. Il résulte de la formule des probabilités
conditionnelles (4.1) que

P (A1 ∩ A2 ) = P (A2 |A1 )P (A1 ).

Autrement dit, (4.3) est vérifiée pour n = 2.


Supposons maintenant que (4.3) soit vérifiée pour n et montrons la pour n + 1.

19
Alors, on a
n+1 n
! ! !
Ai = P
\ \ \
P Ai An+1
i=1 i=1
n n
! !
= P An+1 |
\ \
Ai P Ai
i=1 i=1
n n−1
! !
= P An+1 |
\ \
Ai P An | Ai . . .
i=1 i=1
. . . P (A3 |A2 ∩ A1 ) P (A2 |A1 ) P (A1 ) .
Proposition 9 (Formule des probabilités totales). Si {A1 , A2 , . . . , An } est un
système complet d’événements non négligeables de Ω. Alors pour tout événement
B de A,
n
P (B) = P (B|Ai )P (Ai). (4.4)
X

i=1

Démonstration. Soit B ∈ A. On a B = B ∩ Ω. Et comme {A1 , A2 , . . . , An } est un


système complet d’événements de Ω, alors
n
!
B=B∩
[
Ai
i=1
n
= (B ∩ Ai ) . (4.5)
[

i=1

Comme les événements A1 , A2 , . . . , An sont incompatibles deux à deux, les évé-


nements B ∩ A1 , B ∩ A2 , . . . , B ∩ An le sont aussi. Il en résulte, en appliquant la
propriété (3.5) de la probabilité P et la formule de la probabilité conditionnelle
(4.1) que
n
P (B) = P (B ∩ Ai )
X

i=1
n
= P (B|Ai )P (Ai).
X

i=1

Proposition 10 (Formule de Bayes). Si {A1 , A2 , . . . , An } est un système complet


d’événements non négligeables de Ω. Alors pour tout événement non négligeable B
de A, on a
P (B|Ai)P (Ai )
P (Ai |B) = X
n pour tout i = 1, 2 . . . , n. (4.6)
P (B|Aj )P (Aj )
j=1

20
Démonstration. Soit i = 1, 2 . . . , n. En appliquant la formule (4.1), on a
P (Ai ∩ B)
P (Ai|B) =
P (B)
P (B|Ai )P (Ai)
= .
P (B)
En appliquant (4.4), on obtient
P (B|Ai )P (Ai)
P (Ai|B) = X
n .
P (B|Aj )P (Aj )
j=1

Exemple 7. Une usine d’ampoules électriques dispose de 3 machines qui fa-


briquent respectivement 20%, 30% et 50% de la production. La probabilité qu’une
ampoule défectueuse ait été fabriquée par A, B, C est respectivement P (D|A) =
0,05, P (D|B) = 0,04, P (D|C) = 0,01. On se propose de calculer
1. La probabilité qu’une ampoule soit défectueuse.
2. La probabilité qu’une ampoule défectueuse provienne de A.
Notons les événement suivants
• D : «l’ampoule est défectueuse»
• A : «l’ampoule est fabriquée par la machine A»
• B : «l’ampoule est fabriquée par la machine B»
• C : «l’ampoule est fabriquée par la machine C»
1. Les événements A, B, C forment un système complet d’événements.
En effet, une ampoule est fabriquée par l’une des trois machines : ce qui
donne A ∪ B ∪ C = Ω et elle ne peut pas être fabriquée par plus d’une
machine : les événements A, B, C sont incompatibles deux à deux.
Alors d’après la proposition 9, on a
P (D) = P (D|A)P (A) + P (D|B)P (B) + P (D|C)P (C)
5 20 4 30 1 50
     
= × + × + ×
100 100 100 100 100 100
= 0, 027.

2. En utilisant la formule de Bayes de la proposition 10, on obtient


P (D|A)P (A)
P (A|D) =
P (D|A)P (A) + P (D|B)P (B) + P (D|C)P (C)
= 0, 37.

21
4.3 Événements indépendants
Indépendance de deux événements
Soit (Ω, A, P ) un espace de probabilité et Soient deux évènements A et B de
A. Les événements A et B sont indépendants si la réalisation de A n’affecte pas
la réalisation de B, et inversement. On peut alors écrire
P (A|B) = P (A) et P (B|A) = P (B).
Ceci signifie que la probabilité que A se réalise est indépendante du fait que B
soit réalisé ou non, et inversement.
Exemple 8. Lancer d’une pièce à pile ou face.
Soit A l’événement «le deuxième coup donne face»
et B l’événement «le premier coup donne face».
Le résultat obtenu au deuxième coup ne dépend pas du résultat obtenu au premier
coup.
1 1
P (A) = =⇒ P (A|B) = .
2 2
P (A ∩ B)
Or P (A|B) = . Ce qui entraîne
P (B)
P (A ∩ B) = P (A|B)P (B)
= P (A)P (B)
1
= .
4
Définition 15. On dit que deux événements A et B de (Ω, A, P ) sont indépen-
dants si et seulement si la probabilité de réalisation simultanée de ces événements
est égal au produit des probabilités individuelles.
P (A ∩ B) = P (A)P (B) (4.7)
Proposition 11. Soit (Ω, A, P ) un espace de probabilité et soit A et B deux
événements de A. Les propriétés suivantes sont vérifiées
(i) Si B est non négligeable (c’est-à-dire P (B) 6= 0), alors
A et B sont indépendants ⇐⇒ P (A|B) = P (A). (4.8)
(ii)
A et B sont indépendants =⇒ A et B sont indépendants . (4.9)
(iii) Si A et B sont incompatibles et non négligeables, alors A et B ne sont pas
indépendants.

22
Indépendance de trois ou plusieurs événements
Définition 16. On dit que trois événements A, B et C de (Ω, A, P ) sont indé-
pendants (ou mutuellement indépendants) si et seulement si
(i)
P (A ∩ B ∩ C) = P (A)P (B)P (C) (4.10)
(ii)
P (A ∩ B) = P (A)P (B) (4.11)
(iii)
P (A ∩ C) = P (A)P (C) (4.12)
(iv)
P (B ∩ C) = P (B)P (C). (4.13)
Remarque 3. La définition 16 peut être reformulée comme suit : Les événements
A, B et C sont indépendants si et seulement si ils sont indépendants deux à deux
et de plus chaque événement est indépendant des deux autres.
Exemple 9. Considérons un tétraèdre 1 dont les faces sont colorées de la façon
suivante : une face est blanche, une face est noire, une face est rouge et la dernière
face comprend les trois couleurs. On lance le tétraèdre sur une table et on regarde
la couleur de la face sur laquelle le tétraèdre est tombé. Soient les événements
A1 : «on voit la couleur blanche», A2 : «on voit la couleur noire», A3 : «on voit la
couleur rouge».
1 1
Notons que P (A1 ) = P (A2 ) = P (A3 ) = et que P (Ai ∩ Aj ) = pour tous i, j
2 4
tels que i, j = 1, 2, 3 et i 6= j. Alors

P (Ai ∩ Aj ) = P (Ai )P (Aj ) ∀i, j = 1, 2, 3 ; i 6= j.

Donc les événements A1 , A2 , A3 sont indépendants deux à deux. Par contre


1 1
P (A1 ∩ A2 ∩ A3 ) = 6= = P (A1 )P (A2 )P (A3 ).
4 8
Donc les événements A1 , A2 , A3 ne sont pas indépendants.
Proposition 12. Soient A, B et C trois événements indépendants tels que les
événements A ∩ B, B ∩ C, A ∩ C et A ∩ B soient non négligeables, alors :
(i) P (C|A ∩ B) = P (C)
1. Le tétraèdre est un polyèdre composé de quatre triangles, de la famille des pyramides.

23
(ii) P (A|B ∩ C) = P (A)
(iii) P (B|A ∩ C) = P (B)
 
(iv) P C|A ∩ B = P (C).

Définition 17. Les n événements A1 , A2 , . . . , An de (Ω, A, P ) sont dits (mutuel-


lement) indépendants si
!
∀K ⊂ {1, 2, . . . , n} : P Ai = P (Ai ).
\ Y

i∈K i∈K

Dans le cas d’une suite d’événements, nous avons la définition suivante.

Définition 18. Une suite d’événements (An )n∈N∗ de (Ω, A, P ) est dite indépen-
dante (ou mutuellement indépendante) si pour tout sous-ensemble fini K ⊂ N∗
on a : !
Ai = P (Ai ).
\ Y
P
i∈K i∈K

24
Chapitre 2

Variables aléatoires discrètes et


continues

1 Variables aléatoires discrètes


Dans tout cette partie, l’espace Ω est (sauf mention contraire) fini.

1.1 Définitions
Soit Ω = {ω1 , . . . , ωr } l’espace des résultats associé à une expérience aléatoire.
On peut remplacer l’étude des probabilités relatives aux événements de Ω par
l’étude d’un ensemble de nombres réels de la manière suivante : à chaque résultat
ωk de l’expérience on associe un nombre réel xk .

Définition 19. on appelle variable aléatoire X (en abrégé v. a.) toute application
X : Ω −→ R.

Remarque 4. Si X est une v. a., l’ensemble X(Ω) = {X(ω) : ω ∈ Ω} est néces-


sairement fini, on le notera X(Ω) = {x1 , x2 , . . . , xn }.

Remarque 5. Pour une même expérience aléatoire, on peut imaginer plusieurs


v. a.. Ainsi, par exemple, à l’expérience qui consiste à lancer un dé, on peut associer
le nombre de points obtenus, ou associer encore par exemple, le nombre 0 si on
obtient un nombre pair et le nombre 1 si on obtient un nombre impair, etc...

Nous noterons les v. a. par des lettres majuscules comme X, Y, . . . , X1 , . . ..

25
1.2 Loi de probabilité d’une variable aléatoire discrète
On suppose donnée une probabilité P sur (Ω, P(Ω)). À chaque nombre xk on
peut faire correspondre le nombre pk défini par
pk = P ({ω ∈ Ω : X(ω) = xk }), k = 1, 2, . . . , n.
Notation : on note [X = x] l’événement {ω ∈ Ω : X(ω) = x}.
Ainsi, pk = P [X = xk ], k = 1, 2, . . . , n.
Remarque 6. On a toujours
n
pk = 1.
X

k=1

Définition 20. La donnée des couples (xk , pk ), k = 1, 2, . . . , n définit la loi de


probabilité de la v. a. X.
Remarque 7. Habituellement, on représente la loi de probabilité d’une v. a. X
par un tableau comme suit,

x x1 x2 . . . xn
p p1 p2 . . . pn

Dans ce tableau, l’ordre selon lequel on écrit les valeurs x1 , . . . , xn n’est pas es-
sentiel ; habituellement on écrit les valeurs dans l’ordre croissant.

1.3 Fonction de masse et fonction de répartition


Soit X une v. a. dont la loi de probabilité est
(xk , pk ), k = 1, 2, . . . , n,
où on suppose que xl < x2 < . . . < xn .
On utilise aussi pour décrire cette même loi la notation fonctionnelle
f (xk ) = pk , k = 1, 2, . . . , n
On arrive ainsi à la définition suivante :
Définition 21. La fonction f : R −→ R définie pour chaque x ∈ R par
f (x) = P (X = x)
s’appelle la fonction de masse de la v. a. X.

26
Remarque 8. La fonction de masse de la v. a. X est définie aussi de la manière
suivante


 p1 si x = x1
p2 si x = x2




.. ..


f (x) = . . (1.1)

pn si x = xn





0 ailleurs

n
et pk = 1.
X

k=1

La fonction de masse d’une v. a. X peut être représentée graphiquement dans


le plan, par un diagramme en bâtons, comme dans la figure 2.1 suivante.

Figure 2.1 – Diagramme en batons d’une fonction de masse.

Remarque 9. Une v. a. X détermine de façon unique la fonction de masse et


inversement, la fonction de masse détermine de manière unique la loi de probabilité
de X.

Exemple 10. 1. Soit X une v. a. dont la loi de probabilité est donnée par le
tableau suivant

x 1 2 3
1 1 1
p
3 6 2

27
alors la fonction de masse de X est
1/3 si x = 1



1/6 si x = 2


f (x) = (1.2)

 1/2 si x = 3
0 ailleurs.

2. D’autre part, soit


1/6 si x = 1, 2, 3, 4, 5 ou 6
(
f (x) =
0 ailleurs,
une fonction de masse dont le diagramme en bâtons est donnée dans la figure
2.2 suivante

Figure 2.2 – Diagramme en batons de f

La loi de probabilité correspondante est donnée par la tableau suivant

x 1 2 3 4 5 6
p 1/6 1/6 1/6 1/6 1/6 1/6

Définition 22. Soit X une v. a.. La fonction F définie pour chaque x ∈ R par
F (x) = P (X ≤ x) = P ({ω ∈ Ω : X(ω) ≤ x})
s’appelle la fonction de répartition de X.
Remarque 10. La loi de probabilité d’une variable aléatoire X détermine de
manière unique la fonction de répartition.
En effet, on calcule F (x) à partir de la loi de probabilité de la v. a. X, en
cumulant les probabilités, comme suit :
Soit X une v. a. dont la loi de probabilité est donnée par le tableau suivant :

28
x x1 x2 . . . xn
p p1 p2 . . . pn

où n
pk = 1,
X

k=1
alors la fonction de répartition est déterminée de manière unique comme suit :

0 si x < x1



p1 si x1 ≤ x < x2





p1 + p2 si x2 ≤ x < x3



F (x) =  .. .. (1.3)
 .
 .
p1 + p2 + . . . + pn−1 si xn−1 ≤ x < xn





1 si x ≥ xn .

La fonction de répartition d’une v. a. X peut être représentée graphiquement


dans le plan, par une fonction en escalier. En considérant la fonction de répartition
donnée dans (1.3), on obtient le graphe donné dans la figure 2.3

Figure 2.3 – Graphe d’une fonction de répartition.

Remarque 11. La fonction de répartition détermine de manière unique la loi de


probabilité d’une v. a..
Exemple 11. Soit X une v. a., et soit
0 si x<2



1/3 si 2≤x<5


F (x) = (1.4)

 3/4 si 5≤x<7
1 si x≥7

29
sa fonction de répartition, dont le graphe est donné par la figure 2.4.

Figure 2.4 –

La loi de la v. a. X est ainsi donnée par le tableau suivant :

x 2 5 7
p 1/3 5/12 1/4

et donc sa fonction de masse est donnée par :

1/3 si x = 2



5/12 si x = 5


f (x) = (1.5)

 1/4 si x = 7
0 ailleurs.

Remarque 12. Il est parfois plus simple de déterminer la loi d’une v. a. à partir
de sa fonction de répartition, comme le montre l’exemple suivant.

Exemple 12. On jette deux fois le même dé supposé équilibré. On note X1 le


numéro du premier tirage, X2 le numéro du deuxième tirage et Y le plus grand
des deux numéros obtenus. Cherchons la loi de Y .
On a Y = sup(X1 , X2 ). Y prend les valeurs 1, 2, 3, 4, 5, 6.
Soit F la fonction de répartition de Y .
1 1 1
F (1) = P (Y = 1) = P ([X1 = 1] ∩ [X2 = 1]) = × = ,
6 6 36
30
car X1 et X2 sont indépendantes (voir paragraphe 1.7) puisque les deux lancers
sont indépendants.
2 2 1
F (2) = P (Y ≤ 2) = P ([X1 ≤ 2] ∩ [X2 ≤ 2]) = × =
6 6 9
3 3 1
F (3) = P (Y ≤ 3) = P ([X1 ≤ 3] ∩ [X2 ≤ 3]) = × =
6 6 4
4 4 4
F (4) = P (Y ≤ 4) = P ([X1 ≤ 4] ∩ [X2 ≤ 4]) = × =
6 6 9
5 5 25
F (5) = P (Y ≤ 5) = P ([X1 ≤ 5] ∩ [X2 ≤ 5]) = × =
6 6 36
F (6) = P (Y ≤ 6) = 1.

On en déduit la loi de Y :
1
P [Y = 1] = F (1) = ,
36
1
P [Y = 2] = F (2) − F (1) = ,
12
5
P [Y = 3] = F (3) − F (2) = ,
36
7
P [Y = 4] = F (4) − F (3) = ,
36
1
P [Y = 5] = F (5) − F (4) = ,
4
11
P [Y = 6] = F (6) − F (5) = .
36

1.4 Loi de probabilité d’un couple de v.a. discrètes finies


Définition 23. Soit (X, Y ) un couple de v. a. définies sur Ω et telle que :

X(Ω) = {x1 , x2 , . . . , xn } et Y (Ω) = {y1 , y2, . . . , ym } .

On appelle loi de probabilité du couple (X, Y ) ou loi conjointe de X et Y l’en-


semble des couples :

{((xi , yj ), pij ) : i = 1, 2, . . . , n et j = 1, 2, . . . , m}

où pij = P ([X = xi ] ∩ [Y = yj ])

Remarque 13.

31
• pij est la probabilité pour que, simultanément X prenne la valeur xi et Y
la valeur yj .
• les pij sont souvent donnés par le tableau matriciel :


❍❍ Y
y1 ... yj ... ym
X ❍❍❍
x1 p11 ... p1j ... p1m
.. .. .. .. .. ..
. . . . . .
xi pi1 ... pij ... pim
.. .. .. .. .. ..
. . . . . .
xn pn1 . . . pnj . . . pnm

Exemple 13. Reprenons l’exemple plus haut, du lancer d’un dé deux fois de
suite.
Cherchons les lois conjointes des couples (X1 , X2 ) et (X1 , Y ).

X1 (Ω) = X2 (Ω) = Y (Ω) = {1, 2, . . . , 6} .

Les lois de (X1 , X2 ) et (X1 , Y ) sont données respectivement par les tableaux sui-
vants :

❍❍
❍ X2 1 2 3 4 5 6
X1 ❍❍❍
1 1 1 1 1 1
1
36 36 36 36 36 36
1 1 1 1 1 1
2
36 36 36 36 36 36
1 1 1 1 1 1
3
36 36 36 36 36 36
1 1 1 1 1 1
4
36 36 36 36 36 36
1 1 1 1 1 1
5
36 36 36 36 36 36
1 1 1 1 1 1
6
36 36 36 36 36 36

et

32
❍❍
❍ Y 1 2 3 4 5 6
X1 ❍❍❍
1 1 1 1 1 1
1
36 36 36 36 36 36
2 1 1 1 1
2 0
36 36 36 36 36
3 1 1 1
3 0 0
36 36 36 36
4 1 1
4 0 0 0
36 36 36
5 1
5 0 0 0 0
36 36
6
6 0 0 0 0 0
36

En effet, pour tout i = 1, 2, . . . , 6 et tout j = 1, 2, . . . , 6,


1
P ([X1 = i] ∩ [X2 = j]) = P ({(i, j)}) = .
36
et
P ([X1 = i] ∩ [Y = j]) = P (∅) = 0 si i > j


1


P ([X1 = i] ∩ [Y = j]) = P ([X1 = i] ∩ [X2 = j]) = si i < j



36
i

i
P ([X1 = i] ∩ [Y = i]) = P ([X1 = i] ∩ [X2 = k]) = si i = j

 X

36


k=1

1.5 Loi d’une fonction d’une variable aléatoire


Soit X une v. a. sur (Ω, P(Ω), P ) telle que X(Ω) = {x1 , . . . , xn } et soit g une
fonction définie sur X(Ω). L’application g ◦ X est définie sur Ω par
(g ◦ X)(ω) = g(X(ω)).
L’application g ◦ X est aussi notée g(X).
Proposition 13. Soit X une v. a. telle que X(Ω) = {x1 , . . . , xn } ⊂ R et Y =
g(X) une v. a. discrète finie, définie sur (Ω, P(Ω)) et telle que
Y (Ω) = {g(x1 ), g(x2), . . . , g(xn )} .
Alors pour tout y ∈ Y (Ω),
P [Y = y] = P [X = xk ]. (1.6)
X

k : g(xk )=y

33
Le symbole dans la formule (1.6) signifie qu’il faut effectuer la somme
X

k : g(xk )=y
pour tous les k tels que g(xk ) = y.
Remarque 14. Dans la proposition 13, card(Y (Ω)) peut être strictement infé-
rieure à n, si en effet il existe i 6= j dans {1, 2, . . . , n} tels que g(xi) = g(xj ).
Exemple 14. Soit X une v. a. dont la loi est donnée par le tableau suivant

x −1 0 1
p 1/4 1/4 1/2

Déterminons la loi de Y = exp(X) et de Z = X 2 .


La v. a. Y prend les valeurs exp(−1), 1 et exp(1).
1
P [Y = exp(−1)] = P [X = −1] = ,
4
1
P [Y = 1] = P [X = 0] = ,
4
1
P [Y = exp(1)] = P [X = 1] = .
2
La v. a. Z prend les valeurs 0 et 1.
1
P [Z = 0] = P [X = 0] = ,
4
1 1 3
P [Z = 1] = P [X = −1] + P [X = 1] = + = .
4 2 4

1.6 Lois conditionnelles


Définition 24. Soit X une v. a. sur (Ω, P(Ω), P ) telle que X(Ω) = {x1 , . . . , xn }.
SoitA un événement non négligeable. La loi de X conditionnée par A, ou la loi de
X sachant A, est l’ensemble des couples (xi , P ([X = xi ] | A))1≤i≤n .
Proposition 14.
n
P ([X = xk ] | A) = 1.
X

k=1
Démonstration. En effet, les événements [X = xk ], k = 1, 2, . . . , n forment un
système complet d’événements de Ω. Il résulte donc de la remarque 2 que
n
1 = P (Ω | A) = P ([X = xk ] | A).
X

k=1

34
1.7 Indépendance de deux variables aléatoires discrètes
finies
On suppose que X et Y sont deux v. a. sur le même espace fini Ω et de lois de
probabilité respectives {(xk , pk ), k = 1, 2, . . . , n} et {(yk , qk ), k = 1, 2, . . . , m}.

Définition 25. Les variables aléatoires X et Y sont indépendantes si

P ([X = xi ] ∩ [Y = yj ]) = P [X = xi ] P [Y = yj ] = pi qj ,

pour i = 1, 2, . . . , n ; j = 1, 2, . . . , m.

Remarque 15. Si X et Y sont indépendantes, alors pour tout j = 1, 2, . . . , m,


la loi de X conditionnée par [Y = yj ] est la loi de X.

1.8 Opérations sur des variables aléatoires


Dans tous les cas où l’on effectue des opérations sur des variables aléatoires, on
supposera que les variables aléatoires sont associées à la même expérience. Toutes
les v. a. seront ainsi définies sur le même espace Ω.
Dans ce qui suit, on supposera que les v. a. X et Y ont les lois de probabilité

x x1 x2 . . . xn
p p1 p2 . . . pn

et

y y1 y2 . . . ym
q q1 q2 . . . qm

L’addition de variables aléatoires


Définition 26. On appelle variable aléatoire somme des deux v. a. X et Y , la
variable aléatoire Z = X + Y .

Proposition 15. la loi de probabilité de la v. a. Z = X + Y est donnée par le


tableau
z z1 z2 . . . zk . . . zl
(1.7)
r r1 r2 . . . rk . . . rl

35

rk = P [X + Y = zk ]
= P ([X = xi ] ∩ [Y = yj ]), (1.8)
X

i,j : xi +yj =zk

pour k = 1, 2, . . . , l.
Le symbole dans la formule (1.8) signifie qu’il faut effectuer la
X

i,j : xi +yj =zk


somme pour tous les i, j tels que xi + yj = zk .
Remarque 16. (i) Les rk définies par (1.8) vérifient
l
rk = 1 (1.9)
X

k=1

(ii) D’après la définition de la probabilité conditionnelle, la formule (1.8) est


équivalente à
rk = P ([X = xi ] | [Y = yj ])P ([Y = yj ]), (1.10)
X

i,j : xi +yj =zk

pour k = 1, 2, . . . , l.
Remarque 17. Si X et Y sont indépendantes alors on a
rk = P [X + Y = zk ] =
X
pi qj ,
i,j : xi +yj =zk

pour k = 1, 2, . . . , l.
Exemple 15. Dans le cas particulier où Y = a, une v. a. constante, on obtient la
somme d’une constante et d’une v. a. X par Z = X + a comme suit

z x1 + a x2 + a . . . xk + a . . . xn + a
r p1 p2 ... pk ... pn

car
rk = P [Z = zk ]
= P [X + a = xk + a]
= P [X = xk ]
= pk .

36
La multiplication de variables aléatoires
Définition 27. On appelle variable aléatoire produit des deux v. a. X et Y , la
v. a. Z = X Y .
Proposition 16. La loi de probabilité de la v. a. Z = X Y est donnée par le
tableau
z z1 z2 . . . zk . . . zl
(1.11)
r r1 r2 . . . rk . . . rl

rk = P [X Y = zk ]
= P ([X = xi ] ∩ [Y = yj ]) (1.12)
X

i,j : xi yj =zk

= P ([X = xi ] | [Y = yj ])P [Y = yj ], (1.13)


X

i,j : xi yj =zk

pour k = 1, 2, . . . , l.
Remarque 18. Si les variables aléatoires X et Y sont indépendantes alors on a
rk = P [X Y = zk ] =
X
pi qj ,
i,j : xi yj =zk

pour k = 1, 2, . . . , l.
Exemple 16. Dans le cas particulier où Y = a (a 6= 0) est une variable aléatoire
constante, on obtient le produit entre une constante et une variable aléatoire X
par Z = a X comme suit

z a x1 a x2 . . . a xk . . . a xn
r p1 p2 . . . pk . . . pn

car
rk = P [Z = zk ]
= P [a X = a xk ]
= P [X = xk ]
= pk ,
pour k = 1, 2, . . . , n.
Si a = 0, alors on a
P [0X = 0] = 1.

37
L’inverse d’une variable aléatoire
Définition 28. Soit X une variable aléatoire telle que X(Ω) = {x1 , x2 , . . . , xn }.
On suppose que xk 6= 0 pour k = 1, . . . , n. L’inverse de la v. a. X est la variable
aléatoire notée Z = X −1 .

Proposition 17. Si X est de loi de probabilité {(xk , pk ), k = 1, 2, . . . , n}, alors


1
la loi de probabilité de la v. a. Z = est donnée par :
X

1 1 1 1
z ... ...
x1 x2 xk xn
r p1 p2 ... pk ... pn

1.9 Moments d’une variable aléatoire discrète finie


Espérance mathématique
Définition 29. Soit X une v. a. de loi {(xk , pk ) : k = 1, 2, . . . , n}. On appelle
espérance mathématique (ou moyenne) de X, le nombre
n
E(X) =
X
xk pk .
k=1

Exemple 17. • Soit X la v.a. dont la loi est définie par le tableau suivant
x 0 1 2 3 4
7 1 1 1 1
p
11 11 11 11 11
4
10
E(X) = k P [X = k] = .
X

k=0 11
• Si X est la v. a. constante a (c’est-à-dire X(Ω) = {a}), alors E(X) = a.

Remarque 19. Si X est une v. a. positive alors E(X) ≥ 0. Si de plus E(X) = 0,


alors P [X = 0] = 1. On dit dans ce cas que X est presque sûrement nulle.

Proposition 18. Si g est une fonction de R dans R définie sur X(Ω), alors
n
E(g(X)) = g(xk ) pk .
X

k=1

38
Démonstration. Soit Y = g(X) telle que Y (Ω) = {y1 , y2, . . . , ym }. D’après la
proposition 13

P [Y = yj ] = P [X = xk ] où Kj = {k : g(xk ) = yj } .
X

k∈Kj

Donc
 
m m
E(Y ) = yj P [Y = yj ] = P [X = xk ]
X X X
yj 
j=1 j=1 k∈Kj
   
m m
= yj P [X = xk ] = g(xk )P [X = xk ]
X X X X
 
j=1 k∈Kj j=1 k∈Kj
n
= g(xk )P [X = xk ],
X

k=1

car Kj : j = 1, 2, . . . , m est une partition de {1, 2, . . . , n}.


n
Cas particulier : Si g(X) = X 2 , E(X 2 ) = x2k P [x = xk ].
X

k=1

Définition 30. Si E(X) = 0, on dit que X est une v. a. centrée.


X − E(X) est appelée variable aléatoire centrée associée à X.
Proposition 19. Soient X et Y deux v. a. sur le même espace fini Ω, alors
(i) Pour tous a, b ∈ R,

E(a X + b Y ) = a E(X) + b E(Y ). (1.14)

(ii) Si les v. a. X et Y sont indépendantes, alors

E(X Y ) = E(X) E(Y ). (1.15)

Remarque 20. E(XY ) = E(Y X).


E(XY ) = E(X) E(Y ) n’implique pas X et Y indépendantes.
Exemple 18. Soient X et Y deux v. a. dont les lois sont données respectivement
par les tableaux suivants :

x 0 1
3 7
p
10 10

39
et

y 0 1 2
1 1 1
p
3 2 6

On suppose sue la loi du couple (X, Y ) est donnée par le tableau suivant :

❍❍
❍❍ y 0 1 2
x ❍❍
1 1
0 0
20 4
17 1 1
1
60 4 6
Les valeurs prises par la v. a. produit XY sont 0, 1, 2, c’est-à-dire XY (Ω) =
{0, 1, 2}.
La loi de XY est donnée selon la formule (1.12) par
2
3 17 7
P [X Y = 0] = P ([X = 0] ∩ [Y = k]) + P ([X = 1] ∩ [Y = 0]) = + = .
X

k=0 10 60 12
1
P [X Y = 1] = P ([X = 1] ∩ [Y = 1]) = .
4
1
P [X Y = 2] = P ([X = 1] ∩ [Y = 2]) = .
6
1 1 7
E(X Y ) = + 2 = .
4 6 12
7
E(X) = .
10
5
E(Y ) = .
6
Donc E(X Y ) = E(X) E(Y ). Mais X et Y ne sont pas indépendantes car P ([X =
3 1
0] ∩ [Y = 2]) = 0 et P ([X = 0])P ([Y = 2]) = × 6= 0.
10 6

Variance, Covariance
Définition 31. On appelle moment d’ordre 2 d’une v. a. X, le nombre
m2 (X) = E(X 2 ).
Définition 32. On appelle variance d’une v. a. X, le nombre
V(X) = E((X − E(X))2 ).

40
Remarque 21. 1. La variance d’une variable aléatoire X peut s’interpréter
comme une mesure du degré de dispersion des valeurs de la variable aléatoire
X par rapport à sa valeur moyenne. Si la variance est petite alors les valeurs
de la variable aléatoire X sont groupées dans un petit intervalle autour
de la valeur moyenne. Si par contre, la variance est grande, les valeurs de
la variable aléatoire X sont fortement dispersées dans un grand intervalle
autour de la valeur moyenne.
2. Notons que pour toute variable aléatoire X la moyenne de l’écart est zéro,
E(X − E(X)) = 0, et donc la moyenne de l’écart ne peut pas caractériser
le degré de dispersion des valeurs de la variable aléatoire X par rapport à
sa valeur moyenne. C’est pourquoi on prend plutôt la moyenne du carré de
l’écart, c’est-à-dire la variance de la variable aléatoire X.
Proposition 20. La variance de la v. a. X est égale aussi à

V(X) = E(X 2 ) − E(X)2 .

Démonstration. on a

V(X) = E((X − E(X))2 ) = E(X 2 − 2 E(X)X + E(X)2 )


= E(X 2 ) − 2 E(X) E(X) + E(X)2
= E(X 2 ) − E(X)2

Définition 33. On appelle écart type d’une v. a. X, le nombre


q
σ(X) = V(X).

Proposition 21. Soit X une v. a. sur Ω et soient a, b ∈ R, alors


(i)
V(a X + b) = a2 V(X). (1.16)
(ii)
σ(a X + b) = |a| σ(X). (1.17)
Démonstration. (i)

V(aX + b) = E((aX + b)2 ) − (E(aX + b))2


= E(a2 X 2 + 2abX + b2 ) − (a E(X) + b)2
= a2 E(X 2 ) + 2ab E(X) + b2 − a2 (E(X))2 − 2ab E(X) − b2
= a2 V(X).

41
q
(ii) σ(aX + b) = a2 V(X) = |a| σ(X).

Exemple 19. Le loto.


Le joueur coche 6 numéros sur une grille qui en comporte 49. Les 6 numéros ga-
gnants sont déterminés par tirage au sort . Soit N le nombre de numéros gagnants
de la grille. Quelle est la loi de N ? En juin 2000, pour une mise de 2 Dirhams ,
on recevait le gain G = g(N) suivant :

n numéros gagnants gain g(n) probabilité


6 2 132 885 Dh 7, 2 × 10−8
5 3 575 Dh 7, 8 × 10−5
4 94 Dh 9, 7 × 10−4
3 11 Dh 7, 8 × 10−2

Calculer le gain moyen. Calculer le bénéfice moyen du joueur. Qu’en conclure ?


Calculer la valeur de l’écart-type de G. Quelle en est l’interprétation ?

Solution. Le gain moyen est

E(G) = g(n)P [N = n]
X

n
= (11 × 7, 8 × 10−2 ) + (94 × 9, 7 × 10−4 ) + (3 575 × 7, 8 × 10−5 )
+ (2 132 885 × 7, 2 × 10−8 )
= 1, 16Dh.

Le bénéfice moyen du joueur est E(G) − 2 = −0.84 Dh. Ainsi le bénéfice moyen
du joueur est négatif, et le jeu est défavorable au joueur.
Le moment d’ordre 2 de G est

E(G2 ) = (g(n))2 P [N = n]
X

n
= (112 × 7, 8 × 10−2 ) + (942 × 9, 7 × 10−4 ) + (3 5752 × 7, 8 × 10−5)
+ (2 132 8852 × 7, 2 × 10−8 )

La variance de G est
V(G) = E(G2 ) − E(G)2 .
On peut vérifier que l’écart-type vaut σ(G) = 572. La grande valeur de l’écart-type
vient de ce que parfois (mais très rarement), le jeu peut rapporter beaucoup.

42
Définition 34. Soit X une variable aléatoire.
(i) Si σ(X) = 1, on dit que X est une v. a. réduite.
X − E(X)
(ii) Si σ(X) 6= 0, Y = est appelée v. a. centrée réduite associée à X.
σ(X)

Définition 35. Soient X et Y deux v. a. sur le même espace Ω. On appelle


covariance de X et Y , le nombre

cov(X, Y ) = E([X − E(X)][Y − E(Y )]).

Proposition 22. Soient X et Y deux v. a. sur le même espace Ω, alors


(i)
cov(X, Y ) = E(XY ) − E(X) E(Y ). (1.18)

(ii) Pour tous a, b, c, d ∈ R, on a

cov(aX + b, cY + d) = a c cov(X, Y ). (1.19)

(iii)
V(X + Y ) = V(X) + V(Y ) + 2 cov(X, Y ). (1.20)

(iv)
V(X − Y ) = V(X) + V(Y ) − 2 cov(X, Y ). (1.21)

Démonstration. (i)
 
cov(X, Y ) = E (X − E(X))(Y − E(Y ))
 
= E XY − X E(Y ) − E(X)Y + E(X) E(Y )
= E(XY ) − 2 E(X) E(Y ) + E(X) E(Y )
= E(XY ) − E(X) E(Y ).

(ii)

cov(aX + b, cY + d) = E((aX + b)(cY + d)) − E((aX + b) E(cY + d)


= E(acXY + adX + bcY + bd) − [a E(X) + b][c E(Y ) + d]
= ac E(XY ) − ac E(X) E(Y )
= ac cov(X, Y ).

43
(iii)

V(X + Y ) = E((X + Y )2 ) − (E(X + Y ))2


= E(X 2 ) + E(Y 2 ) + 2 E(XY ) − E(X)2 − E(Y ) − 2 E(X) E(Y )
= V(X) + V(Y ) + 2 cov(X, Y ).

(iv) V(X − Y ) = V(X) + V(−Y ) + 2 cov(X, −Y ) = V(X) + V(Y ) − 2 cov(X, Y ).

Proposition 23. Soient X et Y deux v. a. indépendantes, alors


(i)
cov(X, Y ) = 0. (1.22)

(ii)
V(X + Y ) = V(X) + V(Y ). (1.23)

(iii)
V(X − Y ) = V(X) + V(Y ). (1.24)

Démonstration. (i) est évidente d’après (1.18). (ii) et (iii) sont aussi évidentes.

Coefficient de corrélation linéaire


Définition 36. Soient X et Y deux v. a. définies sur le même espace fini Ω, d’écart
type non nul. On appelle coefficient de corrélation linéaire des deux v. a. X et Y ,
le nombre
cov(X, Y )
ρ(X, Y ) = .
σ(X) σ(Y )

Définition 37. Soient X et Y deux v. a.. On dit que X et Y sont non corrélées
si cov(X, Y ) = 0.

Interprétation : Le coefficient de corrélation linéaire mesure la dépendance affine


de X et Y . Ainsi, si |ρ(X, Y )| = 1 , il existe deux constantes réelles a et b telles
que P [Y = aX + b] = 1.

Remarque 22. (i) Si X et Y sont indépendantes, ρ(X, Y ) = 0.


(ii) Deux v. a. indépendantes sont non corrélées, mais la réciproque est fausse.

44
1.10 Cas discret infini
Nous terminons ce chapitre par ce paragraphe dans lequel on généralise les
notions vues dans le cas fini au cas où les v. a. prennent un nombre dénombrable
de valeurs. Toutes les sommes rencontrées précédemment sont remplacées par des
sommes de séries numériques, dans le cas où ces séries sont convergentes.
On considère une v. a. X définie sur un ensemble dénombrable Ω et telle que X(Ω)
soit dénombrable, qu’on note

X(Ω) = {x1 , x2 , . . . , xk , . . .} = {xk : k ∈ N∗ } .

Définition 38. La loi de probabilité de la v. a. X est donnée par

{(xk , P [X = xk ]), k ∈ N∗ } .

On convient de noter P [X = xk ] = pk .

Remarque 23. les pk vérifient


+∞
pk = 1. (1.25)
X

k=1

Définition 39. Soit X une v. a. de loi {(xk , pk ), k ∈ N∗ }. X admet une espérance


mathématique si la série k xk pk est absolument convergente. On pose cette es-
P

pérance
+∞
E(X) =
X
xk pk .
k=1

Toutes les propriétés vues dans le cas fini se généralisent au cas dénombrable à
condition d’avoir la convergence des séries écrites.

2 Variables aléatoires continues


2.1 Généralités
Dans ce chapitre, nous considérons des cas où les expériences aléatoires peuvent
avoir un nombre infini (non dénombrable) de résultats possibles. C’est-à-dire, Ω
est ici un ensemble infini non dénombrable. On le munit d’une tribu A.

Remarque 24. Soit (Ai )i∈N une famille dénombrable de sous-ensembles de R et


soit A ⊂ R, alors

45
!
(i) X −1 Ai = X −1 (Ai ).
[ [

i∈N i∈N
!
(ii) X −1 Ai = X −1 (Ai ).
\ \

i∈N i∈N
 
(iii) X −1
A = X −1 (A).
(iv) X −1 (R) = Ω.
Définition 40. Soit (Ω, A) un espace probabilisable et X : Ω −→ R. On dit que
X est une v. a. (relativement à A) si

X −1 (I) ∈ A pour tout intervalle I de R.

Notation : On note [X ∈ I] ou (X ∈ I) l’événement X −1 (I) = {ω ∈ Ω : X(ω) ∈ I}.


Si I =]a, b], on note [a < X ≤ b] l’événement (X ∈]a, b]).
Si I =] − ∞, x], on note [X ≤ x] l’événement (X ∈] − ∞, x]).
Si I = {x}, on note [X = x] l’événement (X ∈ {x}).
Définition 41. Soit (Ω, A, P ) un espace de probabilité et X une v. a. relativement
à A. On appelle fonction de répartition de X l’application :
F : R → R
x 7→ F (x) = P (X ≤ x).
Remarque 25. D’après la définition de la fonction de répartition, pour tous réels
a et b, avec a < b on a :

P (a < X ≤ b) = F (b) − F (a).

En particulier, pour tout x ∈ R :

P (X > x) = 1 − F (x).

Proposition 24. La fonction de répartition d’une v. a. réelle X possède les pro-


priétés suivantes :
(i) 0 ≤ F (x) ≤ 1, ∀x ∈ R.
(ii) F est croissante, c’est-à-dire si x < y alors F (x) ≤ F (y).
(iii) limx→+∞ F (x) = 1 et limx→−∞ F (x) = 0.
(iv) F est continue à droite en tout point x0 de R, c’est-à-dire

lim F (x) = F (x0 ).


x→x0
x0 <x

46
Démonstration. (i) X étant une v. a., ∀x ∈ R, (X ≤ x) ∈ A.
Donc F (x) = P (X ≤ x) ∈ [0, 1].
(ii) Soient x et y deux réels tels que x < y. On a

(X ≤ x) ⊂ (X ≤ y) =⇒ P (X ≤ x) ≤ P (X ≤ y),
d’après (3.8) de la proposition 7.
=⇒ F (x) ≤ F (y).

Donc F est croissante sur R.


(iii) F est croissante sur R, minorée par 0 et majorée par 1, donc F admet une
limite l1 en −∞ et une limite l2 en +∞ telles que

l1 = lim F (x) ≥ 0 et l2 = lim F (x) ≤ 1.


x→−∞ x→+∞

Soit (An )n∈N la suite croissante d’événements de A telle que An = (X ≤ n).


• On a An = (X ∈ R) = Ω. Donc d’après (3.9) de la proposition 7,
[

n∈N

lim P (An ) = P (Ω) = 1.


n→+∞

Autrement dit, lim F (n) = 1. Or lim F (n) = l2 . D’où l2 = 1.


n→+∞ n→+∞
• En utilisant la suite décroissante d’événements (Bn )n∈N telle que Bn =
(X ≤ −n) on montre de manière analogue que lim F (x) = 0.
x→−∞
1
 
(iv) Soit Cn = X ≤ x0 + . (Cn )n∈N∗ est une suite décroissante dans A et
n
Cn = (X ≤ x0 ). Donc
\

n∈N∗

1
 
lim P (Cn ) = P (X ≤ x0 ) =⇒ lim F x0 + = F (x0 ).
n→+∞ n→+∞ n
Comme F est croissante, on a
1
 
lim F (x) = lim F x0 + = F (x0 ).
x→x0
x0 <x
n→+∞ n

2.2 Variables aléatoires à densité


Nous introduisons à présent les v. a. continues : ce sont des v. a. qui peuvent
prendre un nombre infini (non dénombrable) de valeurs, plus précisément ce sont
des variables à valeurs dans un intervalle de la droite réelle.

47
Définition 42. On dit qu’une v. a. X : Ω 7→ X(Ω) est continue si l’ensemble de
ses valeurs X(Ω) est un intervalle de R . On dit qu’une v. a. continue X admet
une densité f si pour tout intervalle [a, b] ⊂ X(Ω) :
Z b
P (X ∈ [a, b]) = f (t) dt, (2.1)
a

où f est une fonction réelle, positive ayant un nombre fini de points de disconti-
nuité.

Remarque 26. 1. D’après (2.1), si X est une v. a. continue admettant une


densité f , alors la fonction de répartition F de X peut s’écrire sous la forme :
Z x
F (x) = P (X ≤ x) = f (t) dt, (2.2)
−∞

où Z x Z x
f (t) dt = lim f (t) dt. (2.3)
−∞ a→−∞ a

2. Toute densité f de la v. a. X vérifie


Z +∞
f (t) dt = 1, (2.4)
−∞

où Z +∞ Z 0 Z b
f (t) dt = lim f (t) dt + lim f (t) dt. (2.5)
−∞ a→−∞ a b→+∞ 0

3. Toute fonction g positive, égale à f sauf en un nombre fini de points, est


aussi une densité de X.

Proposition 25. Une fonction réelle f définie sur R est une densité de probabilité
si et seulement si les trois conditions suivantes sont vérifiées
(i) f est continue sur R sauf en un nombre fini de points.
(ii) f (x) ≥ 0 pour tout x ∈ R.
Z +∞
(iii) f (t) dt = 1.
−∞

Proposition 26. Soit X une v. a. admettant une densité f et soit F sa fonction


de répartition. Alors
(i) F est continue sur R.
(ii) En tout point x0 où f est continue , F est dérivable et F ′ (x0 ) = f (x0 ).

48
Exemple 20. La fonction f définie sur R par
0 si x ≤ 0


1



f (x) = si 0 < x ≤ 1


 2 x
0 si x > 1

est une densité de probabilité, puisqu’elle vérifie les trois conditions de la propo-
sition 25. En effet,
(i) f est continue sur R \ {0, 1}.
(ii) f (x) ≥ 0 pour tout x ∈ R.
Z +∞ Z 1
1 h√ i1
(iii) f (t) dt = √ dt = x = 1.
−∞ 0 2 t 0
Z 1
1 Z 1
1 √
En effet √ dt = lim √ dt = lim (1 − ε) = 1.
0 2 t ε→0+
ε 2 t ε→0+

Figure 2.5 – Graphe de f .


La fonction de répartition F asociée à la densité f est définie comme suit :
Z x
• Pour x ≤ 0, f (t) dt = 0
−∞ Z
x Z x 1 h√ ix √
• Pour 0 < x ≤ 1, f (t) dt = √ dt = t = x
−∞ 0 2 t 0
x 1 1
Z Z
• Pour x > 1, f (t) dt = √ dt = 1.
−∞ 0 2 t
D’où
√0 si x ≤ 0



F (x) = x si 0 < x ≤ 1
1 si x > 1

F vérifie bien les conditions de la proposition 24 et de la proposition 26.

49
Figure 2.6 – Graphe de F .

Proposition 27. Soit X une v. a. de densité f et de fonction de répartition F .


Alors
(i) Pour tout a ∈ R, P (X = a) = 0.
(ii) Pour tous a, b réels tels que a < b,
P (a < X < b) = P (a ≤ X < b) = P (a ≤ X ≤ b) = P (a < X ≤ b)
Z b
= f (t) dt.
a

Démonstration. (i) Soit a ∈ R et n ∈ N∗ , on a


1
 
0 ≤ P (X = a) ≤ P a − < X ≤ a .
n
1 1
   
Or P a − < X ≤ a = F (a) − F a − et F est continue en a ∈ R. Donc
n n
1 1
    
lim P a − < X ≤ a = lim F (a) − F a − =0
n→−∞ n n→−∞ n
et P (X = a) = 0.
(ii) Soit deux réels a et b tels que a < b. Comme P (X = a) = P (X = b) = 0, on a
P (a < X < b) = P (a ≤ X < b) = P (a < X ≤ b) = P (a ≤ X ≤ b)
Z b
= f (t) dt, d’après (2.1) de la définition 42.
a
Remarque 27. Sous les hypothèses de la proposition 27, pour tout a ∈ R, on a
P (X ≥ a) = P (X > a) = 1 − P (X ≤ a)
Z +∞ Z a Z +∞
= f (t) dt − f (t) dt = f (t) dt.
−∞ −∞ a

50
2.3 Moments d’une variable aléatoire à densité
Espérance mathématique
Définition 43. Soit X est une v. a. de densité f . Si
Z 0 Z b
lim tf (t) dt et lim tf (t) dt existent dans R,
a→−∞ a b→+∞ 0

on dit que X admet une espérance mathématique, notée


Z +∞ Z 0 Z b
E(X) = tf (t) dt = lim tf (t) dt + lim tf (t) dt. (2.6)
−∞ a→−∞ a b→+∞ 0

La linéarité de l’espérance mathématique d’une v. a. discrète donnée dans la


proposition 19, reste valable dans le cas continu.
Proposition 28 (Linéarité de l’espérance mathématique). Soit X et Y 2 v. a.
réelles à densité admettant une espérance mathématique et soit α, β ∈ R, alors

E(αX + βY ) = α E(X) + β E(Y ).

Proposition 29. Soit X une v. a. réelle définie sur (Ω, A, P ) de densité f . Soit
g une application de classe C 1 et strictement monotone sur X(Ω). Alors g(X) est
une v. a. à densité et, g(X) admet une espérance mathématique si et seulement si
Z 0 Z b
lim g(t)f (t) dt et lim g(t)f (t) dt existent dans R,
a→−∞ a b→+∞ 0

dans ce cas,
Z +∞ Z 0 Z b
E(g(X)) = g(t)f (t) dt = lim g(t)f (t) dt + lim g(t)f (t) dt.
−∞ a→−∞ a b→+∞ 0

De la même manière que la définition 30 pour les v. a. discrètes, on a


Définition 44. Si E(X) = 0, on dit que X est une v. a. centrée.
X − E(X) est appelée v. a. centrée associée à X.

Variance, écart type


Définition 45. Soit X est une v. a. de densité f admettant une espérance ma-
thématique E(X). Si
Z 0 Z b
2
lim [x − E(X)] f (x) dx et lim [x − E(X)]2 f (x) dx existent dans R,
a→−∞ a b→+∞ 0

51
on dit que X admet une variance notée
Z +∞
V(X) = [x − E(X)]2 f (x) dx (2.7)
−∞
Z 0 Z b
= lim [x − E(X)]2 f (x) dx + lim [x − E(X)]2 f (x) dx.
a→−∞ a b→+∞ 0

Proposition 30. Soit X est une v. a. de densité f admettant une espérance ma-
thématique E(X). V(X) existe si et seulement si E(X 2 ) existe. On a

V(X) = E(X 2 ) − E(X)2 .

Définition 46. On appelle écart type d’une v. a. X à densité admettant une


variance, le nombre q
σ(X) = V(X)

Définition 47. Soit X une v. a. à densité. Si σ(X) = 1, on dit que X est une
v. a. réduite.

Proposition 31. Soit X une v. a. à densité admettant une variance et soit α 6= 0


et β deux réels, alors la v. a. αX + β admet une variance, et
(i) V(αX + β) = α2 V(X)
(ii) σ(αX + β) = |α| V(X).

2.4 Variables aléatoires à densité indépendantes


Définition 48. Soit X et Y deux v. a. à densité. On dit que X et Y sont indé-
pendantes si pour tous x, y ∈ R,

P [(X ≤ x) ∩ (Y ≤ y)] = P (X ≤ x)P (Y ≤ y).

Proposition 32. Soit X et Y deux v. a. indépendantes à densité.


(i) Si X et Y admettent chacune une espérance mathématique, alors XY admet
une espérance mathématique et

E(XY ) = E(X) E(Y ),

(ii) Si X et Y admettent chacune une variance, alors XY admet une variance


et
V(X + Y ) = V(X) + V(Y ).

52

Vous aimerez peut-être aussi