Vous êtes sur la page 1sur 16

Institut Supérieur des Arts Multimédia de la Manouba

Département Informatiques et Multimédia

Probabilités et Statistiques

Ce cours est une suite naturelle du cours d’introduction aux probabilités et sert de truchement par
lequel passent un bon nombre des applications des probabilités. Il présente une introduction aux notions
de base de la statistique ainsi que certaines des techniques statistiques les plus fréquemment utilisées. Il
devrait permettre à l’étudiant d’apprécier l’apport du raisonnement statistique dans les sciences
physiques, biologiques et sociales. Plus concrètement, l’étudiant devrait, à la fin du cours, être apte à
modéliser des expériences aléatoires, et à appliquer les modèles qui sont à sa portée.

Pour les commentaires, corrections et suggestions (fort appréciées) merci d’utiliser l’adresse
électronique : yousri.henchiri@isamm.uma.tn

Mr. Yousri Henchiri


Email: yousri.henchiri@isamm.uma.tn
27 septembre 2021
Table des matières
1 Probabilités élémentaires 2
1.1 Quelques définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Probabilité : définition fréquentiste . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Axiomes des probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1 Théorème de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Loi de probabilité totale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Notion de variable aléatoire et distribution de probabilité . . . . . . . . . . . . . . 8
1.4.1 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.2 Distribution et densité de probabilité . . . . . . . . . . . . . . . . . . . . . . 10
1.4.3 Les moments d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . 11

1
1 Probabilités élémentaires
Initialement, la théorie des probabilités s’est développée pour répondre à des questions sou-
levées par des questions relatives aux jeux de hasard. C’est Pierre de Laplace et Karl Friedrich
Gauss qui ont introduit les bases des probabilités à d’autres applications et phénomènes.

Dans ce chapitre, nous commencerons par une introduction au concept de probabilité d’un
événement puis nous montrons comment ces probabilités peuvent être calculées dans certaines
situations. Cependant, nous aurons au préalable besoin des concepts d’ensemble fondamental et
d’événement d’une expérience.

1.1 Quelques définitions


• Expérience aléatoire (dite aussi épreuve) : c’est une expérience dont les résultats sont
dûs au hasard et même si elle est répétée dans les mêmes conditions ne donne pas les mêmes
résultats.

Exemple : nous supposons qu’une population animale est composée a part égale d’individus
des deux sexes (F : Femelle, M : Mâle). Nous considérons l’épreuve suivante : extraire trois
individus de cette population.

• Univers Ω (ensemble fondamental) : C’est l’ensemble de tous les résultats possibles


d’une expérience aléatoire.

Exemple : Les différents résultats possibles de l’épreuve décrite ci-dessus sont

FFF, FFM, FMF, MFF, MMF, MFM, FMM, MMM.

• Événements :
Quelques événements particuliers :
? ∅ est l’événement impossible et Ω est l’événement certain.
 
? Ā Ac est l’événement complémentaire (ou contraire) de A. C’est l’événement qui
se réalise si A ne l’est pas. Autrement dit, Ā = {x : x ∈ Ω mais x ∈
/ A}.

Figure 1 – Représentation d’un ensemble A et de son complémentaire Ā.

? L’union : Si A et B sont deux événements. A ∪ B est l’événement qui se réalise dès


que A ou B s’est réalisé. Autrement dit, A ∪ B = {x : x ∈ A ou x ∈ B}.
? L’intersection : Si A et B sont deux événements. A ∩ B est l’événement qui se
réalise dès que A et B s’est réalisé. Autrement dit, A ∩ B = {x : x ∈ A et x ∈ B}.
? L’événement A \ B est défini par l’ensemble des éléments de A qui n’appartiennent
pas à B.

2
Figure 2 – Représentation de l’union de deux ensembles.

? L’événement A implique l’événement B si A ⊂ B.


? Les événements A et B sont disjoints, incompatibles ou mutuellement exclusifs si
A ∩ B = ∅.

Figure 3 – Représentation de deux ensembles disjoints.

Exemple : Soient Ω = {1, 3, 5, 7, 9, 11, 13}, A = {1, 5, 7}, B = {1, 5, 7, 11, 13},
C = {3, 5, 7, 9} et D = {11, 13}. Nous avons,
. L’événement Ac = {3, 9, 11, 13}.
. L’événement A implique l’événement B.
. A ∪ B = {1, 5, 7, 11, 13}.
. B ∪ C = Ω.
. C et D sont deux événements mutuellement exclusifs.
Classes particulières d’événements :
Considérons une suite E1 , E2 , . . . , Em de sous-ensembles non vides de Ω et disjoints
deux à deux, c-à-d
Ei ∩ Ej = ∅, i 6= j, i, j = 1, . . . , m.
et supposons que E1 ∪ E2 ∪ . . . ∪ Em = Ω, nous définissons dans ce cas une classe d’évé-
nements mutuellement exclusifs et exhaustifs et constitue une partition de l’ensemble
fondamental Ω. Une telle classe est encore appelée un système complet (ou exhaustif )
d’événements.

Par extension, nous pouvons partitionner un événement E quelconque en événements


mutuellement
 exclusifs E1 , E2 , . . . , Em de telle façon telle que :

 E i 6
= ∅, i = 1, . . . , m.
Ei ⊂ E, i = 1, . . . , m.


 Ei ∩ Ej = ∅, i 6= j, i, j = 1, . . . , m.
E = E1 ∪ E2 ∪ . . . ∪ Em .

Exemple : Soit Ω = {1, 2, 4, 5, . . . , 10} l’ensemble des résultats d’un test scientifique. Ω
est composé de 10 événements élémentaires {i} (i de 1 à 10). Ces événements consti-

3
tuent une partition de Ω.

1.2 Probabilité : définition fréquentiste


La probabilité d’un événement A était définie comme étant la fréquence relative de cet événe-
ment. Plus précisément, si nous répétons n fois une expérience aléatoire et si nous notons par f le
nombre de fois où l’événement A s’est produit, la probabilité p de l’événement A est alors définie
par
f
P(A) = lim ,
n→∞ n

Cette probabilité, fondée sur l’expérience, est appelée probabilité empirique. Sa valeur est com-
prise entre 0 et 1, c’est à dire entre l’événement impossible et l’événement certain. Néanmoins,
cette notion de probabilité élimine tout le champ des probabilités a priori ou l’on assigne un degré
de probabilité à un événement avant d’exécuter l’expérience.

Plus généralement, considérons une expérience pouvant donner lieu à un résultat quelconque
parmi N résultats possibles. Supposons que n résultats soient favorables à la réalisation d’un
événement particulier E. La probabilité de l’événement E est le rapport de cas favorables à la
réalisation de cet événement au nombre de cas possibles :

Card(E) n
P(E) = = .
Card(Ω) N

Exemple : Pour tester un vaccin V , nous disposons de 10 volontaires, 3 d’entre eux appar-
tiennent à la même famille. Deux personnes sont tirées au hasard. Quelle est la probabilité que
deux personnes tirées soient de la même famille (l’événement est noté par F ) ?
3

Card(F ) 2 3 1
P(F ) = = 10 = = ,
Card(Ω) 2
45 15
3 3! 10 10!
 
où 2 = 2!1! = 3 et 2 = 2!8! = 45.

1.2.1 Axiomes des probabilités


Soit A ∈ A , A un ensemble d’événements de Ω. Définir la probabilité P(A) d’obtenir un
événement A consiste à associer à ce dernier un nombre réel mesurant la vraisemblance de sa
réalisation et satisfaisant aux axiomes suivants :
(1) 0 6 P(A) 6 1, pour chaque événement A ∈ A ,
(2) P(Ω) = 1,

X
(3) P(∪∞
i=1 Ei ) = P(Ei ), pour toute suite dénombrable d’événements E1 , E2, . . . disjoints
i=1
deux à deux appartenant à A .
Le triplet (Ω, A , P) définit un espace probabilisé.

1.2.2 Propriétés
• P(Ā) = 1 − P(A).
preuve : Ω = A ∪ Ā, d’après l’axiome (3). P(A ∪ Ā) = P(A) + P(Ā) = P(Ω) = 1 d’après
l’axiome (2). Donc P(Ā) = 1 − P(A).

4
• P(∅) = 0.
preuve : Ω = Ω ∪ ∅, d’après l’axiome (3). P(Ω ∪ ∅) = P(Ω) + P(∅) = 1 = P(Ω) d’après
l’axiome (2). Donc P(∅) = 0.

• Si A ⊂ B, alors P(A) 6 P(B).


preuve : Du fait que A ⊂ B, nous pouvons exprimer B par

B = A ∪ (Ac ∩ B),

A et Ac ∩ B étant mutuellement exclusifs, d’après l’axiome (3)

P(B) = P(A) + P(Ac ∩ B).

Donc P(B) − P(A) = P(Ac ∩ B) > 0. Alors, P(B) > P(A).

• P(A ∪ B) = P(A) + P(B) − P(A ∩ B).


preuve : Pour obtenir une formule donnant P(A∪B), remarquant d’abord que A∪B peut être
écrit comme l’union de deux éléments disjoints A et Ac ∩ B. Nous tirons alors de l’axiome (3)
que P(A∪B) = P(A∪(Ac ∩B)) = P(A)+P(Ac ∩B), de plus, comme B = (A∩B)∪(Ac ∩B),
nous tirons de nouveau de cet axiome

P(B) = P(A ∩ B) + P(Ac ∩ B),

ou encore
P(Ac ∩ B) = P(B) − P(A ∩ B).
Donc,
P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
• Axiome des probabilités composées : Soient E1 et E2 , deux résultats possibles d’une même
expérience aléatoire, on suppose que E1 et E2 sont compatibles (E1 ∩ E2 6= ∅). Si l’obtention
de E1 ne modifie pas la probabilité d’obtention de E2 , on peut écrire :

P(E1 et E1 ) = P(E1 ∩ E2 ) = P(E1 ) × P(E2 ).

Cet axiome se généralise à k événements indépendants et s’écrit :

P(E1 ∩ E2 ∩ E3 ∩ . . . Ek−1 ∩ Ek ) = P(E1 ) × P(E2 ) × . . . × P(Ek−1 ) × P(Ek )

1.3 Probabilité conditionnelle


La probabilité affectée à un événement dépend de l’information fournie par l’ensemble fonda-
mental Ω. Ceci est particulièrement évident lorsqu’on utilise la définition classique de la probabilité.
Il se peut cependant que des informations supplémentaires viennent modifier notre connaissance du
problème étudié et, par voie de conséquence, les probabilités associées aux événements de Ω. Ainsi,
si E1 et E2 sont deux événements, la probabilité conditionnelle de E2 étant donné E1 , P(E2 | E1 ),
indique la probabilité que E2 se produise sachant que E1 s’est déjà produit (P(E1 ) 6= 0)). Elle est
définie par
P(E1 ∩ E2 )
P(E2 | E1 ) = .
P(E1 )
L’indépendance est un concept fondamental de la théorie des probabilités. Elle permet de
conceptualiser le fait que deux évènements ne peuvent pas interagir l’un sur l’autre.

5
Définition 1.1. Soient E et F deux évènements. On dit que E et F sont indépendants si seulement
si
P(E ∩ F ) = P(E) P(F ).
Il est équivalent de dire que, si les deux événements sont disjoints,

P(E | F ) = P(F | E) = 0.

On écrit alors E ⊥
⊥ F.
Remarque 1.2. Indépendance et intersection vide n’ont rien à voir ! ! ! Deux évènement disjoints
sont nécessairement dépendants . . .
Remarque 1.3. Si la réalisation ou la non réalisation de E1 n’affecte pas E2 , alors

P(E2 | E1 ) = P(E2 ).

En effet, comme E1 et E2 sont indépendants P(E1 ∩ E2 ) = P(E1 ) × P(E2 ), et donc


P(E1 ∩ E2 ) P(E1 ) × P(E2 )
P(E2 | E1 ) = = = P(E2 ).
P(E1 ) P(E1 )

1.3.1 Théorème de Bayes


Dans certaines situations, nous ne possédons pas l’information nécessaire pour évaluer di-
rectement P(A) ou même P(Bi | A). En revanche on connait P(A | Bi ) et P(Bi ). L’ensemble
{B1 , B2 , . . . , Bn } supposé être une partition de Ω. Par définition, nous avons :
P(A ∩ Bi ) P(A ∩ Bi )
P(Bi | A) = et P(A | Bi ) = ,
P(A) P(Bi )
comme P(A ∩ Bi ) = P(A | Bi ) P(Bi ), nous avons
P(A | Bi ) P(Bi )
P(Bi | A) = .
P(A)

1.3.2 Loi de probabilité totale


Supposons que B1 , B2 , . . . , Bn soient des événements mutuellement exclusifs et tels que

∪ni=1 Bi = Ω.

Cela revient à dire en d’autres termes qu’exactement un des événements B1 , B2 , . . . , Bn se


produira. En écrivant,

A = A ∩ Ω = A ∩ (B1 ∪ B2 ∪ . . . ∪ Bn ) = ∪ni=1 A ∩ Bi


et en utilisant le fait que les événements A ∩ Bi , i = 1, . . . , n, mutuellement exclusifs, nous


obtenons :
Xn n
X
P(A) = P(A ∩ Bi ) = P(A | Bi ) P(Bi ).
i=1 i=1

Cette relation est souvent nommée la loi de probabilité totale et montre que sachant B1 , B2 , . . . , Bn
sont des événements dont un seul peut se réaliser, nous pouvons calculer P(A) en commençant par
conditionner selon les Bi .

Alors, la formule de Bayes généralisée est la suivante :


P(A | Bi ) P(Bi )
P(Bi | A) = Pn .
i=1 P(A | Bi ) P(Bi )

6
Exemple : Un laboratoire a mis au point un alcootest. Nous savons que 2% des personnes
contrôlées par la police sont réellement en état d’ébriété. Les premiers essais ont conduit aux
résultats suivants :
• lorsqu’une personne est réellement en état d’ébriété, 95 fois sur 100 l’alcootest se révèle
positif,
• lorsqu’une personne n’est pas en état d’ébriété, 96 fois sur 100 l’alcootest se révèle négatif.
Quelle est la probabilité pour qu’une personne soit réellement en état d’ébriété lorsque l’alcoo-
test est positif ?

Solution : Appelons

E = "la personne contrôlée est en état d’ébriété".

et
A = "l’alcootest est positif".
Les indications fournies peuvent s’écrire :

P(E) = 0.02; P(A | E) = 0.95; P(Ā | Ē) = 0.96,

et nous cherchons à calculer P(E | A). D’après la formule de Bayes, nous avons :

P(A) P(A | E)
P(E | A) =
P(E) P(A | E) + P(Ē) P(A | Ē)
0.02 × 0.95
= = 0.3265
0.02 × 0.95 + 0.98 × 0.04
Exemple : Dans un élevage de moutons, nous estimons que 30% sont atteints par une certaine
maladie. Nous disposons d’un test pour cette maladie. Si un mouton n’est pas atteint, il a 9
chances sur 10 d’avoir une réaction négative au test ; s’il est atteint, il a 8 chances sur 10 d’avoir
une réaction positive. Nous soumettons tous les moutons de l’élevage au test.
(a) Quelle est la probabilité qu’un mouton de cet élevage ne soit pas malade ?
(b) Quelle est la probabilité conditionnelle qu’un mouton ait une réaction positive au test sachant
qu’il n’est pas malade ?
(c) Quelle est la probabilité qu’un mouton ne soit pas malade et ait une réaction positive au test ?
(d) Quelle proportion des moutons de l’élevage réagit positivement au test ?
(e) Quelle est la probabilité qu’un mouton soit malade, sachant qu’il a réagi positivement ?
(f) Quelle est la probabilité qu’un mouton ne soit pas malade, sachant qu’il a réagi négativement ?

Solution : Pour tout l’exercice, nous notons M l’événement "le mouton est malade" et T
l’événement "le mouton a une réaction positive au test". L’énoncé donne :

P(M ) = 0.3, P(T̄ | M̄ ) = 0.9, P(T | M ) = 0.8

(a)
P(M̄ ) = 1 − P(M ) = 1 − 0.3 = 0.7.
(b)
P(T | M̄ ) = 1 − P(T̄ | M̄ ) = 1 − 0.9 = 0.1.
(c)
P(T ∩ M̄ ) = P(T | M̄ ) P(M̄ ) = 0.1 × 0.7 = 0.07.

7
(d) Nous pouvons utiliser la formule des probabilités totales ou raisonner directement, en distin-
guant, parmi les moutons ayant réagi positivement, ceux qui sont malades de ceux qui ne le
sont pas.

P(T ) = P(T ∩ M ) + P(T ∩ M̄ )


= P(T | M ) P(M ) + P(T | M̄ ) P(M̄ )
= 0.8 × 0.3 + 0.1 × 0.7 = 0.24 + 0.07 = 0.31.

(e) Nous pouvons utiliser directement la formule de Bayes ou bien la retrouver comme suit.

P(T ∩ M )
P(M | T ) =
P(T )
P(T | M ) P(M )
=
P(T | M ) P(M ) + P(T | M̄ ) P(M̄ )
0.8 × 0.3
= ' 0.774.
0.8 × 0.3 + 0.1 × 0.7

(f) Nous pouvons utiliser directement la formule de Bayes ou bien la retrouver comme suit.

P(T̄ ∩ M̄ )
P(M̄ | T̄ ) =
P(T̄ )
P(T̄ | M̄ ) P(M̄ )
=
P(T̄ | M̄ ) P(M̄ ) + P(T̄ | M ) P(M )
0.9 × 0.7
= ' 0.913.
0.9 × 0.7 + 0.2 × 0.3

1.4 Notion de variable aléatoire et distribution de probabilité


Le concept d’une variable aléatoire formalise la notion de grandeur variant selon le résultat
d’une expérience aléatoire. C’est donc une variable associée à une expérience ou à un groupe
d’expériences aléatoires, et servant à caractériser le résultat de cette expérience ou de ce groupe
d’expériences.

Elle est dite discontinue ou discrète si elle varie elle-même de façon discontinue. Pour plusieurs
répétitions d’une même expérience (par exemple plusieurs jets d’une même pièce de monnaie), le
nombre de réalisations d’un événement aléatoire associé à ces expériences (par exemple le nombre
de "face") est une variable aléatoire discontinue.

Considérons d’autre part une variable aléatoire susceptible de prendre n’importe quelle valeur
réelle appartenant à un intervalle donné. Cet intervalle peut être (−∞, +∞). Une telle variable
aléatoire est dite continue. Le poids d’un individu prélevé au hasard dans une population donnée
est une variable aléatoire continue ne pouvant prendre que des valeurs positives.

Les variables aléatoires sont notées par des lettres majuscules (X, Y, Z, . . .) pour les distinguer
des variables déterministes (x, y, z, . . .)

Définition 1.4. Une variable aléatoire X sur (Ω, A ) est une fonction

X:Ω→R

telle que pour chaque x ∈ R


{w : X(w) 6 x} ∈ A .

8
Quelques notations utiles
• {w : X(w) = a} se note X = a,
• {w : X(w) 6 a} se note X 6 a,
• {w : a 6 X(w) 6 b} se note a 6 X 6 b,
• On écrit P({X(w) = a}) = P(X = a)

1.4.1 Fonction de répartition


Soit X une variable aléatoire. La fonction de répartition de X est une fonction positive définie,
pour toute valeur x de X par
FX (x) = P(X 6 x).
Elle satisfait les propriétés suivantes :
• FX est une fonction non-décroissante,
• 0 6 FX (x) 6 1,
• limx→−∞ FX (x) = 0, limx→+∞ FX (x) = 1,
Remarque 1.5. Tous les calculs de probabilité concernant X peuvent être fait en utilisant la
fonction de répartition. Par exemple :

• P(a < X 6 b) = P(a 6 X < b) = P(a 6 X 6 b) = FX (b) − FX (a).

Preuve : {X 6 b} = {X 6 a} + {a < X 6 b} alors

P({X 6 b}) = P({X 6 a}) + P({a < X 6 b}) ⇒ P(a < X 6 b) = FX (b) − FX (a.)

• P(X < b) = limn→∞ FX (b − n1 ).

Preuve :
1
P(X < b) = P( lim {X 6 b −})
n→∞ n
1
= lim P({X 6 b − })
n→∞ n
1
= lim FX (b − ).
n→∞ n
Exemple : Nous considérons la fonction de répartition suivante :


 0, si x < 0,
x/2, si 0 6 x < 1,



FX (x) = 2/3, si 1 6 x < 2,
11/12, si 2 6 x < 3,




1, si 3 6 x.

a) Calculer P(X < 3).


b) Calculer P(X = 1).
c) Calculer P(X > 1/2).

Solution :
(a) P(X < 3) = limn→+∞ FX (3 − n1 ) = limn→+∞ 11
12 = 11
12 .

9
(b) P(X < 1) = P(X 6 1) − P(X = 1).
1
lim FX (1 − ) = FX (1) − P(X = 1)
n→+∞ n
1 2
⇔ = − P(X = 1)
2 3
2 1 1
⇔ P(X = 1) = − = .
3 2 6
(c)
1 1
P(X > ) = 1 − P(X 6 )
2 2
1 1 3
= 1 − FX ( ) = 1 − = .
2 4 4

1.4.2 Distribution et densité de probabilité


La fonction de masse ou la distribution de probabilité d’une variable aléatoire discrète :

Soit X une variable aléatoire discrète dont les valeurs sont x1 , x2 , . . . , xn . On pose

pX (xi ) = P(X = xi ), i = 1, 2, . . . , n,

on appelle distribution de probabilité, ou fonction de masse de X, ou loi de probabilité de


X, l’ensemble des couples (xi , pX (xi )), où les pX (xi ) vérifiant
? pX (xi ) > 0.
P∞
? i=1 pX (xi ) = 1.

Dans ce cas, la fonction de répartition FX est définie par


X X
FX (x) = P(X = xi ) = pX (xi ).
xi 6x xi 6x

Cette fonction est constante par intervalles (ou en escalier).

Exemple : Une urne contient 20 boules numérotées de 1 à 20. On pige 5 boules au hasard,
sans remise. Calculer la probabilité qu’au moins une boule soit supérieure à 14.

Solution : Posons X : max des boules tirées. On cherche


14

5
P(X > 15) = 1 − P(X < 15) = 1 − P(X 6 14) = 1 − 20 .

5

Densité de probabilité

Pour une variable aléatoire continue, la probabilité d’apparition de l’événement X = x1 est


nulle, autrement dit, P(X = x1 ) = 0, car il est impossible de tomber exactement sur cette
valeur. La fonction masse pX (x) n’a donc aucun sens pour les variables continues. Il faut donc
considérer la probabilité que X soit compris dans un intervalle, P(x1 6 X 6 x2 ). Lorsque
cet intervalle tend vers 0, la valeur de dFdx
X (x)
tend vers une fonction que l’on appelle fonction
densité de probabilité. Cette fonction est donc la dérivée de la fonction de répartition. Elle
s’écrit :
dFX (x) 0
= FX (x) = fX (x).
dx

10
ecdf(x)

1.0
0.8
0.6
Fn(x)

0.4
0.2
0.0

-2 -1 0 1 2

Figure 4 – Illustration de la fonction de répartition d’une variable aléatoire discrète.

La densité joue la même rôle qui la joue la fonction de probabilité de masse dans le cadre
discret.

Pour résumer, une densité de probabilité est une fonction qui vérifie :
? ∀x, fX (x) > 0,
R R +∞
? R fX (t)dt = −∞ fX (t) dt = 1.

Dans ce cas, la fonction de répartition FX est donnée par


Z x
FX (x) = P(X 6 x) = f (t)dt.
−∞

1.4.3 Les moments d’une variable aléatoire


La loi de probabilité d’une variable aléatoire peut être considérée comme l’analogue sur le plan
théorique de la distribution d’un caractère sur le plan expérimental. En conséquence, certaines
grandeurs associées à la distribution d’un caractère possèdent leurs analogues pour une loi de
probabilité. Nous considérons successivement le cas de variables discrètes et celui de variables
continues.
? Variable aléatoire discrète
Soit X une variable aléatoire discrète pouvant prendre les valeurs xi avec les probabili-
tés pX (xi ), i = 1, . . . , n, on appelle espérance mathématique de la variable aléatoire X le
nombre :
Xn
m1 = E(X) = xi pX (xi ).
i=1

11
0.20
0.15
0.10
f(x)

0.05
0.00

4 6 8 10 12 14 16

Figure 5 – Illustration de la densité d’une variable aléatoire continue.


1.0
0.8
0.6
F(x)

0.4
0.2
0.0

4 6 8 10 12 14 16

Figure 6 – Illustration de la fonction de répartition d’une variable aléatoire continue.


 
La variable X − E(X) est appelée variable centrée. Son espérance mathématique est
nulle, c’est à dire
E(X − E(X)) = 0.
Nous appelons moment d’ordre k de la loi de probabilité de X (ou espérance mathéma-
tiques de X k ), le nombre
Xn
mk = E(X k ) = xki pX (xi ).
i=1

Nous pouvons aussi considérer le moment centré d’ordre k, c’est à dire :


n
X
E((X − E(X))k ) = (xi − m)k pX (xi ).
i=1

12
La variance de la variable X est le moment centré d’ordre 2 de X, soit
n
X n
X n
X 2
2 2
V ar(X) = E((X − m) ) = (xi − m) pX (xi ) = x2i pX (xi ) − xi pX (xi ) .
i=1 i=1 i=1

Exemple : Soit X une variable aléatoire qui prend les valeurs 1, 2, . . . , n avec pX (xi ) = 1/n,
i = 1, . . . , n. Calculer E(X) et V ar(X).

Solution :
n(n + 1)/2 n+1
E(X) = (1/n)(1 + 2 + . . . + n) = = .
n 2
2n2 + 6n − 1
E(X 2 ) = .
6
 2 n2 − 1
V ar(X) = E(X 2 ) − E(X) = .
12

? Variable aléatoire continue


Nous supposons que la loi de probabilité d’une variable aléatoire X est définie au moyen
d’une densité fX (x). Les définitions et les résultats qui précèdent se transposent facilement,
P R +∞
le symbole de sommation étant remplacé par le symbole d’intégration −∞ . Ainsi, nous
avons : Z +∞
E(X) = xfX (x)dx,
−∞

et le moment d’ordre k est :


Z +∞
E(X k ) = xk fX (x)dx.
−∞

Exemple : Soit la densité de probabilité de X suivante :


1

fX (x) = b−a , si a 6 x 6 b,
0, sinon.

Déterminer l’espérance mathématique de X et son moment centré d’ordre 2.

Solution :
+∞ b
1 h x2 i b
Z Z
x a+b
E(X) = xfX (x)dx = dx = = .
−∞ a b−a b−a 2 a 2

+∞ b
x2 b3 − a3
Z Z
2 2
E(X ) = x fX (x)dx = dx = .
−∞ a b−a 3(b − a)
 2 (b − a)2
V ar(X) = E(X 2 ) − E(X) = .
12

Exemples :

Exemple : Une urne contient 11 boules, dont 3 blanches, 3 rouges et 5 bleues. Vous pigez 3
boules sans remise. Vous gagnez 1$ pour chaque boule rouge choisie et vous perdez 1$ pour chaque

13
boule blanche choisir. Combien espérez-vous gagner d’argent à ce jeu ?

Solution : Nous posons X : montant gagné. La fonction de masse de X est


1
pX (−3) = pX (3) = 11
.
3
2.5
pX (−2) = pX (2) = 11 .

3
5

3.3 + 3. 2
pX (−1) = pX (1) = 11
 .
3
5

3 + 5.3.3
pX (0) = 11
 .
3

Le montant que l’on peut espérer gagner est la moyenne des valeurs de X pondérée par la
X 3
fonction de E(X) = xpX (x) = 0, par symétrie de la fonction de masse autour de 0, et donc
x=−3
le jeu est parfaitement équitable ici.

Exemple : Soit la densité de probabilité



c x, si 0 < x < 4,
fX (x) =
0, sinon.

· Déterminer c.
· Déterminer P(1 6 X 6 2).
· Déterminer E(X), V ar(X).

Solution :
· f est une densité de probabilité alors
Z +∞ Z 4
fX (x)dx = 1 ⇔ fX (x)dx = 1
−∞ 0
Z 4
⇔ c x dx = 1
0
Z 4
⇔ c xdx = 1
0
2
x 4
⇔ c[ ] = 1.
2 0
1
donc c= .
8
R2 3
· P(1 6 X 6 2) = 1 f (x)dx = 16 .
R +∞ 1 4 2
· E(X) = −∞ xfX (x)dx = 8 0 x dx = 38 .
R

R4 3 h 4 i4
· E(X 2 ) = 0 x8 dx = 18 x4 = 8.
0
2 2
· V ar(X) = E(X 2 ) − E(X) = 8 − 83 = 89 .


14
Exemple : Nous supposons X admet une densité de probabilité

3 x2 , si 0 6 x 6 1,

fX (x) =
0, sinon.
Calculer la densité de fY (y) où Y = 1 − X 4 .

Solution :
FY (y) = P(Y 6 y) = P(1 − X 4 6 y)
= P(1 − y 6 X 4 )
= P((1 − y)1/4 6 X)
Z 1
= 3x2 dx
(1−y)1/4
h x3 i1
= 3 .
3 (1−y)1/4

dFY (y) 3 1 3 1
fY (y) = = 1/4
1(y ∈ (0, 1)) = 1(0,1) (y).
dx 4 (1 − y) 4 (1 − y)1/4

Exemple : Si X est continue avec la fonction de répartition FX et la densité fX . Trouver la


densité de Y = 2X.

Solution : On
FY (y) = P(Y 6 y) = P(2X 6 y) = P(X 6 y/2) = FX (y/2).

1
fX (y/2).
fY (y) =
2
Exemple : Soit la densité de probabilité de X est donnée par

1, si 0 6 x 6 1,
fX (x) =
0, sinon.
Trouver E(exp(X)).

Solution : Soit Y = exp(X). x ∈ (0, 1) et y ∈ (1, e).


FY (y) = P(Y 6 y) = P(exp(X) 6 y)
= P(X 6 log(y)) = FX (log(y))
Z log(y)
= f (x)dx
0
= log(y).
Donc la densité de la variable Y est donnée par :
1 1
fY (y) = 1(y ∈ (1, e)) = 1(1,e) (y).
y y
Alors,
Z +∞
E(exp(X)) = E(Y ) = yfY (y)dy
−∞
Z e
= dy = [y]e1 = e − 1.
1

15

Vous aimerez peut-être aussi