Académique Documents
Professionnel Documents
Culture Documents
L1/IFRI
2018-2019
12 janvier 2019
Table des matières
2
4.1.5 Loi de Pascal ou loi binomiale négative . . . . . . . . . . . . . . . . 36
4.1.6 Loi hypergéométrique . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.1.7 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.1.8 Approximation de lois classiques discrètes . . . . . . . . . . . . . . 38
4.2 Lois continues d’usage courant . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.2.1 Loi uniforme sur un intervalle borné . . . . . . . . . . . . . . . . . . 38
4.2.2 Loi Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2.3 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2.4 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.2.5 Approximation de lois classiques continues . . . . . . . . . . . . . . 44
3
Chapitre 1
∀x ∈ A, x ∈ E.
On note A ⊂ E et on appelle P(E), l’ensemble des parties de E (on dit aussi des sous
ensembles de E) et on peut écrire
4
(b) On dit que (Ei )i∈I est une partition de E si :
Ej = ∅ pour tous (i, j) ∈ I 2 avec i 6= j.
[ \
E= Ei et Ei (1.1)
i∈I
5
2. On dit que f est injective si tout élément de F est l’image d’au plus un élément de
E.
3. On dit que f est surjective si tout élément de F est l’image d’au moins un élément
de E.
4. On dit que f est bijective si elle est injective et surjective.
5. L’ensemble des applications de E dans F est noté F E ou F(E, F ).
6. À tout ensemble A ⊂ E, on définit la fonction caractéristique ou fonction indica-
trice, notée 1A ou χA , explicitant l’appartenance ou non de tout élément de E au
sous-ensemble A de la manière suivante :
1A : E → ( R
1 si x∈A (1.3)
x 7→
0 si x∈
/ A.
On note que l’ensemble des parties de E est en bijection avec l’ensemble des appli-
cations de E dans {0, 1} et une bijection naturelle est donnée par :
6
4. f −1 (V̄ ) = f −1 (V );
5. A ⊂ f −1 (f (A)) ;
6. f (f −1 (V )) ⊂ V.
7. Si (Vi )i∈I est une famille d’éléments de F , on a toujours :
!
−1
f −1 (Vi )
[ [
(a) f Vi =
i∈I i∈I
!
(b) f −1 f −1 (Vi )
\ \
Vi =
i∈I i∈I
Définition 1.8. On dira que deux ensembles non vides E et F ont le même cardinal si
et seulement si il existe une bijection entre E et F .
2. Dans un n-uplet, il peut y avoir des répétitions.
3. Par exemple, l’ensemble des applications de {1, . . . , n} dans E.
7
Nous allons supposé les ensembles non vides pour éviter de nous retrouver dans des
situations de logiques un peu délicates.
Proposition 1.5. Si deux ensembles finis non vides E et F ont le même cardinal, alors
il existe une bijection entre E et F .
Démonstration. Si E et F ont le même cardinal, disons n, alors il existe une bijection ϕ
de E sur J1; nK et une bijection ψ de J1; nK sur F . Alors ψ ◦ ϕ est une bijection de E sur
F.
Remarque 1.1. Dénombrer un ensemble fini non vide E, c’est déterminer le card E,
c’est-à-dire le nombre de ses éléments. Trois conditions doivent être remplies pour que le
dénombrement de E soit correct :
1. il ne faut compter que les éléments de E ;
2. il ne faut pas en oublier ;
3. il ne faut pas compter certains éléments de E plusieurs fois.
Néanmoins, si par une méthode chaque élément de E est compté k fois, card E est le
quotient par k du nombre obtenu par cette méthode.
Théorème 1.1 (Théorème de dénombrement). Soient E un ensemble fini. Si F est un
ensemble tel qu’il existe une bijection de E sur F , alors F est un ensemble fini et
card E = card F.
Démonstration. Désignons par ϕ la bijection E sur F . Si n est le cardinal de l’ensemble
fini E, il existe donc une bijection ψ de J1; nK sur E. L’application ϕ ◦ ψ est une bijection
de J1; nK sur F .
Corollaire 1.1. Pour déterminer le cardinal d’un ensemble fini E, il suffit de le décrire
en établissant une bijection entre l’ensemble E et un ensemble bien connu.
Théorème 1.2 (Principe d’addition). Soient E et F deux ensembles finis disjoints. Alors,
E ∪ F est un ensemble fini et
card (E ∪ F ) = card E + card F.
Démonstration. Posons n = card E et m = card F . Soient ϕ une bijection de J1; nK sur
E et ψ une bijection de J1; mK sur F .
Définissons l’application γ entre J1; n + mK et E ∪ F par :
γ : J1; n + mK −→ ( E∪F
ϕ(k) si 1 ≤ k ≤ n
k 7−→ γ(k) =
ψ(k − n) si n + 1 ≤ k ≤ n + m
L’application γ est surjective, puisque
γ (J1; nK) = E et γ (Jn + 1; n + mK) = F.
Donc
E ∪ F = γ (J1; nK) ∪ γ (J1 + n; n + mK) ⊂ γ (J1; n + mK) .
De plus, elle est injective. En effet, si deux entiers k et k 0 vérifient γ(k) = γ(k 0 ), alors ou
bien γ(k) ∈ E, auquel cas ϕ−1 (γ(k)) = ϕ−1 (γ(k 0 )) implique k = k 0 ; ou bien γ(k) ∈ F et
on trouve aussi k = k 0 en appliquant ψ −1 .
8
Le résultat suivant se généralise par récurrence à l’union disjointe de plusieurs en-
sembles finis.
Corollaire 1.2. Soient E1 , E2 , · · · , Ep des ensembles finis disjoints deux à deux, où p est
un entier naturel au moins égal à 2. Alors E1 ∪ E2 ∪ · · · ∪ Ep est un ensemble fini et
p
X
card (E1 ∪ E2 ∪ · · · ∪ Ep ) = card (Ek ). (1.7)
k=1
card A ≤ card E.
A1 = A ∩ {x} et A2 = A \ {x}.
9
Proposition 1.7. Soient E et F deux ensembles finis.
1. E × F est un ensemble fini et
Exercice 1.1. Montrer que si A et B sont deux parties d’un ensemble fini E, on a :
1 − 1A∪B = (1 − 1A )(1 − 1B )
et en déduire que 6
1.3 Dénombrements
Définition 1.9 (p-liste d’éléments d’un ensemble). On appelle p-liste d’un ensemble
E à n éléments, tout élément de E p , c’est-à-dire toute suite de p éléments de E. Le nombre
de p-listes de l’ensemble E est np .
Remarque 1.2.
— L’ordre des éléments de la p-liste est important ; c’est-à-dire : deux p-listes conte-
nant les mêmes éléments dans des ordres différents sont différentes.
— Une p-liste peut contenir plusieurs fois le même élément.
— Une p-liste est aussi appelée p-uplet.
n
! n
Y Y
card Ei = (card Ei ) .
i=1 i=1
10
Définition 1.10 (p-liste d’éléments distincts d’un ensemble ou arrangement).
1. Une p-liste d’éléments distincts d’un ensemble fini E est aussi appelée arrangement
de p éléments de E.
2. Si Card E = n, une n-liste d’éléments distincts de E est une permutation de E.
Proposition 1.8. Soit E un ensemble fini de cardinal n. On note Apn le nombre de p-listes
d’éléments distincts de E. On a :
n!
Apn = n(n − 1)(n − 2) · · · (n − p + 1) = (1.12)
(n − p)!
où n! est le produit de tous les entiers naturels non nuls au plus égaux à n. On a
n
Y
n! = k (1.13)
k=1
et par convention 0! = 1.
Exercice 1.2. Soient A et B deux ensembles finis avec card A = p et card B = n.
1. Montrer que le cardinal de l’ensemble I des applications injectives de A vers B
est : (
n(n − 1) · · · (n − p + 1) si p ≤ n
card I =
0 si p > n
2. En déduire le nombre de bijection 7 de A vers A.
Définition 1.11 (Combinaison). Le nombre !de sous-ensemble à p éléments d’un en-
n
semble fini E de cardinal n est noté {pn ou et égal à :
p
0 si p>n
{pn = n(n − 1) · · · (n − p + 1) n! (1.14)
= si 0 ≤ p ≤ n.
p! p!(n − p)!
et en déduire l’identité n
k{kn = n2n−1 .
X
k=1
Exercice 1.4. On considère le polynôme à une indéterminée P (X) = (1+X)n où n ∈ N∗ .
n
1. Montrer en utilisant la formule du binôme de Newton que (1 + X)n = {kn X k .
X
k=0
n n
2. En déduire les relations 2n = {kn et n2n−1 = k{kn .
X X
k=0 k=0
7. On l’appelle aussi le nombre de permutations de A vers A.
11
1.4 Ensembles dénombrables
Définition 1.12. Un ensemble est dit dénombrable s’il est en bijection avec un sous-
ensemble de l’ensemble des entiers naturels N.
Proposition 1.9.
1. Soient E et F deux ensembles.
(a) S’il existe une injection de E dans F et si F est dénombrable alors E est aussi
dénombrable.
(b) S’il existe une surjection de E dans F et si E est dénombrable alors F est aussi
dénombrable.
2. Si (Ei )i∈I est une famille dénombrable d’ensembles dénombrables alors :
[
(a) l’ensemble Ei est un ensemble dénombrable et
i∈I
Y
(b) l’ensemble Ei est dénombrable si I est fini.
i∈I
3. Les ensembles N, Z et Q sont dénombrables.
4. L’ensemble des nombres réels R et l’ensemble des nombres irrationnels ne sont pas
dénombrables.
12
Chapitre 2
Espaces probabilisés,
conditionnement et indépendance
Remarque 2.1.
— L’ensemble Ω est toujours élément de la tribu 1 .
— Une intersection dénombrable d’éléments de la tribu est aussi un élement de la
tribu.
— Si A et B sont deux éléments d’une tribu alors A\B et A∆B sont aussi des élé-
ments de la tribu.
Proposition 2.1.
1. L’intersection d’une famille quelconque de tribus sur Ω est une tribu sur Ω.
2. La réunion de deux tribus sur Ω n’est pas nécessairement une tribu sur Ω. Par
exemple, considérer Ω = {a, b, c} et F1 = {∅, {a}, {b, c}, Ω} et F2 = {∅, {b}, {a, c}, Ω}.
1. Ceci permet de dire que pour toute tribu F sur Ω, on a toujours {∅, Ω} ⊂ F ⊂ P(Ω).
13
Démonstration. Exercice.
Définition 2.2 (Espace probabilisable). On appelle espace mesurable ou probabilisable,
tout couple (Ω, F) où Ω est un ensemble non vide et F est une tribu sur Ω. Les éléments
de F sont appelés des ensembles mesurables.
Le triplet (Ω, F, P) est appelé espace probabilisé et les éléments de F sont ainsi appelés
des évènements.
Exemple 2.2. Soit (Ω, P(Ω)) un espace probabilisable.
1. Masse de Dirac : Soit ω ∈ Ω. L’application définie par
δω : P(Ω) → ( [0, 1]
1 si ω ∈ A (2.2)
A 7→
0 si ω 6∈ A
n
X
P := λi Pi
i=1
14
Proposition 2.2. Soit (Ω, F, P) un espace probabilisé. On a les propriétés suivantes :
1. P(∅) = 0
2. Additivité finie : Soit (Ai )i∈J1,nK une suite finie d’éléments deux à deux disjoints
de F. Alors
n n
!
[ X
P Ai = P(Ai ). (2.3)
i=1 i=1
5. La monotonie d’une suite d’ensembles est bien entendu prise au sens de l’inclusion.
15
[
(a) Si la suite (An )n∈N∗ est croissante, en posant B = An , alors la suite (P(An ))n
n∈N
qui est croissante et majorée, converge vers P(B), i.e.
\
(b) Si la suite (An )n∈N∗ est décroissante, en posant C = An , alors la suite
n∈N
(P(An ))n qui est décroissante et minorée, converge vers P(C), i.e.
Démonstration. Exercice.
Exemple 2.3. Une pièce de monnaie comporte deux faces ”tête” que l’on notera T et
”franc” F. On sait que l’ensemble de tous les résultats possibles au terme d’un lancer de
cette pièce est Ω = {T, F }. Mais avant l’opération de lancer de la pièce, on ne peut pas
dire avec certitude une issue. On a donc une expérience aléatoire.
• L’ensemble Ω est appelé univers des possibles ou espace des épreuves ou encore
espace des états. Il représente l’ensemble de tous les résultast possibles d’une ex-
périence aléatoire.
• Chaque élément de Ω est appelé éventualité et est souvent noté ω.
• Les éléments de F sont appelés des évènements 6 .
• Les singletons {ω} sont appelés des évènements élémentaires.
• L’ensemble vide ∅ est dit évènement impossible et la partie pleine Ω est appelé
évènement certain.
• Si ω est une épreuve et A un évènement, alors on dit que l’évènement A est réalisé
dans l’épreuve ω si et seulemnt si ω ∈ A.
• Pour tout A ∈ F, le nombre P(A) est la probabilité de l’évènement A.
• L’évènement contraire d’un évènement A est l’évènement noté A qui représente le
complémentaire de A dans Ω. C’est donc l’évènement qui est réalisé lorsque A ne
l’est pas et qui ne l’est pas lorsque A l’est.
6. Un évènement est un fait attaché à une expérience aléatoire et susceptible ou non de se produire.
16
• Soient A et B deux évènements d’un phénomène aléatoire ; alors l’évènement
”A et B” est l’évènement qui comporte uniquement les éléments qui assurent à
la fois la réalisation de A et de B. Donc l’évènement ”A et B” peut se représenter
par A ∩ B.
• Deux évènements sont dits incompatibles lorsqu’ils ne peuvent pas être réalisés à
la fois. Donc A et B sont incompatibles 7 lorsque A ∩ B = ∅.
• L’évènement ”A ou B” est réalisé si et seulement si l’un au moins des deux évène-
ments A ou B est réalisé au cours de la même expérience aléatoire. Donc l’évène-
ment ”A ou B” peut se représenter par A ∪ B.
• Un évènement A tel que P(A) = 0 est dit évènement presque impossible.
• Un évènement A tel que P(A) = 1 est dit évènement presque certain.
Remarque 2.2. Les espaces probabilisables les plus simples et couramment utilisés sont
ceux dont la tribu considérée sur Ω est la tribu discrète F = P(Ω).
Remarque 2.3.
— Il y a équiprobabilité, lorsque les probabilités de tous les évènements élémentaires
sont égales.
— S’il y a équiprobabilité, pour tout évènement A, on a :
card A nombre de cas favorables à la réalisation de A
P(A) = = . (2.18)
card Ω nombre de cas possibles
Exercice 2.1.
1. On jette un dé cubique dont les faces sont numérotées de 1 à 6 et on lit après
immobilisation le chiffre apparu à sa face supérieure.
7. Par exemple, les évènements contraires A et A sont incompatibles car A ∩ A = ∅. Mais deux
évènements incompatibles ne sont pas nécessairement contraires.
17
(a) Sachant que le dé est parfaitement équilibré, quelle est la probabilité d’obtenir
un chiffre pair ?
(b) Sachant que le dé est truqué de sorte que chaque face ait une probabilité d’appa-
rution proportionnelle au numéro qu’elle porte, quelle est la probabilité d’obtenir
un numéro pair ?
2. Une urne contient 9 boules numérotées de 1 à 9. On tire simultanément deux boules
de cette urne ; sachant que les boules sont indiscernables au toucher, quelle est la
probabilité d’obtenir deux boules portant des numéros de parité différentes ?
P(A ∩ B)
∀B ∈ F, PA (B) := . (2.19)
P(A)
Alors PA est une probabilité sur (Ω, F), appelée probabilité conditionnelle relative à
l’évènement A. On note également PA (B) = P(B/A) = P(B|A) et on lit probabilité de
B sachant A.
Démonstration. Exercice.
Proposition 2.3 (Formule des probabilités totales 8 ). Soit (An )n∈I une famille au
plus dénombrable (finie ou non) d’évènements de l’espace probabilisé (Ω, F, P) formant
une partition 9 de Ω avec P(An ) > 0 pour tout n. Alors pour tout B ∈ F, on a :
X
P(B) = P(An ) × P(B/An ). (2.20)
n∈I
Démonstration. Exercice.
Proposition 2.4 (Formule de Bayes). Soit (An )n∈I une famille au plus dénombrable
d’évènements de l’espace probabilisé (Ω, F, P) formant une partition de Ω avec P(An ) > 0
pour tout n. Alors pour tout B ∈ F tel que P(B) > 0 et pour tout n, on a :
P(An ) × P(B/An )
P(An /B) = X . (2.21)
P(Am ) × P(B/Am )
m∈I
Démonstration. Exercice.
8. Encore appelée formule des causes.
9. On dit aussi que la famille (An )n∈I forme un système complet d’évènements.
18
Exercice 2.2. Dans une boutique, on s’intéresse au comportement d’un acheteur potien-
tiel d’un téléviseur et d’un lecteur de DVD. La probabilité pour qu’il achète un téléviseur
est de 0, 6. La probabilité pour qu’il achète un lecteur de DVD quand il a acheté un télé-
viseur est de 0, 4 et la probabilité qu’il achète un lecteur de DVD quand il n’a pas acheté
un téléviseur est de 0, 2. On définit les événements suivants :
T : « le client achète un téléviseur » et L : « le client achète un lecteur de DVD ».
1. Quelle est la probabilité pour qu’il achète un téléviseur et un lecteur de DVD ?
2. Quelle est la probabilité pour qu’il achète un lecteur de DVD ?
3. Le client achète un lecteur de DVD. Quelle est la probabilité qu’il achète un télé-
viseur ?
Ce qui traduit le fait que la réalisation de l’évènement A n’a aucune influence sur
celle de B à priori et réciproquement.
Exercice 2.4. Soient Ω = {1, 2, 3, 4, 5, 6}, P1 et P2 deux probabilités définies sur (Ω, P(Ω))
par :
10. Il est à noter que l’indépendance d’évènements est implicitement définit par rapport à une proba-
bilité car deux évènements peuvent être indépendants pour une certaine probabilité définie sur un espace
mesurable sans l’être pour une autre probabilité définie sur le même espace mesurable.
19
k 1 2 3 4 5 6
P1 ({k}) 1/6 1/6 1/3 1/9 1/9 1/9
P2 ({k}) 1/6 1/6 1/6 1/6 1/6 1/6
Exercice 2.5. On lance deux fois un dé cubique parfaitement équilibré. On considère les
évènements suivants :
A1 : ”le premier nombre obtenu est pair”
A2 : ”le deuxième nombre obtenu est impair”
A3 : ”la somme des deux nombres obtenus est pair”
1. Les évènements A1 , A2 , A3 sont-ils deux à deux indépendants ?
2. Les évènements A1 , A2 , A3 sont-ils mutuellement indépendants ?
20
Chapitre 3
Dans tout ce qui suit, on suppose que (Ω, F, P) est un espace probabilisé.
Remarque 3.1. Lorsque F = P(Ω), alors toute application défine de Ω dans R est une
variable aléatoire.
Proposition 3.1. Soit X :→ R une application et a, b deux réels. Alors les propriétés
suivantes sont équivalentes :
1. X est une variable aléatoire.
2. Pour tout intervalle I de R de la forme I =] − ∞, a], on a X −1 (I) ∈ F.
3. Pour tout intervalle I de R de la forme I =]a, b], on a X −1 (I) ∈ F.
4. Pour tout intervalle I de R de la forme I =]a, b[, on a X −1 (I) ∈ F.
5. Pour tout intervalle I de R de la forme I =] − ∞, a[, on a X −1 (I) ∈ F.
6. Pour tout intervalle I de R de la forme I = [a, +∞[, on a X −1 (I) ∈ F.
7. Pour tout intervalle I de R de la forme I =]a, +∞[, on a X −1 (I) ∈ F.
8. Pour tout intervalle I de R de la forme I =]a, b[, on a X −1 (I) ∈ F.
9. Pour tout intervalle I de R de la forme I = [a, b], on a X −1 (I) ∈ F.
1. Ici, l’ensemble R est muni de la tribu dite borélienne notée B(R), qui est la tribu engendrée par (i.e.
la plus petite au sens de l’inclusion contenant) l’ensemble des ouverts ou des fermés de R et la propriété
(3.1) traduit la mesurabilité de l’application X.
21
Démonstration. Exercice.
Définition et Notation 3.1. Soit X : Ω → R une variable aléatoire réelle. Alors pour
tout A ⊂ R, l’ensemble
{ω ∈ Ω/ X(ω) ∈ A} (3.2)
Exemple 3.1. Pour tout A ∈ F, la fonction indicatrice de A est une variable aléatoire
et on a :
1. L’espace fondamental est 1A (Ω) = {0, 1}.
2. On a les évènements suivants : [1A = 1] = A, [1A = 0] = Ac et [1A ∈ R] = Ω.
Démonstration. Exercice.
Corollaire 3.1.
1. Si X : Ω → R est une variable aléatoire réelle et f : R → R une application
continue alors l’application Y : Ω → R définie par Y := f ◦ X est une variable
aléatoire réelle qu’on note Y = f (X).
2. Si X et Y sont deux variables aléatoires sur (Ω, F) et a, b deux réels alors les
applications Z := max(X, Y ), T := min(X, Y ) et aX + bY sont aussi des variables
aléatoires.
22
3.2.1 Variable aléatoire réelle discrète
Définition 3.3 (Variable aléatoire discrète). On dit qu’une v.a.r. X : Ω → R est dis-
crète lorsque son espace fondamental X(Ω) est au plus dénombrable (fini ou dénombrable).
Dans ce cas, on peut écrire X(Ω) = {x1 , x2 , . . . xn , . . .} avec x1 < x2 < · · · < xn < · · · et
la loi de probabilité (ou simplement loi) de X est donnée pour tout I ⊂ R par :
X
pX (I) = P(X ∈ I) = P(X ∈ I ∩ X(Ω)) = P(X = x). (3.3)
x∈I∩X(Ω)
Remarque 3.2.
— Lorsque l’espace fondamental X(Ω) est fini, la variable aléatoire X est dite discrète
et finie. X
— Il est facile de vérifier que P(X = x) = 1.
x∈X(Ω)
— Dans la pratique, la loi de probabilité d’une v.a.r. discrète est la donnée de X(Ω)
et des réels pX ({x}) = P(X = x) i.e les couples (x, P(X = x))x∈X(Ω) .
Exemple 3.2. On lance trois fois de suite, une pièce de monnaie et on désigne par X la
variable aléatoire réelle égale au nombre de "tête" obtenu. La loi de probabilité de X est
donné par :
x 0 1 2 3
pX ({x}) 1/8 3/8 3/8 1/8
Remarque 3.3. Deux variables aléatoires peuvent avoir la même loi sans être égales.
On a ainsi, X
∀x ∈ R, FX (x) = P(X = xk ). (3.5)
xk ∈X(Ω)
xk ≤x
Théorème 3.1. La fonction de répartition FX d’une v.a.r. discrète X possède les pro-
priétés suivantes 3 .
1. FX à valeurs dans [0, 1] et croissante sur R.
3. Toute fonction définie sur R vérifiant les deux premiers points du théorème peut être considérée
comme fonction de répartition d’une certaine variable aléatoire réelle.
23
2. FX est continue à droite et admet une limite à gauche en tout point. De plus,
xk P(X = x).
X
mk (X) = (3.9)
x∈X(Ω)
Remarque 3.5. Une v.a.r. discrète et finie admet de moments de n’importe quel ordre
car la condition (3.8) est toujours vérifiée pour tout k ∈ N∗ .
Définition 3.6 (Espérance mathématique). L’espérance mathématique ou moyenne
d’une v.a.r. discrète X est égale au moment d’ordre 1 (lorsqu’il existe) notée E(X) et on
a: X
E(X) = xP(X = x). (3.10)
x∈X(Ω)
24
Notation 3.1. Le moment d’ordre k ∈ N∗ d’une v.a.r. X lorsqu’il existe peut désormais
se noter E(X k ) en lieu et place de mk (X).
Proposition 3.3. Soient X, Y deux v.a.r. discrètes sur (Ω, F, P) admettant chacune une
espérance mathématique et a, b deux réels.
1. Pour tout α ∈ R, on a E(α) = α.
2. E(aX + bY ) = aE(X) + bE(Y ) et en particulier, E(aX + b) = aE(X) + b.
Remarque 3.6. 5 Lorsqu’une v.a.r. admet une espérance nulle, on dit que la v.a.r. est
centrée.
Définition 3.7 (Variance et écart type). Soit X une v.a.r. discrète admettant un
moment d’ordre 2. Alors on appelle variance de X, le nombre réel positif ou nul noté
V (X) ou V ar(X) et défini par
La racine carrée de la variance est appelée écart type de la v.a.r. X et noté σ(X) ou σX .
Remarque 3.7. La variance est ainsi, la moyenne des carrés des écarts de X par rapport
à E(X). Elle mesure le caractère plus ou moins diffus, étalé de la v.a.r. X. Lorsqu’une
v.a.r. admet un écart type égal à 1, on dit que la v.a.r. est réduite.
Proposition 3.4. Soient X une v.a.r. discrète définie sur (Ω, F, P) admettant de variance
et a, b deux réels. Alors
1. V ar(X) = E(X 2 ) − (E(X))2 .
2. V ar(aX + b) = a2 V ar(X).
3. σ(aX + b) = |a|σ(X).
Exercice 3.2. Déterminer l’espérance mathématique et la variance de la v.a.r. définit
dans l’exercice précédent 6 .
Définition 3.8. Soient X et Y deux variables aléatoires réelles discrètes sur (Ω, F, P).
Elles sont dites indépendantes si et seulement si
25
Remarque 3.8. La notion d’indépendance peut se généraliser à une famille quelconque
de variables aléatoires discrètes définies sur le même espace.
Proposition 3.5. Soient X et Y deux v.a.r. discrètes sur (Ω, F, P) admettant chacune
une espérance mathématique. Si X et Y sont indépendantes alors
Démonstration. Exercice.
Proposition 3.6. Soient X et Y deux v.a.r. discrètes sur (Ω, F, P) admettant chacune
une variance. Si X et Y sont indépendantes alors
Démonstration. Exercice.
Remarque 3.9.
1. Il en résulte que pour tout x ∈ R, on a pX ({x}) = 0.
2. Une fonction réelle f est une densité ou densité de probabilité si :
(a) f est continue sur R sauf peut-être en un nombre fini de points,
(b) pour tout x ∈ R, f (x) ≥ 0 et
Z +∞
(c) f (t) dt = 1.
−∞
Définition 3.10. Soit X une v.a.r. admettant fX pour densité. Alors la fonction de
répartition FX de la v.a.r. X est définie sur R par :
Z x
∀x ∈ R, FX (x) = P(X ≤ x) = P(X ∈] − ∞, x]) = fX (t) dt. (3.18)
−∞
Notons que FX est continue sur R et FX0 (x) = fX (x) en tout point òu FX est dérivable.
Proposition 3.7. Soit X une variable aléatoire réelle admettant une densité notée fX .
On a :
26
1. pour tout a ∈ R, P(X = a) = 0.
2. pour tous réels a et b tels que a < b,
1 1
Exercice 3.3. On considère la fonction définie sur R par f (x) = . Montrer que
π 1 + x2
la fonction f peut être considérée comme la densité de probabilité d’une certaine variable
aléatoire réelle X et déterminer sa fonction de répartition.
Définition 3.13 (Variance et écart type). Soit X une v.a.r. de densité fX admettant
un moment d’ordre 2. Alors on appelle variance de X, le nombre réel positif ou nul noté
V (X) ou V ar(X) et défini par
Z
V ar(X) := E(|X − E(X)|2 ) = (t − E(X))2 fX (t) dt. (3.25)
R
La racine carrée de la variance est appelée écart type de la v.a.r. X et noté σ(X) ou σX .
Remarque 3.10.
— Les propriétés établies dans Proposition 3.3 et Proposition 3.4 pour une v.a.r. dis-
crète deumeurent vraies pour une v.a.r. à densité.
27
— Si une v.a.r. (quelle soit discrète ou à densité) n’admet pas d’espérance mathéma-
tique alors elle ne peut admettre de variance.
— A toute variable aléatoire X admettant une espérance mathématique m ∈ R et
un écart type σ > 0, on associe une variable aléatoire centrée réduite définit par
X −m
T := .
σ
Exercice 3.4. Déterminer, lorsqu’elle existe, l’espérance mathématique et la variance de
la v.a.r. définit dans l’exercice précédent.
Définition 3.14. Soient X et Y deux variables aléatoires réelles à densité définies sur
(Ω, F, P). Elles sont dites indépendantes si et seulement si pour tous x ∈ R et y ∈ R,
Proposition 3.8. Soient X et Y deux v.a.r. à densité sur (Ω, F, P) admettant chacune
une espérance mathématique. Si X et Y sont indépendantes alors
Démonstration. Exercice.
Proposition 3.9. Soient X et Y deux v.a.r. à densité sur (Ω, F, P) admettant chacune
une variance. Si X et Y sont indépendantes alors
Démonstration. Exercice.
V ar(X)
P(|X − E(X)| ≥ λ) ≤ (3.31)
λ2
ou en version équivalente
1
P(|X − E(X)| ≥ λσ) ≤ (3.32)
λ2
fX (h−1 (y))
fY (y) = 1∆ (y). (3.35)
|h0 (h−1 (y))|
Démonstration. En considérant φ : R → R une fonction continue bornée, on a
Z
E(φ(Y )) = E((φ ◦ h)(X)) = φ(h(x))fX (x)1D (x)dx
R
fX (h−1 (y))
fY (y) = 1∆ (y).
|h0 (h−1 (y))|
29
Exemple 3.3. Soit X une v.a.r. qui a pour densité, la fonction
(
1 si x ∈]0, 1[
fX (x) =
0 sinon.
1. On considère la fonction h : ]0, 1[→ R définie pour tout x ∈]0, 1[ par h(x) =
tan π(x − 21 ) et on cherche à déterminer la loi fY de probabilité de la variable
Y = h(X).
1 arctan(y)
Il est facile de vérifier que h est une bijection et ∀y ∈ R, h−1 (y) = + .
2 π
La densité de Y sécrit alors
1
∀y ∈ R, fY (y) = .
π(1 + y 2 )
1
2. Intéressons nous à la loi de la variable aléatoire Z = ln X
. Pour cela, considérons
1
la fonction h(x) = ln x
avec x ∈]0, 1[. On a bien Z = h(X) et on montre
facilement que la fonction h est une bijection de ]0, 1[ dans R∗+ avec pour tout
z ∈ R∗+ , h−1 (z) = e−z . Par suite, la fonction de densité de probabilité de Z est
alors
fZ (z) = e−z 1R∗+ (z).
MX : ]t1 , t2 [ −→ R
t 7−→ MX (t) = E etX
x −2 −1 0 1 2
pX ({x}) 1/5 1/5 1/5 1/5 1/5
1. Montrer que MX est défini sur R et calculer MX (t) pour tout nombre réel t.
2. En déduire E X k pour tout entier naturel non nul k.
f : R −→ R
x 7−→ f (x) = e−x 1]0;+∞[ (x).
Démonstration. Exercice.
31
Proposition 3.13 (Formule d’inversion). Si la fonction caratéristique ϕX d’une va-
riable aléatoire X est telle que
Z
|ϕX (t)| dt < +∞
R
Remarque 3.12. Chacune des fonctions génératrice des moments et caractéristique, ca-
ractérise de façon unique la loi de la variable aléatoire qui la définit. Autrement dit, deux
v.a.r. X et Y ont même loi si et seulement si elles ont la même fonction caractéristique.
Démonstration. Exercice.
32
Chapitre 4
34
Démonstration. Exercice.
Proposition 4.1. La variable aléatoire réelle X suit la loi géométrique G(p) avec 0 <
p < 1, si et seulement si, pour tous (m, n) ∈ N2 , la relation
Démonstration. En supposant que X suit la loi géométrique G(p) avec 0 < p < 1, on a
pour tous (m, n) ∈ N2 :
ψ(n + 1) = ψ(n)ψ(1)
= ψ(n − 1)ψ(1)2
= ψ(n − 2)ψ(1)3
..
.
= ψ(n − (n − 1))ψ(1)n
= ψ(1)n+1
ψ(n + 1) = an+1 , en posant a = ψ(1) ∈ R.
35
Par conséquent, ψ(n) = an et si FX désigne la fonction de répartition de X, alors
1 − FX (n) = P(X > n) = ψ(n) = an
et par suite, FX (n) = 1 − an . Puisque lim FX (n) = 1, on conclut que a ∈]0, 1[. En
n→+∞
renotant la constante a = 1 − p pour un certain p ∈]0, 1[, on a
F (n) = 1 − (1 − p)n .
Par ailleurs,
P(X = 1) = P(X ≤ 1) = FX (1) = p
P(X = 2) = FX (2) − FX (1) = p(1 − p)
P(X = 3) = FX (3) − FX (2) = p(1 − p)2
..
.
et de proche en proche, on démontre que P(X = n) = p(1 − p)n−1 d’où le résultat.
36
Théorème 4.4. Supposons que X Pa (k, p) avec p ∈ ]0, 1[ et k ∈ N∗ . Alors l’espérance
mathématique, la variance et la fonction génératrice des moments de X sont données par :
k
E(X) = (4.19)
p
k(1 − p)
V ar(X) = (4.20)
p2
!k
pet
∀t ∈] − ∞, − ln(1 − p)[, MX (t) = . (4.21)
1 − (1 − p)et
Démonstration. Exercice.
Définition 4.7. Soit p ∈]0, 1[ et soient n et N deux entiers naturels tels que n ≤ N et
N p ∈ N. On dit qu’une variable aléatoire réelle suit la loi hypergéométrique de paramètres
N , n et p que l’on note H(N, n, p) si X prend les valeurs entières k comprises entre
max(0, n − N + N p) et min(N p, n) avec les probabilités
n−k
{kN p × {N −N p
P(X = k) = n
. (4.23)
{N
Exercice 4.1.
E(X) = np (4.24)
N −n
V ar(X) = np(n − 1) . (4.25)
N −1
Démonstration. Exercice.
37
4.1.7 Loi de Poisson
Définition 4.8. Soit λ un réel strictement positif donné. On dit que la variable aléatoire
réelle X suit la loi de Poisson de paramètre λ et on note X P(λ) si elle peut prendre
toutes les valeurs entières k ∈ N avec la probabilité :
λk
pX ({k}) = P(X = k) = e−λ . (4.26)
k!
Exemple 4.6. Soit X une variable aléatoire réelle qui suit la loi de Poisson de paramètre
λ = 3. Alors on a :
Théorème 4.6. Supposons que X P(λ) avec λ > 0. Alors l’espérance mathématique,
la variance et la fonction génératrice des moments de X sont données par :
E(X) = λ (4.27)
V ar(X) = λ (4.28)
t
∀t ∈ R, MX (t) = eλ(e −1) . (4.29)
Démonstration. Exercice.
f: R → R
1
si x ∈ [a, b] (4.30)
b−a
x 7→ f (x) =
0 sinon.
38
Exemple 4.7. Soit X U([0, 1]) et supposons que X = 14 Y 2 où Y est une variable
aléatoire réelle. Alors, la fonction de répartition de Y est donnée pour tout y ∈ [0, 2] par :
FY (y) = P(Y ≤ y)
1 2 1 2
= P Y ≤ y
4 4
1 2
= P X≤ y
4
1 2
Z
4
y
= f (x) dx
0
1 2
FY (y) = y .
4
Ainsi, la fonction de densité de probabilité de Y s’écrit :
f: R → R
y
si y ∈ [0, 2]
2
y 7→ f (y) =
0 sinon.
Théorème 4.7. Supposons que X U([a, b]) avec a < b. Alors l’espérance mathéma-
tique, la variance et la fonction génératrice des moments de X sont données par :
b+a
E(X) = (4.31)
2
(b − a)2
V ar(X) = (4.32)
12
1 si t = 0
MX (t) = (4.33)
ebt − eat
si t 6= 0.
(b − a)t
Démonstration. Exercice.
39
Proposition 4.2.
1. Γ(1) = 1.
2. Pour tout z > 1, on a : Γ(z) = (z − 1)Γ(z − 1). En conséquence, pour tout entier
naturel n,
Γ(n + 1) = n! (4.35)
et Z +∞
xn e−x dx = n! (4.36)
0
1 √
3. Γ 2
= π.
Démonstration. Exercice.
• La loi Gamma
Définition 4.11. Soient θ et α deux nombres réels strictement positifs. On dit que la v.a.r.
X suit la loi Gamma de paramètres θ et α que l’on note X G(θ, α) ou X Γ(θ, α)
lorsque X admet pour fonction de densité, la fonction f définie par :
f: R → R
x (4.37)
1
xα−1 e− θ
(
Γ(α)θα
si x ≥ 0
x 7→ f (x) =
0 sinon.
Théorème 4.8. Supposons que X Γ(θ, α) avec θ > 0 et α > 0. Alors l’espérance
mathématique, la variance et la fonction génératrice des moments de X sont données
par :
E(X) = θα (4.38)
V ar(X) = θ2 α (4.39)
α
1 1
∀t ∈ −∞, , MX (t) = . (4.40)
θ 1 − θt
Démonstration. Exercice.
f: R → R
( (4.41)
θe−θx si x ≥ 0
x 7→ f (x) =
0 sinon.
40
Théorème 4.9. Supposons que X E(θ) avec θ > 0. Alors l’espérance mathématique 3 ,
la variance et la fonction génératrice des moments de X sont données par :
1
E(X) = (4.43)
θ
1
V ar(X) = 2 (4.44)
θ
θ
∀t ∈] − ∞, θ[, MX (t) = . (4.45)
θ−t
Démonstration. Facile à partir de Théoreme 4.8 et Remarque 4.4.
E(X) = m (4.48)
V ar(X) = σ 2 (4.49)
1 2 t2
∀t ∈ R, MX (t) = emt+ 2 σ . (4.50)
Démonstration. Exercice.
Théorème 4.11. Si X N (m, σ) avec m ∈ R et σ > 0 alors la variable aléatoire
T = X−mσ
N (0, 1). On dit que T suit la loi normale centrée réduite ou loi normale
standard.
3. Plus généralement, si X E(θ) alors pour tout n ≥ 1, on a :
Z +∞
Γ(n + 1) n!
E(X n ) = θxn e−θx dx = n
= n. (4.42)
0 θ θ
41
Démonstration. Soit FT la fonction de répartition de la variable aléatoire réelle T . On a :
Tous les calculs de probabilités concernant une variable aléatoire de loi N (m, σ)
peuvent se ramener à des calculs sur une variable de loi normale standard. La fonction de
répartition de la loi normale centrée réduite que nous notons Φ est tabulée pour des va-
leurs positives et tout le calcul de probabilités avec une variable aléatoire T de loi N (0, 1)
peut se faire à l’aide de la table de la loi normale standard et des propriétes suivantes :
Rappel 4.1. Soit T une variable aléatoire qui suit la loi normale centrée réduite et Φ sa
fonction de répartition.
1. Pour tout t ∈ R, on a Φ(t) = P(T ≤ t).
2. Pour tout t ∈ R, on a P(T = t) = 0.
3. Pour tous réels t1 et t2 , on a
Exercice 4.2.
1. Soit X N (0, 1). Quelle est la probabilité que X prenne des valeurs inférieures
ou égales à −1, 72 ?
2. Soit Y N (3, 4). Quelle est la probabilité que Y prenne des valeurs comprises
entre 4 et 8 ?
3. Soit Z N (25, 6). Quelle est la valeur qu’il faut donner à la constante c pour que
P(|Z − 25| < c) = 0, 9544 ?
42
Loi normale centrée réduite : Probabilité de trouver une valeur inférieure à t
u 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7290 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
2,0 0,9772 0,9779 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,99332 0,9934 0,9936
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
43
4.2.5 Approximation de lois classiques continues
44