Vous êtes sur la page 1sur 41

PROBABILITÉS L2, 2021 (PRINTEMPS)

C ONTENTS
1. Préliminaires au probabilités 2
1.1. Ensembles finis et ensembles dénombrables 2
1.2. Séries 4
1.3. Théorème de sommation par paquets 6
2. Espaces probabilisés et mesures 8
2.1. Le language des probabilités 8
2.2. Tribus et probabilités 9
2.3. Exemples basiques (lois usuelles) 11
2.4. Propriétés des mesures 13
2.5. Dénombrements élémentaires 14
3. Variables aléatoires 16
3.1. Fonctions mesurables 16
3.2. Loi d’une variable aléatoire réelle 16
3.3. Exemples 17
3.4. Variables aléatoires discrètes 18
4. Probabilités conditionnelles et indépendance 19
4.1. Probabilités conditionnelles 19
4.2. Indépendance (événements et variables aléatoires) 21
4.3. Exemples 22
5. Espérance 23
5.1. Motivation 23
5.2. Définition 24
5.3. Exemples 24
5.4. Propriétés de l’espérance 25
5.5. Espérance et indépendance 29
5.6. Inégalité de Tchebychev-Bienayme et loi faible des grands
nombres 32
5.7. Exercices 34

Cours 1
21 Janvier, 2021
Date: 2021.
1
2 PROBABILITÉS

Les démonstrations ne sont pas toujours complètes. Les démonstra-


tions complètes seront données en cours (ou TD).
On commence par des rappels et des préliminaires.

Certains exemples vont être traités dans des exercices pour TD.

1. P RÉLIMINAIRES AU PROBABILITÉS
1.1. Ensembles finis et ensembles dénombrables. Un ensemble est un
regroupement d’éléments. (On ne définit pas vraiment la notion d’ensemble.)
Par exemple, on note
N := {0, 1, 2, . . .}

N := N r {0} = {1, 2, . . .}
Z := {. . . , −2, −1, 0, 1, 2, . . .} et
A
P(A) := 2 := {B | B ⊂ A} (l’ensemble des parties de A).
Le symbole “∈”permet de noter l’appartenance à un ensemble. Par ex-
emple, “−2 ∈ Z”signifie “le nombre -2 est un élément de Z,” ou encore “-2
appartient à Z”.
Un ensemble est dit fini lorsqu’il possède un nombre fini d’éléments.
Sinon c’est un ensemble infini.
On formalise la définition d’un ensemble fini comme suit :

Définition 1.1 (Ensemble fini/infini). On dit qu’un ensemble A est fini si


A = ∅ ou s’il existe n ∈ N∗ et une application bijective
ϕ : IN := {1, 2, . . . , n} → A.
On dit alors que A a n éléments (l’ensemble vide a 0 élément). Si un en-
semble A n’est pas fini, on dit qu’il est infini.

Par exemple {1, 5, 3} est un ensemble fini à 3 éléments, ou encore, si n


est n’importe quel entier positif, l’ensemble {1, 2, ..., n} est un ensemble
fini à n éléments.
On note
card(A) = |A| = #(A) = n
le nombre d’éléments de l’ensemble A comme dessus (en bijection avec
{1, 2, . . . , n}). Si A est infinit, on pose
card(A) = |A| = #(A) = +∞.
Proposition 1.2. Soient A, A1 , A2 , . . . des ensembles.
(1) |A1 × A2 × . . . × AN | = |A1 | |A2 | . . . |AN |.
PROBABILITÉS 3

(2) |P(A)| = |2A | = 2|A| .

Corollaire 1.3. (1) Si les ensembles A, A1 , . . . , AN sont finis, alors les


ensembles
∪Nn=1 An := A1 ∪ A2 ∪ . . . ∪ AN ,
A1 × A2 × . . . × AN
et P(A)
sont finis.
(2) Si A est fini et f : A → B est surjective, alors B est fini.
(3) Si A est fini et B ⊂ A, alors B est fini.
(4) Si B est infini et B ⊂ A, alors A est infini.

Les ensembles N2 , Z, Q et R ne sont pas finis (ils sont infinis).

Définition 1.4 (Ensemble dénombrable). On dit qu’un ensemble A est dénom-


brable s’il existe une application bijective
ϕ : N := {0, 1, 2, . . .} → A.

Si A est un ensemble qui est dénombrable ou fini, on dit aussi qu’il est
au plus dénombrable. Tout ensemble dénombrable est infini.
Si A est un ensemble au plus dénombrable, on écrit souvent
(
A = {a0 , a1 , . . . , an , . . .} s’il est dénombrable
A = {a1 , . . . , an } s’il a n éléments.
(Par exemple, on pourrait choisir ak := ϕ(k), avec ϕ les bijections des
définitions.)
Nous allons utiliser souvent les ensembles dénombrables, qui ont les pro-
priétés suivantes :

Proposition 1.5. (1) Si les ensembles A0 , A1 , . . . sont dénombrables,


alors
∪n∈N := A0 ∪ A1 ∪ . . . et ∀k , A1 × A2 × . . . × Ak
sont dénombrables.
(2) Si A est dénombrable et f : A → B est surjective, alors B est au
plus dénombrable.
(3) N2 , Z et Q sont dénombrables.

Par contre, R n’est pas dénombrable. Aussi, si A est infini, alors P(A) =
A
2 n’est pas dénombrable (il n’est pas fini nonplus).
4 PROBABILITÉS

1.2. Séries.
PN
Définition 1.6 (Série convergente). Soit xn ∈ R, SN := k=0 xk =
x0 + x1 + . . . + xN la suite des sommes partielles et S ∈ [−∞, ∞]. Si
limN →∞ SN = S, on écrit
P
n∈N xn =P S (la série a la somme S) .
Si S ∈ R, on dit que la série n∈N xn converge.
P
Théorème 1.7 (Critère de Cauchy). La série n∈N xn converge ssi (si, et
seulement si)

∀ > 0, ∃N = N , ∀q ≥ p ≥ N, xp + xp+1 + . . . + xq < 
Pour q = p, on obtient.
P
Corollaire 1.8. La série n∈N xn converge ⇒ limp→+∞ xp = 0.

Proposition 1.9 (Séries à termes positives). Si ∀n ∈ N, xn ≥ 0, alors


P
• soit Pn∈N xn converge,
• soit n∈N xn = +∞.

Exemple 1.10.
(
X 1 < +∞ si α > 1
La série est
n≥1
nα = +∞ sinon.

Remarque 1.11. Pour α ∈]0, 1], on a limp→+∞ n1α = 0 mais la série


1
P
n≥1 nα ne converge pas (elle diverge). Donc la réciproque du dernier
corollaire n’est pas vraie.

Le critère de Cauchy a beaucoup d’autres conséquences importantes :

Théorème 1.12. Soit (xn )n∈N ∈ R.


P P
(1) Si n∈N |xn | < +∞, alors n∈N xn converge.
(Une telle série estPappelée absolumentPconvergente.)
Si ∀n, an ≥ |bn | et n∈N an converge ( n∈N an < +∞), alors
(2) P
n∈N bn converge absolument.
(3) Soit f : [0, +∞[→ [0, +∞[ une fonction decroissante. Alors
P R +∞
n∈N f (n) converge ssi 0
f (t)dt < +∞.
P P
k≥N xk est aussi une série, car = n∈N xn+N .
Quelques séries utiles :
PROBABILITÉS 5

1
= n∈N xn = 1 + x + x2 + x3 + . . . ,
P
(1) 1−x
|x| < 1 .
1
= k∈N (k + 1)xk = 1 + 2x + 3x2 + . . . ,
P
(2) (1−x)2
|x| < 1 .
n+1 2 3 4
− ln(1 − x) = n∈N xn+1 = x + x2 + x3 + x4 + . . . ,
P
(3) |x| < 1 .
n 2 3
ex = n∈N xn! = 1 + x + x2 + x6 + . . . ,
P
(4) x ∈ C.
x2n 2 4
cos x = n∈N (−1)n (2n)! = 1 − x2 + x24 − . . . ,
P
(5) x ∈ C.
n x2n+1 x3
P
(6) sin x = n∈N (−1) (2n+1)! = x − 6 + . . . , , x ∈ C.
(n! := 1 × 2 × . . . × n, mais 0! := 1.)

an xn pour |x| < R, alors f 0 (x) =


P
Proposition 1.13. Si f (x) = n∈NP
xn+1
et f (x)dx = C + n∈N ann+1
P n−1
R
n≥1 nan x .

P
Définition
P 1.14. On dit que la série n∈N bn est une permutation de la
série n∈N an s’il existe une bijection σ : N → N telle que bn = aσ(n) .

Par exemple, la série


P
n∈N bn = a1 + a0 + a3 + a2 + a5 + a4 + . . .
est une permutation de la série
P
n∈N an = a0 + a1 + a2 + a3 + a4 + a5 + . . .
avec (
n + 1 si n est pair
σ(n) :=
n − 1 si n est impair
(σ(0) = 1, σ(1) = 0, ... )
P P
Théorème 1.15. La série n∈N an converge absolument ( n∈N |an | <
+∞ ) ssi toutes ses permutations convergent.

P P
Corollaire 1.16. Si n∈N an converge absolument ou an ≥ 0 et n∈N bn
est une permutation de cette série, alors
P P
n∈N an = n∈N bn .

1
= 1+ 14 + 91 + 16
1 1 1
+ 19 + 36
1 1
P
Exemple 1.17. n≥1 n2 +. . . = 4
+1+ 16 + 25 +. . .

n
P
Définition 1.18 (Série alternée). Une série de la forme ± n∈N (−1) an
avec an ∈ [0, +∞[ est appelée une série alternée.

n
P
Théorème 1.19. Si an → 0 est decroissante, alors n∈N (−1) an con-
verge.
6 PROBABILITÉS

Exemple 1.20. La série


P (−1)n
n∈N n+1 = ln 2
converge, mais pas absolument, car
1
P
n∈N n+1 = +∞ (série harmonique).

1.3. Théorème de sommation par paquets. Soient


• I un ensemble dénombrable;
• σ : N → I une bijection;
• f : I → R.
P
Proposition 1.21 (Définition de i∈I f (i)). Supposons
• fP≥ 0;
• n∈N |f (σ(n))| < +∞.
P
Alors n∈N f (σ(n)) ne dépend pas de la bijection σ et on écrit
P P
i∈I f (i) := n∈N f (σ(n)) .

Cette proposition/définition
P s’étend d’une façon triviale au cas I fini et
on définit i∈∅ f (i) := 0.
Soient
• I un ensemble dénombrable ou fini;
• f : I → R.
P
Remarque 1.22. Si f ≥ 0, la somme P i∈I f (i) est définie dans [0, +∞].
C’est-à-dire qu’il est possible que i∈I f (i) = +∞.
P
Remarque 1.23. Donc, en general, i∈I |f (i)| ∈ [0, +∞] est définie. Si
P
i∈I |f (i)| < +∞,
P
alors la proposition donne que i∈I f (i) est aussi définie (ne dépend pas
du choix de la bijection σ).

Soient
• I un ensemble dénombrable et f : I → R;
• I = ∪n∈N In une partition dénombrable (donc les In sont deux à
deux disjoints et, de plus, on sait que chaque In est dénombrable ou
fini).

Théorème 1.24 (Théorème fort de sommation par paquets). Supposons


• fP≥ 0 ou
• i∈I |f (i)| < +∞.
PROBABILITÉS 7
P
Alors chaque somme i∈In f (i) est définie et
P P P 
i∈I f (i) = n∈N i∈In f (i) .

Cette proposition/définition s’étend d’une façon triviale au cas d’une par-


tition finie I = I1 ∪ I2 ∪ . . . ∪ IN .

Un résultat equivalent au théorème fort de sommation par paquets est le


théorème de Fubini. (On rappelle que N × N est dénombrable.)

Théorème 1.25 (Théorème de Fubini). Supposons f : N × N → R et


• fP≥ 0 ou
• (i,j)∈N×N |f (i, j)| < +∞.
P
Alors, pour chaque j ∈ N, la somme i∈N f (i, j) est définie et
P P P 
(i,j)∈N×N f (i, j) = j∈N i∈N f (i, j) .

On a donc
P P P  P P 
(i,j)∈N×N f (i, j) = j∈N i∈N f (i, j) = i∈N j∈N f (i, j)

Un cas particulier du théorème fort de sommation par paquets (pour In


finis) :

Théorème 1.26 (Théorème de sommation par paquets (ou tranches)). (1)


Si une série converge, alors toute série obtenue par regroupement
de termes consécutifs converge aussi vers la même limite.
(2) Si une série est positive, alors toute série obtenue par regroupement
de termes consécutifs est de même nature.

Exemple 1.27. Exemple de regroupement :


(a0 + a1 ) + (a2 + a3 + a4 ) + a5 + (a6 + . . . + a29 ) + . . .

Cours 2
28 Janvier, 2021
8 PROBABILITÉS

2. E SPACES PROBABILISÉS ET MESURES


2.1. Le language des probabilités. La théorie moderne des probabilités
nous fournit des modèles mathématiques basés sur la théorie des ensembles
qui nous permet l’étude d’expériences dont le résultat ne peut être prévu.

Exemple 2.1.
Expérience Résultats possibles Ω
1. Lancer d’une pièce r ∈ {‘pile’, ‘face’} = {P, F }
2. Lancer trois fois une pièce r ∈ {P, F }3
3. Lancer d’un dé un entier n ∈ {1, 2, . . . , 6}

Bien que le résultat précis de chacune de ces expériences soit imprévis-


ible, l’observation nous amènent à penser que ces phénomènes obéissent à
certaines lois. Par exemple si on jette 2000 fois une pièce, on s’attend à ce
que le nombre d’apparitions de ‘pile ’soit voisin de 1000.
Ça veut dire que la fréquence, ou la probabilité de l’événement “on a
obtenu pile” est 21 .

Définition 2.2 (Univers, événement, ... ). (1) L’ensemble Ω est appelé


univers ou ensemble total.
(2) Les éléments de Ω sont appelés envenements élémentaires.
(3) (Certains) parties de Ω sont appelés événements.

Seuls les événement ont un probabilité!

Exemple 2.3. Prenons le deuxième exemple (lancer 3 fois la même pièce).


Pour cet exemple, on a vu déjà que
Ω = {P, F }3 = {P P P, P P F, P F P, P F F, . . . , F F F }
Considérons l’événement A := {P P P, F F F }. L’événement A se produise
ssi on obtient trois fois d’affilée le même résultat (PPP ou FFF). Si la pièce
n’est pas truquée, la probabilité que l’événement A se produise est
card(A) 2 1
(1) P (A) = = = .
card(Ω) 8 4
Le fait que la pièce n’est pas trouquée, done que la probabilité (ou fréquence)
de chaque événement élementaire est la même (donc 81 ), d’où la formule (1)
(probabilité uniforme).

Remarque 2.4.
• L’ensemble des événements sera noté d’habitude M.
PROBABILITÉS 9

• Donc M = P(Ω) dans l’exemple 2.3.


• Dans notre cours (L2), presque toujours M = P(Ω).
• En général, l’ensemble des événements est une tribu.

2.2. Tribus et probabilités.


Définition 2.5 (Tribu, espace mesurable). Soit Ω un ensemble non-vide. On
dit qu’une partie M ⊂ P(Ω) est une tribu sur Ω (ou que la paire (Ω, M)
est un espace mesurable) si elle vérifie les propriétés suivantes :
(1) Ω ∈ M;
(2) ∀A ∈ M, on a Ac := Ω r A ∈ M; et
(3) Pour toute suite (An )n∈N ∈ M, on a
∪n∈N An = A0 ∪ A1 ∪ A2 ∪ . . . ∈ M.

Remarque 2.6. Si M est une tribu sur Ω, alors


∅ = Ωc := Ω r Ω ∈ M
d’après les premièrs deux axiomes. En fait, on peut remplacer la condition
(1) de la définition d’une tribu avec la condition :
(1’) ∅ ∈ M.

Exemple 2.7. (1) Pour nous, l’exemple le plus important est M = P(Ω)
(la tribu trivialle). Pour la tribu triviale, les conditions (axiomes)
de la définition d’une tribu, sont trivialement satisfaites.
(2) M0 := {∅, Ω} est aussi une tribu, appelée la tribu grossière. Elle
est contenue dans toute autre tribu sur Ω.

Les tribus seront étudiés en détail en L3, ici nous nous contentons de
donner certains de leurs propriétes :

Proposition 2.8. Soient Ω un ensemble non-vide et M ⊂ P(Ω) une tribu


sur Ω.
(1) Si A, B ∈ M, alors A r B ⊂ M.
Soit (An )n∈N ∈ M.
(2) ∩n∈N An = A0 ∩ A1 ∩ A2 ∩ . . . ∈ M.
(3) ∀N ∈ N, ∪N n=0 An = A0 ∪ A1 ∪ . . . ∪ AN ∈ M.
(4) ∀N ∈ N, ∩N n=0 An = A0 ∩ A1 ∩ . . . ∩ AN ∈ M. (Exercice TD)

(Preuve: cours.)
Dans la suite, Ω sera toujours un ensemble non vide et M = P(Ω) (à
l’exception du cas de la mesure de Lebesgue).
10 PROBABILITÉS

Définition 2.9 (Mesure, probabilité, espace probabilisé). Soit (Ω, M) un


espace mesurable. Une mesure µ sur (Ω, M) est une application
µ : M → [0, +∞] = [0, +∞[∪{+∞} = R+
qui satisfait les conditions suivantes :
(1) µ(∅) = 0.
(2) (σ-additivité) ∀(An )n∈N ∈ M, deux à deux disjoints, on a
P
µ(∪n∈N An ) = n∈N µ(An ) .
On dit aussi que (Ω, M, µ) est un espace mesuré.
Si µ(Ω) = 1 on dit que µ est une probabilité et que (Ω, M, µ) est un
espace probabilisé.

Un exemple très important est la mesure (ou masse) de Dirac.

Définition 2.10 (Mesure de Dirac). Soit a ∈ Ω. L’application δa : P(Ω) →


{0, 1} (
1 si a ∈ A
δa (A) :=
0 sinon
est appelée mesure (ou masse) de Dirac en a.

Proposition 2.11. La masse de Dirac δa est une probabilité.

(Preuve: cours.)

Proposition 2.12 (Exemple fondamental). Soient Ω un ensemble dénom-


brable ou fini.
(1) Toute fonction p : Ω → [0, ∞] (appelée fonction poids) définit
alors une mesure µp : P(Ω) → [0, +∞],
P
µp (A) := a∈A p(a) .
(2) Chaque mesure µ sur (Ω, P(Ω)) est de ce type, avec p uniquement
déterminée par
p(ω) = µ({ω}).

Remarque 2.13. La somme est définié car A est aussi au plus dénombrable,
comme partie d’un ensemble au plus dénombrable.

(Preuve: cours.)

Cours 3
4 Février, 2021
PROBABILITÉS 11

2.3. Exemples basiques (lois usuelles).


Une (mesure de) probabilité est aussi appelée une loi (de probabilité)
ou, encore, mesure de probabilité.

Exemple 2.14 (Loi uniforme). Soit Ω un ensemble fini. La probabilité (ou


loi) uniforme sur Ω est donnée par Punif : P(Ω) → [0, 1],
card(A)
Punif (A) := card(Ω)
.
• Les probabilités de tous les événements élémentaires sont donc les
mêmes. (La fonction poids est constante.)
• Les exemples de la pièce et du dé non truqués suivent des lois
uniformes.
• C’est le cas des probabilités classiques étudiées au lycée (elles re-
posent sur les dénombrements).
• Cette loi c’est l’unique loi qui correspond à une fonction poids con-
stante sur Ω.

Exemple 2.15 (Loi binomiale de paramètre (n, p)). Soient Ω := {0, 1, . . . , n}


et p ∈ [0, 1]. La loi binomiale B(n, p) de paramètre (n, p) est la lois asso-
ciée à la fonction poids
p(k) := nk pk (1 − p)n−k .


Donc, pour A ⊂ Ω,
n k
P  n−k
B(n, p)(A) := k∈A k p (1 − p) .
On vérifie que B(n, p)(Ω) = 1 (cours).
Le nombre de fois on obtien F (‘Face’) dans l’exemple 3. (lancer trois
fois une pièce non trouquée) suit la loi B(3, 21 ).

Exemple 2.16 (Loi de Bernoulli de paramètre p). Soient Ω := {0, 1} et


p ∈ [0, 1]. La loi binomiale B(1, p) est aussi appelée la loi de Bernoulli de
paramètre p. Elle satisfait au

1 − p si k = 0

B(1, p)({k}) = p si k = 1

0 sinon.
Lancer une pièce trouquée suit la loi de Bernoulli où p est la probabilité
d’obtenir ‘Face’ = 1.
(On verra que la somme obtenu en lanceant n fois un pièce trouquée suit
la loi binomiale B(n, p).)
12 PROBABILITÉS

Exemple 2.17 (Loi de Poisson). La loi de Posson de paramètre λ > 0 est


la mesure de probabilité Pλ : P(N) → [0, 1] associée à la fonction poids
λk −λ
pP oisson (k) := k!
e .

Exemple 2.18 (Loi gémétrique (discrète)). La loi gémétrique (discrète) de


paramètre p ∈]0, 1] est la mesure de probabilité Gp : P(N∗ ) → [0, +∞]
associée à la fonction poids
pgeom (k) := p(1 − p)k−1 .

Lemme 2.19. Montrer que la mesure µp associée à la fonction poids p :


Ω → [0, +∞] est une mesure de probabilité ssi
P
ω∈Ω p(ω) = 1.
P
Preuve: On a µp (Ω) := ω∈Ω p(ω) (détails cours ... )

Exercice (DM) 1. Montrer que les mesures :


(a) Punif (loi uniforme);
(b) B(n, p) (loi binomiale de paramètres (n, p)); (Exercice TD)
(c) Pλ (loi de Poisson de paramètre λ > 0) (Exercice cours); et
(d) Gp (loi géométrique de paramètre p ∈]0, 1]). (Exercice TD)
sont des mesures de probabilité.

Remarque 2.20. On peut considérer les quatre exemples des lois usuelles
(uniforme, binomiale, géométrique ou de Poisson) comme des lois (ou mesures,
ou probabilités) sur R. On a alors que ces lois s’annulent en dehors de
leur ensemble de définition. Donc la loi uniforme Punif sur Ω est telle que
Punif (A) = 0 is A ∩ Ω = ∅. Pareillement,
(a) B(n, p)(A) = 0 si A ∩ {0, 1, . . . , n} = ∅,
(b) Gp (A) = 0 si A ∩ N∗ = A ∩ {1, 2, 3, . . .} = ∅,
(c) Pλ (A) = 0 si A ∩ N = A ∩ {0, 1, 2, 3, . . .} = ∅.

Définition 2.21 (Somme des mesures). Soient


P µn : M → [0, +∞] des
mesures et (an )n∈N > 0. On définit µ := n∈N an µn par :
P
µ(A) := n∈N an µn (A) .

P
Exercice (DM) 2. Montrer que µp = ω∈Ω p(ω)δω . En déduire que :
(a) Le mesure δaP
correspond à p = 1{a} . (Exercice TD)
1
(b) Punif = |Ω| ω∈Ω δω .
PROBABILITÉS 13
Pn n k
 n−k
(c) B(n, p) = k=0 k p (1 − p) δk . (Exercice TD)
P+∞ −λ λk
(d) Pλ = k=0 e δ . (Exercice cours)
n! k
P+∞ k−1
(e) Gp = k=1 p(1 − p) δk .

Exemple 2.22 (Mesure de comptage). La mesure de comptage µcompt :


P(A) → [0, +∞] est :
µcompt (A) := card(A).
Elle correspond à la fonction poids constante = 1.

µcompt n’est pas une probabilité (sauf le cas card(Ω) = 1).

Exemple 2.23 (Mesure de Lebesgue). Il existe une plus petite tribu, notée
B(R) qui contient les intervalles ]a, b[ et une mesure λ : B(R) → [0, +∞]
telle que λ(]a, b[) = b − a et λ(x + A) = λ(A). Par contre, il n’existe pas
d’extension de λ à P(R) avec ces propriétés. Si I ⊂ R est un intervalle, on
note
B(I) := {A | A ⊂ I, A ∈ B(R)} .
La restriction de λ à B(I) est toujours une mesure, appelée la restriction de
la mesure de Lebesgue à I, ou, simplement, la mesure de Lebesgue sur I.

2.4. Propriétés des mesures.


Théorème 2.24. Soit (Ω, M, µ) un espace mesuré.
(1) Si A0 , A1 , A2 , . . . , An ∈ M sont deux à deux disjoints, alors
µ(A0 ∪A1 ∪A2 ∪. . .∪An ) = µ(A0 )+µ(A1 )+µ(A2 )+. . .+µ(An ).
(2) En particulier, si A, B ∈ M et B ⊂ A, alors
A r B ∈ M et µ(A r B) = µ(A) − µ(B).
En particulier, µ(B) ≤ µ(A).
(3) Si A, B ∈ M, alors µ(A ∪ B) = µ(A) + µ(B) − µ(A ∩ B).
(4) Soit (An )n∈N ∈ M, alors
P
µ(∪n∈N An ) ≤ n∈N µ(An ).
(5) Soit (An )n∈N ∈ M croissante (∀n ∈ N, An ⊂ An+1 ), alors
µ(∪n∈N An ) = limn→∞ µ(An ).
(6) Soit (An )n∈N ∈ M décroissante (∀n ∈ N, An ⊃ An+1 ) telle que
µ(A0 ) < +∞, alors
µ(∩n∈N An ) = limn→∞ µ(An ).

Démonstration. (Esquise, détails en cours ou TD, demandée pour CC2).


14 PROBABILITÉS

(1) On prend An+1 = An+2 = . . . = ∅ et on utilise la σ-additivité de µ.

(2) On prend dans (1) n = 1 et A0 = B, A1 = A r B.


(3) C’est un conséquence de (1) et (2) pour A, B r (A ∩ B) et A ∩ B ⊂
B.
(4) Soit B0 = A0 et, pour n ≥ 1, Bn := An r (∪n−1 k=0 Ak ). On utilise
alors la σ-additivité de µ pour la suite (Bn )n∈N .
(5) On utilise la même suite (Bn )n∈N et on écrit µ(An ) = µ(B0 ) +
µ(B1 ) + . . . + µ(Bn ).
(6) On utilise (5) pour la suite croissante Cn := A0 r An .

2.5. Dénombrements élémentaires. Le cas des probabilités classiques est


donné par la (les) lois uniformes : c-à-d : M := P(Ω) et Punif : P(Ω) →
[0, 1] est
|A|
Punif (A) := |Ω|
.

Pour utiliser les probabilités (lois) uniformes, il faut donc calculer des
cardinaux
card(A) = |A|
des divers ensembles A. Ceci est le but de cette partie du cours.
Par exemple, on rappelle que
(1) |A1 × A2 × . . . × An | = |A1 ||A2 | . . . |An | et
(2) |P(Ω)| = 2|Ω| .
Dans la suite, E sera un ensemble contenant n éléments et k ∈ {0, 1, . . . , n}.

Exemple 2.25 (Arrangements de k éléments parmi n). On note Ak (E)


l’ensemble des k-uplets formés d’éléments de E sans répétition. Par ex-
emple, si E = {0, 1, a}, a 6= 0, 1, alors

A1 (E) = (0), (1), (a) et

A2 (E) = (0, 1), (1, 0), (0, a), (a, 0), (1, a), (a, 1) ,
Il y a n choix pour le premier element d’un tel arrangement. Après, ils
restent (n − 1) choix pour le deuxième element d’un tel arrangement. Pour
le k-ème élément d’un tel arrangement, ils restent alors (n − k + 1) choix.
Le nombre Akn des arrangements de k éléments parmi n est donc
n!
Akn = |Ak (E)| = n(n − 1)(n − 2) . . . (n − k + 1) = (n−k)! .
PROBABILITÉS 15

Exemple 2.26 (Permutations d’un ensemble à n éléments). Une permuta-


tion de E sera noté S(E). C’est un arrangement de n éléments parmi les
n éléments de E (car E a été supposé à n éléments). Le nombre pn des
permutations d’un ensemble à n éléments est donc
pn := Ann = n! 0!
= n! .
Par exemple
S({0, 1, 2}) = {(012), (021), (102), (120), (201), (210)}
a 6 = 3! éléments. Si une ordre E = {e1 , e2 , . . . , en } a été choisi parmi les
éléments de E, alors S(A) est l’ensemble des bijections σ : {1, 2, . . . n} →
{1, 2, . . . n}, car toute permutation de E sera de la forme
(eσ(1) , eσ(2) , eσ(3) , . . . , eσ(n) ) .

Exemple 2.27 (Nombre des combinaisons de k éléments parmi n). Soit


toujours E un ensemble à n éléments et k ∈ {0, 1, . . . , n}.
On note Pk (E) l’ensemble des parties de E contenant k éléments. Par
exemple, pour tout ensemble E, on a
 
P0 (E) = ∅ et P|E| (E) = E et
si E = {0, 1, a}, a 6= 0, 1, alors
 
P1 (E) = {0}, {1}, {a} et P2 (E) = {0, 1}, {0, a}, {1, a} .
On a alors
k
|Pk (E)| = nk = Apkn = k!(n−k)!
n!


qui est le nombre des combinaisons de k éléments parmi n.

Exercice cours 2.28. Une course oppose n concurrents, dont Émile. Cal-
culer la probabilité qu’Émile remporte la médaille d’or.
Solution. (Détails en TD.) Soit E l’ensemble des concurrents, qu’on va
identifier avec {1, 2, . . . , n}, dont Émile sera identifié avec 1. Donc |E| =
n. On suppose que tous les ordres finaux entre les concurrents sont possibles
et qu’elles ont la même probabilité. (Donc on a la loi uniforme.)
L’univers est donc Ω = S(E) et a n! éléments (évén. élém.).
Soit A l’événement “Émile remporte la médaille d’or”. Donc A corre-
spond aux permutations de E qui commencent avec 1. Le nombre de tels
permutations est le nombre des permutations de E r {1}, c-à-d (n − 1)!.
La probabilité que Émile remporte la médaille d’or est donc
por = |A|
|Ω|
= (n−1)!
n!
= n1 .

n−1 n−1 n
  
Exercice (DM) 3. (a) k−1
+ k
= k
.
16 PROBABILITÉS

n n n n n
    
(b) k
= n−k
, 1
= n, 0
= n
= 1.

Cours 4
11 Février, 2021

3. VARIABLES ALÉATOIRES
3.1. Fonctions mesurables.
Définition 3.1 (Fonction mesurable). Soient (Ω, M) et (Ω0 , M0 ) deux es-
paces mesurables. On dit que l’applications f : Ω → Ω0 soit (Ω, M) −
(Ω0 , M0 ) mesurable si
∀A0 ∈ M0 , f −1 (A0 ) ∈ M .

Nous allons d’habitude dire simplement que f est mesurable.

Lemme 3.2. Si M0 = P(Ω0 ), alors toute application f : Ω → Ω0 est


mesurable.

Définition 3.3 (Variable aléatoire réelle (VAR)). Soient (Ω, M) un espace


probabilisé. On dit que l’applications X : Ω → R est un variable aléatoire
réelle (VAR) (sur Ω) si
∀a ∈ R , f −1 (] − ∞, a[) ∈ M .

Remarque 3.4. On vera en L3 que X : Ω → R est une variable aléatoire


réelle ssi elle est (Ω, M) − (R, B(R)) mesurable (voir ex. Lebesgue).

3.2. Loi d’une variable aléatoire réelle.


Définition 3.5 (Loi d’une VAR). Soient (Ω, M, P ) un espace probabilisé et
X : Ω → R une VAR. L’application PX : B(R) → [0, 1]
PX (A) := P (X −1 (A))
est appelée loi de X.

Proposition 3.6. La loi de X est une mesure PX sur (R, B(R)).

(Preuve: cours.)
PROBABILITÉS 17

3.3. Exemples. Intuitivement, une variable aléatoire est un nombre réel


aléatoire, c’est-à-dire dont la valeur dépend du résultat d’une expérience
probabiliste (résultat n’est pas connu d’avance).

Exemple 3.7. Considerons encore une fois le deuxième exemple (lancer 3


fois la même pièce). On rappelle que Ω = {P, F }3 . L’aplication X : Ω →
{0, 1, 2, 3} ⊂ R
X(ω) := le nombre de fois qu’on a obtenu F
est une variable aléatoire. Si la pièce n’est pas trouquée,
PX = 81 δ0 + 3δ1 + 3δ2 + δ3 .


(Preuve: cours.)

Définition 3.8 (Fonction de répartition). Soient (Ω, M, µ) un espace prob-


abilisé et X : Ω → R une VAR. L’application FX : R → [0, 1]
FX (A) := P (X −1 (] − ∞, a])) = PX (] − ∞, a])
est appelée fonction de répartition de X.
Proposition 3.9. La fonction de répartition FX de X satisfait :
(1) FX est croissante sur R.
(2) ∀a ∈ R , limx→a,x>a FX (t) = FX (a) (continue à droite).
(3) limx→−∞ FX (t) = 0 et limx→+∞ FX (t) = 1.
(4) On a limx→a,x>a FX (t) − limx→a,x<a FX (t) = PX ({a}).
On note DX := {a ∈ R | PX ({a}) = P (X = a) 6= 0} l’ensemble
des points de discontinuité de FX . L’ensemble DX est appelé le support
discret de X.

Remarque 3.10.
• Nous nous intéressons à la fonction de répartition de X car elle
détermine la loi de X.
• À son tour, nous nous intéressons à la loi de X car la plupart des
quantités intéressantes associées à X peuvent être calculées en util-
isant uniquement la loi de X.
• X : (Ω, M, µ) → R et Y := id : (R, B(R), PX ) → R ont la même
loi : PY = PX .

Notation 3.11. Soit (Ω, M, P ) un espace probabilisé et X : Ω → R une


VAR.
∀A ∈ B(R) , P (X ∈ A) := P (X −1 (A)) =: PX (A).
Si A = {a}, P (X = a) = P (X ∈ {a}) = P (X −1 ({a}) =: PX ({a}) .
18 PROBABILITÉS

Cours 5
4 Mars, 2021

3.4. Variables aléatoires discrètes.


Proposition 3.12. Pour toute variable aléatoire réelle, l’ensemble
DX := {a ∈ R | P (X = a) > 0}
(le support discret de X) est dénombrable ou fini.

(Preuve: cours.)

Définition 3.13 (Variable aléatoire réelle discrète). Une VAR X : Ω → R


est dite discrète s’il existe un ensemble au plus dénombrable D ⊂ R, tel
que P (X ∈ / D) = PX (R r D) = 0.

Proposition 3.14. Soit X : Ω → R une variable aléatoire réelle (VAR).


Alors les propositions suivantes sont equivalentes.
(1) X est une VAR discrète.
(2) Il existe D ⊂ R au plus dénombrable tel que
P (X ∈/ D) := PX (R r D) = 0.
(3) Il existe D ⊂ R au plus dénombrable tel que
P
PX = a∈D P (X = a)δa .
P
(4) PX = a∈DX P (X = a)δa .
P
(5) P (DX ) = a∈DX P (X = a) = 1.
(6) P (X ∈ / DX ) = 0.

(Preuve: cours.) Pour le CC2, seuls les équivalences (1) ⇔ (2) ⇔ (3)
⇔ (4) sont demandées.

Exercice (DM) 4. Montrer (4) ⇒ (5) ⇒ (6) ⇒ (2). (Les dernières deux
implications sont triviales.)

Remarque 3.15. Une mesure P µ : P(Ω) → [0, +∞] est appelée discrète si
elle est de la forme µ = n ∈]0, +∞] et ωn ∈ Ω, c-à-d
n∈N an δωn , aP
∀A ⊂ Ω , µ(A) = n∈N an δωn (A) .
Donc les lois Punif , B(n, p), Pλ et Gp sont discrètes.

Définition 3.16. Si X est une VAR et P est une mesure de probabilité telle
que, PX = P , on dit que X suit la loi P .
PROBABILITÉS 19

Une VAR est donc discrète ssi elle suit une loi discrète.

Exercice (TD) 1. Si P est un probabilité discrete sur R, alors la VAR iden-


tique Y (t) = t est une VAR discrète Y : (R, P(R), P ) → R, qui suit la loi
PY = P .

Exemple 3.17. On lance deux dés. Soit X la valeur de la somme de ces


deux dés. Trouver la loi de X.
R:
1
PX = 36 (δ2 + 2δ3 + 3δ4 + 4δ5 + 5δ6 + 6δ7 + 5δ8 + 4δ9 + 3δ10 + 2δ11 + δ12 ) .

Exemple 3.18. On procède à n jets consécutifs d’une pièce de monnaie


parfaite. On note Ω = {0, 1}n (‘Pile’ = 0, ‘Face’ = 1). Soit X la somme
des valeurs (le nombre de fois qu’on a obtenu ‘Face’). Montrer que X suit
la loi B(n, p) (la loi binomiale de paramètres (n, p)).

Exercice (TD) 2. Même question si la probabilité d’obtenir face est p ∈


[0, 1]. (R: B(n, p).)

Preuve que DX est dénombrable.

Exemple 3.19. Trouver la fonction de répartition de la loi de Bernoulli de


paramètre p ∈ [0, 1], (1 − p)δ0 + pδ1 , et esquisser son graphe.

4. P ROBABILITÉS CONDITIONNELLES ET INDÉPENDANCE


4.1. Probabilités conditionnelles. On note, comme d’habitude avec (Ω, M, P )
un éspace probabilisé (= un triplet fondamental, c-à-d : M est une tribu sur
Ω et P : M → [0, 1] est une mesure de probablité).

Définition 4.1. Soit B ∈ M tel que P (B) > 0. La la probabilité condi-


tionnelle de A sachant B est, par définition,
P (A ∩ B)
P (A|B) := .
P (B)

Proposition 4.2. Soit B ∈ M et MB := {A ∈ M | A ⊂ B}.


(1) MB est une tribu sur B.
(2) Si P (B) > 0, alors PB : MB → [0, 1], PB (A) := P (A|B) est
une mesure sur MB . Par conséquant, (B, MB , PB ) est un espace
probabilisé.
20 PROBABILITÉS

(Preuve: cours.)

Proposition 4.3 (Formule des probabilités totales). Supposons que Ω =


∪n∈N Bn et que les ensembles Bn ∈ M sont deux à deux disjoints. Alors
X
P (A) = P (A|Bn )P (Bn ) ,
n∈N

avec la convention que, dans cette somme, on remplace P (A|Bn )P (Bn )


avec 0 si P (Bn ) = 0 (lorsque P (A|Bn ) n’est pas définit).

(Preuve: cours et demandée pour CC.)

Corollaire 4.4 (Formule des probabilités totales, cas d’une partition finie).
Supposons que Ω = ∪N n=1 Bn , N ∈ N, et que les ensembles Bn ∈ M sont
deux à deux disjoints. Alors
N
X
P (A) = P (A|Bn )P (Bn ) ,
n=1

avec la convention que, dans cette somme aussi, on remplace P (A|Bn )P (Bn )
avec 0, dès que P (Bn ) = 0.

(Preuve: cours.)

Cours 6
18 Mars, 2021

Exemple 4.5. Un lot de 100 dés contient 25 dés pipés dont la proabilité de
sortie du 6 est 21 Un dé est chosi au hasard et lancé.
(1) Quelle est la probabilité d’obtenir 6?
(2) Si on obtien 6, quelle est la probabilité qu’il soit pipé?

Solution. On considère
• B1 = l’événement “le dé est pipé”;
• B2 = l’événement “le dé n’est pas pipé”;
• A = l’événement “le dé a donné 6”.
(Plus de détails en cours).

Proposition 4.6 (Formule de Bayes). Si de plus P (A) > 0, alors


P (A|B1 )P (B1 ) P (A|B1 )P (B1 )
P (B1 |A) = = PN
P (A) n=1 P (A|Bn )P (Bn )
PROBABILITÉS 21

(Preuve: cours.)
Faire le dernier exemple avec la formule de Bayes.

Exemple 4.7. On considère un test pour SIDA. Soient les evenements


M = “l’homme est malade”
T = “le test est positif”
On sait P (T | M ) = 0, 99, P (T | M c ) = 10−3 et P (M ) = 10−4 . Calculer
qu’un homme soit malade si son test est positif (P (M | T )).

Exemple 4.8. On considère une famille de deux enfants.


(a) Quelle est la probabilité que le cadet soit une fille, sachant que l’ainé
est un garçon?
(b) Sachant que l’un des deux enfants et un garçon, quelle est la probabilité
que l’autre soit une fille?

4.2. Indépendance (événements et variables aléatoires).


Définition 4.9 (Événements indépendants). Deux événements A, B ∈ M
sont dits indépendants si
P (A ∩ B) = P (A)P (B) .

Remarque 4.10. Supposons que P (B) 6= 0. Alors A et B sont indépen-


dants ssi P (A) = P (A|B).

Une notion plus générale pour plusieurs événements est la suivante.

Définition 4.11 (Événements mutuellement indépendants). Les événements


An ∈ M, n = 1, 2, . . . , N , sont dits mutuellement indépendants si, pour
tout choix d’indices 1 ≤ i1 < i2 < . . . < ik ≤ N , on a
P (Ai1 ∩ Ai2 ∩ . . . ∩ Aik ) = P (Ai1 )P (Ai2 ) . . . P (Aik ) .

La notion analogue pour deux variables aléatoires réelles est la suivante.

Définition 4.12 (VAR indépendantes). Les variables


` aléatoires réelles X et
Y sont appelées indépendantes (on écrit X Y ) si
∀A, B ∈ B(R) , P (X ∈ A et Y ∈ B) = P (X ∈ A)P (Y ∈ B) .
(Une formulation équivalente est : “∀A, B ∈ B(R), les événements X −1 (A)
et Y −1 (B) sont indépendants”.)
22 PROBABILITÉS

Cours 7
30 Mars, 2021

Comme d’habitude, le cas des VARD (variables aléatoires réelles dis-


crètes) est plus facile.

Proposition 4.13. Soient X, Y : Ω → R deux VAR discrètes (VARD). Les


propositions suivantes sont équivalentes :
(1) X et Y sont indépendantes.
(2) ∀a, b ∈ R , P (X = a et Y = b) = P (X = a)P (Y = b) .
(3) Pour tous a ∈ DX et b ∈ DY , on a
P (X = a et Y = b) = P (X = a)P (Y = b) .

Démonstration. (Esquise, détails en cours, demandée CC) Pour (1) ⇒


(2) on prend A = {a} et B = {b} dans la définition des variables aléa-
toires. L’implication (2) ⇒ (3) est triviale (car (3) est un cas particulier
de (2)). Pour montrer (3) ⇒ (1), considérons des sous-ensembles A =
{a0 , a1 , a2 , . . .} ⊂ DX et B = {b0 , b1 , b2 , . . .} ⊂ DY . Alors on a
{X ∈ A et Y ∈ B} = ∪i,j∈N {X = ai } ∩ {Y = bj } ,
qui est une réunion disjointe, donc on peut utiliser la σ-additivité de la
mesure.
Une notion plus générale pour plusieurs VARs est la suivante.

Définition 4.14 (VAR mutuellement indépendantes). Les variables aléa-


toires Xn : Ω → R, n = 1, 2, . . . , N , sont dites mutuellement indépen-
dantes si, pour tout choix A1 , A2 , . . . , AN ∈ B(R), on a
P (X1 ∈ A1 et X2 ∈ A2 et . . . et XN ∈ AN )
= P (X1 ∈ A1 )P (X2 ∈ A2 ) . . . P (XN ∈ AN ) .

4.3. Exemples.
Exemple 4.15. Soit Ω := {1, 2, 3, 4} munie de la probabilité uniforme et
A = {1, 2}, B = {2, 3} et C = {1, 3}. Montrer que ces événements sont 2
à 2 indépendants mais qu’ils ne sont pas mutuellement indépendants.

`
Exemple 4.16. Soient X Y deux VAR (donc indépendantes) telles que
X suit la loi de Bernoulli de paramètre p et Y suit la loi de Bernoulli de
paramère q (p, q ∈ [0, 1]). Trouver les lois de X + Y et XY .
PROBABILITÉS 23
`
Exercice cours 4.17. Soient X Y deux VAR telles que X suivent des loi
de Poisson de paramètres λ > 0 et, respectivement, µ > 0. Montrer que
X + Y suit une loi de Poisson de paramètre λ + µ.

`
Exercice (TD) 3. De même (trouver la loi de X + Y si X Y et
(1) X suit la loi binomiale de paramètre (n, p) et Y suit la loi binomiale
de paramètre (k, p).
(2) X suit la loi géométrique discrète de paramètre p1 et Y suit la loi
géométrique discrète de paramètre p2 .

Cours 8
1 Avril, 2021

Exercice cours 4.18. Une urne contient 10 boules numérotées de 1 à 10.


On en tire n en effectuant des tirages avec remise. On note X et Y le plus
petit et le plus grand des nombres obtenus. Déterminer la loi de X et la loi
de Y .

Solution. Soit Ik := {1, 2, . . . , k}. On a


n
Ω = I10 , {X ≤ k} = Ikn et
{X = k} = {X ≤ k} r {X ≤ k − 1} .
La probabilité est la probabilité uniforme sur Ω. Donc
|{X = k}| k n − (k − 1)n
P (X = k) = = .
|Ω| 10n
On a X ∈ {1, 2, . . . , 10} =: I10 = DX . Par conséquant :
10
X X k n − (k − 1)n
P (X = k) = P (X = k)δk = δk .
k∈DX k=1
10n


5. E SPÉRANCE
5.1. Motivation. Fréquence, moyen, gain moyen, ...
L’espérance d’une VAR donne la valeur que prend X en moyenne. C’est
la valeur de X qu’on peut espérer obtenir.
24 PROBABILITÉS

5.2. Définition.
Définition 5.1 (Espérance d’une VARD). Soit X une VARD. On définit son
espérance E[X] par
X X
E[X] := P (X = a)a = PX ({a})a .
a∈DX a∈DX

Remarques 5.2.
• Donc pour une VARD, on définit l’espérance (mathématique) d’une
variable aléatoire comme étant la somme des produits des valeurs
d’une variable aléatoire par leur probabilité.
• La variance n’est pas toujours définie.
• Notre définition de l’espérance E[X] d’une VARD est valable seule-
ment pour les VAR discrètes. On a une autre définition en général
(pour les VAR non-discrètes) et alors notre définition devient un
théorème du cours de L3.
• L’espérance E[X] d’une VARD depend seulement de ça loi PX . C-
à-d que si X est un VARD et Y est une VAR et PX = PY , alors Y
est aussi discrète et
E[X] = E[Y ] .
(Car
DX := {a | PX ({a}) > 0} = {a | PY ({a}) > 0} =: DY ⊂ R
et donc
X X
E[X] = PX (a)a = PY (a)a = E[Y ].)
a∈DX a∈DY

5.3. Exemples.
Exercice cours 5.3. Calculer l’espérance d’une variable qui suit la loi de
Bernoulli.

Exercice (DM) 5. Soit X un VAR. Montrer que :


1
P
(a) si PX = Punif (loi uniforme) sur A, alors E[X] = |A| a∈A a;
(b) si PX = Punif sur A = {0, 1, 2, . . . , n}, alors E[X] = n1 ; (Exercice
cours)
(c) si PX = B(n, p) (loi binomiale de paramètres (n, p)) alors
E[X] = np ;
(Exercice cours)
PROBABILITÉS 25

(d) Pλ (loi de Poisson de paramètre λ > 0), alors E[X] = λ; (Exercice


TD) et
(e) Gp (loi géométrique de paramètre p ∈]0, 1]), E[X] = p1 . (cours)

Cours 9
08 Avril, 2021

5.4. Propriétés de l’espérance.

Dans la suite, (Ω, P(Ω), P ) sera un espace probabilisé et X, Y, Z : Ω →


R seront des variables aléatoires.

Lemme 5.4. Si ∀ω ∈ Ω, X(ω) = λ ∈ R (donc X est constante) alors


E[X] = λ .

Démonstration (demandée pour CC). On a que X est discréte (car DX =


{λ}) et sa loi est donnée par PX = δλ . Donc E[X] = λ. 

Définition 5.5 (VAR intégrable). Une VAR X est dite intégrable si E[|X|] <
+∞.

Théorème 5.6 (Théorème de transfert I). Soit (Ω, P(Ω), P ) un espace prob-
abilisé avec Ω au plus dénombrable (donc M = P(Ω)). Soit X : Ω → R
une variable aléatoire réelle. Alors X est discrète. Supposons aussi que
que X ≥ 0 ou que X soit intégrable (E[|X|] < +∞). Alors :
X
E[X] = P ({ω})X(ω) .
ω∈Ω

Donc, si E[|X|] < +∞, alors E[X] ∈ R (elle est définie).

(Preuve: cours.) On utilise le théorème de sommation par paquets (Théorème


1.24) d’abord pour le cas X ≥ 0 et après pour le cas général, commençant
par le théorème déjà démontré pour |X| ≥ 0.
Correction dans les notes scannées :
A := X −1 (a) = {ω ∈ Ω | X(ω) = a}.
26 PROBABILITÉS

Remarque 5.7. Les résultats suivants sont vrais pour toutes les variables
aléatoires réelles (pas seulement pour celles discrètes), mais la preuve sera
donnée seulement pour le cas Ω au plus dénombrable. En L3 vous allez
démontrer le cas général.

Théorème 5.8 (Propriétés algébriques de l’espérance : linéarité). Soit (Ω, M, P )


un espace probabilisé et soient X, Y : Ω → R deux variables aléatoires
réelles telles que X et Y soient intégrables (E[|X|] < +∞ et E[|Y |] <
+∞). Alors X + Y est aussi intégrable (E[|X + Y |] < +∞) et :
(1) E[X + Y ] = E[X] + E[Y ].
(2) Si λ ∈ R, alors E[λX] = λE[X].

Le résultat de ce théorème est vrai aussi si X, Y ≥ 0 (même si elles ne


sont pas intégrables). Voir l’exercice 9.

Démonstration (demandée pour CC). (On va faire la preuve seulement pour


le cas Ω dénombrable. On montre d’abord que E[|X + Y |] ≤ E[|X|] +
E[|Y |] < +∞. On remarque aussi que les conditions E[|X|] < +∞,
E[|Y |] < +∞ et E[|X + Y |] < +∞ garantissent que E[X], E[Y ] et
E[X + Y ] soient définis.)
Supposons X : Ω → R avec Ω dénombrable ou fini. (Le cas général sera
fait en L3.) On remarque d’abord que |X| = |λ| donc la loi de |X| est δ|λ|
et, par conséquant, E[|X|] = |λ| < +∞. Donc X est intégrable.
On a alors successivement:
X
E[|X + Y |] = P ({ω})|X(ω) + Y (ω)|
ω∈Ω
X 
≤ P ({ω}) |X(ω)| + |Y (ω)|
ω∈Ω
X X
= P ({ω})|X(ω)| + P ({ω})|Y (ω)|
ω∈Ω ω∈Ω
= E[|X|] + E[|Y |] .
On repete le calcul pour démontrer que E[X + Y ] = E[X| + E[Y ] :
X
E[X + Y ] = P ({ω})(X(ω) + Y (ω))
ω∈Ω
X X
= P ({ω})X(ω) + P ({ω})Y (ω)
ω∈Ω ω∈Ω
= E[X] + E[Y ] .
(2) Exercice (DM). 
PROBABILITÉS 27

Remarque 5.9 (Presque surement). Soit P une propriété. On dit que X :


Ω → R satisfait P presque surement (p.s.) s’il existe N ⊂ Ω, N ∈ M
(mesurable), avec P (N ) = 0, tel que ∀ω ∈ / N , X(ω) satisfait P. (On
dit aussi que X satisfait P P -presque surement (P -p.s,), pour indiquer la
mesure P .)

Exemple 5.10 (Presque surement). On dit que X ≥ 0 presque surement s’il


existe N ⊂ Ω, P (N ) = 0, tel que ∀ω ∈
/ N , X(ω) ≥ 0.

Remarque 5.11. Soit Ω un ensemble dénombrable et N ⊂ Ω. On a P (N ) =


0 si, et seulement si, P ({ω}) = 0 pour tous les ω ∈ N .

Lemme 5.12 (Monotonie). Si X ≥ 0 P -presque surement, alors


E[X] ≥ 0 .
(Preuve: cours et demandée pour CC.)

Théorème 5.13 (Propriétés de l’espérance p.s.). Soit (Ω, M, P ) un espace


probabilisé et soient X, Y : Ω → R deux variables aléatoires réelles inté-
grables (telles que E[|X|] < +∞ et E[|Y |] < +∞).
(1) Si X ≤ Y p.s., alors E[X] ≤ E[Y ].
(2) Si X = Y p.s., alors E[X] = E[Y ].
(3) Si X = λ p.s., λ ∈ R, alors E[X] = λ.
(4) Si λ ≤ X ≤ µ p.s., λ, µ ∈ R, alors λ ≤ E[X] ≤ µ.

(Preuve: cours et demandée pour CC.)

Corollaire 5.14 (exercice DM). Supposons que |X| ≤ Y p.s. et que Y soit
intégrable. Alors X est aussi intégrable et
|E[X]| ≤ E[|X|] ≤ E[Y ] .

Théorème 5.15 (Théorème de transfert II). Soient (Ω, M, P ) un espace


probabilisé, Y : Ω → R une variable aléatoire réelle discrète, et g : R → R
une fonction telle que E[|g(Y )|] < +∞ ou telle que g ≥ 0. Alors
X
E[g(Y )] = P (Y = a)g(a) .
a∈DY

Si Ω est au plus dénombrable et M = P(Ω), alors


X
E[g(Y )] = P ({ω})g(Y (ω)) .
ω∈Ω
28 PROBABILITÉS

Exemples 5.16. (a) Soient Ω := N∗ := {1, 2, . . .}, M = P(Ω), et P :


M → [0, 1] la mesure de probabilité associée à la fonction poids p(n) =
cn−2 , où c > 0. Soit X : Ω → R la fonction idéntique. Alors E[X] =
+∞.
(b) Soient Ω := Z∗ := Z r {0} = N∗ ∪ (−N∗ ), M = P(Ω), et P : M →
[0, 1] la mesure de probabilité associée à la fonction poids p(n) = 2nc 2 ,
où c > 0 est comme en (a). Soit Y : Ω → R la fonction idéntique.
Alors E[Y ] n’est pas définie.

Définition 5.17 (Variance). Soit X une VAR, sa variance Var(X) est


Var(X) := E[(X − E[X])2 ] .

D’habitude on utilise la formule suivante qui va être démontrée un peu


plus tard :

(2) Var(X) = E[X 2 ] − E[X]2 .

Cours 10
15 Avril, 2021

Exercice cours 5.18. Montrer que si PX = B(n, p), alors


1 − (1 − p)n
E[X(X − 1)] = n(n − 1)p2 et E[(1 + X)−1 ] = .
p(n + 1)
Calculer Var(X) utilisant la formule
Var(X) = E[X(X − 1)] + E[X] − E[X]2 = np(1 − p).
(Voir aussi les pages PR12, PR19 et PR20 du cours scanné.)

Exercice (DM) 6. Calculer les variances des variables aléatoires de l’exercice


5. (Lois uniforme et binomiale : cours espérance et variance).

Définition 5.19. On dit qu’une VAR X a un moment d’ordre r ∈ N si


E[|X|r ] < +∞. On le note alors
mr := E[X r ] ∈ R .
et kXkr := E[|X|r ]1/r , r ∈ [1, +∞[.
PROBABILITÉS 29

Exercice (DM) 7. Si X a un moment d’ordre 2, alors X au aussi un moment


d’ordre 1 (c-à-d elle est intégrable) et
Var(X) := E[(X − E[X])2 ] = E[X 2 ] − E[X]2 < +∞ .

(Utiliser 2|X| ≤ 1 + X 2 pour conclure que E[|X|] < +∞.)

Exercice (DM) 8. Si X a un moment d’ordre r et 1 ≤ r0 ≤ r, alors X au


aussi un moment d’ordre r0 .

5.5. Espérance et indépendance.


Lemme 5.20. Soient X et Y deux VARD indépendantes et f, g : R → R
deux fonctions. Alors f (X) et g(Y ) sont indépendantes.

Cours 11
22 Avril, 2021

(Preuve: cours et demandée pour CC.)

Théorème 5.21. Soient X et Y deux VARD indépendantes et f, g : R → R


deux fonctions telles que f (X) et g(Y ) soient intégrables. Alors f (X)g(Y )
est aussi intégrable et
E[f (X)g(Y )] = E[f (X)]E[g(Y )] .

(Preuve: cours.)

Remarque 5.22. (Vous pouvez ignorer le cas complexe à la première lec-


ture.) Pour certaines applications, il sera utile d’utiliser les variables aléa-
toires complexes (VAC), c.-à.-d. des fonctions mesurables Z : Ω → C. √ On
peut écrire alors Z = X + iY , où X et Y sont à valeurs réelles et i = −1.
Alors on a que Z est un VAC ssi X et Y sont des VAR. Alors
E[Z] := E[X] + iE[Y ] et

|Z| = X 2 + Y 2
Alors Z est intégrable ssi, par définition, E[|Z|] < +∞ ssi X et Y sont
intégrables.
Définition 5.23. La fonction génératrice des moments d’une VAR est
GX (s) := E[sX ] = E[rX cos(θX)] + iE[rX sin(θX)] ,
où s = r(cos θ + i sin θ). (Elle n’est pas définie pour tous les s ∈ C, par
contre, on défini GX (0) = P (X = 0).)
30 PROBABILITÉS

Définition 5.24. La variable aléatoire complexe Z est dite essentiellement


bornée s’il existe M ≥ 0 tel que P (|Z| > M ) = 0 (c-à-d |Z| ≤ M
p.s.). Le plut petit M avec cette propriété est noté kZk∞ . (Si Z n’est pas
essentiellement bornée on pose kZk∞ = +∞.)

Lemme 5.25. Si Z est une VA complexe essentiellement bornée, alors elle


est intégrable.

Démonstration. Soit (Ω, M, P ) l’espace probabilisé sur lequel Z est définie.


On suppose que Ω soit dénombrable et que la tribu M = P(Ω) (le cas
géneral sera fait en L3). Soit M ≥ 0 et N ⊂ Ω tels que P (N ) = 0
et ∀ω ∈/ N , |Z(ω)| ≤ M . L’hypothèse P (N ) = 0 entraine ∀ω ∈ N ,
P (ω) = P ({ω}) = 0. On a alors d’après le théorème de transfert
X
E[|Z|] = P (ω)|Z(ω)|
ω∈Ω
X X
= P (ω)|Z(ω)| + P (ω)|Z(ω)|
ω∈N ω∈ΩrN
X X
= 0 ⊗ |Z(ω)| + P (ω)|Z(ω)|
ω∈N ω∈ΩrN
X
= P (ω)|Z(ω)|
ω∈ΩrN
X
≤ P (ω)M
ω∈ΩrN
= P (Ω r N )M = M < +∞ .
Donc Z est intégrable. 

Corollaire 5.26. Si X est une VAR ≥ 0 p.s. et s ∈ C, |s| < 1, alors GX (s)
est défini.

(Preuve: cours.)

Corollaire 5.27. Si X et Y sont VAR indépendantes et GX (s) et GY (s) sont


définis, alors GX+Y (s) est aussi défini et
GX+Y (s) = GX (s)GY (s) .

(Preuve: cours.)
PROBABILITÉS 31

Définition 5.28. Le rayon de convergence de GX est le plus grand R ≥ 0


tel que GX (s) existe pour tous s ∈ C, |s| < R. (C’est pourquoi on a besoin
du cas complexe.)

Remarque 5.29. Le rayon de convergence de GX est ≥ 1.

Remarque 5.30. Souvent nous allons utiliser la fonction GX pour DX ⊂ N


(c-à-d X ∈ N p.s.). Alors GX (s) est la somme de la série
X X
GX (s) := P (X = n)sn = P (X = n)sn .
n∈DX n∈N

Exercice (DM) 9. Si PX = B(n, p), alors GX = (ps + 1 − p)n , donc


R = +∞.

sp 1
Exercice (DM) 10. Si PX = G(p), alors GX (s) = 1−s(1−p)
, donc R = 1−p
.

Solution. On a P (X = k) = p(1 − p)k−1 , pour k ∈ N∗ (et = 0 sinon).


Donc
GX (s) := E[sX ]
X∞
= P (X = k)sk
k=1

X
= p(1 − p)k−1 sk
k=1

X  k−1
= sp s(1 − p)
k=1
sp
= .
1 − s(1 − p)


(r)
Proposition 5.31. Si R > 1, alors GX (1) = E[X(X − 1) . . . (X − r + 1)]
(moment factoriel d’ordre r). Par conséquant,
2
E[X] = G0X (1) et Var[X] = G00X (1) + G0X (1) − G0X (1) .


Exercice cours 5.32. Supposons que PX = B(n, p). Calculer de nouveau


E[X] et Var(X) utilisant GX .
32 PROBABILITÉS

Théorème 5.33. Soient X et Y deux VAR avec DX , DY ⊂ N. Si ∀|s| < 1


on a GX (s) = GY (s), alors PX = PY .

(Preuve: cours.) On utilise le fait que


(n)
n!P (X = n) = GX (0) .

Exercice (DM) 11. Si X et Y sont deux VAR avec PX = B(n, p) et PX =


B(k, p), alors PX+Y = B(n + k, p).

5.6. Inégalité de Tchebychev-Bienayme et loi faible des grands nom-


bres.

Lemme 5.34. Soit A ⊂ Ω, où (Ω, P(Ω), P ) est un espace probabilisé et


X := 1A (la fonction indicatrice de A). Alors PX = (1−P (A))δ0 +P (A)δ1
et
(3) E[X] = P (A) .

Démonstration. On a que ∀ω ∈ Ω, X(ω) = 1A (ω) ∈ {0, 1} et donc


X(Ω) = 1A (Ω) ∈ {0, 1}. Par conséquent, X est une variable aléatoire
discrète et DX := {a ∈ R | P (X = a) > 0} ⊂ {0, 1}. On trouve
X −1 (1) = 1−1
A (1) = {ω ∈ Ω | 1A (ω) = 1} = A .

De même, X −1 (0) = Ω r A. Donc P (X = 1) = P (A) et P (X = 0) =


P (Ω r A) = 1 − P (A). Par conséquent,
X
PX = P (X = a)δa
a∈DX

= (1 − P (A))δ0 + P (A)δ1 .
P
La définition de E[X] = a∈DX P (X = a)a donne alors E[X] = (1 −
P (A)) × 0 + P (A) × 1 = P (A). 

Théorème 5.35. Soit X une VAR avec E[|X|r ] < +∞ et soit α > 0.
] r
(a) P (|X| ≥ α) ≤ E[|X|
αr
.
(b) (Inégalité de Tchebychev-Bienayme) Si r = 2, alors
Var(Y )
P (|Y − E[Y ]| ≥ α) ≤
α2
PROBABILITÉS 33

(Preuve: cours et demandée pour CC.) On utilisera le résultat de l’exercice


5.34 pour l’ensemble
A := {ω ∈ Ω | |X| ≥ α} ,
le fait que |X|r ≥ αr 1A et la monotonie (ou positivité) de l’espérance.
Lemme 5.36. Soient X1 , X2 , . . . , Xn des VARs avec E[Xj2 ] < +∞, deux à
deux indépendantes. Alors
Var(X1 + X2 + . . . + Xn ) = Var(X1 ) + Var(X2 ) + . . . + Var(Xn ) .

(Preuve: cours.)

Lemme 5.37. Si a, b ∈ R, alors


Var(aX + b) = a2 Var(X) .

(Preuve: cours et demandée pour CC.)

Théorème 5.38. Loi faible des grandes nombres] Soient X1 , X2 , . . . , Xn


des VARs avec E[Xj2 ] < +∞, deux à deux indépendantes et avec la même
loi, m = E[Xj ], σ 2 = Var(Xj ). Alors, ∀ > 0,
 X + X + . . . + X
1 2 n
 σ2
P − m ≥  ≤ 2 .

n n

Démonstration. On a
E[X1 ] = E[X2 ] = . . . = E[Xn ] =: m et
(4)
Var(X1 ]) = Var(X2 ) = . . . = Var(Xn ) =: σ 2 ,
car PX1 = PX2 = . . . = PXn .
X1 +X2 +...+Xn
Soit Y := n
. Alors
N
1X
E[Y ] = E[Xj ] = m ,
n n=1
par la linéarité de E. Aussi,
N
1 X
Var[Y ] = 2 Var( Xj ) Lemme 5.37
n n=1
N
1 X
= 2 Var(Xj ) Lemme 5.37
n n=1
1
= nσ 2
n2
34 PROBABILITÉS

Le théorème 5.35 (inégalité de Tchebychev-Bienayme) pour Y donne alors


le résultat. 

Cours 12
14 Mai, 2021

Démonstration du lemme 5.37. On a E[aX+b] = E[aX]+E[b] = aE[X] + b


par les propriétés de l’espérance. Donc, avec Z := aX + b :
Var(aX + b) := Var(Z)
:= E (Z − E[Z])2
 
 2 
:= E aX + b − E[aX + b]
= E (aX + b − aE[X] − b)2
 

= E a2 (X − E[X])2
 

= a2 E (X − E[X])2 =: a2 Var(X) .
 

5.7. Exercices.

Les solutions des exercices ne sont pas toujours complètes. Les preuves
complètes seront données en TD (ou cours).

Exercice (TD) 4. Soient X et Y deux variables aléatoires indépendantes de


lois de Bernoulli de paramètres p et q.
(a) Calculez la loi de Z := X + XY + Y .
(b) Calculez E[Z] et E[Z 2 ].

Solution. (a) Soit f (x, y) := x + y + xy, donc Z = f (X, Y ). On a


X, Y ∈ {0, 1}, on calcule :
f (0, 0) = 0 , f (0, 1) = f (1, 0) = 1 , et f (1, 1) = 3 .
Donc Z ∈ {0, 1, 3}. De plus
P (Z = 0) = P (X = 0 et Y = 0) = P (X = 0)P (Y = 0) = (1 − p)(1 − q) ,
P (Z = 1) = P (X = 0 et Y = 1) + P (X = 1 et Y = 0) =
= P (X = 0)P (Y = 1) + P (X = 1)P (Y = 0) = (1 − p)q + p(1 − q) ,
et P (Z = 3) = P (X = 1 et Y = 1) = P (X = 1)P (Y = 1) = pq .
PROBABILITÉS 35

Donc DZ = {0, 1, 3} et
X
PZ = P (Z = k)δk = (1 − p)(1 − q)δ0 + (p + q − 2pq)δ1 + pqδ3 .
k∈DZ

(b) Le théorème du transfert donne :


X
E[Z] = P (Z = k)k
k∈DZ
= p + q + pq
X
E[Z 2 ] = P (Z = k)k 2
k∈DZ
= p + q + 8pq .


Exercice (TD) 5. Soient X et Y deux variables aléatoires réelles discrètes


sur un espace probabilité (Ω, M, P ), M = P(Ω), avec Ω dénombrable.
Soient λ et µ deux nombres réels. On suppose que X et Y sont intégrables.
Montrer que
(a) E[λX] = λE[X].
(b) Si X ≤ Y alors E[X] ≤ E[Y ].
(c) Si λ ≤ X ≤ µ, λ, µ ∈ R, alors λ ≤ E[X] ≤ µ.
(Utilisez le théorème de transfert :
X X
E[g(X)] = P (X = a)g(a) = P (ω)g(X(ω)) ,
a∈DX ω∈Ω

où DX := {a ∈ R | P (X = a) > 0} ).

Solution. (a) Le théorème du transfert donne :


X
E[λX] = P ({ω})λX(ω)
ω∈Ω
X
= λ P ({ω})X(ω)
ω∈Ω
= λE[X] .


Exercice (TD) 6. Soit X une variable aléatoire réelle. Calculer l’espérance


E[X], la variance Var(X) et la fonction génératrice de X dans chacun des
cas suivants :
(a) X suit la loi uniforme sur {1, 2, . . . , n}
36 PROBABILITÉS

(b) X suit la loi binomiale de paramètres (n, p). (fait en cours)


(c) X suit la loi géométrique de paramètre p. (fait en cours)
(d) X suit la loi de Poisson de paramètre λ.

Solution. (a) On a DX = {1, 2, . . . , n} et P (X = k) = n1 pour k ∈


DX (et donc P (X = k) = 0, par la définition de DX ). La définition de
l’espérance donne :
X
E[X] = P (X = k)k
k∈DX
n
X 1
= k
k=1
n
1 n(n + 1) n+1
= × = ,
n 2 2
Pn n(n+1)
car k=1 k= 2
. Le théorème du transfert donne :
n
X
2
E[X ] = P (X = k)k 2
k=1
1 n(n + 1)(2n + 1) (n + 1)(2n + 1)
= × = .
n 6 6
Pn n(n+1)(2n+1)
car k=1 k2 = 6
. Donc
Var(X) = E[X 2 ] − E[X]2
(n + 1)(2n + 1) (n + 1)2
= −
6 4
2 2
2n + 3n + 1 n + 2n + 1 n2 − 1
= − = .
6 4 12
Le théorème du transfert donne :
GX (s) = E[sX ]
Xn
= P (X = k)sk
k=1
1
= (s + s2 + . . . + sn )
n
1 sn − 1 sn+1 − s
= ×s× = .
n s−1 n(s − 1)

(b) (voir cours) GX (s) = (ps + 1 − p)n .


PROBABILITÉS 37

(c) On a DX = N∗ . La définition de l’espérance donne :


X
E[X] = P (X = k)k
k∈DX
X∞
= p(1 − p)k−1 k
k=1
1 1
= p = ,
[1 − (1 − p)]2 p
où on a utilisé la rélation ∞ k−1 1
P
k=1 ks = (1−s) 2 pour s = 1 − p (voir

“Quelques séries utiles”). Le théorème du transfert donne :



X
E[X(X − 1)] = P (X = k)k(k − 1)
k=1

X
= p(1 − p) (1 − p)k−2 k(k − 1)
k=2
2(1 − p)
= .
p2
P∞ P 0  0
∞ 1 2
car k=2 k(k − 1)sk−2 = k=1 ks
k−1
= (1−s)2 = (1−s)3
. Donc

V ar(X) = E[X 2 ] − E[X]2


= E[X(X − 1)] + E[X] − E[X]2
2(1 − p) 1 1 1−p
= 2
+ − 2 = .
p p p p2
On calcul similaire donne :
GX (s) = E[sX ]
X∞
= P (X = k)sk
k=1
X∞
= s (1 − p)k−1 sk−1
k=1
s
= .
1 − (1 − p)s
1
Cette fonction est définie pour |(1 − p)s| < 1, c.-à.-d. pour |s| < 1−p
. Donc
1
le rayon de convergence est R = 1−p > 1.
38 PROBABILITÉS

(d) On a DX = N. La définition de l’espérance donne :



X
E[X] = P (X = k)k
k=0

X λk
= e−λ k
k=0
k!

−λ
X λk−1
= λe = λ.
k=1
(k − 1)!

Le théorème du transfert donne :



X
E[X(X − 1)] = P (X = k)k(k − 1)
k=0

X λk
= e−λ k(k − 1)
k=0
k!

2 −λ
X λk−2
= λe = λ2 .
k=2
(k − 2)!

Donc
V ar(X) = E[X 2 ] − E[X]2
= E[X(X − 1)] + E[X] − E[X]2
= λ2 + λ − λ2 = λ .
On calcul similaire donne :
GX (s) = E[sX ]
X∞
= P (X = k)sk
k=0

X λk k
= e−λ s
k=0
k!

X (sλ)k
= e−λ
k=0
k!
−λ λs
= e e = eλ(s−1) ,
qui a, donc, un rayon de convergence R = +∞. 
PROBABILITÉS 39

Exercice (TD) 7. Soit X une variable aléatoire réelle suivant une loi de
Poisson de paramètre λ > 0. Calculer l’espérance des variable aléatoires
1 1
Y = 1+X et Z = (1+X)(2+X) .

Solution. Le théorème du transfert donne :


h 1 i ∞
X 1
E = P (X = k)
1+X k=0
1+k

X λk 1
= e−λ
k=0
k! 1 + k

1 X λk+1
=
λeλ k=0 (k + 1)!
eλ − 1
= .
λeλ
1 eλ −1−λ
 
On a E[Z] = E (1+X)(2+X) = λ2 eλ
, voir page 20 des notes de cours
scannées. 
Exercice (TD) 8. Soient X et Y deux variable aléatoires réelles indépen-
dantes suivant des lois géométriques de paramètres 0 < p, q < 1. Calculer
P (X = Y ).

Solution. On a
+∞
X
P (X = Y ) = P (X = k et Y = k)
k=1
+∞
X
= P (X = k)P (Y = k)
k=1
+∞
X
= p(1 − p)k−1 q(1 − q)k−1
k=1
+∞
X  j
= pq (1 − p)(1 − q) où j = k − 1
j=0
pq pq
= = .
1 − (1 − p)(1 − q) p + q − pq


40 PROBABILITÉS

Exercice (TD) 9 (Propriétés algébriques de l’espérance : linéarité). Soit


(Ω, M, P ) un espace probabilisé et soient X, Y : Ω → [0, +∞] deux vari-
ables aléatoires réelles, alors :
(1) E[X + Y ] = E[X] + E[Y ].
(2) Si λ ≥ 0, alors E[λX] = λE[X].

Démonstration. Seulement pour le cas Ω dénombrable (qui implique que


X et Y soient discrètes). Alors on utilise le théorème du transfert. 

Exercice (TD) 10. Soient X et Y deux variables aléatoires indépendantes.


On suppose que X suit la lois uniforme sur {0, 1, 2} et que Y suit la lois de
Bernoulli de paramètre p.
(a) Calculez les lois de Z1 := 3X et de Z2 := 3X − Y .
(b) Calculez E[Z2 ], E[Z22 ] et Var(Z2 ).

Exercice (TD) 11. Soit X une variable aléatoire qui suit la loi de Poisson
de paramètre λ > 0. Calculer E[X] et Var(X) utilisant GX (s) = eλ(s−1) .

Solution. On a
 0
G0X (s) = eλ(s−1)
= λeλ(s−1)
 0
G00X (s) = λeλ(s−1) = λ2 eλ(s−1) .
Donc
E[X] = G0X (1) = λ
E[X(X − 1)] = G00X (1) = λ2 .
Donc
Var(X) = E[X 2 ]−E[X]2 = E[X(X−1)]+E[X]−E[X]2 = λ2 +λ−λ2 = λ.


Exercice (TD) 12. L’entreprise Tecla produit trois types de voitures : “Mod-
èle X”, “Modèle Y” et “Modèle Z” en deux couleurs : rouge et noir. Elle
produit 300 voitures Modèle X, 200 voitures Modèle Y et 100 voitures
Modèle Z, 60 de chaque modèle sont rouges. Stendhal a acheté une voiture.
(a) Quelle est la probabilité qu’il a acheté une voiture rouge?
(b) Sachant qu’il a acheté un voiture noire, quelle est la probabilité qu’il a
acheté une voiture Modèle Z?
PROBABILITÉS 41

Exercice (TD) 13. Calculer la probabilité que X soir pair si X est une
variable aléatoire réele qui suit la
(a) loi de Poisson de paramètre λ > 0.
(b) loi binomiale de paramètres (n, p), p ∈ [0, 1].
(c) loi géométrique de paramètre p ∈]0, 1[.
(d) loi uniforme sur {0, 1, 2, . . . , n}.

Solution. Pour toutes les questions, il faut calculer


X X
P (X = pair) = P (X = 2n) = P (X = 2n) ,
n∈Z n∈N
où la dernière egalité est due au fait que X ≥ 0.
k
(a) P (X = k) = e−λ λk! , donc
X
P (X = pair) = P (X = 2n)
n∈N
X
−λ λ2n
= e
n∈N
(2n)!
!
1 X λk X (−λ)k
= +
2eλ k∈N
k! k∈N
k!
1 λ −λ 1 − e−2λ
(e
= − e ) = .
2eλ 2
(c) P (X = k) = p(1 − p)k−1 si k ∈ N et k ≥ 1, sinon P (X = k) =
p(1 − p)k−1 , donc
X
P (X = pair) = P (X = 2n)
n∈N

X
= p(1 − p)2n−1
n=1
X
= p(1 − p) (1 − p)2k ( où k := n − 1 ∈ N)
k∈N
p(1 − p) p − p2
= = .
1 − (1 − p)2 2p − p2


Voir aussi le fichier Cours_2020 sur Arche.

Vous aimerez peut-être aussi