Académique Documents
Professionnel Documents
Culture Documents
C ONTENTS
1. Préliminaires au probabilités 2
1.1. Ensembles finis et ensembles dénombrables 2
1.2. Séries 4
1.3. Théorème de sommation par paquets 6
2. Espaces probabilisés et mesures 8
2.1. Le language des probabilités 8
2.2. Tribus et probabilités 9
2.3. Exemples basiques (lois usuelles) 11
2.4. Propriétés des mesures 13
2.5. Dénombrements élémentaires 14
3. Variables aléatoires 16
3.1. Fonctions mesurables 16
3.2. Loi d’une variable aléatoire réelle 16
3.3. Exemples 17
3.4. Variables aléatoires discrètes 18
4. Probabilités conditionnelles et indépendance 19
4.1. Probabilités conditionnelles 19
4.2. Indépendance (événements et variables aléatoires) 21
4.3. Exemples 22
5. Espérance 23
5.1. Motivation 23
5.2. Définition 24
5.3. Exemples 24
5.4. Propriétés de l’espérance 25
5.5. Espérance et indépendance 29
5.6. Inégalité de Tchebychev-Bienayme et loi faible des grands
nombres 32
5.7. Exercices 34
Cours 1
21 Janvier, 2021
Date: 2021.
1
2 PROBABILITÉS
Certains exemples vont être traités dans des exercices pour TD.
1. P RÉLIMINAIRES AU PROBABILITÉS
1.1. Ensembles finis et ensembles dénombrables. Un ensemble est un
regroupement d’éléments. (On ne définit pas vraiment la notion d’ensemble.)
Par exemple, on note
N := {0, 1, 2, . . .}
∗
N := N r {0} = {1, 2, . . .}
Z := {. . . , −2, −1, 0, 1, 2, . . .} et
A
P(A) := 2 := {B | B ⊂ A} (l’ensemble des parties de A).
Le symbole “∈”permet de noter l’appartenance à un ensemble. Par ex-
emple, “−2 ∈ Z”signifie “le nombre -2 est un élément de Z,” ou encore “-2
appartient à Z”.
Un ensemble est dit fini lorsqu’il possède un nombre fini d’éléments.
Sinon c’est un ensemble infini.
On formalise la définition d’un ensemble fini comme suit :
Si A est un ensemble qui est dénombrable ou fini, on dit aussi qu’il est
au plus dénombrable. Tout ensemble dénombrable est infini.
Si A est un ensemble au plus dénombrable, on écrit souvent
(
A = {a0 , a1 , . . . , an , . . .} s’il est dénombrable
A = {a1 , . . . , an } s’il a n éléments.
(Par exemple, on pourrait choisir ak := ϕ(k), avec ϕ les bijections des
définitions.)
Nous allons utiliser souvent les ensembles dénombrables, qui ont les pro-
priétés suivantes :
Par contre, R n’est pas dénombrable. Aussi, si A est infini, alors P(A) =
A
2 n’est pas dénombrable (il n’est pas fini nonplus).
4 PROBABILITÉS
1.2. Séries.
PN
Définition 1.6 (Série convergente). Soit xn ∈ R, SN := k=0 xk =
x0 + x1 + . . . + xN la suite des sommes partielles et S ∈ [−∞, ∞]. Si
limN →∞ SN = S, on écrit
P
n∈N xn =P S (la série a la somme S) .
Si S ∈ R, on dit que la série n∈N xn converge.
P
Théorème 1.7 (Critère de Cauchy). La série n∈N xn converge ssi (si, et
seulement si)
∀ > 0, ∃N = N , ∀q ≥ p ≥ N, xp + xp+1 + . . . + xq <
Pour q = p, on obtient.
P
Corollaire 1.8. La série n∈N xn converge ⇒ limp→+∞ xp = 0.
Exemple 1.10.
(
X 1 < +∞ si α > 1
La série est
n≥1
nα = +∞ sinon.
1
= n∈N xn = 1 + x + x2 + x3 + . . . ,
P
(1) 1−x
|x| < 1 .
1
= k∈N (k + 1)xk = 1 + 2x + 3x2 + . . . ,
P
(2) (1−x)2
|x| < 1 .
n+1 2 3 4
− ln(1 − x) = n∈N xn+1 = x + x2 + x3 + x4 + . . . ,
P
(3) |x| < 1 .
n 2 3
ex = n∈N xn! = 1 + x + x2 + x6 + . . . ,
P
(4) x ∈ C.
x2n 2 4
cos x = n∈N (−1)n (2n)! = 1 − x2 + x24 − . . . ,
P
(5) x ∈ C.
n x2n+1 x3
P
(6) sin x = n∈N (−1) (2n+1)! = x − 6 + . . . , , x ∈ C.
(n! := 1 × 2 × . . . × n, mais 0! := 1.)
P
Définition
P 1.14. On dit que la série n∈N bn est une permutation de la
série n∈N an s’il existe une bijection σ : N → N telle que bn = aσ(n) .
P P
Corollaire 1.16. Si n∈N an converge absolument ou an ≥ 0 et n∈N bn
est une permutation de cette série, alors
P P
n∈N an = n∈N bn .
1
= 1+ 14 + 91 + 16
1 1 1
+ 19 + 36
1 1
P
Exemple 1.17. n≥1 n2 +. . . = 4
+1+ 16 + 25 +. . .
n
P
Définition 1.18 (Série alternée). Une série de la forme ± n∈N (−1) an
avec an ∈ [0, +∞[ est appelée une série alternée.
n
P
Théorème 1.19. Si an → 0 est decroissante, alors n∈N (−1) an con-
verge.
6 PROBABILITÉS
Cette proposition/définition
P s’étend d’une façon triviale au cas I fini et
on définit i∈∅ f (i) := 0.
Soient
• I un ensemble dénombrable ou fini;
• f : I → R.
P
Remarque 1.22. Si f ≥ 0, la somme P i∈I f (i) est définie dans [0, +∞].
C’est-à-dire qu’il est possible que i∈I f (i) = +∞.
P
Remarque 1.23. Donc, en general, i∈I |f (i)| ∈ [0, +∞] est définie. Si
P
i∈I |f (i)| < +∞,
P
alors la proposition donne que i∈I f (i) est aussi définie (ne dépend pas
du choix de la bijection σ).
Soient
• I un ensemble dénombrable et f : I → R;
• I = ∪n∈N In une partition dénombrable (donc les In sont deux à
deux disjoints et, de plus, on sait que chaque In est dénombrable ou
fini).
On a donc
P P P P P
(i,j)∈N×N f (i, j) = j∈N i∈N f (i, j) = i∈N j∈N f (i, j)
Cours 2
28 Janvier, 2021
8 PROBABILITÉS
Exemple 2.1.
Expérience Résultats possibles Ω
1. Lancer d’une pièce r ∈ {‘pile’, ‘face’} = {P, F }
2. Lancer trois fois une pièce r ∈ {P, F }3
3. Lancer d’un dé un entier n ∈ {1, 2, . . . , 6}
Remarque 2.4.
• L’ensemble des événements sera noté d’habitude M.
PROBABILITÉS 9
Exemple 2.7. (1) Pour nous, l’exemple le plus important est M = P(Ω)
(la tribu trivialle). Pour la tribu triviale, les conditions (axiomes)
de la définition d’une tribu, sont trivialement satisfaites.
(2) M0 := {∅, Ω} est aussi une tribu, appelée la tribu grossière. Elle
est contenue dans toute autre tribu sur Ω.
Les tribus seront étudiés en détail en L3, ici nous nous contentons de
donner certains de leurs propriétes :
(Preuve: cours.)
Dans la suite, Ω sera toujours un ensemble non vide et M = P(Ω) (à
l’exception du cas de la mesure de Lebesgue).
10 PROBABILITÉS
(Preuve: cours.)
Remarque 2.13. La somme est définié car A est aussi au plus dénombrable,
comme partie d’un ensemble au plus dénombrable.
(Preuve: cours.)
Cours 3
4 Février, 2021
PROBABILITÉS 11
Donc, pour A ⊂ Ω,
n k
P n−k
B(n, p)(A) := k∈A k p (1 − p) .
On vérifie que B(n, p)(Ω) = 1 (cours).
Le nombre de fois on obtien F (‘Face’) dans l’exemple 3. (lancer trois
fois une pièce non trouquée) suit la loi B(3, 21 ).
Remarque 2.20. On peut considérer les quatre exemples des lois usuelles
(uniforme, binomiale, géométrique ou de Poisson) comme des lois (ou mesures,
ou probabilités) sur R. On a alors que ces lois s’annulent en dehors de
leur ensemble de définition. Donc la loi uniforme Punif sur Ω est telle que
Punif (A) = 0 is A ∩ Ω = ∅. Pareillement,
(a) B(n, p)(A) = 0 si A ∩ {0, 1, . . . , n} = ∅,
(b) Gp (A) = 0 si A ∩ N∗ = A ∩ {1, 2, 3, . . .} = ∅,
(c) Pλ (A) = 0 si A ∩ N = A ∩ {0, 1, 2, 3, . . .} = ∅.
P
Exercice (DM) 2. Montrer que µp = ω∈Ω p(ω)δω . En déduire que :
(a) Le mesure δaP
correspond à p = 1{a} . (Exercice TD)
1
(b) Punif = |Ω| ω∈Ω δω .
PROBABILITÉS 13
Pn n k
n−k
(c) B(n, p) = k=0 k p (1 − p) δk . (Exercice TD)
P+∞ −λ λk
(d) Pλ = k=0 e δ . (Exercice cours)
n! k
P+∞ k−1
(e) Gp = k=1 p(1 − p) δk .
Exemple 2.23 (Mesure de Lebesgue). Il existe une plus petite tribu, notée
B(R) qui contient les intervalles ]a, b[ et une mesure λ : B(R) → [0, +∞]
telle que λ(]a, b[) = b − a et λ(x + A) = λ(A). Par contre, il n’existe pas
d’extension de λ à P(R) avec ces propriétés. Si I ⊂ R est un intervalle, on
note
B(I) := {A | A ⊂ I, A ∈ B(R)} .
La restriction de λ à B(I) est toujours une mesure, appelée la restriction de
la mesure de Lebesgue à I, ou, simplement, la mesure de Lebesgue sur I.
Pour utiliser les probabilités (lois) uniformes, il faut donc calculer des
cardinaux
card(A) = |A|
des divers ensembles A. Ceci est le but de cette partie du cours.
Par exemple, on rappelle que
(1) |A1 × A2 × . . . × An | = |A1 ||A2 | . . . |An | et
(2) |P(Ω)| = 2|Ω| .
Dans la suite, E sera un ensemble contenant n éléments et k ∈ {0, 1, . . . , n}.
Exercice cours 2.28. Une course oppose n concurrents, dont Émile. Cal-
culer la probabilité qu’Émile remporte la médaille d’or.
Solution. (Détails en TD.) Soit E l’ensemble des concurrents, qu’on va
identifier avec {1, 2, . . . , n}, dont Émile sera identifié avec 1. Donc |E| =
n. On suppose que tous les ordres finaux entre les concurrents sont possibles
et qu’elles ont la même probabilité. (Donc on a la loi uniforme.)
L’univers est donc Ω = S(E) et a n! éléments (évén. élém.).
Soit A l’événement “Émile remporte la médaille d’or”. Donc A corre-
spond aux permutations de E qui commencent avec 1. Le nombre de tels
permutations est le nombre des permutations de E r {1}, c-à-d (n − 1)!.
La probabilité que Émile remporte la médaille d’or est donc
por = |A|
|Ω|
= (n−1)!
n!
= n1 .
n−1 n−1 n
Exercice (DM) 3. (a) k−1
+ k
= k
.
16 PROBABILITÉS
n n n n n
(b) k
= n−k
, 1
= n, 0
= n
= 1.
Cours 4
11 Février, 2021
3. VARIABLES ALÉATOIRES
3.1. Fonctions mesurables.
Définition 3.1 (Fonction mesurable). Soient (Ω, M) et (Ω0 , M0 ) deux es-
paces mesurables. On dit que l’applications f : Ω → Ω0 soit (Ω, M) −
(Ω0 , M0 ) mesurable si
∀A0 ∈ M0 , f −1 (A0 ) ∈ M .
(Preuve: cours.)
PROBABILITÉS 17
(Preuve: cours.)
Remarque 3.10.
• Nous nous intéressons à la fonction de répartition de X car elle
détermine la loi de X.
• À son tour, nous nous intéressons à la loi de X car la plupart des
quantités intéressantes associées à X peuvent être calculées en util-
isant uniquement la loi de X.
• X : (Ω, M, µ) → R et Y := id : (R, B(R), PX ) → R ont la même
loi : PY = PX .
Cours 5
4 Mars, 2021
(Preuve: cours.)
(Preuve: cours.) Pour le CC2, seuls les équivalences (1) ⇔ (2) ⇔ (3)
⇔ (4) sont demandées.
Exercice (DM) 4. Montrer (4) ⇒ (5) ⇒ (6) ⇒ (2). (Les dernières deux
implications sont triviales.)
Remarque 3.15. Une mesure P µ : P(Ω) → [0, +∞] est appelée discrète si
elle est de la forme µ = n ∈]0, +∞] et ωn ∈ Ω, c-à-d
n∈N an δωn , aP
∀A ⊂ Ω , µ(A) = n∈N an δωn (A) .
Donc les lois Punif , B(n, p), Pλ et Gp sont discrètes.
Définition 3.16. Si X est une VAR et P est une mesure de probabilité telle
que, PX = P , on dit que X suit la loi P .
PROBABILITÉS 19
Une VAR est donc discrète ssi elle suit une loi discrète.
(Preuve: cours.)
Corollaire 4.4 (Formule des probabilités totales, cas d’une partition finie).
Supposons que Ω = ∪N n=1 Bn , N ∈ N, et que les ensembles Bn ∈ M sont
deux à deux disjoints. Alors
N
X
P (A) = P (A|Bn )P (Bn ) ,
n=1
avec la convention que, dans cette somme aussi, on remplace P (A|Bn )P (Bn )
avec 0, dès que P (Bn ) = 0.
(Preuve: cours.)
Cours 6
18 Mars, 2021
Exemple 4.5. Un lot de 100 dés contient 25 dés pipés dont la proabilité de
sortie du 6 est 21 Un dé est chosi au hasard et lancé.
(1) Quelle est la probabilité d’obtenir 6?
(2) Si on obtien 6, quelle est la probabilité qu’il soit pipé?
Solution. On considère
• B1 = l’événement “le dé est pipé”;
• B2 = l’événement “le dé n’est pas pipé”;
• A = l’événement “le dé a donné 6”.
(Plus de détails en cours).
(Preuve: cours.)
Faire le dernier exemple avec la formule de Bayes.
Cours 7
30 Mars, 2021
4.3. Exemples.
Exemple 4.15. Soit Ω := {1, 2, 3, 4} munie de la probabilité uniforme et
A = {1, 2}, B = {2, 3} et C = {1, 3}. Montrer que ces événements sont 2
à 2 indépendants mais qu’ils ne sont pas mutuellement indépendants.
`
Exemple 4.16. Soient X Y deux VAR (donc indépendantes) telles que
X suit la loi de Bernoulli de paramètre p et Y suit la loi de Bernoulli de
paramère q (p, q ∈ [0, 1]). Trouver les lois de X + Y et XY .
PROBABILITÉS 23
`
Exercice cours 4.17. Soient X Y deux VAR telles que X suivent des loi
de Poisson de paramètres λ > 0 et, respectivement, µ > 0. Montrer que
X + Y suit une loi de Poisson de paramètre λ + µ.
`
Exercice (TD) 3. De même (trouver la loi de X + Y si X Y et
(1) X suit la loi binomiale de paramètre (n, p) et Y suit la loi binomiale
de paramètre (k, p).
(2) X suit la loi géométrique discrète de paramètre p1 et Y suit la loi
géométrique discrète de paramètre p2 .
Cours 8
1 Avril, 2021
5. E SPÉRANCE
5.1. Motivation. Fréquence, moyen, gain moyen, ...
L’espérance d’une VAR donne la valeur que prend X en moyenne. C’est
la valeur de X qu’on peut espérer obtenir.
24 PROBABILITÉS
5.2. Définition.
Définition 5.1 (Espérance d’une VARD). Soit X une VARD. On définit son
espérance E[X] par
X X
E[X] := P (X = a)a = PX ({a})a .
a∈DX a∈DX
Remarques 5.2.
• Donc pour une VARD, on définit l’espérance (mathématique) d’une
variable aléatoire comme étant la somme des produits des valeurs
d’une variable aléatoire par leur probabilité.
• La variance n’est pas toujours définie.
• Notre définition de l’espérance E[X] d’une VARD est valable seule-
ment pour les VAR discrètes. On a une autre définition en général
(pour les VAR non-discrètes) et alors notre définition devient un
théorème du cours de L3.
• L’espérance E[X] d’une VARD depend seulement de ça loi PX . C-
à-d que si X est un VARD et Y est une VAR et PX = PY , alors Y
est aussi discrète et
E[X] = E[Y ] .
(Car
DX := {a | PX ({a}) > 0} = {a | PY ({a}) > 0} =: DY ⊂ R
et donc
X X
E[X] = PX (a)a = PY (a)a = E[Y ].)
a∈DX a∈DY
5.3. Exemples.
Exercice cours 5.3. Calculer l’espérance d’une variable qui suit la loi de
Bernoulli.
Cours 9
08 Avril, 2021
Définition 5.5 (VAR intégrable). Une VAR X est dite intégrable si E[|X|] <
+∞.
Théorème 5.6 (Théorème de transfert I). Soit (Ω, P(Ω), P ) un espace prob-
abilisé avec Ω au plus dénombrable (donc M = P(Ω)). Soit X : Ω → R
une variable aléatoire réelle. Alors X est discrète. Supposons aussi que
que X ≥ 0 ou que X soit intégrable (E[|X|] < +∞). Alors :
X
E[X] = P ({ω})X(ω) .
ω∈Ω
Remarque 5.7. Les résultats suivants sont vrais pour toutes les variables
aléatoires réelles (pas seulement pour celles discrètes), mais la preuve sera
donnée seulement pour le cas Ω au plus dénombrable. En L3 vous allez
démontrer le cas général.
Corollaire 5.14 (exercice DM). Supposons que |X| ≤ Y p.s. et que Y soit
intégrable. Alors X est aussi intégrable et
|E[X]| ≤ E[|X|] ≤ E[Y ] .
Cours 10
15 Avril, 2021
Cours 11
22 Avril, 2021
(Preuve: cours.)
Corollaire 5.26. Si X est une VAR ≥ 0 p.s. et s ∈ C, |s| < 1, alors GX (s)
est défini.
(Preuve: cours.)
(Preuve: cours.)
PROBABILITÉS 31
sp 1
Exercice (DM) 10. Si PX = G(p), alors GX (s) = 1−s(1−p)
, donc R = 1−p
.
(r)
Proposition 5.31. Si R > 1, alors GX (1) = E[X(X − 1) . . . (X − r + 1)]
(moment factoriel d’ordre r). Par conséquant,
2
E[X] = G0X (1) et Var[X] = G00X (1) + G0X (1) − G0X (1) .
= (1 − P (A))δ0 + P (A)δ1 .
P
La définition de E[X] = a∈DX P (X = a)a donne alors E[X] = (1 −
P (A)) × 0 + P (A) × 1 = P (A).
Théorème 5.35. Soit X une VAR avec E[|X|r ] < +∞ et soit α > 0.
] r
(a) P (|X| ≥ α) ≤ E[|X|
αr
.
(b) (Inégalité de Tchebychev-Bienayme) Si r = 2, alors
Var(Y )
P (|Y − E[Y ]| ≥ α) ≤
α2
PROBABILITÉS 33
(Preuve: cours.)
Démonstration. On a
E[X1 ] = E[X2 ] = . . . = E[Xn ] =: m et
(4)
Var(X1 ]) = Var(X2 ) = . . . = Var(Xn ) =: σ 2 ,
car PX1 = PX2 = . . . = PXn .
X1 +X2 +...+Xn
Soit Y := n
. Alors
N
1X
E[Y ] = E[Xj ] = m ,
n n=1
par la linéarité de E. Aussi,
N
1 X
Var[Y ] = 2 Var( Xj ) Lemme 5.37
n n=1
N
1 X
= 2 Var(Xj ) Lemme 5.37
n n=1
1
= nσ 2
n2
34 PROBABILITÉS
Cours 12
14 Mai, 2021
= E a2 (X − E[X])2
= a2 E (X − E[X])2 =: a2 Var(X) .
5.7. Exercices.
Les solutions des exercices ne sont pas toujours complètes. Les preuves
complètes seront données en TD (ou cours).
Donc DZ = {0, 1, 3} et
X
PZ = P (Z = k)δk = (1 − p)(1 − q)δ0 + (p + q − 2pq)δ1 + pqδ3 .
k∈DZ
où DX := {a ∈ R | P (X = a) > 0} ).
Donc
V ar(X) = E[X 2 ] − E[X]2
= E[X(X − 1)] + E[X] − E[X]2
= λ2 + λ − λ2 = λ .
On calcul similaire donne :
GX (s) = E[sX ]
X∞
= P (X = k)sk
k=0
∞
X λk k
= e−λ s
k=0
k!
∞
X (sλ)k
= e−λ
k=0
k!
−λ λs
= e e = eλ(s−1) ,
qui a, donc, un rayon de convergence R = +∞.
PROBABILITÉS 39
Exercice (TD) 7. Soit X une variable aléatoire réelle suivant une loi de
Poisson de paramètre λ > 0. Calculer l’espérance des variable aléatoires
1 1
Y = 1+X et Z = (1+X)(2+X) .
Solution. On a
+∞
X
P (X = Y ) = P (X = k et Y = k)
k=1
+∞
X
= P (X = k)P (Y = k)
k=1
+∞
X
= p(1 − p)k−1 q(1 − q)k−1
k=1
+∞
X j
= pq (1 − p)(1 − q) où j = k − 1
j=0
pq pq
= = .
1 − (1 − p)(1 − q) p + q − pq
40 PROBABILITÉS
Exercice (TD) 11. Soit X une variable aléatoire qui suit la loi de Poisson
de paramètre λ > 0. Calculer E[X] et Var(X) utilisant GX (s) = eλ(s−1) .
Solution. On a
0
G0X (s) = eλ(s−1)
= λeλ(s−1)
0
G00X (s) = λeλ(s−1) = λ2 eλ(s−1) .
Donc
E[X] = G0X (1) = λ
E[X(X − 1)] = G00X (1) = λ2 .
Donc
Var(X) = E[X 2 ]−E[X]2 = E[X(X−1)]+E[X]−E[X]2 = λ2 +λ−λ2 = λ.
Exercice (TD) 12. L’entreprise Tecla produit trois types de voitures : “Mod-
èle X”, “Modèle Y” et “Modèle Z” en deux couleurs : rouge et noir. Elle
produit 300 voitures Modèle X, 200 voitures Modèle Y et 100 voitures
Modèle Z, 60 de chaque modèle sont rouges. Stendhal a acheté une voiture.
(a) Quelle est la probabilité qu’il a acheté une voiture rouge?
(b) Sachant qu’il a acheté un voiture noire, quelle est la probabilité qu’il a
acheté une voiture Modèle Z?
PROBABILITÉS 41
Exercice (TD) 13. Calculer la probabilité que X soir pair si X est une
variable aléatoire réele qui suit la
(a) loi de Poisson de paramètre λ > 0.
(b) loi binomiale de paramètres (n, p), p ∈ [0, 1].
(c) loi géométrique de paramètre p ∈]0, 1[.
(d) loi uniforme sur {0, 1, 2, . . . , n}.