Vous êtes sur la page 1sur 47

Cours de Probabilité

UE MA 206

Siméon FOTSO
Département de Mathématiques
Ecole Normale Supérieure
Université de Yaoundé 1
e-mail : simeonfotso@yahoo.fr

Yaoundé, le 26 mars 2018


Table des matières

1 ANALYSE COMBINATOIRE 3
1.1 Arrangements avec répétition . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Arrangements (sans répétition) . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Permutations (sans répétition) . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Permutations avec répétition . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5 Combinaisons (sans répétition) . . . . . . . . . . . . . . . . . . . . . . . . 6
1.6 Combinaisons avec répétitions . . . . . . . . . . . . . . . . . . . . . . . . . 7

2 Espaces probabilisables 8
2.1 Expérience aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Espaces probabilisables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.1 Univers des possibles . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.2 Famille fondamentale . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.3 Anneau, -anneau, algèbre et -algèbre de parties d’un ensemble . . 9
2.2.4 Espace probabilisable . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.5 Espace probabilisable associé à une expérience aléatoire . . . . . . . 11
2.2.6 Composition des évènements . . . . . . . . . . . . . . . . . . . . . . 11

3 Espaces probabilisés 13
3.1 Trois façons de dé…nir une probabilité . . . . . . . . . . . . . . . . . . . . . 13
3.1.1 Equiprobabilité sur . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.1.2 Approche fréquentiste . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.1.3 Approche subjective . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.2 Probabilité, espace probabilisé . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.2.1 Dé…nition et exemple . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.2.2 Propriétés immédiates d’une probabilité . . . . . . . . . . . . . . 15
3.2.3 Autres propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.3 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . 17

4 Indépendance 18
4.1 Généralités sur l’indépendance . . . . . . . . . . . . . . . . . . . . . . . . . 18
4.1.1 Indépendance de deux évènements . . . . . . . . . . . . . . . . . . . 18
4.1.2 Indépendance de deux familles d’évènements . . . . . . . . . . . . . 19
4.2 Indépendance mutuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.3 Théorème de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

5 Variables aléatoires réelles 22


5.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
5.1.1 Dé…nition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
5.1.2 Loi de probabilité d’une v.a.r . . . . . . . . . . . . . . . . . . . . . 22
5.1.3 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . 23

1
ENS, Département de Maths UE MA 206, Probabilité

5.2 V.A.R discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23


5.2.1 Loi de probabilité de X: . . . . . . . . . . . . . . . . . . . . . . . . 23
5.2.2 Fonction de répartition de X . . . . . . . . . . . . . . . . . . . . . . 23
5.2.3 Opérations sur les v.a.r . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.2.4 Espérance mathématique de X . . . . . . . . . . . . . . . . . . . . 25
5.2.5 Variance et écart-type de X . . . . . . . . . . . . . . . . . . . . . . 26
5.2.6 Moments d’une variable aléatoire . . . . . . . . . . . . . . . . . . . 26
5.3 V.A.R continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
5.3.1 Loi de probabilité de X . . . . . . . . . . . . . . . . . . . . . . . . 27
5.3.2 Fonction de répartition de X: . . . . . . . . . . . . . . . . . . . . . 27
5.3.3 Espérance mathématique, variance et écart-type de X: . . . . . . . 27
5.3.4 Moments d’une variable aléatoire . . . . . . . . . . . . . . . . . . . 28
5.4 Indépendance de deux v.a.r . . . . . . . . . . . . . . . . . . . . . . . . . . 28

6 Lois de probabilité 29
6.1 Lois de probabilité discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . 29
6.1.1 Loi de Bernoulli de paramètre p : B(1; p); 0 p 1: . . . . . . . . 29
6.1.2 Loi binomiale de paramètres n et p : B(n; p); 0 p 1: . . . . . . 29
6.1.3 La loi de Poisson de paramètre : P( ); 2 R+ : . . . . . . . . . . 30
6.1.4 La loi multinomiale de paramètres n; p1 ; p2 ; :::; pk : M(n; p1 ; p2 ; :::; pk ): 30
6.1.5 Loi géométrique de paramètre p : G(p); 0 < p < 1: . . . . . . . . . 31
6.1.6 Loi binomiale négative BN (r; p); r 2 N ; 0 < p < 1: . . . . . . . . . 31
6.1.7 Loi hypergéométrique H(N; n; n1 ) . . . . . . . . . . . . . . . . . . . 32
6.2 Lois de probabilité continues . . . . . . . . . . . . . . . . . . . . . . . . . . 32
6.2.1 La loi normale ou la loi de Laplace-Gauss de paramètres (m; ) :
N (m; ); m 2 R et > 0: . . . . . . . . . . . . . . . . . . . . . . . 32
6.2.2 Loi du Chi-deux à n dégrés de liberté, X 2 (n) . . . . . . . . . . . . . 33
6.2.3 Loi de Student à n dégrés de liberté, T (n) . . . . . . . . . . . . . . 33
6.2.4 Loi de Fisher-Snedecor à p et q dégrés de liberté, F (p; q) . . . . . . 33

7 Fonctions génératrices 34
7.1 Fonction génératrice des probabilités . . . . . . . . . . . . . . . . . . . . . 34
7.2 Fonction génératrice des moments . . . . . . . . . . . . . . . . . . . . . . . 36

8 Vecteurs aléatoires 38
8.1 Produit d’espaces probabilisés . . . . . . . . . . . . . . . . . . . . . . . . . 38
8.2 Vecteurs aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
8.3 Couple de v.a.r discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
8.3.1 Loi conjointe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
8.3.2 Lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
8.3.3 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
8.3.4 Moments, covariance, corrélation . . . . . . . . . . . . . . . . . . . 42
8.3.5 Retour à la notion d’indépendance . . . . . . . . . . . . . . . . . . 43

9 Inégalité de Bienaymé-Tchebyche¤ 44
9.1 Inégalité de Bienaymé-Tchebyche¤ . . . . . . . . . . . . . . . . . . . . . . 44
9.1.1 Inégalité de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
9.1.2 Inégalité de Bienaymé-Tchebyche¤ . . . . . . . . . . . . . . . . . . 44
9.2 Loi faible des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . 45

Page 2
Chapitre 1

ANALYSE COMBINATOIRE

L’analyse combinatoire est la science du dénombrement ou du comptage des dispo-


sitions que l’on peut former à l’aide des éléments d’un ensemble …ni : Une disposition
peut être ordonnée, non ordonnée ou semi-ordonnée d’une part, avec ou sans répétition
d’autre part. Les éléments de l’ensemble peuvent être discernables deux à deux, tous
indiscernables ou bien certains sont discernables et d’autres pas. Les dispositions les plus
classiques sont :
– les arrangements avec et sans répétitions ;
– les permutation avec et sans répétition et
– les combinaisons avec et sans répétitions.
Dans la suite est un ensemble de n éléments 2 à 2 discernables.

1.1 Arrangements avec répétition


Dé…nition 1.1 On appelle arrangement avec répétition de p éléments choisis parmi les
n éléments de ; toute disposition ordonnée, avec répétition éventuellemnt, de p d’entre
les n éléments.

Notation 1.1 On note A0p p


n ou An le nombre de tels arrangements.

Remarque 1.1 1) Notons que 2 arrangements avec répétition de p éléments choisis


parmi les n discernables seront distincts, soit par la nature des objets, soit par leur ordre.
2) Du fait des répétitions, on peut avoir p n:

Calcul de A0p n
Pour construire un arragement avec répétition de n objets distincts p à p; il faut :
– Choisir le premier de ces objets : on a n choix possibles. Comme les répétitions sont
admises, l’élément choisi en premier peut encore être choisi une nouvelle fois à un
autre rang.
– Après le choix du premier objet, il faut choisir le second : on a encore n choix
possibles. On a donc n n façons de choisir le premier et le deuxième objet.
– Il faut faire p choix et chaque fois on a n possibilités, d’où

A0p p
n = n :

Exemple 1.1 Soient E et F 2 ensembles de cardinaux respectifs p et n. Déterminez le


nombre d’applications de E vers F.
Une application de E vers F est obtenue en associant à chaque élément de E, une image

3
ENS, Département de Maths UE MA 206, Probabilité

dans F. Or pour chacun des p éléments de E, on a n choix possibles de son image dans
F ; donc np choix possibles pour l’ensemble des images des éléments de E, c’est-à-dire np
applications possibles de E vers F.

1.2 Arrangements (sans répétition)


Dé…nition 1.2 On appelle arrangement sans répétition (ou tout simplement arrange-
ment) de p éléments choisis parmi les n que contient , toute disposition ordonnée sans
répétition de p de ces éléments.
Notation 1.2 On note Apn ou (n)p (notation anglo-saxonne) le nombre d’arrangements
de n éléments p à p.
Remarque 1.2 1) Tout arrangement de n objets p à p est un arrangement avec répétition
de p de ces objets. Cependant, il existe des arrangements avec répétition qui ne sont pas
sur la liste des arrangements sans répétition. Par conséquence, on a Apn < A0p n pour
1 01
p 6= 1: Si p = 1; on a An = A n = n:
2) On ne peut arranger sans répétition p objets pris parmi n que si p n.
Calcul de Apn
Pour construire un arrangement de p objets choisis parmi n, il faut :
– Choisir le premier de ces objets : on a n choix possibles. Comme les répétitions ne
sont pas admises, l’objet choisi ne peut plus être choisi une nouvelle fois à un rang.
– Après le choix du premier objet, choisir le deuxième : on a n 1 choix possibles ;
donc n(n 1) manières de choisir le premier et le second objets.
– Après le choix du deuxième objet, choisir le troisième : on a n 2 choix possibles ;
donc n(n 1)(n 2) manières de choisir le premier, le deuxième et le troisième
objets.
Il faut faire p choix et chaque fois, le nombre de possibilités diminue d’une unité, d’où
Apn = n(n 1)(n 2)::::(n (p 1))
= n(n 1)(n 2)::::(n p + 1):
Si on utilise la notation n! (lire factorielle n) avec
1 2 ::: n si n 1
n! =
1 si n = 0
on a
n!
Apn = :
(n p)!
Exemple 1.2 Nombre d’applications injectives d’un ensemble à p éléments vers un en-
semble à n éléments. On constate que pour que l’application soit injective, il faut que l’on
ait p n:

1.3 Permutations (sans répétition)


Dé…nition 1.3 On appelle permutation sans répétition (ou tout simplement permuta-
tion) des éléments de , toute disposition ordonnée et sans répétition de l’ensemble des n
éléments.
Notation 1.3 On note Pn le nombre de permutations de n éléments discernables.
De manière évidente, on a
Pn = Ann = n!

Page 4
ENS, Département de Maths UE MA 206, Probabilité

1.4 Permutations avec répétition


Soit une collection de n éléments formés de groupes discernables d’éléments indis-
cernables
a; a; :::; a ; b; b; :::; b ; ::: ; s; s; :::; s
| {z } | {z } | {z }
éléments éléments éléments
avec
+ + ::: + = n:

Dé…nition 1.4 On appelle permutation avec répétition de ces n éléments, toute disposi-
tion ordonnée de l’ensemble des n éléments.

Notation 1.4 On note Pn0 ( ; ; :::; ) le nombre de telles permutations.

Nous allons expliquer le calcul de Pn0 ( ; ; :::; ) sur un exemple.


Calcul de P50 (3; 2)
a; a; a ; b; b
| {z } |{z}
3 éléments 2 éléments

Si tous les éléments étaient discernables, on aurait a1 ; a2 ; a3 ; b1 ; b2 par exemple et le


nombre de permutations de ces éléments serait 5!. Il est évident que la di¤érence entre le
calcul de P50 (3; 2) et le calcul de 5! vient du fait que dans le dernier cas, les éléments sont
tous discernables, alors que dans le premier cas, nous avons deux groupes discernables (a)
et (b), l’un avec 3 objets indiscernables et l’autre 2 objets indiscernables. Le passage de
a; a; a; b; b à a1 ; a2 ; a3 ; b1 ; b2 se fait en indiçant les objets (a), puis les objets (b).
Considérons l’une des P50 (3; 2) permutations avec répétition, par exemple ababa: A
l’aide de cette permutation, on peut construire un certain nombre des 5! permutations
des 5 éléments discernables a1 ; a2 ; a3 ; b1 ; b2 : Pour cela il faut successivement :
– a¤ecter les indices aux éléments (a) ; il y a 3! a¤ectations d’indices possibles, chaque
a¤ectation correspondant à une permutation des éléments a1 ; a2 ; a3 :
– à chacune des 3! a¤ectations d’indices possibles aux éléments (a), on peut associer
2! a¤ectations d’indices possibles aux éléments (b):
Donc au total 3! 2! a¤ectations d’indices possibles.
Cette façon de construire les permutations des éléments a1 ; a2 ; a3 ; b1 ; b2 nous donne,
sans répétition, toutes ces permutations et rien que ces permutations.
Donc
P5 = 3!2!P50 (3; 2)
et on a
5!
P50 (3; 2) =
:
3!2!
Le raisonnement précédent se généralise aisément ; il conduit à la formule

Pn = ! !::: !Pn0 ( ; ; :::; )

c’est à dire
n!
Pn0 ( ; ; :::; ) = :
! !::: !

Page 5
ENS, Département de Maths UE MA 206, Probabilité

1.5 Combinaisons (sans répétition)


Dé…nition 1.5 On appelle combinaison sans répétition (ou plus simplement combinai-
son) de p éléments choisis parmi les n éléments de ; toute disposition non ordonnée et
sans répétition de p éléments choisis parmi les n éléments.
n
Notation 1.5 On note Cnp ou p
(notation anglo-saxonne) le nombre de telles combinai-
sons.
Les p éléments de la combinaison doivent être distincts et sont choisis parmi les n de
l’ensemble ; donc p n:
Calcul de Cnp
À partir d’une combinaison donnée, on peut engendrer des arrangements sans répéti-
tion par permutation des éléments qui …gurent dans la combinaison. Donc une combinaison
sans répétition permet d’engendrer p! arrangements sans répétition. On véri…e aisément
que chacun des Apn arrangements sans répétition est engendré une seule fois par une et
une seule des Cnp combinaisons. Donc
n n!
p!Cnp = Apn et = Cnp = :
p p!(n p)!
Propriétés des nombres Cnp
– Cnp = Cnn p ou encore choisir p éléments parmi n est équivalent à choisir les n p
éléments qui ne …gurent pas dans la combinaison, parmi n.
– Cnp = Cnp 1 + Cnp 11 : Soit ! i un élément …xé de : Le nombre de combinaisons de
p éléments choisis parmi n est la somme du nombre de combinaisons contenant
! i (Cnp 11 ) et du nombre de combinaisons ne contenant pas ! i (Cnp 1 ). Cette relation
de récurrence permet de calculer de proche en proche les valeurs de Cnp , à condition
de poser Cn0 = 1 (c’est-à-dire 0! = 1). On obtient alors le triangle de Pascal.
– Formule du binôme de Newton.
Xn
n
(a + b) = Cnp ap bn p :
p=0

– Pour a = b = 1; on obtient
Cn0 + Cn1 + ::: + Cnn = 2n :
– Pour a = b= 1;on a
Cn0 Cn1 + ::: + ( 1)n Cnn = 0:
– Par addition et soustraction des 2 dernières formules, on obtient
X X
Cn2p = Cn2p+1 = 2n 1 :
p p

Exemple 1.3 Soit E un ensemble de n éléments. Déterminer le nombre de sous-ensemble


de E. Parmi ce nombre, combien de sous-ensemble ont exactement p éléments ?
Un sous-ensemble de E est caractérisé par les éléments de E qui y …gurent. Etant donné
un élément de E, soit il appartient au sous-ensemble, soit il n’appartient pas. Un sous-
ensemble de E est donc une application de E vers F = f2; 2g = : Le nombre de sous en-
sembles est donc 2n :
Parmi ces 2n parties, il y a Cnp qui ont exactement p éléments. On véri…e alors facilement
que
X
n
Cnp = 2n :
p=0

Page 6
ENS, Département de Maths UE MA 206, Probabilité

1.6 Combinaisons avec répétitions


Dé…nition 1.6 On appelle combinaison avec répétition de p éléments choisi parmi les n
de , toute disposition non ordonnée, avec répétition éventuellement de p éléments parmi
les n éléments.

Notation 1.6 On note Cn0p ou Knp le nombre de telles combinaisons.

Du fait des répétitions éventuelles, on peut avoir p n. De plus, toute combinaison


de p éléments est une combinaison avec répétition de p éléments ; donc Cnp Cn0p :
Calcul de Cn0p :
Considérons n cases discernables numérotées a; b; :::; s, séparées par n 1 cloisons
intermédiaires et prenons p boules. Nous pouvons dénombrer les façons de ranger les
boules dans ces cases ; une case peut recevoir 0; 1; :::; jusqu’à p boules. La relation entre
les rangements des boules dans les cases et les combinaisons avec répétition est expliquée
dans l’exemple suivant : n = 3; p = 6.
Soit a; a; a; b; b; c une de ces combinaisons. On lui associe le rangement suivant :

ooo
|{z} oo
|{z} o
|{z}
case a case b case c

3 boules dans la case a; 2 boules dans la case b et une boule dans la case c:
Réciproquement, au rangement

o
|{z} oooo
|{z} o
|{z}
case a case b case c

on associe la combinaison a; b; b; b; b; c:
Ainsi, nous avons autant de combinaisons avec répétition de 6 objets parmi les 3
discernables que de rangements de 6 boules indiscernables dans 3 cases discernables. Or
un rangement de boules est obtenu par permutation de 8 objets divisés en 2 groupes
discernables : les 6 boules et les 2 cloisons intermédiaires. Donc
(3 1 + 6)! 8!
C306 = P30 1+6 (3 1; 6) = = :
(3 1)!6! 2!6!

Le raisonnement précédent se généralise aisément et conduit à

(n 1 + p)!
Cn0p = Pn0 1+p (n 1; p) = :
(n 1)!p!

On remarque alors que


p
Cn0p = Cn+p 1:

Page 7
Chapitre 2

Espaces probabilisables

2.1 Expérience aléatoire


Faire une expérience consiste à réaliser un ensemble donné de conditions et à observer
ce qui se produit comme conséquence de la réalisation de ces conditions. Cette conséquence
peut être simple ou complexe ; dans tous les cas, elle doit être décrite avec précision. Il
existe 2 types d’expérience : les expériences déterministes et les expériences aléatoires.
Une expérience déterministe est une expérience dont le résultat ne change pas. Un
ensemble donné de conditions détermine donc un résultat unique. On dit encore que les
mêmes causes produisent les mêmes e¤ets. Les sciences physiques et la biologie nous
o¤rent beaucoup d’expériences de ce type.
A l’inverse, une expérience aléatoire est une expérience dont le résultat échappe à toute
prévision. En répétant plusieurs fois les mêmes conditions, le résultat de l’expérience peut
changer sans qu’on ne puisse déterminer la cause. La seule chose dont on est sûr est que le
résultat est élément d’un ensemble appélé ensemble fondamental. L’ensemble fondamental
d’une expérience aléatoire est donc l’ensemble des résultats possibles de cette expérience.

Exemple 2.1 (Jet d’un dé). L’expérience consiste à prendre un dé à 6 faces numéro-
tées de 1 à 6, à le jeter en l’air, à attendre qu’il tombe et qu’il s’immobilise. On note
alors le numéro de la face supérieure qui apparait et c’est le résultat de l’expérience. Si
nous reprenons la même expérience à plusieurs reprises, nous observerons tantôt 1, tantôt
2,...,tantôt 6. La seule certitude est que le résultat est élément de = f1; 2; 3; 4; 5; 6g:

Exemple 2.2 (Tirage d’une carte dans un jeu de 52 cartes). On considère un jeu de 52
cartes du type que l’on trouve dans le commerce. L’expérience consiste à battre longtemps
ces cartes et à tirer l’une d’elles. On note la carte tirée et c’est le résultat de l’expérience.
L’ensemble fondamental de cette expérience est l’ensemble des 52 cartes.

Exemple 2.3 (Séries du bac des étudiants de l’ESSEC). On considère une promotion de
52 élèves de première année d’une grande école de commerce (ESSEC). Les séries du bac
présentées par ces élèves, ainsi que les e¤ectifs correspondants sont les suivants :
Série B C D G Total
E¤ectif 25 7 16 4 52
On considère alors une urne à 52 boules, sur chaque boule est inscrit le nom d’un étudiant.
On tire au sort une boule de l’urne et le résultat de l’expérience est la série du bac de
l’étudiant dont le nom est marqué sur la boule tirée.
En notant les séries du bac par des minuscules, l’ensemble des résultats possibles de cette
expérience est = fb; c; d; gg:

8
ENS, Département de Maths UE MA 206, Probabilité

2.2 Espaces probabilisables


2.2.1 Univers des possibles
Dans le cadre d’une expérience aléatoire donnée, nous supposons qu’il est possible de
dresser la liste exhaustive de tous les résultats possibles. Cette liste détermine un ensemble
appelé ensemble fondamental ou univers des possibles. La donnée de l’univers des possibles
doit être considérée comme faisant partie de la description de l’expérience aléatoire.
Nous noterons souvent l’univers des possibles par :
Un élément de répresente donc un résultat dans le cadre de l’expérience aléatoire
envisagée ; on parlera encore de résultat élémentaire.
Dans l’expérience aléatoire de l’exemple 2.3, l’univers des possibles est = fb; c; d; gg : A
partir de , on peut faire les regroupements suivants

Série scienti…que fc; dg


Série économique fb; gg
Série plus théorique que technique fb; c; dg :

Chacun de ces sous ensembles de dé…nit une série de bac et ne …gure pas sur la liste
: Ils dé…nissent chacun un résultat complexe.

2.2.2 Famille fondamentale


C’est la liste exhaustive de tous les résultats complexes.

Exemple 2.4 Dans l’expérience de l’exemple 2.3, nous pouvons retenir selon nos préoc-
cupations, telle ou telle famille fondamentale.
(i) Si nous nous intéressons aux bacs théoriques Bt = fb; c; dg ; la famille fondamentale
ne comportera que la seule partie Bt : On posera alors F = fBt g :
(ii) Si nos préoccupations portent à la fois sur les bacs scienti…ques Bs = fc; dg et sur les
bacs économiques Be = fb; gg ; on aura F = fBs ; Be g :
(iii) Si nous nous intéressons aux bacs scienti…ques, aux bacs économiques et aux bacs
théoriques, on choisit F = fBs ; Be ; Bt g :
(iii) Si l’on veut s’intéresser à tous les résultats élémentaires et complexes, on choisit
F = P ( ) l’ensemble des parties non vides de : Notons que la partie vide n’a ici au-
cune signi…cation concrète.

2.2.3 Anneau, -anneau, algèbre et -algèbre de parties d’un


ensemble
Anneau de parties d’un ensemble
Soit un ensemble non vide et R une famille non vide de parties de (les éléments
de R sont des sous ensembles de ):

Dé…nition 2.1 R est un anneau (ou anneau de boole) des parties de ; si R est stable
pour la réunion et la di¤érence. Ceci signi…e :

(i) 8A 2 R;8B 2 R; A [ B 2 R:
(ii) 8A 2 R;8B 2 R; A B 2 R:

Propriétés
Si R est un anneau de parties de ; alors

Page 9
ENS, Département de Maths UE MA 206, Probabilité

– ; 2 R:
– 8A 2 R; 8B 2 R; A \ B 2 R:
– 8A 2 R; 8B 2 R; A M B 2 R

Algèbre de parties d’un ensemble


Soit A une famille non vide de parties de :

Dé…nition 2.2 A est une algèbre (ou algèbre de boole) des parties de ; si A est un
anneau et 2 A:

Théorème 2.1 Soit A une famille non vide de parties de ; alors A est une algèbre ssi
A est un anneau stable pour la complémentation.

Une algèbre est donc une famille non vide de parties de ; stable pour la réunion
et la complémentation. De plus une algèbre est stable pour la di¤érence, la di¤érence
symétrique et l’intersection.

Remarque 2.1 La terminologie anneau, algèbre utilisée est justi…ée de la manière sui-
vante : Si R est un anneau de parties de ; on dé…nit dans R les opérations suivantes :

Addition : A+B =AMB


Multiplication : A B = A \ B:

Alors (R; +; ) est un anneau au sens classique (algébrique) du terme. Dans ces condi-
tions, une algèbre est un anneau unitaire.

-anneau de parties de
Dé…nition 2.3 Soit R un anneau de parties de : R est un -anneau de parties de si
R est stable pour la réunion dénombrable ; c’est à dire

8(An )n2N une famille d’éléments de R; [ An 2 R:


n2N

Remarque 2.2 Tout -anneau est stable pour l’intersection dénombrable.

-algèbre de parties de
Dé…nition 2.4 A est une -algèbre de parties de si A est un -anneau et 2 A:

Proposition 2.1 (i) Toute intersection d’anneaux (resp. algèbres) de parties de est
un anneau (resp. une algèbre) de parties de : (ii) Toute intersection de -anneaux (resp.
-algèbres) de parties de est un -anneau (resp. une -algèbre) de parties de :

Anneau (resp. algèbre) engendré par une famille de parties de


Soit F P( ): L’ensemble des anneaux (resp. algèbres) de parties de contenant
F n’est pas vide car F P( ) et P( ) est un anneau (resp. une algèbre). L’intersection
de tous les anneaux (resp. toutes les algèbres) contenant F est un anneau (resp. une
algèbre) noté r(F) (resp. a(F)); on l’appelle anneau (resp. algèbre) engendré par F:
Donc F r(F) (resp. F a(F)) et r(F) (resp. a(F))est le plus petit anneau (resp.
la plus petite algèbre) de parties de contenant F:

Page 10
ENS, Département de Maths UE MA 206, Probabilité

-anneau (resp. -algèbre) engendré par une famille de parties de


Soit F P( ): L’ensemble des -anneaux (resp. -algèbres) de parties de contenant
F n’est pas vide car F P( ) et P( ) est un -anneau (resp. une -algèbre). L’intersec-
tion de tous les -anneaux (resp. toutes les -algèbres) contenant F est un -anneau (resp.
une -algèbre) noté (F) (resp. (F)); on l’appelle -anneau (resp. -algèbre) engendré
par F:
Donc F (F) (resp. F (F)) et (F) (resp. (F)) est le plus petit -anneau
(resp. la plus petite -algèbre) de parties de contenant F:

Remarque 2.3 Lorsque est …ni, anneau et -anneau sont équivalents d’une part et
algèbre et -algèbre sont aussi équivalents d’autre part.

Remarque 2.4 En probabilité, on dit souvent tribu à la place de -algèbre.

2.2.4 Espace probabilisable


Dé…nition 2.5 On appelle espace probabilisable, tout couple ( ; A) où est un ensemble
non vide et A une tribu de parties de :

Il en découle les dé…nitions suivantes :

Dé…nition 2.6 Soit ( ; A) un espace probabilisable.


(i) 8A 2 A; A est appelé évènement.
(ii) Un évènement élémentaire est un évènement reduit à un singleton.
(iii) est appelé évènement certain et ; évènement impossible.
(iv) Deux évènements A et B sont incompatibles si A \ B = ;:

2.2.5 Espace probabilisable associé à une expérience aléatoire


Dans la dé…nition de la notion d’espace probabilisable, nous n’avons fait aucune réfé-
rence à la notion d’expérience aléatoire. Cependant la notion d’espace probabilisable est
sans signi…cation intuitive en déhors d’une expérience aléatoire.
Considérons une expérience aléatoire E dont l’univers des possibles est : Pour cer-
taines raisons qui dépendent de nos préoccupations, on peut retenir telle ou telle famille
fondamentale F: La famille F engendre une tribu de parties de ; (F): Ainsi à E on
associe au moins l’espace probabilisable ( ; (F)): Si aucune préoccupation particulière
n’est exprimée, on choisit ( ; P( )): Ainsi à toute expérience aléatoire, on peut associer
au moins un espace probabilisable.
Réciproquement, à tout espace probabilisable ( ; A); on peut toujours trouver une
expérience aléatoire dont l’univers des possibles est et pour laquelle on a retenu une
famille fondamentale F telle que (F) = A: Le nombre d’expériences aléatoires qu’on
peut associer à ( ; A) est in…ni. Il vaut mieux alors dans chaque cas expliciter l’expé-
rience aléatoire à laquelle on se refère, car sinon on se refère à un ensemble d’expériences
aléatoires qui di¤èrent ne serait ce que par la composition de l’urne (proportion des boules
des di¤érentes catégories).

2.2.6 Composition des évènements


– Soit ( ; A) l’espace probabilisable associé à une expérience aléatoire. Une édition de
l’expérience donne lieu à l’observation d’un résultat élémentaire, c’est à dire d’un
élément ! de :

Page 11
ENS, Département de Maths UE MA 206, Probabilité

Un évènement A est réalisé si le résultat élémentaire observé ! appartient à A: Plusieurs


évènements peuvent donc être réalisés à l’issue d’une expérience aléatoire. Par
exemple est toujours réalisé (d’où le nom évènement certain donné à ) et à
l’inverse ; n’est jamais réalisé (d’où le nom évènement impossible).
– Considérons l’ensemble des évènements associés à une expérience aléatoire. Dans
cet ensemble, on dé…nit les opérations suivantes : soient A et B 2 évènements.
– Opération "ou" : L’évènement "A ou B" est celui qui est réalisé ssi A est réalisé
ou B est réalisé. "A ou B" est donc réalisé ssi le résultat élémentaire observé
appartient à A [ B: "A ou B" est noté A [ B:
– Opération "et" : L’évènement "A et B" est celui qui est réalisé ssi A est réalisé et B
est réalisé. "A et B" est donc réalisé ssi le résultat élémentaire observé appartient
à A \ B: "A et B" est noté A \ B:
– Négation d’un évènement : L’évènement "nonA" est celui qui est réalisé ssi A n’est
pas réalisé. Donc "nonA" est réalisé ssi le résultat élémentaire observé n’appartient
pas à A: "nonA" est noté A; avec A = C A = A; le complémentaire de A dans
:

Page 12
Chapitre 3

Espaces probabilisés

Soit ( ; A) l’espace probabilisable associé à une expérience aléatoire ; A un élément


de A: Nous voulons donner une expression quantitative des chances de réalisations de A
dans le cadre de l’expérience. Ce nombre sera noté P (A) et sera appelé probabilité de
l’évènement A.

3.1 Trois façons de dé…nir une probabilité


Trois démarches di¤érentes conduisent à la dé…nition axiomatique d’une probabilité.

3.1.1 Equiprobabilité sur


Considérons l’expérience aléatoire de l’exemple 2.1. Si nous supposons le dé symétrique
et parfaitement homogène (donc parfait), il est raisonnable de penser que chaque face a
les mêmes chances de paraitre que n’importe quelle autre face. On peut donc écrire
P ( ) = P (f1g) + P (f2g) + ::: + P (f6g) = 1
pour exprimer le fait que a 100% de chance d’être réalisé. On en déduit
1
P (f1g) = P (f2g) = ::: = P (f6g) = :
6
Les évènements élémentaires f1g ; f2g ; :::; f6g sont alors dits équiprobables.
De façon générale, si les éléments de sont équiprobables, la probabilité d’un évène-
ment A s’écrit
card(A)
P (A) = :
card( )
Cette formule s’exprime en disant : en cas d’équiprobabilité des évènements élémentaires,
la probabilité d’un évènement A est égale au nombre de cas favorables à sa réalisation
(card(A)) divisé par le nombre de résultats possibles de l’expérience (card( )):
L’hypothèse d’équiprobabilité est généralement faite lorsqu’elle est justi…ée, par exemple
dans les cas de tirages de boules dans les urnes.

3.1.2 Approche fréquentiste


On repète n fois une expérience aléatoire et les n répétitions sont indépendantes. Soit
A un évènement et nA le nombre de réalisations de A au cours des n répétitions. La
probabilité de A est dé…nie par
nA
P (A) = lim :
n!+1 n

13
ENS, Département de Maths UE MA 206, Probabilité

Le réel fA = nnA ; fréquence empirique de A; est une approximation de la probabilité de


A: L’inégalité de Bienaymé-Tchebyche¤ que nous verrons plus loin assure la convergence
en probabilité de fA vers P (A):
L’approche féquentiste dé…nit donc la probabilité d’un évènement comme la fréquence
empirique de cet évènement.

Exemple 3.1 Sur une période de 100 jours, une compagnie d’assurance a observé que le
nombre de voitures assurées par jour se repartit de la manière suivante :

Nombre de voitures assurés 0 1 2 3 4 5 6


Nombre de jours 7 16 18 23 20 11 5

On en déduit les probabilités

Nombre de voitures assurée (x) 0 1 2 3 4 5 6


Probabilité d’assurer x voitures 0.07 0.16 0.18 0.23 0.20 0.11 0.05

Remarque 3.1 On remarquera la similitude du tableau précédent avec les tableaux sta-
tistiques à une variable.

3.1.3 Approche subjective


L’approche précédente élargit le champ des expériences probabilisables. Cependant
elle ne permet pas de parler de probabilité dans le cadre d’une expérience qui ne peut
pas être répétée plusieurs fois dans les mêmes conditions. Dans ce cas la probabilité d’un
évènement est l’objet des croyances, des convictions ou intuitions, pourvues qu’elles soient
fortes.

Exemple 3.2 Considérons un jour donné, un match de football entre deux équipes A et
B. Un expert estime que la probabilité pour que l’équipe A gagne est 35 : Ici, on ne peut pas
parler d’expérience qui peut être répétée plusieurs fois dans les mêmes conditions. On ne
peut pas non plus parler d’équiprobabilité. La probabilité donnée par l’expert s’appuie sur
appréciation subjective des prestations des deux équipes à une période précise.

3.2 Probabilité, espace probabilisé


3.2.1 Dé…nition et exemple
Dé…nition 3.1 (Probabilité). Soit ( ; A) un espace probabilisable. On appelle probabilité
sur ( ; A); toute application P : A ! [0; 1] véri…ant les propriétés suivantes :

P
(i) 8(An )n2N suite d’éléments de A 2 à 2 disjoints, P [ An = P (An ) .
n2N n2N
(ii) P ( ) = 1:

Si P est une probabilité sur ( ; A); le triplet ( ; A;P ) est appelé espace probabilisé.

Remarque 3.2 La propriété (i) ci-dessus est appelée -additivité de P:

Page 14
ENS, Département de Maths UE MA 206, Probabilité

Exemple 3.3 Considérons l’expérience aléatoire de l’exemple 2.3. Associons à cette ex-
périence l’espace probabilisable ( ; A) où = fb; c; d; gg et A =f;; Be ; B e ; g avec
Be = fb; gg les bacs économiques. Nous pouvons dé…nir sur ( ; A) :

P : A ! [0; 1] tel que P (;) = 0; P (Be ) = 0:56; P (B e ) = 0:44 et P ( ) = 1;


P 0 : A ! [0; 1] tel que P 0 (;) = 0; P 0 (Be ) = 12 ; P 0 (B e ) = 21 et P 0 ( ) = 1;
P 00 : A ! [0; 1] tel que P 00 (;) = 0; P 00 (Be ) = 32 ; P 00 (B e ) = 31 et P 00 ( ) = 1;

P; P 0 et P 00 sont des probabilités sur ( ; A): On a donc 3 espaces probabilisés ( ; A; P ); ( ; A; P 0 ) et


( ; A; P 00 ):
Est ce que les 3 probabilités conviennent ?
A la lumière des observations, ( ; A; P ) est la meilleure formulation de la situation décrite
par l’expérience aléatoire ; en e¤et les observations nous renseignent qu’il y a dans cette
promotion, 56 % de bacs b ou g et 44% de bacs c ou d. Ceci nous conduit à la remarque
suivante :

Remarque 3.3 La probabilité P doit donc être une représentation numérique …dèle de
l’information quantitative disponible. C’est dans ce cas et dans ce cas seulement que
( ; A; P ) sera considéré comme un bon modèle du problème étudié : le modèle probabiliste.

3.2.2 Propriétés immédiates d’une probabilité


Théorème 3.1 Soit ( ; A;P ) un espace probabilisé, A et B deux évènements.
(i) P (A) = 1 P (A):
(ii) P (;) = 0:
(iii) A B ) P (A) P (B) et P (B A) = P (B) P (A):
(iv) 0 P (A) 1:
(v) P (A [ B) = P (A) + P (B) P (A \ B) (c’est le théorème des probabilités totales).

Théorème 3.2 Soit ( ; A;P ) un espace probabilisé,


(i) Additivité simple. Si A1 ; A2 ; ::::; An sont n éléments de A 2 à 2 disjoints,

n X
n
P [ Ai = P (Ai ):
i=1
i=1

(ii) Sous additivité simple. Si A1 ; A2 ; ::::; An sont n éléments de A non nécessairement 2


à 2 disjoints,
n Xn
P [ Ai P (An ):
i=1
i=1

Preuve 3.1 (i) Cette propriété a déjà été utilisée dans les preuves du théorème précédent ;
montrons la maintenant. On dé…nit la suite (Bi )i 1 par Bi = Ai si i n et Bi = ; si
n n
i > n: Les Bi sont 2 à 2 disjoints et on a [ Bi = [ Bi = [ Ai : La additivité implique
i 1 i=1 i=1

n X
+1 X
n
P [ Ai = P [ Bi = P (Bi ) = P (Ai )
i=1 i 1
i=1 i=1

car P (;) = 0:
(ii) Par recurrence sur n:

Page 15
ENS, Département de Maths UE MA 206, Probabilité

3.2.3 Autres propriétés


Théorème 3.3 (continuité croissante ou décroissante) Soit ( ; A;P ) un espace proba-
bilisé, (An )n 1 une suite d’évènements de A qui soit ou bien croissante (c’est à dire
An An+1 8n 1) ou bien décroissante (c’est à dire An+1 An ): Alors, dans le cas
croissant
+1
lim P (An ) = P [ An ;
n!+1 n=1

et dans le cas décroissant


+1
lim P (An ) = P \ An :
n!+1 n=1

Preuve 3.2 Dans le cas d’une suite croissante, posons B1 = A1 et Bn = An An 1 : Les


X n X
n
Bn sont 2 à 2 disjoints et P [ Bn = P (Bn ): On a P (An ) = P [ Bi = P (Bi ): En
n 1 i=1
n 1 i=1
passant à la limite, on a

X
+1
lim P (An ) = P (Bn ) = P [ Bn =P [ An :
n!+1 n 1 n 1
n=1

car [ An = [ Bn :
n 1 n 1
Dans le cas d’une suite décroissante, on se ramène au cas précédent par passage au com-
plémentaire :

lim P (An ) = 1 lim P (An )


n!+1 n!+1

= 1 P [ An
n 1

= 1 1 P \ An
n 1

= P \ An :
n 1

Théorème 3.4 (Sous additivité dénombrable) Soit ( ; A;P ) un espace probabilisé, (An )n 1 une
X
+1
suite d’évènements de A: Alors ou bien la série P (An ) diverge ; ou bien elle converge
n=1
+1 X
+1
et dans ce cas P [ An P (An ):
n=1
n=1

Preuve 3.3 La suite Bn = A1 [ A2 [ ::: [ An est croissante et on peut lui appliquer le


théorème précédent. En utilisant la sous additivité …nie, on a donc

X
+1
P [ An = lim P (Bn ) lim (P (A1 ) + P (A2 ) + ::: + P (An )) = P (An ):
n 1 n!+1 n!+1
n=1

Page 16
ENS, Département de Maths UE MA 206, Probabilité

3.3 Probabilités conditionnelles


Soit ( ; A) un espace probabilisable et A 2 A: On dé…nit la famille suivante des parties
de A;

AA = fB \ A; B 2 Ag :

Proposition 3.1 AA est une tribu des parties de A; de sorte que (A; AA ) est un espace
probabilisable.

Soit P une probabilité sur ( ; A) telle que P (A) 6= 0: A l’aide de P; nous allons dé…nir
une probabilité sur (A; AA ): Considérons l’application

P0 : AA ! [0; 1]
P (B\A) :
B\A 7 ! P (A)

Proposition 3.2 P 0 est une probabilité sur (A; AA ); donc (A; AA ; P 0 ) est un espace pro-
babilisé.

Changement de notation
On pose P 0 (A \ B) = P (B=A); B=A est appelé l’évènement "B sachant que A est réa-
lisé", P (B=A) est alors la probabilité de réalisation simultanée de l’évènement B sachant
que l’évènement A est réalisé. Il ne faut pas confondre P (B=A) et P (A \ B) la probabilité
de réalisation simultanée de A et B: Dans P (B=A); l’expérience a été e¤ectuée et on nous
informe que A est réalisé ; avec cette information, on cherche la probabilité que le résultat
élémentaire observé appartienne à B (donc à A \ B):

Proposition 3.3 Soit ( ; A;P ) un espace probabilisé. Soit A 2 A tel que P (A) 6= 0: On
dé…nit
P ( =A) A ! [0; 1]
B 7 ! P P(A\B)(A)

P ( =A) est une probabilité sur ( ; A): Donc ( ; A;P ( =A)) est un espace probabilisé.

Théorème 3.5 (des probabilités composées) Soit ( ; A;P ) un espace probabilisé. Soit A 2
A tel que P (A) 6= 0: Alors 8B 2 A; P (A \ B) = P (A):P (B=A):

Ce résultat est utilisé pour calculer la probabilité de l’intersection de 2 évènements.

Théorème 3.6 (Formule des probabilités totales) Soient A1 ; A2 ; :::; An n évènements de


l’espace probabilisé ( ; A;P ): Alors

P (A1 \ A2 \ ::: \ An ) = P (A1 )P (A2 =A1 )P (A3 =A1 \ A2 ):::P (An =A1 \ A2 \ ::: \ An 1 )

Page 17
Chapitre 4

Indépendance

4.1 Généralités sur l’indépendance


4.1.1 Indépendance de deux évènements
Dé…nition 4.1 Soit ( ; A;P ) un espace probabilisé, A et B 2 éléments de A: A et B sont
indépendants en probabilité (relativement à P) si P (A \ B) = P (A):P (B): Dans le cas
contraire, A et B sont dits dépendants.

Exemple 4.1 Soit = fa; b; c; dg ; A =P( ) et P l’équiprobabilité sur : On dé…nit


les évènements : A = fa; bg ; B = fa; cg ; C = fa; dg :
On a P (A) = P (B) = 21 et P (A\B) = P (A)P (B) = 14 : Donc A et B sont P-indépendants
(c’est à dire indépendants relativement à P).
Comme P (C) = 12 ; P (:=C) est une probabilité sur ( ; A): Posons P 0 (E) = P (E=C) 8E 2
A: On a P 0 (A) = P 0 (B) = 12 : On a également P 0 (A \ B) = 12 : Donc A et B ne sont plus
P 0 -indépendants.

Remarque 4.1 On a ainsi sur l’espace probabilisable ( ; A); deux évènements qui sont
tantôt indépendants, tantôt dépendants, selon la probabilité de ( ; A):

Remarque 4.2 L’indépendance dépend de la probabilité P. Deux évènements de A peuvent


être indépendants pour une probabilité de ( ; A) et ne plus l’être pour une autre probabilité
de ( ; A).

Théorème 4.1 Soit ( ; A) un espace probabilisable. Pour toute probabilité de ( ; A); 8A 2


A; les évènements ; et A (resp. A et ) sont indépendants.

Théorème 4.2 Soit ( ; A;P ) un espace probabilisé. Pour tout évènement A de A; A est
indépendant de A ssi P (A) = 0 ou P (A) = 1:

Théorème 4.3 Soit ( ; A;P ) un espace probabilisé, A et B 2 éléments de A: Si A et B


sont indépendants, alors

(i) A et B sont indépendants.


(ii) A et B sont indépendants.
(iii) A et B sont indépendants.

18
ENS, Département de Maths UE MA 206, Probabilité

Preuve 4.1 (i) On a = B [ B; donc A = A \ = A \ (B [ B) = (A \ B) [ (A \ B):


Il vient

P (A) = P (A \ B) + P (A \ B)
= P (A)P (B) + P (A \ B) (car A et B sont indépendants)

On en déduit

P (A \ B) = P (A) P (A)P (B) = P (A)(1 P (B)) = P (A)P (B)

(ii) On permute les rôles de A et de B dans ce qui précède.


(iii) Appliquer (i) à (ii) ou bien (ii) à (i).

4.1.2 Indépendance de deux familles d’évènements


Dé…nition 4.2 Soit ( ; A;P ) un espace probabilisé, F1 et F2 deux familles d’évènements.
F1 et F2 sont indépendants si :

8F1 2 F1 ; 8F2 2 F2 ; F1 et F2 sont indépendants.

Remarque 4.3 On peut choisir F1 et F2 comme deux sous tribus de A; et donc parler
de l’indépendance de deux sous tribus de A:

Théorème 4.4 Soit ( ; A;P ) un espace probabilisé, A et B deux évènements. A et B sont


indépendants ssi les tribus ;; A; A; et ;; B; B; ; qu’ils engendrent respectivement,
sont indépendantes.

4.2 Indépendance mutuelle


Dé…nition 4.3 Soit ( ; A;P ) un espace probabilisé, A1 ; A2 ; :::; An n sous tribus de A: On
dit que les sous tribus A1 ; A2 ; :::; An sont mutuellement indépendantes si : 8Ai 2 Ai ; i =
1; 2; :::; n; on a
n
P \ Ai = P (A1 )P (A2 ):::P (An ):
i=1

Remarque 4.4 Si n = 2; l’indépendance mutuelle des sous tribus A1 et A2 de A est


identique à leur indépendance dé…nie ci-dessus.

Théorème 4.5 Si n sous tribus A1 ; A2 ; :::; An sont mutuellement indépendantes, p quel-


conques d’entre elles (p < n) sont mutuellement indépendantes.

Preuve 4.2 Soient Aj1 ; Aj2 ; :::; Ajp p des n sous tribus mutuellement indépendantes et
soient Aj1 ; Aj2 ; :::; Ajp quelconques choisis dans ces p sous tribus. Si Ai n’est pas une des
p sous tribus retenues, on choisit dans Ai Ai = : On a donc
n
P \ Ai = P (A1 )P (A2 ):::P (An )
i=1

qui s’écrit encore


p
P \ Ajk = P (Aj1 )P (Aj2 ):::P (Ajp )
k=1

puisque P ( ) = 1: D’où l’indépendance des p sous tribus.

Page 19
ENS, Département de Maths UE MA 206, Probabilité

Dé…nition 4.4 Soit ( ; A;P ) un espace probabilisé, A1 ; A2 ; :::; An n évènements de A: On


dit que ces n évènements sont mutuellement indépendants si les sous tribus ;; Ai ; Ai ; ;i =
1; 2; :::; n; qu’ils engendrent respectivement, sont mutuellement indépendantes.

Remarque 4.5 Si n = 2; l’indépendance mutuelle de 2 évènements est identique à leur


indépendance dé…nie plus haut. Mais pour n > 2; l’indépendance mutuelle ne se confond
plus avec l’indépendance 2 à 2.

Théorème 4.6 Si n évènements A1 ; A2 ; :::; An sont mutuellement indépendants, p quel-


conques d’entre eux (p < n) sont mutuellement indépendants.

Preuve 4.3 Soient Ai1 ; Ai2 ; :::; Aip p des n évènements mutuellement indépendants. Les
sous tribus Aik = ;; Aik ; Aik ; k = 1; 2; :::; p; engendrées respectivement par ces p
évènements sont p sous tribus choisies parmi les n sous tribus mutuellement indépendantes
Ai = ;; Ai ; Ai ; i = 1; 2; :::; n: Le résultat s’en suit en appliquant le théorème précédent.

Corollaire 4.1 Si n évènements A1 ; A2 ; :::; An sont mutuellement indépendants, alors ils


sont indépendants deux à deux.

Remarque 4.6 La réciproque du résultat précédent est fausse. En d’autres termes, l’in-
dépendance deux à deux de n évènements n’entraine pas l’indépendance mutuelle de ces
évènements.

Exemple 4.2 Les évènements A, B et C de l’exemple (4.1) sont indépendants 2 à 2,


mais ne sont pas mutuellement indépendants.

Interprétation de l’indépendance
En général, pour 2 évènements A et B, on a P (B=A) 6= P (B); ceci a une signi…cation
intuitive évidente : la réalisation ou la non réalisation de A in‡ue sur les chances de
réalisation de B. Autrement dit, "B dépend de A d’une certaine manière". Dans le cas où
A et B sont indépendants, on a P (A \ B) = P (A):P (B) = P (A):P (B=A) d’où l’on tire
P (B) = P (B=A) si P (A) 6= 0: Par symétrie, si P (B) 6= 0 on a aussi P (A) = P (A=B): Donc
A et B sont indépendants ssi la réalisation (ou la non réalisation) de l’un, n’a aucune
in‡uence sur la réalisation (ou la non réalisation) de l’autre.

4.3 Théorème de Bayes


Dé…nition 4.5 Soit ( ; A;P ) un espace probabilisé. On appelle système complet d’évène-
ments, une partition de en n évènements ; c’est à dire une famille B1 ; B2 ; :::; Bn d’éléments
de A telle que
(i) Bi 6= ; 8i = 1; :::; n
(ii) Bi \ Bj = ; 8i 6= j (les Bi sont 2 à 2 disjoints)
n
(iii) [ Bi = :
i=1

Théorème 4.7 (de Bayes) Soit ( ; A;P ) un espace probabilisé et B1 ; B2 ; :::; Bn un sys-
tème complet d’évènements tel que P (Bi ) 6= 0 8i = 1; :::; n: Pour tout évènement A de
probabilité non nulle, on a : 8i = 1; :::; n
P (Bi ):P (A=Bi )
P (Bi =A) = P
n :
P (Bk ):P (A=Bk )
k=1

Page 20
ENS, Département de Maths UE MA 206, Probabilité

P (Bi ) est appelé probabilité a priori de Bi et P (Bi =A) est appelé probabilité a poste-
riori de Bi :

Preuve 4.4 On a

P (A \ Bi ) = P (Bi )P (A=Bi ) = P (A)P (Bi =A)

d’où l’on tire


P (Bi )P (A=Bi )
P (Bi =A) = : (4.1)
P (A)
Mais n n
A=A\ =A\ [ Bk = [ (A \ Bk ):
k=1 k=1

Comme les A \ Bk sont 2 à 2 disjoints, on obtient


X
n X
n
P (A) = P (A \ Bk ) = P (Bk )P (A=Bk ): (4.2)
k=1 k=1

En remplaçant dans (4.1) P (A) par sa valeur dans (4.2), on a le résultat.

Interprêtation du théorème de Bayes


Les Bi sont parfois appelés les causes de l’évènement A; la réalisation de A étant dûe à
une et une seule de ces causes. A est alors considéré comme une conséquence. La formule
de Bayes permet alors de calculer la probabilité pour que telle cause soit responsable de
la réalisation de A.

Exemple 4.3 Dans une usine, le montage de 30% des appareils est e¤ectué par un spé-
cialiste hautement quali…é et celui de 70% par un spécialiste de quali…cation moyenne. La
…abilité de fonctionnement de l’appareil est de 0.9 au cas où le montage a été e¤ectué par
un spécialiste hautement quali…é, et de 0.8 si le montage a été e¤ectué par un spécialiste
de quali…cation moyenne. Un appareil choisi au hasard s’est avéré d’un fonctionnement
…able. Calculons la probabilité que son montage ait été e¤ectué par un spécialiste haute-
ment quali…é.

Exemple 4.4 Sur 1000 PME, 50 font faillite dans une année. Sur 1000 grandes entre-
prises, 3 font faillite dans une année. Une entreprise fait faillite, déterminer la probabilité
que ce soit une PME. Il y a 90% de PME dans l’ensemble des entreprises.

Page 21
Chapitre 5

Variables aléatoires réelles

5.1 Généralités
5.1.1 Dé…nition
Soit ( ; A; P ) un espace probabilisé, ( 0 ; B) un espace probabilisable tel que 0

R; X : ! 0 une application.
1
Dé…nition 5.1 X est une variable aléatoire réelle (v.a.r) si 8B 2 B; X (B) 2 A:

Donc X est une v.a.r si l’image réciproque d’un évènement est un évènement.

Remarque 5.1 Pour une application dé…nie sur et à valeurs dans 0 ; le fait d’être
une v.a.r dépend des tribus A et B sur et 0 respectivement. Ainsi en changeant les
tribus A et B, l’application peut tantôt être une v.a.r, tantôt cesser de l’être. La propriété
d’être une v.a.r n’est donc pas une propriété intrinsèque (c’est à dire liée à la dé…nition)
de l’application comme la propriété de continuité dans R par exemple.

Remarque 5.2 Cependant on ne véri…era jamais que nos "v.a.r" satisfont la condition
de la dé…nition précédente.

5.1.2 Loi de probabilité d’une v.a.r


0
Si X : ! est une v.a.r, on dé…nit l’application

PX : B ! [0; 1]
1
B 7 ! P (X (B)):

Théorème 5.1 PX est une probabilité sur ( 0 ; B): La probabilité PX est appelée loi de
probabilité ou distribution de probabilité de la v.a.r X: PX est encore appelée probabilité
image de P par X.

Remarque 5.3 La v.a.r X tranforme donc la probabilité P sur ( ; A) en une autre


probabilité PX sur ( 0 ; B):

22
ENS, Département de Maths UE MA 206, Probabilité

5.1.3 Fonction de répartition


Dé…nition 5.2 On appelle fonction de répartition de la v.a.r X, la fonction F : R !
[0; 1] dé…nie par : 8x 2 R; F (x) = P (X x) = PX (] 1; x]): C’est la probabilité que
X prenne une valeur x:

Théorème 5.2 Soit F la fonction de répartition de la v.a.r X: Alors :


(i) F est croissante.
(ii) F est continue à droite.
(iii) lim F (x) = 0 et lim F (x) = 1
x! 1 x!+1

Remarque 5.4 L’ensemble image de par X; X( ); peut être …ni, dénombrable ou


continu. Lorsque X( ) est …ni ou dénombrable, la v.a.r X est dite discrète. Si X( ) est
continu, la v.a.r est dite absolument continue.

5.2 V.A.R discrètes


Dans ce cas, on choisit en général A = P( ) et B = P( 0 ): Toute application de
dans 0 est alors une v.a.r.

5.2.1 Loi de probabilité de X:


Dé…nition 5.3 La loi de probabilité de la v.a.r X est réprésentée par l’application

p: X( ) ! [0; 1]
x 7 ! px = PX (fxg)):

On a encore px = PX (fxg) = P (X 1 (fxg)) probabilité de l’élément x de X( ):


Lorsque le nombre d’éléments de X( ) est petit, on présente la loi de probabilité de
X dans un tableau.

Notation 5.1 P (X 1 (fxg)) est encore noté P ([X = x]) ; donc X 1 (fxg) = f! 2 ; X(!) = xg est
noté [X = x] : P (X = x) est alors la probabilité que la v.a.r X prenne la valeur x:

Notation 5.2 De façon générale, si X est une v.a.r, on utilise les notations abrégées :

f! 2 ; X(!) ag se note [X a]
f! 2 ; X(!) < ag se note [X < a]
f! 2 ; X(!) ag se note [X a]
f! 2 ; X(!) > ag se note [X > x]
f! 2 ; a X(!) bg se note [a X b]
f! 2 ; a < X(!) bg se note [a < X b]
f! 2 ; a X(!) < bg se note [a X < b]
f! 2 ; a < X(!) < bg se note [a < X < b]

5.2.2 Fonction de répartition de X


Dé…nition 5.4 (Rappel) C’est, la fonction F : R ! [0; 1] dé…nie par : 8x 2 R; F (x) =
P (X x) :

Page 23
ENS, Département de Maths UE MA 206, Probabilité

Théorème 5.3 Soit X une v.a.r discrète prenant les valeurs (xi )ni=1 avec les probabilités
respectives (pi )ni=1 :
(i) La fonction de répartition de X est dé…nie par
8
< 0 si x 2] 1; x1 [
F (x) = p1 + p2 + ::: + pi 1 si x 2 [xi 1 ; xi [; i = 2; 3; :::; n
:
1 si x xn :
(ii) pi = P (X = xi ) = F (xi ) F (xi 1 ); i = 2; 3; :::; n:
Preuve 5.1 Découle de la dé…nition de F.

5.2.3 Opérations sur les v.a.r


– Soit X une v.a.r dé…nie sur ; c et deux réels. Les v.a.r X + c et X sont dé…nies
sur par
8! 2 (X + c)(!) = X(!) + c
8! 2 ( X)(!) = X(!)
Si X( ) = fx1 ; x2 ; :::; xn ; :::g est l’ensemble image de X; alors
(X + c)( ) = fx1 + c; x2 + c; :::; xn + c; :::g
( X)( ) = f x1 ; x2 ; :::; xn ; :::g
sont les ensembles images respectifs de X + c et X: Les lois de probabilité sont
dé…nies par
P (X + c = x) = P (X = x c)
P ( X = x) = P (X = x ) ( 6= 0):
– Soient X et Y deux v.a.r dé…nies sur :
– La somme X + Y est la variable aléatoire dé…nie sur par
8! 2 (X + Y )(!) = X(!) + Y (!):
L’ensemble image de Z = X + Y est formée de réels zk tels que zk = xi + yj: La
probabilité image (ou loi de probabilité) est alors
X
P (Z = zk ) = pij
(i;j)

la sommation étant faite sur l’ensemble des couples (i; j) tels que zk = xi + yj :
– Le produit XY est la variable aléatoire dé…nie sur par
8! 2 (XY )(!) = X(!)Y (!):
L’ensemble image de T = XY est formée de réels tk tels que tk = xi yj: La
probabilité image (ou loi de probabilité) est alors
X
P (Z = zk ) = pij
(i;j)

la sommation étant faite sur l’ensemble des couples (i; j) tels que tk = xi yj :
– sup(X; Y ) et inf(X; Y ) sont les v.a.r dé…nies par
8! 2 ; sup(X; Y )(!) = sup(X(!); Y (!)) et inf(X; Y )(!) = inf(X(!); Y (!))
Notons qu’en général, on n’a pas sup(X; Y ) = X ou bien sup(X; Y ) = Y (resp.
inf(X; Y ) = X ou bien inf(X; Y ) = Y ): Pour certains ! 2 ; sup(X; Y )(!) =
X(!) et pour les autres sup(X; Y )(!) = Y (!): Il en est de même pour inf(X; Y ):

Page 24
ENS, Département de Maths UE MA 206, Probabilité

5.2.4 Espérance mathématique de X


Soit X une v.a.r discrète dé…nie de ( ; P( ); P ) à valeurs dans ( 0 ; P( 0 )); de loi de
probabilité PX :

Dé…nition 5.5 On appelle espérance mathématique de X, le nombre réel noté E(X), s’il
existe, dé…ni par X
E(X) = X(!)P (f!g) : (5.1)
!2

Propriétés
– E(X + Y ) = E(X) + E(Y ): L’espérance mathématique de la somme de deux v.a.r
est la somme de leurs espérances mathématiques.
– E( X) = E(X) pour tout réel :

Remarque 5.5 Ainsi E est une forme linéaire sur l’espace vectoriel des v.a.r dé…nies
sur ( ; P( ); P ):

Expression équivalente de E(X)


1
Posons X( ) = fx1 ; x2 ; :::; xn ; :::g ; I = f1; 2; :::; n; :::g et k =X (fxk g) = [X = xk ] ; k 2
I: Les k ; k 2 I forment une partition de : On a :
X
E(X) = X(!)P (f!g)
!2
XX
= X(!)P (f!g)
k2I !2 k
XX
= xk P (f!g)
k2I !2 k
X X
= xk P (f!g)
k2I !2 k
X
= xk P ( k)
k2I
X
= xk P (X = xk ) :
k2I

Donc X
E(X) = xk P (X = xk ) : (5.2)
k2I

On retrouve ici la formule classique de calcul de E(X): Dans (5.1) les calculs sont faits à
partir de l’espace de départ ; alors que dans (5.2) ils sont faits dans l’espace d’arrivée.
Intreprétation
Le tableau donnant la loi de probabilité de X peut être considéré comme le tableau
des fréquences d’un caractère statistique qui prend les modalités x1 ; x2 ; :::; xn ; ::: avec les
fréquences respectives P (X = x1 ) ; P (X = x2 ) ; :::; P (X = xn ) ; :::: Dans ces conditions
E(X) est exactement la moyenne du caractère statistique. Ainsi E(X) s’interpréte comme
la valeur moyenne que prend la v.a.r X:

Page 25
ENS, Département de Maths UE MA 206, Probabilité

5.2.5 Variance et écart-type de X


Dé…nition 5.6 - On appelle variance de X, le nombre réel noté V(X), s’il existe, dé…ni
par X
V (X) = (X(!) E(X))2 P (f!g) :
!2

- L’écart-type de X est p
(X) = V (X):

Comme dans le cas de E(X); avec les mêmes notations, on a la formule équivalente :
X
V (X) = (xk E(X))2 P (X = xk ) :
k2I

Théorème 5.4 (Formule de Koënig) On a encore

V (X) = E(X 2 ) (E(X))2 :

Interprétation
V (X) est la moyenne des carrés des écarts à la moyenne E(X); l’écart-type (X)
est la moyenne quadratique des écarts à la moyenne. Il mesure la dispersion de la v.a.r
X autour de sa moyenne E(X):

Remarque 5.6 Si X( ) est …ni, les quantités précédentes existent. Cependant si X( ) est
dénombrable et in…ni, l’existence de ces quantités est liée à la convergence des séries qui
les dé…nissent.

5.2.6 Moments d’une variable aléatoire


Soit f une fonction dé…nie sur X( ): On dé…nit sous reserve d’existence, les moments
suivants : X
E(f (X)) = f (x)P (X = x):
x2X( )

En particulier pour les fonctions puissances entières, on a :

Dé…nition 5.7 (i) On appelle moment d’ordre k de X, la quantité


X
E(X k ) = xk P (X = x):
x2X( )

h i
k
(ii) E (X E(X)) est appelé moment centré d’ordre k de X:

Ainsi, l’espérance mathématique de X est le moment d’ordre 1 de X et la variance le


moment centré d’ordre 2.

5.3 V.A.R continues


On ne peut plus choisir A = P( ) ou B = P( 0 ): A (resp. B) est une tribu de parties
de (resp. 0 ) di¤érente de P( ) (resp. P( 0 ):

Page 26
ENS, Département de Maths UE MA 206, Probabilité

5.3.1 Loi de probabilité de X


La loi de probabilité de X est alors dé…nie par l’intermédiaire d’une densité de proba-
bilité. C’est une fonction f : X( ) ! R telle que
(i) fR (x) 0 8x 2 X( ) et
(ii) X( ) f (x)dx = 1:
Dans ce cas, si [a; b] X( );
Z b
P (X 2 [a; b]) = P (a X b) = f (x)dx:
a
Donc
Z b
P (a X b) = P (a X < b) = P (a < X b) = P (a < X < b) = f (x)dx:
a

Remarque 5.7 Si X est une v.a.r continue, la probabilité que X prenne une valeur isolée
x est nulle. Ceci signi…e que 8x 2 X( ); P (X = x) = 0:
Montrons ce dernier résultat
Pour tout " > 0; on a 0 P (X = x) P (x " < X x) = F (x) F (x ") où
F est la fonction de répartition de X: En prenant la limite quand " tend vers 0, on a le
résultat car F est continue (voir ci-dessous).

5.3.2 Fonction de répartition de X:


Dé…nition 5.8 C’est F : R ! [0; 1] dé…nie par
Z x
F (x) = P (X x) = f (t)dt:
1

Propriétés
Soit F la fonction de répartition de X:
(i) F est croissante.
(ii) F est continue.
(iii) lim F (x) = 0 et lim F (x) = 1
x! 1 x!+1
(iv) F 0 (x) = f (x)

5.3.3 Espérance mathématique, variance et écart-type de X:


Espérance mathématique de X
Dé…nition 5.9 C’est la quantité notée E(X); si elle existe, dé…nie par
Z
E(X) = xf (x)dx:
X( )

Variance de X
Dé…nition 5.10 C’est la quantité notée V (X); si elle existe, dé…nie par
Z
V (X) = (x E(X))2 f (x)dx:
X( )

Théorème 5.5 (Formule de Koënig) On a


V (X) = E(X 2 ) (E(X))2 :

Page 27
ENS, Département de Maths UE MA 206, Probabilité

Ecart-type de X
Dé…nition 5.11 C’est (X) dé…ni par
p
(X) = V (X):

Remarque 5.8 E(X); V (X) et (X) ont la même interpêtation et les mêmes propriétés
que pour les variables discrètes.

5.3.4 Moments d’une variable aléatoire


De façon analogue, et sous reserve d’existence, on dé…nit les moments suivants :
Z
E(h(X)) = h(x)f (x)dx
X( )

pour toute fonction h dé…nie sur X( ): En particulier pour les fonctions puissances en-
tières, on a :

Dé…nition 5.12 (i) On appelle moment d’ordre k de X, la quantité


Z
k
E(X ) = xk f (x)dx:
X( )
h i
(ii) E (X E(X))k est appelé moment centré d’ordre k:

5.4 Indépendance de deux v.a.r


Soit ( ; A; P ) un espace probabilisé, ( 1 ; B1 ) et ( 2 ; B2 ) deux espaces probabilisables.
X et Y deux v.a.r dé…nies dans ; à valeurs respectivement dans 1 et 2 :

X 1 (B1 ) = fX 1 (B1 ); B1 2 B1 g est une sous tribu de A:


Y 1 (B2 ) = fY 1 (B2 ); B2 2 B2 g est également une sous tribu de A:
1 1
Les deux sous tribus X (B1 ) et Y (B2 ) de A peuvent être indépendantes ou non.

Dé…nition 5.13 On dit que les v.a.r X et Y sont indépendantes (relativement à P) si les
deux sous tribus X 1 (B1 ) et Y 1 (B2 ) sont indépendantes.

La dé…nition précédente est équivalente à : X et Y sont indépendantes si : 8B1 2


B1 ; 8B2 2 B2 ;
1 1 1 1
P X (B1 ) \ Y (B2 ) = P X (B1 ))P (Y (B2 ) = PX (B1 )PY (B2 )

Lorsque les v.a.r X et Y sont discrètes, X et Y sont indépendantes si : 8(! 1 ; ! 2 ) 2


1 2;

1 1 1 1
P X (! 1 ) \ Y (! 2 ) = P X (! 1 ))P (Y (! 2 ) = PX (! 1 )PY (! 2 )

ou encore : 8(! 1 ; ! 2 ) 2 1 2;

P (X = ! 1 ; Y = ! 2 ) = P (X = ! 1 )P (Y = ! 2 ):

Page 28
Chapitre 6

Lois de probabilité

Nous présentons ici les lois de probabilité que l’on rencontre fréquemment. Certaines
de ces lois ont déjà été vues dans le cours de Statistique. Nous présentons d’abord les lois
discrètes et ensuite les lois continues.
De façon générale, si une v.a.r X suit la loi de probabillité L, nous noterons X # L.

6.1 Lois de probabilité discrètes


Une loi discrète est connue si on se donne :
- X son ensemble de valeurs possibles et
- P (X = x) la probabilité de l’élément x de X:

6.1.1 Loi de Bernoulli de paramètre p : B(1; p); 0 p 1:


Elle est dé…nie par :
- X = f0; 1g et
- P (X = 1) = p ( donc P (X = 0) = 1 p ).
Si X # B(1; p); alors E(X) = p et V (X) = p(1 p):
Condition d’application
On considère une expérience aléatoire ayant 2 résultats possibles et 2 seulement : E1
succès et E2 échec par exemple, avec P (E1 ) = p et P (E2 ) = 1 p: Une telle expérience
est appelée expérience de Bernoulli. On dé…nit la v.a.r X par :

1 si succès
X= .
0 si échec.

La loi de probabilité de X est la loi B(1; p):

6.1.2 Loi binomiale de paramètres n et p : B(n; p); 0 p 1:


Elle est dé…nie par :
- X = f0; 1; 2; :::; ng:
- P (X = x) = Cnx px (1 p)n x :
Si X # B(n; p), alors E(X) = np et V (X) = np(1 p):
Condition d’application
On repète n fois une expérience de Bernoulli et les n essais sont supposés indépendants.
Soit X la v.a.r égale au nombre de succès obtenus à l’issue des n essais. La loi de
probabilité de X est une loi B(n; p):

29
ENS, Département de Maths UE MA 206, Probabilité

Remarque 6.1 La loi issue d’une expérience de Bernoulli est une loi de Bernoulli. Une
loi de Bernoulli est donc une loi B(1; p): On en déduit qu’une v.a.r de loi B(n; p) est la
somme de n v.a.r de Bernoulli indépendantes de loi B(1; p): En e¤et dé…nissons la v.a.r

1 si succès au ieme essai


Xi =
0 si échec.

Alors Xi # B(1; p); de plus X1 ; X2 ; :::; Xn sont des v.a.r indépendantes et on a X =


Pn
Xi :
i=1

6.1.3 La loi de Poisson de paramètre : P( ); 2 R+ :


Elle est dé…nie par :
- X = N:
x
- P (X = x) = e x! :
Si X # P( ); alors E(X) = et V (X) = :
Conditions d’application d’une loi de Poisson :
I On rencontre généralement une loi de Poisson lorsqu’on étudie un phénomène rare :
nombre d’accidents mortels survenus à un carrefour pendant une journée, nombre de
naissances de quadruplets dans un grand hôpital au cours d’une année,....
I La loi de Poisson intervient également dans l’étude des phénomènes de …le d’attente ;
on parle alors de processus de Poisson. On peut citer par exemple : le nombre d’appels
à un standard téléphonique, nombre d’arrivées de clients à un guichet, nombre d’arrivées
de voitures à un poste de péage d’automobiles. Ici, l’on applique la loi de Poisson quand
pour un intervalle de temps (ou d’espace) su¢ samment petit, la probabilité d’apparition
de l’évènement est proportionnelle à la longueur de l’intervalle de temps (ou d’espace).
Dans ces conditions, si dt est l’unité de temps choisie, k le nombre moyen d’apparitions
de l’évènement par unité de temps, pour une période de temps t; = kt représente le
nombre moyen d’apparitions de l’évènement pendant la période.

Théorème 6.1 Soit une loi binomiale B(n; p) telle que :


8
< . n ! +1
(H) . p ! 0
:
. np ! une constante
x
e
Alors Cnx px (1 p)n x
tend vers x!
:

Donc la loi binomiale B(n; p) tend dans ces conditions vers la loi de Poisson P( ): En
pratique, on convient de remplacer une loi binomiale B(n; p) par une loi de Poisson
P(np); dès que l’on a : n > 50 et p < 0:1:

Preuve 6.1 (Voir cours de statistique)

6.1.4 La loi multinomiale de paramètres n; p1 ; p2 ; :::; pk : M(n; p1 ; p2 ; :::; pk ):


C’est la généralisation de la loi binomiale à plus de 2 évènements E1 ; E2 ; :::; Ek tels
P
k
que P (Ei ) = pi et pi = 1:
i=1

Page 30
ENS, Département de Maths UE MA 206, Probabilité

Lors d’une expérience aléatoire, on obtient un des k résultats possibles. Lorsque l’ex-
périence est repétée n fois de façon indépendante, la probabilité d’obtenir les résultats
suivants : E1 ; x1 f ois; E2 ; x2 f ois; :::; Ek ; xk f ois est donnée par :
n!
P (X1 = x1 ; X2 = x2 ; :::; Xk = xk ) = px1 px2 :::pxk k
x1 !x2 !:::xk ! 1 2
où Xi est la v.a égale au nombre d’apparitions de l’évènement Ei au cours des n répétitions.
On dit alors que le vecteur aléatoire X = (X1 ; X2 ; :::; Xk ) suit la loi multinomiale
M(n; p1 ; p2 ; :::; pk ): On a :
P
k
X = f(x1 ; x2 ; :::; xk ) : xi = 0; 1; :::; n; i = 1; :::; k avec xi = ng:
i=1
8i = 1; :::; k Xi # B(n; pi ); donc E(Xi ) = npi ; V (Xi ) = npi (1 pi ) et on a
cov(Xi ; Xj ) = npi pj :

6.1.5 Loi géométrique de paramètre p : G(p); 0 < p < 1:


Elle est dé…nie par :
-X=N :
- P (X = x) = (1 p)x 1 p
Si X # G(p); alors E(X) = p1 et V (X) = 1 p
p2
:
Condition d’application
Lors d’une expérience de Bernoulli, on note X la v:a:r égale au nombre de répéti-
tions (indépendantes) de l’expérience pour avoir …nalement un succès au dernier essai. Si
p est la probabilité d’obtenir un succès lors d’une expérience, X suit une loi géométrique
dé…nie comme ci-déssus.

Remarque 6.2 La loi G(p) est parfois dé…nie comme le nombre d’échecs avant le premier
succès lorsqu’on repète une expérience de Bernoulli plusieurs fois de façon indépendante.
Dans ce cas on a plutôt :
- X = N:
- P (X = x) = (1 p)x p

6.1.6 Loi binomiale négative BN (r; p); r 2 N ; 0 < p < 1:


C’est une généralisation de la loi géométrique ; r étant …xé, elle est dé…nie par :
- X = fr; r + 1; r + 2; :::g
- P [X = x] = px = Cxr 11 pr (1 p)x r :
r r(1 p)
On a E(X) = p
et V (X) = p2
:
Condition d’application
Lors d’une expérience de Bernoulli, on note X la v.a.r égale au nombre de répé-
titions (indépendantes) de l’expérience pour avoir exactement r succès au dernier essai.
Si p est la probabilité d’obtenir un succès lors d’une expérience, X suit une loi binomiale
négative dé…nie comme ci-déssus.

Remarque 6.3 La loi BN (r; p) est parfois dé…nie comme le nombre d’échecs avant le
rieme succès lorsqu’on repète une expérience de Bernoulli plusieurs fois de façon indépen-
dante. On a alors
-X=N
r 1 r
- P (X = x) = Cx+r 1 p (1 p)x :

Page 31
ENS, Département de Maths UE MA 206, Probabilité

6.1.7 Loi hypergéométrique H(N; n; n1 )


Soit une urne contenant n1 boules noires et n2 = N n1 boules rouges. On extrait n
boules de l’urne par tirages exhaustifs (tirages successifs sans rémise) et on dé…nit X la
v.a.r égale au nombre de boules noires obtenues parmi les n boules tirées. X suit une loi
appelée loi hypergéométrique de paramètres N; n; n1 : H(N; n; n1 ): On a alors :
- X = fx=M ax[0; n1 + n N] x M in[n1 ; n]g
x Cn x
Cn1 N n1
- P [X = x] = px = n
CN
nn1 nn1 n1
E(X) = N
, V (X) = N
(1 N
)( N n
N 1
):

Remarque 6.4 Si n << N; la loi hypergéométrique H(N; n; n1 ) peut être approximée par
la loi binomiale B(n; p) où p = nN1 . En pratique, cette approximation est faite si n < 0; 1N :

Remarque 6.5 Dans le cas d’une loi binomiale, les tirages sont indépendants (tirages
non exhaustifs car la même boule peut-être tirée plusieurs fois). Pour une loi hypergéomé-
trique, tirer à la fois n boules de l’urne est équivalent à tirer succesivement sans remise n
boules de l’urne ; donc ici les tirages ne sont pas indépendants. On constate alors que si
on a une urne ayant N boules et si de l’urne nous voulons extraire n boules avec n << N ,
on peut utiliser l’un des modes de tirages précédents (avec remise ou sans remise) car ils
sont équivalents dans ce cas.
Cette propriété est utilisée lors du choix de l’échantillon dans les méthodes de sondage.
En réalité, les tirages successifs pour sélectionner l’échantillon sont exhaustifs (non indé-
pendants car un individu ne doit pas apparaître 2 fois dans le même échantillon), mais la
propriété précédente permet d’utiliser les propriétés de l’indépendance.

6.2 Lois de probabilité continues


Une loi continue est connue si on se donne f (x) sa densité de probabilité ; c’est une
fonction de R vers R+ dont l’intégrale sur R est égale à 1

6.2.1 La loi normale ou la loi de Laplace-Gauss de paramètres


(m; ) : N (m; ); m 2 R et > 0:
Elle est dé…nie par :
- X = R et
- la densité de probabilité
1 1 x m 2
( )
g(x) = p e 2 ; x 2 R:
2
R +1
Remarque 6.6 On a bien 1 g(x)dx = 1

Si X # N (m; ); alors E(X) = m et V (X) = 2 :


On en déduit que les paramètres d’une loi normale sont sa moyenne et son écart-type.

Page 32
ENS, Département de Maths UE MA 206, Probabilité

Loi normale centrée reduite N (0; 1)


Une v.a.r T suit une loi normale centrée reduite, si sa densité de probabilité est
1 t2
f (t) = p e 2 ; t 2 R:
2
La variable est centrée car E(T ) = 0 et reduite car V (T ) = 1:
Remarque 6.7 Si X # N (m; )); alors T = X m
# N (0; 1):
La loi normale a été abondamment traitée dans le cours de statistique. On peut donc
se référer à ce cours pour plus de détail.

6.2.2 Loi du Chi-deux à n dégrés de liberté, X 2 (n)


Dé…nition 6.1 Si X suit la loi N (0; 1); alors Y = X 2 suit la loi du Chi-deux à un dégré
de liberté. Cette loi est notée X 2 (1) et sa densité est :
1 y 1 y 1
f (y) = p e 2 = p e 2 :y 2 ; pour y 0:
2 y 2
Dé…nition 6.2 Soient X1 ; X2 ; :::; Xn n v.a.r indépendantes qui suivent chacune la loi
P
n
N (0; 1); alors Y = Xi2 suit la loi du Chi-deux à n dégrés de liberté. On la note X 2 (n): Sa
i=1
densité est donnée par :
( 1 y n
1
n n
e 2 :y 2 ; pour y 0
f (y) = ( ) 22 2
0 ailleurs.
R +1
où est la fonction dé…nie par ( ) = 0 e x x 1
dx:
Si X # X 2 (n); alors E(X) = n et V ar(X) = 2n:

6.2.3 Loi de Student à n dégrés de liberté, T (n)


Si X # N (0; 1) et Y # X 2 (n); X et Y indépendantes, alors
X
q # T (n):
Y
n

La densité de T (n) est donnée par :


1 x2 1
(n+1)
f (x) = p (1 + ) 2 :1R (x):
nB( n2 ; 21 ) n
R1
où B(p; q) = 0
xp 1 (1 x)q 1 dx est l’intégrale Eulerienne de première espèce.

6.2.4 Loi de Fisher-Snedecor à p et q dégrés de liberté, F (p; q)


Si X # X 2 (p) et Y # X 2 (q); X et Y indépendantes, alors
X
# F (p; q):
p
Y
q

La densité de F (p; q) est donnée par :


p q p
p2 q2 x2 1
f (x) = : :1R+ (x):
B( p2 ; 2q ) (q + px) p+q
2

Page 33
Chapitre 7

Fonctions génératrices

7.1 Fonction génératrice des probabilités


Soit X est une v.a.r à valeurs dans N: On pose pk = P (X = k); k 2 N:
Dé…nition 7.1 On appelle fonction génératrice des probabilités (fgp) de X, la fonction
notée PX dé…nie par
X
+1
PX (t) = E(tX ) = pk tk :
k=0

P
+1
Remarque 7.1 La série pk tk converge uniformément sur l’intervalle [ 1; 1] pour t
k=0
réel (resp. dans le disque jtj 1 pour t complexe) et sa somme PX (t) est une fonction
continue de t dans cet intervalle. Cette somme admet des dérivées de tous les ordres que
l’on obtient comme sommes des séries dérivées, pour tout t tel que jtj < 1.
Théorème 7.1 La fgp de la v.a.r X à valeurs dans N; détermine la loi de probabilité de
cette v.a.r. En d’autres termes, si 2 v.a.r (à valeurs dans N) admettent la même fgp, alors
elles ont même loi.
P
+1
On a PX (t) = pk tk : Dans ] 1; 1[; on a
k=0

- PX (0) = p0 = P (X = 0)
P
+1
- PX0 (t) = kpk tk 1 =) PX0 (0) = p1 = P (X = 1)
k=1
00 P
+1
00
- PX (t) = k(k 1)pk tk 2
=) PX (0) = 2p2
k=2
................................................................................
(n) P
+1
(n)
- PX (t) = k(k 1):::(k n + 1)pk tk n =) PX (0) = n!pn :
k=n

(n)
Donc 8n 2 N; PX (0) = n!pn : Il en resulte que la connaissance de PX détermine celle de
la loi (pn )n2N de X:
Exemple 7.1 Loi de Bernoulli de paramètre p.
- X = f0; 1g
- P (X = 0) = 1 p; P (X = 1) = p:
P1
PX (t) = pk tk = p0 t0 + p1 t1 = (1 p) + pt:
k=0

34
ENS, Département de Maths UE MA 206, Probabilité

Exemple 7.2 Loi de Poisson de paramètre :


-X=N
k
- P (X = k) = e k! = pk
P k +1
+1 Pe k k P ( t)k
+1
PX (t) = pk t = k!
t = e k!
=e e t=e (t 1)
:
k=0 k=0 k=0

Exemple 7.3 Loi géometrique de paramètre p.


-X=N
- P (X = k) = pk = (1 p)k 1 p

X
+1
PX (t) = pk tk
k=1
X
+1
= (1 p)k 1 ptk
k=1
X
+1
= p (1 p)k tk+1
k=0
X
+1
= pt [t(1 p)]k
k=0
pt 1
= (si jt(1 p)j < 1; c-à-d jtj < ):
1 t(1 p) 1 p

Théorème 7.2 La fonction PX (t) admet une dérivée d’ordre r (r 2 N ) à gauche de 1,


ssi le moment factoriel d’ordre r, à savoir E [X(X 1):::(X r + 1)] existe et est …ni.
On a alors
(r)
E [X(X 1):::(X r + 1)] = PX (1):

Cas particuliers
Pour r = 1; E(X) = PX0 (1)
Pour r = 2; E [X(X 1)] = PX00 (1); donc E(X 2 ) = PX00 (1) + E(X) et V (X) =
PX00 (1) + E(X) (E(X))2 :
Somme de 2 v.a.r

Théorème 7.3 Soient X et Y 2 v.a.r indépendantes à valeurs entières, alors PX+Y (t) =
PX (t)PY (t):

Preuve 7.1 PX+Y (t) = E(tX+Y ) = E(tX tY ) = E(tX )E(tY ) = PX (t)PY (t) car X et Y
sont indépendantes.

Exemple 7.4 X # P( ); Y # P( ); X et Y indépendantes. Déterminer la loi de


X+Y.

Exemple 7.5 X # B(n; p); Y # B(m; p); X et Y indépendantes. Déterminer la loi de


X+Y.

Corollaire 7.1 Soient X1 ; X2 ; :::; Xn n v.a.r indépendantes, de même loi, dont la fonction
génératrice des probabilités est P(t). On pose Sn = X1 + X2 + ::: + Xn : Alors

PSn (t) = [P (t)]n :

Page 35
ENS, Département de Maths UE MA 206, Probabilité

7.2 Fonction génératrice des moments


Dé…nition 7.2 Soit X une v.a.r quelconque. On appelle fonction génératrice des mo-
ments (fgm) de X, la fonction
MX (t) = E(etX ):

Remarque 7.2 La fonction génératrice des moments de la v.a.r X détermine la loi de


probabilité de cette v.a.r. En d’autres termes, si 2 v.a.r admettent la même fonction gé-
nératrice des moments, alors elles ont même loi.

Remarque 7.3 Il n’est pas nécessaire que MX (t) existe quel que soit t 2 R. Pour que X
admette une f.g.m, il su¢ t que MX (t) existe dans un voisinage de 0.

Fonction génératrice des moments et calcul des moments.

Proposition 7.1 Soit MX (t) la fonction génératrice des moments de la v.a.r X: Alors
(k)
E(X k ) = MX (0):

Preuve 7.2 Dans le cas continu, soit f la densité de X. En supposant remplies les condi-
tions pour écrire les égalités suivantes, on a :

MX (t) = E(etX )
Z +1 X +1
!
(tx)k
= f (x)dx
1 k=0
k!
Xt
+1 k Z +1
= xk f (x)dx
k=0
k! 1

X
+1 k
t
= E(X k ):
k=0
k!

Par identi…cation avec le développement de MX (t) en série de Taylor-Mac-Laurin, on a


le résultat.

Exemple 7.6 Loi binomiale de paramètres n et p.


- X = f0; 1; 2; :::; ng
- P (X = x) = Cnx px (1 p)n x ; 8x 2 X:
Pn P
n
Posons q = 1 p; MX (t) = Cnx px (1 p)n x etx = Cnx (et p)x q n x
= (q + pet )n :
x=0 x=0

Exemple 7.7 Loi de Poisson de paramètre :


- X = f0; 1; 2; :::g = N
x
- P (X = x) = e x!
P tx e x
+1 P ( et )x
+1
t
MX (t) = e x!
= e x!
= e (e 1)
x=0 x=0

Somme de 2 v.a.r

Théorème 7.4 Soient X et Y 2 v.a.r indépendantes, alors MX+Y (t) = MX (t)MY (t):

Page 36
ENS, Département de Maths UE MA 206, Probabilité

Preuve 7.3 MX+Y (t) = E(et(X+Y ) ) = E(etX etY ) = E(etX )E(etY ) = MX (t)MY (t) car X
et Y sont indépendantes.

Remarque 7.4 Nous avons les égalités suivantes :

MX (t) = PX (et )

et
PX (t) = MX (ln t):

Page 37
Chapitre 8

Vecteurs aléatoires

8.1 Produit d’espaces probabilisés


Jusqu’à présent nous avons essentiellement parlé de l’observation d’une expérience
aléatoire unique. On peut cependant s’intéresser à une expérience aléatoire E qui est
la justaposition de n expériences aléatoires Ei où chaque Ei est modélisée par l’espace
probabilisé ( i ; Ai ; Pi ): La modélisation de E nécessite alors la détermination de l’espace
probabilisé associé ( ; A; P ):
– De façon naturelle, il apparait que si ! i est une observation de Ei ; le n-uplet
! = (! 1 ; ! 2 ; :::; ! n ) est une observation de E: On choisit donc comme ensemble
fondamental (ou univers des possibles) de E;

Y
n
= 1 2 ::: n = i:
i=1

– Quelle tribu A sur ? Si pour tout i; Ai 2 Ai ; il est naturel de penser que

A1 A2 ::: An

sera un évènement de A: Cependant l’ensemble

fA1 A2 ::: An ; Ai 2 Ai ; 8i = 1; 2; :::; ng

n’est pas une tribu des parties de (on construit facilement un contre-exemple
dans le cas n = 2). C’est pourquoi sur on considère la tribu engendrée par
fA1 A2 ::: An ; Ai 2 Ai ; 8i = 1; 2; :::; ng : On a donc la dé…nition suivante :

Dé…nition 8.1 On appelle tribu produit des tribus (Ai )ni=1 ; et on note
n
Ai ;
i=1

la tribu engendrée par les pavés A1 A2 ::: An où Ai 2 Ai ; pour tout i = 1; 2; :::; n; c’est
à dire n
Ai = (fA1 A2 ::: An ; Ai 2 Ai ; 8i = 1; 2; :::; ng) :
i=1

On choisit alors n
A= Ai
i=1

comme tribu sur pour modéliser E:

38
ENS, Département de Maths UE MA 206, Probabilité

– Il reste maintenant à dé…nir une probabilité P sur ( ; A) à partir des probabilités


Pi ; i = 1; 2; :::; n: En fait sans information supplémentaire, on ne peut pas.
En revanche cela est possible si on suppose, par exemple, que les Ei sont indépen-
dants (au sens intuitif et non mathématique). Ceci est équivalent à dire que les
évènements (Ai )ni=1 où chaque Ai est dans Ai ; sont indépendants (toujours au sens
intuitif puisque cela n’a pas de sens mathématique, les événements Ai étant associés
à des probabilités Pi di¤érentes).
Dans l’espace probabilisable ( ; A); l’évènement Ai s’écrit

Bi = 1 ::: i 1 Ai i+1 ::: n:

L’indépendance intuitive des (Ai )ni=1 se traduit alors par l’indépendance en proba-
bilité des Bi ; c’est à dire
n Yn
P \ Bi = P (Bi )
i=1
i=1

avec n
\ Bi = A1 A2 ::: An :
i=1

On devrait dans ces conditions avoir

P (Bi ) = Pi (Ai )

et la probabilité P devrait alors véri…er


Y
n
P (A1 A2 ::: An ) = Pi (Ai ):
i=1

Le théorème suivant (que nous ne prouverons pas) montre qu’une telle probabilité
existe et que, de plus, elle est unique.
!
Y
n
n
Théorème 8.1 Il existe une unique probabilité P sur i; Ai telle que pour tout
i=1
i=1
Ai 2 Ai ; pour i = 1; 2; :::; n; on ait
Y
n
P (A1 A2 ::: An ) = Pi (Ai ):
i=1

Cette probabilité est appelée probabilité produit des Pi et est notée


n
P = Pi :
i=1
!
Y
n
n n
Dé…nition 8.2 L’espace probabilisé i; Ai ; Pi est appelé espace probabilisé
i=1 i=1
i=1
produit des espaces probabilisés ( i ; Ai ; Pi ); i = 1; 2; :::; n:

Remarque 8.1 Si pour tout i = 1; 2; :::; n; on a i = ; Ai = A et Pi = P; l’espace


probabilisé produit est noté
( ; A; P ) n :

Page 39
ENS, Département de Maths UE MA 206, Probabilité

Exemple 8.1 On lance trois dés. Pour chaque dé on a l’espace probabilisé ( ; A; P ) où


= f1; 2; 3; 4; 5; 6g ; A = P( ) et P l’équiprobbilité sur : L’expérience aléatoire qui
consiste à lancer trois dés est alors modélisée par ( ; A; P ) 3 : Dans cet espace on a : en
3
3 3
posant P =P ; pour tout (i; j; k) 2 ;
i=1

3 1 1
P (i; j; k) = P (i)P (j)P (k) = 3
= :
6 216
Remarque 8.2 La structure de l’espace probabilisé produit fournit un cadre formel qui
permet de dé…nir les opérations sur les v.a.r. Par exemple dans le cas de deux v.a.r X et
Y dé…nes sur ( ; A; P ); à valeurs respectivement dans ( 1 ; B1 ; PX ) et ( 2 ; B2 ; PY ); où
PX et PY sont respectivement les lois de X et Y, la somme X + Y est dé…nie comme la
composée de deux v.a.r f et g par
f g
! 1 2 ! 3
! 7 ! (X(!); Y (!)) ! X(!) + Y (!)

où 1 2 est muni de la tribu B1 B2 : Dans ces conditions, pour tout évènement B de


3; on a
PX+Y (B) = P ((g f ) 1 (B)) = P (f 1
(g 1 (B)) = Pf (g 1 (B)):
La détermination de la loi de probabilité de X + Y nécessite donc la connaissance de
l’espace probabilisé produit ( 1 2 ; B1 B2 ; Pf ): Comme nous le verrons plus tard,
Pf est la loi du couple (X; Y ):
Dans le cas particulier où X et Y sont indépendants, l’espace probabilisé ( 1 2 ; B1
B2 ) est muni de la probabilité produit PX PY :

8.2 Vecteurs aléatoires


Dé…nition 8.3 Une v.a vectorielle ou un vecteur aléatoire réel de dimension n est une
application de ( ; A; P ) dans Rn telle que chaque composante soit une v.a.r.

Remarque 8.3 Si X1 ; X2 ; :::; Xn sont des variables aléatoires réelles dé…nies sur ( ; A; P ),
alors l’application X = (X1 ; X2 ; :::; Xn ) : ( ; A; P ) 99K Rn est un vecteur aléatoire à va-
leurs dans Rn : Une v.a à valeurs dans Rn est alors dé…nie par la donnée de n v.a .r. Si
X = (X1 ; X2 ; :::; Xn ), X est une v.a vectorielle ssi Xi est une v.a.r 8 i = 1; :::; n.

Loi de probabilité, probabilité conjointe

Dé…nition 8.4 La loi de probabilité de la variable vectorielle X à valeurs dans Rn est


PX , la probabilité image de P par X. Si X1 ; X2 ; :::; Xn sont n v.a.r, la probabilité conjointe
de (X1 ; X2 ; :::; Xn ) est la loi de probabilité de la variable X = (X1 ; X2 ; :::; Xn ) à valeurs
dans Rn :

Espérance mathématique, matrice des variances covariances


Soit X = (X1 ; X2 ; :::; Xn ) : ( ; A; P ) ! Rn un vecteur aléatoire à valeurs dans Rn :

Dé…nition 8.5 On appelle espérance mathématique de X, le vecteur

E(X) = (E(X1 ); E(X2 ); :::; E(Xn )):

Page 40
ENS, Département de Maths UE MA 206, Probabilité

Dé…nition 8.6 La matrice des variances et covariances de X est la matrice carrée d’ordre
n, notée C; d’éléments
cij = E [(Xi E(Xi ))(Xj E(Xj ))]
= cov(Xi ; Xj ):

Remarque 8.4 C est une matrice symétrique et positive, dont les éléments diagonaux
sont
cii = E (Xi E(Xi ))2 = V ar(Xi ):

Pour étudier un vecteur aléatoire, nous pouvons commencer par décrire le vecteur
composante par composante, en les considerant comme autant de v.a.r di¤érentes. Ce-
pendant se limiter à l’étude des composantes fait perdre les éventuels liens entre celles-ci.
Il faudra donc étudier les composantes du vecteur aléatoire simultanément.
Dans la suite, nous allons nous intéresser au cas n = 2 lorsque les deux variables sont
discrètes ; on parle alors de couple de v.a.r. discrètes.

8.3 Couple de v.a.r discrètes


Soit X et Y deux v.a.r discrètes.

8.3.1 Loi conjointe


Dé…nition 8.7 On appelle loi (ou distribution) conjointe du couple (X,Y), l’application
p: X( ) Y ( ) ! [0; 1]
(x,y) 7 ! pxy = P (X = x; Y = y):
Dans le cas où X( ) et Y ( ) sont …nis, cette loi se présente aisément sous forme de
tableau.

8.3.2 Lois marginales


Connaissant la loi conjointe de (X; Y ); on déduit celle de X (resp. Y ) isolément.
- Loi marginale de X

Dé…nition 8.8 Elle est déterminée par l’application


X( ) ! [0; 1] X
x 7 ! px = P (X = x) = pxy
y2Y ( )

- Loi marginale de Y

Dé…nition 8.9 Elle est déterminée par l’application


Y( ) ! [0; 1] X
y 7 ! p y = P (Y = y) = pxy
x2X( )

A partir du tableau de la distribution conjointe, la distribution marginale s’obtient


en sommant les rangées (ligne ou colonne suivant la variable), comme dans le cas des
distributions marginales des séries statistiques à 2 variables. On peut donc déduire de la
loi conjointe, les lois marginales. La réciproque est fausse.

Page 41
ENS, Département de Maths UE MA 206, Probabilité

8.3.3 Lois conditionnelles


Dé…nition 8.10 Pour y 2 Y ( ); la loi de X sachant que [Y = y] est donnée par l’appli-
cation
X( ) ! [0; 1]
x 7 ! px=y = ppxyy :

Cette relation découle de la formule des probabilités conditionnelles


P (X = x; Y = y)
px=y = P (X = x=Y = y) = :
P (Y = y)
De façon analogue, on a :
Dé…nition 8.11 Pour x 2 X( ); la loi de Y sachant que [X = x] est déterminée par
l’application
Y( ) ! [0; 1]
y 7 ! py=x = ppxy
x
:

8.3.4 Moments, covariance, corrélation


On généralise la notion de moment pour un vecteur aléatoire. On dé…nit les moments
suivants X
E(f (X; Y )) = f (x; y)pxy
(x;y)2X( ) Y ( )

pour toute fonction f dé…nie sur X( ) Y ( ): En particulier,


Dé…nition 8.12 La covariance de 2 v.a.r X et Y à variances …nies, est le moment
cov(X; Y ) = E [(X E(X)) (Y E(Y ))]
X
= pxy (x E(X)) (y E(Y )) :
x2X( )
y2Y ( )

On a les propriétés suivantes :


- cov(X; Y ) = E(XY ) E(X)E(Y ):
- cov(X; X) = var(X):
- var(X + Y ) = var(X) + var(Y ) + 2cov(X; Y ):
- X et Y indépendantes (voir ci-dessous) implique cov(X; Y ) = 0: La réciproque est
fausse.
Coé¢ cient de corrélation linéaire
Dé…nition 8.13 On appelle coé¢ cient de corrélation linéaire de X et Y, et on note
(X; Y ); le nombre
cov(X; Y )
(X; Y ) = :
X: Y

La covariance est un produit scalaire sur l’espace vectoriel des v.a.r à variance …nie,
dé…nies sur ( ; A; P ): On a en particulier l’inégalité de Cauchy-Schwartz : 8X; Y des v.a.r
à variance …nie, p p
jcov(X; Y )j var(X): var(Y )
Ainsi on a j (X; Y )j 1; c’est à dire 1 (X; Y ) 1:
Dé…nition 8.14 Si (X; Y ) = 0; alors cov(X; Y ) = 0; on dit que X et Y sont non
correlées.

Page 42
ENS, Département de Maths UE MA 206, Probabilité

8.3.5 Retour à la notion d’indépendance


Deux v.a.r discrètes sont indépendantes ssi

8(x; y) 2 X( ) Y ( ); on a pxy = px py

Autrement dit, la loi du couple est le produit des lois marginale.

Page 43
Chapitre 9

Inégalité de Bienaymé-Tchebyche¤

9.1 Inégalité de Bienaymé-Tchebyche¤


9.1.1 Inégalité de Markov
Théorème 9.1 (Inégalité de Markov) Soit X une v.a.r positive, d’espérance mathéma-
tique E(X) …nie.
1
8 > 0; on a : P (X E(X)) :

Preuve 9.1 Nous allons montrer cette inégalité dans le cas où X est une v.a.r continue.
Soit f la densité de X.
- Pour 0 < 1; l’inégalité Rest triviale. R +1 R +1
+1
- Soit > 1: E(X) = = 0 xf (x)dx xf (x)dx f (x)dx = (1
1
F ( )). Donc P (X ) = 1 F( ) :

Exercice Montrer l’inégalité de markov lorsque la variable X est discrète.

9.1.2 Inégalité de Bienaymé-Tchebyche¤


Théorème 9.2 (Inégalité de Bienaymé-tchebyche¤ ) Soit X une v.a.r d’espérance mathé-
matique E(X) et de variance …nie V (X): Alors

V (X)
P (jX(!) E(X)j > ") :
"2
Preuve 9.2 On applique l’inégalité de Markov à la v.a.r positive Y = (X E(X))2 :

P (jX(!) E(X)j > ") est la probabilité que la v.a X prenne une valeur qui s’écarte de
E(X) d’une quantité supérieure à ": L’inégalité exprime que cette probabilité est majorée
par V "(X)
2 ; c’
est à dire par un nombre proportionnel à la variance. Il est donc évident que la
variance est une mesure des ‡uctuations aléatoires d’une v.a.r X autour de son espérance
mathématique E(X); V (X) mesure la dispersion de la v.a.

Exemple 9.1 1) Supposons V (X) = 5: La probabilité que X prenne une valeur qui di¤ère
de plus de 10 unités de son espérance mathématique E(X) est inférieure à 1052 = 0:05:
2) Si la variance est V (X) = 1; cette probabilté est inférieure 1012 = 0:01
Donc plus la variance est petite, et moins la v.a s’écarte de son espérance mathématique.

44
ENS, Département de Maths UE MA 206, Probabilité

9.2 Loi faible des grands nombres


Soit X une v.a.r d’espérance mathématique = E(X) inconnue et de variance
V (X) = 2 : On considère X1 ; X2 ; :::; Xn ; n v.a.r indépendantes de même loi (on note
encore i.i.d) que X: En statistique mathématique X1 ; X2 ; :::; Xn forment un écahntillon
de taille n de X: On pose
1X
n
Xn = Xi
n i=1
2
(c’est la moyenne des n variables précédentes). On a E(X n ) = et V (X) = n
: Appliquons
l’inégalité de Bienaymé-Tchebyche¤ à X n ; On obtient
2
P ( X n (!) > ") :
n"2
Pour " …xé, lorsque n tend vers +1; la probabilité que X prenne une valeur s’écartant
de d’une quantité supérieure à "; tend vers 0.

Remarque 9.1 Le fait que P X n (!) > " tende vers 0 quand n ! +1 est tra-
duit par X n converge en probabilité vers : Cette convergence en probabilité obtenue avec
la moyenne d’un échantillon est ce que l’on appelle la loi faible des grands nombres (par
opposition à la loi forte des grandes nombres qui traduit la convergence presque sûre de
X n vers ): Elle s’énonce ainsi :

Théorème 9.3 Soient X1 ; X2 ; :::; Xn n v.a.r i.i.d de moyenne et de variance …nie. On


P
n
pose X n = n1 Xi : Alors
i=1
P
Xn ! :

Interprêtation
Supposons que nous voulons estimer la moyenne inconnue d’une population.
1. Si l’on e¤ectue une série de n tirages indépendants dans cette population, la moyenne
des individus observés converge en probabilité vers :
2. Plus le nombre de tirages est grand, plus la probabilité que l’écart entre la moyenne
observée sur l’échantillon et la moyenne de la population soit supérieure à une valeur
donnée est petite. Cette probabilité tend vers 0 lorsque la taille n de l’échantillon
augmente indé…niment.

Exemple 9.2 On repète n fois l’expérience "tirer une carte d’un jeu de 32 cartes". Après
chaque expérience, on remet la carte tirée dans le jeu et on mélange à nouveau. Déterminer
n tel que la fréquence d’apparition d’un roi ou d’une dame soit comprise entre 20% et 30%
avec une probabilité supérieure à 0.8.
Soit Y la v.a égale au nombre de roi ou de dame tirés après les n répétitions de l’expérience.
Y # B(n; 14 ); Yn est la fréquence d’apparitions d’un roi ou d’une dame. E( Yn ) = 41 et
V ar( Yn ) = 16n
3
: Il faut déterminer n tel que :

Y
P 20% 30% 0:8 (9.1)
n
On a
Y Y 1 5
P 20% 30% =P
n n 4 100

Page 45
ENS, Département de Maths UE MA 206, Probabilité

Or d’après l’inégalité de Bienaymé-Tchebyche¤,


3
Y 1 5 16n
P >
n 4 100 5 2
100

ce qui est équivalent à


Y 1 5 75
P >
n 4 100 n
Donc
Y 1 5 75
P 1 :
n 4 100 n
75 75
Pour que (9.1) soit réalisé, il su¢ t que l’on ait 1 n
0:8; soit n 0:2
= 375:

Exemple 9.3 On écrit au hazard une suite de n chi¤res. On suppose que les chi¤res
successifs sont indépendants et que les 10 chi¤res possibles sont équiprobables. Déterminer
n tel que la fréquence d’apparition du chi¤re 9 soit comprise entre 8% et 12% avec une
probabilité supérieure à 0.95. Interprêter le résultat obtenu.
Par un raisonnement similaire au précedent, on trouve n 4500:
Interprêtation : Si on écrit au hazard une suite d’au moins 4500 chi¤res, la fréquence
d’apparition du chi¤re 9 (donc de chaque chi¤re) est comprise entre 8% et 12% avec une
probabilité supérieure à 0.95.

Remarque 9.2 Le nombre obtenu ici paraît très grand. En fait dans les deux cas, le
nombre de tirages à e¤ectuer peut être amélioré. Pour cela, on utilise une inégalité ana-
logue à celle de Bienaymé-Tchebyche¤ : l’inégalité de BERNSTEIN. Celle ci donne une
meilleure majoration (évaluation) de la probabilité de commettre une erreur strictement
supérieure à ": On peut également utiliser la loi de probabilité de la v.a. Par exemple dans
l’exemple 9.3, on peut utiliser l’approximation d’une loi binômiale par une loi normale.

Page 46

Vous aimerez peut-être aussi