Académique Documents
Professionnel Documents
Culture Documents
UE MA 206
Siméon FOTSO
Département de Mathématiques
Ecole Normale Supérieure
Université de Yaoundé 1
e-mail : simeonfotso@yahoo.fr
1 ANALYSE COMBINATOIRE 3
1.1 Arrangements avec répétition . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Arrangements (sans répétition) . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Permutations (sans répétition) . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Permutations avec répétition . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5 Combinaisons (sans répétition) . . . . . . . . . . . . . . . . . . . . . . . . 6
1.6 Combinaisons avec répétitions . . . . . . . . . . . . . . . . . . . . . . . . . 7
2 Espaces probabilisables 8
2.1 Expérience aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Espaces probabilisables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.1 Univers des possibles . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.2 Famille fondamentale . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.3 Anneau, -anneau, algèbre et -algèbre de parties d’un ensemble . . 9
2.2.4 Espace probabilisable . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.5 Espace probabilisable associé à une expérience aléatoire . . . . . . . 11
2.2.6 Composition des évènements . . . . . . . . . . . . . . . . . . . . . . 11
3 Espaces probabilisés 13
3.1 Trois façons de dé…nir une probabilité . . . . . . . . . . . . . . . . . . . . . 13
3.1.1 Equiprobabilité sur . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.1.2 Approche fréquentiste . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.1.3 Approche subjective . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.2 Probabilité, espace probabilisé . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.2.1 Dé…nition et exemple . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.2.2 Propriétés immédiates d’une probabilité . . . . . . . . . . . . . . 15
3.2.3 Autres propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.3 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4 Indépendance 18
4.1 Généralités sur l’indépendance . . . . . . . . . . . . . . . . . . . . . . . . . 18
4.1.1 Indépendance de deux évènements . . . . . . . . . . . . . . . . . . . 18
4.1.2 Indépendance de deux familles d’évènements . . . . . . . . . . . . . 19
4.2 Indépendance mutuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.3 Théorème de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1
ENS, Département de Maths UE MA 206, Probabilité
6 Lois de probabilité 29
6.1 Lois de probabilité discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . 29
6.1.1 Loi de Bernoulli de paramètre p : B(1; p); 0 p 1: . . . . . . . . 29
6.1.2 Loi binomiale de paramètres n et p : B(n; p); 0 p 1: . . . . . . 29
6.1.3 La loi de Poisson de paramètre : P( ); 2 R+ : . . . . . . . . . . 30
6.1.4 La loi multinomiale de paramètres n; p1 ; p2 ; :::; pk : M(n; p1 ; p2 ; :::; pk ): 30
6.1.5 Loi géométrique de paramètre p : G(p); 0 < p < 1: . . . . . . . . . 31
6.1.6 Loi binomiale négative BN (r; p); r 2 N ; 0 < p < 1: . . . . . . . . . 31
6.1.7 Loi hypergéométrique H(N; n; n1 ) . . . . . . . . . . . . . . . . . . . 32
6.2 Lois de probabilité continues . . . . . . . . . . . . . . . . . . . . . . . . . . 32
6.2.1 La loi normale ou la loi de Laplace-Gauss de paramètres (m; ) :
N (m; ); m 2 R et > 0: . . . . . . . . . . . . . . . . . . . . . . . 32
6.2.2 Loi du Chi-deux à n dégrés de liberté, X 2 (n) . . . . . . . . . . . . . 33
6.2.3 Loi de Student à n dégrés de liberté, T (n) . . . . . . . . . . . . . . 33
6.2.4 Loi de Fisher-Snedecor à p et q dégrés de liberté, F (p; q) . . . . . . 33
7 Fonctions génératrices 34
7.1 Fonction génératrice des probabilités . . . . . . . . . . . . . . . . . . . . . 34
7.2 Fonction génératrice des moments . . . . . . . . . . . . . . . . . . . . . . . 36
8 Vecteurs aléatoires 38
8.1 Produit d’espaces probabilisés . . . . . . . . . . . . . . . . . . . . . . . . . 38
8.2 Vecteurs aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
8.3 Couple de v.a.r discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
8.3.1 Loi conjointe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
8.3.2 Lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
8.3.3 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
8.3.4 Moments, covariance, corrélation . . . . . . . . . . . . . . . . . . . 42
8.3.5 Retour à la notion d’indépendance . . . . . . . . . . . . . . . . . . 43
9 Inégalité de Bienaymé-Tchebyche¤ 44
9.1 Inégalité de Bienaymé-Tchebyche¤ . . . . . . . . . . . . . . . . . . . . . . 44
9.1.1 Inégalité de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
9.1.2 Inégalité de Bienaymé-Tchebyche¤ . . . . . . . . . . . . . . . . . . 44
9.2 Loi faible des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . 45
Page 2
Chapitre 1
ANALYSE COMBINATOIRE
Calcul de A0p n
Pour construire un arragement avec répétition de n objets distincts p à p; il faut :
– Choisir le premier de ces objets : on a n choix possibles. Comme les répétitions sont
admises, l’élément choisi en premier peut encore être choisi une nouvelle fois à un
autre rang.
– Après le choix du premier objet, il faut choisir le second : on a encore n choix
possibles. On a donc n n façons de choisir le premier et le deuxième objet.
– Il faut faire p choix et chaque fois on a n possibilités, d’où
A0p p
n = n :
3
ENS, Département de Maths UE MA 206, Probabilité
dans F. Or pour chacun des p éléments de E, on a n choix possibles de son image dans
F ; donc np choix possibles pour l’ensemble des images des éléments de E, c’est-à-dire np
applications possibles de E vers F.
Page 4
ENS, Département de Maths UE MA 206, Probabilité
Dé…nition 1.4 On appelle permutation avec répétition de ces n éléments, toute disposi-
tion ordonnée de l’ensemble des n éléments.
c’est à dire
n!
Pn0 ( ; ; :::; ) = :
! !::: !
Page 5
ENS, Département de Maths UE MA 206, Probabilité
– Pour a = b = 1; on obtient
Cn0 + Cn1 + ::: + Cnn = 2n :
– Pour a = b= 1;on a
Cn0 Cn1 + ::: + ( 1)n Cnn = 0:
– Par addition et soustraction des 2 dernières formules, on obtient
X X
Cn2p = Cn2p+1 = 2n 1 :
p p
Page 6
ENS, Département de Maths UE MA 206, Probabilité
ooo
|{z} oo
|{z} o
|{z}
case a case b case c
3 boules dans la case a; 2 boules dans la case b et une boule dans la case c:
Réciproquement, au rangement
o
|{z} oooo
|{z} o
|{z}
case a case b case c
on associe la combinaison a; b; b; b; b; c:
Ainsi, nous avons autant de combinaisons avec répétition de 6 objets parmi les 3
discernables que de rangements de 6 boules indiscernables dans 3 cases discernables. Or
un rangement de boules est obtenu par permutation de 8 objets divisés en 2 groupes
discernables : les 6 boules et les 2 cloisons intermédiaires. Donc
(3 1 + 6)! 8!
C306 = P30 1+6 (3 1; 6) = = :
(3 1)!6! 2!6!
(n 1 + p)!
Cn0p = Pn0 1+p (n 1; p) = :
(n 1)!p!
Page 7
Chapitre 2
Espaces probabilisables
Exemple 2.1 (Jet d’un dé). L’expérience consiste à prendre un dé à 6 faces numéro-
tées de 1 à 6, à le jeter en l’air, à attendre qu’il tombe et qu’il s’immobilise. On note
alors le numéro de la face supérieure qui apparait et c’est le résultat de l’expérience. Si
nous reprenons la même expérience à plusieurs reprises, nous observerons tantôt 1, tantôt
2,...,tantôt 6. La seule certitude est que le résultat est élément de = f1; 2; 3; 4; 5; 6g:
Exemple 2.2 (Tirage d’une carte dans un jeu de 52 cartes). On considère un jeu de 52
cartes du type que l’on trouve dans le commerce. L’expérience consiste à battre longtemps
ces cartes et à tirer l’une d’elles. On note la carte tirée et c’est le résultat de l’expérience.
L’ensemble fondamental de cette expérience est l’ensemble des 52 cartes.
Exemple 2.3 (Séries du bac des étudiants de l’ESSEC). On considère une promotion de
52 élèves de première année d’une grande école de commerce (ESSEC). Les séries du bac
présentées par ces élèves, ainsi que les e¤ectifs correspondants sont les suivants :
Série B C D G Total
E¤ectif 25 7 16 4 52
On considère alors une urne à 52 boules, sur chaque boule est inscrit le nom d’un étudiant.
On tire au sort une boule de l’urne et le résultat de l’expérience est la série du bac de
l’étudiant dont le nom est marqué sur la boule tirée.
En notant les séries du bac par des minuscules, l’ensemble des résultats possibles de cette
expérience est = fb; c; d; gg:
8
ENS, Département de Maths UE MA 206, Probabilité
Chacun de ces sous ensembles de dé…nit une série de bac et ne …gure pas sur la liste
: Ils dé…nissent chacun un résultat complexe.
Exemple 2.4 Dans l’expérience de l’exemple 2.3, nous pouvons retenir selon nos préoc-
cupations, telle ou telle famille fondamentale.
(i) Si nous nous intéressons aux bacs théoriques Bt = fb; c; dg ; la famille fondamentale
ne comportera que la seule partie Bt : On posera alors F = fBt g :
(ii) Si nos préoccupations portent à la fois sur les bacs scienti…ques Bs = fc; dg et sur les
bacs économiques Be = fb; gg ; on aura F = fBs ; Be g :
(iii) Si nous nous intéressons aux bacs scienti…ques, aux bacs économiques et aux bacs
théoriques, on choisit F = fBs ; Be ; Bt g :
(iii) Si l’on veut s’intéresser à tous les résultats élémentaires et complexes, on choisit
F = P ( ) l’ensemble des parties non vides de : Notons que la partie vide n’a ici au-
cune signi…cation concrète.
Dé…nition 2.1 R est un anneau (ou anneau de boole) des parties de ; si R est stable
pour la réunion et la di¤érence. Ceci signi…e :
(i) 8A 2 R;8B 2 R; A [ B 2 R:
(ii) 8A 2 R;8B 2 R; A B 2 R:
Propriétés
Si R est un anneau de parties de ; alors
Page 9
ENS, Département de Maths UE MA 206, Probabilité
– ; 2 R:
– 8A 2 R; 8B 2 R; A \ B 2 R:
– 8A 2 R; 8B 2 R; A M B 2 R
Dé…nition 2.2 A est une algèbre (ou algèbre de boole) des parties de ; si A est un
anneau et 2 A:
Théorème 2.1 Soit A une famille non vide de parties de ; alors A est une algèbre ssi
A est un anneau stable pour la complémentation.
Une algèbre est donc une famille non vide de parties de ; stable pour la réunion
et la complémentation. De plus une algèbre est stable pour la di¤érence, la di¤érence
symétrique et l’intersection.
Remarque 2.1 La terminologie anneau, algèbre utilisée est justi…ée de la manière sui-
vante : Si R est un anneau de parties de ; on dé…nit dans R les opérations suivantes :
Alors (R; +; ) est un anneau au sens classique (algébrique) du terme. Dans ces condi-
tions, une algèbre est un anneau unitaire.
-anneau de parties de
Dé…nition 2.3 Soit R un anneau de parties de : R est un -anneau de parties de si
R est stable pour la réunion dénombrable ; c’est à dire
-algèbre de parties de
Dé…nition 2.4 A est une -algèbre de parties de si A est un -anneau et 2 A:
Proposition 2.1 (i) Toute intersection d’anneaux (resp. algèbres) de parties de est
un anneau (resp. une algèbre) de parties de : (ii) Toute intersection de -anneaux (resp.
-algèbres) de parties de est un -anneau (resp. une -algèbre) de parties de :
Page 10
ENS, Département de Maths UE MA 206, Probabilité
Remarque 2.3 Lorsque est …ni, anneau et -anneau sont équivalents d’une part et
algèbre et -algèbre sont aussi équivalents d’autre part.
Page 11
ENS, Département de Maths UE MA 206, Probabilité
Page 12
Chapitre 3
Espaces probabilisés
13
ENS, Département de Maths UE MA 206, Probabilité
Exemple 3.1 Sur une période de 100 jours, une compagnie d’assurance a observé que le
nombre de voitures assurées par jour se repartit de la manière suivante :
Remarque 3.1 On remarquera la similitude du tableau précédent avec les tableaux sta-
tistiques à une variable.
Exemple 3.2 Considérons un jour donné, un match de football entre deux équipes A et
B. Un expert estime que la probabilité pour que l’équipe A gagne est 35 : Ici, on ne peut pas
parler d’expérience qui peut être répétée plusieurs fois dans les mêmes conditions. On ne
peut pas non plus parler d’équiprobabilité. La probabilité donnée par l’expert s’appuie sur
appréciation subjective des prestations des deux équipes à une période précise.
P
(i) 8(An )n2N suite d’éléments de A 2 à 2 disjoints, P [ An = P (An ) .
n2N n2N
(ii) P ( ) = 1:
Si P est une probabilité sur ( ; A); le triplet ( ; A;P ) est appelé espace probabilisé.
Page 14
ENS, Département de Maths UE MA 206, Probabilité
Exemple 3.3 Considérons l’expérience aléatoire de l’exemple 2.3. Associons à cette ex-
périence l’espace probabilisable ( ; A) où = fb; c; d; gg et A =f;; Be ; B e ; g avec
Be = fb; gg les bacs économiques. Nous pouvons dé…nir sur ( ; A) :
Remarque 3.3 La probabilité P doit donc être une représentation numérique …dèle de
l’information quantitative disponible. C’est dans ce cas et dans ce cas seulement que
( ; A; P ) sera considéré comme un bon modèle du problème étudié : le modèle probabiliste.
n X
n
P [ Ai = P (Ai ):
i=1
i=1
Preuve 3.1 (i) Cette propriété a déjà été utilisée dans les preuves du théorème précédent ;
montrons la maintenant. On dé…nit la suite (Bi )i 1 par Bi = Ai si i n et Bi = ; si
n n
i > n: Les Bi sont 2 à 2 disjoints et on a [ Bi = [ Bi = [ Ai : La additivité implique
i 1 i=1 i=1
n X
+1 X
n
P [ Ai = P [ Bi = P (Bi ) = P (Ai )
i=1 i 1
i=1 i=1
car P (;) = 0:
(ii) Par recurrence sur n:
Page 15
ENS, Département de Maths UE MA 206, Probabilité
X
+1
lim P (An ) = P (Bn ) = P [ Bn =P [ An :
n!+1 n 1 n 1
n=1
car [ An = [ Bn :
n 1 n 1
Dans le cas d’une suite décroissante, on se ramène au cas précédent par passage au com-
plémentaire :
= 1 P [ An
n 1
= 1 1 P \ An
n 1
= P \ An :
n 1
Théorème 3.4 (Sous additivité dénombrable) Soit ( ; A;P ) un espace probabilisé, (An )n 1 une
X
+1
suite d’évènements de A: Alors ou bien la série P (An ) diverge ; ou bien elle converge
n=1
+1 X
+1
et dans ce cas P [ An P (An ):
n=1
n=1
X
+1
P [ An = lim P (Bn ) lim (P (A1 ) + P (A2 ) + ::: + P (An )) = P (An ):
n 1 n!+1 n!+1
n=1
Page 16
ENS, Département de Maths UE MA 206, Probabilité
AA = fB \ A; B 2 Ag :
Proposition 3.1 AA est une tribu des parties de A; de sorte que (A; AA ) est un espace
probabilisable.
Soit P une probabilité sur ( ; A) telle que P (A) 6= 0: A l’aide de P; nous allons dé…nir
une probabilité sur (A; AA ): Considérons l’application
P0 : AA ! [0; 1]
P (B\A) :
B\A 7 ! P (A)
Proposition 3.2 P 0 est une probabilité sur (A; AA ); donc (A; AA ; P 0 ) est un espace pro-
babilisé.
Changement de notation
On pose P 0 (A \ B) = P (B=A); B=A est appelé l’évènement "B sachant que A est réa-
lisé", P (B=A) est alors la probabilité de réalisation simultanée de l’évènement B sachant
que l’évènement A est réalisé. Il ne faut pas confondre P (B=A) et P (A \ B) la probabilité
de réalisation simultanée de A et B: Dans P (B=A); l’expérience a été e¤ectuée et on nous
informe que A est réalisé ; avec cette information, on cherche la probabilité que le résultat
élémentaire observé appartienne à B (donc à A \ B):
Proposition 3.3 Soit ( ; A;P ) un espace probabilisé. Soit A 2 A tel que P (A) 6= 0: On
dé…nit
P ( =A) A ! [0; 1]
B 7 ! P P(A\B)(A)
P ( =A) est une probabilité sur ( ; A): Donc ( ; A;P ( =A)) est un espace probabilisé.
Théorème 3.5 (des probabilités composées) Soit ( ; A;P ) un espace probabilisé. Soit A 2
A tel que P (A) 6= 0: Alors 8B 2 A; P (A \ B) = P (A):P (B=A):
P (A1 \ A2 \ ::: \ An ) = P (A1 )P (A2 =A1 )P (A3 =A1 \ A2 ):::P (An =A1 \ A2 \ ::: \ An 1 )
Page 17
Chapitre 4
Indépendance
Remarque 4.1 On a ainsi sur l’espace probabilisable ( ; A); deux évènements qui sont
tantôt indépendants, tantôt dépendants, selon la probabilité de ( ; A):
Théorème 4.2 Soit ( ; A;P ) un espace probabilisé. Pour tout évènement A de A; A est
indépendant de A ssi P (A) = 0 ou P (A) = 1:
18
ENS, Département de Maths UE MA 206, Probabilité
P (A) = P (A \ B) + P (A \ B)
= P (A)P (B) + P (A \ B) (car A et B sont indépendants)
On en déduit
Remarque 4.3 On peut choisir F1 et F2 comme deux sous tribus de A; et donc parler
de l’indépendance de deux sous tribus de A:
Preuve 4.2 Soient Aj1 ; Aj2 ; :::; Ajp p des n sous tribus mutuellement indépendantes et
soient Aj1 ; Aj2 ; :::; Ajp quelconques choisis dans ces p sous tribus. Si Ai n’est pas une des
p sous tribus retenues, on choisit dans Ai Ai = : On a donc
n
P \ Ai = P (A1 )P (A2 ):::P (An )
i=1
Page 19
ENS, Département de Maths UE MA 206, Probabilité
Preuve 4.3 Soient Ai1 ; Ai2 ; :::; Aip p des n évènements mutuellement indépendants. Les
sous tribus Aik = ;; Aik ; Aik ; k = 1; 2; :::; p; engendrées respectivement par ces p
évènements sont p sous tribus choisies parmi les n sous tribus mutuellement indépendantes
Ai = ;; Ai ; Ai ; i = 1; 2; :::; n: Le résultat s’en suit en appliquant le théorème précédent.
Remarque 4.6 La réciproque du résultat précédent est fausse. En d’autres termes, l’in-
dépendance deux à deux de n évènements n’entraine pas l’indépendance mutuelle de ces
évènements.
Interprétation de l’indépendance
En général, pour 2 évènements A et B, on a P (B=A) 6= P (B); ceci a une signi…cation
intuitive évidente : la réalisation ou la non réalisation de A in‡ue sur les chances de
réalisation de B. Autrement dit, "B dépend de A d’une certaine manière". Dans le cas où
A et B sont indépendants, on a P (A \ B) = P (A):P (B) = P (A):P (B=A) d’où l’on tire
P (B) = P (B=A) si P (A) 6= 0: Par symétrie, si P (B) 6= 0 on a aussi P (A) = P (A=B): Donc
A et B sont indépendants ssi la réalisation (ou la non réalisation) de l’un, n’a aucune
in‡uence sur la réalisation (ou la non réalisation) de l’autre.
Théorème 4.7 (de Bayes) Soit ( ; A;P ) un espace probabilisé et B1 ; B2 ; :::; Bn un sys-
tème complet d’évènements tel que P (Bi ) 6= 0 8i = 1; :::; n: Pour tout évènement A de
probabilité non nulle, on a : 8i = 1; :::; n
P (Bi ):P (A=Bi )
P (Bi =A) = P
n :
P (Bk ):P (A=Bk )
k=1
Page 20
ENS, Département de Maths UE MA 206, Probabilité
P (Bi ) est appelé probabilité a priori de Bi et P (Bi =A) est appelé probabilité a poste-
riori de Bi :
Preuve 4.4 On a
Exemple 4.3 Dans une usine, le montage de 30% des appareils est e¤ectué par un spé-
cialiste hautement quali…é et celui de 70% par un spécialiste de quali…cation moyenne. La
…abilité de fonctionnement de l’appareil est de 0.9 au cas où le montage a été e¤ectué par
un spécialiste hautement quali…é, et de 0.8 si le montage a été e¤ectué par un spécialiste
de quali…cation moyenne. Un appareil choisi au hasard s’est avéré d’un fonctionnement
…able. Calculons la probabilité que son montage ait été e¤ectué par un spécialiste haute-
ment quali…é.
Exemple 4.4 Sur 1000 PME, 50 font faillite dans une année. Sur 1000 grandes entre-
prises, 3 font faillite dans une année. Une entreprise fait faillite, déterminer la probabilité
que ce soit une PME. Il y a 90% de PME dans l’ensemble des entreprises.
Page 21
Chapitre 5
5.1 Généralités
5.1.1 Dé…nition
Soit ( ; A; P ) un espace probabilisé, ( 0 ; B) un espace probabilisable tel que 0
R; X : ! 0 une application.
1
Dé…nition 5.1 X est une variable aléatoire réelle (v.a.r) si 8B 2 B; X (B) 2 A:
Donc X est une v.a.r si l’image réciproque d’un évènement est un évènement.
Remarque 5.1 Pour une application dé…nie sur et à valeurs dans 0 ; le fait d’être
une v.a.r dépend des tribus A et B sur et 0 respectivement. Ainsi en changeant les
tribus A et B, l’application peut tantôt être une v.a.r, tantôt cesser de l’être. La propriété
d’être une v.a.r n’est donc pas une propriété intrinsèque (c’est à dire liée à la dé…nition)
de l’application comme la propriété de continuité dans R par exemple.
Remarque 5.2 Cependant on ne véri…era jamais que nos "v.a.r" satisfont la condition
de la dé…nition précédente.
PX : B ! [0; 1]
1
B 7 ! P (X (B)):
Théorème 5.1 PX est une probabilité sur ( 0 ; B): La probabilité PX est appelée loi de
probabilité ou distribution de probabilité de la v.a.r X: PX est encore appelée probabilité
image de P par X.
22
ENS, Département de Maths UE MA 206, Probabilité
p: X( ) ! [0; 1]
x 7 ! px = PX (fxg)):
Notation 5.1 P (X 1 (fxg)) est encore noté P ([X = x]) ; donc X 1 (fxg) = f! 2 ; X(!) = xg est
noté [X = x] : P (X = x) est alors la probabilité que la v.a.r X prenne la valeur x:
Notation 5.2 De façon générale, si X est une v.a.r, on utilise les notations abrégées :
f! 2 ; X(!) ag se note [X a]
f! 2 ; X(!) < ag se note [X < a]
f! 2 ; X(!) ag se note [X a]
f! 2 ; X(!) > ag se note [X > x]
f! 2 ; a X(!) bg se note [a X b]
f! 2 ; a < X(!) bg se note [a < X b]
f! 2 ; a X(!) < bg se note [a X < b]
f! 2 ; a < X(!) < bg se note [a < X < b]
Page 23
ENS, Département de Maths UE MA 206, Probabilité
Théorème 5.3 Soit X une v.a.r discrète prenant les valeurs (xi )ni=1 avec les probabilités
respectives (pi )ni=1 :
(i) La fonction de répartition de X est dé…nie par
8
< 0 si x 2] 1; x1 [
F (x) = p1 + p2 + ::: + pi 1 si x 2 [xi 1 ; xi [; i = 2; 3; :::; n
:
1 si x xn :
(ii) pi = P (X = xi ) = F (xi ) F (xi 1 ); i = 2; 3; :::; n:
Preuve 5.1 Découle de la dé…nition de F.
la sommation étant faite sur l’ensemble des couples (i; j) tels que zk = xi + yj :
– Le produit XY est la variable aléatoire dé…nie sur par
8! 2 (XY )(!) = X(!)Y (!):
L’ensemble image de T = XY est formée de réels tk tels que tk = xi yj: La
probabilité image (ou loi de probabilité) est alors
X
P (Z = zk ) = pij
(i;j)
la sommation étant faite sur l’ensemble des couples (i; j) tels que tk = xi yj :
– sup(X; Y ) et inf(X; Y ) sont les v.a.r dé…nies par
8! 2 ; sup(X; Y )(!) = sup(X(!); Y (!)) et inf(X; Y )(!) = inf(X(!); Y (!))
Notons qu’en général, on n’a pas sup(X; Y ) = X ou bien sup(X; Y ) = Y (resp.
inf(X; Y ) = X ou bien inf(X; Y ) = Y ): Pour certains ! 2 ; sup(X; Y )(!) =
X(!) et pour les autres sup(X; Y )(!) = Y (!): Il en est de même pour inf(X; Y ):
Page 24
ENS, Département de Maths UE MA 206, Probabilité
Dé…nition 5.5 On appelle espérance mathématique de X, le nombre réel noté E(X), s’il
existe, dé…ni par X
E(X) = X(!)P (f!g) : (5.1)
!2
Propriétés
– E(X + Y ) = E(X) + E(Y ): L’espérance mathématique de la somme de deux v.a.r
est la somme de leurs espérances mathématiques.
– E( X) = E(X) pour tout réel :
Remarque 5.5 Ainsi E est une forme linéaire sur l’espace vectoriel des v.a.r dé…nies
sur ( ; P( ); P ):
Donc X
E(X) = xk P (X = xk ) : (5.2)
k2I
On retrouve ici la formule classique de calcul de E(X): Dans (5.1) les calculs sont faits à
partir de l’espace de départ ; alors que dans (5.2) ils sont faits dans l’espace d’arrivée.
Intreprétation
Le tableau donnant la loi de probabilité de X peut être considéré comme le tableau
des fréquences d’un caractère statistique qui prend les modalités x1 ; x2 ; :::; xn ; ::: avec les
fréquences respectives P (X = x1 ) ; P (X = x2 ) ; :::; P (X = xn ) ; :::: Dans ces conditions
E(X) est exactement la moyenne du caractère statistique. Ainsi E(X) s’interpréte comme
la valeur moyenne que prend la v.a.r X:
Page 25
ENS, Département de Maths UE MA 206, Probabilité
- L’écart-type de X est p
(X) = V (X):
Comme dans le cas de E(X); avec les mêmes notations, on a la formule équivalente :
X
V (X) = (xk E(X))2 P (X = xk ) :
k2I
Interprétation
V (X) est la moyenne des carrés des écarts à la moyenne E(X); l’écart-type (X)
est la moyenne quadratique des écarts à la moyenne. Il mesure la dispersion de la v.a.r
X autour de sa moyenne E(X):
Remarque 5.6 Si X( ) est …ni, les quantités précédentes existent. Cependant si X( ) est
dénombrable et in…ni, l’existence de ces quantités est liée à la convergence des séries qui
les dé…nissent.
h i
k
(ii) E (X E(X)) est appelé moment centré d’ordre k de X:
Page 26
ENS, Département de Maths UE MA 206, Probabilité
Remarque 5.7 Si X est une v.a.r continue, la probabilité que X prenne une valeur isolée
x est nulle. Ceci signi…e que 8x 2 X( ); P (X = x) = 0:
Montrons ce dernier résultat
Pour tout " > 0; on a 0 P (X = x) P (x " < X x) = F (x) F (x ") où
F est la fonction de répartition de X: En prenant la limite quand " tend vers 0, on a le
résultat car F est continue (voir ci-dessous).
Propriétés
Soit F la fonction de répartition de X:
(i) F est croissante.
(ii) F est continue.
(iii) lim F (x) = 0 et lim F (x) = 1
x! 1 x!+1
(iv) F 0 (x) = f (x)
Variance de X
Dé…nition 5.10 C’est la quantité notée V (X); si elle existe, dé…nie par
Z
V (X) = (x E(X))2 f (x)dx:
X( )
Page 27
ENS, Département de Maths UE MA 206, Probabilité
Ecart-type de X
Dé…nition 5.11 C’est (X) dé…ni par
p
(X) = V (X):
Remarque 5.8 E(X); V (X) et (X) ont la même interpêtation et les mêmes propriétés
que pour les variables discrètes.
pour toute fonction h dé…nie sur X( ): En particulier pour les fonctions puissances en-
tières, on a :
Dé…nition 5.13 On dit que les v.a.r X et Y sont indépendantes (relativement à P) si les
deux sous tribus X 1 (B1 ) et Y 1 (B2 ) sont indépendantes.
1 1 1 1
P X (! 1 ) \ Y (! 2 ) = P X (! 1 ))P (Y (! 2 ) = PX (! 1 )PY (! 2 )
ou encore : 8(! 1 ; ! 2 ) 2 1 2;
P (X = ! 1 ; Y = ! 2 ) = P (X = ! 1 )P (Y = ! 2 ):
Page 28
Chapitre 6
Lois de probabilité
Nous présentons ici les lois de probabilité que l’on rencontre fréquemment. Certaines
de ces lois ont déjà été vues dans le cours de Statistique. Nous présentons d’abord les lois
discrètes et ensuite les lois continues.
De façon générale, si une v.a.r X suit la loi de probabillité L, nous noterons X # L.
1 si succès
X= .
0 si échec.
29
ENS, Département de Maths UE MA 206, Probabilité
Remarque 6.1 La loi issue d’une expérience de Bernoulli est une loi de Bernoulli. Une
loi de Bernoulli est donc une loi B(1; p): On en déduit qu’une v.a.r de loi B(n; p) est la
somme de n v.a.r de Bernoulli indépendantes de loi B(1; p): En e¤et dé…nissons la v.a.r
Donc la loi binomiale B(n; p) tend dans ces conditions vers la loi de Poisson P( ): En
pratique, on convient de remplacer une loi binomiale B(n; p) par une loi de Poisson
P(np); dès que l’on a : n > 50 et p < 0:1:
Page 30
ENS, Département de Maths UE MA 206, Probabilité
Lors d’une expérience aléatoire, on obtient un des k résultats possibles. Lorsque l’ex-
périence est repétée n fois de façon indépendante, la probabilité d’obtenir les résultats
suivants : E1 ; x1 f ois; E2 ; x2 f ois; :::; Ek ; xk f ois est donnée par :
n!
P (X1 = x1 ; X2 = x2 ; :::; Xk = xk ) = px1 px2 :::pxk k
x1 !x2 !:::xk ! 1 2
où Xi est la v.a égale au nombre d’apparitions de l’évènement Ei au cours des n répétitions.
On dit alors que le vecteur aléatoire X = (X1 ; X2 ; :::; Xk ) suit la loi multinomiale
M(n; p1 ; p2 ; :::; pk ): On a :
P
k
X = f(x1 ; x2 ; :::; xk ) : xi = 0; 1; :::; n; i = 1; :::; k avec xi = ng:
i=1
8i = 1; :::; k Xi # B(n; pi ); donc E(Xi ) = npi ; V (Xi ) = npi (1 pi ) et on a
cov(Xi ; Xj ) = npi pj :
Remarque 6.2 La loi G(p) est parfois dé…nie comme le nombre d’échecs avant le premier
succès lorsqu’on repète une expérience de Bernoulli plusieurs fois de façon indépendante.
Dans ce cas on a plutôt :
- X = N:
- P (X = x) = (1 p)x p
Remarque 6.3 La loi BN (r; p) est parfois dé…nie comme le nombre d’échecs avant le
rieme succès lorsqu’on repète une expérience de Bernoulli plusieurs fois de façon indépen-
dante. On a alors
-X=N
r 1 r
- P (X = x) = Cx+r 1 p (1 p)x :
Page 31
ENS, Département de Maths UE MA 206, Probabilité
Remarque 6.4 Si n << N; la loi hypergéométrique H(N; n; n1 ) peut être approximée par
la loi binomiale B(n; p) où p = nN1 . En pratique, cette approximation est faite si n < 0; 1N :
Remarque 6.5 Dans le cas d’une loi binomiale, les tirages sont indépendants (tirages
non exhaustifs car la même boule peut-être tirée plusieurs fois). Pour une loi hypergéomé-
trique, tirer à la fois n boules de l’urne est équivalent à tirer succesivement sans remise n
boules de l’urne ; donc ici les tirages ne sont pas indépendants. On constate alors que si
on a une urne ayant N boules et si de l’urne nous voulons extraire n boules avec n << N ,
on peut utiliser l’un des modes de tirages précédents (avec remise ou sans remise) car ils
sont équivalents dans ce cas.
Cette propriété est utilisée lors du choix de l’échantillon dans les méthodes de sondage.
En réalité, les tirages successifs pour sélectionner l’échantillon sont exhaustifs (non indé-
pendants car un individu ne doit pas apparaître 2 fois dans le même échantillon), mais la
propriété précédente permet d’utiliser les propriétés de l’indépendance.
Page 32
ENS, Département de Maths UE MA 206, Probabilité
Page 33
Chapitre 7
Fonctions génératrices
P
+1
Remarque 7.1 La série pk tk converge uniformément sur l’intervalle [ 1; 1] pour t
k=0
réel (resp. dans le disque jtj 1 pour t complexe) et sa somme PX (t) est une fonction
continue de t dans cet intervalle. Cette somme admet des dérivées de tous les ordres que
l’on obtient comme sommes des séries dérivées, pour tout t tel que jtj < 1.
Théorème 7.1 La fgp de la v.a.r X à valeurs dans N; détermine la loi de probabilité de
cette v.a.r. En d’autres termes, si 2 v.a.r (à valeurs dans N) admettent la même fgp, alors
elles ont même loi.
P
+1
On a PX (t) = pk tk : Dans ] 1; 1[; on a
k=0
- PX (0) = p0 = P (X = 0)
P
+1
- PX0 (t) = kpk tk 1 =) PX0 (0) = p1 = P (X = 1)
k=1
00 P
+1
00
- PX (t) = k(k 1)pk tk 2
=) PX (0) = 2p2
k=2
................................................................................
(n) P
+1
(n)
- PX (t) = k(k 1):::(k n + 1)pk tk n =) PX (0) = n!pn :
k=n
(n)
Donc 8n 2 N; PX (0) = n!pn : Il en resulte que la connaissance de PX détermine celle de
la loi (pn )n2N de X:
Exemple 7.1 Loi de Bernoulli de paramètre p.
- X = f0; 1g
- P (X = 0) = 1 p; P (X = 1) = p:
P1
PX (t) = pk tk = p0 t0 + p1 t1 = (1 p) + pt:
k=0
34
ENS, Département de Maths UE MA 206, Probabilité
X
+1
PX (t) = pk tk
k=1
X
+1
= (1 p)k 1 ptk
k=1
X
+1
= p (1 p)k tk+1
k=0
X
+1
= pt [t(1 p)]k
k=0
pt 1
= (si jt(1 p)j < 1; c-à-d jtj < ):
1 t(1 p) 1 p
Cas particuliers
Pour r = 1; E(X) = PX0 (1)
Pour r = 2; E [X(X 1)] = PX00 (1); donc E(X 2 ) = PX00 (1) + E(X) et V (X) =
PX00 (1) + E(X) (E(X))2 :
Somme de 2 v.a.r
Théorème 7.3 Soient X et Y 2 v.a.r indépendantes à valeurs entières, alors PX+Y (t) =
PX (t)PY (t):
Preuve 7.1 PX+Y (t) = E(tX+Y ) = E(tX tY ) = E(tX )E(tY ) = PX (t)PY (t) car X et Y
sont indépendantes.
Corollaire 7.1 Soient X1 ; X2 ; :::; Xn n v.a.r indépendantes, de même loi, dont la fonction
génératrice des probabilités est P(t). On pose Sn = X1 + X2 + ::: + Xn : Alors
Page 35
ENS, Département de Maths UE MA 206, Probabilité
Remarque 7.3 Il n’est pas nécessaire que MX (t) existe quel que soit t 2 R. Pour que X
admette une f.g.m, il su¢ t que MX (t) existe dans un voisinage de 0.
Proposition 7.1 Soit MX (t) la fonction génératrice des moments de la v.a.r X: Alors
(k)
E(X k ) = MX (0):
Preuve 7.2 Dans le cas continu, soit f la densité de X. En supposant remplies les condi-
tions pour écrire les égalités suivantes, on a :
MX (t) = E(etX )
Z +1 X +1
!
(tx)k
= f (x)dx
1 k=0
k!
Xt
+1 k Z +1
= xk f (x)dx
k=0
k! 1
X
+1 k
t
= E(X k ):
k=0
k!
Somme de 2 v.a.r
Théorème 7.4 Soient X et Y 2 v.a.r indépendantes, alors MX+Y (t) = MX (t)MY (t):
Page 36
ENS, Département de Maths UE MA 206, Probabilité
Preuve 7.3 MX+Y (t) = E(et(X+Y ) ) = E(etX etY ) = E(etX )E(etY ) = MX (t)MY (t) car X
et Y sont indépendantes.
MX (t) = PX (et )
et
PX (t) = MX (ln t):
Page 37
Chapitre 8
Vecteurs aléatoires
Y
n
= 1 2 ::: n = i:
i=1
A1 A2 ::: An
n’est pas une tribu des parties de (on construit facilement un contre-exemple
dans le cas n = 2). C’est pourquoi sur on considère la tribu engendrée par
fA1 A2 ::: An ; Ai 2 Ai ; 8i = 1; 2; :::; ng : On a donc la dé…nition suivante :
Dé…nition 8.1 On appelle tribu produit des tribus (Ai )ni=1 ; et on note
n
Ai ;
i=1
la tribu engendrée par les pavés A1 A2 ::: An où Ai 2 Ai ; pour tout i = 1; 2; :::; n; c’est
à dire n
Ai = (fA1 A2 ::: An ; Ai 2 Ai ; 8i = 1; 2; :::; ng) :
i=1
On choisit alors n
A= Ai
i=1
38
ENS, Département de Maths UE MA 206, Probabilité
L’indépendance intuitive des (Ai )ni=1 se traduit alors par l’indépendance en proba-
bilité des Bi ; c’est à dire
n Yn
P \ Bi = P (Bi )
i=1
i=1
avec n
\ Bi = A1 A2 ::: An :
i=1
P (Bi ) = Pi (Ai )
Le théorème suivant (que nous ne prouverons pas) montre qu’une telle probabilité
existe et que, de plus, elle est unique.
!
Y
n
n
Théorème 8.1 Il existe une unique probabilité P sur i; Ai telle que pour tout
i=1
i=1
Ai 2 Ai ; pour i = 1; 2; :::; n; on ait
Y
n
P (A1 A2 ::: An ) = Pi (Ai ):
i=1
Page 39
ENS, Département de Maths UE MA 206, Probabilité
3 1 1
P (i; j; k) = P (i)P (j)P (k) = 3
= :
6 216
Remarque 8.2 La structure de l’espace probabilisé produit fournit un cadre formel qui
permet de dé…nir les opérations sur les v.a.r. Par exemple dans le cas de deux v.a.r X et
Y dé…nes sur ( ; A; P ); à valeurs respectivement dans ( 1 ; B1 ; PX ) et ( 2 ; B2 ; PY ); où
PX et PY sont respectivement les lois de X et Y, la somme X + Y est dé…nie comme la
composée de deux v.a.r f et g par
f g
! 1 2 ! 3
! 7 ! (X(!); Y (!)) ! X(!) + Y (!)
Remarque 8.3 Si X1 ; X2 ; :::; Xn sont des variables aléatoires réelles dé…nies sur ( ; A; P ),
alors l’application X = (X1 ; X2 ; :::; Xn ) : ( ; A; P ) 99K Rn est un vecteur aléatoire à va-
leurs dans Rn : Une v.a à valeurs dans Rn est alors dé…nie par la donnée de n v.a .r. Si
X = (X1 ; X2 ; :::; Xn ), X est une v.a vectorielle ssi Xi est une v.a.r 8 i = 1; :::; n.
Page 40
ENS, Département de Maths UE MA 206, Probabilité
Dé…nition 8.6 La matrice des variances et covariances de X est la matrice carrée d’ordre
n, notée C; d’éléments
cij = E [(Xi E(Xi ))(Xj E(Xj ))]
= cov(Xi ; Xj ):
Remarque 8.4 C est une matrice symétrique et positive, dont les éléments diagonaux
sont
cii = E (Xi E(Xi ))2 = V ar(Xi ):
Pour étudier un vecteur aléatoire, nous pouvons commencer par décrire le vecteur
composante par composante, en les considerant comme autant de v.a.r di¤érentes. Ce-
pendant se limiter à l’étude des composantes fait perdre les éventuels liens entre celles-ci.
Il faudra donc étudier les composantes du vecteur aléatoire simultanément.
Dans la suite, nous allons nous intéresser au cas n = 2 lorsque les deux variables sont
discrètes ; on parle alors de couple de v.a.r. discrètes.
- Loi marginale de Y
Page 41
ENS, Département de Maths UE MA 206, Probabilité
La covariance est un produit scalaire sur l’espace vectoriel des v.a.r à variance …nie,
dé…nies sur ( ; A; P ): On a en particulier l’inégalité de Cauchy-Schwartz : 8X; Y des v.a.r
à variance …nie, p p
jcov(X; Y )j var(X): var(Y )
Ainsi on a j (X; Y )j 1; c’est à dire 1 (X; Y ) 1:
Dé…nition 8.14 Si (X; Y ) = 0; alors cov(X; Y ) = 0; on dit que X et Y sont non
correlées.
Page 42
ENS, Département de Maths UE MA 206, Probabilité
8(x; y) 2 X( ) Y ( ); on a pxy = px py
Page 43
Chapitre 9
Inégalité de Bienaymé-Tchebyche¤
Preuve 9.1 Nous allons montrer cette inégalité dans le cas où X est une v.a.r continue.
Soit f la densité de X.
- Pour 0 < 1; l’inégalité Rest triviale. R +1 R +1
+1
- Soit > 1: E(X) = = 0 xf (x)dx xf (x)dx f (x)dx = (1
1
F ( )). Donc P (X ) = 1 F( ) :
V (X)
P (jX(!) E(X)j > ") :
"2
Preuve 9.2 On applique l’inégalité de Markov à la v.a.r positive Y = (X E(X))2 :
P (jX(!) E(X)j > ") est la probabilité que la v.a X prenne une valeur qui s’écarte de
E(X) d’une quantité supérieure à ": L’inégalité exprime que cette probabilité est majorée
par V "(X)
2 ; c’
est à dire par un nombre proportionnel à la variance. Il est donc évident que la
variance est une mesure des ‡uctuations aléatoires d’une v.a.r X autour de son espérance
mathématique E(X); V (X) mesure la dispersion de la v.a.
Exemple 9.1 1) Supposons V (X) = 5: La probabilité que X prenne une valeur qui di¤ère
de plus de 10 unités de son espérance mathématique E(X) est inférieure à 1052 = 0:05:
2) Si la variance est V (X) = 1; cette probabilté est inférieure 1012 = 0:01
Donc plus la variance est petite, et moins la v.a s’écarte de son espérance mathématique.
44
ENS, Département de Maths UE MA 206, Probabilité
Remarque 9.1 Le fait que P X n (!) > " tende vers 0 quand n ! +1 est tra-
duit par X n converge en probabilité vers : Cette convergence en probabilité obtenue avec
la moyenne d’un échantillon est ce que l’on appelle la loi faible des grands nombres (par
opposition à la loi forte des grandes nombres qui traduit la convergence presque sûre de
X n vers ): Elle s’énonce ainsi :
Interprêtation
Supposons que nous voulons estimer la moyenne inconnue d’une population.
1. Si l’on e¤ectue une série de n tirages indépendants dans cette population, la moyenne
des individus observés converge en probabilité vers :
2. Plus le nombre de tirages est grand, plus la probabilité que l’écart entre la moyenne
observée sur l’échantillon et la moyenne de la population soit supérieure à une valeur
donnée est petite. Cette probabilité tend vers 0 lorsque la taille n de l’échantillon
augmente indé…niment.
Exemple 9.2 On repète n fois l’expérience "tirer une carte d’un jeu de 32 cartes". Après
chaque expérience, on remet la carte tirée dans le jeu et on mélange à nouveau. Déterminer
n tel que la fréquence d’apparition d’un roi ou d’une dame soit comprise entre 20% et 30%
avec une probabilité supérieure à 0.8.
Soit Y la v.a égale au nombre de roi ou de dame tirés après les n répétitions de l’expérience.
Y # B(n; 14 ); Yn est la fréquence d’apparitions d’un roi ou d’une dame. E( Yn ) = 41 et
V ar( Yn ) = 16n
3
: Il faut déterminer n tel que :
Y
P 20% 30% 0:8 (9.1)
n
On a
Y Y 1 5
P 20% 30% =P
n n 4 100
Page 45
ENS, Département de Maths UE MA 206, Probabilité
Exemple 9.3 On écrit au hazard une suite de n chi¤res. On suppose que les chi¤res
successifs sont indépendants et que les 10 chi¤res possibles sont équiprobables. Déterminer
n tel que la fréquence d’apparition du chi¤re 9 soit comprise entre 8% et 12% avec une
probabilité supérieure à 0.95. Interprêter le résultat obtenu.
Par un raisonnement similaire au précedent, on trouve n 4500:
Interprêtation : Si on écrit au hazard une suite d’au moins 4500 chi¤res, la fréquence
d’apparition du chi¤re 9 (donc de chaque chi¤re) est comprise entre 8% et 12% avec une
probabilité supérieure à 0.95.
Remarque 9.2 Le nombre obtenu ici paraît très grand. En fait dans les deux cas, le
nombre de tirages à e¤ectuer peut être amélioré. Pour cela, on utilise une inégalité ana-
logue à celle de Bienaymé-Tchebyche¤ : l’inégalité de BERNSTEIN. Celle ci donne une
meilleure majoration (évaluation) de la probabilité de commettre une erreur strictement
supérieure à ": On peut également utiliser la loi de probabilité de la v.a. Par exemple dans
l’exemple 9.3, on peut utiliser l’approximation d’une loi binômiale par une loi normale.
Page 46