Vous êtes sur la page 1sur 137

1

Universit Paris Villetaneuse Anne 2013/2014

Clment Foucart

Probabilits Prpa Capes

Probabilits et Statistiques:
Elments de cours et exercices

Les programmes de mathmatiques dans l'enseignement secondaire ainsi qu'en classes prpara-

toires et BTS mettent de plus en plus en avant la thorie des probabilits. S'il est rare que les

exercices de probabilits donns au lyce et dans les premires annes universitaires ncessitent

des raisonnements diciles en analyse relle, plusieurs types de dicults apparaissent lorsque

l'on enseigne ou que l'on tudie les probabilits. D'une part, des noncs mal construits (trop
1
succincts ou au contraire trop longs) peuvent rapidement bloquer le lecteur . D'autre part,

on peut tre amen mobiliser des connaissances en analyse ou en algbre (calculs de sries,

d'intgrales, algbre linaire, matrice inverser).

La thorie de la mesure n'est pas au programme du CAPES. Nous nous bornerons donc

l'usage de notions probabilistes sans donner plus de dtails quant leurs dnitions en tho-

rie de la mesure. Il faut nanmoins bien comprendre que probabilits et intgration partagent

beaucoup de choses, comme nous le verrons dans les chapitres suivants, probabilits discrtes

(respectivement continues) amnent l'tude de sries (respectivement d'intgrales). An de

donner un cadre clair, nous introduirons rapidement les tribus (c'est d'ailleurs au programme

en classes prparatoires conomiques et sociales, voie scientique). D'un point de vue pdago-

gique, introduire les tribus permet de s'entraner manipuler les sous-ensembles.

Les exercices accompagns du signe # sont corrigs. Ils ont t dans leur grande majorit
2
rdigs par Alexandre Genadot et Pierre Veuillez (http ://mathsece.free.fr/) . An de vous

entraner, vous pouvez consulter les rfrences suivantes :

Ouvrages utiliss pour la rdaction de ce polycopi


1) Intgration et Probabilits, Auliac, Cocozza-Thivent, Mercier, Roussignol, EdiScience.
2) Probabilits, analyse de donnes et Statistiques, Saporta, Technip.
3) Polycopi du cours de prparation au capes de Paris 6. Frdrique Petit et Batrice de Tilire
(disponible en ligne sur la page de B. de Tilire)
4) Probabilits et statistiques pour le CAPES externe et l'Agrgation interne de Mathmatiques (J-
rme Escoer)
5) Annales des ECRICOMES (pour les problmes et exercices de probabilits : http ://mathsece.free.fr/sujetsent
6) Analyse pour l'agrgation, Zuily et Quelec. Dunod,
Rfrences pouvant tre consultes
1) Probabilits Tome 1, licence- capes Jean-Yves Ouvrard, chez Cassini
2) Introduction au calcul des probabilits et la statistique, Jean-Franois Delmas, disponible en ligne
3) Probability and random processes Grimmett and Stirzaker third edition, Oxford
1. et ceci est vrai tout niveau.
2. J'en prote pour les remercier ici.
2
Table des matires

1 Rappels fondamentaux 5
1.1 Rudiments sur les ensembles et les fonctions . . . . . . . . . . . . . . . . . . . . 5

1.1.1 Notions de base sur les ensembles . . . . . . . . . . . . . . . . . . . . . . 5

1.1.2 Ensembles et fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.2 Ensembles dnombrables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.2.1 Ensembles au plus dnombrables . . . . . . . . . . . . . . . . . . . . . . 8

1.2.2 Ensembles nis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2 Espaces probabiliss 15
2.1 Terminologie probabiliste et notion de probabilit . . . . . . . . . . . . . . . . . 15

2.2 Probabilit conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2.2.1 Formule des probabilits totales et formule de Bayes . . . . . . . . . . . . 23

2.2.2 Indpendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

2.3 Variables alatoires : notion de loi et de moments . . . . . . . . . . . . . . . . . 26

2.3.1 Loi d'une variable alatoire . . . . . . . . . . . . . . . . . . . . . . . . . 27

2.3.2 Fonctions de rpartition et indpendance . . . . . . . . . . . . . . . . . . 27

2.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

3 Variables alatoires discrtes 37


3.1 Gnralits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

3.1.1 Loi et fonction de rpartition . . . . . . . . . . . . . . . . . . . . . . . . 37

3.1.2 Esprance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

3.1.3 Composition d'une variable alatoire et d'une fonction et indpendance . 40

3.1.4 Moments, variance et cart-type . . . . . . . . . . . . . . . . . . . . . . . 41

3.2 Lois discrtes usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

3.3 Vecteurs alatoires discrets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

3.3.1 Vecteurs alatoires discrets : lois marginales, indpendance . . . . . . . . 44

3.3.2 Structure algbrique, covariance et corrlation . . . . . . . . . . . . . . . 45

3.3.3 Loi multinomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

3.3.4 Somme de variables alatoires indpendantes . . . . . . . . . . . . . . . . 48

3.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

4 Variables alatoires densit 73


4.1 Gnralits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

4.1.1 Loi et fonction de rpartition . . . . . . . . . . . . . . . . . . . . . . . . 75

4.1.2 Esprance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

3
4 TABLE DES MATIRES

4.1.3 Composition d'une variable alatoire et d'une fonction et indpendance . 76

4.1.4 Moments, variance et cart-type . . . . . . . . . . . . . . . . . . . . . . . 77

4.2 Lois densit usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

4.3 Vecteurs alatoires densit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

4.3.1 Vecteurs alatoires densit : lois marginales, indpendance . . . . . . . 81

4.3.2 Loi normale multidimensionnelle . . . . . . . . . . . . . . . . . . . . . . . 81

4.3.3 Sommes de deux variables alatoires indpendantes : convolution . . . . . 82

4.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

5 Thormes limites 99
5.1 Notions de convergence de suites alatoires . . . . . . . . . . . . . . . . . . . . . 99

5.1.1 Convergence en probabilit et loi faible des grands nombres. . . . . . . . 99

5.1.2 Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

5.1.3 Approximations de certaines lois et thorme central limite . . . . . . . . 102

5.1.4 Convergence presque-sre et loi forte des grands nombres . . . . . . . . . 104

5.2 Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

6 Elments de statistiques 109


6.1 Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

6.2 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

7 Sujets des examens passs et problmes 121


7.1 Fonctions additives et loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . 126

7.2 Thorme de Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

7.3 Marche alatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128

8 Problmes d'analyse pour les probabilits 135


Chapitre 1

Rappels fondamentaux

Ce chapitre est du niveau de premire et deuxime anne. Il est conseill d'y re-
venir si vous avez des lacunes.
Nous commenons par des rappels de base sur les ensembles et les oprations sur les ensembles.

Nous terminons par des rappels sur les ensembles dnombrables. Ces ensembles jouent un rle

primordial lors de l'tude des probabilits discrtes. Les notions prsentes ici font parties des

cours de premire et deuxime anne de mathmatiques. Nous renvoyons le lecteur aux ouvrages

consacrs.

1.1 Rudiments sur les ensembles et les fonctions

1.1.1 Notions de base sur les ensembles


Soit sera inclus dans N, R ou Rd pour d 2). A est un sous-
un ensemble (typiquement

ensemble (on dit aussi partie) de , si A est une collection d'lments de : au sens o tous

les lments de A sont lments de . On note alors

A ,
la relation est la relation d' inclusion.

Rappel : On raisonne souvent par double inclusion pour montrer que deux ensembles sont gaux :
A = B A B et B A.

On note P() l'ensemble des parties de . C'est dire :

P() = {A; A sous-ensemble de }.


Oprations sur les ensembles :
 Ensemble complmentaire. Soit A P(). Le complmentaire de A est l'ensemble des l-

ments de qui n'appartiennent pas A :

Ac = {x ; x
/ A}.
On note le complmentaire de . Cet ensemble s'appelle l'ensemble vide.

5
6 CHAPITRE 1. RAPPELS FONDAMENTAUX

 Runion : La runion de deux ensembles A et B est note AB et est dnie par :

x A B x A ou xB
Attention, le "ou" n'est pas exclusif, c'est dire que x peut appartenir la fois A et B .

 Intersection : l'intersection de deux ensembles A et B est note AB et est denie par :

x A B x A et xB
 L'ensemble des lments de A qui ne sont pas dans B est not A \ B . On dit "A priv de B ".
On le dnit par :

A \ B = A Bc.
Ces oprations se gnralisent des
S familles
T d'ensembles : soit I N et (Ai , i I). Leur

runion est note


iI Ai , leur intersection
iI Ai
[ [
x Ai i I tel que x Ai , donc x
/ Ai i I, x
/ Ai
iI iI
\ \
x Ai i I, x Ai , donc x
/ Ai i I tel que x
/ Ai .
iI iI

Remarque 1.1.1 Toutes ces oprations sont stables dans P().


On rappelle les rgles de calculs :

(A B) C = (A C) (B C)

(A B) C = (A C) (B C)

(A B)c = Ac B c

(A B)c = Ac B c

Plus gnralement :

(iI Ai )c = iI Aci et (iI Ai )c = iI Aci .


Dnition 1.1.1 (Partition) Une famille de parties de , (Ai , i I) est une partition de
si ;
i) iI Ai =
ii) i I, j I : i 6= j = Ai Aj = .

Dnition 1.1.2 (Produit cartsien) Le produit cartsien de deux ensembles E et F est


not, E F et est dni par :
E F = {(x, y); x E et y F }.
Plus gnralement, le produit cartsien de n ensembles est :

n
Y
E1 E2 E3 ... En = Ei = {(x1 , x2 , ..., xn ); i [|1, n|], xi Ei }.
i=1
1.2. ENSEMBLES DNOMBRABLES 7

1.1.2 Ensembles et fonctions


On donne ici quelques rudiments sur les applications : les dnitions d'injectivit, surjectivit,

de l'image et de l'image rciproque d'un ensemble par une application.

Soient E et F deux ensembles, soit f une application qui va de E dans F :

Dnition 1.1.3 La fonction f est dite


injective si :
x, y E, f (x) = f (y) = x = y.
Dans ce cas, un lment de F a au plus un antcdent par f dans E .

surjective si :
z F, x E; f (x) = z.
Dans ce cas, tout lment de F a au moins un antcdent par f .

bijective si : injective et surjective. Dans ce cas, pour tout z dans F , il existe un et un seul
x E tel que f (x) = z .

Dnition 1.1.4 Soit f une application de E dans F , A une partie de E et B une partie de
F.
 On appelle image de A par f l'ensemble not f (A) dni par
f (A) = {y F ; x A tel que y = f (x)}.

 On appelle image rciproque de B par f l'ensemble not f 1 (B) dni par


f 1 (B) = {x E; f (x) B}.

Remarque 1.1.2 La notation f 1 est abusive car f n'est pas toujours bijective et n'a donc pas
toujours de rciproque, l'ensemble f 1 (B) existe mme si f n'est pas bijective.

Proposition 1.1.1 (Image rciproque et union) Soient A, B P(F )


f 1 (A B) = f 1 (A) f 1 (B)

f 1 (A B) = f 1 (A) f 1 (B)

f 1 (Ac ) = f 1 (A)c

Preuve laisse en exercice.

1.2 Ensembles dnombrables

Pour clturer ces gnralits, et avant de passer aux probabilits, nous rappelons la notion

d'ensemble dnombrable, ainsi que des lments de dnombrement. Le dnombrement est fon-

damental dans les probabilits discrtes. Nous traitons ces questions part an de se concentrer

dans la suite sur les probabilits.


8 CHAPITRE 1. RAPPELS FONDAMENTAUX

1.2.1 Ensembles au plus dnombrables


Dnition 1.2.1 Un ensemble E est dit au plus dnombrable s'il existe une injection de E
dans N

Deux cas sont possibles :

 l'ensemble E est inni et dans ce cas, on peut dmontrer qu'il existe une bijection de E dans

N. L'ensemble est dit dnombrable.

 L'ensemble E est ni et dans ce cas, on peut dnombrer combien il possde d'lments.

Remarque 1.2.1 (Exemples) Ces proprits sortent du cadre du cours, mais sont savoir
dmontrer.
 L'ensemble des rationnels Q est dnombrable.
 L'ensemble des rels R est non dnombrable.

1.2.2 Ensembles nis


On dit qu'un ensemble est ni s'il est vide, ou s'il existe un entier naturel n et une bijection

de [|1, n|] := {1, 2, ..., n} dans E . Si E 6= , l'entier n est appel cardinal de E . On note
Card E = n.

Par convention Card = 0. On a Card E = n si et seulement si les lments de E peuvent tre

nots e1 , ..., en o les ek sont distincts. Dnombrer un ensemble ni E correspond dterminer

le nombre dlments de E, c'est dire son cardinal. Plusieurs mthodes sont possibles. Nan-

moins, rappelons les trois conditions qui doivent tre remplies pour que le dnombrement soit

correct :

1) S'assurer que seuls des lments de E sont compts

2) S'assurer que l'on en oublie pas

3) S'assurer que l'on ne compte pas plusieurs fois le mme lment.

Proprites des cardinaux


Proposition 1.2.1 Soit E un ensemble ni. Si F est un ensemble en bijection avec E , alors
F est ni et Card E = Card F .

Dmonstration Si E est un ensemble ni de cardinal n alors il existe une bijection de [|1, n|]
dans E. Soit f une bijection de E dans F, la compose de deux bijections est une bijection,

donc l'application f est une bijection. De plus le cardinal de F est n. 

Proposition 1.2.2 Soit E un ensemble ni. Toute partie A de E est nie et Card A Card E .
Si A est une partie de E et Card A = CardE alors A = E .

Proposition 1.2.3 Soit A et B deux parties de E , ensemble ni.


1) Si A et B sont disjointes, Card (A B) = Card (A) + Card (B)
2) Card (A \ B) = Card A Card B
3) Card Ac = Card E Card A
4) Card (A B) = Card A + Card B Card (A B)
1.2. ENSEMBLES DNOMBRABLES 9

Proposition 1.2.4 (Formule du Crible) Soit (Ai , i I) une famille de parties de l'en-
semble ni E alors pour tout entier n 1 ;
n
Card Card (kl=1 Ail )
X X
(ni=1 Ai ) = (1)k+1
k=1 1i1 <i2 <i3 <...<ik n

Si (Ai , i I) est une partition de E alors

Card (ni=1 Ai ) = Card (E)

Preuve. Par rcurrence.

Cette formule correspond la formule du crible dans le cadre des probabilits sur des en-

sembles nis avec l'hypothse d' quiprobabilit. Nous verrons qu'elle se gnralise toutes les

probabilits (pas seulement pour la probabilit uniforme).

Proposition 1.2.5 (Cardinal d'un produit d'ensembles nis) Soit (Ei , i [|1, n|]) une
famille d'ensembles nis. On a :

Card (E1 E2 ... En ) = (Card E1 )(Card E2 )...(Card En ).

Remarque 1.2.2 Cette formule est fondamentale en dnombrement. Une bonne comprhen-
sion de sa signication et de sa preuve est le meilleur dpart possible en probabilits discrtes.

Dmonstration. n = 2, une fois le rsultat tabli pour n = 2, on peut


On se concentre sur

raisonner par rcurrence. Soient A et B , deux ensembles de cardinal respectif n et p. On va

procder par rcurrence sur p. Initialisons, la rcurrence : supposons p = 1, par dnition

puisque Card A = n, il existe une bijection : A 7 {1, ..., n}. L'application :

: (a, b) A B 7 (a) {1, ..., n}

est une bijection, donc Card (A B) = n.


Hypothse de rcurrence : Supposons que la proprit est vraie au rang p.
Hrdit : On note A et B deux ensembles avec B de cardinal p+1. On note A = {a1 , ..., an }, B =
{b1 , ..., bp , bp+1 }

A B = {(a, b); a A, b B} = A ({b1 , ..., bp }) A {bp+1 }.

Par hypothse de rcurrence Card (A {b1 , ..., bp }) = np, donc

Card (A B) = np + n = n(p + 1).

La proprit tant hrditaire, initialise, on conclut qu'elle est vraie pour tout entier p par

rcurrence. 
10 CHAPITRE 1. RAPPELS FONDAMENTAUX

Arrangements et combinaisons
Dnition 1.2.2 On appelle p-liste d'un ensemble E n lments, toute suite de p lments
de E . C'est dire un lment de E p .
Remarque 1.2.3  L'ordre des p-lments est important.
 Une p-liste peut contenir plusieurs fois le mme lment.
 On parle aussi de p-uplet, ou p-uple.
Thorme 1.2.6 Il y a np p-listes d'un ensemble n lments.
Dmonstration. On choisit p lments dans E : on a donc compter le nombre d'lments de

| E...
E {z E}. D'aprs la proposition 1.2.5, il y a (Card E)p lments.

p fois

On peut galement raisonner de la faon suivante (c'est en fait tout fait quivalent, mais

la rdaction est dirente) : On choisit d'abord le premier lment de la liste : on a n possibili-

ts. On choisit ensuite le second lment, on a galement n possibilits, et ainsi de suite p fois.
Le nombre de p-listes possibles est alors le produit de toutes ces possibilits : c'est dire np . 
En fait, on peut identier p-liste d'un ensemble n lments et application de {1, ..., n} dans
{1, ..., p}. On a donc le thorme suivant :

Thorme 1.2.7 Soient A et B de cardinal respectif n et p. Le nombre d'applications de A


dans B est (Card A)Card B .
Dnition 1.2.3 Un de p lments parmi n est une liste de p lments dis-
arrangement
tincts d'un ensemble E n lments. Si Card E = n, un arrangement de n lments est une
permutation de E .

Thorme 1.2.8 On note Apn le nombre d'arrangements de p parmi n. On a :


n!
Apn = n(n 1)...(n p + 1) = .
(n p)!
Remarque 1.2.4 On note souvent (n)p (symbole de Pochhammer) Apn (nanmoins cette no-
tation n'est pas utilise en secondaire).
Dmonstration. Notons Apn l'ensemble des arrangements de p parmi n. On souhaite dmontrer

que
n!
Card Apn = .
(n p)!
On procde par rcurrence sur p. Si p = 1 alors A1n = n (et ce pour tout n). Soit p 1, supposons
p+1 p 1
que la proprit est vraie au rang p. Clairement An est en bijection avec An Anp . Donc

par le Thorme 1.2.5

Ap+1
n = Apn A1np .
Par hypothse de rcurrence, et car A1np = n p, on a

n! n!
Ap+1
n = (n p) = .
(n p)! (n p 1)!

1.2. ENSEMBLES DNOMBRABLES 11

Dnition 1.2.4 (Combinaison) Soit E un ensemble ni de cardinal


 n. On appelle combi-
naison de k lments de E toute partie de E decardinal k . On note nk le nombre de combinai-
sons de k lments parmi n. Autrement dit nk est le nombre de faons de choisir k lments
parmi n sans tenir compte de leur ordre. Il faut bien faire la dirence entre partie et liste !

Thorme 1.2.9 Pour tout k n


 
n n!
=
k k!(n k)!

Dmonstration. On va faire une rcurrence sur n. On note la proprit au rang n, Pn :

n n!


k
= k!(nk)!
.

On initialise la proprit : n = 0, on
 compte les parties de l'ensemble vide ; il n'y a qu'une
0
partie l'ensemble vide lui mme :
0
= 1.
On montre maintenant l'hrdit, c'est dire : Pn = Pn+1 . Soit E = {a1 , ..., an+1 }.
n+1

Soit k = 0, = 1 : la seule partie de E avec 0 lment est l'ensemble vide.
k
Soit k 1, une partie de E contient l'lment an+1 ou non. On crit donc l'ensemble des parties

k lments de E comme l'union disjointe des parties k lments sans an+1 et des parties
n

k lments avec an+1 . Comptons le nombre de parties. On a parties de E contenant k
k
lments sans an+1 . Il reste compter les parties de E k lments contenant an+1 . Ces parties

s'crivent de la forme B {an+1 } avec B une partie de {a1 , ..., an } k 1 lments. On en


n

dduit qu'il y a parties de E k lments contenant an+1 . Par hypothse de rcurrence
k1
n n!

k1
= (k1)!(nk+1)! , donc
     
n+1 n n (n + 1)!
= + = .
k k k1 k!(n + 1 k)!

Remarque 1.2.5 Au long de la preuve, on a dmontr un rsultat intressant, savoir


     
n+1 n n
= + .
k k k1

Cette relation permet de calculer les premires valeurs de n


. Construire le triangle de Pascal.

k

Proposition 1.2.10 (Formule de Vandermonde) 0 p n + m


  X p   
n+m n m
= .
p k=0
k p k

Dmonstration. Soient E un ensemble de cardinal n, F un ensemble disjoint de cardinal m.


Dnombrer les parties p lments de E F .
12 CHAPITRE 1. RAPPELS FONDAMENTAUX

1.3 Exercices

Exercice 1.3.1 Une classe comporte 20 tudiants. Douze lles et huit garons. Le professeur
dcide de dsigner un groupe de travail de trois lves charg de prparer un devoir maison.
1) Combien de groupes de travail de trois lves est il possible de former ?
2) Combien y a-t-il de groupes constitus de trois lles ?
3) Combien y a-t-il de groupe avec deux lles et un garon ?

Exercice 1.3.2 On organise un championnat de Curling. Sept quipes sont qualies.


Si chaque quipe rencontre une seule fois chacune des autres quipes, quel nombre de matchs
doit-on prvoir ?
Si chaque quipe rencontre deux fois chacune des autres quipes (match aller, match retour)
quel nombre de matchs doit-on prvoir ?

Exercice 1.3.3 On considre n points distincts d'un cercle avec n 3. En joignant ces points
deux deux, combien dtermine-t-on de droites ? Combien existe-t-il de triangles ayant leurs
sommets en ces points ?

Exercice 1.3.4 Un restaurant propose trois entres, deux plats et quatre desserts. Un menu se
compose d'une entre, un plat, un dessert. Quel est le nombre de menus ?

Exercice 1.3.5 On tudie le lectorat de trois revues (a=Libration, b=Le Monde, c=Le Fi-
garo). Sur 100 personnes interroges dans la rue, 57 lisent a, 42 lisent b, 38 lisent c, 22 lisent
a et b, 14 lisent b et c, 16 lisent a et c, 8 lisent a,b et c.
Calculer le nombre de personnes
1) qui ne lisent que a et b, que b et c, que a et c
2) qui ne lisent que a, que b, que c
3) qui ne lisent aucune des trois revues.

Exercice 1.3.6 (#) Soit n N . On pose :


f (x) = (1 + x)n

1. Dvelopper (1 + x)n .
2. En dduire la valeur des sommes suivantes :
n   n   n  
X n X n k X n
A= , B= 2 , C= (1)k
k=0
k k=0
k k=0
k

3. Calculer la drive f 0 (x) de deux faons.


4. En dduire la somme :
       
n n n n
D= +2 +3 + + n
1 2 3 n

Correction.
1.3. EXERCICES 13

1. D'aprs la formule du binme :

n   n          
X
n n p np X n p n n n 2 n n
f (x) = (x + 1) = x1 = x = + x+ x ++ x
p=0
p p=0
p 0 1 2 n

2. On remarque, grce la question prcdente, que :

A = f (1) = (1 + 1)n = 2n

B = f (2) = (1 + 2)n = 3n
C = f (1) = (1 1)n = 0 car n1 par hypothse (rappelons que 00 = 1)

3. Calculons f 0 (x) de deux faons. D'une part f (x) = (1 + x)n donc :

f 0 (x) = n(1 + x)n1

On a utilis la formule : (un )0 = nu0 un1 . D'autre part :


       
n n n 2 n n
f (x) = + x+ x + + x
0 1 2 n

Donc :      
0 n n n n1
f (x) = x+2 x + + n x
1 2 n
4. Avec la question prcdente, on voit que :

D = f 0 (1) = n(1 + 1)n1 = n2n1

Exercice 1.3.7 (#) Un tudiant va acheter trois livres de math et deux bandes dessines.
Dans le magasin, il y a dix livres de math et vingt bandes dessines.
1. De combien de faons l'tudiant peut-il faire ses achats ?
2. De retour chez lui, il forme une pile avec ses nouveaux livres. De combien de faons peut-il
le faire ?
3. Mme question si l'tudiant souhaite que ses livres de math se trouvent en bas de la pile,
et ses bandes dessines en haut.
4. Mme question si l'tudiant souhaite que ses livres de math se suivent dans la pile (mais
pas ncessairement les bandes dessines).

Correction.
1. Pour l'achat des livres, l'ordre n'a pas d'importance. L'tudiant choisit 3 livres de math

parmi 10 et 2 bandes dessines parmi 20. Donc le nombre de faons de faire ces achats
10 20 1098 2019
 
est :
3 2
= 32
2
= 10 3 4 10 19 = 22800.
2. Ici l'ordre compte. L'tudiant choisit un de ses 5 livres pour tre le premier de la pile,

puis un des 4 autres pour tre le deuxime, etc. Il a donc 5 4 3 2 = 5! = 120 faons

de constituer la pile. (Nombre de permutations d'un ensemble de cardinal 5)


14 CHAPITRE 1. RAPPELS FONDAMENTAUX

3. Dans cette question, l'tudiant forme une pile avec ses 3 livres de math : il a 32 = 6
faons de le faire. Puis une pile avec ses bandes dessines : il a 2 faons de le faire. Enn,

il place la pile de livres de math sous la pile de bande dessines, mais il n'y a qu'une seule

faon de faire cela. Il a donc 6 2 = 12 faons de constituer la pile de 5 livres.

4. Ici, l'tudiant forme une pile avec ses 3 livres de math (donc 6 faons de le faire, on l'a

vu), une pile avec ses bandes dessines (2 faons de le faire), puis il insre la pile de livre

de math :

 sous les bandes dessines

 ou bien entre les deux bandes dessines

 ou bien au dessus des bandes dessines

Finalement, il a donc 6 2 3 = 36 faons de constituer la pile.

Exercice 1.3.8 10 livres doivent tre rangs dans une bibliothque, dont 4 livres de maths, 3
livres de chimie, 2 livres de littrature, et 1 d'histoire. On souhaite ranger les livres de ma-
nire que les livres du mme sujet soient regroups sur l'tagre. Combien d'arrangements sont
possibles ?

Exercice 1.3.9 1. On appelle partage par paire d'un ensemble toute partition dont les par-
ties contiennent chacune deux lments. Quel est le nombre de partages par paires d'un
ensemble de 2n lments ?
2. On considre 32 joueurs de tennis, de combien de faons peut-on organiser le premier
tour d'un tournoi de tennis en simple ? En double ?

Exercice 1.3.10 Soit = {1, 2, 3, 4}. Dcrire toutes les parties de , puis vrier que card(P()) =
4 n
2 . Dmontrer que si card () = n alors card(P()) = 2

Exercice 1.3.11 n, p N,
Montrer que pour tous

         
n n n+1 n n
= et = + .
p np p+1 p p+1

Exercice 1.3.12 Soient A,B et C trois parties d'un mme ensemble E.


1. A l'aide de dessins, justier les lois de Morgan :

(A B)c = Ac B c et (A B)c = Ac B c .

2. A l'aide de dessins, Justier les relations ensemblistes suivantes :

A (B C) = (A B) (A C) et A (B C) = (A B) (A C).

3. Donner une forme simplie des expressions :

(A B) (A B c ) et (A B) (Ac B) (Ac B c ).
Chapitre 2

Espaces probabiliss

An de motiver les dnitions qui suivent, voici deux exemples types de problmes o les

probabilits se rvlent ncessaires. Il est courant que des exercices soient noncs de cette

manire en secondaire ou dans les premires annes d'universit.

Exemple 2.0.1 (Contrle de production) Une usine produit grande chelle une pice
mcanique. Le processus de fabrication est complexe et ne permet pas de dtecter tout moment
si une pice est dfectueuse. Nanmoins, le fabricant a des engagements envers ses clients et
souhaite vrier que son stock ne contient pas trop de pices dfectueuses. Pour en estimer le
nombre, on peut par exemple prendre 100 pices et compter combien sont dfectueuses. Si on en
trouve 3, on a envie de conclure que 3% de la production sera dfectueuse. Ce n'est videmment
pas prcis, et le calcul des probabilits est ncessaire pour rpondre la question.
Exemple 2.0.2 (Fiabilit) Imaginons qu'un systme embarque plusieurs composants lectro-
niques qui tombent en panne des temps alatoires. An d'assurer la abilit du systme, on
a besoin d'informations prcises sur ces temps alatoires. Cela nous conduira considrer des
lois de probabilits.
Dans cette section, nous prsentons les fondements de la thorie. Les exercices associs sont un

peu abstraits mais permettent une comprhension plus globale de la thorie.

2.1 Terminologie probabiliste et notion de probabilit

La premire tape pour tudier un phnomne alatoire est d'identier les rsultats possibles

d'une exprience impliquant ce phnomne.

Dnition 2.1.1 On note l'ensemble de tous les rsultats possibles. On appelle cet ensemble
l' univers (on parle galement d'ensemble fondamental ou d'espace d'tats).
Reprenons l'exemple 2.0.1. Supposons que sur N = 10000 pices, un nombre m de pices sont
dfectueuses. On tire maintenant au sort n = 100. Comment dcrire ?
 On peut prendre pour univers l'ensemble des tirages de n pices sans tenir compte de

l'ordre : c'est dire l'ensemble des combinaisons de n lments parmi N . Le cardinal de


N !
= n!(NNn)!

est donc le nombre de combinaisons de n lments parmi N : .
n
 On peut prendre pour univers l'ensemble des tirages tenant compte de l'ordre : dans ce cas,

il s'agit de l'ensemble des arrangements de n lments parmi N. Le cardinal de est donc

AN
n.

15
16 CHAPITRE 2. ESPACES PROBABILISS

 On peut galement prendre pour univers l'ensemble dcrit par le nombre de pices dfec-

tueuses tires : = {0, 1, ..., n}.

Il n'y a donc pas unicit de l'espace . Plusieurs choix sont possibles, le meilleur est toujours

celui qui mne aux calculs les plus simples... Dans l'exemple de dure de fonctionnement, s'il

y a un seul composant, l'espace de probabilit naturel pour modliser le temps de panne est

= R+ . S'il y a N composants, on peut prendre = RN


+.

Une fois le choix de l'univers clair, on peut s'intresser certains vnements. Par exemple
 le nombre de pices dfectueuses est infrieur 5 (dans l'exemple 2.0.1)  ou  le composant

ne tombe pas en panne dans les 10 prochaines annes . Si l'on peut dcrire un vnement

l'aide d'une phrase, il faut bien comprendre que c'est un sous-ensemble de l'univers 1 Le

tableau suivant donne les correspondances entre ensembles et vnements.

Notations vocabulaire ensembliste vocabulaire probabiliste

lment de tirage, rsultat possible ou

exprience

A appartient A l'exprience ralise A


AB A contenu dans B l'vnement A entrane
l'vnement B
AB runion de A etB A ou B
AB intersection de A et B A et B
Ac ensemble complmentaire de A vnement "non A"
ensemble vide vnement impossible

ensemble plein vnement certain

AB = A et B disjoints A et B vnements incom-

patibles.

L'objectif est donc d'tudier les occurrences de ces vnements. On entend par occurrence,

la probabilit d'apparition de l'vnement : c'est dire un rel appartenant au segment [0, 1],
vriant certaines proprits naturelles (voir Dnition 2.1.5). Lorsque est non-dnombrable,
il est impossible d'attribuer chaque lment de P(), une probabilit vriant ces proprits

et on ne peut dnir P que sur un sous-ensemble strict de P(). Ces dicults mnent la

notion de tribu qui peut tre passe en premire lecture.

Dnition 2.1.2 Une tribu (aussi appele -algbre) sur un ensemble est une famille F de
parties de , vriant les trois proprits suivantes :
 F
 Pour tout lment A de F , Ac appartient F (on parle de stabilit par passage au compl-
mentaire)
 Pour toute suite (An )nN d'lments de F , nN An F .
S

Proposition 2.1.1  L'intersection dnombrable de tribus est une tribu (voir Exercice).
 En gnral, la runion de deux tribus n'est pas une tribu !

Dnition 2.1.3 La tribu engendre par un ensemble de parties G de est la plus petite tribu,
1. c'est une dicult lorsque l'on dbute en probabilit.
2.1. TERMINOLOGIE PROBABILISTE ET NOTION DE PROBABILIT 17

au sens de l'inclusion, contenant G . On a donc


\
(G) := A.
A tribu ;GA

Dnition 2.1.4 Une tribu importante, laquelle nous ferons implicitement rfrence dans le
chapitre 4, est la tribu des borliens. La tribu des borliens est la tribu sur Rd engendre par
l'ensemble G des pavs ouverts (des intervalles ouverts si d = 1). On la notera B(Rd ).

Introduisons maintenant la notion de probabilit. La premire notion de probabilit tudie en

secondaire est celle d'quiprobabilit dans un univers ni. Supposons que de par l'exprience
tous les lments de ont la mme chance d'tre obtenu (c'est la notion d' quiprobabilit ) on

dnit une notion de probabilit de la faon suivante. Soit A un vnement. La probabilit de

A est la proportion d'lments de A dans . On dnit

Card A
P(A) = .
Card
Les proprits du cardinal d'un ensemble conduisent immdiatement la clbre formule

P(A B) = P(A) + P(B) P(A B).

En eet Card (A B) = Card A + Card B Card (A B). Cette notion de probabilit est

d'un certain point de vue la plus simple et ramne le calcul des questions de dnombrement

(parfois loin d'tre faciles).

Remarque 2.1.1 Ces dernires annes, les programmes ne mettent pas l'accent sur le dnom-
brement, nanmoins vous devez en connatre les rudiments.
La situation d'quiprobabilit est un cas particulier (on parlera dans la suite de loi uniforme).

Pour avoir une dnition tout fait gnrale et pouvoir par exemple tudier les probabilits

pour des expriences lies des univers innis, suivons l' approche frquentiste. Lorsque l'on peut
rpter un grand nombre de fois une mme exprience alatoire, on constate que la frquence

d'apparition d'un vnement A, c'est dire le quotient

nombre de fois que A se ralise

nombre de fois que l'on fait l'exprience

uctue de moins en moins et semble converger vers une limite au fur et mesure que le nombre

d'expriences grandit. On note cette quantit

P(A).

De faon heuristique, si P(A) est proche de 1, A s'est produit trs souvent et donc lors d'une
exprience, l'vnement A a beaucoup de chances de se raliser. Au contraire si P(A) est proche

de 0, alors A s'est peu produit et la chance qu'il se ralise est petite.

Si A et B sont des vnements incompatibles, alors le nombre de fois ou l'vnement A B se

ralise est simplement la somme du nombre de fois o A s'est ralis et du nombre de fois ou

B s'est ralis. En "passant la limite", on a si A B =

P(A B) = P(A) + P(B).


18 CHAPITRE 2. ESPACES PROBABILISS

Prsente telle quelle la notion de probabilit n'est pas du tout rigoureuse. En eet, nous

ne pouvons pas a priori manipuler des limites sans savoir si elles existent. Cependant, cette

heuristique nous indique dj qu'une probabilit est une application qui va de l'ensemble des

vnements l'intervalle [0, 1] et qui de plus vrient certaines proprits d'additivit. Nous

allons poser comme axiome qu'une probabilit vrie la -additivit, qui est une gnralisation
de l'additivit vue ci-dessus.

Dnition 2.1.5 Si F est une tribu sur l'ensemble , une probabilit sur la tribu F est une
application note P de F dans [0, 1] telle que :
 P() = 1
 Pour toute suite (nie ou innie) (An , n 1) d'vnements deux deux disjoints de F ,
[ X
P( An ) = P(An ).
n1 n1

Le triplet (, F, P) est appel espace probabilis.


Avec cette dnition, c'est un thorme qui tablira la convergence des frquences d'apparition
de cet vnement vers sa probabilit (Loi des grands nombres, voir Chapitre 5).

Remarque 2.1.2 Il est lgitime de se poser la question de l'intrt de la notion de tribu.


Lorsque est au plus dnombrable, cela ne pose en gnral pas de problme, on prendra F =
P(). Lorsque est inni non dnombrable, typiquement = R, on ne peut pas dnir une
probabilit sur la tribu P(). Il existe des parties de R qui n'appartiennent pas aux borliens.
Nous n'irons pas plus loin sur ces questions qui sortent du programme. Mais il est bon de savoir
qu'il existe des ensembles non borliens.
Dans la proposition suivante sont rassembles des proprits lmentaires mais fondamentales
lies la dnition :

Proposition 2.1.2  Pour tout vnement A, P(Ac ) = 1 P(A)


 Pour tous vnements A et B , P(B) =
PP(B A)+ P(B A ). Plus gnralement si (Ai , i I)
c

est une partition de alors P(A) = iI P(B Ai ).

 Si A B alors P(A) P(B) et P(B \ A) = P(B) P(A).

 Pour tous vnements A, B : P(A B) = P(A) + P(B) P(A B).

 Si A1 , A2 , ..., An , ... est une suite d'vnements : on a


! ! ! !
et P
\ [ [ \
P An =1P Acn An =1P Acn
n n n n

 Soient n vnements A1 , A2 , ..., An alors P (


Sn P
i=1 Ai ) i=1n P(Ai )

Proposition 2.1.3 (Proprit de la limite monotone) 1) Si A


S1 , A2 , ..., An , ... est une suite
croissante (pour l'inclusion) d'vnements et que l'on note A = An alors
P(A) = lim P(An ).
n
2.1. TERMINOLOGIE PROBABILISTE ET NOTION DE PROBABILIT 19

2) Si A1 , A2T
, ..., An , ... est une suite dcroissante (pour l'inclusion) d'vnements et que l'on
note A = An alors
P(A) = lim P(An ).
n

Dmonstration. On dmontre seulement 1). La preuve de 2) est similaire, il sut de passer au


complmentaire. Si (An , n 1) est une suite croissante au sens de l'inclusion alors (P(An ), n
1) est une suite relle croissante majore par 1. La suite est donc convergente. On dnit les

vnements suivants B1 = A1 , B2 = A2 \ A1 ,

Bi = Ai \ Ai1 .
Sn
Bi ni=1 Ai . Vrions l'inclusion rciproque. Soit ni=1 Ai . On pose
S S
Clairement
i=1
k = min{i [|1, n|]; S Ai }. DeSdeux choses l'une, si k = 1, A1 = B1 , si k > 1,
Ak \ Ak1 = Bk . Donc ni=1 Ai ni=1 Bi . Par -additivit :

!
[ X
P Bi = P(Bi )
i=1 i=1
Pn Sn Sn
Or
k=1 P(Bk ) = P ( k=1 Bk ) = P ( k=1 Ak ) = P(An ), donc

(P(An ), n 1) converge.


Proposition 2.1.4 (Formule du Crible) Soit (Ai , i I) une famille d'vnements alors
pour tout entier n 1 ;
n
X X
P (ni=1 Ai ) = (1)k+1 P(kl=1 Ail ).
k=1 1i1 <i2 <i3 <...<ik n

Dmonstration. A vous !

Trois cas fondamentaux sont distinguer concernant l'univers .

Univers ni
Supposons que l'exprience donne p rsultats possibles = {a1 , ..., ap }. On note la probabilit
de l'vnement lmentaire a
S i , P[{a i }] = pi . Les vnements {ai } sont disjoints et quelque soit
l'vnement A, on a A = i;ai A {ai } et donc
X
P(A) = pi .
i[|1,p|],ai A

Lorsque est ni le calcul d'une probabilit revient au calcul d'une somme nie.
Lorsque de plus, l'exprience a des ralisations quiprobables, pi = p lement de [0, 1] indpen-

dant de i et X X
P(A) = pi = p = pCard A.
i;ai A i;ai A
20 CHAPITRE 2. ESPACES PROBABILISS

1
On obtient ainsi avec A = , p = Card . Dans ce cas, le calcul se ramne un problme de

dnombrement. Nous retiendrons la formule

nombre de cas favorables


p= .
nombre de cas possibles

Exemple 2.1.1 (Les anniversaires) On cherche calculer la probabilit qu'au moins deux
personnes parmi n soient nes le mme jour. On formalise le problme en prenant =
[|1, 365|]n , c'est dire l'ensemble des anniversaires possibles parmi les n. On suppose que tous
les jours sont quiprobables. Soit A l'vnement  Au moins, deux personnes ont leur anniver-
saire le mme jour  Calculer P[A] peut sembler dicile, il faut penser regarder ce que signie
l'vnement contraire :
Ac :  chaque personne parmi les n est ne un jour dirent. 

Puisqu'on a suppos que tout tait quiprobable,


nombres de cas favorables An365
P[Ac ] = =
nombres de cas possibles 365n

On a nalement
An365
P[A] = 1 P[Ac ] = 1 0.5 pour n = 23.
365n
Nous avons vu prcdemment que plusieurs choix d'univers sont parfois possibles pour une

mme exprience alatoire (nanmoins nous parlerons de l'univers). Certains choix aident les
calculs. On reprend l'exemple 2.0.1 du contrle de production o nous allons voir apparatre

une premire loi usuelle importante : la loi hypergomtrique.

Exercice 2.1.1 (#) On tire n pices sans remise dans une production de N pices parmi
lesquelles m sont dfectueuses. Quelle est la probabilit de l'vnement :  le nombre de pices
tires dfectueuses est gal k  ?
Solution : Si on choisit de prendre comme univers , l'ensemble des tirages de n pices parmi

N sans tenir compte de l'ordre. C'est dire l'ensemble des combinaisons de n parmi N . Chaque
N

lment de a donc pour probabilit n
, et nous sommes dans une situation d'quiprobabilit :

(il y a autant de raison de tirer un n-uplet non ordonn qu'un autre). l'vnement Ak :  le

nombre de pices tires qui sont dfectueuses est gal k correspond la partie de des

n-uplets non ordonns qui contiennent exactement k objets dfectueux. On a donc

CardAk Card Ak
P(Ak ) = = N
 .
Card
n

On cherche donc calculer Card Ak . Si k n + 1 alors clairement Card Ak = 0. Si k > m


ou n k > N m alors Card Ak = 0 (on ne peut pas tirer plus de pices dfectueuses que

m, ni avoir plus de pices non-dfectueuses que N m). Dans les autres cas : on compte
k
 nk 
Card Ak = . Donc nalement :
m N m

k nk
 
m N m
P(Ak ) = N
 .
n
2.1. TERMINOLOGIE PROBABILISTE ET NOTION DE PROBABILIT 21

C'est la loi hypergomtrique. L'exercice est rsolu.

Prenons maintenant l'univers des tirages o l'ordre compte, c'est dire que est l'ensemble

des arrangements de n parmi N. Le fait de prendre l'ordre des pices que l'on tire en compte,

ne change rien quant au fait de tirer une pice dfectueuse ou non. Il n'y a pas plus de chance

de tirer tel ou tel arrangement. Nous sommes nouveau dans un cadre quiprobable. On a

cette fois Card = AnN . De la mme faon que prcdemment, on identie l'vnement
Bk = {arrangements de n objets parmi N avec k dfectueux}. Il faut calculer Card Bk :
Pour raliser un n-uplet ordonn avec k lments dfectueux, on commence par choisir la place
n

des lments dfectueux : on a possibilits. On choisit un k -uplet ordonn parmi les m
k
k
dfectueux : on a Am possibilits. Il faut aussi choisir un (n k)-uplet ordonn parmi les N m
nk
objets non dfectueux : on en a AN m . Finalement

 
n k nk
Card Bk = Am AN m
k
n! m! (N m)!
=
k!(n k)! (m k)! (N m n + k)!
m! (N m)!
= n!
k!(m k)! (n k)!(N m n + k)!
nk
  
m
= n!
k N m

On a donc
m nk k nk
   
n! k N m m N m
P(Bk ) = = .
AnN N

n

Ce qui correspond la probabilit calcule prcdemment. Il faut noter que du fait de l'exp-

rience, il n'est pas naturel de prendre en compte l'ordre des pices que l'on tire et que le calcul

est plus dangereux.

Univers inni dnombrable


S
Si = {a1 , a2 , ..., ai , ...}, on note pi = P({ai }). Comme prcdemment =
P S i1 {ai }, et
i1 pi = 1. De plus tout vnement A peut s'crire A = i:ai A {ai }, d'o

X
P(A) = pi .
i;ai A

Donc lorsque est dnombrable, le calcul d'une probabilit sera li celui de la somme d'une

certaine srie. Il est important de noter que dans le cas d'un univers inni dnombrable il n'y

a plus de notion
P d'quiprobabilit ! En eet supposons que pi est une constante p, l'galit

i1 pi = 1 n'est plus vrie.

Remarque 2.1.3 A ce propos, tout texte commenant par une phrase du type  On choisit un
nombre au hasard n'a pas de sens mathmatique. L'ensemble des entiers est inni dnombrable,
et vous ne pouvez pas choisir de faon quiprobable un entier.
22 CHAPITRE 2. ESPACES PROBABILISS

Univers inni non-dnombrable


Le dernier cas distinguer est celui o est non-dnombrable. Vous pouvez facilement imaginer
une exprience o l'univers est R (exemple ?).

Exemple 2.1.2 (Flchettes) On considre l'exprience suivante : on lance une chette sur
une cible. On s'intresse la position de la chette. Un choix d'univers est clairement P(D)
o D est le disque reprsentant la cible. Soit A P(), on a envie de dnir la probabilit que
A se ralise par
aire de A
P(A) = .
aire de D
Cependant la thorie de la mesure nous dit qu'il existe des sous-ensembles A pour lesquels on
ne peut pas dnir d'aire. Il faut se restreindre aux parties de qui ont une aire bien dnie.

 Un univers associ l'tude de la distance entre la chette et le centre du disque est = R2


et on peut prendre la tribu des borliens.
 Pour tudier la trajectoire de la chette, on peut prendre = C(R+ , D) : l'ensemble des
fonctions continues. Le choix de la tribu est plus dicile et sort du cadre du cours.

2.2 Probabilit conditionnelle

On dnit dans ce paragraphe la notion de probabilit conditionnelle.

Dnition 2.2.1 Soient A et B deux vnements avec P(B) > 0. On appelle probabilit condi-
tionnelle de A sachant B et on note
P(A B)
PB (A) =
P(B)

La quantit PB (A) est la probabilit que l'vnement A se ralise sachant que B est arriv. Si

on sait que B est arriv, on peut restreindre l'univers B .

Remarque 2.2.1  Pour comprendre pourquoi on pose cette dnition, on peut reprendre l'ap-
proche frquentiste. De faon heuristique, si on note NAB et NB respectivement le nombre
de fois que A et B se ralisent et le nombre de fois que B se ralise, parmi N expriences.
On a
NAB NAB N NAB N P(A B)
PB (A) = lim = lim = lim lim = .
N NB N N NB N N N NB P(B)

 Il existe une autre notation couramment utilise pour les probabilits conditionnelles : P(A|B).
Cette notation n'est pas celle au programme du secondaire. D'autre part, il faut bien com-
prendre que A|B n'est pas un vnement ! A|B seul n'tant pas dni ne doit pas apparatre
dans vos copies !

Proposition 2.2.1 Soient (, F, P) un espace probabilis et B lment de F tel que P(B) > 0.
Alors l'application PB de F dans [0, 1] est une probabilit.

Dmonstration. Laisse en exercice.


2.2. PROBABILIT CONDITIONNELLE 23

Exercice 2.2.1 On reprend l'exemple du contrle de production : N objets, m dfectueux. On


suppose que l'on tire les lments de l'chantillon les uns aprs les autres. La probabilit que le
premier objet tir soit dfectueux est N
m
. Quelle est la probabilit de tirer un objet dfectueux au
deuxime tirage sachant que l'on a tir un objet dfectueux au premier tirage ?
Exercice 2.2.2 [Test de maladie] Un laboratoire pharmaceutique met au point un test pour
dtecter une maladie. On sait que la maladie touche 1% de la population. On eectue le test
sur un chantillon de malades et voit que 95% sont positifs. On eectue ensuite le test sur une
population de non malades et 5% sont dclars positifs par le test. Formaliser l'nonc (donner
un univers). Est-ce un bon test ?
Les vnements considrer sont :  Malade ,  Non malade ,  Test positif ,  Test nga-

tif . Les donnes du problmes sont alors : P(Malade) = 0.01, PMalade (Test positif ) = 0.95 et

P(Test ) = 0.05. Une faon de juger la qualit du test est de calculer la probabilit d'tre
ngatif

malade sachant que le test est positif. C'est dire PTest positif (Malade). Pour faire ce calcul, on
a besoin de la formule de Bayes.

2.2.1 Formule des probabilits totales et formule de Bayes


Proposition 2.2.2 (formule des probabilits composes) Soient n vnements A1 , ...., An
tel que P(A1 A2 ... An1 ) > 0, on a :
P(A1 A2 ... An ) = P(A1 )P(A2 |A1 )P(A3 |A1 A2 )...P(An |A1 A2 ... An1 ).

Dmonstration. Si P(A1 A2 ...An1 ) > 0 alors pour tout 1 i n1 P(A1 A2 ...Ai ) > 0.
Faire une rcurrence.

Proposition 2.2.3 Soit B un vnement tel que P(B) > 0 et P(B c ) > 0 alors pour tout
vnement A :
P(A) = PB (A)P(B) + PB c (A)P(B c ).
Dmonstration. On a A = (A B) (A B c ) et les vnements A B et A Bc sont disjoints

donc

P(A) = P(A B) + P(A B c ),


on conclut par dnition des probabilits conditionnelles.

On gnralise cette proposition :

Proposition 2.2.4 (Formule des probabilits totales) Si (Bi , i 1) est une famille au
plus dnombrable d'vnements formant une partition de et P(Bi ) > 0 pour tout i I , alors
pour tout vnement A, on a :
X
P(A) = PBi (A)P(Bi ).
iI

Dmonstration. Laisse en exercice.


Remarque 2.2.2 (Lien avec les arbres pondrs) Les formules des probabilits composes
et des probabilits totales sont rapprocher de la reprsentation en arbre pondr utilise au
lyce pour reprsenter une exprience alatoire. On rappelle qu'un arbre pondr est un arbre
tel que :
24 CHAPITRE 2. ESPACES PROBABILISS

 La somme des pondrations (ou probabilits) des noeuds issus d'un mme sommet donne 1.
 La probabilit d'un chemin est le produit des probabilits des branches qui le composent.
 La pondration de la branche allant du sommet A vers le sommet B est la probabilit condi-
tionnelle de B sachant A, PA (B).
La construction d'un arbre pondr obit au principe suivant : le noeud racine rprsente l'v-
nement certain , et si un noeud reprsente un vnement A, on construit autant de ls qu'il
y a d'vnements A En , o (En ) est une partition de . La formule des probabilits compo-
ses est la traduction exacte de l'item 2. ci-dessus : la probabilit d'un noeud de l'arbre est la
probabilit de l'intersection des vnements qui composent le chemin qui le relie au sommet.
La formule des probabilits totales dans ce contexte dit que la probabilit d'un vnement est la
somme des probabilits des feuilles de l'arbre qui concernent cet vnement.

Exemple 2.2.1 On dispose de deux urnes, l'une contenant 1 boule blanche et 3 noires, l'autre
2 blanches et 2 noires. On choisit uniformment au hasard parmi les deux urnes, puis on tire au
hasard une boule dans l'urne choisie. On considre la probabilit de l'vnement A =  on tire
une boule noire . L'univers est {(i, j), i = 1, 2, j = 1, 2, 3, 4}, o i est le numro de l'urne
et j celui de la boule. On considre la partition = E1 E2 , o Ei = {(i, j), j = 1, 2, 3, 4}
qui est l'vnement consistant choisir l'urne i. Si on numrote en premier les boules noires,
l'vnement A s'crit {(1, 1), (1, 2), (1, 3), (2, 1), (2, 2)}. Pour tout i, la probabilit conditionnelle
PEi est la probabilit uniforme sur Ei . Donc PE1 (A) = 3/4 et PE2 (A) = 1/2. D'aprs la formule
des probabilits totales, P(A) = PE1 (A)P(E1 ) + PE2 (A)P(E2 ) = 34 21 + 12 12 = 58 .

Proposition 2.2.5 (Formule de Bayes simple) Soient A et B deux vnements tels que
P(A), P(B) et P(B c ) sont strictement positifs. On a :

PB (A)P(B)
PA (B) = .
PB (A)P(B) + PB c (A)P(B c )

Dmonstration. On a PA (B) = P(BA)


P(A)
= P(AB)P(B)
P(A)
. On dcompose ensuite le dnominateur
c
par la formule des probabilits totales : P(A) = PB (A)P(B) + PB c (A)P(B ). 

A nouveau, cette proposition se gnralise, une famille formant une partition de .

Proposition 2.2.6 (Formule de Bayes) Si (Bi , i I) est une famille qui forme une parti-
tion de telle que pour tout i I , P(Bi ) > 0 alors, quelque soit l'vnement A, si P(A) > 0
PBi (A)P(Bi )
PA (Bi ) = P .
iI PBi (A)P(Bi )

Dmonstration. Mme argument que prcdemment.

Les deux dernires formules permettent de calculer des probabilits conditionnelles PA (B)
connaissant les probabilits  inverses  PB (A).

Exercice 2.2.3 Calculer la probabilit d'avoir tir une boule dans la premire urne sachant

que c'est une noire.

Sous son apparente simplicit, la formule de Bayes est le dpart d'une thorie entire appele

la statistique baysienne.
2.2. PROBABILIT CONDITIONNELLE 25

Nous reprenons maintenant la question de l'exercice 2.2.2 concernant le test de maladie. La

formule de Bayes va nous permettre de calculer la probabilit qu'un individu soit malade sa-

chant qu'il a t test positif. On note M l'vnement  malade , T l'vnement  test positif .

On a
PM (T )P(M )
PT (M ) = = 0.16.
PM (T )P(M ) + PM c (T )P(M c )
Rsultat, le test n'est pas bon.

2.2.2 Indpendance
Nous passons maintenant une notion fondamentale en probabilits : la notion d'indpendance.

Si la connaissance d'un vnement n'inue en rien sur la probabilit d'un autre, on dit que les

vnements sont indpendants. La notion de probabilit conditionnelle formalise cela. Si B

est un vnement avec probabilit strictement positive et P(A|B) = P(A) alors A et B sont

dit indpendants. Par dnition des probabilits conditionnelles cela quivaut la dnition

suivante :

Dnition 2.2.2 Deux vnements A et B sont indpendants si


P(A B) = P(A)P(B).

Pour illustrer cette notion, on reprend l'exemple de contrle de production.

Exemple 2.2.2 (Contrle de production non destructif) On a N objets, m dfectueux.


On tire au hasard n objets parmi les N en remettant chaque objet aprs l'avoir tir. (on parle de
tirage avec remise). Soit l' vnement Ai : l'objet tir au ime tirage est dfectueux . Montrer
que Ai et Aj sont indpendants pour tout i 6= j .

Exemple 2.2.3 Cette fois on ne remet pas l'objet tir. (tirage sans remise). Calculer P(A1 A2 )
et conclure que ce ne sont pas des vnements indpendants

Proposition 2.2.7 Soient A et B deux vnements indpendants alors Ac et B sont indpen-


dants, ainsi que A et B c et Ac et B c .

Dmonstration. Laisse en exercice.

On gnralise maintenant la notion d'indpendance une famille d'vnements :

Dnition 2.2.3 (Indpendance mutuelle) Soit une famille (Ai , i I) d'vnements. On


dit qu'elle est forme d'vnements (mutuellement) indpendants si pour toute sous famille nie
i1 , i2 , ..., ip de I on a :
p p
!
\ Y
P Aik = P(Aik ).
k=1 k=1

Attention bien noter que l'indpendance de Ai et Aj pour tout i 6= j n'implique pas l'ind-
pendance de la famille (Ai , i I). Donnons un contre-exemple : = {1, 2, 3, 4}, muni de la
probabilit uniforme. Considrer A = {1, 2}, B = {1, 3}, C = {2, 3}.
26 CHAPITRE 2. ESPACES PROBABILISS

2.3 Variables alatoires : notion de loi et de moments

On a vu dans la section prcdente, les dicults que le choix de l'univers pouvait impliquer.

Dans la plupart des cas, on se concentre sur les vnements que l'on souhaite tudier. Plus

gnralement, on dnit la notion de variables alatoires dnies sur un espace abstrait.

Une variable alatoire est une application dont la valeur dpend du rsultat de l'exprience
alatoire. On rappelle que
Qn B(Rd ) est la tribu des borliens, c'est dire la tribu engendre par

les pavs
i=1 ]ai , bi [.

Dnition 2.3.1 Une variable alatoire X est une application


X : 7 X() Rd

telle que pour tout A B(Rd )

X 1 (A) = { ; X() A} F. (2.1)

Cela correspond la notion de mesurabilit : X est une fonction F -mesurable valeurs dans

l'espace euclidien. En probabilit, cela signie que l'on peut tudier l'vnement 
Qn X tombe
d 1
dans
i=1 [ai , bi ] . Pour tout B B(R ), on identiera l'vnement X (B) avec  X B .

On admet la proposition suivante issue de la thorie de la mesure.

Proposition 2.3.1 L0 (, F) l'ensemble des variables alatoires valeurs dans l'espace eucli-
dien Rd est un espace vectoriel.

Exemple 2.3.1 (Fonction indicatrice) Soit A un vnement. On dnit


1 si A

1A : 7
0 sinon.

Exemple 2.3.2 On lance une chette sur une cible et cherche connatre la distance entre
la chette et le centre de la cible. On pose = R2 et
p
X : w = (x, y) 7 x2 + y 2 .

X est une fonction continue (donc mesurable) et vrie la condition 2.1.

Remarque 2.3.1 Lorsque l'on peut prendre F = P() (par exemple, lorsque est ni, et que
l'on souhaite que tous les vnements lmentaires soient dans la tribu) alors la condition 2.1
est toujours vraie.

Proposition 2.3.2 L'ensemble des variables alatoires dnies sur un mme espace (, F)
forme une algbre : en particulier la somme et le produit de deux variables alatoires sont des
variables alatoires.
2.3. VARIABLES ALATOIRES : NOTION DE LOI ET DE MOMENTS 27

2.3.1 Loi d'une variable alatoire


Le plus souvent, (typiquement lorsque la variable alatoire prend un nombre inni de valeurs),

lorsque l'on tudie la variable alatoire X, on n'tudie pas X() en chaque , mais la proba-

bilit avec laquelle X se rpartit dans les borliens. La variable alatoire X est ainsi souvent

caractrise par sa fonction de rpartition ou par sa loi.


Dnition 2.3.2 On appelle loi ou distribution d'une variable alatoire X dnie sur un espace
probabilis (, F, P), l'application

PX : B B(Rd ) 7 P(X 1 (B)).

On a le rsultat fondamental suivant :

Proposition 2.3.3 L'application PX est une probabilit sur (Rd , B(Rd )).
Dmonstration. A faire en cours.
Exemple 2.3.3 (jeu de d) On joue au jeu suivant : on lance un d quilibr. On ralise un
gain nul si on obtient 1, 1 euro si on obtient 2, 3 ou 4 et 2 euros si le rsultat est 5 et 4 euros
si le rsultat est 6. On dnit la variable alatoire X donnant le montant du gain. Dterminer
sa loi.

Proposition 2.3.4 Si X est une variable alatoire sur (, F). Soit g une fonction continue
par morceaux sur X() alors l'application g X est une variable alatoire. On la note souvent
g(X).

2.3.2 Fonctions de rpartition et indpendance


On se place dans le cas des variables alatoires relles : c'est dire valeurs dans R. On note

souvent v.a.r pour variable alatoire relle.

Dnition 2.3.3 On appelle fonction de rpartition de X , l'application :


F : x R 7 P(X x).

Comme mentionn prcdemment l'vnement  X x s'identie X 1 (] , x]).

Proposition 2.3.5 Toute fonction de rpartition vrie les proprits suivantes :


1. F est croissante
2. lim F (x) = 0 et lim F (x) = 1
x x+
3. F est continue droite en tout point de R
4. F a une limite gauche en tout point x de R, et

x R, F (x) F (x) = P[X = x]

o F (x) = lim F (t).


tx;t<x
5. L'ensemble des points de discontinuit de F est au plus dnombrable.
28 CHAPITRE 2. ESPACES PROBABILISS

Remarque 2.3.2 La fonction de rpartition peut tre dnie pour des vecteurs alatoires, en
prenant la relation d'ordre (x1 , ..., xp ) (x01 , ..., x0p ) si xi x0i pour i [|1, n|]

Dmonstration.
1. Soit y x, F (y) F (x) = P[x < X y] 0

2. F (n) = P(X ] , n]). An = X 1 (] , n])T


Soit , (An , n 1) est une suite dcroissante
T
d'vnements. Par limite monotone : lim P(An ) = P(
n k=1 Ak ), or k=1 Ak = donc

lim P(An ) = lim F (n) = 0.

F tant une fonction monotone, on a limx F (x) = limn F (n).

3. Comme F est monotone (croissante), pour montrer que F est continue droite, il sut
1
An := X 1 ] , x + n1 ]

de montrer que F (x + )
n n
F (x). La suite d'vnements est

dcroissante, donc la suite (P(An ), n 1) converge et


!
\
lim P(An ) = P An = P(X 1 (] , x]) = F (x).
n
n=1

F x n1 , on cherche montrer

4. A nouveau, on tudie que cette suite a une limite quand n
1
] , x n1 ] . La suite (An , n 1) est croissante donc

tend vers +. On note An = X

P(An , n 1) converge et sa limite est


!
[
P An .
n=1
S
On a
n=1 An = X 1 (] , x[), par suite

1
lim F (x ) = P(X < x).
n n
La fonction F a donc une limite gauche en x, elle vaut P(X < x). De plus on a

F (x) lim F (t) = P(X x) P(X < x) = P(X = x).


tx

1
5. On note Dn := {x0 tel que lim F (x) F (x0 ) n
}. Comme F est croissante et comprise
xx+
0

S0et 1, Dn contient au plus n lments. Soit D l'ensemble des points


entre de discontinuit,

D = n=1 Dn , donc D est une union dnombrable d'ensembles nis. 

Le thorme suivant nous dit que si les proprits 1, 2, 3 sont vries alors la fonction F est

la fonction de rpartition d'une variable alatoire relle.

Thorme 2.3.6 Toute fonction F : R 7 [0, 1] telle que


1. F est croissante
2.3. VARIABLES ALATOIRES : NOTION DE LOI ET DE MOMENTS 29

2. lim F (x) = 0 et lim F (x) = 1


x x+

3. F est continue droite en tout point de R

est la fonction de rpartition d'une variable alatoire relle.


Proposition 2.3.7 La fonction de rpartition de X caractrise sa loi.
Dmonstration. Pour tout x < y , PX (]x, y]) = F (y) F (x), donc F donne PX sur les parties du

types ]x, y], comme ces parties engendrent la tribu borlienne, cela caractrise PX sur tout B(R).

Le terme variable alatoire est particulirement utilis pour des variables relles. Lorsque X est
d
valeurs dans R , on parle plus couramment de vecteurs alatoires.

Lorsque d 2, la dnition gnrale (Dnition 2.3.1) correspond la dnition d'un vecteur

alatoire. De faon quivalente, un vecteur alatoire est une application



X1 ()
X2 ()

.
X : 7
.


.
Xn ()
o chaque Xi est une v.a.r.

On introduit maintenant l'indpendance des variables alatoires.


Dnition 2.3.4 Deux variables alatoires X et Y sont indpendantes si P(X A et Y
B) = P(X A)P(Y B) pour tous A, B borliens.
Dnition 2.3.5 (indpendance mutuelle) (Xi , i I) est une famille de variables ala-
toires indpendantes si pour toute sous-famille {i1 , ..., ip } nie de I , on a, pour toute famille de
borliens (Bk )1kp
p p
!
\ Y
P (Xik Bk ) = P(Xik Bk ).
k=1 k=1

Exemple fondamental : si A et B sont deux vnements indpendants alors 1A et 1B sont deux

variables alatoires indpendantes.

L'indpendance correspond une structure produit  cache . Pour construire deux variables

indpendantes sur un mme espace probabilis. On peut munir le produit cartsien X()Y ()
de la probabilit produit PX PY dnie par

PX PY (]a, b]]c, d]) = PX (]a, b])PY (]c, d]) pour tout a < b, c < d.
Critre d'indpendance : Si

X1 ()
X2 ()

.
X : 7
.


.
Xn ()
30 CHAPITRE 2. ESPACES PROBABILISS

alors X1 , ..., Xn sont indpendantes si et seulement si P(X1 ,...,Xn ) = PX1 PX2 ... PXn .

2.4 Exercices

Exercice 2.4.1 (Univers) Proposer un univers pour chacune des expriences suivantes :
1) On lance deux ds. Etant donn que le premier d donne 3, quelle est la probabilit que le
total des deux ds dpasse 6 ?
2) On lance un d rouge et un d bleu et on observe les points donns par chacun d'eux
3) On tire une pice plusieurs fois jusqu' obtenir face pour la premire fois. On observe com-
bien de lancers on doit faire. Soit A : on obtient face aprs un nombre pair de lancers . A
est il un vnement ?

Exercice 2.4.2 Exprimer chacun des vnements suivants l'aide des oprations de compl-

mentation, union et intersection :

 A et B se ralisent, mais pas C ;

 au moins un des trois vnements A , B , C se ralise  ;


 au plus un des trois vnements A , B , C se ralise  ;

 aucun des trois vnements A , B , C ne se ralise  ;

 les trois vnements A , B , C se ralisent .

Exercice 2.4.3 (#) Trois usines pharmaceutiques A, B, et C produisent respectivement 40%,


35% et 25% du nombre total de comprims achets par un grossiste. Chacune de ces usines
produit respectivement 5, 6, et 3% de comprims dfectueux. Le qualiticien de l'entreprise reoit
une nouvelle livraison.
1. Dterminer les probabilits des direntes possibilits suivantes : provenir de A et tre
dfectueux, provenir de A et tre conforme, provenir de B et tre dfectueux, provenir de
B et tre conforme, provenir de C et tre dfectueux, provenir de C et tre conforme.
2. Dans cette livraison, on prend un comprim au hasard. Quelle est la probabilit p1 pour
qu'il soit dfectueux ? Quelle est la probabilit p2 pour qu'il soit conforme ?
3. Dans cette livraison, on prend un comprim au hasard, on constate qu'il est dfectueux.
Quelle est la probabilit qu'il ait t fabriqu dans l'usine A ?

Solution. Rcrivons l'nonc "mathmatiquement". Notons D (resp. Dc ) l'vnement "le com-


prim est dfectueux (resp. non dfectueux)". On a P(A) = 40/100, P(B) = 35/100 et P(C) =
25/100. De plus, P(D|A) = 5/100, P(D|B) = 6/100 et P(D|C) = 3/100.
1. P(A D) = P(D|A)P(A) = 2/100 ; P(A Dc ) = P(A) P(A D) = 38/100.
P(B D) = 2, 1% ; P(B Dc ) = 32, 9%.
P(C D) = 0.75% ; P(C Dc ) = 24, 25%.
2. p1 = P(D) = P(A D) + P(B D) + P(C D) = 4, 85% ; P(Dc ) = 95, 15%.
3. p2 = P(A|D) = P(A D)/P(D) ' 41%.

Exercice 2.4.4 Une urne contient cinq boules roules et trois boules noires. On tire au hasard
une boule.
Si cette boule est noire, on arrte le jeu. Si cette boule est rouge, on replace la boule dans le
sac, on ajoute deux boules rouges et on procde un deuxime tirage.
2.4. EXERCICES 31

1) Reprsenter l'exprience l'aide d'un arbre pondr.


2) Quelle est la probabilit de tirer deux boules rouges ?

Exercice 2.4.5 (Allle) On suppose qu'un gne est form de deux allles A et a. Un individu
peut avoir l'un des trois gnotypes AA, Aa, aa.
Un enfant hrite d'un allle de chacun de ses parents, chacun d'eux tant choisi au hasard. Par
exemple si le pre est de type Aa, et la mre AA, alors les enfants peuvent tre du types AA ou
Aa.
On considre une population dont les proportions des gnotypes pour les hommes comme pour
les femmes sont de p0 pour AA, q0 pour Aa, r0 pour aa.
1) On suppose que le gnotype de l'enfant est form au hasard, on le note (x, y) avec x le
gnotype de son pre et y celui de sa mre.
a) Quelle est la probabilit qu'un enfant ait deux parents de type AA ?
b) un parent de type AA et un parent de type Aa ?
c) deux parents de type Aa ?
2) quelle est la probabilit que l'enfant soit de type AA sachant que :
a) les deux parents sont de type AA ?
b) un des deux parents est de type AA et l'autre de type Aa ?
c) les deux parents sont de types Aa ?
3)-a Calculer la probabilit p1 pour que l'enfant soit de type AA
b) calculer la probabilit r1 pour que l'enfant soit de type aa
c) calculer la probabilit q1 que l'enfant soit de type Aa

Exercice 2.4.6 (Rats) On fait une exprience sur le comportement des rats. Ils doivent choi-
sir entre 4 portes d'apparence identique. En ralit une seule porte est la bonne (et permet au
rat de sortir), les deux autres portes ramnent le rat a son point de dpart. L'exprience a lieu
jusqu' ce que le rat sorte. On suppose qu'il vite les portes choisies auparavant et qu'il choisit
de faon quiprobable entre celles qu'il n'a pas encore ouvertes.
Soient les vnements :
S1 =  le rat sort la premire fois. 

S2 =  le rat sort la deuxime fois. 

S3 =  le rat sort la troisime fois. 

S4 =  le rat sort la quatrime fois. 

Construire un arbre pondr et donner la probabilit de chacun des vnements.

Exercice 2.4.7 (Kids) Une famille a deux enfants. On cherche la probabilit que les deux
enfants soient des garons, sachant qu'au moins est un garon ?
1) Prenons en compte l'ge des enfants : le plus jeune et le plus g peuvent tre chacun des
garons. Donner l'univers. On suppose que chaque conguration a la mme probabilit.
2) Calculer la probabilit.
3) Sachant maintenant que le plus jeune enfant est un garon, quelle est la probabilit que les
deux soient des garons ?
32 CHAPITRE 2. ESPACES PROBABILISS

Exercice 2.4.8 (Urnes #) On considre deux urnes. Chaque urne contient des boules colo-
res. La premire urne contient 2 boules blanches et 3 boules noires. La deuxime urne contient
3 blanches et 4 noires. On tire une boule au hasard dans la premire urne et on la place dans
la deuxime. On suppose que toutes les boules ont la mme chance d'tre tire (rappeler le nom
de cette hypothse). On tire alors au hasard une boule dans la deuxime urne et on l'examine.
Quelle est la probabilit que la boule soit noire ?

Correction. On note les urnes I et II. L'vnement qui nous intresse est
A=  la boule tire dans II est noire  .

On va utiliser la formule des probabilits totales. Soit B l'vnement,  on a tir une boule

noire dans l'urne I D'aprs la formule des probabilits totales, on a :

P[A] = P[A|B]P[B] + P[A|B c ]P[B c ].

Sachant qu'on a tir une boule noire dans la premire urne (note I) ; la probabilit que l'on
P[AB] 5
tire une noire dans la deuxime (note II) est P[A|B] = P[B]
= 8
4 1
P[A|B c ] = 8
= 2
et P[B] = 53 . Donc,

5 3 12 23
P[A] = . + = .
8 5 25 40
Exercice 2.4.9 Un domino est un rectangle comportant deux parties [i|j]. Sur chacune de ces
parties gurent entre 0 et 6 points. Les dominos [i|j] et [j|i] ne sont pas distingus.

1. Combien de dominos dirents peut-on ainsi obtenir ?

2. On suppose que l'on a un jeu complet de dominos. On prend l'un de ces dominos au

hasard.

(a) Quelle est la probabilit que ce soit un double ?

(b) Quelle est la probabilit que la somme des points soit 6 ?

(c) Quelle est la probabilit que ce soit un double si l'on sait que la somme des points

vaut 6 ?

3. On retire du jeu les dominos dont la somme des points est 6, et on en tire un parmi les

dominos restants. Quelle est la probabilit que ce soit un double ?

4. On dit que des dominos sont amis si l'une de leurs parties a le mme nombre de points. A

partir du jeu complet, on tire deux dominos. Quelle est la probabilit qu'ils soient amis ?

Exercice 2.4.10 (Poker #) On joue au poker avec un jeu de 32 cartes. Il y a donc


 4 couleurs : carreau, tre, pique et coeur.
 8 hauteurs : 7, 8, 9, 10, valet, dame, roi, as.

Chaque joueur reoit 5 cartes. Quelle est la probabilit qu'un joueur ait :

1) un carr : quatre cartes de mme hauteur


2) un brelan : trois cartes de mme hauteur
3) une paire : deux cartes de mme hauteur
4) deux paires
2.4. EXERCICES 33

5) un full (brelan+ paire) ?

Solution. L'univers est l'ensemble des mains possibles, c'est--dire l'ensemble des combinai-

sons de 5 lments parmi 32. On suppose que toutes les mains sont quiprobables, autrement
card (A)
dit on munit de la probabilit uniforme P(A) = card () .
1) Dterminons le cardinal de l'ensemble correspondant l'vnement A = le joueur possde

un carr. 
8

 Choix de la hauteur :
1
= 8 (on choisit un lment parmi 8)
4
 Choix de la couleur :
4
= 1 (on choisit une couleur dirente pour chaque carte : deux

cartes de mme hauteur et de mme couleur sont identiques !)


7

 Choix de la hauteur de la 5me carte :
1
=7 : il n'y a que 4 cartes de chaque hauteur,

une fois choisie la hauteur du carr, il reste seulement 7 hauteurs potentielles


4

 Choix de la couleur de l a 5me carte :
1
= 4.
8174 224
On a donc P(A) = = 0, 00111.
(325) 201376
2) Soit l'vnement A = le joueur possde un brelan. 
8

 Choix de la hauteur des trois cartes :
1
=8 (on choisit un lment parmi 8)
4

 Choix de la couleur :
3
= 4 (on choisit trois couleurs direntes pour chaque carte : deux
cartes de mme hauteur et de mme couleur sont identiques !)
7

 Choix de la hauteur des cartes restantes : : (les deux cartes restantes sont d'une hauteur
2
dirente, sinon nous aurions un full).

 Choix de la couleur des cartes restantes : 42 .


84(72)42
On a donc P(A) = .
(325)
3) Soit l'vnement A = lejoueur possde une paire. 
8
 Choix des hauteurs : (on choisit 1 lment parmi 8)
1
4
 Choix des couleurs : (on choisit deux couleurs direntes pour chaque carte)
2
7

 Choix des hauteurs des cartes restantes : : (les cartes restantes sont d'une hauteur
3
dirente, sinon nous aurions au moins un brelan).

 Choix de la couleur des cartes restantes : 43 . 8 4 7


( )( )( )43
On a donc P(A) = 1 2 32 3 .
(5)
4) Soit l'vnement A = lejoueur possde deux paires. 
8
 Choix des hauteurs : (on choisit deux lments parmi 8)
2
4 2
 Choix des couleurs : (on choisit deux couleurs direntes pour chaque paire)
2
6

 Choix de la hauteur de la carte restante : : (la carte restante est d'une hauteur dirente,
1
sinon nous aurions un full).

 Choix de la couleur de la carte restante : 4. 2


(82)(42) (61)4
On a donc P(A) = .
(325)
5) Soit l'vnement A = lejoueur possde un full. 
8
 Choix des hauteurs : (on choisit un lment parmi 8)
1
4
 Choix des couleurs :
3
7

 Choix de la hauteur des cartes restantes : : (les cartes restantes sont d'une hauteur
1
dirente, sinon nous aurions un carr).
4

 Choix des couleurs de la paire .
2
(81)(43)(71)(42)
On a donc P(A) = .
(325)
34 CHAPITRE 2. ESPACES PROBABILISS

Exercice 2.4.11 Les coecients a, b, c de l'quation quadratique ax2 + bx + c = 0 sont d-


termines en lanant trois fois un de quilibr. Quelle est la probabilit que les racines soient
relles ? Complexes non relles ?

Exercice 2.4.12 Un antivirus assure avec une abilit de a = 95% la dtection d'un malware

M lorsqu'il est eectivement prsent. Cependant, le test indique aussi un rsultat faussement

"positif" pourb = 1% des systmes rellement sains qui on l'applique. On suppose qu 'une
proportion p = 0.5% des systmes ont le malware M.

1) En considrant que les paramtres a, b et p sont des probabilits, dterminer la probabilit

qu'un systme soit vraiment atteint sachant qu'il a un test positif ?

2) On suppose maintenant que a, b et p sont dnis comme ci dessus mais qu'on ne connait

plus leur valeur numrique. A quelles conditions sur ces valeurs le test est-il utile ?

Exercice 2.4.13 Pour lutter contre les spams, les messageries ont mis en place des techniques
2
en reprant certains mots ou expressions pouvant gurer dans les emails : par exemple

{merveilleux ; gratuit ; argent ; vous avez gagn ; cadeau }.

On dit qu'il y a dtection si cette famille de mots est prsente dans le mail. Le ltre fonctionne

alors de la faon suivante :

Si sachant qu'il y a dtection, la probabilit d'tre un spam dpasse le seuil de 90%, l'email
est dplac dans les courriers indsirables. Sinon il n'est pas dplac.

1) On suppose qu'il n'y a qu'un seul mot dans la famille. Soient les vnements D= dtection 
et S = spam . Redmontrer la formule de Bayes

PS (D)P(S)
PD [S] = .
PS (D)P(S) + PS (D)P(S)

2) Lors de la phase d'apprentissage (lorsque vous indiquez votre messagerie qu'un email est

indsirable) ; l'anti-spam compte le nombre de spams contenant le mot. On suppose qu'il

y a 70% des spams qui contiennent le mot, et 15% des non-spams qui le contiennent. En

approchant les probabilits par ces quantits que valent PS (D) et PS (D) ?
On suppose P(S) = 0.7. Dans ces conditions si vous recevez un email contenant ce mot sera-

t-il dplac dans les courriers indsirables ? L'est-il si P(S) = 0.5 ?

3) On considre maintenant une famille de n i {1, .., n}, on appelle Mi


mots. Pour tout

l'vnement  le i-me mot est prsent . On suppose que les vnements (S Mi )i1 sont
indpendants, ainsi que les vnements (S Mi )i1 . L'vnement de dtection D correspond

avoir tous les mots dans le mail : M1 M2 ... Mn . On note pi = PS (Mi ) , qi = PS (Mi )

et s = P(S), dmontrer que :

sn p1 p2 ...pn
PD [S] = .
sn p1 p2 ...pn + (1 s)n q1 q2 ...qn
Indication : remarquer que M1 M2 S = M1 S M2 S .
2. A plan for spam http ://www.paulgraham.com/spam.html, voir aussi ltrage baysien anti-spam dans
wikipedia (qui contient des erreurs de maths !)
2.4. EXERCICES 35

4) On suppose qu'il y a les 5 mots et expressions suivants dans notre ltre.

Mot : merveilleux argent gratuit cadeau vous avez gagn

parmi les spams : 70% 75% 40% 60% 85%

parmi les non-spams : 30% 15% 10% 60% 2%

Si s = 0.5, un mail contenant ces 5 mots sera-t'il dplac en indsirable ? Qu'en est-il s'il

contient seulement les mots argent et gratuit ?

Exercice 2.4.14 Montrer que la probabilit qu'exactement un des vnements A et B se ralise


est
P[A] + P[B] 2P[A B]

Exercice 2.4.15 Montrer que


n
! n
[ X X
P Ai P(Ai ) P(Ai Ak )
i=1 i=1 1i<kn

Exercice 2.4.16 Calculer la probabilit qu'une main de 13 cartes tire partir d'un paquet de
52 cartes contienne exactement deux rois et un as. Quelle est la probabilit qu'elle contienne
exactement un as sachant qu'elle contient un roi ?
On rappelle qu'il y a 4 rois et 4 as dans un paquet.
Exercice 2.4.17 On tire un d deux fois. Calculer les probabilits des vnements suivants
a) Un 6 est ralis exactement une fois.
b) Les deux numros sont impairs
c) la somme des numros est 4
d) la somme des numros est divisible par 3 ?
Exercice 2.4.18 On dispose de deux pices A et B .
 La pice A est quilibre, au sens o elle donne face et pile avec probabilit 21 .
 La pice B donne face avec probabilit p et pile avec probabilit 1 p
On eectue une succession de lancers selon le procd suivant :
 On choisit une des deux pices A, B au hasard, on la lance
 A chaque lancer, si on obtient face, on garde la pice pour le lancer suivant, sinon on change
de pice.
Pour tout entier naturel, on note An l'vnement
 le n-ime lancer se fait avec la pice A 
Soit an = P[An ], tudier la suite (an , n 1) et commenter vos rsultats.
Exercice 2.4.19 On dispose de deux ds, l'un honnte , et l'autre pip pour lequel la proba-

bilit d'obtenir 6 est 1/3 tandis que les autres faces ont toutes la mme probabilit.

1) On choisit un d au hasard et on le lance. Quelle est la probabilit de faire 6?


2) On choisit un d au hasard et on le lance 4 fois. Quelle est la probabilit d'obtenir au moins

une fois 6?
3) On joue 4 fois en choisissant chaque fois au hasard l'un des ds. Quelle est la probabilit

d'obtenir au moins une fois 6?


36 CHAPITRE 2. ESPACES PROBABILISS

Exercice 2.4.20 On note l'ensemble des huit rsultats de trois lancers successifs d'une

pice de monnaie et on considre les deux vnements suivants : A="le premier jet donne un

pile", B ="pile est amen au moins deux fois. Si on suppose que tous les lments de sont

quibrobables, A et B sont-ils indpendants ?

Exercice 2.4.21 Montrer que si F et G sont des fonctions de rpartition alors pour tout
(0, 1), F + (1 )G est une fonction de rpartition.

Exercice 2.4.22 Soit X une variable alatoire relle. Donner les fonctions de rpartitions des
valeurs alatoires suivantes :

X + = max{0, X}, X = min{0, X}, |X| = X + + X , X

Exercice 2.4.23 On appelle mdiane, un rel m tel que


1
limF (y) F (m).
ym 2
Montrer que toute fonction de rpartition a au moins une mdiane. Montrer que l'ensemble des
mdianes est un intervalle ferm de R

Exercice 2.4.24 Soient Xet Y deux variables alatoires


relles de fonctions de rpartition F
0 si x < 1 0 si x 0
et G dnies par : F (x) = 1
si 1 x < 2. G(x) = x2 si 0 x 21 .
3
1 si x 2 1 34 e1/2x si x 1

2
1) Dterminer les rels x et y tels que P[X = x] > 0, et P[Y = y] > 0.
2) Dterminer la fonction de rpartition de aX + b o a > 0.
3) On suppose que X et Y sont indpendantes. Dterminer les fonctions de rpartitions de
max(X, Y ) et min(X, Y ).

Exercice 2.4.25 Soient F et G deux tribus.


1) Soit A P(), montrer que {, , A, Ac } est une tribu.
2) Soient A et B des lments de F , montrer que A B , A \ B appartiennent F .
3) Montrer que F G est une tribu.
4) Montrer que F G n'est pas forcment une tribu.
Chapitre 3

Variables alatoires discrtes

Dans ce chapitre, nous tudions les probabilits discrtes. Les exemples tudis prcdemment
sont pour la ma jorit des exemples discrets. Nous avons dj vu que le dnombrement joue une

rle important.

3.1 Gnralits

Dnition 3.1.1 Une v.a.r X est discrte si X() est au plus dnombrable.
Remarque 3.1.1 Cela ne signie pas forcment que X est valeurs dans les entiers. La va-
riable peut prendre ses valeurs dans un sous-ensemble dnombrable de R tel que Q.

3.1.1 Loi et fonction de rpartition


Soit X une variable discrte, X() = {xi , i I}. La loi de X , PX est dtermine par
!
[ X
PX (B) = P(X B) = P {X = xi } = P(X = xi ) avec B X()
i;xi B i;xi B

. Finalement la loi d'une variable discrte est dtermine par l'ensemble des valeurs prises X()
et par les valeurs P(X = xi ). Il est important de noter que l'on a toujours
X
P(X = xi ) = 1.
iI

Inversement, on a la proprit suivante :

Proposition 3.1.1 Soit I une partie non videPde N. Soient (xi , i I) une famille de rels et
(pi , i I) une famille de rels positifs vriant iI pi = 1. On peut dnir la variable X avec :
X() = {xi , i I}
i I , P(X = xi ) = pi .
Exemple 3.1.1 Soit X une variable alatoire valeurs dans N telle que
n N, P(X = n) = e1 n!1
Montrer que cela dnit bien une loi.
Lorsque X est discrte, la fonction de rpartition est une fonction en escalier : sur chaque

intervalle ]xi , xi+1 [ la fonction F : x 7 P(X x) est constante.

37
38 CHAPITRE 3. VARIABLES ALATOIRES DISCRTES

3.1.2 Esprance
La notion d'esprance correspond celle de moyenne.

Dnition 3.1.2 Soit X une v.a.r discrte. Si X() = {xi , i I} avec I dnombrable, et si
|xi |P[X = xi ] < alors l'esprance de X est dnie par
P
iI

X
E(X) := xi P[X = xi ].
iI

Dans le cas o I est ni, l'hypothse de convergence de la srie est toujours vrie. Dans le

cas inni dnombrable, on suppose que la srie de terme gnral xi P[X = xi ] est absolument
convergente. L'absolue convergence de la srie garantie que l'esprance de X ne dpend pas de

l'ordre des xi . On rappelle qu'il existe des sries convergentes, non absolument convergentes,
P 1
P (1)n
dont la somme dpend de l'ordre pris sur ses termes. Penser
nZ n ou n1 n
qui sont

non absolument convergentes. Il faut bien comprendre que l'esprance n'existe pas toujours,

mme dans le cas discret ! Si la variable alatoire discrte est valeurs positives alors son

esprance existe ou est innie.

Exemple 3.1.2 (Paradoxe de Saint Petersbourg) On tire une pice, si elle tombe sur face
le jeu s'arrte, si elle tombe sur pile le joueur gagne deux fois sa mise et rejoue. On continue
ainsi de suite en doublant le gain du joueur chaque fois qu'il rejoue. Imaginons qu'il ait mis
1 euro. Quelle est la loi de son gain ? Quelle mise maximale le joueur doit il accepter pour
jouer ?
On note X son gain. On a P(X = 2n ) = 21n pour n N? . On a bien

X
P(X = 2n ) = 1.
n=1

On remarque tout d'abord que la loi ne dpend pas de la mise de dpart. De plus on a n1 2n P(X =
P
2n ] = n1 1 = . Finalement, la moyenne du gain tant innie, le joueur devrait a priori
P
toujours jouer.

Proposition 3.1.2 Si X() possde un maximum et un minimum, alors E(X) existe et


xmin E[X] xmax

Dmonstration. A faire.

Thorme 3.1.3 Soit ni ou dnombrable, si la srie est absolument convergente, on a


X
E[X] = X()P({}).

Dmonstration. On note Ai = { ; X()xi }. On a


X
P(X = xi ) = P(X 1 ({xi }) = P(Ai ) = P({})
Ai
3.1. GNRALITS 39

On a donc

X XX
xi P(X = xi ) = P({})
iI i Ai
XX
= xi P({})
i Ai
XX
= X()P({})
i Ai
X
= X()P({})

Ce thorme est essentiel du point de vue thorique. Jusqu' maintenant le rle de l'uni-

vers tait quelque peu cach puisque nous travaillions directement sur l'espace probabilis

(X(), B(R), PX ). Dans la plupart des cas, les calculs sont plus simples sur ce triplet que sur

celui de l'univers. Nanmoins le thorme 3.1.3 permet de travailler avec direntes variables

alatoires simultanment.

Proposition 3.1.4 (linarit) Soient X et Y deux variables alatoires discrtes sur . On


suppose qu'elles possdent une esprance. Soit R. Alors, la variable alatoire X + Y est
discrte et a pour esprance :

E[X + Y ] = E[X] + E[Y ].

Dmonstration. La srie
P
(X() + Y ())P({}) est absolument convergente car c'est une
somme de deux sries absolument convergentes (utiliser l'ingalit triangulaire). On a donc :

X X X
(X() + Y ())P({}) = X()P({}) + Y ()P({}) = E[X] + E[Y ].

Le thorme 3.1.3 et la proprit 3.1.4 restent vrais pour toute variable alatoire, pas for-

cment discrte, dnie sur n'importe quel univers . Du point de vue de la thorie de la
mesure, l'esprance n'est rien d'autre que l'intgrale de X contre la mesure P :

Z
E[X] = X()P(d).

Proposition 3.1.5 Soient X et Y deux variables alatoires. Supposons que 0 X Y et que


Y admet un moment d'ordre 1. Alors X admet un moment d'ordre 1 et

E[X] E[Y ].

Dmonstration. Laisse en exercice.


40 CHAPITRE 3. VARIABLES ALATOIRES DISCRTES

3.1.3 Composition d'une variable alatoire et d'une fonction et ind-


pendance
Soit X une variable alatoire discrte. Soit g une fonction continue par morceaux dnie sur

un ensemble J contenant X(), clairement la variable g X est une variable discrte : on a

(g X)() = {g(xi ), i I}. Le thorme suivant est trs important.


Thorme 3.1.6 (thorme de transfert)
X
E[g(X)] = g(xi )P(X = xi )
iI

Dmonstration. On note Ai = { ; X() = xi }.


X XX
E[g(X)] = g(X())P({}) = g(xi )P({})
iI Ai
X X X
= g(xi ) P({}) = g(xi )P(Ai ).
iI Ai iI


Proposition 3.1.7 Soit g une fonction positive. Si E[g(X)] = 0 alors
P[g(X) = 0] = 1.

On dit que la variable g(X) est nulle presque-srement.


Dmonstration.
P
E[g(X)] = iI g(xi )P[X = xi ] = 0. Comme g(xi )P[X = xi ] est positif,
On a

tous les termes sont nuls et si P[X = xi ] > 0 alors g(xi ) = 0. Autrement dit g(x) = 0 si
S S 
x iI,P[X=xi ]>0 {xi }. On a de plus PX iI,P[X=xi ]=0 {x i } = 0, donc

[
P {xi } = 1
iI,P[X=xi ]>0

L'indpendance entre deux variables alatoires X, Y peut s'exprimer avec l'oprateur d'es-

prance.

Proposition 3.1.8 X et Y sont deux variables indpendantes si pour toutes fonctions f et g


continues bornes,
E[f (X)g(Y )] = E[f (X)]E[g(Y )]
Dmonstration Si X et Y sont indpendantes alors la proprit est vraie par dnition pour
des fonctions f et g simples. Toute fonction continue borne est limite de fonctions simples.

Critre d'indpendance. Soient X et Y deux variables discrtes telles que X() = {x1 , x2 , ...}
et Y () = {y1 , y2 , ...}. X et Y sont indpendantes si

P(X = xi , Y = yj ) = P(X = xi )P(Y = yi ).


3.2. LOIS DISCRTES USUELLES 41

3.1.4 Moments, variance et cart-type


Dnition 3.1.3 On appelle moment d'ordre k de X l'esprance si elle existe de la variable
X k avec k 2
On a d'aprs le thorme de transfert :
X
E[X k ] = xki P(X = xi )
iI

Dnition 3.1.4 On appelle variance de X , l'esprance de (X E[X])2 :


V(X) = E[(X E[X])2 ].
2
P
On a immdiatement V(X) = i (xi E[X]) P[X = xi ]. On mesure l'cart de la variable

alatoire par rapport sa moyenne. C'est une mesure de dispersion autour de E(X).
Proposition 3.1.9 Si X admet une variance et V(X) = 0 alors X = 0 avec probabilit 1
Thorme 3.1.10 Si X possde un moment d'ordre 2 alors
V(X) = E(X 2 ) E(X)2 .

3.2 Lois discrtes usuelles

On prsente les lois classiques au programme.

Loi de Bernoulli
Dnition 3.2.1 Soit p [0, 1], X suit la loi de Bernoulli de paramtre p si
1. X() = {0, 1}

2. P(X = 1) = p et P(X = 0) = 1 p
La fonction indicatrice d'un vnement est une variable alatoire qui suit une loi de Bernoulli.

Soit A F , X = 1A a pour loi, la loi de Bernoulli avec paramtre p = P(A).


Proposition 3.2.1 E(X) = p et V(X) = p(1 p)

Loi uniforme sur [|1, n|]


Dnition 3.2.2 X a pour loi, la loi uniforme sur [|1, n|] si
1 X() = [|1, n|]
2 P(X = k) = n1 .
Proposition 3.2.2 On a E[X] = n+1
2
et V(X) = n2 1
12

Dmonstration. Utiliser les formules


n
X n(n + 1)
k=
k=1
2
n
X n(n + 1)(2n + 1)
k2 =
k=1
6
42 CHAPITRE 3. VARIABLES ALATOIRES DISCRTES

Loi de Poisson
La variable alatoire X suit une loi de Poisson de paramtre (loi sur N) si :

k
P[X = k] = e .
k!
Il faut savoir calculer les moments !


X k X k1
E[X] = ke = e = e e = .
k=0
k! k=1
(k 1)!

Plus gnralement


X k
E[X(X 1)...(X j + 1)] = k(k 1)...(k j + 1)e
k=0
k!

X
jk X k
= k
e = k e = k
j=k
(j k)! j=0
k!

On en dduit que E[X 2 X] = 2 , d'o

E[X 2 ] = 2 +

et

V(X) = .

Loi binomiale
On considre n tirages quiprobables indpendants dans un ensemble compos de deux types

d'lments, le premier (I) en proportion p, le deuxime en proportion q = 1 p. Soit X le

nombre d'lments du premier type tirs parmi l'chantillon de taille n. La variable alatoire

X suit une loi binomiale. Supposons qu' chaque lment chantillonn i [|1, n|], on associe

la variable alatoire Yi qui vaut 1 si i est de type I, 0 sinon. Les variables alatoires Yi sont des
variables de Bernoulli de paramtre p indpendantes. Il est vident que le nombre X d'lments
de type (I) dans l'chantillon vrie :

n
X
X= Yi
i=1

Dnition 3.2.3 Soient n N? et p [0, 1]. X suit la loi binomiale de paramtre n et p si


1. X() = [|0, n|]

2. P(X = k) = n

k
pk (1 p)nk

On a E[X] = np et V(X) = np(1 p).


3.2. LOIS DISCRTES USUELLES 43

Loi hypergomtrique
On a dj rencontr cette loi dans le problme de contrle de production 2.0.1. On redonne ici

l'exprience type menant une loi hypergomtrique. On considre un tirage quiprobable sans
remise de n lments dans une population de taille N n. On s'intresse un type donn (I)
(par exemple dfectueux ) d'lments de la population, que l'on supposera tre en proportion p
(Np est donc un entier). Soit X le nombre d'lments de type I prsents dans l'chantillon de

taille n.
Dnition 3.2.4 X suit une loi hypergomtrique de paramtres N, n, p si
Np N (1p)
 
k nk
P[X = k] = N
 ,
n

avec max{0; n N (1 p)} k min{n, N p}.


Proposition 3.2.3 E[X] = np, V(X) = N n
N 1
np(1 p).
Dmonstration. Pour tout i [|1, N |], soit

0 si i n'appartient pas l'chantillon
i =
1 sinon

N N 1
 
Il y a
n
chantillons de taille n possibles et
n1
chantillons possibles de taille n contenant
i. On a donc
N 1

n1 n
P[i = 1] = N
= .
N

n
On peut crire
N
X
X= Yi i
i=1
o Yi prend la valeur 1 si i est de type I, 0 sinon. On en dduit :

N N N
X X X n
E[X] = E[Yi i ] = E[Yi ]E[i ] = p = np
i=1 i=1 i=1
N
De mme, on calcule
N n
V(X) = np(1 p).
N 1
(exercice)

Loi gomtrique
On considre une population dont une proportion p est compose d'lments de type I donn.

On dsire obtenir 1 lment de ce type en procdant une suite de tirage quiprobables et


indpendants : Soit Y le nombre de tirage ncessaires pour obtenir un lment de type I. La loi
?
de Y est la loi gomtrique de paramtre p sur N : c'est dire :

P[Y = k] = (1 p)k1 p
On a tir k1 lments de type II, le k -ime est de type I. Les moments sont

1 1p
E[Y ] = p
et V(Y ) = p2
.
44 CHAPITRE 3. VARIABLES ALATOIRES DISCRTES

Loi binomiale ngative


n lments de
Il s'agit d'une gnralisation de la loi gomtrique. Cette fois ci on dsire obtenir

type I. On note Y le nombre de tirages ncessaires pour avoir n lments. L'vnement {Y = k}

signie que k tirages ont donn un lment de type II, et n tirages ont donn un lment de
n1

type I (dont le dernier). Le nombre de choix possibles est , on en dduit :
n1+k

n1
 
P[Y = k] = pn (1 p)k .
n1+k
Moments :

E[X] = n 1p
p
et V(X) = n 1p
p2
.

3.3 Vecteurs alatoires discrets

3.3.1 Vecteurs alatoires discrets : lois marginales, indpendance


Soit X un vecteur alatoire discret. Soient X1 , X2 , ..., Xn ses composantes, c'est dire


X1 ()
X2 ()

.
X : 7 . .


.
Xn ()

Exemple 3.3.1 On lance deux fois un d quilibr. On pose = [|1, 6|]2 , F = P() et P la
probabilit uniforme. Soit X le vecteur alatoire bi-dimensionnel :
 
U () = 1 + 2
X : 7 .
V () = max(1 , 2 )

Exercice 3.3.1 Les variables U et V sont elles indpendantes ? Dterminer la loi de X .


Dnition 3.3.1 (Lois marginales) On appelle lois marginales de X , les lois de X1 , ..., Xn .
La loi de X est aussi appele loi conjointe des Xi , 1 i n. Les proprits suivantes se

gnralisent au cas multidimensionnel, pour allger les notations, on considre un vecteur bidi-

mensionnel ( n = 2). Soit X = (U, V ). La loi de U se dduit de la loi de (U, V ) :

X
P(U = ui ) = P(U = ui , V = vj ).
jI

Exercice 3.3.2 Reprenons le vecteur alatoire de l'exemple prcdent. Dterminer ses lois mar-
ginales.
La loi conditionnelle de V sachant U = ui est la donne de

 
P(V = vj et U = ui )
vj ; .
P(U = ui )
3.3. VECTEURS ALATOIRES DISCRETS 45

Exercice 3.3.3 Dterminer la loi de U sachant V = 3.


Proposition 3.3.1 Soient X et Y deux v.a.r discrtes indpendantes possdant une esprance
E[XY ] = E[X]E[Y ].

Dmonstration.
Proposition 3.3.2 (Admis) Si X1 , ...., Xn sont indpendantes, alors toute fonction de X1 , ..., Xp
est indpendantes de toute fonction de Xp+1 , ..., Xn .

3.3.2 Structure algbrique, covariance et corrlation


On note `0 (, F, P) l'ensemble des variables alatoires discrtes dnies sur un mme espace
0
probabilis (, F, P). L'espace ` est un espace vectoriel pour la loi de composition interne + :

(X + Y ) est l'lment de `0 qui associe X() + Y ()


et la loi de composition externe scalaire :

R, (.X)() = X().

Proposition 3.3.3 Soit `1 l'ensemble des variables alatoires discrtes possdant une esp-
rance, i.e
`1 = {X `0 ; E[|X|] < }.
1) `1 est un sous-espace vectoriel de `0
2) E est une forme linaire sur `1

Proposition 3.3.4 Soit `2P l'ensemble des lments de `0P possdant un moment d'ordre 2, i.e
`2P = {X `0 ; E[X 2 ] < }

`2P est un sous-espace vectoriel de `0P inclus dans `1P .

Dmonstration. Utiliser ab 21 (a2 + b2 )


Dnition 3.3.2 (Covariance) On appelle covariance l'application
Cov : (X, Y ) `2 `2 7 E[XY ] E[X]E[Y ].

Par dnition Cov(X, X) = V(X). On a galement la proprit importante suivante :

Proposition 3.3.5
n
! n
X X X
V Xi = V(Xi ) + 2 Cov(Xi , Xj ).
i=1 i=1 1i<jn

Remarque 3.3.1 Cette formule est importante et se simplie lorsque Cov(Xi , Xj ) = 0 pour
tout i 6= j . On dit que les variables ne sont pas  corrles .

Proposition 3.3.6 Cov(X, Y ) = E [(X E(X))(Y E(Y ))] .


46 CHAPITRE 3. VARIABLES ALATOIRES DISCRTES

On donne ici quelques proprits d'algbre bilinaire associes la covariance.

Thorme 3.3.7 L'application Cov est une forme bilinaire symtrique positive sur `2P .
1) Symtrie : Cov(X, Y ) = Cov(Y, X).
2) Bilinarit : immdiat par linarit de
E.
3) Positivit : Cov(X, X) = E ((X E(X))2 ) 0.
La covariance n'est pas dnie-positive. On a seulement que Cov(X, X) = 0 = X est

constante presque srement.

Remarque 3.3.2 Cov est un produit scalaire sur le sous-espace vectoriel des variables ala-
toires centres (c'est dire d'esprance nulle), quotient par la relation d'quivalence note
"=" : X = Y X Y = 0 avec probabilt 1. Nous ne rentrons pas dans les dtails ici, mais
il faut reconnatre dans la notation `1P , `2P les espaces  `p  de la thorie des sries. En eet
dans le cadre des sries, on a
X
`p := {(xi , i N) RN : |xi |p < }
i0

Dans notre cadre, `pP correspond l'espace `p o xi est muni du poids P[xi ]. Autrement dit : `pP
est isomorphe X
{(xi , i N? ) : |xi |p P(xi ) < }.
i1

Dnition 3.3.3 (Coecient de corrlation) Soient X et Y deux lments de L2 de va-


riance strictement positives. On appelle coecient de corrlation linaire le rel :
Cov(X, Y )
(X, Y ) := .
(X)(Y )
On
p rappelle que (X) est l'cart-type de la variable alatoire X , c'est dire (X) =
p
V(X) =
Cov(X, X).
Remarque 3.3.3 On met en garde le lecteur quant la non-transitivit de la corrlation :
(X, Y ) > 0 et (X, Z) > 0 n'implique pas (Y, Z) > 0. C'est assez contre-intuitif et source
d'erreurs potentielles lors d'interprtation.
Proposition 3.3.8 Quelque soit le couple (X, Y ) de variables alatoires de L2 , on a :
|(X, Y )| 1
Dmonstration. Il faut dmontrer
|Cov(X, Y )| (X)(Y ).
Soit R, on a

V(X + Y ) = V(X) + 2 V(Y ) + 2Cov(X, Y ).


Le trinme en droite dans l'galit ci-dessus est toujours positif puisque V(X + Y ) 0.
On en dduit que son discriminant est ngatif ou nul :

= 4(Cov(X, Y ))2 4V(X)V(Y ) 0.


On en dduit donc le rsultat. 
Remarque 3.3.4 C'est la mme preuve que celle de l'ingalit de Cauchy-Schwarz. Il faut
imprativement la connatre.
3.3. VECTEURS ALATOIRES DISCRETS 47

3.3.3 Loi multinomiale


On commence par une gnralisation du thorme binomiale : Soient x1 , ..., xk k rels, soit n
un entier. On a
X n!
(x1 + ... + xk )n = xn1 1 ...xnk k .
n1 ,...,nk ;n1 +...nk
n !n
=n 1 2
!...nk !
On note parfois
 
n n!
=
n1 , n2 , ..., nk n1 !n2 !...nk !
Ce nombre est le coecient multinomial. On passe maintenant la loi multinomiale. Il s'agit

d'une gnralisation de la loi binomiale. On considre n tirages quiprobables, indpendants

dans une population compose d'lments de m types, chaque type j tant en proportion pj :

m
X
pj = 1.
j=1

On dnit la variable alatoire Nj j = 1, .., m, comme tant le nombre d'lments de type


pour

j gurant dans l'chantillon. Le vecteur (N1 , ..., Nm ) suit une loi multinomiale de paramtre
n, p1 , ..., pm . On la notera M(n, n1 , ..., nm ).

Dnition 3.3.4 Le vecteur alatoire X = (N1 , ..., Nm ) suit une loi multinomiale de para-
mtres n, p1 , ..., pm si
n!
P(X = (n1 , ..., nm )) = pn1 1 ...pnmm
n1 !...nm !
o ni = n,
Pm
i=1
n!
n1 !...nm !
est le nombre de partitions de {1, ..., n} avec des sous-ensembles de cardinaux n1 , ..., nm .

Proposition 3.3.9 La j -me loi marginale de X est une loi binomiale de paramtre n, pj
Un lment tir au hasard est soit du type j avec probabilit pj soit d'un autre type avec

probabilit (1 pj ) : le nombre total d'lments du type j dans l'chantillon suit donc une

loi binomiale de paramtre n, pj . On va retrouver cela par le calcul. Soit nj x. On dnit

l'vnement Aj dni par

Aj := {(n1 , ..., nj1 , nj , nj+1 , ..., nm ); ni = n nj }


X

i6=j

n!
P[Nj = nj ] = P[X Aj ] =
X
pn1 1 ...pnmm
Aj
n1 !...nm !
n! n (n nj )!
pj j (1 pj )nnj
X
=
nj !(n nj )! Aj
n1 !...nj1 !nj+1 !...nm !
 
n nj
= pj (1 pj )nnj
nj
48 CHAPITRE 3. VARIABLES ALATOIRES DISCRTES

Il n'y a aucune raison pour que les variables alatoires Nl , Nj , soient non corrles, et a fortiori
indpendantes. On calcule la covariance de deux marginales Nj , Nl . Le couple (Nj , Nl ) suit une

loi multinomiale de paramtres : n, pj , pl , 1(pj +pl ). En eet, lorsque l'on tire un chantillon de

taille n, chaque lment tir est soit de type j avec probabilit pj , soit de type l avec probabilit

pl , soit d'un autre type avec probabilit 1 (pj + pl ). On en dduit


X n! n
E[Nj Nl ] = nj nl p j pnl (1 pl pj )nnj nl
nj !nl !(n nj nl )! j l
(nj ,nl );nj +nl n
X (n 2)! n 1
= p j plnl 1 (1 pl pj )n2(nj 1)(nl 1)
(nj 1)!(nl 1)!(n 2 (nj 1) (nl 1))! j
(nj ,nl );nj +nl n

n(n 1)pj pi
= n(n 1)pj pl

ce qui n'est pas gal E[Nj ]E[Nl ] = n2 pj pl .

3.3.4 Somme de variables alatoires indpendantes


Somme de variables de Bernoulli
Proposition 3.3.10 Soient X1 , ..., Xn n variables indpendantes de loi de Bernoulli de para-
mtre p. La variable alatoire
n
X
Y = Xi
i=1

suit une loi binomiale de paramtre (n, p).

Remarque 3.3.5 C'est de cette faon que nous avons introduit la loi binomiale au Chapitre
3. En fait nous allons voir que nous pouvons toujours construire une variable alatoire de loi
binomiale comme somme de Bernoulli indpendantes.

Ce qui suit n'est pas clairement au programme, mais permet de comprendre l'indpendance. On

considre une variable de Bernoulli de paramtre p sur un espace (, F, P). On appelle succs,
et note S, l'vnement la variable de Bernoulli ralise 1. An de rpter n fois l'exprience, de

faon indpendante, on va construire n copies indpendantes :

On se place sur l'espace (n , F n , Pn ) o F n et Pn sont respectivement la tribu produit et

la probabilit produit. On dnit

Xi : n 7 i .
Par dnition de la tribu produit Pn , on a

Pn (Xi = 1) = Pn ( ..., {S}, ... )


= P() P({S})... P()
= P[{S}] = p.

Soit (x1 , ..., xn ) {0, 1}n . On a

Pn [X1 = x1 , ..., Xn = xn ] = Pn [X1 = x1 ]...Pn [Xn = xn ] = pk (1 p)nk


3.3. VECTEURS ALATOIRES DISCRETS 49

o kP
est le nombre de xi , i [|1, |n] valant 1. On conclut immdiatement que la variable

Y = ni=1 Xi suit la loi suivante :

 
k nk n k
P[Y = k] = ( le nombre de faon de choisir k lments parmi n)p (1p) = p (1p)nk .
k

Somme de variables binomiales


Proposition 3.3.11 Soient X1 , ..., Xk des variables alatoires binomiales de paramtres res-
pectifs (n1 , p), ..., (nk , p). La variable alatoire
k
X
Y = Xi
i=1

est une de loi binomiale de paramtre ( ni , p).


Pk
i=1

D'aprs la proposition prcdente, chaque variable Xi est somme de ni variables de Bernoulli

indpendantes. On les numrote de la faon suivante :

n1
X n2
X nk
X
X1 = Bi , X2 = Bi , ..., Xk = Bi
i=1 i=n1 +1 i=n1 +...+nk1 +1

On a donc
k
X k
X ni
X n1 +...+n
X k
Y = Xi = Bj = Bl .
i=1 i=1 j=n1 +...+ni1 +1 l=1

D'aprs la proposition prcdente, on a donc que Y suit une loi binomiale de paramtre (n1 +
... + nk , p).

Somme de variables de Poisson


Proposition 3.3.12 Soient X1 , ..., Xk des variables alatoires dnies sur un mme espace,
indpendantes de loi de Poisson de paramtre respectif i . La variable alatoire
k
X
Y = Xi
i=1

suit une loi de Poisson de paramtre


Pk
i=1 i

On le fait dans le cas k = 2, et le soin de faire une rcurrence sur k est laiss au lecteur. On se

donne donc X1 et X2 variables telles que

j1 1
P[X1 = j] = e
j!

l2 2
P[X2 = l] = e
l!
50 CHAPITRE 3. VARIABLES ALATOIRES DISCRTES

On cherche calculer P[X1 + X2 = n]. On a :

n
!
[
P[X1 + X2 = n] = P {X1 = i} {X2 = n i}
i=0
n
X
= P(X1 = i, X2 = n i)
i=0
Xn
= P(X1 = i)P(X2 = n i)
i=0
n
X i1 1 ni 2
= e e2
i=0
i! (n i)!
n n  
(1 +2 )
X 1 X n i ni (1 + 2 )i
=e 1 2 = e(1 +2 ) .
i=0
i! i=0 i i!

Un outil trs important pour tudier plus gnralement les sommes de variables alatoires est

la notion de fonction gnratrice. Cette notion n'est pas exigible mais apparat implicitement

dans de nombreux exercices. Nous soulignons galement qu'une fonction gnratrice n'est rien

d'autre qu'une srie entire (totalement au programme.) Soit X une variable alatoire valeurs

dans N. La fonction gnratrice associe X est dnie de la faon suivante :


X
X
GX : s ] 1, 1[7 E[s ] = sk P[X = k].
k=0

La fonction gnratrice caractrise entirement la loi.

Proposition 3.3.13 Soient X et Y deux variables alatoires. X et Y ont mme loi si et


seulement si GX = GY .
Dmonstration. Que peut-on dire des coecients de deux sries entires gales ?

3.4 Exercices

Exercice 3.4.1 Soit n un entier 1. On considre l'exprience alatoire qui consiste lancer
successivement n fois un d (quilibr) et noter les n rsultats obtenus (dans l'ordre).
1. Dcrire l'univers associ cette exprience alatoire. Dterminer le cardinal de .
2. Calculer la probabilit de l'vnement A = on obtient au moins un 6 .
3. Dmontrer que pour avoir une probabilit suprieure ou gale 0, 9 d'obtenir au moins
un 6, il faut et il sut que :
ln(10)
n
ln(6) ln(5)

Exercice 3.4.2 Une urne contient trois boules blanches et trois boules noires. On tire simulta-
nment quatre boules de l'urne au hasard. Quelle est la probabilit qu'il y ait autant de blanches
que de noires ?
3.4. EXERCICES 51

Exercice 3.4.3 On considre un jeu de chettes. La cible est un disque de rayon 3. Par
simplicit, nous supposons que le joueur atteint toujours la cible. Supposons que le centre de la
cible est situ l'origine du plan R2 . Nous souhaitons tudier les emplacements des chettes
sur la cible. Nous supposons que la cible est divise en trois cercles centrs l'origine C1 , C2 , C3
de rayons respectifs 1, 2, 3. Ces cercles divisent la cible en trois anneaux A1 , A2 , A3 avec
p
Ak = {(x, y) R2 ; k 1 x2 + y 2 < k}.

1) Donner un univers .
2) On suppose que la probabilit de tomber dans un anneau est proportionnelle son aire.
Calculer
P(A1 ), P(A2 ), P(A3 )
3) Soit maintenant X la variable alatoire qui donne le nombre de points selon l'emplacement
de la chette. On suppose que la rgle du jeu est la suivante : Si la chette tombe dans Ak
alors le joueur remporte 3 k + 1 points. Calculer l'esprance de X
4) Donner la fonction de rpartition de X et tracer la.
5) On suppose maintenant que le joueur n'atteint pas la cible avec une probabilit donne p > 0.
On suppose que si le joueur atteint la cible alors il marque des points selon les mmes rgles
que prcdemment. Sinon, il marque 0 point. Mmes questions que prcdemment.

Exercice 3.4.4 (Minimum de deux variables alatoires gomtriques) Dans cet exer-
cice, p dsigne un rel de ]0; 1[ et q = 1 p. On considre deux variables alatoires X et Y ,
indpendantes, et suivant toutes deux la mme loi gomtrique de paramtre p.
i
1. Soit i N . En remarquant que (X i) = (X = k), montrer que P(X > i) = q i .
[
?

k=1
2. Vrier que l'galit prcdente est encore vraie lorsque i = 0.
3. On dnit une variable alatoire Z en posant Z = min(X, Y ), c'est--dire :
(
X si X Y
Z=
Y si Y < X
Expliquer pourquoi, pour tout i N :
(Z > i) = (X > i) (Y > i)

4. En dduire P (Z > i), pour i N.


5. Soit i N . En utilisant le fait que (Z > i 1) = (Z > i) (Z = i), calculer P (Z = i),
pour i N .
6. Dmontrer que Z suit la loi gomtrique de paramtre 1 q 2 .

Exercice 3.4.5 Le trousseau de clefs d'un gardien de nuit comporte dix clefs, dont une seule

ouvre la porte du poste de garde. Pour qu'il y pntre, il y a deux scenarios possibles :

Cas A : il prend une clef au hasard, l'essaie, la met de ct si elle n'ouvre pas, et ainsi de

suite.

Cas B : il prend une clef au hasard, l'essaie, mais la laisse sur le trousseau si elle n'ouvre pas,

et ainsi de suite.
52 CHAPITRE 3. VARIABLES ALATOIRES DISCRTES

On dsigne respectivement par XA et XB les variables alatoires gales aux nombres d'essais

(y compris le bon) avant succs, dans le premier et le second scenario. Dterminer la loi de

probabilit et la fonction de rpartition de XA et de XB .


Calculer E[XA ] et E[XB ].
Le gardien utilise la mthode B un jour sur trois. Un jour, aprs avoir essay 8 clefs, il n'a

toujours pas ouvert la porte. Quelle est la probabilit pour qu'il ait utilis la mthode B?
Exercice 3.4.6 n un entier naturel non nul. Une personne eectue n lancers indpendants
Soit

d'une pice parfaitement quilibre. Soit Xn le nombre de "piles" obtenus.


1) Quelle est la loi de Xn ? quelle est son esprance ? sa variance ?

2) Calculer la probabilit pour qu' l'issue des n lancers, le nombre de piles soit strictement

suprieur au nombre de faces.

Exercice 3.4.7 (#) Une entreprise de construction produit des objets sur deux chanes de

montage A et B qui fonctionnent indpendemment l'une de l'autre. Pour une chane donne,

les fabrications des pices sont indpendantes. On suppose que A produit60% des ob jets et B
produit 40% des objets. La probabilit qu'un ob jet construit par la chaine A soit dfectueux
est 0.1 alors que la probabilit pour qu'un objet construit par la chaine B soit dfectueux est
0.2.
1. On choisit au hasard un objet la sortie de l'entreprise. On constate que cet objet est

dfectueux. Calculer la probabilit de l'vnement l'ob jet provient de la chane A .

2. On suppose de plus que le nombre d'objets produits en une heure par A est une variable

alatoire Y qui suit une loi de Poisson de paramtre = 20.


On considre la variable alatoire X reprsentant le nombre d'objets dfectueux produits

par la chane A en une heure.

(a) Rappeler la loi de Y ainsi que la valeur de l'esprance et de la variance de Y.


(b) Soient k et n deux entiers naturels, dterminer la probabilit conditionnelle P(Y =n) [X =
k]. (On distinguera les cas k n et k > n ).
En dduire, en utilisant le systme complet d'vnements (Y = i)
(c)
iN , que X suit
une loi de Poisson de paramtre 2 .

Solution.
1. Pour un objet pris la sortie, P (A) = 0.6 et P (B) = 0.4
Soit D =l'objet est dfectueux.
On a P (D/A) = 0.1 et P (D/B) = 0.2 et comme (A, B) est un systme complet d'v-

nements,

P (D) = P (D/A) P (A) + P (D/B) P (B)


= 0.1 0.6 + 0.2 0.4
= 0.14
Si l'ob jet est dfectueux, la probabilit de l'vnement l'objet provient de la chane A

est P (A/D) que l'on calcule par la formule de Bayes :

P (A D) P (D/A) P (A)
P (A/D) = =
P (D) P (D)
0.1 0.6 0.06 6 3
= = = =
0.14 0.14 14 7
3.4. EXERCICES 53

2. On suppose de plus que le nombre d'objets produits en une heure par A est une variable

alatoire Y qui suit une loi de Poisson de paramtre = 20.


On considre la variable alatoire X reprsentant le nombre d'objets dfectueux produits

par la chane A en une heure.

n e
(a) On a Y () = N et pour tout entier n : P (Y = n) = n!
. E (Y ) = = 20 et

V (Y ) = = 20
(b) Quand Y = n, X est le nombre d'objet dfectueux parmi n, qui sont dfectueux
indpendemment les un des autres avec une mme probabilit 0.1. Donc sachant
Y = n, X , B (n, 0.1) et
P [X = k/Y = n] = 0 si k > n et P [X = k/Y = n] = Cnk 0.1k 0.9nk si kn
(c) Comme (Y = n)nN , est un systme complet d'vnements on a pour tout entier k:

+
X
P (X = k) = P [X = k/Y = n] P (Y = n)
n=0

srie convergente dont on calcule la somme partielle en distinguant suivant que nk


ou n<k :

M
X k1
X
P [X = k/Y = n] P (Y = n) = P [X = k/Y = n] P (Y = n)
k=0 n=0
M
X
+ P [X = k/Y = n] P (Y = n)
n=k
M
X 20n e20
= 0+ Cnk 0.1k 0.9nk
n=k
n!
 k M
0.1 X n!
= e20
(0.9 20)n
0.9 n=k
k! (n k)!n!
 k M
1 20 1
X 1
= e 18n
9 k! n=k (n k)!
 k M k
1 20 1
X 1 m+k
= e 18
9 k! m=0 m!
 k
1 1 2k e2
e20 18k e18 =
9 k! k!

donc X suit une loi de Poisson de paramtre 2

Exercice 3.4.8 On lance successivement n boules au hasard dans N cases numrotes de 1


N avec N 2. On suppose que les dirents lancers de boules sont indpendants et que la
1
probabilit pour qu'une boule quelconque tombe dans une case donne est . Une case peut
N
contenir plusieurs boules. Le gain tant fonction du nombre de cases atteintes, on tudie la

variable alatoire Tn gale au nombre de cases non vides l'issue des n lancers.
54 CHAPITRE 3. VARIABLES ALATOIRES DISCRTES

1. Dterminer en fonction de n et N les valeurs prises par Tn (on distinguera deux cas :

nN et n > N ).
2. Donner les lois de T1 et T2 .
3. Dterminer, lorsque n 2, la probabilit des vnements (Tn = 1), (Tn = 2), (Tn = n)
(pour la dernire probabilit, on distinguera deux cas : n > N et n N ).
4. l'aide de la formule des probabilits totales, justier l'galit (I) suivante, pour tout

entier k tel que 1 k n.

k N k+1
(I) P (Tn+1 = k) = P (Tn = k) + P (Tn = k 1)
N N
5. An de calculer l'esprance E(Tn ) de la variable Tn , on considre la fonction polynomiale
Gn dnie par :
n
X
x R, Gn (x) = P (Tn = k)xk
k=1

(a) Quelle est la valeur de Gn (1) ?


(b) Exprimer E(Tn ) en fonction de G0n (1).
(c) En utilisant la relation (I), montrer que :

1
x R, Gn+1 (x) = (x x2 )G0n (x) + xGn (x)
N
(d) En drivant l'expression prcdente, en dduire que :

 
1
E(Tn+1 ) = 1 E(Tn ) + 1
N

(e) Prouver enn que l'esprance de Tn est donne par :

  n 
1
E(Tn ) = N 1 1
N

(f ) L'entier N tant x, calculer la limite de E(Tn ) lorsque n tend vers +. Interprter
le rsultat.

Exercice 3.4.9 On lance n fois (n 3) une pice de monnaie parfaitement quilibre. Pour
tout i [|1, n|], on pose Ai = on a obtenu pile au i-me lancer .
1. Soit X le nombre total de  piles  obtenu. Donner sa loi, son esprance et sa variance.
2. Si, l'issue des n lancers, on obtient par exemple pile-pile-face-face-face-pile-. . . , on dit
que l'on a une premire srie de longueur 2, parce qu'on a obtenu 2 piles au dbut (et pas
plus), et une deuxime srie de longueur 3, parce qu'on a obtenu ensuite 3 faces (et pas
plus). Autre exemple : si l'on obtient face-face-pile-face-. . . , on a une premire srie de
longueur 2 et une deuxime srie de longueur 1. On note S1 la longueur de la premire
srie et S2 la longueur de la deuxime srie si elle existe. On convient de poser S2 = 0
s'il n'y a pas de deuxime srie, c'est--dire si S1 = n. Dterminer S1 ().
3. Justier l'galit (S1 = 1) = (A1 A2 )(A1 A2 ). En dduire, en justiant soigneusement,
1
que P(S1 = 1) = .
2
3.4. EXERCICES 55

4. En tudiant l'vnement (S1 = k) la manire de la question prcdente, dmontrer que :


 k
1
k [|1, n 1|], P(S1 = k) =
2
 n1
1
5. Dmontrer que P(S1 = n) = .
2
6. Vrier, en utilisant les formules obtenues dans les deux questions prcdentes, que :
n
X
P(S1 = k) = 1
k=1

7. Soit x R \ {1}. Dmontrer que pour tout n N :


n
X nxn+1 (n + 1)xn + 1
ixi1 = .
i=1
(1 x)2

Calculer l'esprance de S1 .
8. Justier l'galit S2 () = [|0, n 1|].
9. Calculer P(S2 = 0).
10. Soit k [|1, n|]. Montrer que :
0 si k = n

P(S2 = 1|S1 = k) = 1 si k = n 1
si k n 2
1
2

11. En dduire que :


1
P(S2 = 1) =
2
Exercice 3.4.10 Une urne contient N boules numrotes de 1 N. On en tire n une une

(n N ). On tudiera d'abord le cas avec remise, puis sans remise.


Soit X et Y le plus petit et le plus grand des nombres obtenus

a) Calculer P(X x) pour tout x [|1, n|]. En dduire la loi de X .

b) Calculer P(Y y) pour tout y [|1, n|]. En dduire la loi de Y .

Exercice 3.4.11 Soit a un nombre rel, et X une variable alatoire valeurs dans N, telle

que : pour tout k N,


a
P[X = k] =
2k k!
a) Dterminer a.
b) La variable alatoire X admet elle une esprance ? Si oui, la dterminer.
c) La variable alatoire X admet elle une variance ? Si oui, la dterminer.

Exercice 3.4.12 Calculer la fonction de rpartition de :

 la loi uniforme sur {1, ..., n}


 la loi de Bernoulli de paramtre p
1
 la loi Binomiale de paramtres 4 et
2
56 CHAPITRE 3. VARIABLES ALATOIRES DISCRTES

 la loi gomtrique de paramtre p.

Exercice 3.4.13 On admet que si 0x<1 et r N? ,



k+r1 k

1 X
= x
(1 x)r k=0
r1

Considrons une urne contenant des boules blanches en proportion p, des boules noires en

proportion 1 p.
On eectue des tirages avec remise dans cette urne jusqu' l'obtention de r boules blanches.

Soit X le nombre de boules noires obtenues (avant la rme boule blanche).

1) Calculer P[X = k] pour tout k N.


2) Montrer que l'on obtient presque-srement r boules blanches

3) Calculer E[X].

Exercice 3.4.14 Une urne contient N boules numrotes de 1 N. On en tire n une une

(n N ). On tudiera d'abord le cas avec remise, puis sans remise.


Soit X et Y le plus petit et le plus grand des nombres obtenus

a) Calculer P(X x) pour tout x [|1, n|]. En dduire la loi de X .

b) Calculer P(Y y) pour tout y [|1, n|]. En dduire la loi de Y .

Exercice 3.4.15 Un garagiste dispose de 2 voitures de location. Chacune est utilisable en

moyenne 4 jours sur 5. Il loue les voitures avec une marge de 50 euros par jour et par voiture.

On considre X la variable alatoire gale au nombre de clients se prsentant chaque jour pour

louer une voiture. On suppose X() = {0, 1, 2, 3} avec

P[X = 0] = 0.1 P[X = 1] = 0.3 P[X = 2] = 0.4 P[X = 3] = 0.2.

a) Dterminer la loi de la variable alatoire Y reprsentant le nombre de clients satisfaits par

jour

b) Calculer la marge moyenne par jour.

Exercice 3.4.16 Une urne contient initialement une boule blanche et une boule rouge.

On eectue des tirages successifs d'une boule dans l'urne selon le protocole suivant : aprs

chaque tirage, la boule tire est remise dans l'urne et on rajoute dans l'urne une boule de

la mme couleur, avant le tirage suivant. Pour tout entier non nul n, on note Xn la variable
alatoire gale au nombre de boules blanches obtenues au cours des n premiers tirages.
 Dterminer la loi de X1 .
 Dterminer la loi de X2 .
1
 Montrer que la loi de Xn est donne par P(Xn = k) = .
n+1

Exercice 3.4.17 (#) Soit N une variable alatoire de Poisson de paramtre et (Xi )i0 une
suite de variables de Bernoulli de paramtre p, indpendantes entre elles et de N . Montrer que

N
X
S= Xi
i=1

est une variable de Poisson de paramtre p.


3.4. EXERCICES 57

Solution. Pour n 0,
N
! N
! k
!
X X X X X
P(S = n) = P Xi = n = P Xi = n, N = k = P Xi = n, N = k .
i=1 k0 i=1 k0 i=1

Comme N est indpendant de X1 , . . . , Xk , on a

k
! k
!
X X
P Xi = n, N = k =P Xi = n P (N = k) .
i=1 i=1

De plus, comme on considre une somme de


Pk k variables de Bernoulli de paramtre p et ind-

pendantes,
i=1 Xi est une v.a. binomiale de paramtres k et p :

k
! 
 n 0 si n>k
X
P Xi = n = k
n
p (1 p)kn sinon.
i=1

k
Comme N est une v.a. P(), P(N = k) = e k! .
Finalement, on a

X k  k pn e X k!
P(S = n) = pn (1 p)kn e = (1 p)kn k
kn
n k! n! kn
k!(k n)!

et par un changement de variables dans la somme :

pn e X 1 n pn e (1p) (p)n p
P(S = n) = (1 p)k k+n = e = e .
n! k0 k! n! n!

Exercice 3.4.18 (Loi multinomiale #) Une bote contient n jetons numrots de 1 n. On


tire un jeton au hasard, on note son numro et on le remet dans la bote. Si le numro de ce

jeton est i, alors on tire au hasard et sans remise i jetons de la bote que l'on distribue au

hasard dans trois urnes U1 , U2 et U3 (vides au dpart). Pour k = 1, 2, 3, on note Xk la variable

alatoire dsignant le nombre de jetons de l'urne Uk aprs cette opration.

1. Soit X la variable alatoire donnant le numro du jeton que l'on a tir au dpart dans la

bote. Quelle est la loi de X ? Dterminer la loi conjointe du couple (Xk , X), o k = 1, 2, 3.
2. Calculer pour k = 1, 2, 3, l'esprance de Xk (On pourra utiliser X = X1 + X2 + X3 ).
3. (a) Trouver la loi du vecteur alatoire (X1 , X2 , X).
(b) En dduire la loi du vecteur alatoire (X1 , X2 , X3 ).
solution
1. La loi de X est la loi uniforme sur {1, .., n}. Pour 1in et 0 j n,
1
P(Xk = j, X = i) = P(Xk = j|X = i)P(X = i) = P(Xk = j|X = i)
n
et sachant {X = i}, la v.a. Xk est une binomiale de paramtres 1/3 et i. On a donc

0 j>i

si
P(Xk = j, X = i) = 1 j
 1 j
 2 ij

n i 3 3
si j i n.
58 CHAPITRE 3. VARIABLES ALATOIRES DISCRTES

2. Comme X = X1 + X2 + X 3 et que les trois v.a. X1 , X 2 et X3 ont mme loi,

1 n(n + 1)
3E[X1 ] = E[X] =
n 2

n+1
et donc E[X1 ] = .
6
3. (a) Pour 1 i n et 0 j, k n,

1
P(X1 = j, X2 = k, X = i) = P(X=i) (X1 = j, X2 = k)P(X = i) = P(X=i) (X1 = j, X2 = k).
n

Conditionnellement {X = i}, l'exprience revient placer i boules dans 3 urnes.


i
L'espace des congurations possibles, qui est de cardinal 3 , est muni de la probabilit
uniforme. De plus, le nombre de congurations avec j boules dans la 1re urne et k
boules dans la seconde est
i!
j!k!(i j k)!
si j+k i et 0 sinon.

On a donc

11 i!
P(X1 = j, X2 = k, X = i) = si j + k i n.
n 3 j!k!(i j k)!
i

(b) Par la question prcdente, on a directement

1 1 (j + k + l)!
P(X1 = j, X2 = k, X3 = l) = si j + k + l n.
n 3j+k+l j!k!l!

Exercice 3.4.19 (#) On joue pile ou face avec une pice non quilibre. A chaque lancer la

probabilit d'obtenir pile est 2/3, et face 1/3. Les lancers sont supposs indpendants. On note
X la variable alatoire relle gale au nombre de lancers ncessaires pour l'obtention, pour la

premire fois de deux piles conscutifs.

Soit n un entier naturel non nul. On note pn la probabilit de l'vnement (X = n).


1) Expliciter les vnements (X = 2), (X = 3), (X = 4), (X = 5). Dterminer la valeur de

p1 , p2 , p3 , p4 et p5
2) A l'aide de la formule des probabilits totales, en distinguant deux cas selon le rsultat du

premier lancer, montrer que

2 1
n 3, pn = pn2 + pn1 .
9 3
3) En dduire l'expression de pn en fonction de n pour n 1.
4) Calculer E[X].

Exercice 3.4.20 1) Dterminer , , tels que pour tout k N? ,

1
= + +
k(k + 1)(k + 2) k k+1 k+2
3.4. EXERCICES 59

2) Soit a R. Dterminer a pour que

a
pk =
k(k + 1)(k + 2)
soit une loi de probabilit.

3) Cette loi de probabilit admet elle une esprance ? une variance ?

Exercice 3.4.21 Soit X une variable alatoire valeurs dans N? .


1) Montrer que pour tout n N? ,
n n1
!
X X
kP[X = k] = P[X > k] nP(X > n).
k=1 i=1

2) On suppose que lim nP(X > n) = 0 et que la srie de terme gnral uk = P(X > k)
n
converge. Montrer que X admet une esprance et que


X
E(X) = P(X > k).
k=1

3) Rciproquement, on suppose que X admet une esprance. Montrer que

lim nP(X > n) = 0


n

et en dduire

X
E[X] = P[X > k].
k=0

Exercice 3.4.22 Soit X une v.a.r discrte telle que X() = N. Montrer que

E(X) existe, E(X) =


P
1) Si
k=1 P[X k].
2) Si E[X(X 1)] existe,
X
X
E[X(X 1)] = 2 P[X n].
p=2 n=p

Exercice 3.4.23 On considre un entier naturel N suprieur ou gal 3. Une urne contient

N boules numrotes de 1 N. On y eectue des tirages successifs d'une boule avec remise de

la boule tire aprs chaque tirage, jusqu' obtenir pour la premire fois un numro dj tir.

On note alors TN le rang alatoire de ce dernier tirage.

Par exemple, si on a obtenu successivement les numros 1-5-4-7-3-5, la variable TN prend la

valeur 6. Alors que si on a obtenu 5-4-2-2 la variable TN prend la valeur 4.

1) Dterminer la loi, l'esprance et la variance de T3 .


2) Soit N 3
a) Dterminer l'ensemble des valeurs que peut prendre TN .
b) Calculer P[TN = 2], P[TN = 3] et P[TN = N + 1]
c) Prouver pour tout entier k de {1, ..., N }, les galits

k1
Y 
N! i
P[TN > k] = = 1 .
(N k)!N k i=0
N

En dduire la loi de la variable alatoire TN


60 CHAPITRE 3. VARIABLES ALATOIRES DISCRTES

Exercice 3.4.24 On joue pile ou face avec une pice non quilibre. A chaque lancer la

probabilit d'obtenir pile est 2/3, et face 1/3. Les lancers sont supposs indpendants. On note
X la variable alatoire relle gale au nombre de lancers ncessaires pour l'obtention, pour la

premire fois de deux piles conscutifs.

Soit n un entier naturel non nul. On note pn la probabilit de l'vnement (X = n).


1) Expliciter les vnements (X = 2), (X = 3), (X = 4), (X = 5). Dterminer la valeur de

p1 , p2 , p3 , p4 et p5
2) A l'aide de la formule des probabilits totales, en distinguant deux cas selon le rsultat du

premier lancer, montrer que

2 1
n 3, pn = pn2 + pn1 .
9 3
3) En dduire l'expression de pn en fonction de n pour n 1.
4) Calculer E[X].

Exercice 3.4.25 1) Dterminer , , tels que pour tout k N? ,

1
= + +
k(k + 1)(k + 2) k k+1 k+2

2) Soit a R. Dterminer a pour que

a
pk =
k(k + 1)(k + 2)
soit une loi de probabilit.

3) Cette loi de probabilit admet elle une esprance ? une variance ?

Exercice 3.4.26 (A faire !) Soit P une probabilit et X une variable alatoire valeurs dans
?
N .

1) Montrer que pour tout n N? ,


n n1
!
X X
kP[X = k] = P[X > k] nP(X > n).
k=1 i=1

2) On suppose que lim nP(X > n) = 0 et que la srie de terme gnral uk = P(X > k)
n
converge. Montrer que X admet une esprance et que


X
E(X) = P(X > k).
k=1

3) Rciproquement, on suppose que X admet une esprance. Montrer que

lim nP(X > n) = 0


n

et en dduire

X
E[X] = P[X > k].
k=0
3.4. EXERCICES 61

Exercice 3.4.27 Soit X une


P v.a.r discrte telle que X() = N. Montrer que

1) Si E(X) existe, E(X) = k=1 P[X k].


2) Si E[X(X 1)] existe,
X
X
E[X(X 1)] = 2 P[X n].
p=2 n=p

Exercice 3.4.28 Soient X et Y deux variables alatoires indpendantes, valeurs dans N.


 Dterminer en fonction de la loi de X et de la loi de Y, la loi de Z =X +Y.
 Dterminer la loi de T = min(X, Y ).

Exercice 3.4.29  Montrer que la somme de n variables alatoires indpendantes de Bernoulli


de paramtre p est une loi binomiale de paramtres n, p.

 Montrer que la somme de n variables alatoires de Poisson de paramtres 1 , ..., n respecti-


Pn
vement est une loi de Poisson de paramtre
i=1 i

Exercice 3.4.30 Une urne contient une boule blanche et une boule noire, les boules tant

indiscernables au toucher. On y prlve une boule, chaque boule ayant la mme probabilit

d'tre tire, on note sa couleur, et on la remet dans l'urne avec c boules de la couleur de la

boule tire. On rpte cette preuve, on ralise ainsi une succession de tirages (n 2).
On considre les variables alatoires (Xi )1in dnies par :

Xi = 1 si on obtient une boule blanche au i-me tirage.

Xi = 0 sinon .

On dnit, pour 2 p n, la variable alatoire Zp par

p
X
Zp = Xi
i=1

1) Dterminer la loi du couple (X1 , X2 ). En dduire la loi de X2 .


2) Dterminer la loi deZ2
3) a) Dterminer Zp (). Soit p n 1

b) Dterminer P(Xp+1 = 1|Zp = k) pour k Zp (). En utilisant la formule des probabilits

totales, montrer que


1 + cE[Zp ]
P[Xp+1 = 1] =
2 + pc
c) Montrer par rcurrence que pour tout p [|1, n|],
1
P[Xp = 1] = P[Xp = 0] =
2
Exercice 3.4.31 Soit une pice avec probabilit d'avoir face p.
 On lance la pice n fois, soit X la variable alatoire reprsentant le nombre de faces obtenues,
et Y le nombre de piles. Quelle est la loi de X , la loi de Y ? montrer que les variables alatoires
X et Y ne sont pas indpendantes.
 On lance maintenant la pice N fois o N est un nombre alatoire qui suit une loi de Poisson.
On note encore X et Y le nombre de faces et le nombre de piles. Dterminer la loi du couple
(X, Y ), en dduire que X et Y sont indpendantes, et donner leurs lois respectives.
62 CHAPITRE 3. VARIABLES ALATOIRES DISCRTES

Exercice 3.4.32 On considre n urnes numrotes de 1 n. La premire urne contient des

boules blanches et des boules noires ; la proportion de boules blanches est p1 . Les urnes sui-

vantes contiennent chacune a boules blanches et a boules noires.

On eectue n tirages de la manire suivante : on tire une boule de la premiere urne que l'on

place dans la deuxime urne, puis on tire une boule de la deuxime urne que l'on place dans la

troisime, et ainsi de suite jusqu'au tirage dans la dernire urne.

Pour 1 k n, on dsigne par Xj la variable alatoire gale 1 si la boule tire dans la

kme urne est blanche, gale 0 si la boule tire de la k me urne est noire.

1) Dterminer les lois de probabilits de X1 et X2 , puis leurs esprances et leurs variances en

fonction de p1 et de a.
2) Dmontrer qu'il existe une valeur de p1 pour laquelle X1 et X2 suivent la mme loi de

probabilit.

3) Pour cette valeur de p1 tudier l'indpendance de X1 et X2 . Pour 1 k n, on pose

pk = P[Xk = 1] et qk = P[Xk = 0].


4) Dmontrer qu'il existe une matrice M dpendant de a telle que pour k [|1, n 1|]

   
pk+1 pk
=M
qk+1 qk

5) Dterminer M n pour n N, puis dterminer la loi de Xn .


6) Dterminer lim pn et lim qn .
n n

Exercice 3.4.33 Soit (X, Y ) un couple de variables alatoires valeurs dans NN tel que :

(j, k) N2 ,
(j + k)j+k
P({X = j} {Y = k}) =
ej!k!
a) Dterminer . (On pourra tudier f : x 7 2xe2x1 1) sur R+ .
b) Dterminer les lois de X et de Y . Les variables X et Y sont elles indpendantes ?

Exercice 3.4.34 Soit X et Y deux variables indpendantes vriant :

1 + an
 
1
P[X = n] = P[Y = n] =
4 n!
pour tout n N.
1) Dterminer a.

2) Calculer E[X] et V(X)


3) Dterminer la loi de S = X + Y .

Exercice 3.4.35 On admet que si 0x<1 r N? ,


et


k+r1 k

1 X
= x
(1 x)r k=0
r 1

Considrons une urne contenant des boules blanches en proportion p, des boules noires en

proportion 1 p.
On eectue des tirages avec remise dans cette urne jusqu' l'obtention de r boules blanches.

Soit X le nombre de boules noires obtenues (avant la rme boule blanche).


3.4. EXERCICES 63

1) Calculer P[X = k] pour tout k N.


2) Montrer que l'on obtient presque-srement r boules blanches

3) Calculer E[X].

Exercice 3.4.36 (#) a N. A chaque partie, il peut


Un joueur va au casino avec une fortune

gagner 1 euro avec une probabilit p et perdre 1 euro avec une probabilit q = 1 p. Le but

du joueur est alors de jouer jusqu' l'obtention de la fortune c a, c N mais il doit s'arrter

s'il est ruin. On note sc (a) sa probabilit de succs (atteindre c avant la ruine).

1. Calculer sc (0) et sc (c)


2. Montrer, pour a > 0, en raisonnant sur ce qui s'est pass au premier coup, la relation

sc (a) = psc (a + 1) + qsc (a 1)

3. Dduire la valeur de sc (a) suivant que p = 0, 5 ou p 6= 0, 5.


4. Application numrique : Calculer la valeur prcdente avec a = 900 ; c = 1000 ; a = 100 ;
c = 20000 dans les cas p = 0; 5 et p = 18/38 .

Solution
1. Si on dmarre avec une fortune nulle, on ne peut atteindre la somme c : sc (0) = 0 . Si

on dmarre avec c, on a atteint la somme c et donc sc (c) = 1 .

2. Au premier coup, on peut soit gagner 1 euro (avec proba p), soit en perdre 1 (avec proba

q ). Si on part d'une fortune a et que l'on gagne au premier coup, on se retrouve avec une

fortune de a+1 et la probabilit d'atteindre c vaut alors sc (a + 1). On a la mme chose

si on perd au premier coup et on a bien la formule de rcurrence pour 1ac1 :

sc (a) = psc (a + 1) + qsc (a 1)

3. Si p = 0 (et donc q = 1), on a sc (a) = sc (a 1) pour 1 a c 1. On a donc sc (a) = 0


si a < c et sc (c) = 1.
Le cas le plus intressant est bien sr p > 0. On a alors une suite rcurrente d'ordre 2 qui
vrie

psc (a + 1) = sc (a) qsc (a 1)


et sc (0) = 0, sc (c) = 1. Pour trouver son expression gnrale, on doit trouver les racines

de son quation caractristique pr2 r + q = 0. Aprs rsolution, on trouve que cette

quation a deux racines : 1 et q/p.


Si q = p, c'est--dire si p=1/2, 1 est la racine double de l'quation caractristique et alors
on a

sc (a) = (a + )1a = a +
avec et dterminer. D'aprs la question a), 0 = sc (0) = et 1 = sc (c) = c + . On
en dduit que =0 et = 1/c. Cela donne au nal sc (a) = a/c .

Siq 6= p, c'est--dire si p 6= 1/2, l'quation caractristique a deux racines distinctes (1 et

q/p) et alors  a  a
q a q
sc (a) = + 1 = +
p p
64 CHAPITRE 3. VARIABLES ALATOIRES DISCRTES

avec
 c et dterminer. D'aprs la question a), 0 = sc (0) = + et 1 = sc (c) =
q c 1
p
+ et alors = = (1 (q/p) ) ce qui entrane

1 (q/p)a
sc (a) = .
1 (q/p)c

4. Application numrique : si p = 1/2, s1000 (900) = 9/10. si p = 18/38, s1000 (900) =


5
2, 66 10 .

Exercice 3.4.37 (Une marche alatoire) On tudie le cours en bourse d'une action. On

suppose que les variations journalires sont indpendantes les unes des autres. On convient de

noter 0 le cours au dbut de l'observation. On suppose que chaque jour, l'action monte d'une

unit (+1) avec probabilit p ou descend d'une unit (-1) avec probabilit 1 p. On note X2n ,
le cours constat le 2n-me jour.

Par exemple si n=2, et que le cours baisser les trois premiers jours et mont le quatrime

jour, on a X4 = 1 1 1 + 1 = 2
1) Quelles sont les valeurs prises par X2n ?
2) On note Y2n le nombre de jours parmi les 2n jours d'observation o l'action a mont ; et Z2n
le nombre de jours parmi les 2n jours, o l'action a baiss. Quelles sont les lois de probabilit
de Y2n et Z2n ? Donner leur esprance.

3) Quelles relations lient d'une part n et Y2n Z2n , et d'autre part X2n , Y2n et Z2n ?
En dduire une expression de X2n ? Montrer que pour tout k [| n, n]
 
2n
P[X2n = 2k] = pn+k q nk
n+k

Exercice 3.4.38 On dispose d'un d quilibr 6 faces et d'une pice truque telle que la
probabilit d'apparition de pile soit gale p. Soit N un entier naturel non nul. On eectue N
lancers du d ; si n est le nombre de 6 obtenus, on lance alors n fois la pice.

On dnit trois variables alatoires X, Y, Z de la manire suivante :

Z indique le nombre de 6 tirs parmi les N lancers de d.


X indique le nombre de piles obtenus parmi les lancers de la pice.
Y indique le nombre de faces obtenues au lancers de la pice.

1) Prciser la loi deZ , son esprance, sa variance.


2) Pour k N, n N, dterminer la probabilit conditionnelle P[X = k|Z = n].
3) Montrer que pour tout couple d'entiers naturels (k, n) :

    N n  n
n N k nk 5 1
P[X = k et Z = n] = p (1 p) si 0knN
k n 6 6
= 0 sinon.

4) Calculer la probabilit P(X = 0).


3.4. EXERCICES 65

5) Montrer que pour tout couple d'entiers naturels (k, n) tels que 0 k n N

N k
     
n N N
= .
k n k nk

En dduire la probabilit P(X = k).


6) Montrer que la variable alatoire X suit une loi binomiale de paramtre (N, p6 ). Quelle est

la loi de Y ?

7) Calculer la covariance de (X, Y ). X et Y sont-elles indpendantes ?

8) Dterminer la loi du couple (X, Y ).

Exercice 3.4.39 Soit X et Y deux variables alatoires dans N? , telles que

a
P[{X = i} {Y = j}] = , pour tout (i, i) N? N?
2i+j
a) Calculer a
b) Dterminer les lois marginales de X et Y.
c) X et Y sont elles indpendantes ?

Exercice 3.4.40 Soit X une variable alatoire uniforme sur [|1, n|] et Y une variable alatoire

uniforme sur [|1, X|], dterminer la loi de Y et calculer E[Y ].

Exercice 3.4.41 Soit n un entier naturel non nul, et X et Y deux variables alatoires ind-

pendantes suivant toutes les deux des lois uniformes sur {1, ..., n}.

1. Calculer P(X = Y ) et P(X Y ).


2. Dterminer la loi de D = Y X.

Exercice 3.4.42 Soit X1 , X2 , X3 des variables de Bernoulli, deux deux indpendantes, pre-

nant les valeurs 0 ou 1 avec probabilit 1/2. On considre les variables

Y = X1 X2 et Z = X2 X3

1. Dterminer la loi jointe de (Y, Z).


2. Les variables alatoires X et Y sont-elles indpendantes ?

3. Calculer l'esperance et la variance de Y +Z et YZ

Exercice 3.4.43 Soit n un entier naturel non nul, et X et Y deux variables alatoires ind-

pendantes suivant toutes les deux des lois uniformes sur {1, ..., n}.
1. Calculer P(X = Y ) et P(X Y ).
2. Dterminer la loi de D = Y X.

Exercice 3.4.44 Soit X1 , X2 , X3 des variables de Bernoulli, deux deux indpendantes, pre-

nant les valeurs 0 ou 1 avec probabilit 1/2. On considre les variables

Y = X1 X2 et Z = X2 X3

1. Dterminer la loi jointe de (Y, Z).


2. En dduire les lois marginales de Y et Z.
66 CHAPITRE 3. VARIABLES ALATOIRES DISCRTES

3. Calculer Cov (Y, Z) Les variables alatoires X et Y sont-elles indpendantes ?

4. Calculer l'esprance et la variance de Y +Z et YZ

Exercice 3.4.45 (Processus d'assainissement informatique) Soit p ]0, 1[, une entre-
prise dispose de N copies d'un mme logiciel. Une proportion p est infecte par un virus, et il
est impossible de discerner un logiciel sain d'un contamin. On suppose que N = nm avec n et
m deux entiers strictement plus grand que 1. Un des responsables propose la mthode suivante
pour assainir le lot :
 Les N copies forment la gnration 0.
 On prlve n logiciels au hasard et avec remise dans la gnration 0. On les copie chacun m
fois. Les N = nm logiciels obtenus constituent la gnration 1.
 On itre le procd. Durant tout le processus, la copie d'un logiciel sain est saine, d'un logiciel
contamin, contamine.
Le statisticien pense que si la proportion p est faible, on a de bonnes chances d'obtenir un lot
sain aprs un assez grand nombre d'oprations.
On souhaite vrier si eectivement ce procd fonctionne.

Prliminaire.
On considre un couple de variables alatoires (X, Y ) dnies sur (, F, P). Soit k et l deux
entiers strictement positifs. On suppose que X prend q valeurs relles : x1 , ..., xq , et Y , r valeurs
relles : y1 , ..., yr . Soit g une fonction relle. Pour tout 1 j q , soit
r
X
Ej = g(yi )P[Y = yi |X = xj ].
i=1

Dmontrer que
q
X
E[g(Y )] = Ej P[X = xj ]. (3.1)

j=1

On passe maintenant au problme en question. Soit k N, on note Tk le nombre de copies


infectes obtenues parmi les n tires dans la gnration k , pour constituer la gnration k + 1
1) Quelles sont les valeurs prises par Tk ? Pour j dcrivant l'ensemble de ces valeurs, dterminer
la loi conditionnelle de Tk+1 sachant Tk = j.
2) En dduire, l'aide de (3.1), une relation entre E[Tk+1 ] et E[Tk ] et montrer que pour tout
k , E[Tk ] = np.
3) On considre maintenant la variable Zk = Tk (n Tk ).
a) En utilisant le prliminaire avec (Tk , Tk+1 ) et une fonction g convenablement choisie.
Montrer que la suite de terme gnral E[Zk ] est gomtrique.
b) Donner l'expression de E[Zk ] en fonction de p, n et k .
c) Montrer que la suite (E[Zk ], k 0) tend vers 0.
4 a) Que signie concrtement l'vnement Zk = 0 ?
b) Quelle est la plus petite valeur de j(n j) lorsque j parcourt {1, 2, ..., n 1}. ?
c) En dduire, l'aide de 3-c), que

P(0 < Tk < n) 0.


k

d) Calculer la limite de P[Zk = 0] et interprter le rsultat.


3.4. EXERCICES 67

e) Dterminer en fonction de n uniquement, une valeur de k telle que P[Zk = 0] > 0, 99


5) On cherche maintenant calculer la probabilit de l'vnement F= A partir d'un certain
rang ; les gnrations ne sont constitues que de logiciels infectes .
a) Montrer que la suite d'vnements ({Tk = n})k1 est croissante pour l'inclusion.
b) Que reprsente alors P[F ] pour la suite, (P[Tk = n])k1 ?
6) Soit j [|1, n 1|], dterminer la limite de P[Tk = j] quand k tend vers l'inni.
7) En utilisant le rsultat de la question 2), donner la valeur de P[F ].
8) On cherche maintenant calculer la probabilit de l'vnement G= A partir d'un certain
rang, les gnrations ne sont constitues que de copies saines.  Calculer P[G], que pensez
vous de la mthode du statisticien ?

Sries gnratrices
Rvision : sries
Exercice 3.4.46 (#) Dterminer le rayon de convergence des sries entires suivantes :
1. n! n
P
n (2n)! x
P n 2n
2. n 2n +1 x
P (1+i)n z3n
3. n
Pn lnn2
4. nn
n n
z

Solution. On utilise le rsultat suivant : pour une srie an X n ,


P
si la limite
n

an+1
lim =L
n+ an

existe (limite ventuellement innie), alors son rayon de convergence est gal 1/L.
n!
1. Posons an = (2n)!
. Alors


an+1 n+1
0.
an = (2n + 1)(2n + 2) n+

Le rayon de convergence est donc R = + .



n
2. Posons an = 2n +1
. Alors

n
an+1
= n + 1(2 + 1) 1/2.
an n(2n+1 + 1) n+
n
P
Le rayon de convergence de la srie
n an X est donc R = 2 et celui de la srie considre

ici est R = 2 (prendre X = x2 ).

3. Comme |1 + i| = 2, on a



an+1 n 2
=
an n + 1 2 n+ 1/ 2.
P n

Le rayon de convergence de la srie
n an X est donc R = 2 et celui de la srie
1/3
considre ici est R = ( 2) = 21/6 .
68 CHAPITRE 3. VARIABLES ALATOIRES DISCRTES

4.
an+1 (n + 1)ln(n+1)

2 2

= = exp (ln(n + 1)) (ln n) .
an nln n
Or,

1
(ln(n+1))2 (ln n)2 = (ln(n+1)ln n)(ln(n+1)+ln n) = ln(1+1/n) ln(n+n2 ) ln(n+n2 )
n+ n
donc
an+1
e0 = 1
an n+

et R=1 .

Exercice 3.4.47 (#) Pour n N on dnit sur [0; 1], un = X n (1 X).


1. Montrer que n un converge simplement sur [0; 1] et calculer n un (x) pour tout x
P P
[0; 1].
2. Montrer que n un ne converge pas normalement sur [0; 1]
P

(a) en utilisant la dnition,


(b) en utilisant le Thorme de continuit des sries.
3. Vrier que n un converge normalement sur [0; a] pour tout a ]0; 1[.
P

Solution.
P
1. La srie que l'on tudie est termes positifs ou nuls. Pour montrer que
n un converge

simplement sur [0; 1], montrons que pour x [0, 1], la limite

N
X
lim xn (1 x)
N +
n=0
PN
existe. Si x = 1, n=0 un (1) = 0 et on a donc la convergence voulue. Si 0 x < 1,
N N
X X 1 xN +1
un (x) = xn (1 x) = (1 x) = 1 xN +1 1.
n=0 n=0
1x N +

P
La srie
n un converge donc simplement sur [0; 1] et sa somme S est dnie par S(1) = 0
et S(x) = 1 si x [0, 1[.
2. (a) Une srie converge uniformment si


XN
sup un (x) S(x) 0.

x[0,1] N +
n=0
PN
Cherchons la borne suprieure de la fonction | n=0 un S| sur [0, 1] : on a


N
|1 xN +1 1| = xN +1 x<1
X
si
un (x) S(x) = .

0 x=1

n=0 si

La borne suprieure qui vaut donc 1 ne converge pas vers 0 : la convergence n'est

pas uniforme.
3.4. EXERCICES 69

(b) On peut aussi le montrer en utilisant la proprit suivante : si une srie de fonctions

continues converge uniformment, alors sa somme est galement continue.

Ici, toutes les fonctions un pour n 0 sont continues sur [0, 1] mais S n'est pas

continue en 1 : la convergence ne peut donc pas tre uniforme.

3. Soit 0 < a < 1. Dire que la convergence est normale sur [0, a] revient dire que la srie

X
sup |un (x)|
n x[0,a]

converge. Pour cela, cherchons un quivalent de supx[0,a] |un (x)| quand n +. En


n
tudiant les variations de la fonction un , on voit qu'elle est croissante sur [0, n+1 ] puis
n
dcroissante sur [ , 1]. Comme n/(n + 1) tend vers 1 et comme a < 1, pour n assez
n+1
grand on a n/(n + 1) > a. La fonction un est alors croissante sur [0, a] et atteint donc son

maximum en a :

sup |un (x)| = an (1 a) pour a assez grand


x[0,a]

et la srie de terme gnral


P (an (1 a))n est convergente puisque a<1 (voir question a)

) et la srie
n un converge normalement sur [0, a].

Sries gnratrices
Exercice 3.4.48 (#) Calculer l'aide de la fonction gnratrice l'esprance et la variance de
la loi gomtrique de paramtre p et de la loi de Poisson de paramtre .
Solution. On traite d'abord le cas o X est une v.a. de Poisson de paramtre :

k
P(X = k) = e , k 0.
k!
Pour s ] 1, 1[, on a

k X (sk )
k
 X X k X

GX (s) = E s = s P(X = k) = s e =e = e es = e(s1) .
k0 k0
k! k0
k!

Comme l'esprance de X existe (puisque la srie de terme gnral (kP(X = k))k converge

absolument), on a

E[X] = lim G0X (s).


s1, s<1

Or, G0X (s) = e(s1) et donc E[X] = . De mme, E[X 2 ] existe et alors

E[X(X 1)] = lim G00X (s) = lim 2 e(s1) = 2 .


s1, s<1 s1, s<1

On a donc V(X) = E[X(X 1)] + E[X] E[X]2 = 2 + 2 = .


On procde de la mme manire si X est une v.a. gomtrique : si 1 < s < 1,

X X X sp
GX (s) = sk P(X = k) = sk p(1 p)k1 = ps (s(1 p))k1 =
k0 k1 k1
1 s(1 p)

(la dernire galit est valide car (1 p)s < 1).


En drivant, on obtient comme avant E[X] = 1/p et V(X) = (1 p)/p2 .
70 CHAPITRE 3. VARIABLES ALATOIRES DISCRTES

Exercice 3.4.49 (#) Soit X et Y deux variables alatoires indpendantes de lois de Poisson
de paramtres respectifs > 0 et > 0. Dterminer, en calculant sa fonction gnratrice, la
loi de X + Y .

Solution. Pour s ] 1, 1[, on a


GX+Y (s) = E[sX+Y ] = E[sX sY ] = E[sX ]E[sY ] = GX (s)GY (s)

car les 2 v.a. sont indpendanntes. Or, GX (s) = e(s1) et GY (s) = e(s1) donc

GX+Y (s) = e(+)(s1) .

La srie gnratrice caractrisant la loi d'une v.a., on en dduit que X+Y est une v.a. de

Poisson de paramtre + .

Exercice 3.4.50 (#) Soit (Xk )1kn une suite de v.a. indpendantes telles que pour 1 k
n, Xk suit une loi uniforme discrte sur {1, . . . k}, c'est--dire que pour i {1, . . . k},
1
P (Xk = i) = .
k
Dterminer la fonction gnratrice de Xk et celle de Yn = n1 (X1 + X2 + + Xn ).

Solution. Commenons par la srie gnratrice de Xk qui est une v.a. uniforme sur {1, . . . , k} :

1
P(Xk = i) = , 1 i k.
k
Pour s ] 1, 1[, on a

n n
X 1X i s 1 sk
GXk (s) = si P(Xn = i) = s = .
i=1
k i=1 k 1s

Calculons maintenant la srie gnratrice de Yn = n1 (X1 + X2 + + Xn ). On a

h i Yn h
1/n X1 ++Xn
Xk i
E s1/n
 Yn  
GYn (s) = E s =E s =
k=1

car les v.a. (Xk )k sont indpendantes. On a donc

n n n
Y
1/n
Y s1/n 1 sk/n s Y
1 sk/n

GYn (s) = GXk (s )= = n
k=1 k=1
k 1 s1/n (1 s1/n ) n! k=1

Exercice 3.4.51 Soit n x, et (Xi )i=1,...,n une suite de v.a. de Bernoulli indpendantes de
paramtre pn = /n ; Xi = 1 modlise que le i-me assur subit un sinistre. Le nombre d'assurs
subissant un sinistre est donc Yn = X1 + . . . + Xn . On suppose que les Xi sont indpendants ; le
fait que pn est petit avec n modlise que le risque de sinistre pour chaque assur est petit devant
le nombre d'assurs, reprsentant le "nombre d'assurs sinistrs espr".
1. Soit Z P (). Calculer la srie gnratrice GZ de Z .
3.4. EXERCICES 71

2. Calculer la srie gnratrice GXi de Xi .


3. Calculer la srie gnratrice GYn de Yn .
4. Calculer limn+ GY n . On rappelle que ln(1 + u) = u(1 + (u)), o limu0 (u) = 0.
Conclusion ?

Exercice 3.4.52 (#) (Somme alatoire) Soit (Xn )nN une suite de v.a. iid valeurs dans N
et T une variable alatoire,
P valeurs dans N, et indpendantes des (Xn )nN . On pose S0 = 0
et pour tout n 1, Sn = nk=1 Xk et S(w) = ST (w) (w).
1. Montrer que GS = GT GX1 .
2. Montrer que si X1 et T ont une esprance, alors l'esprance de S existe et E[S] =
E[T ]E[X].
3. On prend pour les (Xn )nN des v.a. iid de loi de Bernoulli de paramtre p, et pour T une
loi de Poisson de paramtre . Quelle est la loi de S ?

Solution.
1. On a

X X X X X
GS (s) = sk P(S = k) = sk P(S = k, T = n) = sk P(Sn = k, T = n).
k0 k0 n0 k0 n0

De plus, comme S n = X 1 + X2 + + Xn et que T est indpendant des v.a. X1 , . . . , X n ,


on a

X X
GS (s) = sk P(Sn = k)P(T = n).
k0 n0

On veut intervertir les deux signes de sommation. Pour cela, il faut montrer que la srie

|s| < 1,
double converge absolument. Puisque

XX XX X
sk P(Sn = k)P(T = n) P(Sn = k)P(T = n) = P(S = k) = 1 < +
k0 n0 k0 n0 k0

(on a refait les mmes calculs que prcdemment mais dans l'autre sens). On peut inter-

vertir les deux sommes, on a alors

X X X
GS (s) = P(T = n) sk P(Sn = k) = P(T = n)GSn (s).
n0 k0 n0

Or, Sn est la somme de n variables indpendantes et de mme loi, on a donc

n
Y
GSn (s) = GXi (s) = (GX1 (s))n
i=1

et
X
GS (s) = P(T = n) (GX1 (s))n = GT (GX1 (s)),
n0

ce qui est la relation trouver.


72 CHAPITRE 3. VARIABLES ALATOIRES DISCRTES

K
!
X
2. On justie l'existence de E[S] en montrant que la suite kP(S = k) est borne

k=0 K0
P
et alors la srie
k0 kP(S = k) est absolument convergente.

Comme E[S] existe, on sait que E[S] = G0S (1). En utilisant a), on a

E[S] = G0X1 (1)G0T (GX1 (1)) = E[X1 ]G0T (1) = E[X1 ]E[T ]

On a utilis que pour toute srie gnratrice, G(1) = 1.


3. On a dans ce cas particulier GT (s) = e(s1) et GX1 (s) = ps + 1 p. En utilisant la
(ps+1p1)
relation trouve la question a), on a GS (s) = e = ep(s1) et donc S est une

v.a. de Poisson de paramtre p.


Chapitre 4

Variables alatoires densit

Ebauche de motivation : la planche de Galton.

On rpte plusieurs fois l'exprience suivante : on laisse tomber une bille sur une planche

1 1
2 2

x2
1 e 2
2

Figure 4.1  Planche de Galton

incline munie de clous. Lorsque la bille rebondit sur le clou, elle a une chance sur deux de

tomber droite ou gauche. On rcolte les billes et observe leurs rpartitions. Ce que Galton

observe avec son exprience est la tendance des billes se rpartir d'une faon particulire.

De faon heuristique, lorsque l'on augmente le nombre de billes, l'histogramme se rapproche

d'une courbe. Il s'agit de la courbe de Gauss, et cette convergence est appele le thorme de

de Moivre-Laplace. Il apparait ainsi qu' partir d'expriences simples, on passe d'un  monde

discret   un monde continu 

Mathmatiquement, le phnomne observ par Galton s'exprime ainsi :



   z
Sn 1 1
Z
u2
P 2 n z e 2 du.
n 2 2

73
74 CHAPITRE 4. VARIABLES ALATOIRES DENSIT

O Sn suit une loi binomiale de paramtres (n, 12 ). Ces rsultats de convergence seront tudies
dans le chapitre 5. Nous tablissons dans un premier temps la notion de densit.

4.1 Gnralits

Dnition 4.1.1 Soit X une variable alatoire relle, on dit que X admet une densit f si sa
fonction de rpartition F est
 continue
 de la forme : Z x
F (x) = f (t)dt, pour tout x R

avec
1. f est positive
2. fR possde un nombre ni de points de discontinuit
3.
f (x)dx = 1.

Remarque 4.1.1 La fonction f n'est pas unique, puisque l'on peut changer sa valeur en un
point sans changer la valeur de l'intgrale. Nanmoins nous parlerons de la densit.

Proposition 4.1.1 En tout point x0 o f est continue, F est drivable et


F 0 (x0 ) = f (x0 ).

Savoir faire la dmonstration de cette proprit est trs important. La proprit correspond en

fait au thorme fondamental de l'analyse reliant intgrale et drive.

Dmonstration. On crit le taux d'accroissement en x0 de la fonction F :

x0 +h
F (x0 + h) F (x0 ) 1
Z
= f (t)dt
h h x0

Soit  > 0, par continuit de f en x0 , il existe h tel que si |x x0 | h alors |f (x) f (x0 )| .
On crit donc

Z x0 +h
F (x0 + h) F (x0 ) 1
f (x 0 ) = (f (x) f (x 0 )) dx
h h
x0

Z x0 +h
1
|f (x) f (x0 )|dx
h x0
1
h 
h
Si h tend vers 0, le taux d'accroissement de F en x0 admet une limite et sa limite vaut f (x0 ).
Par dnition de la drive (en tant que limite du taux d'accroissement) :

F 0 (x0 ) = f (x0 ).

 La notion d'intgrale gnralise est sous-jacente l'tude des probabilits continues. Une

piqre de rappel concernant les intgrales gnralises peut tre utile...


4.1. GNRALITS 75

4.1.1 Loi et fonction de rpartition


Proposition 4.1.2 Soit X une variable alatoire relle admettant une densit f . Pour tout
(a, b) R2 avec a b
Z b
P[a < X b] = f (t)dt
a

Dmonstration. On a F (b) = P[X b]. l'vnement {a < X b} correspond {X b} \ {X


a}. Donc

P[a < X b] = F (b) F (a)


Z b Z a
= f (t)dt f (t)dt

Z b
= f (t)dt par la relation de Chasles
a

Proposition 4.1.3 Pour une variable densit, P[X = a] = 0 pour tout a R.


Dmonstration. La probabilit de l'vnement {X = a} est la limite gauche de F (a) F (x)
lorsque x tend vers a. Par continuit de F , F (a) F (x) 0. 
xa;x<a

4.1.2 Esprance
Dnition 4.1.2 Soit X une v.a.r de densit f . On appelle esprance de X , le rel
Z +
E[X] := tf (t)dt

dnie uniquement si cette intgrale converge absolument.

Il faut voir l' analogie entre cette dnition et la dnition de l'esprance d'une variable discrte :
X
E[X] = xi P[X = xi ].
iI

La srie est remplace par l'intgrale. Dans le cas discret, c'est P[X = xi ] qui donne le poids

de probabilit de l'vnement lmentaire {X = xi }. Dans le cas continu, ces lments lmen-

taires sont donns par la drive de la fonction de rpartition F 0 (x) c'est dire f (x) (en dehors
d'une famille nie de points).

Contrairement au cadre discret, les variables alatoires densit ne forment pas un espace

vectoriel : Soient X et Y densit, il n'y a aucune raison a priori que X +Y ait une densit.

Un exemple trivial est donne par X et Y = X : si X a une densit alors il en est de mme

pour Y (le dmontrer). Dans ce cas : X + Y = 0 presque srement. On dit que la loi de X + Y
est dgnre, P[X + Y = 0] = 1.
Remarque 4.1.2 (O est l'univers ?) D'aucun aura remarqu, que l'univers n'apparait
que rarement dans cette partie o l'on traite des variables densit. Nous avons dj vu
76 CHAPITRE 4. VARIABLES ALATOIRES DENSIT

qu'une fois les variables alatoires discrtes dnies sur un espace abstrait , on peut en pra-
tique tout calculer en considrant sa loi : c'est dire en travaillant sur l'espace probabilis
(X(), B(R), PX ). Le thorme 3.1.3 nous dit que
X
E[X] = X()P({}).

La thorie de la mesure permet de dnir une notion d'intgrale sur un espace gnral contre
toute probabilit P, et montre que pour toute variable alatoire relle dnie sur un triplet
(, F, P), Z
E[X] = X()dP() (4.1)

On nonce les thormes fondamentaux suivants sans donner de dmonstration.

Thorme 4.1.4 Soient X et Y deux variables densit admettant une esprance, soit un
rel. La variable alatoire X + Y admet une esprance (mais pas forcment une densit !) et
E[X + Y ] = E[X] + E[Y ]
Une faon de dmontrer ce rsultat est de travailler avec un couple de variables alatoires dont

les lois marginales correspondent la loi de X et la loi de Y. Cela ncessiterait de travailler

avec des intgrales multiples, nous ferons ce genre de calculs lorsque l'on tudiera les vecteurs

alatoires.

4.1.3 Composition d'une variable alatoire et d'une fonction et ind-


pendance
Thorme 4.1.5 (Thorme de transfert) Soient X une variable alatoire relle de densit
f et g une fonction continue par morceaux relle telle que |g|f soit intgrable sur R. Alors g(X)
est une variable alatoire relle et possde une esprance :
Z +
E[g(X)] = g(x)f (x)dx.

Corollaire 4.1.6 Pour tout A borlien,


Z
E[1A (X)] = f (x)dx
A

En fait, la variable alatoire 1A (X) est une variable de Bernoulli de paramtre f (x)dx.
R
A

A priori, le calcul de la loi de la v.a.r g(X) n'est pas dans le programme ; mais il faut com-

prendre que cela correspond un changement de variable "dans f ". Il peut arriver lors d'une

preuve mlangeant analyse et probabilit, que vous soyez amens faire ce genre de calcul.

On mentionne donc que si g C 1 strictement croissante et d'inverse C 1 (en fait il sut que g
est

soit un diomorphisme) alors g(X) est densit. En eet, soit Fg sa fonction de rpartition,

Z g1 (x)
1
Fg (x) := P[g(X) x] = P[X g (x)] = f (t)dt.

Finalement,

Fg0 (x) = f (g 1 (x))(g 1 )0 (x) = f (g 1 (x))(g 0 g 1 (x))1 .


4.2. LOIS DENSIT USUELLES 77

4.1.4 Moments, variance et cart-type


Dnition 4.1.3 (moment) Soit k N? . On appelle moment d'ordre k l'esprance si elle
existe de la variable X k . D'aprs le thorme de transfert, c'est donc
Z
k
E[X ] = xk f (x)dx.

Remarque 4.1.3 L'ensemble des variables alatoires densit ne forme pas un sous-espace
vectoriel de L0 , contrairement aux variables discrtes ! L'ensemble des variables alatoires d-
nies sur un mme espace muni d'une tribu F , L0 contient les deux cas : discret et densit.
Il faut savoir qu'il contient beaucoup plus ; il y a par exemple des variables non discrtes sans
densit...

Dnition 4.1.4 (Variance) On appelle variance de X l'esprance de la variable (XE[X])2 :


V(X) := E[(X E[X])2 ].

Par le thorme de transfert :


Z +
V(X) = (x E[X])2 f (x)dx

Pour calculer V, on utilise souvent la formule :

V(X) = E[X 2 ] E[X]2 .

4.2 Lois densit usuelles

Loi uniforme
X suit une loi uniforme sur le segment [a, b] si sa densit est donne par :

1
f (x) = 1[a,b] (x).
ba
xa
On a F (x) = ba
pour x [a, b]. Les moments sont :

a+b (b a)2
E[X] = et V(X) = .
2 12

Loi exponentielle
Une variable alatoire X suit une loi exponentielle de paramtre si sa densit est

f (x) = ex 1R+ (x).

On a
1 1
E[X] = et V(X) = .
2
La loi exponentielle est un cas particulier de la loi suivante.
78 CHAPITRE 4. VARIABLES ALATOIRES DENSIT

Loi Gamma
On rappelle la dnition de la fonction pour tout rel p>0 :

Z
(p) = ex xp1 dx
0

Une variable alatoire suit une loi Gamma de paramtre >0 et p>0 (note (p, )) si sa

densit est :
p x p1
f (x) = e x 1R+ (x).
(p)
Proposition 4.2.1
(p + r)
E[X r ] =
r (p)
Dmonstration.

p x r+p1 p u  u r+p1 1
Z Z
r
E[X ] = e x dx = e du
0 (p) 0 (p)

On obtient donc
1 (p + r)
E[X r ] = .
r (p)


Les proprits de la fonction Gamma sont trs importantes. On en rappelle quelques unes,

sans donner de dmonstration. Nanmoins, vous devez savoir tudier la fonction .


 (p) = (p 1)(p 1)

 (p) = (p 1)! si p est entier


 (1/2) =
p p
 1
 (p + 1) e
2p(1 + 12p
)
p

Loi normale
2
Une variable alatoire X suit la loi
2
 gaussienne N (m, ), o m R, 0, si sa loi a pour
(xm)
densit sur R : 1 exp quand > 0, et si X = m quand = 0.
2 2 2

Remarque 4.2.1 Il faut imprativement savoir dmontrer que



 2
x
Z
exp dx = 2.
2
u2
Il n'existe pas de forme explicite l'aide de fonctions usuelles de x 7 e 2 du.
Rx
0

Calculons les moments :


4.2. LOIS DENSIT USUELLES 79

R (xm)2
1) E[X] = 1
2
xe 2 2 dx. On pose u= xm

, on obtient


1 1
Z Z
u2 /2 2 /2
E[X] = (u + m)e du = m + ueu du = m
2 2

car la fonction intgrer dans la partie droite est impaire.

2)

Z
1 (xm)2
2
E[X ] = x2 e 22 dx
2
Z
1 2
= (u + m)2 eu /2 du
2
2 2
= m2 + (3/2).



On a (3/2) = 21 (1/2) = 2
, et donc

E[X 2 ] = m2 + 2 .

Si X est centre rduite , c'est--dire lorsque m=0 et 2 = 1, la loi normale s'appelle gaus-
sienne standard.
On a les proprits intressantes (mais non-exigibles) suivantes.

Exercice 4.2.1 (#) Montrer les assertions suivantes :

2 /2
1) P(X > t) 12 et .
2
2) P(X > t) 1 et /2 .
t 2t

2 /2
3) E[ezX ] = ez pour tout z R.

Solution. Preuve de 1)
Z
1/2 2 /2
P[X > t] = (2) ex dx
t
Z
1/2 2
= (2) e(x+t) /2 dx
0
Z
1/2 t2 /2 2 1 2
(2) e ex /2 dx = et /2 .
0 2

Preuve de 2)
2 /2
(2)1/2 et
Z
2 /2t2
P[X > t] = ey ey dy
t 0
R y
et cette intgrale tend vers
0
e dy = 1.
80 CHAPITRE 4. VARIABLES ALATOIRES DENSIT

Preuve de 3)
Z
zX 1/2 2
E[e ] = (2) ezxx /2 dx

Z
1
1/2 z 2 /2 2
= (2) e e 2 (xz) dx
Z

2 1 2 2
= (2)1/2 ez /2 e 2 (xz) dx = ez /2 .

Loi Bta
Une variable alatoire suit une loi Bta de paramtre >0 et >0 si sa densit est :

1
f (x) = x1 (1 x)1 1[0,1] (x),
B(, )
o Z 1
B(, ) = x1 (1 x)1 dx.
0
Exercice 4.2.2 Dmontrer que

()()
B(, ) = .
( + )
Nous terminons ce catalogue avec une dernire loi un peu moins classique.

Loi de Weibull
Une variable alatoire suit une loi Weibull de paramtre > 0 et k > 0 si sa densit est :

k x k1 (x/)k
 
f (x) = e 1R+ (x).

Cette loi est utilise dans de nombreux domaines (par exemple en abilit, en logistique et en

mto).

Proposition 4.2.2  La fonction de rpartition de la loi de Weibull est


F (x) = 1 e(x/) pourx 0 et 0 si x < 0.
k

 E[X] = (1
h + 1/k) 2 i
 V[X] = 1 + k 1 + k
2 2 1

Dmonstration. Exercice.
Remarque 4.2.2 Il est intressant de voir le rle des paramtres dans la forme de la densit.

4.3 Vecteurs alatoires densit

Dnition 4.3.1 Un vecteur alatoire X de dans Rp admet une densit s'il existe une fonc-
tion f : Rp R positive, intgrable et d'intgrale valant 1, telle que : (x1 , ..., xp ) Rp
Z x1 Z x2 Z xp
P[X1 x1 , X2 x2 , ..., Xp xp ] = ... f (u1 , u2 , ..., up )du1 ...dup

4.3. VECTEURS ALATOIRES DENSIT 81

4.3.1 Vecteurs alatoires densit : lois marginales, indpendance


Proposition 4.3.1 Soit X un vecteur alatoire densit. Les variables alatoires X1 , ..., Xp
sont alors galement densit. Une densit pour Xi est
Z
fXi : x 7 f (u1 , ..., ui1 , x, ui+1 , ..., up )du1 ...dui1 dui+1 ...dup

Dnition 4.3.2 Les fonctions fXi , pour i = 1, ..., p sont appeles densits marginales du
vecteur X .

Thorme 4.3.2 (Thorme de factorisation) Soit X = (X1 , ..., Xp ) un vecteur alatoire.


Les variables alatoires X1 , ...Xp sont indpendantes si et seulement si le vecteur X a une
densit f variables spares : c'est dire :
f (x1 , ..., xp ) = f1 (x1 )...fp (xp ).

Dans ce cas, on a : fi = i fXi avec i = 1.


Q

Dmonstration. On dmontre que si la densit s'crit sous forme de produit alors les variables

sont indpendantes :

Z x1 Z xp
P[X1 x1 , ...., Xp xp ] = ... f (u1 , ..., up )du1 ...dup
Z
x1 Z
xp
= ...f1 (u1 )...fp (up )du1 ...dup

Z x1 Z xp
1 1
= f1 (u1 )du1 .. fp (up )dup
1 p
Z x1 Z xp
= fX1 (u1 )du1 ... fXp (up )dup

= P[X1 x1 ]...P[Xp xp ]

4.3.2 Loi normale multidimensionnelle


Dnition 4.3.3 (Vecteur gaussien) Un vecteur alatoire X = (X1 , ..., Xp ) est un vecteur
gaussien si pour tous rels 1 , ..., p ,
1 X1 + ...p Xp suit une loi normale.

Remarque 4.3.1 On en dduit que si A est une application linaire de Rp dans Rd , et si X


est gaussien dans Rp alors AX est gaussien dans Rd

De faon plus explicite, on a la dnition suivante en terme de densit :

Dnition 4.3.4 Soit m Rp , et une matrice (p, p) relle symtrique positive, X est un
vecteur normal de dimension p si sa densit est donne par
 
1 1
f (x) = 1
exp h(x m), (x m)i
(2)p/2 Det() 2
p
82 CHAPITRE 4. VARIABLES ALATOIRES DENSIT

La matrice est appele matrice de variance-covariance. En eet, la matrice est donne par

i,i = V(Xi ) et i,j = cov(Xi , Xj ). Si la matrice est diagonale, alors les variables ne sont pas

corrls. En fait, dans le  monde gaussien  une matrice diagonale correspond un vecteur

composantes indpendantes.

Thorme 4.3.3 Les composantes d'un vecteur gaussien sont indpendantes si et seulement
si elles ne sont pas corrles.
Remarque 4.3.2 Il faut bien faire attention ce que dit ce thorme. En gnral l'indpen-
dance n'est pas quivalente la corrlation nulle. Ce n'est vrai que si on a dmontr au pralable
que le vecteur est gaussien. En particulier, on peut construire des exemples de variables ala-
toires X, Y de loi normale, telles que X et Y ne soient pas indpendantes et cov(X, Y ) = 0,
bien sr dans ce cas, le vecteur (X, Y ) n'est pas gaussien.
Exercice 4.3.1 Montrer que si X et Y sont deux variables alatoires relles indpendantes de
loi normale de paramtre m et 2 , alors X + Y et X Y sont indpendantes. Indication :
montrer que (X + Y, X Y ) est un vecteur gaussien.

4.3.3 Sommes de deux variables alatoires indpendantes : convolu-


tion
On ne rentrera pas dans les dtails. Le produit de convolution n'est pas au programme (mais

est tomb en problme en 2001). On dmontre que si X et Y sont deux variables alatoires

densit indpendantes, alors X+Y est galement densit. On donne de plus une forme

intgrale de sa densit.

Thorme 4.3.4 (produit de convolution) Soit X une v.a.r de densit f et Y une v.a.r
indpendante de densit g . La variable alatoire Z = X + Y a pour densit :
Z
h : z 7 f (z y)g(y)dy.

la fonction h est appele convole de f et g , et note f ? g .


Remarque 4.3.3 L'opration ? est l'opration de convolution, c'est une opration commu-
tative, non inversible. Ce dernier point n'est pas trivial et peut faire l'objet d'un problme
d'analyse.
Dmonstration. Soit z R, on cherche exprimer la fonction de rpartition de Z = X + Y .

On note f et g les densits de X et Y . Ces variables tant indpendantes, la densit de (X, Y )


est (x, y) = f (x)g(y). On intgre cette fonction de R2 sur le domaine {(x, y), x + y z} :
Z
P[X + Y z] = 1{(x,y),x+yz} g(x)f (y)dxdy
R2
Z Z zy 
= f (x)dx g(y)dy

Z Z z 
= f (u y)du g(y)dy

Z z Z
= f (u y)g(y)dudy

avec le changement de variable u = x + y.


4.4. EXERCICES 83

Thorme 4.3.5 Soient X1 , ..., Xn des variables alatoires indpendantes


P de loi gaussienne
de paramtres respectifs (m 2
P1 n, 1 ), ...,P(m n , n ). La variable alatoire Y =
2 n
i=1 Xi suit une loi
gaussienne de paramtres i=1 mi , ni=1 i2 .

4.4 Exercices

Exercice 4.4.1 (#) Dterminer c (si c'est possible) pour que les fonctions suivantes soient
des densits de probabilit sur R :
1. f (x) = c1[a,b] (x) o a et b sont deux rels tels que a < b
2. f (x) = cex 1[0,+[ (x), o R
3. f (x) = 1+x
c
2
+1
4. f (x) = c xa 1[a,+[ (x) pour a > 0 et R.
5. f (x) = c sin(2x + 4 )1[ 8 , 8 ] (x)

Solution.
1. c = 1/(b a)
R
2. Si 0, l'intgrale f (x)dx n'est pas convergente : il n'existe donc pas de c rpondant
x
la question. Si > 0, x 7 ce est intgrable sur ]0, +[ et l'intgrale vaut . On a

donc c = .

3. c = 1/
4. Si 0, impossible. Si > 0, c = /a
5. c=2

Exercice 4.4.2 (#) Soit X une variable alatoire suivant une loi dont la densit de probabilit
est donne par
fX : R R+
x2 /2
x 7 xe 1R?+ (x).
Aprs avoir dmontr leurs existences, dterminer l'esprance et la variance de la variable
alatoire X 2 .

Solution. On pose Y = X 2 . On a alors E[Y ] = E[X 2 ] et V[Y ] = E[Y 2 ]E[Y ]2 = E[X 4 ]E[X 2 ]2 .
L'existence de l'esprance et de la variance dcoule de la comparaison avec les intgrales de

Riemann.

Calcul de l'esprance. Par dnition,


Z +
2 /2
E[Y ] = x2 xex dx.
0

On introduit alors les fonctions suivantes

u : R+ R+
2
x 7 ex /2 ,

v : R+ R+
x 7 x2 ,
84 CHAPITRE 4. VARIABLES ALATOIRES DENSIT

On a alors Z +
E[Y ] = u0 (x)v(x)dx.
0

Puisque u et v sont de classe C1 sur R+ , la formule d'intgration par parties donne

Z + Z +
2 x2 /2 2 /2 2 /2
E[Y ] = [x2 ex /2 ]+
0 +2 xe dx = 2 xex dx = 2[ex ]+
0 = 2.
0 0

Calcul de la variance. Nous avons ensuite


Z +
2 2 /2
E[Y ] = x4 xex dx.
0

On introduit alors les fonctions suivantes

u : R+ R+
2
x 7 ex /2 ,

v : R+ R+
x 7 x4 ,
On a alors Z +
2
E[Y ] = u0 (x)v(x)dx.
0
1
Puisque u et v sont de classe C sur R+ , la formule d'intgration par parties donne

Z + Z +
2 2 3 x2 /2 2 /2
E[Y ] = [x4 ex /2 ]+
0 +4 xe dx = 4 x2 xex dx.
0 0

On eectue alors une nouvelle intgration par parties (ou alors on remarque que l'on a dj fait

le calcul plus haut) pour obtenir

Z +
2 2 /2 2 /2
E[Y ] = 8 xex dx = 8[ex ]+
0 = 8.
0

On en dduit que

V[Y ] = E[Y 2 ] E[Y ]2 = 4.

Exercice 4.4.3 Pour quelles valeurs de 0, l'esprance E(X ) est-elle nie, si la densit
de la loi de X est
fX : R R+
x 7 C(1 + x2 )m
o C R et m R.

Rponse : < 2m 1.
Exercice 4.4.4 Soient a < b deux rels. Calculer E eX si X suit une loi uniforme sur


l'intervalle [a, b], c'est--dire si la densit de X est fX = 1


1
ba [a,b]
.

Rponse. E eX = eb ea

.
ba
4.4. EXERCICES 85

Exercice 4.4.5 (#) 1. Soit F la fonction de rpartition d'une variable alatoire X . On


suppose que F est bijective. Soit U une variable alatoire uniforme sur [0, 1]. Montrer que
F 1 (U ) a mme loi que X .
2. On suppose que X est une v.a. valeurs dans R et ayant pour densit :
1
f : y 7
(1 + y 2 )

(on dit que X est une v.a. de Cauchy de paramtre 1).


3. Calculer la fonction de rpartition de X .
4. Montrer que si U est une v.a. uniforme sur [0, 1], alors
  
1
Y = tan U
2

a mme loi que X .


Solution.
1. Dterminons la fonction de rpartition de F 1 (U ) :

P(F 1 (U ) x) = P(U F (x)) = F (x).

2.
x
dy 1 
Z
F (x) = = Arctan(x) + .
(1 + y 2 ) 2
3. F est strictement croissante et continue : F est donc inversible. Calculons son inverse

F 1 . Soit y [0, 1],


 
1  1   
y= Arctan(x) y = Arctan(x) x = tan y
2 2 2
1
(y) = tan y 2 . On conclut que F 1 (U ) a mme loi que X par

et donc F la

question 1.

Exercice 4.4.6 (#) Soit X une variable alatoire positive ayant une densit continue f et
telle que E[X r ] est nie pour r 1.
1. Montrer que
lim xr P(X > x) = 0.
x+

Indication : trouver une expression de P(X > x) en fonction de f .


2. En dduire que Z
E[X r ] = rxr1 P(X > x)dx.
0

Indication : Que vaut la drive de x 7 P(X > x) ?

Solution.
86 CHAPITRE 4. VARIABLES ALATOIRES DENSIT

R +
1. On a P(X > x) = x
f (t)dt et donc

Z + Z +
r r
x P(X > x) = x f (t)dt tr f (t)dt
x x
R +
et ce dernier terme tend vers 0 quand x + puisque E[X r ] = 0
tr f (t)dt est nie.

2. On fait une intgration par parties.

Puisque f x > 0, (P(X > x))0 = f (x). On a alors


est continue, on a pour pour A > 0,
Z A h iA Z A
r1 r
rt P(X > x)dt = t P(X > t) + tr f (t)dt
x 0 0

Le premier terme tend vers 0 d'aprs a) et le second vers E[X r ] qui est nie.

Exercice 4.4.7 (#) Soit X une variable alatoire telle que X et 2X ont mme fonction de
rpartition. Donner une quation vrie par la fonction de rpartition de X et en dduire sa
loi.
Solution. On note F la fonction de rpartition de x R. On a
X. Soit

 x x
F (x) = P(X x) = P(2X x) = P X =F .
2 2
x

En ritrant, on a alors que pour tous x R et n N, F (x) = F n et en faisant tendre n
2
+
vers +, on a donc F (x) = F (0 ) si x > 0 et F (x) = F (0 ) si x < 0. Or, F est continue
+
droite donc F (0 ) = F (0). La fonction F est donc constante sur ] , 0[ et sur [0, +[. Mais,

par proprit des fonctions de rpartition, F () = 0 et F (+) = 1.

On en dduit que F (x) = 0 si x < 0 et F (x) = 1 si x 0, ce qui signie que P(X = 0) = 1 et

donc X est nulle.

Exercice 4.4.8 Soit X une variable alatoire de loi exponentielle de paramtre . On dsigne
par [.] la fonction partie entire.
1) On pose Y = [X]. Donner la loi de Y , son esprance et sa variance.
2) Soit Z l'entier le plus proche de Y , donner la loi de Z .
Exercice 4.4.9 Soit X une variable alatoire de loi normale centre rduite. On note Y = X2
2
.
Dterminer la fonction de rpartition de Y et sa densit.
Exercice 4.4.10 Soient X et Y deux variables alatoires relles indpendantes de densits
respectives f et g et de fonctions de rpartition respectives F et G. Donner les densits de
U = max(X, Y ) et V = min(X, Y ).

Exercice 4.4.11 Soit X une variable alatoire densit. Soit g une fonction C 1 croissante.
Montrer que Z
E[g(X)] = g(0) + g 0 (t)P[X > t]dt
0

Exercice 4.4.12 Soit (X1 , ..., Xn ), n variables indpendantes identiquement distribues. D-


terminer la fonction de rpartition de min(X1 , ..., Xn ). En supposant que la loi de X1 est une
densit, exprimer la densit de min(X1 , ..., Xn ).
4.4. EXERCICES 87

Exercice 4.4.13 (Exercice fondamental) Soient X et Y deux variables alatoires ( densit


ou discrtes) avec un moment d'ordre 2. En pensant l'ingalit de Cauchy-Schwarz, dmontrer
que p p
E[XY ] E[Y 2 ] E[X 2 ].

Exercice 4.4.14 La dure en heures de fonctionnement d'un ordinateur est une variable ala-

toire continue de densit :


x
f : x 7 e 36 si x 0; 0 sinon.

1) Calculer .
2) Quelle est la probabilit que l'ordinateur fonctionne entre 10 et 36 heures ?

3) Quelle est la probabilit qu'il fonctionne moins de 36 heures ?

Exercice 4.4.15 La RATP estime que le retard en minutes du bus 156 est une variable ala-
toire X de densit de probabilit f avec

f (x) = ax(10 x) si x [0, 10] et 0 sinon.

1) Trouver a tel que f soit bien une densit de probabilit.


2) Calculer le retard moyen d'un bus et sa variance
3) Dterminer la fonction de rpartition de X et calculer la probabilit qu'un bus ait un retard
suprieur 8 minutes.
4) Soit Y = X 2 , dterminer la fonction de rpartition de Y puis sa densit de probabilit.

Exercice 4.4.16 (#) Soit f la fonction dnie sur R par :


2

f (t) = si t 0
(1 + t)3

f (t) = 0 si t < 0

1. Montrer que f est une densit d'une variable alatoire Z


2. Dterminer la fonction de rpartition FZ de Z .
3. Justier la convergence de l'intgrale :
+
2t
Z
dt
0 (1 + t)3

La calculer en eectuant le changement de variable u = t + 1.


4. Prouver que Z admet une esprance et la dterminer.
5. Z admet-elle une variance ?

Solution.
1. On vrie les caractristiques d'une densit :

 f est positive sur R



 continue sur R
88 CHAPITRE 4. VARIABLES ALATOIRES DENSIT

Z +
 f est prolongeable gauche et droite en 0 donc f est impropre en .
R0 R0


f = 0 = 0 (converge)
Z K Z X  K
2 1 1
f= 3 dt = 2 =1 1
0 0 (1 + t) (1 + t) 0 (1 + K)2
Z + Z +
donc f converge et vaut 1 et f converge et vaut 1.
0
Donc f est bien une densit de variable alatoire.
Rx
2. On a FZ (x) = f (t) dt donc

 si x < 0 : FZ (x) = 0
0 x
1
Z Z
 si x 0 : FZ (x) = 0+ f =1
0 (1 + x)2
+
2t
Z
3. l'intgrale dt n'est impropre qu'en +
0 (1 + t)3
2t 2t 2
En + on a un quivalent simple :
3 = 3 3 2 > 0.
(1 + t) t (1 + 1/t) t
+
1
Z
Or l'intgrale de Riemann dt est convergente car 2 > 1. Donc par comparaison
1Z t2
+
2t
d'intgrale termes positifs, dt converge.
0 (1 + t)3
1
On eectue le changement de variable (u est de classe C sur [1, K + 1]) u = t + 1 : du

dt : t = 0 r = 1
Z K Z K+1 Z K+1
2t 2 (u 1) 2 2
3 dt = du = du
0 (1 + t) 1 u3 1 u2 u3
K+1
2 2

1 1
= + 2 = + +1
u u 1 K + 1 (K + 1)2
1
K
+
2t
Z
donc dt = 1
0 (1 + t)3
4. Esprance ?
R +
On tudie la convergence

tf (t) dt impropre en .
Z 0
 tf (t) dt = 0
Z
+ Z +
2t
 tf (t) dt = 3 dt = 1 (d'aprs la question prcdente)
0
R + 0 (1 + t)
 donc

tf (t) dt converge et Z admet une esprance E (Z) = 1
2t2 2
5. Comme
3 dont l'intgrale diverge en +, alors Z2 n'a pas d'esprance et Z
(1 + t) t
n'a pas de variance.

Exercice 4.4.17 (#) On considre trois variables alatoires X , Y et Z indpendantes et sui-


vant la loi exponentielle de paramtre .
4.4. EXERCICES 89

1. Dterminer la loi de Y + Z (on pourra calculer sa densit).


2. (a) Dterminer la densit de la variable alatoire D = Y + Z X sur R+ .
(b) Calculer P(X Y + Z).
3. Dterminer l'vnement complmentaire de l'vnement

{X Y + Z} {Y Z + X} {Z X + Y }

et calculer sa probabilit.
4. Quelle est la probabilit pour qu'on puisse construire un triangle (ventuellement aplati)
dont les cts aient pour longueurs X , Y et Z ?

solution
1. Y +Z est encore une variable alatoire valeurs dans R+ et comme Y et Z sont indpen-

dantes, une densit fY +Z de Y +Z peut tre dnie par convolution, ce qui donne pour

x>0 Z + Z x
fY +Z (x) = fY (t)fZ (x t)dt = et e(xt) = 2 xex .
0

De plus, fY +Z (x) = 0 pour x 0.


2. (a) La variable alatoire X est indpendante de Y +Z et, nouveau par convolution,

pour x > 0, Z +
fD (x) = fY +Z (t)fX (x t)dt. (4.2)

On a donc besoin de calculer la densit de X . On utilise la mthode vue en TD.

Soit une fonction continue borne de R dans R.


Z + Z 0
y u=y
E[(X)] = (y)e dy = (u)eu du.
0

La densit de X est donc u 7 eu 1],0] (u) et en revenant (4.2), on a pour

x > 0,

Z + Z +
2 t 3 x
fD (x) = te 1[0,+[ (t)e (xt)
1],0] (x t)dx = e te2t dt.
x

Le calcul de cette intgrale se fait l'aide d'une intgration par parties, ce qui donne

pour x>0

fD (x) = (2x + 1)ex .
4
(b) On a

+ +

Z Z
P(X Y + Z) = P(D 0) = fD (x)dx = (2x + 1)ex dx.
0 4 0

En intgrant nouveau par parties, on obtient : P(D 0) = 3/4.


90 CHAPITRE 4. VARIABLES ALATOIRES DENSIT

3. Posons C = {X Y + Z} {Y Z + X} {Z X + Y }. L'vnement complmentaire


c
est C = {X > Y + Z} {Y > Z + X} {Z > X + Y }. Les trois vnements constituant

la runion prcdente sont deux deux disjoints (si on avait par exemple {X > Y + Z}

et {Y > Z + X}, on aurait {X > 2Z + X}, ce qui est clairement impossible puisque Z
+
est valeurs dans R ). De plus, d'aprs la question b), chacun de ces vnements a pour

probabilit 1/4.
c
On en dduit que P(C ) = 3/4.

4. On peut construire un triangle de cts donns si et seulement si chacun de ces nombres

est infrieur ou gal la somme des deux autres, ce qui correspond la ralisation de

l'vnement C de probabilit 1/4 .

Exercice 4.4.18 Dans cet exercice, n dsigne un entier naturel non nul.
nxn1 si x [0; 1]
1. Soit fn la fonction dnie par : fn (x) =
0 sinon
Montrer que fn est une densit de probabilit.
2. On considre une variable alatoire Xn relle dont une densit de probabilit est fn . On
dit alors que Xn suit une loi monme d'ordre n.
(a) Reconnatre la loi de X1 .
(b) Dans le cas o n est suprieur ou gal 2, dterminer la fonction de rpartition Fn
de Xn , ainsi que son esprance E (Xn ) et sa variance V (Xn ).
3. On considre deux variables alatoires Un et Vn dnies sur le mme espace probabilis
(, A, P ), suivant la loi monme d'ordre n (n > 2) et indpendantes, c'est--dire qu'elles
vrient en particulier l'galit suivante :
x R, P (Un 6 x Vn 6 x) = P (Un 6 x) P (Vn 6 x)
On pose Mn = sup (Un , Vn ) et on admet que Mn est une variable alatoire dnie, elle
aussi, sur (, A, P ).
(a) Pour tout rel x, crire, en justiant la rponse, l'vnement (Mn 6 x) l'aide des
vnements (Un 6 x) et (Vn 6 x).
(b) En dduire une densit de Mn . Vrier que Mn suit une loi monme dont on donnera
l'ordre, puis dterminer sans calcul E (Mn ).
(c) On pose Tn = inf (Un , Vn ). Exprimer Mn + Tn en fonction de Un et Vn , puis en
dduire, sans calcul d'intgrale, la valeur de E (Tn ).
Dans cet exercice, n dsigne un entier naturel non nul.

nxn1 si x [0; 1]
1. Soit fn la fonction dnie par : fn (x) =
0 sinon

fn est positive sur R et continue sur R {0, 1} (en fait, en 0 elle est continue)
R +
f n est impropre en car fn est continue par morceaux sur R
R
0 R0
n
f = 0 converge et est nulle.
R + R +
1
fn = 1 0 = 0
R1 R 1 n1
0
f n = 0
nx dx = [xn ]1x=0 = 1 car 0n = 0 pour n N
R +
Donc
n
f converge et vaut 1.
Donc fn est bien une densit de probabilit.
4.4. EXERCICES 91

2. On considre une variable alatoire Xn relle dont une densit de probabilit est fn . On

dit alors que Xn suit une loi monme d'ordre n.



1 si x [0; 1]
(a) Pour n = 1 la densit est : f1 (x) = donc X1 suit une loi uniforme
0 sinon

sur [0, 1]
(b) La fonction de rparition de Xn est donne par :
Rx
Fn (x) = f o il faut distinguer suivant que x < 0 : 0 x 1 et x > 1 :
Rx
 si x < 1 alors Fn (x) = 0=0
R
0 Rx
 si 0 x 1 alors Fn (x) =

0 + 0 ntn1 dt = 0 + [tn ]x0 = xn
R0 R 1 n1 Rx
 si 1 < x alors Fn (x) =

0 + 0
nt dt + 1
0 = 0 + [tn ]10 + 0 = 1
R +
Pour calculer E (Xn ) on tudie la convergence et on calcule tfn (t) dt qui est

impropre en
R0 R0

t fn (t) dt = 0 = .0
R + R +
t fn (t) dt = 0=0
Z1 1 Z 11 Z 1  1
n1 n n n+1 n
t fn (t) dt = t nt dt = nt dt = t =
0 0 0 n+1 t=0 n+1
n
Donc Xn a une esprance et E (Xn ) =
n+1
Z 1 Z 1  1
2
 2 n+1 n n+2 n
De mme pour E Xn = t fn (t) dt = nt dt = t =
0 0 n+2 0 n+2
Donc X a une variance et
 2
2
 2
 n n
V (Xn ) = E Xn E Xn =
n+2 n+1
2
n + 2n + 1 n (n + 2)
= n
(n + 2) (n + 1)2
n
=
(n + 2) (n + 1)2
3. On considre deux variables alatoires Un et Vn dnies sur le mme espace probabilis
(, A, P ), suivant la loi monme d'ordre n (n > 2) et indpendantes, c'est--dire qu'elles
vrient en particulier l'galit suivante :

x R, P (Un 6 x Vn 6 x) = P (Un 6 x) P (Vn 6 x)


On pose Mn = sup (Un , Vn ) et on admet que Mn est une variable alatoire dnie, elle

aussi, sur (, A, P ).

(a) (Mn 6 x) x c'est dire tous sont


est l'vnement le plus grand es tplus petit que

x
plus petit que

et (Mn 6 x) = (Un 6 x) (Vn 6 x)

(b) Comme Un et Vn sont indpendantes, on a alors : p (Mn 6 x) = p (Un 6 x)p (Vn 6 x)

En notant F la fonction de rpartition d'une loi monme et G celle de Mn on a

alors :

G (x) = F (x) F (x) = F (x)2 pour tout x rel.


Comme F est la fonctio de rpartition d'une variable densit, on sait
92 CHAPITRE 4. VARIABLES ALATOIRES DENSIT

 que F est continue sur R


1
 de classe C sur R {0, 1} (l o fn est continue)

 et que F 0 = fn
Donc

 que G est continue sur R comme compose de fonctions continues.


1
 G de classe C sur R {0, 1}
2xn nxn1 = 2nx2n1 si x [0; 1]

0 0
 et que G = 2F (x) F (x) = 2F (x) fn (x) =
0 sinon

Donc Mn est une variable densit et suit une loi monme d'ordre 2n

2n
et donc E (Mn ) =
2n + 1
(c) On poseTn = inf (Un , Vn ).
On a Mn + Tn = Un + Vn (car l'un est le plus petit et l'auter le plus grand)

n 2n
De plus E (Un ) = E (Vn ) = alors E (Un + Vn ) = E (Un ) + E (Vn ) =
n+1 n+1
Et comme Tn = Mn + Tn Mn = Un + Vn Mn on a nalement

E (Tn ) = E (Un + Vn ) E (Mn )


2n 2n
=
n + 1 2n + 1
2n2
=
(n + 1) (2n + 1)

Exercice 4.4.19 (Ingalit de Paley-Zigmund) Soit X une variable positive, non nulle,
ayant un moment d'ordre 2. Montrer
(E[X])2
P (X E[X]) (1 )2
E[X 2 ]

pour tout ]0, 1[.

Exercice 4.4.20 (#) Soit X une variable aleatoire normale de moyenne = 2 de variance
2 = 4.
1. Soit la variable T = (X )/ . Quelle loi de probabilit suit T ?
2. On considre l'vnement {X < 1, 5}. Quel est l'vnement quivalent pour T ? Quelle
est la probabilit correspondante ?
3. Mme question pour l'venement {X > 2}.
4. Soit l'venement {1 T < 1}. Quel est l'vnement quivalent pour X ? Quelle est sa
probabilit ?
5. Dterminer les valeurs x telles que P(X < x) = 0, 76 ; P(X x) = 0, 6 et P(0 X <
x) = 0, 40.

Solution.
2. P(X < 1, 5) = P(T < 0, 25) = 1 P(T 0, 25) = 0, 401
3. P(X > 2) = P(T > 2)P(T 2) = 0, 977
4.4. EXERCICES 93

4. P(1 T < 1) = P(T < 1)P(T < 1) = P(T < 1)P(T > 1) = P(T < 1)(1P(T
1)) et donc P(1 T < 1) = 2P(T < 1) 1 = 0, 682 .
x2
5.  P(X < x) = P(T < 2
). Donc x2
2
= 0, 71 et x = 3, 42 .

x2 2x
 
 P(X x) = P T 2
=P T 2
et donc x = 1, 5 .

P(0 X < x) = P 1 T < x2 = P T < x2


 

2 2
P (T < 1) . On a alors

x2 x2
   
P(0 X < x) = P T < 1 + P(T 1) = P T < 0, 16
2 2

(car d'aprs la table de la loi normale,


x2
P(T 1) = 0, 84).
On cherche donc x tel que P T < 2
= 0, 56. On a alors-+ x = 2, 3 .

Exercice 4.4.21 (#) Le taux de glycmie d'une population est rpartie suivant une loi nor-
male. Une enqute auprs de l'ensemble de cette population montre que 84,1% des individus ont
un taux infrieur 1,40 g/l et 2,3% ont un taux suprieur 1,60 g/l.
1. A l'aide de la table de la loi normale, dterminer la moyenne et la variance du modle.
2. En admettant qu'un taux de glycmie suprieur 1,30 g/l ncessite un traitement, quel
pourcentage de cette population devra t'on traiter ?

Solution.
1. Notons respectivement m et 2 la moyenne et la variance du taux de glycmie que l'on

note X. On a
X m 1, 4 m
 
0, 841 = P(X < 1, 4) = P < .

Comme X est une v.a. normale N (m, 2 ), N =
Xm

est une v.a. normale N (0, 1). En
1,4m
utilisant la table de la loi normale, on a donc

= 1. De mme,

1, 6 m
 
0, 977 = P(X < 1, 6) = P N <

1,6m
et

= 2.
Pour trouver m et , il sut donc de rsoudre le systme

+ m = 1, 4 2 + m = 1, 6

qui a pour solution m = 1, 2 = 0, 2 . X est donc une v.a. N (1, 2; 0, 04).


2. Il sut de calculer P(X > 1, 3) = P(N > 0, 5) = 1 P(N 0, 5) = 0, 31 .

Exercice 4.4.22 (#) Soit X une variable alatoire gaussienne centre et rduite (on note
X N (0, 1)). Trouver la densit de la variable alatoire Y = X 2 .

Solution. La densit de X 2 est


ey/2
f (y) = 1[0,+[ (y).
2y
94 CHAPITRE 4. VARIABLES ALATOIRES DENSIT

Exercice 4.4.23 On considre N de loi normale N (0, 1) et , indpendante de N, telle que

P( = 1) = P( = 1) = 1/2.
0
1. Montrer que N := N a mme loi que N (on pourra d'abord montrer que N a mme

loi que N ).
0
2. Est-ce que N + N est une v.a. normale ?

Solution.
1. Calculons la fonction de rpartition de N 0. Pour x R,
P(N 0 x) = P(N x) = P( = 1, N x) + P( = 1, N x)
= P( = 1, N x) + P( = 1, N x)
= P( = 1)P(N x) + P( = 1)P(N x)
puisque les variables et N sont indpendantes. De plus, en utilisant la dnition de
et la proprit de symtrie de la loi normale centre rduite,

1 1
P(N 0 x) = P(N x) + P(N x) = P(N x).
2 2
Les 2 v.a. N et N0 ont donc mme fonction de rpartition : elles ont donc mme loi.

2. En utilisant l'indpendance de N et , on remarque que

1 1
P(N + N 0 6= 0) = P(( + 1)N 6= 0) = P( + 1 6= 0)P(N 6= 0) = 1=
2 2
(on rappelle que comme N est une variable densit, on a P(N 6= 0) = 1P(N = 0) = 1).
0 0
On a donc montr que P(N + N = 0) = 1/2. Cette probabilit tant non nulle, N + N

ne peut pas tre une variable densit et a fortiori pas une v.a. normale.

Rappel de cours : Si N et N 0 sont deux variables normales N (1 , 12 ) et N (2 , 22 ) ind-


pendantes, alors N + N 0 est une v.a. normale N (1 + 2 , 12 + 22 ).
Cet exercice fournit donc un contre-exemple cette proprit quand les 2 v.a. sont d-

pendantes.

Exercice 4.4.24 (dicile) Soient a et b deux rels strictement positifs et s ]0, 1[.
1) Etablir la convergence de l'intgrale J = + 1
. Calculer sa valeur (indication calculer
R
0 eu +a
du
aJ ).

On considre une suite de variables alatoires (Yk )k1 dnies sur (, F, P), indpendantes et
suivant la mme loi exponentielle de paramtre b. On considre galement sur le mme espace
probabilis , une variable alatoire N indpendantes des Yk , suivant une loi gomtrique de
paramtre s.
On va tudier Z := max{Y1 , ..., YN }.
2) Soit j N et t > 0. Calculer la probabilit conditionnelle P[Z t|N = j]
?

3) En dduire la fonction de rpartition de Z et dterminer une densit.


4) Montrer que Z a une esprance et que l'on a
ln(s)
E[Z] = .
b(1 s)

Seul le rsultat de la question 4 est ncessaire pour traiter les questions suivantes :
4.4. EXERCICES 95

5) Soit g la fonction dnie sur [0, [ par g(0) = 1 et g(t) = tet


1et
pour t > 0.
 Montrer que g est continue et borne sur [0, +[.
 Etablir que pour tout t > 0 et n N, on a l'galit
n
X
(n+1)t
g(t) = g(t)e + te(k+1)t .
k=0

6) Justier la convergence
R de l'intgrale 0 te
+ (k+1)t
dt etP
la calculer.
R

7) Montrer alors que 0 g(t)dt est convergence et gale 1


k=1 k2
8) On rappelle que k=1 k2 = 6 . Montrer que la valeur moyenne de la quantit E[Z] sur ]0, 1[,
P 1 2

c'est dire 0 b(1s) ds, est gale 6b .


R 1 ln(s) 2

Exercice 4.4.25 On considre une fonction F dnie par

F (x) = a si x 1 ,

F (x) = bx + c si x ] 1, 1[ ,
F (x) = d si x1.
1) Dterminer les valeurs de a, b , c et d pour que F soit une fonction de rpartition d'une

variable alatoire densit.

2) Reprsenter graphiquement F.
3) Dterminer la densit de probabilit associe F.

Exercice 4.4.26 Soit f la fonction de R dans R+ dnie par

1
x [2, 4[ f (x) = ; f (x) = 0 x
/ [2, 4[ .
(1 x)2

1) Dterminer R pour que f soit une densit de probabilit.

2) Soit X f . Dterminer sa fonction de rpartition F .


une variable alatoire de densit

3) Calculer l'esprance E(X) et la variance V (X) de la variable alatoire X . On pourra utiliser

les galits

x = (x 1) + 1 , x2 = (x 1)2 + 2(x 1) + 1 .

Exercice 4.4.27 Soit X une variable alatoire relle de densit pX . Dterminer la densit de

la variable alatoire Y dans les cas suivants :


 Y = aX + b o a, b sont des nombres rels et a 6= 0 ;
 Y = X2 ;
 Y = exp(X).
Rsoudre cet exercice en utilisant les deux mthodes suivantes : le calcul de la fonction de

rpartition, l'utilisation du thorme de transfert.

Exercice 4.4.28 Soit X une variable alatoire de loi normale centre rduite.
R x2
 Dmontrer que pour tout k N, l'intgrale
0
xk e 2 dx est convergente. En dduire que la

variable alatoire X admet des moments de tout ordre.


x2
 Dmontrer que l'application x R 7 px (x) = 12 e 2 est bien une densit de probabilit.

 Montrer que X admet 0 comme esprance et 1 comme variance.


96 CHAPITRE 4. VARIABLES ALATOIRES DENSIT

 Montrer que la variable alatoire Y = X + m avec , m deux rels non-nuls suit une loi
normale N (m, ). En dduire que Y admet des moments de tout ordre et a pour esprance

m et variance 2.

Exercice 4.4.29 On considre une variable alatoire relle X dont la fonction de rpartition

FX (x) est donne par :

FX (x) = 0 si x<0
x x
FX (x) = 1 (1 + )e 2 si x0
2
1) FX (x) est-elle continue sur R ?

2) Dterminer limx+ FX (x). Interprtation ?

3) Calculer la densit de probabilit fX (x). Quel est le mode de X?


4) Calculer l'esprance et l'cart-type de X .

reprsentative de FX (x).

5) Calculer P (1 X < 2).

Exercice 4.4.30 Soit T une variable alatoire relle, de densit de probabilit :

fT (t) = 0 si t
/ [1, +1]

fT (t) = (1 t2 ) si t [1, +1]


1) Calculer fT (t).
et reprsenter graphiquement

2) Dterminer la fonction de rpartition FT (t) et tracer sa courbe reprsentative.


1
3) Calculer la probabilit de l'vnement |T | . Reprsenter cette probabilit sur chacun des
2
deux graphiques prcdents.

4) Calculer l'esprance et la variance de T. Quelle est sa mdiane ?

Exercice 4.4.31 Soit U une variable alatoire de loi uniforme sur [0, 1] ( sa densit de proba-

bilit, fU est dnie par fU (x) = 1[0,1] (x)). On pose

1
X = ln(U ) ;

FX est la fonction de rpartition de X et fX sa densit de probabilit.

1. Rappeler la fonction de rpartition FU (x) = P (U x), x R, de la variable alatoire U .


2. Dterminer la fonction de rpartition FX et la densit de probabilit de la variable alatoire
X.
3. Quelle est la loi de X ? Donner les valeurs de E(X) et V (X). On rappelle que
Z +
xn ex dx = n! .
0

Exercice 4.4.32 La dure en heures de fonctionnement d'un ordinateur est une variable ala-

toire continue de densit :


x
f : x 7 e 100 si x 0; 0 sinon.

1) Calculer .
2) Quelle est la probabilit que l'ordinateur fonctionne entre 50 et 100 heures ?
4.4. EXERCICES 97

3) Quelle est la probabilit qu'il fonctionne moins de 100 heures ?

Exercice 4.4.33 (Ingalit de Paley-Zigmund) Soit X une variable positive, non nulle,

ayant un moment d'ordre 2. Montrer

2
2 (E[X])
P (X E[X]) (1 )
E[X 2 ]

pour tout ]0, 1[.


98 CHAPITRE 4. VARIABLES ALATOIRES DENSIT
Chapitre 5

Thormes limites

Dans ce chapitre, on s'intresse au comportement asymptotique de suites de variables alatoires.

Deux thormes majeurs en probabilit sont au programme.

 La loi des grands nombres.

 Le thorme de la limite centrale (ou thorme central limite)

Il y a plusieurs versions du premier thorme et nous nous bornerons la version faible. Le

premier thorme est quali de "loi". Ce thorme fait la jonction entre la dnition axioma-

tique que l'on a donne et l'approche frquentiste, qui nous a servi de motivation : nous allons
dmontrer que si A est un vnement associ une exprience, alors :

nombre de fois que A se ralise


P(A)
nombre de fois que l'on fait l'exprience

Le deuxime thorme permet d'tudier les uctuations de ces quantits autour de la limite.

C'est un thorme central en statistiques. Nous considrons des variables alatoires soit dis-

crtes, soit densit.

5.1 Notions de convergence de suites alatoires

5.1.1 Convergence en probabilit et loi faible des grands nombres.


Dnition 5.1.1 Soit (Xn , n 1) une suite de v.a.r. et X une v.a.r. dnies sur le mme
espace probabilis. La suite (Xn , n 1) converge en probabilit si :
a > 0, P[|Xn X| > a] 0.
n

Cela signie donc que la probabilit que l'cart entre Xn et X dpasse a tend vers 0. Cette

convergence correspond une certaine distance sur l'espace L0 des variables alatoires, c'est

hors programme (voir par exemple Zuily-Quelec : Analyse pour l'agrgation p515)

Ingalits de Markov et de Tchebychev


Proposition 5.1.1 (Ingalit de Markov) Soit X une variable possdant un moment d'ordre
1 alors :
E[|X|]
a > 0, P[|X| > a]
a

99
100 CHAPITRE 5. THORMES LIMITES

Dmonstration. Soit A = {|X| > a}, on a E[1A ] = P(A). De plus


|X| = |X|1|X|a + |X|1|X|>a a1|X|>a
E[|X|]
d'o P[|X| > a] a
. 
Proposition 5.1.2 (Ingalit de Tchebychev) Soit X une variable possdant un moment
d'ordre 2, alors
V(X)
a > 0, P[|X E(X)| > a] .
a2
Dmonstration. C'est immdiat par l'ingalit de Markov applique Y = |X E(X)|2 . Vous

pouvez galement suivre le mme argument que prcdemment ( savoir faire).

Thorme 5.1.3 (Loi faible des grands nombres I) Soit (Xn , n 1) une suite de va-
riables alatoires relles dnies sur un mme espace (, F, P) indpendantes, de mme
Pn es-
prance et variance. On dnit la moyenne empirique des variables (Xn ) par Zn = n i=1 Xi .
1

Alors,
Zn E[X1 ] en probabilit.
n

Dmonstration. L'ingalit de Tchebyche nous donne


V Snn
      
Sn Sn Sn
P | E |> t = P | E[X]|> t .
n n n t2
D'autre part
Sn

V n 1
2
= V(Sn ).
t n2 t2
Par indpendance, cette dernire quantit est gale

n
1 X V(X)
2 2
V(Xi ) = .
n t i=1 nt2

Sn
On conclut que
n
converge en probabilit vers la constante E[X]. 
Dnition 5.1.2 Sous rserve d'existence des quantits manipules, on dit que la suite (Xn , n
1)
 converge en moyenne vers X si lim E (|Xn X|) = 0
n
 converge en moyenne quadratique vers X si lim E (|Xn X|2 ) = 0
n

Proposition 5.1.4 Si (Xn , n 1) converge en moyenne vers X , alors


E[Xn ] E[X]
n

Dmonstration. Par la seconde ingalit triangulaire


||E[Xn ]| |E[X]| E[|Xn X|]

La quantit droite tend vers 0 par dnition. 


On nonce alors le thorme suivant :
5.1. NOTIONS DE CONVERGENCE DE SUITES ALATOIRES 101

Thorme 5.1.5 (Convergence en moyenne quadratique) Soit (Xn , n 1) une suite de


variables alatoires relles indpendantes de mme loi etPde carr intgrable (i.e possdant un
moment d'ordre 2). La suite des moyennes empiriques n1 ni=1 Xi converge en moyenne quadra-
tique vers E[X1 ].
Dmonstration. On a :
n
! n
!
1X 1X
E || Xi E[X1 ]|2 =V Xi .
n i=1 n i=1

Or par indpendance, et car les variables on mme loi, on a :

n
! n
1X 1 X 1
V Xi = 2
V(Xi ) = V(X1 ).
n i=1 n i=1 n

On obtient la convergence souhaite. 


Proposition 5.1.6 La convergence en moyenne quadratique implique la convergence en moyenne,
qui implique la convergence en probabilit.
Dmonstration...

5.1.2 Convergence en loi


Dnition 5.1.3 Soit (Xn , n 1) une suite de variables alatoires. On note leur fonction
de rpartition Fn . Soit X une variable alatoire. de fonction de rpartition F . On dit que
(Xn , n 1) converge en loi vers X et on note
L
Xn X
n

Si pour tout x point de continuit de F on a


Fn (x) F (x).
n

Comme son nom l'indique, cette convergence est relative aux lois des variables et pas aux

variables elles-mmes contrairement la convergence en probabilit, on ne peut pas munir

L0 d'une distance pour cette convergence (on peut le faire pour les mesures de probabilits

associes). On admet la proposition suivante :

Proposition 5.1.7 (Convergence en loi et fonctions tests)


L
Xn X
n

si et seulement si, pour toute fonction continue borne de Rd dans R, on a


E[(Xn )] E[(X)].
n

La proposition nous permet de prendre des fonctions continues bornes la place d'indicatrice

de ferms. Sa dmonstration (que nous ne faisons pas) est base sur une approximation de

l'indicatrice par des fonctions rgulires. La dmonstration n'est pas triviale et n'est pas au

programme.
102 CHAPITRE 5. THORMES LIMITES

Proposition 5.1.8 On a l'implication suivante


Xn X en probabilit = Xn X en loi.
n n

La rciproque est fausse.


Dmonstration. On va utiliser la proposition prcdente. Soit (Xn , n 1) une suite de v.a

qui converge en probabilit vers X. Si est une fonction continue support compact, alors

elle est uniformment continue. Pour tout  > 0, il existe > 0 tel que si |x y| on a

|(x) (y)| . On a donc

|E[(Xn ) (X)]| E[|(Xn ) (X)|]


= E[|(Xn ) (X)|1{|Xn X|} ] + E[|(Xn ) (X)|1{|Xn X|>} ]
 + 2|||| P[|Xn X| > ].

On a donc

lim sup|E[(Xn ) (X)]| .


n

Ceci est vrai pour tout >0 donc

lim |E[(Xn ) (X)]| = 0,


n

on conclut par la proposition prcdente. 

5.1.3 Approximations de certaines lois et thorme central limite


Thorme 5.1.9 (Approximation loi hypergomtrique-loi binomiale) Soit (Xk , k
1) une suite de variables alatoires de loi hypergomtrique de paramtres (k, n, p). La suite
(Xk , k 1) converge en loi vers une variable X binomiale de paramtre (n, p)

Remarque 5.1.1 La loi hypergomtrique rsulte d'un tirage sans remise alors que la loi bi-
nomiale d'un tirage avec remise. A la limite, que l'on "remette les boules" dans l'urne ou pas,
on obtient la loi binomiale.

Dmonstration. Tout d'abord, la variable Xk prend ses valeurs dans [| max{0; nk(1p)}, min{n, kp}|].
On a de plus

kp k(1p)
 
j nj
P[Xk = j] = k

n
(kp)! k(1 p) n!(k n)!
=
j!(kp j)! (n j)!(k(1 p) n + j)! n!
k(1 p) (k n)!
 
n (kp)!
= .
j (kp j)! (k(1 p) n + j)! n!
q!
En remarquant que
(ql)!
= Alq q l , on obtient
q

n (N p)k (N (1 p))nk
   
n k
P[Xk = j] n
= p (1 p)nk .
k k N k
5.1. NOTIONS DE CONVERGENCE DE SUITES ALATOIRES 103

A partir d'un certain rang k , n k(1 p) 0 et kp n, Xk prend donc ses valeurs dans [|0, n|].
D'aprs l'quivalence obtenue, pour tout j [|0; n|], P[Xk = j] P[X = j], o X suit une
k
loi binomiale. On en dduit la convergence simple des Fk vers F sur l'ensemble des points de

continuit de F. En eet, si x [0, n] \ [|0, n|], alors x est un point de continuit de F et

[x] [x]
X X
Fk (x) = P[Xk x] = P[Xk = j] P[X = j] = F (x).
k
j=0 j=0

Pour conclure, il reste remarquer Fk (x) = F (x) = 0 si x < 0 et Fk (x) = F (x) = 1 si x > n. 
Thorme 5.1.10 (Approximation de la loi binomiale par la loi de Poisson) Soit (Xk , k
1) une suite de variables alatoires relles. Chaque Xk suit une loi binomiale de paramtres k, k .
Le rel est x. Alors la suite (Xk , k 1) converge en loi vers X une variable alatoire de
Poisson de paramtre .
dmonstration. Dans la preuve du thorme prcdent, on a vu qu'il tait en fait susant pour
les variables discrtes de montrer les convergences des probabilits P[Xk = j] vers P[X = j].
On a pour tout k j,
 
k j
P[Xk = j] = p (1 p)kj
j
   j  kj
k
= 1
j k k

j  k
j k! 1 k j
= 1 e .
j! (k j)! kj k k j!

La dernire ligne vient du fait que


 k

1 e
k k

( savoir dmontrer) et de
j
k! 1 k
1.
(k j)! kj k

Thorme 5.1.11 (Thorme central limite) Soit (Xn , n 1) une suite de variables ala-
toires relles indpendantes et de mme loi, admettant une esprance (note m) et une variance
(note 2 ). Soit
n
X
Sn = Xi .
i=1
On a E[Sn ] = nm et V (Sn ) = n 2 . La suite des variables alatoires centres rduites :
Sn nm
 
;n 1
n
converge en loi vers une loi gaussienne N (0, 1). Autrement dit :
b
Sn nm
 
1
Z
2 /2
P a b et dt
n n 2 a
104 CHAPITRE 5. THORMES LIMITES

Dmonstration. La preuve la plus ecace repose sur les fonctions caractristiques, outils que

nous ne dveloppons pas dans ce cours. Il existe des preuves lmentaires. Nous verrons en
1
problme, un cas particulier. Pour le cas gnral, voir par exemple l'article de Jrme Depauw

Le thorme central limite met en avant le caractre universel de la loi gaussienne, il justie

la modlisation d'une erreur alatoire par une loi normale. Souvent, une erreur alatoire est

modlise par l'addition d'un grands nombres d'vnements indpendants.

Proposition 5.1.12 (intervalle de conance) Supposons que V(X1 ) = 1, on dduit du tho-


rme prcdent le rsultat suivant : la probabilit que E[X1 ] se trouve dans l'intervalle alatoire
" n n
#
1X b 1X a
Xi , Xi
n i=1 n n i=1 n

est gale
b
1
Z
x2
P(a Z b) = e 2 dx.
2 a

Cette dernire vaut environ 0.95 pour b = a = 1.96. On dit alors que l'intervalle
" n n
#
1X 1.96 1 X 1.96
Xi , Xi +
n i=1 n n i=1 n

est un intervalle de probabilit (on dit aussi intervalle de conance) pour le paramtre de la
moyenne = E[X1 ] 95%

On termine ce chapitre en mentionnant la loi forte des grands nombres. Ce thorme dpasse

le cadre du cours mais est fondamental en thorie des probabilits.

5.1.4 Convergence presque-sre et loi forte des grands nombres


Dnition 5.1.4 On dit que la suite (Xn , n 1) converge presque-srement vers X , si
 
P { ; Xn () X()} = 1.
n

Cette notion de convergence est trs forte. Elle implique la convergence en probabilit (mais

n'est pas quivalente). Pour tablir la convergence presque-sre d'une suite de variables ala-

toires des informations prcises sur la  tra jectoire de la suite sont ncessaires (et rarement

accessibles). On peut maintenant noncer la loi forte des grands nombres.

Thorme 5.1.13 (Loi forte des grands nombres) Soit (Xn , n 1) une suite de variables
indpendantes avec un moment d'ordre 1, alors

Xi = E[X1 ] presque srement.


Pn
lim n1 i=1

1. disponible ici : www.lmpt.univ-tours.fr/depauw/TCLRMS_WEB.pdf.


5.2. EXERCICES. 105

La dmonstration de ce thorme requiert au minimum le lemme de Borel-Cantelli, directe-

ment issu des axiomes poss sur la probabilit P dans la dnition. Si on considre une suite

d'vnements (Ai , i 1) indpendants de mme probabilit p. La variable alatoire

n
1X
1A
n i=1 i

correspond la frquence d'apparition des vnements Ai pour i


E[X1 ] = p. La
entre 1 et n, et

loi faible des grands nombres nous dit que cette frquence converge en probabilit vers p. La loi

forte nous dit que cette convergence est presque-sre et nous permet de revenir la dnition

heuristique d'une probabilit en tant que limite d'une frquence d'apparition...

5.2 Exercices.

Exercice 5.2.1 Soit (Xn , n 1) une suite de variables


 alatoires de loi gomtrique sur N de
?

paramtre n avec R?+ . Montrer que la suite Xn


n n1
converge en loi vers une v.a.r suivant
la loi exponentielle de paramtre .

Exercice 5.2.2 Soit (Xn , n 1) une suite de v.a.r indpendantes identiquement distribues
de loi uniforme sur [0, 1]. On note mn = min{X1 , ..., Xn } et Mn = max{X1 , ..., Xn }, montrer
que (mn , n 1) converge en probabilit vers 0 et (Mn , n 1) vers 1.

Exercice 5.2.3 Soit (Xn , n 1) une suite de v.a.r telle que E[Xn ] n
a et V(Xn ) 0,
montrer que Xn a en probabilit.
n

Exercice 5.2.4 Soit f une fonction continue borne de R dans R. Montrer que
 k
n (n) k
X
lim e f = f ().
n
k=0
k! n

Indication : utiliser une suite de variables de Poisson de paramtre , et utiliser la loi faible
des grands nombres. La loi forte est hors programme.

Exercice 5.2.5 Soit (Xn )n1 une suite de v.a. i.i.d. suivant la loi normale N (1, 3). Montrer
que la suite de terme gnral
n
1X
Xi eXi
n i=1

converge en probabilits et dterminer sa limite.

Exercice 5.2.6 1) Soit f une fonction uniformment continue de Rd dans R et (Xn , n N)


une suite qui converge en probabilit vers X , alors (f (Xn ), n 0) converge en probabilit
vers f (X).
2) Montrer que si (Xn , n 0) et (Yn , n 0) convergent respectivement vers X et Y en proba-
bilit alors (Xn + Yn , n 1) converge vers X + Y en probabilit.
106 CHAPITRE 5. THORMES LIMITES

3) Soit (Xn , n 1) une suite de v.a.r. indpendantes de mme loi telle que E[|X1 |] < .
Vrier que P P n n1
Xn i=1 Xi n 1 i=1 Xi
= ,
n n n n1
en dduire l'aide de la question 2), que Xn
n
converge en probabilit vers 0.

Exercice 5.2.7 Soient {Xn }n1 une suite de variables alatoires i.i.d telles que X1 P(1).
Pour tout entier naturel non nul n on pose Sn = n
Xk .
P
k=1
n o
1. Dterminer la limite en loi de n n
S
n
.
n1
2. Montrer que
n
X nk 1
en .
k=0
k! n+ 2

Exercice 5.2.8 (Une loi faible des grands nombres pour des variables non indpendantes)
Soit (Xn , n 1) une suite de v.a.r.Pindpendantes de mme loi admettant un moment d'ordre
2. On pose Yn = Xn Xn+1 et Sn = nk=1 Yk .
1) Les variables Yn sont-elles indpendantes ?
2) Montrer que pour tout  > 0,
 
Sn 1
P | E[Y1 ]|>  2 2 V (Sn )
n n

3) En dduire que Sn
n
converge en probabilit vers E[X1 ]2 .

Exercice 5.2.9 (Ingalit de Hlder) Soient p et q deux rels positifs tels que
1
p
+ 1q = 1.
Soient X et Y deux variables alatoires possdant respectivement un moment d'ordre p et un

moment d'ordre q. L'ingalit d'Hlder que l'on va dmontrer est

1 1
E[|XY |] (E[|X|p ]) p (E[|Y |q ]) q

1) Soient x, y deux rels positifs. En utilisant la concavit de ln, c'est--dire pour tout ]0, 1[

ln(x + (1 )y) ln(x) + (1 ) ln(y),

montrer l'ingalit (appele ingalit de Young)

xp y q
xy + .
p q
X Y
2) En posant X = E[|X|p ]1/p
et Y = E[|Y |q ]1/q
, montrer l'ingalit d'Hlder.

3) On suppose que X a un moment d'ordre s. Soit 0 r s. En appliquant l'ingalit d'Hlder


p
aux variables |X|r et 1 avec p = rs , et q = p1 son conjugu, montrer

E[|X|r ] E[|X|s ]1/p .

En dduire que X a un moment d'ordre r pour tout r s.


5.2. EXERCICES. 107

Exercice 5.2.10 (Xn , n 1) une suite


[Loi forte des grands nombres] Soit de variables ala-
4
toires indpendantes telles que pour tout k 1, E[Xk ] = 0 et E[Xk ] K o K est un rel
Pn
positif indpendant de k . On pose Sn =
k=1 Xk , on va montrer que

Sn
0 p.s.
n n
et " 4 #
Sn
E 0.
n n

1) En utilisant le rsultat de la dernire question de l'exercice prcdent. Justier que E[Xi2 ],


E[Xi3 ] ont un sens. Montrer que

" #
X X
E[Sn4 ] = E Xk4 + 6 Xi2 Xj2 .
k1 i<j

2) Montrer que E[Xi2 ]2 E[Xi4 ], en dduire

E[Sn4 ] nK + 3n(n 1)K 3Kn2 .

3) Montrer que
" #
X X 1
E (Sn /n)4 3K .
n1 n1
n2
En dduire que
" 4 #
Sn
E 0.
n n

4
P 
4) Montrer que E n1 (Sn /n) < implique que

P[Sn /n 0] = 1.
n

Exercice 5.2.11 Soient (Xi ) une suite de variables alatoires indpendantes de mme loi de

Poisson de paramtre 1.
Pn
1) Quelle est la loi de Sn = i=1 Xi ?
Sn E[Sn ]
?
2) On pose Sn = . En utilisant le thorme central limite, dterminer
V ar(Sn )

lim P(Sn? 0).


nk
Pn
3) En dduire un quivalent de
k=0 k! .

Exercice 5.2.12 On dispose d'un d. On cherche savoir s'il est truqu ou non. Pour cela on

va tudier la dirence entre la frquence d'apparition de 6 lors de n lancers de d et 1/6. Soit

Nn le nombre de 6 obtenus parmi n lancers. Dterminer la loi de Nn . On dnit fn par :


Nn
fn = .
n
Dterminer l'esprance et la variance de fn
108 CHAPITRE 5. THORMES LIMITES

1 En utilisant l'ingalit de Bienaym-Tchebychev, montrer que

 
1 5
P |Fn | 0.01
6 36n 0.012

2) Estimer avec l'ingalit prcdente, le nombre de lancers que l'on doit eectuer pour qu'au

cours de ces lancers la frquence d'apparition de 6 dire de 1/6 d'au plus 1/100 avec un

risque d'erreur infrieur 5/100 ?

3) Estimer ce nombre avec le thorme central limite.


Chapitre 6

Elments de statistiques

Nous nous concentrons sur la statistique infrentielle. La statistique descriptive est galement

au programme et fait rgulirement l'objet de questions l'oral. Le lecteur pourra par exemple

consulter le chapitre 5 du livre de Saporta Probabilits, analyse des donnes et Statistique.

6.1 Estimation

L'objectif de la statistique infrentielle est d'estimer les paramtres d'une loi de probabilit

rgissant une exprience alatoire. Il s'agit de mettre en place les outils pour estimer des para-

mtres partir des ralisations d'une exprience. Les thormes limites vus prcdemment sont

fondamentaux dans la thorie de l'estimation. Il y a deux types d'estimation, l'estimation ponc-

tuelle : on approche directement le paramtre en donnant une valeur numrique et l'estimation

par intervalle : la valeur recherche est encadre par des bornes alatoires avec une probabilit

donne (par exemple 95%). Soit X une variable alatoire et X1 , X2 , ..., Xn n variables alatoires
de mme loi que X. On cherche partir des valeurs prises par ces n variables alatoires avoir

des renseignements sur la loi de X. Si par exemple :

1) la variable alatoire X suit une loi de Poisson, comment peut on estimer son paramtre

partir des n observations ?

2) la variable alatoire X suit une loi normale, comment peut on estimer ses paramtres m et

partir des n observations ?

3) la variable alatoire est inconnue mais possde une esprance, peut on estimer E[X] ?
Soit l'ensemble des paramtres d'une loi. Par exemple, = R+ pour la loi exponentielle, ou

= [0, 1] pour la loi de Bernoulli.

Dnition 6.1.1 Soit X une variable alatoire de loi paramtres dans . Un chantillon de
taille n de X est un vecteur alatoire (X1 , ..., Xn ) dont les composantes ont mme loi que X .
Etant donn un chantillon de taille n, on appelle estimateur de , une variable alatoire de la
forme
Tn = f (X1 , ..., Xn )
La variable alatoire Tn est un estimateur convergent de si
, > 0, P (|Tn | > ) 0.
n

On dnit maintenant la notion de biais d'un estimateur (au programme en BTS).

Dnition 6.1.2 (Biais d'un estimateur) Soit Tn un estimateur du paramtre ,

109
110 CHAPITRE 6. ELMENTS DE STATISTIQUES

 Si pour tout , E[Tn ] = , l'estimateur est dit sans biais.

 Si pour tout , E[Tn ] , l'estimateur est dit asymptotiquement sans biais.


n

Remarque 6.1.1 Il faut noter que la proprit d'tre non biais n'est pas indispensable. Il
arrive mme que certains estimateurs biaiss donnent de meilleurs rsultats !

Proposition 6.1.1 Tout estimateur asymptotiquement sans biais dont la variance tend vers 0
est convergent.

Dmonstration. Utiliser l'ingalit de Markov.

Dnition 6.1.3 Supposons que Tn a un moment d'ordre 2. Le risque quadratique de l'esti-


mateur Tn est la quantit
RTn () := E[(Tn )2 ]

Il mesure l'cart en moyenne quadratique entre et Tn . La notion de risque quadratique permet


de comparer deux estimateurs : l'estimateur Sn est meilleur que Tn si

, RSn () RTn ().

Dnition 6.1.4  Soit (X1 , ..., Xn ) un chantillon de taille n de X .


 La moyenne empirique est
n
1X
X n := Xi .
n i=1
 La variance empirique est
n
1X
Sn2 := (Xi X n )2 .
n i=1
 La variance empirique corrige est
n
1 X
2n := (Xi X n )2 .
n 1 i=1

Proposition 6.1.2 Soit X une variable alatoire de moyenne m et d'cart-type , alors


2
E[X n ] = m, V(X n ) =
n
n1 2
E[Sn2 ] = , E[2n ] = 2 .
n

Dmonstration. Exercice.
Proposition 6.1.3 Soit X une variable alatoire de moyenne m et de variance 2 .
6.1. ESTIMATION 111

1) La moyenne empirique X n est un estimateur sans biais et convergent de m. Si on se donne


une ralisation , une estimation ponctuelle de la moyenne est donne par
n
1X
x = xi
n i=1

o xi = Xi () sont les donnes.


2) La variance empirique n est un estimateur sans biais de la variance. Si on se donne une
ralisation , une estimation ponctuelle de la variance est donne par
n
1X
(xi x)2
n i=1

o xi = Xi () sont les donnes.


3) La variance empirique corrige n est un estimateur sans biais de la variance. Si on se
donne une ralisation , une estimation ponctuelle de la variance est donne par
n
1 X
(xi x)2
n 1 i=1

o xi = Xi () sont les donnes.


4) A ces trois estimateurs classiques, on peut rajouter celui du moment d'ordre r :
n
1X r
mr := x.
n i=1 i

Dmonstration.
1) Laisse au lecteur (applique la loi faible des grands nombres).

2) Laisse au lecteur.

3) Les variables Xi tant indpendantes de mme loi, nous avons

" n
#
1 X n
E[n ] = E (Xk Xn )2 = E[(X1 Xn )2 ].
n 1 k=1 n1

Nous avons
!2
n n
2 X 1 X
E[(X1 Xn )2 ] = E[X12 ] E[X1 Xi ] + E Xi
n i=1
n2 i=1
n n X
n
2 X 1 X
= E[X12 ] E[X1 Xi ] + E[Xi Xj ].
n i=1
n2 i=1 j=1

Les variables alatoires (Xi ) tant indpendantes et identiquement distribues nous avons :

E[Xi Xj ] = E[X12 ] si i = j
E[Xi Xj ] = E[X1 ]2 si i 6= j.
112 CHAPITRE 6. ELMENTS DE STATISTIQUES

On a donc

n n X n
2X 2  1 X
E[X1 Xi ] = E[X12 ] + (n 1)E[X1 ]2 2 E[Xi Xj ]
n i=1 n n i=1 j=1
n
1 X 2 2

= E[X 1 ] + (n 1)E[X 1 ]
n2 i=1
1
E[X12 ] + (n 1)E[X1 ]2 .

=
n
On en dduit :

1  n1
E[(X1 Xn )2 ] = E[X12 ] E[X12 ] + (n 1)E[X1 ]2 = (E[X12 ] E[X1 ]2 ).
n n
Finalement E[2n ] = EX12 ] E[X1 ]2 = 2 . 

Une mthode classique pour construire un estimateur est la mthode des moments base sur

une application directe de la loi des grands nombres. La mthode des moments consiste expri-

mer en termes des moments E[X], E[X 2 ], ... puis de remplacer chaque moment par le moment
empirique lui correspondant. Cela fournit un estimateur convergent de . L'expression peut
2 2 2
aussi faire intervenir que l'on remplace alors par Sn ou n .

En pratique, on calcule E[X], E[X 2 ] etc  jusqu'  obtenir l'aide des moments une expression
2
inversible de . On inverse alors cette expression, ce qui donne en fonction de E[X], E[X ], ...
2 2 2
et on remplace E[X] par Xn , E[X ] par m2 (ou par n + Xn ) etc.

Exemple 6.1.1 Soit X une variable alatoire prenant les valeurs {0, 1, 2} avec les probabilits
P[X = 0] = 1 p1 p2 , P[X = 1] = p1 , P[X = 2] = p2 ;

alors
1 2 2

p2 = S + Xn Xn
2 n
est un estimateur sans biais du paramtre p2 .

Un estimateur classique est l 'estimateur du maximum de vraisemblance (E.M.V). On sup-


pose que la loi a pour paramtre R. Soit (X1 , ..., Xn ) un chantillon. Notons L(x1 , ..., xn ; )
la densit de (X1 , ...Xn ). Lorsque (x1 , ..., xn ) est x, 7 L(x1 , ..., xn , ) est appele vraisem-
blance de .

Dnition 6.1.5 On appelle estimateur du maximum de vraisemblance la valeur de qui rend


maximale L(x1 , ..., xn , ).

Puisque le logarithme est une fonction strictement croissante, on peut chercher maximiser la
fonction 7 ln L(x1 , ..., xn , ). En pratique, un E.M.V est une solution de l'quation de la
vraisemblance :

ln L(X, ) = 0.

6.1. ESTIMATION 113

Intervalles de conance et lois usuelles en statistiques


Nous avons dj brivement introduit la notion d'intervalle de conance dans la proposition

5.1.12. Au lieu de donner une valeur (estimation ponctuelle) du paramtre on cherche deux

bornes B1 et B2 entre lesquelles on espre que se trouve la vraie valeur du paramtre. Les

bornes sont des fonctions des variables alatoires X1 , ..., Xn .


Dnition 6.1.6  Soit B1 = f1 (X1 , ..., Xn ) et B2 = f2 (X1 , ..., Xn ). On appelle intervalle de
probabilit pour le paramtre le couple (B1 , B2 ) et P(B1 B2 ) est la probabilit de
recouvrement (appele plus souvent niveau de conance).

Si cette probabilit est gale , [B1 , B2 ] est appel intervalle de probabilit 1 . En gnral
on choisit une valeur faible pour et on construit l'intervalle de sorte que la probabilit de
recouvrement soit gale 1 .

 On appelle intervalle de conance 1 (not souvent IC1 () pour toute ralisation


[b1 , b2 ] d'un intervalle de probabilit de recouvrement gale 1 [B1 , B2 ].
Pour comprendre le principe de construction d'un intervalle de conance nous allons nous

concentrer dans un premier temps sur le cas d'un intervalle de conance pour la moyenne dans

le cas gaussien.

Soit (X1 , ..., Xn ) un chantillon de loi normale N (, 2 ). On suppose connu le paramtre


estimer est . Comme l'chantillon est gaussien, Xn suit une loi normale de paramtres

(, 2 /n). Pour pouvoir utiliser les tables gaussiennes, on dnit T = Xs/n


n
qui suit une loi

gaussienne standard. La variable T est appele statistique pivotale, elle dpend de X1 , ..., Xn

et = mais sa loi est indpendante de . Cette statistique est utile car elle va permettre

d'encadrer le paramtre . Dans un premier temps, on observe que

P[q/2 < T < q1/2 ] = 1 ,


o qp dsigne le quantile d'ordre p pour la loi normale N (0, 1). Comme cette loi est symtrique,
on a qp = q1p et on peut donc crire que

Xn
 
P q1/2 n q1/2 = 1 .

En isolant pour l'encadrer, on obtient
 

P Xn q1/2 Xn + q1/2 = 1 .
n n
On pose

B1 = Xn q1/2 B2 = Xn + q1/2
et
n n
l'intervalle [B1 , B2 ] est un intervalle de probabilit 1 pour la moyenne . Il est important

de comprendre que ce sont B1 et B2 qui sont alatoires et non pas . En pratique on utilise les

ralisations des variables alatoires, un intervalle de conance est une ralisation [b1 , b2 ].

Remarque 6.1.2 La largeur de l'intervalle de conance est une fonction dcroissante de et


de n.
114 CHAPITRE 6. ELMENTS DE STATISTIQUES

Deux lois utiles : la loi du khi-deux et la loi de Student


Dnition 6.1.7 Soit d 1. Par P dnition, la loi du Khi-deux d degrs de libert est la
loi de la variable alatoire Yd = di=1 Ni2 o N1 , ..., Nd sont d variables gaussiennes centres
rduites.

Proposition 6.1.4 Soit Yd une variable alatoire qui suit une loi du khi-deux d degrs de
libert, alors
 sa densit est donne par fYd (x) = kd xd/21 ex/2 1[0,[ (x) avec kd = 2d/2 (d/2)
1

 Yd est intgrable
et E[Y
d] = d
 Si d 30, P[ Yd 2d 1 I] P[N I] o N est une Gaussienne standard.

Dnitionq6.1.8 On dit que la variable alatoire Td suit la loi de Student d degrs de libert
si Td = N Ydd o N et Yd sont deux variables indpendantes de loi respective la loi normale
centre rduite, et la loi du khi-deux d degrs de libert.

Proposition 6.1.5 Soit Td une variable alatoire suivant la loi de Student. Sa densit est
d+1
fTd (x) = cd (1 + x2 /d) 2 ,

o
( d+1 )
cd = 2
d
2
ex /2
pTd (x) .
d 2
Dans les applications, si d 30 alors P[Td I] P[N I].

Intervalle de conance pour une moyenne et une variance.


Soient X1 , ..., Xn n N (, 2 ).
variables alatoires gaussiennes, indpendantes et de mme loi

Deux cas sont envisager pour la dtermination d'un intervalle de conance : selon que soit

connu ou non. Dans le premier cas, on a montr prcdemment que B1 = Xn q1/2 et
n

B2 = Xn + u1/2 n forment les bornes d'un intervalle de probabilit 1 . Dans le seoond
cas, o est inconnu. On a que

n
(n 1)2n 1 X
= 2 (Xi Xn )2
2 i=1


suit une loi du khi-deux n1 degrs de libert. On dnit T = n (Xnn . On a


n(Xn )/ N
T =q =
S2
(n 1) 2 (n1) K

avec N de loi N (0, 1) et K indpendante de loi du khi-deux n 1 degrs de libert. T est une

statistique pivotale puisque sa loi est indpendante des paramtres. On en dduit un intervalle
6.2. EXERCICES 115

de probabilit 1
pour car on a P[tn1;/2 < T < tn1;1/2 ] = 1 , o tn1;/2 est le

quantile d'ordre pour la loi de Student n 1 degrs de libert. On a donc
2

Xn
P[tn1:/2 < n < tn1,1/2 ] = 1 ,
n
en isolant et en remarquant que tn1;/2 = tn1;1/2 car la loi de Student est symtrique

par rapport 0, on obtient

 
n n
P Xn tn1;1/2 < < Xn + tn1;1/2 = 1 ;
n n

ce qui permet de conclure.

Nous terminons par la construction d'un intervalle de conance pour une variance. La statistique

pivotale utilise est

(n 1)S 2
T = .
2
Elle suit une loi du Khi-deux n 1 degrs de libert. Elle est comprise entre les quantiles
rn1,/2 et rn1,1/2 1 , ce qui permet d'obtenir un intervalle de conance
avec probabilit

1 pour 2 :
(n 1)2n (n 1)2n
 
2
IC1 ( ) = ; .
rn1,1/2 rn1,/2
Nous nous sommes limits aux variables alatoires gaussiennes. Cependant en utilisant le tho-

rme central limite, si nos variables possdent une variance, on peut approcher des intervalles

de conance par ceux dtermins prcdemment. Evidemment il s'agira d'approximation et le

niveau de conance ne sera pas exactement respect mais ces approximation sont en gnral

trs bonnes pour n 30.

6.2 Exercices

Exercice 6.2.1 (#) On a relev le nombre de dents caries chez 100 enfants gs de 7 ans

dans une rgion de France. Les rsultats obtenus sont les suivants :

Nb de dents caries 0 1 2 3 4 5 6 7
Nb d'enfants 30 34 14 10 4 5 1 2

Calculer la moyenne empirique et la variance empirique du nombre de dents caries.

Solution. La moyenne empirique est


30 0 + 34 1 + + 2 7
X= = 1, 53.
100
et la variance empirique est

n
2 1 X 1 
(Xk X)2 = 30 (0 X)2 + 34 (1 X)2 + + 2 (7 X)2 = 2, 36.

S =
n 1 k=1 99
116 CHAPITRE 6. ELMENTS DE STATISTIQUES

Exercice 6.2.2 (#) Un statisticien observe le nombre d'ampoules dfaillantes la sortie d'une

chane de production. Il veut estimer la probabilit p qu'une ampoule soit dfaillante. Pour cela,
il compte le nombre de Nn , gaux zero. Il propose d'estimer par : pn = Nn /n
1. Montrer que pn est un estimateur sans biais de p.
2. Calculer son risque quadratique.

Solution. On a Nn = X1 + + Xn o Xi = 1 si l'ampoule i est dfaillante et 0 sinon. Les

v.a. sont donc toutes de loi de Bernoulli de paramtre p. On suppose de plus qu'elles sont

indpendantes.

1. Si les Xi sont i.i.d., Nn est une variable binomiale de paramtres p et n. On a alors


Nn 1 np
E = E[Nn ] = = p
n n n
et l'estimateur est bien sans biais.

2. Le risque quadratique est par dnition

" 2 #
Nn 1  2 1 np(1 p) p(1 p)
E (pn p)2 = E
 
p = 2
E (Nn np) = 2 V(Nn ) = 2
= .
n n n n n

Exercice 6.2.3 (#) Considrons un chantillon de taille 1 issu d'une population suivant une

loi de Poisson de paramtre > 0 (ceci revient donc simplement considrer une variable

alatoire X avec X P()).


1. Montrer que l'estimateur (X) = 1[X=0] est non biais pour e .
2. On cherche prsent estimer e3 . Que pouvez-vous dire sur la statistique (2)X ?
3. Proposer en toute gnralit un estimateur sans biais pour en .

Solution.
0
1. On a E[(X)] = E[1{X=0} ] = P(X = 0) = e 0! = e .
2. De mme,
 X k
E (2)X = (2)k e = e e2 = e3 .

k0
k!

3. On vrie que (1 n)X est un estimateur sans biais de en .

Exercice 6.2.4 (#) On considre un chantillon (Xi )1in avec n 2 le modle avec PK et
tel que les v.a. sont i.i.d. de loi uniforme sur {1, . . . , K}. Le but de cet exercice est de proposer
deux estimateurs du paramtre K > 0.
1. A l'aide de l'esprance de X PK , proposer un estimateur K de K. Dterminer son

risque quadratique RK (K, K).


2. (a) Montrer que l'E.M.V. est K = max(X1 , . . . , Xn ).
(b) Montrer que sous PK , K vrie

kn
P (K k) =
Kn
6.2. EXERCICES 117

(c) Soit X une variable alatoire valeurs dans {1, . . . , K}. Montrer que

K1
X
E[X] = P (X > k).
k=0

(d) En deduire le biais de K .

Solution.
1. La moyenne empirique est un estimateur sans biais de l'esprance des (Xi )1in qui sont
uniformes sur {1, . . . , K}. Or, cette esprance vaut E[X1 ] = (K + 1)/2. On propose donc
comme estimateur de K :

n
2X
K = 2X 1 = Xi 1 .
n i=1

Cet estimateur est sans biais (puisque la moyenne empirique l'est) donc le risque quadra-

tique de K est sa variance :

n
! n
!
2X 4 X 4
RK (K, K) = V Xi 1 = 2 V Xi = V (X1 )
n i=1 n i=1
n

car les Xi sont indpendantes et de mme loi. De plus,

K
2 1 X 2 1 K(K + 1)(2K + 1) (K + 1)(2K + 1)
E[X ] = k = =
K k=1 K 6 6

et donc
2
K2 1

(K + 1)(2K + 1) K +1
V(X) = =
6 2 12
et le risque quadratique est

K2 1
RK (K, K) = .
3n
2. (a) On a


1/K n si i, ki K
L(K, k1 , . . . , kn ) = P(X1 = k1 )P(X2 = k2 ) P(Xn = kn ) =
0 sinon.

 
Or, l'assertion i, ki K est quivalente max(k1 , k2 , . . . , kn ) K .
La fonction L est donc nulle jusqu' max(k1 , . . . , kn ) puis est dcroissante et stricte-

ment positive.

Son maximum est donc atteint en max(k1 , . . . , kn ) et l'E.M.V. est K = max(X1 , . . . , Xn ) .


(b)

kn
P(K k) = P(max(X1 , . . . , Xn ) k) = P(X1 k, . . . , Xn k) = P(X1 k)n =
Kn
car les variables sont indpendantes et de loi uniforme.
118 CHAPITRE 6. ELMENTS DE STATISTIQUES

3. On a
K1
X K1
X K
X K1
X K1
X
P(X > k) = P(X = j) = P(X = j + 1)
k=0 k=0 j=k+1 k=0 j=k

En inversant les 2 signes de sommation, on a

K1 K1 j K1 j K1
X XX X X X
P(X > k) = P(X = j+1) = P(X = j+1) 1= P(X = j+1)(j+1) = E[X].
k=0 j=0 k=0 j=0 k=0 j=0

4. En utilisant iii) et ii), le biais de K est

K1 K1 K1
X X 1 X n
E[K] K = P(K > k) K = (1 P(K k)) K = k .
k=0 k=0
K n k=0

Le biais est donc strictement positif : K n'est pas sans biais.

Exercice 6.2.5 (#) Pour n = 1, on considre le modle des lois binomiales sur l'espace

X = {0, . . . , m}, m N et

 
m x
f (x, ) = (1 )mx , x X ,
x

avec le paramtre [0, 1].


1. Montrer qu'une fonction g() admet un estimateur sans biais si et seulement si g est un

polynme de degr < m, et dans ce cas un tel estimateur est unique.

2. Soit g() = 2 . Montrer que l'estimateur sans biais associ s'annule en x=0 et x = 1.

Solution On considre une variable X1 de loi binomiale de paramtres m et avec estimer.

1. Dire que g() admet un estimateur sans biais signie qu'il existe une fonction :
{0, . . . , m} R telle que
E [(X1 )] = g().
Or, comme X1 est une v.a. binomiale de paramtres m et , on a

m  
X m k
E [(X1 )] = (k) (1 )mk
k=0
k

  m
m k X
et donc s'il existe telle qu'on ait l'galit (k) (1 )mk = g(), g est
k=0
k
ncessairement un polynme de degr strictement infrieur m. La rciproque et l'unicit
k mk
dcoulent du fait que la famille de polynmes (X (1 X) )0km est une base de
l'espace vectoriel des polynmes de degrs infrieurs ou gaux m (c'est une famille libre

et elle a m + 1 lments).
6.2. EXERCICES 119

m  
X m k
2. D'aprs ce qui prcde, on doit avoir (k) (1 )mk = 2 . En prenant = 0,
k=0
k
on a (0) = 0. On a alors l'galit :

m   m  
2
X m k mk
X m k1
= (k) (1 ) = (k) (1 )mk .
k=1
k k=1
k
Pm m
 k1
Comme 0 est racine double du polynme k=1 (k) k
(1 )mk , on doit avoir

m  
X m k1
0= (k) 0 (1 0)mk = (1).
k=1
k
120 CHAPITRE 6. ELMENTS DE STATISTIQUES
Chapitre 7

Sujets des examens passs et problmes

Epreuve de probabilits

Calculs d'intgrales et notion d'entropie


Exercice 7.0.6 Soit (, F, P) un espace probabilis.

1) Supposons = {1, ..., n}. On dnit l'entropie de la probabilit P par

n
X
H(P) = pk ln(pk )
k=1

o pk = P({k}). Avec pour convention 0 ln(0) = 0.

a) Montrer que H est valeurs dans R+ et trouver P telle que H(P) = 0.


b) Calculer H(P) lorsque P est la loi uniforme sur {1, ..., n}.
c) On va montrer que la probabilit uniforme ralise le maximum de l'entropie sur =
{1, ..., n}.

On rappelle que la fonction


Pn ln est concave. On admet que pour tous k rels positifs

tels que
k=1 k = 1 et tous x1 , ..., xk positifs :
n n
!
X X
k ln(xk ) ln k xk .
k=1 k=1

Soit (qk , k [|1, n|]) et (pk , k [|1, n|]) deux probabilits sur {1, ..., n}. Dmontrer l'aide

de l'ingalit ci-dessus que


n
X n
X
qk ln(pk ) qk ln(qk ).
k=1 k=1
Conclure avec pk = 1/n pour tout k {1, ...n}.

2) a) Rappeler la dnition d'une densit de probabilit sur R.

Soit f une densit de probabilit sur R. On note


Z
Hf = f (x) ln(f (x))dx,
R

121
122 CHAPITRE 7. SUJETS DES EXAMENS PASSS ET PROBLMES

lorsque cette intgrale a un sens et Hf = sinon. La quantit Hf est appele entropie de

la loi de densit f.

b) Calculer l'entropie de la loi normale N (0, 1). On rappelle que la densit de la loi normale
2
centre rduite est x 7 1 ex /2 , x variant dans R.
2

c) Soient f et g deux fonctions strictement positives. Ecrire (et justier) l'galit

g(x) g(x) f (x)


=1+ .
f (x) f (x)
En utilisant l'ingalit ln(1 + z) z pour tout z > 1, tablir que si f, g sont des densits

Z
ln(g(x)/f (x))f (x)dx 0.
R

d) En prenant dans l'ingalit ci-dessus g la densit de la loi normale, dmontrer que la


R
loi normale ralise le maximum d'entropie sur les densits vriant
R
xf (x)dx = 0 et
2
R
R
x f (x)dx = 1.

En thermodynamique, l'entropie mesure l'tat de dsorganisation interne d'un systme. Boltz-


mann (1870) a montr qu'un systme isol volue spontanment vers l'tat le plus dsordonn.
La thorie de l'information a t introduite par Shannon (1948) qui associe entropie et in-
formation manquante sur le systme : toute volution spontane d'un systme isol se fait
avec perte d'information sur le systme. De faon intuitive, les lois gaussiennes retent
un manque d'information. Dans une certaine mesure, cela justie le choix de cette fonction
comme "fonction d'erreur".

Calculs binomiaux
On considre un serveur informatique consommant 500 watts. Pour amliorer la sret de

fonctionnement d'un serveur informatique, on envisage d'introduire de la redondance (*), c'est-

-dire d'quiper le serveur de plusieurs exemplaires d'un mme composant. On tudie deux

congurations :

(I) Redondance des alimentations : On met 3 alimentations de 300 watts chacune.


(II) Redondance des disques durs : Le serveur est congur en RAID5 (**), c'est--dire
qu'il dispose de 4 disques durs et continue fonctionner avec un disque dur en panne.

On suppose que la probabilit qu'une alimentation tombe en panne est p et celle d'un disque

dur est q. On suppose que tous les composants sont indpendants.

1) Soit un serveur avec la conguration (I)

a) Combien d'alimentations peuvent tomber en panne sans que le serveur ne tombe en

panne ?

b) Pour tout i {1, 2, 3}, on dnit Ai la variable alatoire qui vaut 1 si la i-me alimentation
tombe en panne, 0 sinon. Quelle est la loi de Ai ?
123

c) On note NA le nombre d'alimentations en panne. Exprimer NA en fonction de A1 , A2 , A3 .


Quelle est la loi de Na ?
d) On suppose qu'aucun composant dirent des alimentations ne peut tomber en panne.

Justier que la probabilit de panne (note Pa (p)) est donne par P(Na 2) et montrer

que

Pa (p) = p2 (3 2p).
2) Soit un serveur en conguration (II).

a) Soit ND le nombre de disques durs en panne. Dterminer la loi de ND (vous pourrez

introduire des variables alatoires de Bernoulli indpendantes de paramtre q ).

b) On suppose qu'aucun composant dirent des disques durs ne peut tomber en panne.

Montrer que la probabilit que le serveur tombe en panne (note PD (q)) vrie

PD (q) = q 2 (3q 2 8q + 6).

3) On suppose p = q. En tudiant le signe de la fonction p 7 PA (p) PD (p), dcider quelle

conguration parmi (I) et (II) est la plus able.

Tranport d'information : loi binomiale/loi de Poisson


Soit n N? . On considre un systme comportant n transmetteurs indpendants : I1 , ..., In .
On suppose que I1 0. Il communique avec I2 et lui donne l'information qu'il
porte l'information

porte (c'est--dire 0) avec probabilit p ]0, 1[ ou l'information contraire (c'est--dire 1) avec

probabilit 1 p. Soit 2 k n, chaque Ik reoit ainsi une information de Ik1 et :

I1 I2 In1 In
(avec proba p)
0 0
0

1 1
(avec proba 1 p)

Figure 7.1  Modle de transmission

 transmet cette information Ik+1 , avec probabilit p


ou

 transmet l'information contraire Ik+1 , avec probabilit 1p (on dira qu'il ment ).

On rcupre l'information la sortie de In .

1) On pose

Tn := min{k {1, ..., n}; Ik ment } et Tn = 0 si aucun transmetteur ne ment.

Quelles sont les valeurs prises par Tn ? Dterminer la loi de Tn .


124 CHAPITRE 7. SUJETS DES EXAMENS PASSS ET PROBLMES

Les questions qui suivent sont indpendantes de la question 1. On s'intresse maintenant la

probabilit que l'information reue concide avec l'information de dpart (c'est--dire 0).
Premire mthode
2) Soit un la probabilit que In dlivre la bonne information. Enoncer la formule des probabilits
totales et prouver la relation de rcurrence suivante

un = pun1 + (1 p)(1 un1 ).


1+(2p1)n
3) Dmontrer par rcurrence que pour tout n 1, un = 2
et tudier la limite de cette

suite lorsque n .

Deuxime mthode
4) Soit x, y R+ . Rappeler la formule du binme de Newton et l'aide de celle-ci montrer que
[n/2] 
1 X n
n n
((x + y) + (y x) ) = x2k y n2k
2 k=0
2k

[n/2] dsigne la partie entire du rel n/2.


5) Pour tout i 1, on note Xi la variable alatoire dnie de la faon suivante.

Xi = 1 si Ii ment, Xi = 0 sinon.

En justiant soigneusement, donner la loi (avec ses paramtres) de la variable alatoire


Pn
Sn = i=1 Xi .

6) Justier que la variable alatoire Sn est le nombre de  transmetteurs menteurs  et justier


l'galit des vnements  In donne 0 =  Sn a une valeur paire .

7) A l'aide de la question 4, calculer la probabilit qu'une variable alatoire binomiale de para-

mtres n, p ait une valeur paire. En dduire la probabilit que In dlivre la bonne information.

Approximation par une loi de Poisson


On suppose maintenant que la probabilit qu'un transmetteur ne mente pas est pn = /n, avec
> 0.
8) Soit (Sn )n1 une suite de variables alatoires de loi binomiale (n, pn ). Dmontrer la proprit
e k! . On rappelle que
k k
= e .
P
du cours suivante : pour tout k N, P(Sn = k) k=0 k!
n
9) Dmontrer que

e + e X 2k
= .
2 k=0
(2k)!
Z une variable alatoire de loi de Poisson de paramtre . On rappelle que cela signie
10) Soit
k 2
P(Z = k) = e k! . A l'aide de la question prcdente, montrer que P(Z est paire) = e 2 +1 .

11) Soit (an )n1 la suite dnie par an = P(In donne 0). Dterminer sa limite lorsque n tend

vers l'inni. Entre le modle o la probabilit de transmission est p et ne dpend pas de n et

ce modle, quel est celui qui transmet le bon message avec la plus grande probabilit lorsque

n tend vers l'inni ?


125

QCM et loi hypergomtrique


0) Soient X Y deux variables alatoires discrtes valeurs dans {0, ..., m}.
et Rappeler la

dnition de E[Y ]. Soit x {0, ..., m}, on note E(X=x) [Y ] l'esprance de Y par rapport la

probabilit conditionnelle P(X=x) : c'est--dire

m
X m
X
E(X=x) [Y ] = yP(X=x) (Y = y), montrer que E[Y ] = E(X=x) [Y ]P(X = x).
y=0 x=0

On fait passer un examen sous forme d'un QCM (questions choix multiples). L'examen

se compose de 20 questions tires au hasard et sans remise parmi 100 questions possibles

recouvrant le programme. A chaque question est propose 4 rponses possibles, seule une
rponse est correcte. Si le candidat choisit la bonne rponse il a un point, sinon 0 point.

On considre un candidat ayant appris une proportion p du programme ( 100p N).

1) On note X le nombre de questions gurant parmi les 20 que le candidat a rvises. Justier

brivement que X suit une loi hypergomtrique de paramtres (100, 20, p)


100p 100(1p)
 
x 20x
P[X = x] = 100
 .
20
n

Rappeler la signication du coecient binomial et justier brivement la formule ci-
k
dessus.

Ces X questions rapportent X points au candidat. On suppose dans la suite que X() =
{0, ..., 20}.

2) Etant donne une question non rvise, le candidat choisit uniformment au hasard une

rponse parmi les 4 possibles. Quelle est la probabilit que le candidat choisisse la bonne

rponse ?

3) Le nombre de questions non rvises par le candidat est 20 X . On les numrote par

{1, 2, ..., 20 X}. A toute question i {1, 2, ..., 20 X}, on associe une variable alatoire
Xi suivant une loi de Bernoulli de paramtre 1/4 : Xi = 1 si le candidat rpond bien la
question i, Xi = 0 sinon. Les variables (Xi , i 1) sont indpendantes.

On note Y la somme des points obtenus en rpondant aux questions non rvises.
a) Exprimer Y , l'aide d'une somme, en fonction des Xi et de X .
b) Soit x {0, ..., 20}, sachant X = x, justier que Y suit une loi binomiale de paramtre
(20 x, 1/4).
c) Que vaut E(X=x) [Y ] ? (on rappelle que l'esprance d'une loi binomiale de paramtre (m, q)

est mq ).
P20
d) En utilisant la formule E[Y ] =
x=0 E(X=x) [Y ]P(X = x), montrer que E[Y ] = 5 5p.
Indication : On rappelle que E[X] = 20p (vu en cours).

4) On note N la note du candidat. Exprimer N en fonction de X et Y et dterminer l'esprance

de N en fonction de p. Pour quelle valeur de p a-t-on E[N ] = 10 ?


126 CHAPITRE 7. SUJETS DES EXAMENS PASSS ET PROBLMES

5) On dtermine maintenant la loi de N =X +Y. Montrer les trois galits

n
X n
X
P[N = n] = P[X = x, Y = n x] = P[X = x]P(X=x) [Y = n x]
x=0 x=0
n 100p 100(1p)   nx  20n
 
X x 20x 20 x 1 3
= 100 .
nx

x=0 20
4 4

6) (Question bonus) On suppose maintenant que l'on enlve 1/3 de point chaque mauvaise
0
rponse et on note N la note obtenue. Sans chercher la loi explicite de la note, mais en

introduisant la place des Xi , la variable alatoire Xi0 prenant comme valeur 1/3 avec

probabilit 3/4 et 1 avec probabilit 1/4 dmontrer que

E[N 0 ] = 20p.

* la redondance consiste disposer plusieurs exemplaires d'un mme quipement ou d'un mme

processus ou de tout autre lment participant une solution lectronique, mcanique ou in-

dustrielle. Selon les circonstances elle est utile :

1. pour augmenter la capacit totale ou les performances d'un systme,

2. pour rduire le risque de panne,

3. pour combiner ces deux eets.

** En informatique, le mot RAID dsigne les techniques permettant de rpartir des donnes

sur plusieurs disques durs an d'amliorer soit la tolrance aux pannes, soit la scurit, soit les

performances de l'ensemble, ou une rpartition de tout cela. La technologie RAID a t labore

par un groupe de chercheurs de l'universit de Californie Berkeley en 1987. Ils tudirent la

possibilit de faire reconnatre deux disques durs ou plus comme une seule entit par le sys-

tme. Ils obtinrent pour rsultat un systme de stockage aux performances bien meilleures que

celles des systmes disque dur unique, mais dot d'une trs mauvaise abilit. Les chercheurs

s'orientrent alors vers des architectures redondantes, an d'amliorer la tolrance aux pannes

du systme de stockage.

(Source Wikipedia)

7.1 Fonctions additives et loi exponentielle

Prliminaire sur les fonctions additives

Considrons une fonction monotone additive de R i.e. (x + y) = (x) + (y) pour tous

x, y R.
a) Montrer que (q) = q(1) pour tout q Q.
b) Montrer que si (1) = 0 alors est identiquement nulle.
c) Montrer que si (1) 6= 0 alors (x) = (1)x

d) Soit une fonction monotone vriant (x + y) = (x)(y) pour tous x, y R. Dmontrer


ax
qu'il existe a tel que (x) = e .
7.2. THORME DE WEIERSTRASS 127

l'objectif de cette partie est de caractriser la loi exponentielle par son absence de mmoire.
Soit X une variable alatoire telle que :

PX>s [X > t + s] = P[X > t] (7.1)

e) Montrer que la loi exponentielle vrie (7.1).

f ) Montrer inversement que si X vrie (7.1) alors X a une loi exponentielle.

7.2 Thorme de Weierstrass

Weierstrass a dmontr que toute fonction continue sur le segment [0, 1] est limite uniforme sur
ce segment d'une suite de polynmes. Bernstein a dcouvert une nouvelle dmonstration qui

utilise les probabilits. On commence par des rsultats basiques d'analyse. Pour toute fonction

continue f sur [0, 1],


||f || := sup |f (x)|.
x[0,1]

Soit f une fonction continue sur [0, 1], on dnit son module de continuit par

m : 7 sup{|f (u) f (v)|; |u v| }.

1) Montrer que |f (x) f (y)| 2||f || pour tout x, y [0, 1].

2) Montrer que si |x y| alors |f (x) f (y)| m(). Montrer que m() 0.


0

3) Soit (bn )n0 une suite relle, rappeler la dnition avec les quanticateurs de bn 0.
n
Soit n 1, on considre le polynme
n    
X n k nk k
Bn (x) = x (1 x) f .
k=0
k n

4) Soient X1 , ..., Xn des variables alatoires indpendantes de carr intgrable et

n
X
Sn = Xi .
i=1

Montrer que
 
Sn V(X)
P | E[X]|> t .
n nt2
En dduire la loi faible des grands nombres.

5) On prend maintenant des variables Xi de Bernoulli de paramtre x. Montrer que

 
Sn 1
P | x|> t .
n 4nt2
6) Montrer que
  
Sn
E f = Bn (x).
n
128 CHAPITRE 7. SUJETS DES EXAMENS PASSS ET PROBLMES

7) Montrer que
  
Sn
f (x) Bn (x) = E f (x) f ,
n
en dduire l'ingalit
   
Sn
|f (x) Bn (x)| E |f (x) f | .
n
Sn
8) Soit > 0, en considrant l'vnement A = {x [0, 1]; |x n
| }, montrer que

   
Sn
E |f (x) f | m() + 2||f || E[1|x Sn |>| ].
n n

9 En utilisant la question (4), dduire que

||f ||
   
Sn
E |f (x) f | m() + .
n 2n 2

10) Montrer que

||f ||
||f Bn || m() + .
2n 2
Soit  > 0.
11) Montrer qu'il existe  tel que m( ) /2.
12) Dterminer n0 tel que pour tout n n0 , ||f Bn || . Conclure.

7.3 Marche alatoire

On se donne un espace probabilis (, F, P) sur lequel est dnie une suite (Xn , n N? ) de

variables alatoires indpendantes identiquement distribues. La loi de X1 est donne par

1
P(X1 = 1) = P(X1 = 1) = .
2
On dnit

Pn
S0 = 0 et Sn = k=1 Xk .

La suite de variables alatoires (Sn , n 1) est appele marche alatoire symtrique.

2 S2 S4
+1 1 +1 1

1 S1 S3 S5

0
1 2 3 4 5
7.3. MARCHE ALATOIRE 129

Plusieurs questions naturelles se posent, la marche alatoire, retourne-t-elle l'origine ? Si oui,

combien de temps met-on en moyenne pour y revenir ?

L'objectif du problme est de rpondre ces deux questions. On dnit


min{n 1; Sn = 0} si {n 1; Sn = 0} =
6
T =
+

sinon.

La variable alatoire T est le premier temps de retour 0 de la marche alatoire.

Le problme contient trois parties. La troisime partie est purement analytique. N'hsitez pas

admettre des questions d'analyse pour avancer.


130 CHAPITRE 7. SUJETS DES EXAMENS PASSS ET PROBLMES

Etude du temps de retour l'origine :


1) On considre les vnement En = la marche alatoire n'a pas touch 0 entre les temps 1 et

n  et Ak = La marche alatoire visite 0 pour la dernire fois avant l'instant n, l'instant

k . Justier brivement les galits

En = (T > n) (T = +)
n
!
\
Ak = (Sk = 0) (Si 6= 0)
i=k+1

2) Montrer que
n
!
\
P(Ak ) = P(Sk = 0)P(Sk =0) (Si 6= 0) .
i=k+1

On rappelle que la notation P(Sk =0) (.) correspond la probabilit conditionnelle sachant

Sk = 0.

3) Soit k un entier x, on dnit Sn0 = Sn+k pour tout n 0. En remarquant que (Sn0 , n 0)
0
sachant S0 =0 a mme loi que (Sn , n 0), montrer que

P(Ak ) = P(Sk = 0)P (Enk ) .

P( nk=0 Ak ) = 1
S
4) Justier que et montrer que

n
X
P(Sk = 0)P (Enk ) = 1.
k=0

5) Soit x [0, 1[. On considre les suites (an , n 0) et (bn , n 0) dnies par

an = P[Sn = 0]xn et bn = P[En ]xn .

Justier que les sries de terme gnral (an , n 0) et (bn , n 0) sont convergentes. En

utilisant le produit de Cauchy (voir l'encadr la n du sujet) montrer que

+
!
!
1 X X
= P[Sn = 0]xn P[En ]xn .
1x n=0 n=0

6) Justier que P[S2n+1 = 0] = 0 pour tout n. On dnit une suite de variables alatoires
indpendantes (Yi , i 1) de la faon suivante : Yi = 1 si Xi = 1 et 0 sinon. Justier l'identit
des vnements
2n
!
X
(S2n = 0) = Yi = n .
i=1
P2n
Quelles sont les lois respectives de Yi et
i=1 Yi ? En dduire que

2n

n
P[S2n = 0] = .
4n
7.3. MARCHE ALATOIRE 131

1
7) En admettant
2n

X 1
n
x2n = ,
n=0
4n 1 x2
montrer que
r
X 1+x
P[En ]xn = .
n=0
1x
8) En remarquant que l'vnement (T = +) est inclus dans En pour tout n, montrer que

pour tout x [0, 1[,



X
X
n n n
P[T = +]x P[En ]x et en dduire que P[T = +]x P[En ]xn .
n=0 n=0

Montrer que pour tout x [0, 1[



P[T = +] 1 x2 .

En faisant tendre x vers 1, montrer par encadrement que

P[T = +] = 0.

Qu'en dduisez vous pour la marche alatoire, avec quelle probabilit retourne-t-elle l'ori-

gine ?

Etude de l'esprance du temps de retour l'origine :


9) Justier que P[T > n] = P[En ] et en dduire que pour tout x [0, 1[,
r
X
n 1+x
P[T > n]x = .
n=0
1x

Montrer que
X
P[T > n] = .
n0
n
P
On rappelle que si
n1 an x est une srie entire de rayon de convergence R alors


X
X
lim an x n = an Rn R+ {+}.
xR
n=1 n=1

10) Justier que pour tout k N,

P[T = k] = P[T > k 1] P[T > k].

En utilisant cette relation, tablir que pour tout entier naturel n 2,


n
X n1
X
kP[T = k] = P[T > k] nP[T > n].
k=0 k=0

1. On le dmontre dans la dernire partie du sujet


132 CHAPITRE 7. SUJETS DES EXAMENS PASSS ET PROBLMES

11) On suppose que E[T ] < +. Montrer que


X
X
X
nP[T > n] = n P[T = k] et n P[T = k] kP[T = k].
k=n+1 k=n+1 k=n+1

En dduire que nP[T > n] tend vers 0 lorsque n tend vers l'inni, et que


X
E[T ] = P[T > k].
k=0
P
En particulier, si E[T ] < + alors
k=0 P[T > k] < .

12) Montrer l'aide de la question prcdente et de la question 9 que

E[T ] = +.
La moyenne du temps de retour l'origine est donc innie. Cette proprit remarquable est

lie au faite que si la marche alatoire s'loigne beaucoup de 0, il lui faut beaucoup de temps

pour y revenir.

Dveloppement en srie entire de : x 1x


1
.
La fonction :x 1 est de classe C sur [0, 1[. Par la formule de Taylor avec reste intgral
1x
l'ordre n, on a au point x [0, 1[ :

n x
xk (x t)n (n+1)
X Z
(k)
(x) = (0) + (t)dt.
k=0
k! 0 n!

13) On note (n) la drive n-ime de , montrer par rcurrence que

(2n)! 2n+1
(n) (x) = n
(1 x) 2 .
4 n!
14) Soit t [0, x], dmontrer que

2n+2 
 n
(x t)n (n+1) n+1 xt 1
(t) = (n + 1) n+1
n! 4 1t (1 t)3/2
2 (2n+2
n+1 ) xt
15) On a l'ingalit suivante :
4n+1
1. En tudiant la fonction t 7 x 1t
, montrer que
xt
pour tout t [0, x], 0 1t
x. Montrer partir de ces ingalits que

(x t)n (n+1) (n + 1)xn


0 (t) ,
n! (1 x)3/2
en dduire
x
(x t)n (n+1)
Z
(t)dt 0.
0 n! n+

16) Etablir l'galit pralablement admise

2n

1 X
= n
n
x2n .
1x 2
n=1
4

(2n+2
n+1 )
2. 4n+1 = P[S2n+2 = 0] 1
7.3. MARCHE ALATOIRE 133

Rappel sur le produit de Cauchy :

si (an , n 1) et (bn , n 1) sont deux suites positives et forment les termes gnraux

de sries convergentes, alors la srie de terme gnral

n
X
cn = ak bnk
k=0

converge et sa somme vaut


!
!
X X X
cn = an bn .
n=0 n=0 n=0

Figure 7.2  Ralisation d'une marche alatoire symtrique, n=100 et n=1000

Les marches alatoires jouent un rle important en thorie des probabilits. L'chelle de temps
dans la simulation droite est dix fois plus petite que celle de gauche. Cette courbe approche une
fonction alatoire clbre : le mouvement Brownien. Cette fonction alatoire est avec probabilit
1, continue, non-drivable, non monotone par morceaux. Ces fonctions trs irrgulires sont
typiques en thorie des probabilits (plus prcisment en thorie des processus stochastiques.) Il
n'est pas facile de construire des fonctions dterministes avec de telles proprits. Le mouvement
Brownien est enseign en M2. Il est impliqu dans de nombreux modles probabilistes pour la
physique, la biologie ou la nance.
134 CHAPITRE 7. SUJETS DES EXAMENS PASSS ET PROBLMES
Chapitre 8

Problmes d'analyse pour les probabilits

Intgrale de Gauss

Soit
2 /2
f : x R 7 ex .
1) Montrer que f est intgrable sur R.
2) Soit
Z
G := f (x)dx.
0

Montrer que
Z
f (x)dx = 2G.

3) Soit
Z
2 +y 2 )
H := e(x dxdy.
R+ R+

Montrer que H = G2 .
4) Rappeler brivement la dnition des coordonnes polaires. En passant aux coordonnes

polaires, montrer que


Z
2
H= er rdrd.
R+ [0, 2 ]

En dduire la valeur de H puis de G.

Intgrales de Wallis et la formule de Stirling

La formule de Stirling est l'quivalent suivant :

 n n
n! 2n .
n e
An de l'tablir, on introduit les intgrales de Wallis : pour n N,
Z /2
In = sinn (t)dt.
0

135
136 CHAPITRE 8. PROBLMES D'ANALYSE POUR LES PROBABILITS

1) Montrer que (In )nN est dcroissante et convergente.

2) Montrer que pour tout nN tel que n 2,

n1
In = In2 .
n2

3) Calculer I2n et I2n+1 .


I2n
4) Dmontrer que
I2n+1 n
1.
5) En dduire que
2
1.3.5...(2n 1)

1
n .
2.4.6...2n n
6) En remarquant que 2.4.6...2n = 2n n!, montrer que


n(2n)! 1
,
22n (n!)2 n

7) Soit f une fonction C 2 ([0, 1], R). Montrer qu'il existe [0, 1] tel que :

1
1 1
Z
f (x)dx = (f (0) + f (1)) f 00 ().
0 2 12
R1 R1
Indication : introduire (x) = 12 x(1x), en particulier remarquer que 0
f (x)dx = 0
00 (x)f (x).

8) En appliquant la formule prcdente, montrer que pour 1k n1 :

k+1
1 1
Z
ln(x)dx = (ln(k) + ln(k + 1)) + k2
k 2 12

avec k k k + 1.
9) Montrer que
n n n
1 1 X 1
Z X
ln(x)dx = ln(k) ln(n) + .
1 k=1
2 12 k=1 k2

10) En dduire que


  n
1 1 X 1
ln(n!) = n + ln(n) n + 1 .
2 12 k=1 k2
1
Pn 1
11) On pose n = 1 12 k=1 2 , justier que n est une suite convergente et que
k

1
n! = nn+ 2 en en .
c2n
12) On pose cn = en , on cherche la limite c de cette suite. Montrer en calculant
c2n
que

22n (n!)2
c = lim 2
n n(2n)!

13) En utilisant la question 6) montrer que c= 2 , en dduire la formule de Stirling.
137

Pour Z de loi N (0, 1),


t
x2 dx
Z
(t) = FZ (t) = P (Z t) = e 2
2
t 0, 00 0, 01 0, 02 0, 03 0, 04 0, 05 0, 06 0, 07 0, 08 0, 09
0, 0 0, 5000 0, 5040 0, 5080 0, 5120 0, 5160 0, 5199 0, 5239 0, 5279 0, 5319 0, 5359
0, 1 0, 5398 0, 5438 0, 5478 0, 5517 0, 5557 0, 5596 0, 5636 0, 5675 0, 5714 0, 5753
0, 2 0, 5793 0, 5832 0, 5871 0, 5910 0, 5948 0, 5987 0, 6026 0, 6064 0, 6103 0, 6141
0, 3 0, 6179 0, 6217 0, 6255 0, 6293 0, 6331 0, 6368 0, 6406 0, 6443 0, 6480 0, 6517
0, 4 0, 6554 0, 6591 0, 6628 0, 6664 0, 6700 0, 6736 0, 6772 0, 6808 0, 6844 0, 6879
0, 5 0, 6915 0, 6950 0, 6985 0, 7019 0, 7054 0, 7088 0, 7123 0, 7157 0, 7190 0, 7224
0, 6 0, 7257 0, 7291 0, 7324 0, 7357 0, 7389 0, 7422 0, 7454 0, 7486 0, 7517 0, 7549
0, 7 0, 7580 0, 7611 0, 7642 0, 7673 0, 7704 0, 7734 0, 7764 0, 7794 0, 7823 0, 7852
0, 8 0, 7881 0, 7910 0, 7939 0, 7967 0, 7995 0, 8023 0, 8051 0, 8078 0, 8106 0, 8133
0, 9 0, 8159 0, 8186 0, 8212 0, 8238 0, 8264 0, 8289 0, 8315 0, 8340 0, 8365 0, 8389
1, 0 0, 8413 0, 8438 0, 8461 0, 8485 0, 8508 0, 8531 0, 8554 0, 8577 0, 8599 0, 8621
1, 1 0, 8643 0, 8665 0, 8686 0, 8708 0, 8729 0, 8749 0, 8770 0, 8790 0, 8810 0, 8830
1, 2 0, 8849 0, 8869 0, 8888 0, 8907 0, 8925 0, 8944 0, 8962 0, 8980 0, 8997 0, 9015
1, 3 0, 9032 0, 9049 0, 9066 0, 9082 0, 9099 0, 9115 0, 9131 0, 9147 0, 9162 0, 9177
1, 4 0, 9192 0, 9207 0, 9222 0, 9236 0, 9251 0, 9265 0, 9279 0, 9292 0, 9306 0, 9319
1, 5 0, 9332 0, 9345 0, 9357 0, 9370 0, 9382 0, 9394 0, 9406 0, 9418 0, 9429 0, 9441
1, 6 0, 9452 0, 9463 0, 9474 0, 9484 0, 9495 0, 9505 0, 9515 0, 9525 0, 9535 0, 9545
1, 7 0, 9554 0, 9564 0, 9573 0, 9582 0, 9591 0, 9599 0, 9608 0, 9616 0, 9625 0, 9633
1, 8 0, 9641 0, 9649 0, 9656 0, 9664 0, 9671 0, 9678 0, 9686 0, 9693 0, 9699 0, 9706
1, 9 0, 9713 0, 9719 0, 9726 0, 9732 0, 9738 0, 9744 0, 9750 0, 9756 0, 9761 0, 9767
2, 0 0, 9772 0, 9778 0, 9783 0, 9788 0, 9793 0, 9798 0, 9803 0, 9808 0, 9812 0, 9817
2, 1 0, 9821 0, 9826 0, 9830 0, 9834 0, 9838 0, 9842 0, 9846 0, 9850 0, 9854 0, 9857
2, 2 0, 9861 0, 9864 0, 9868 0, 9871 0, 9875 0, 9878 0, 9881 0, 9884 0, 9887 0, 9890
2, 3 0, 9893 0, 9896 0, 9898 0, 9901 0, 9904 0, 9906 0, 9909 0, 9911 0, 9913 0, 9916
2, 4 0, 9918 0, 9920 0, 9922 0, 9925 0, 9927 0, 9929 0, 9931 0, 9932 0, 9934 0, 9936
2, 5 0, 9938 0, 9940 0, 9941 0, 9943 0, 9945 0, 9946 0, 9948 0, 9949 0, 9951 0, 9952
2, 6 0, 9953 0, 9955 0, 9956 0, 9957 0, 9959 0, 9960 0, 9961 0, 9962 0, 9963 0, 9964
2, 7 0, 9965 0, 9966 0, 9967 0, 9968 0, 9969 0, 9970 0, 9971 0, 9972 0, 9973 0, 9974
2, 8 0, 9974 0, 9975 0, 9976 0, 9977 0, 9977 0, 9978 0, 9979 0, 9979 0, 9980 0, 9981
2, 9 0, 9981 0, 9982 0, 9982 0, 9983 0, 9984 0, 9984 0, 9985 0, 9985 0, 9986 0, 9986
3, 0 0, 9987 0, 9987 0, 9987 0, 9988 0, 9988 0, 9989 0, 9989 0, 9989 0, 9990 0, 9990
3, 1 0, 9990 0, 9991 0, 9991 0, 9991 0, 9992 0, 9992 0, 9992 0, 9992 0, 9993 0, 9993
3, 2 0, 9993 0, 9993 0, 9994 0, 9994 0, 9994 0, 9994 0, 9994 0, 9995 0, 9995 0, 9995
3, 3 0, 9995 0, 9995 0, 9995 0, 9996 0, 9996 0, 9996 0, 9996 0, 9996 0, 9996 0, 9997
3, 4 0, 9997 0, 9997 0, 9997 0, 9997 0, 9997 0, 9997 0, 9997 0, 9997 0, 9997 0, 9998
3, 5 0, 9998 0, 9998 0, 9998 0, 9998 0, 9998 0, 9998 0, 9998 0, 9998 0, 9998 0, 9998
3, 6 0, 9998 0, 9998 0, 9999 0, 9999 0, 9999 0, 9999 0, 9999 0, 9999 0, 9999 0, 9999
3, 7 0, 9999 0, 9999 0, 9999 0, 9999 0, 9999 0, 9999 0, 9999 0, 9999 0, 9999 0, 9999
3, 8 0, 9999 0, 9999 0, 9999 0, 9999 0, 9999 0, 9999 0, 9999 0, 9999 0, 9999 0, 9999
3, 9 1, 0000 1, 0000 1, 0000 1, 0000 1, 0000 1, 0000 1, 0000 1, 0000 1, 0000 1, 0000
Exemples : (0, 25) ' 0, 5987, (0, 32) = 1 (0, 32) ' 1 0, 6255 = 0, 3745

Vous aimerez peut-être aussi