Vous êtes sur la page 1sur 279

Alatoire

IQ UE
HN
Y TEC
Introduction
E PO L la thorie
L
CO
et au calcul des probabilits

U E
Sylvie Mlard
H NIQ
TEC
P O LY
LE
CO

U E
NIQ
CH
O LYTE
P
LE
CO

DITION
ES
S
L
D E L' C O

NIQ E
U

LE
H

P O LY T E C
Ce logo a pour objet dalerter le lecteur sur la menace que reprsente pour lavenir de
lcrit, tout particulirement dans le domaine universitaire, le dveloppement massif du
photocopillage.
Cette pratique qui sest gnralise, notamment dans les tablissements denseignement,
provoque une baisse brutale des achats de livres, au point que la possibilit mme pour les
auteurs de crer des uvres nouvelles et de les faire diter correctement est aujourdhui
menace. Nous rappelons donc que la production et la vente sans autorisation, ainsi que
le recel, sont passibles de poursuites.
Les demandes dautorisation de photocopier doivent tre adresses lditeur ou au Centre
franais dexploitation du droit de copie :
20, rue des Grands-Augustins, 75006 Paris. Tl.:0144 074770.

IQ UE
C HN
O LYTE
P
LE
CO

U E
NIQ
TE CH
LY
PO
LE
CO

U E
NIQ
CH
O LYTE
P
LE
CO

ditions de lcole Polytechnique - Dcembre 2010


91128 Palaiseau Cedex
IQ UE Margot et Martin
HN
TEC
P O LY
LE
CO

U E
NIQ
TE CH
LY
PO
LE
CO

U E
NIQ
CH
O LYTE
P
LE
CO
IQ UE
C HN
O LYTE
P
LE
CO

U E
NIQ
TE CH
LY
PO
LE
CO

U E
NIQ
CH
O LYTE
P
LE
CO
Table des matires
IQ UE
C HN
O LYTE
P
1 Introduction
LE 7
CO . . . . . . . . . . . . . . . . . . . . . .
1.1 Remerciements . . . . . . . . . 8
1.2 Avant-Propos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Phnomnes alatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Deux ides majeures et incontournables . . . . . . . . . . . . . . . . . 10
1.4.1 La loi des grands nombres . . . . . . . . . U . E
. . . . . . . . . . . 10
1.4.2 Conditionnement et Indpendance .N. I.Q. . . . . . . . . . . . . 11
1.5 Les variables alatoires . . . . . . .T.E. C
H
. . . . . . . . . . . . . . . . . . 11
Y
1.5.2 Simulation de L E P O Lalatoires
1.5.1 Loi dune variable alatoire
variables
. . . . . . . . . . .
. . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
12
. C
1.6 Historique . .
O
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2 Espace de probabilit 17
2.1 Le langage des probabilits . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.1 Expriences et vnements alatoires . . . . . . . . . . . . . . . 17
2.1.2 Probabilit - Premires proprits . . . . . . . .E. . . . . . . . 21
2.2 Probabilit sur un espace fini - Calcul combinatoire N I Q. U
. . . . . . . . . . 23
2.2.1 Dfinition . . . . . . . . . . . . . E .C. .H. . . . . . . . . . . . . . 23
2.2.2 Probabilit Uniforme . . O
T
. .L.Y. . . . . . . . . . . . . . . . . . . 24
2.2.3 Modles durnes L . . P. . . . . . . . . . . . . . . . .
. E . . . . . . 25
2.3 Dfinition gnraledes
O
C Probabilits . . . . . . . . . . . . . . . . . . . . 30
2.3.1 Pourquoi la dfinition prcdente ne suffit-elle pas ? . . . . . . . 30
2.3.2 Les ensembles dnombrables . . . . . . . . . . . . . . . . . . . . 30
2.3.3 Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3.4 Dfinition dune probabilit . . . . . . . . . . . . . . . . . . . . 33
2.3.5 Probabilits sur un espace dnombrable . . . . . . . . . . . . . 36
2.4 Loi dune variable alatoire . . . . . . . . . . . . . . . . . . . . . . . . 37
2.5 Conditionnement et indpendance . . . . . . . . . . . . . . . . . . . . 39
2.5.1 Probabilits conditionnelles . . . . . . . . . . . . . . . . . . . . 39
2.5.2 Indpendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.5.3 Le Lemme de Borel-Cantelli . . . . . . . . . . . . . . . . . . . . 46
2.6 Exercices sur le chapitre 2 . . . . . . . . . . . . . . . . . . . . . . . . . 47

3
4 TABLE DES MATIRES

3 Espace fini ou dnombrable 51


3.1 Prrequis : quelques rsultats utiles sur les sries . . . . . . . . . . . . 51
3.2 Variables alatoires discrtes . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3 Esprance des variables alatoires discrtes . . . . . . . . . . . . . . . 54
3.3.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.3.2 Proprits de lesprance des variables alatoires discrtes . . . 56
3.3.3 Variance et cart-type . . . . . . . . . . . . . . . . . . . . . . . 57
3.3.4 Un rsultat fondamental - Moments dune variable
alatoire . . . . . . . . . . . . . . . . . .E. . . . . . . . . . . . . 58
U
H N I Q valeurs entires .
3.4 Fonction gnratrice dune variable alatoire . . . 59

L Y TEC . . . . . . . . . . . . . . . .
3.5 Variables alatoires discrtes usuelles . . . 61

3.5.2 Variable L E P Obinomiale . . .. .. .. .. .. .. .. .. .. .. .. .. .. .. ..


3.5.1 Variable alatoire
alatoire
de Bernoulli .
.
.
.
.
.
61
62
C O de succs et variable alatoire gomtrique . .
3.5.3 Probabilit . . . 64
3.5.4 Variable alatoire de Poisson . . . . . . . . . . . . . . . . . . . 65
3.6 Lois conditionnelles et indpendance . . . . . . . . . . . . . . . . . . . 67
3.6.1 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . 67
3.6.2 Esprance conditionnelle . . . . . . . . I.Q. U
E
. . . . . . . . . . . . 69
N
3.6.3 Variables alatoires indpendantes
T E C H. . . . . . . . . . . . . . . . 71
LY indpendantes . . . . . . .
3.6.4 Somme de variables alatoires . . . 74
3.7 Exercices sur le chapitreE3 P. O
. . . . . . . . . . . . . . . . . . . . . . . . 75
L
CO
4 Variables alatoires relles et Vecteurs alatoires 81
4.1 Les variables alatoires relles . . . . . . . . . . . . . . . . . . . . . . . 81
4.2 Les lois de variables alatoires relles . . . . . . . . . . . . . . . . . . . 83
4.2.1 Fonction de rpartition . . . . . . . . . . . . . . . . . . . . . . 83
4.2.2 Variables alatoires de loi densit . . . . . . . . . . . . . . . . 87
E
I Q U de nombres
4.2.3 Variable alatoire uniforme sur [0, 1] et gnrateurs
N
alatoires . . . . . . . . . . . . . . C. .H. . . . . . . . . . . . . . 90
Y T Epar
OL
4.2.4 Simulation dune variable alatoire inversion de la fonction
. . P. . . . . . . . . . . . . . . . . . . . . . .
de rpartition . . . E 91
L
4.3 C Oalatoires relles . . . . . . . . . . . . . . . . .
Esprance des variables 92
4.3.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.4 Variables alatoires de carr intgrable . . . . . . . . . . . . . . . . . . 95
4.4.1 Variance et Covariance . . . . . . . . . . . . . . . . . . . . . . . 95
4.4.2 Approximation linaire . . . . . . . . . . . . . . . . . . . . . . . 97
4.5 Calcul de lesprance pour une variable alatoire densit . . . . . . . 98
4.5.1 Un rsultat gnral fondamental . . . . . . . . . . . . . . . . . 98
4.5.2 Calculs desprances dans le cas avec densit . . . . . . . . . . 99
4.6 Exemples fondamentaux de variables densit . . . . . . . . . . . . . 100
4.6.1 Variable alatoire uniforme sur [a, b] . . . . . . . . . . . . . . 100
4.6.2 Variable alatoire exponentielle . . . . . . . . . . . . . . . . . . 101
4.6.3 Variable alatoire de loi gamma . . . . . . . . . . . . . . . . . . 103
TABLE DES MATIRES 5

4.6.4 Variables alatoires normales (ou variables gaussiennes) . . . . 104


4.7 Des ingalits fameuses . . . . . . . . . . . . . . . . . . . . . . . . . . 109
4.7.1 Ingalit de Bienaym-Chebyshev . . . . . . . . . . . . . . . . . 109
4.7.2 Ingalit de Cauchy-Schwarz . . . . . . . . . . . . . . . . . . . 110
4.7.3 Ingalit de Jensen . . . . . . . . . . . . . . . . . . . . . . . . . 111
4.8 Vecteurs alatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
4.8.1 Vecteurs alatoires . . . . . . . . . . . . . . . . . . . . . . . . . 113
4.8.2 Moments dun vecteur alatoire . . . . . . . . . . . . . . . . . . 114
4.8.3 Densits marginales et conditionnelles .E. . . . . . . . . . . . . 115
U
4.9 Variables alatoires indpendantes . .N. I.Q. . . . . . . . . . . . . . . . 119
H
L Y T E Cindpendantes
4.9.1 Indpendance de deux variables alatoires . . . . . . . . . . . . 119
4.9.2 Suite de variables O alatoires . . . . . . . . . . . 120
4.10 Calculs de lois . L . . P. . . . . . . . . . . . . . . . . . . . . . . .
. E . . . . 123
C O didentification . . . . . . . . . . . . . . .
4.10.1 Unthorme . . . . 123
4.10.2 Recherche de densit . . . . . . . . . . . . . . . . . . . . . . . . 123
4.11 Simulation de suites de variables alatoires indpendantes . . . . . . . 128
4.11.1 Inversion de la fonction de rpartition . . . . . . . . . . . . . . 128
4.11.2 Mthode du rejet . . . . . . . . . . . . . . U . E
. . . . . . . . . . . 129
4.12 Exercices sur le chapitre 4 . . . . . . . . H
I Q
. .N. . . . . . . . . . . . . . . 131
L Y TEC
5 Convergences et loi des grands
E P O nombres 137
O L
5.1 Convergences de variables alatoires . . . . . . . . . . . . . . . . . . . 138
Cnombres
5.2 La loi des grands . . . . . . . . . . . . . . . . . . . . . . . . . 143
5.3 Mthode de Monte-Carlo . . . . . . . . . . . . . . . . . . . . . . . . . 147
5.4 Exercices sur le chapitre 5 . . . . . . . . . . . . . . . . . . . . . . . . . 148

6 Fonctions caractristiques et convergence en loi 153


6.1 La fonction caractristique . . . . . . . . . . . . . . . U . .E. . . . . . . . 153
6.1.1 Dfinition et premires proprits . . . .N . I. Q
. . . . . . . . . . . 153
6.1.2 Exemples . . . . . . . . . . . . T. E .C
H
. . . . . . . . . . . . . . . . 155
Y
6.1.3 Proprit fondamentale O
E P . .L. indpendants
. . . . . . . . . . . . . . . . . . . 157
6.1.4 Somme de vecteurs L alatoires . . . . . . . . . . . 159
CO
6.1.5 Fonction caractristique et moments . . . . . . . . . . . . . . . 160
6.2 Vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
6.3 Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
6.4 Le thorme de la limite centrale . . . . . . . . . . . . . . . . . . . . . 169
6.5 Intervalles de confiance . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
6.5.1 Sondages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
6.5.2 Prcision dans la mthode de Monte-Carlo . . . . . . . . . . . . 175
6.6 Exercices sur le chapitre 6 . . . . . . . . . . . . . . . . . . . . . . . . . 176

7 Modles dynamiques alatoires 181


7.1 Marche alatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
7.2 Processus de branchement . . . . . . . . . . . . . . . . . . . . . . . . . 185
6 TABLE DES MATIRES

7.2.1 Somme alatoire de variables alatoires indpendantes . . . . . 186


7.2.2 Processus de branchement . . . . . . . . . . . . . . . . . . . . . 188
7.2.3 Percolation sur un arbre . . . . . . . . . . . . . . . . . . . . . . 193
7.3 Files dattente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
7.3.1 Un modle simple en temps discret . . . . . . . . . . . . . . . . 195
7.3.2 Stabilit : tude analytique . . . . . . . . . . . . . . . . . . . . 196
7.4 Suites rcurrentes alatoires discrtes . . . . . . . . . . . . . . . . . . . 200
7.4.1 Probabilits de transition . . . . . . . . . . . . . . . . . . . . . 200
7.4.2 Stabilit . . . . . . . . . . . . . . . . . .E. . . . . . . . . . . . . 203
7.5 Exercices sur le chapitre 7 . . . . . . .N. I.Q. U. . . . . . . . . . . . . . . 204

8 Corrections des exercices LY T


ECH 209
O chapitre
Pdu
O L E
8.1 Corrigs des exercices 2. . . . . . . . . . . . . . . . . . . . 209
Cexercices
8.2 Corrigs des du chapitre
8.3 Corrigs des exercices du chapitre
3.
4.
.
.
.
.
.
.
.
.
.
.
.
.
. . . .
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
214
219
8.4 Corrigs des exercices du chapitre 5. . . . . . . . . . . . . . . . . . . . 225
8.5 Corrigs des exercices du chapitre 6. . . . . . . . . . . . . . . . . . . . 228
8.6 Corrigs des exercices du chapitre 7. . . . . . . .U. E
. . . . . . . . . . . 232
N IQ
9 Textes et corrigs dexamens
YT ECH 237
P O L
Bibliographie
LE 269

Index
CO 271

IQ UE
C HN
O LYTE
P
LE
CO
Chapitre 1
IQ UE
C HN
O LYTE
Introduction
CO
LE
P

U E
NIQ
A quoi tu penses ?

Y T ECH
Je pense que,O L
P
O LE
C
si en ouvrant un dictionnaire au hasard, on tombait sur le
mot hasard, ce serait un miracle, alors que si on tombait sur
le mot miracle, ce serait un hasard.
H. Le Tellier, Les amnsiques nont rien vcu dinoubliable.

IQ UE
C HN
O LYTE
P
LE
CO
Il peut paratre irraliste etprtentieux de vouloir, de par sa nature mme, quanti-
fier le hasard. Cest pourtant ce qui a conduit la notion de Probabilit. Nous
allons dans ce livre introduire ce concept mathmatique, dont la puissance permet-
tra de modliser dinnombrables situations o le hasard intervient, dpassant ainsi
largement le cadre restreint des jeux de ds et tirages de cartes. La modlisation pro-
babiliste est fondamentale dans tous les domaines dapplications, quils soient issus des
sciences dures ou des sciences humaines, de la physique (physique quantique, physique
des particules), de la climatologie, de la biologie (mutations du gnme), de lcolo-
gie (variabilit des comportements individuels ou variations environnementales), de
linformatique et des rseaux de tlcommunications, du traitement du signal et de
la parole, de la mdecine (imagerie mdicale), de lconomie, lassurance, la finance
(marchs boursiers), ou de la sociologie.

7
8 Chapitre 1 Introduction

1.1 Remerciements

Ce livre est issu dun cours donn aux cinq cents lves de premire anne de lEcole
Polytechnique. Il est le fruit du travail pdagogique de nombreuses annes, dve-
lopp tout dabord lUniversit, puis dans son format actuel lEcole Polytech-
nique. Lauteur remercie ses prdcesseurs Francis Comets et Michel Benam pour
certaines de leurs ides, Michel Delasnerie et Florent Benaych-Georges pour leur aide
prcieuse dans le dveloppement des simulations, Amandine Veber et Carl Graham
U E pour la mise en page des
pour leur relecture attentive de ce manuscrit, AldjiaQMazari
I
N
E C H Vincent Bansaye, Julien Berestycki,
figures et tous les enseignants de petites classes pour leur formidable enthousiasme et
Y T
leurs encouragements : Stphanie Allassonnire,
L
Thierry Bodineau, Olivier Capp,
E P OJean-Ren Chazottes, Nicolas Chopin, Arnak Dala-
L
C O Marc Hoffmann, Benjamin Jourdain, Jean-Michel Marin,
lyan, Jean-Franois Delmas, Randal Douc, Christophe Giraud, Carl Graham, Arnaud
Guillin, Caroline Hillairet,
Stefano Olla, Olivier Rioul, Franois Roueff, Denis Talay.

I Q U E galement tous ceux


Symbole dune rsurrection hautement alatoire ce livre remercie
qui lont accompagne. HN
C
LY TE
PO
LE
1.2 CO
Avant-Propos

Le mot Hasard est un mot dorigine arabe : az-zahr, le d. Il est apparu en franais
pour signifier tout dabord un jeu de ds, puis plus gnralement un vnement non
prvisible, et par extension le mode dapparition de ce type dvnement.
E
QU
NetImme le concept de pro-
Dans la vie quotidienne, chacun est familier avec le mot
C H
O L Y T Edtre
babilit : probabilit quil pleuve la semaine suivante, probabilit davoir une fille aux
yeux bleus, probabilit de gagner au loto P ou celle dans la bonne file au super-
march. Les assurances fixent le O L E dassurance-vie dun individu de 20 ans, grce
contrat
C de survie 80 ans. Dans de nombreux domaines,
une estimation de sa probabilit
les probabilits interviennent : les entreprises cherchent calculer le besoin probable
de leurs produits dans le futur, les mdecins cherchent connatre les probabilits
de succs de diffrents protocoles de soin, les compagnies pharmaceutiques doivent
estimer les probabilits dapparitions deffets secondaires pour leurs mdicaments. Un
exemple rcent et spectaculaire est celui de lutilisation des probabilits en conomie,
et en particulier en finance. Nous pouvons citer galement dautres domaines dappli-
cations extrmement importants et en pleine expansion, aussi varis que le calcul de
structures, la thorie du signal, loptimisation et le contrle des systmes, limagerie
mdicale, la gnomique et la thorie de lvolution.

Les probabilits sont en lien troit avec la vie quotidienne. A ce titre, elles sappuient
1.3 Phnomnes alatoires 9

sur un passage du concret labstrait : la modlisation mathmatique. En effet, la


premire difficult face un problme concret va tre de transformer cette ralit phy-
sique en un modle mathmatique abstrait quil est possible dtudier et sur lequel
des calculs peuvent tre mens. Il est alors possible de fabriquer des exprimentations
fictives du problme concret sur ordinateur, que lon appelle des simulations num-
riques, obtenues partir du modle mathmatique. Ces simulations sont utilises, soit
des fins descriptives, soit des fins numriques.

Pour pouvoir modliser les innombrables situations, de natures trs diffrentes, o le


E Ce cadre abstrait a t
QU
hasard intervient, un cadre trs gnral dtude estI ncessaire.
N
Hen 1933 (donc trs rcemment), sous le
EaCncessit
dfini rigoureusement par Andrei Kolmogorov
L Y T
nom de modle probabiliste. Sa dfinition pralablement le dveloppement
P Otelles
E
de thories danalyse importantes
L
le calcul intgral et la thorie de la mesure.

Cest ce grand cart


CO
entre lapparente simplicit de certains problmes probabilistes
concrets, et labstraction que ncessite leur rsolution, qui peut rendre le monde de
lalatoire difficile ou inquitant, mais cest aussi ce qui en fait un domaine mathma-
tique fascinant et palpitant.
U E
IQ
C HN
LY TE
1.3 PO
Phnomnes alatoires
E
L
CO
Le but de ce cours est dintroduire les notions de base de la thorie des probabilits,
et surtout de permettre dacqurir le raisonnement probabiliste. Cette thorie des
probabilits ne peut se construire axiomatiquement quen utilisant la thorie de la
mesure et de lintgration, ce qui en constitue une des difficults principales. Nous

I Q U E quecomprhension,
nen donnerons dans ce texte que les lments ncessaires sa bonne
H N
sans exiger de prrequis dans ce domaine. (Mais nous remarquerons la thorie des
TE C
probabilits constitue un trs bel exemple dapplication de la thorie de lintgration).
P O LY
LE
C O est lanalyse mathmatique de phnomnes dans
Lobjet de la thorie des probabilits
lesquels le hasard intervient. Ces phnomnes sont appels des phnomnes ala-
toires.

Dfinition 1.3.1 Un phnomne est dit alatoire si, reproduit maintes fois dans des
conditions identiques, il se droule chaque fois diffremment de telle sorte que le rsultat
de lexprience change dune fois sur lautre de manire imprvisible.

Nous pouvons donner des exemples varis de tels phnomnes :


Jeu de Pile ou Face
Jeu de lanc de ds
10 Chapitre 1 Introduction

Dans ces deux exemples, la diffrence entre les rsultats, si lon ritre lexprience,
peut tre lie limpulsion initiale communique au d, la rugosit de la table,
aux vibrations du plancher... Le hasard est lillustration de la mconnaissance des
conditions initiales, car la pice ou le d ont des trajectoires parfaitement dfinies par
la mcanique classique.
Dure de vie dune ampoule lectrique
Temps de passage dun bus
Nombre de voitures passant une borne de page E
I QU
H Ndeux pas en arrire...
Promenade dun ivrogne : un pas en avant,
C
Y T Edans un jeu de flchettes
Position dun impact sur une cible,
POL
L E actif financier au cours du temps
Evolution du prix dun
O
Cle gnme.
Mutations dans
Ces exemples prsentent comme point commun des variations lies la prsence de
facteurs extrieurs, influant sur le rsultat de lexprience, et que lon ne sait pas
contrler. De nombreux effets physiques fonctionnent ainsi, etEchaque phnomne d-
terministe est invitablement accompagn dcarts N I Q U Dans certains cas, il
alatoires.
Hremplacer le phnomne rel par
est possible de ngliger les lments alatoiresEetCde
un schma simplifi, en slectionnant O Y T
L ce faire les paramtres les plus importants
E P pour
(comme par exemple en mcanique L classique). Mais cette approximation nest pas tou-
C O fondamental de pouvoir quantifier les carts alatoires.
jours possible et il est souvent
Dans dautres domaines, tels la physique quantique, lalatoire fait intrinsquement
partie de la thorie, et certaines mesures ne peuvent tre connues qualatoirement
dans un ensemble de rsultats possibles.

E
N IQU
1.4 Deux ides majeures et incontournables
Y T ECH
E POL
la L
Deux ides majeures illustrent O thorie des probabilits et son extrme richesse :
C
la loi des grands nombres et le conditionnement (li la notion dindpendance).
Ces deux notions formeront lossature de ce cours et mritent dtre assimiles en
profondeur.

1.4.1 La loi des grands nombres

La notion de hasard, ou dalatoire, est souvent lie la mconnaissance de para-


mtres intervenant dans une exprience, ou la trop grande multitude de ceux-ci.
Nanmoins, bien que ces comportements alatoires soient a priori sujets des varia-
tions imprvisibles, nous serons capables de donner des renseignements sur ce type de
1.5 Les variables alatoires 11

phnomnes. Lide majeure est que ces informations seront donnes par la rptition
de lexprience.

En effet, lobservation dun grand nombre de rptitions dun mme phnomne ala-
toire permet dy dceler gnralement des lois rgissant les rsultats, tout fait d-
termines, stables. Par exemple, pour toute pice non truque dun jeu de Pile ou
Face, et quelque soit lendroit o se droule le jeu, 1000 lancs de la pice donneront
environ 50% de piles et 50% de faces. De mme, ltude de la rpartition des tailles
dun groupe dindividus, et quel que soit lchantillon pris dans ce groupe, montre
quil y aura toujours une courbe des rpartitions de U E type. Il va tre ainsi pos-
I Qmme
sible de prvoir la frquence dapparition C deH N
chaque rsultat, la valeur moyenne de
Y T Ecette
O L
ces rsultats et les oscillations autour de valeur moyenne.
L EP
O lutilisation dun modle mathmatique.
Cest cette stabilitCconfirme par lexprience qui sappelle Loi des grands
nombres, et qui lgitime

1.4.2 Conditionnement et Indpendance U E


NIQ
La construction dun modle probabiliste Y
CH
T E sur linformation connue a priori sur
repose
L
P O de quantifier les probabilits de ralisation de
lexprience alatoire. Ce modle permet
L E
change, les probabilits
CO
certains rsultats de lexprience. Il est fondamental de remarquer que si linformation
de ralisation changent. Par exemple, la chance de choisir au
hasard un homme de plus de 100 kilos parmi 1000 hommes de la population franaise
est plus grande si le groupe est compos dhommes de plus de 1,80m que si le groupe
est compos dhommes de moins de 1,65m. La richesse du modle probabiliste que
nous allons construire rside dans le fait que si linformation change par rapport au
modle initial, les nouvelles chances de ralisation pourront tre E
Ucalcules. Ce raison-
N I QProbabilits
nement li linformation a priori se rsume en thorie
conditionnement. Quand linformation donneTaEpriori C H sur un phnomne alatoire
des par le mot

P
na aucune influence sur la ralisation dun LY phnomne, par exemple deux tours
Oautre
C O L E ces phnomnes alatoires sont dits indpen-
successifs de roulette dans un casino,
dants. Cette hypothse dindpendance sera fondamentale dans toute la thorie, et
simplifiera de nombreux calculs.

1.5 Les variables alatoires

1.5.1 Loi dune variable alatoire

Nous allons dans ce livre tudier des fonctions qui dpendent du rsultat de lex-
prience alatoire sous-jacente. Elles sont appeles variables alatoires, car leurs
12 Chapitre 1 Introduction

valeurs varient en fonction du hasard. Plutt que de chercher les antcdents de chaque
valeur possible de la fonction, nous allons nous intresser la chance de ralisation
de lensemble des antcdents qui permettent la fonction dtre gale une de ces
valeurs ou dappartenir un ensemble de ces valeurs. Cest cela que nous appellerons
la loi de la variable alatoire. Cette notion de loi dune variable alatoire est la base
du raisonnement probabiliste moderne.

IQ UE
1.5.2 HN
Simulation de variables alatoires
C
O LYTE
P
E exprimentation fictive sur machine dun phnomne
La simulation consiste en une
Cde
modlis. Elle permet OL visualiser une exprience alatoire, de calculer des quantits
numriques et de vrifier certains rsultats thoriques.

I Q U E peuvent accompa-
Des simulations, proposes dans le cours de lcole polytechnique,

E C HN
gner la lecture de cet ouvrage et en illustrer la comprhension. Elles se trouvent
YT
ladresse :
O L
Pde leur auteur Florent Benaych-Georges. Nous
http ://www.cmapx.polytechnique.fr/benaych/aleatoire_index.html.
L E
remercions en cela la participation
CO
La mthode de simulation probabiliste la plus clbre est la mthode de Monte-Carlo,
du nom du quartier o se trouve le casino de Monaco. Elle consiste effectuer certains
calculs (calculs dintgrales notamment) par de nombreuses simulations numriques de

I Q U E procd
ralisations indpendantes de variables alatoires de loi donne. Ce est fond
sur la loi des grands nombres qui en assure la convergence.
H N Mais, pour obtenir une
TE C
prcision acceptable, nous verrons quil faut accomplir une grande quantit de simu-
O
lations, ce qui explique que la mthode na LpuYse dvelopper de manire significative
que depuis lintroduction massive L EP
dordinateurs performants.
CO
Loutil de base est un gnrateur de nombres au hasard qui simule une variable
alatoire de loi uniforme. La plupart des langages de programmation et des logiciels
mathmatiques en possdent un :

la mthode Math.random en Java,

les fonctions rand et grand sous Scilab.

Ainsi, par exemple, lapplication rpte de la fonction rand fournit une suite de
nombres indpendants les uns des autres et uniformment rpartis sur [0, 1]. Nous
verrons comment, partir de ce gnrateur, nous pouvons simuler de nombreux types
de loi.
1.6 Historique 13

1.6 Historique

La notion de modle abstrait commun des expriences varies a mis beaucoup de


temps merger. Le hasard tant par nature pour nos anctres une reprsentation du
divin, il a fallu, pour dfinir la notion de probabilit, attendre une certaine maturit
de la pense. Il y a trs peu dcrits anciens concernant le calcul des probabilits. Au
4me sicle, lexistence dune science des jeux de ds apparat dans le Mahabharata
(clbre ouvrage indien), de mme que ses rapports U E avec une valuation de
troits
type sondage (cf. Hacking). Mais les premires N I Q publies sur les chances de
rfrences
H son livre De Ludo Alea. Des calculs
E Cdans
gagner au jeu datent de Cardan (1501-1576)
Y T
L les oeuvres de Kepler (1571-1630) et de Galile
de probabilit apparaissent aussi P Odans
(1564-1642). Le calculO L E
probabiliste se dveloppe au cours du 17me sicle, motiv
C
en particulier par lengouement frntique pour les jeux de hasard cette poque. Le
sujet commence rellement tre rigoureusement dvelopp par Pascal (1623-1662) et
Fermat (1601-1665) vers 1654, comme un calcul combinatoire, partir de paradoxes
issus de ces jeux (les paradoxes du Chevalier de Mr que lon verra au Chapitre
2). Ds 1657, Huyghens (1629-1695) rdige un mmoireQamplifiant
I UE sensiblement les
N
rsultats de Pascal et Fermat, et son travail reste
T E CH jusqu la fin du 17me sicle

O L Y
lexpos le plus profond de calcul des Probabilits. Bernoulli (1654-1705) tablit la
loi des grands nombres sous sa forme
E P la plus simple, rsultat fondamental quil dit
L
C O et de Hollande, motive par des problmes dassurance
avoir mdit vingt ans. Vers la fin du 17me sicle, une autre impulsion au calcul des
probabilits vient dAngleterre
(Halley (1656-1742), De Witt (1625-1672)). En effet, lvaluation des populations (par
exemple : tables de mortalit et rentes viagres) devient une discipline essentielle la
gouvernance moderne des tats.

E
forcment (pas souvent) de nature physique. Pascal la H
Q U ralit
La thorie des probabilits se construit dans la modlisation dune
N Iutilisable
croit
qui nest pas
en thologie. Le
clbre Pari de Pascal montre que croire en DieuTest
Y ECune solution statistiquement plus
avantageuse, en supposant au pralablePque L
O les deux hypothses dexistence ou non
de Dieu ont la mme probabilit. E
O LLeibnitz (1646-1716), et plus tard Laplace (1749-
C
1827), Poisson (1781-1840) (Recherches sur la probabilit des jugements en matires
criminelles et matire civile), lappliquent aux controverses juridiques. Les probabi-
lits sont un outil privilgi de modlisation des comportements humains, comme en
tmoigne lintrt rcurrent des philosophes pour leurs fondements.

De Moivre (1667-1754) et Euler (1707-1803) dveloppent les ides de Pascal et Fer-


mat, Bayes (1671-1746) introduit la notion de probabilit conditionnelle (probabilit
a priori), mais faute doutils mathmatiques puissants, il faut pour dvelopper plus
avant la thorie, attendre Laplace (1749-1827). Celui-ci donne une application ma-
gistrale du calcul diffrentiel et intgral la thorie des probabilits dans son trs
important Trait analytique des probabilits (en 1812). Laplace formule le postulat du
dterminisme universel. Cette intelligence est un idal, un horizon, que notre science
14 Chapitre 1 Introduction

ne nous permet pas datteindre. Le calcul des probabilits est imagin comme un outil
permettant de pallier cette faiblesse. Laplace permet la discipline de dpasser dfi-
nitivement sa premire phase combinatoire. Il met en avant le rle de la loi normale et
dmontre une version du thorme de la limite centrale. Gauss (1777-1855) dveloppe
intensment la thorie. Dans les pays anglo-saxons se dveloppe galement loutil sta-
tistique, avec ltude des donnes et lanalyse prdictive partir de ces donnes. Le
mot "statistique" vient du mot "tat", et cette science a t, depuis cette poque,
un outil puissant pour les organismes de dcisions. Elle se dveloppe en utilisant le
support dun modle probabiliste. E
U
H NIQ
Le dveloppement des probabilits grce C mthodes danalyse occupe le 19me
T Eaux
L Y
E P Ofond
sicle et le dbut du 20me sicle, en particulier sur les travaux de Borel (1871-
O L
1956) et de Lebesgue (1875-1941) sur la thorie de la mesure. Les avances au 19me
Cstatistique
sicle de la physique (Maxwell (1831-1879), Boltzmann (1844-1906)) ap-
portent un nouveau point de vue qui dpasse les ides rationalistes de Laplace et per-
met denvisager que le hasard est une ralit objective indpendante de nos connais-
sances, conformment aux ides du philosophe Cournot (1801-1877) qui le premier
U E eux. Le principe din-
affirme que le hasard et le dterminisme sont compatiblesQentre
I
N limpossibilit de connatre
E Hdune particule ; on ne peut les
certitude dHeisenberg montrera ultrieurementC(1927)
avec une infinie prcision la position et YlaTvitesse
POL
connatre qu laide dune loi de probabilit.
C OLE
Sous lincitation de problmes de physique statistique, mais aussi de dmographie,
commence se dgager, vers la fin du 19me sicle, la notion fondamentale de fonc-
tion alatoire, destine rendre compte dun phnomne alatoire qui volue au cours
du temps. Les probabilits entrent cette poque dans une nouvelle phase de dvelop-
pement. Ds 1875, Galton (1822-1911) et Watson (1827-1903) tudient lvolution du
nombre dindividus dune population au cours de ses gnrations E
Usuccessives, mettant
N I Q dans toute sa gn-
en vidence un exemple de processus alatoire qui seraHintroduit
ralit par Markov (1856-1922). Einstein (1879-1955)
LY T E Cvers 1905 sintresse la notion
de mouvement Brownien. Brown avait dj
E P O observ le mouvement dune particule de
L
CO
pollen sur la surface de leau, heurte de toutes parts par des molcules deau ; ce mou-
vement parat totalement dsordonn. En fait, Bachelier (1870-1946) avait lui aussi
introduit le mouvement brownien en 1900 pour modliser la dynamique dun cours
boursier. Ce processus alatoire, voluant de manire apparemment totalement erra-
tique, sest avr tre un outil fondamental de modlisation probabiliste ds lors que
lon sintresse un phnomne alatoire voluant continment au cours du temps.

La priode moderne, caractrise par ltude systmatique des processus alatoires,


dbute vers 1930. Dans les Fondements de la Thorie des Probabilits que Kolmogorov
(1903-1987) publie en 1933 apparat laxiomatique rigoureuse, fonde sur la thorie
de la mesure et de lintgrale de Lebesgue et qui sera universellement adopte ensuite.
Lexpression mathmatique donne ainsi aux concepts confre ceux-ci une clart et
une maniabilit beaucoup plus grandes, et cette axiomatique sest rvle indispen-
1.6 Historique 15

sable dans ltude de tous les modles dynamiques. Aprs le travail fondamental de
Kolmogorov, Lvy (1886-1971), donne le ton pour les probabilits modernes par son
travail sur les processus stochastiques, ainsi que sur les fonctions caractristiques et
les thormes limites. Mentionnons ici le rle essentiel jou par les coles russes et
japonaises et notamment par It (prix Gauss 2006), qui dfinit une notion dintgrale
par rapport au mouvement brownien et, grce elle, conduit la cration dun calcul
intgral, appel calcul stochastique, pour certaines familles de processus stochastiques.
Ces rsultats avaient t, en partie et de manire totalement indpendante, dcouverts

UE
par le mathmaticien franais Doeblin pendant la deuxime guerre mondiale. Celui-ci
sentant sa fin proche (il est mort en 1940 dans les I QArdennes)
NSciences. Ce plienvoya ses trouvailles
sous forme dun pli cachet lAcadmieE C H
des a t dcouvert et
L
ouvert il y a seulement quelques annesY T et a suscit une grande motion.
E PO
L
De nos
O
jours, lEcoleCfranaise de Probabilits est trs active. Une mdaille Fields
a t dcerne en aot 2006 Werner (Universit Paris 11, ENS). Communiqu
de Presse : Les travaux de Wendelin Werner sont linteraction de la physique et
des mathmatiques. Ils introduisent des ides et des concepts nouveaux combinant
E
Utransition
la thorie des probabilits et lanalyse complexe, pour comprendre les phnomnes
I Q
Depuis 2006, de nombreux prix et rcompenses E C HN
critiques de certaines transitions de phase (par exemple,
ont
la liquide/gaz)".
soulign la grande effervescence
T
O LY
des probabilits et de leurs applications.
P
O LE
Les probabilits se C
dveloppent de plus en plus, alimentes en particulier de ma-
nire essentielle par la physique, le dveloppement des rseaux de tlcommunica-
tions, la finance, et plus rcemment, par la biologie et la mdecine. Elles permettent
de construire des modles mathmatiques, qui peuvent tre valids par les donnes
suivant la thorie statistique, et fournissent galement des possibilits dexprimenta-
tions fictives dans de multiples domaines dapplications.
IQ UE
N
YT ECH
P O L
LE
CO
IQ UE
C HN
O LYTE
P
LE
CO

U E
NIQ
TE CH
LY
PO
LE
CO

IQ UE
C HN
O LYTE
P
LE
CO
Chapitre 2
IQ UE
C HN
O LYTE
Espace de
CO
L Eprobabilit
P

On ne peut gure donner une dfinition satisfaisanteQde


I UlaE probabilit. La dfini-
HN
C
tion complte de la probabilit est donc une sorte de ptition de principe.
LY TE
PO
L E Poincar (1854-1912) - Calcul des Probabilits.
CO
Henri

2.1 Le langage des probabilits

U E
2.1.1 NIQ
Expriences et vnements alatoires
CH
O LYTE
a) Exprience Alatoire P
LE
CO
Dfinition 2.1.1 Nous appelons exprience alatoire une exprience E qui, reproduite
dans des conditions identiques, peut conduire plusieurs rsultats possibles, et dont on ne
peut prvoir le rsultat par avance. Lespace de tous les rsultats possibles, appel espace
dtats (associ lexprience), sera not . Un rsultat possible de lexprience est not
classiquement . Ainsi, .

Les jeux de hasard, tels Pile ou Face, jeux de cartes, loterie, fournissent des exemples
dexpriences alatoires pour lesquels est fini, mais peut tre un espace beaucoup
plus compliqu.

17
18 Chapitre 2 Espace de probabilit

Exemple 1. Lanc de deux pices Pile ou Face : = {P P, P F, F P, F F }.

Exemple 2. Lanc dun d : = {1, 2, 3, 4, 5, 6}.

Exemple 3. Envoi dune flchette sur une cible circulaire de 30 cm de diamtre.


Lexprience consiste dcrire limpact de lapflche dans un repre orthonorm
de centre le centre de la cible : = {(x, y), x2 + y 2 15}.
Exemple 4. Dure de vie dune ampoule lectriqueE: = [0, +[.
N IQU
Exemple 5 : Romo attend Juliette ECH
Y T dattente
qui lui a promis darriver entre minuit et
P O
une heure. Quel va tre son L
temps ? = [0, 1].
LE
CO
Exemple 6. Temps de passage des vhicules une borne de page : = (R+ )N .

Exemple 7. Lobservation dun prix dactif financier sur un intervalle de temps


[t1 , t2 ] conduit prendre pour lensemble C([t1 , t2U], RE+ ) des fonctions conti-
nues sur [t1 , t2 ], valeurs relles positives. H N I Q
TE C
LY
PO
Exemple 8. Ltude de laEvitesse dune molcule dans un gaz rarfi sur un
intervalle de temps C , tL
[t1O 2 ] conduit prendre pour lensemble des fonctions

continues droite et avec limites gauche sur [t1 , t2 ], valeurs dans R3 .

Cette longue liste dexemples montre que lespace peut varier normment dans sa

I Q UE
structure, dune exprience lautre. Cela permet de raliser la richesse de la thorie
N
quil faut mettre en place, pour crer un modle qui englobe tous ces cas.

Y T ECH
Nous verrons galement ultrieurement
L le modle abstrait que nous allons
P Oque
E
Ldu fait que dcrit prcisment tous les rsultats
CO
construire permettra de saffranchir
possibles de lexprience.

b) Evnements alatoires

Dfinition 2.1.2 Nous appelons vnement alatoire (associ lexprience E) un


sous-ensemble de dont on peut dire au vu de lexprience sil est ralis ou non. Un
vnement est donc une partie de .
Ainsi, si lexprience consiste en un lanc de deux ds,

A = { la somme des deux ds est infrieure 4 }


2.1 Le langage des probabilits 19

est un vnement alatoire, mais lensemble

B = { le rsultat du premier d lanc est un nombre infrieur 4 }

nen est pas un si ne contient que les rsultats non ordonns des tirages.

Pour notre Romo, lensemble "Juliette se fait attendre plus de 3/4 dheure" est
lvnement alatoire ]3/4, 1].

Si lon sintresse au prix dun actif financier sur leQ


I U E [t1 , t2 ], lensemble
temps
C H N
Y T= E

A = { le prix est infrieur au seuilL} C([t1 , t2 ], R), sup |(t)|
PO
LE
t[t1 ,t2 ]

CO
est un vnement alatoire.

Ainsi, les vnements alatoires sont des ensembles. Nous allons utiliser le
I UE
formalisme de la thorie des ensembles, en particulier lesQoprations lmentaires sur
les ensembles, pour dcrire diverses possibilits deH N
ralisations dvnements.
TE C
LY
PO
OLE
c) Rappels sur les ensembles
C
Considrons un ensemble , cest dire une collection dobjets appels lments de
, ou points de . Lappartenance dun point lensemble est note w , et
/ signifie que le point nappartient pas .

E. Dans ce cas, A
Une partie A de est aussi un ensemble, appel sous-ensembleUde
N IQ
est dit inclus dans , ce qui scrit A . H C
O LYTE
P
L E sur les parties dun ensemble.
Rappelons les oprations lmentaires
CO
Intersection : A B est lintersection des ensembles A et B, cest dire lensemble
des points appartenant la fois A et B.

Runion : A B est la runion des ensembles A et B, cest--dire lensemble des


points appartenant au moins lun des deux ensembles.

Ensemble vide : Cest lensemble ne contenant aucun point. Il est not .

Ensembles disjoints : Les ensembles A et B sont dits disjoints si A B = .

Complmentaire : Si A , son complmentaire (dans ) est lensemble des points


20 Chapitre 2 Espace de probabilit

de nappartenant pas A. Il est not Ac ou parfois \A. Les ensembles A et Ac


sont disjoints.

Diffrence : Si A et B sont deux sous-ensembles de , A\B dsigne lensemble


des points qui sont dans A mais pas dans B. Ainsi A\B = A B c .

La runion et lintersection sont des oprations commutatives et associatives. Nous


avons A B = B A et A B = B A, et aussi A (B C) = (A B) C et
E
I Q U naturellement A B C et
A (B C) = (A B) C, ensembles que nous notons
N
H
TEC
A B C.
L Y
O (Ai )iI densembles, indexe par un ensemble
Plus gnralement, pour une Pfamille
L E la runion de cette famille, i.e. lensemble des
quelconque I, iI Ai Odsigne
C
points appartenant au moins lun des A . De mme, A dsigne lintersec-
i iI i
tion de cette famille, i.e. lensemble des points appartenant tous les Ai . Dans ces
deux cas, lordre dindexation des Ai na pas dimportance.

Une partition de est une famille (Ai )iI telle que lesI Q U E
ensembles Ai soient disjoints
=H
deux--deux (Ai Aj = , i, j), et que iI Ai C .N
LY TE
PO
O L Edes vnements alatoires
d) Modlisation ensembliste
C
Les vnements alatoires tant des ensembles, (rappelons-nous quune partie de
dcrit un sous-ensemble de rsultats possibles de lexprience), nous pourrons effectuer
les oprations ensemblistes prcdemment dcrites, avec linterprtation suivante.

E
IQU
Correspondance entre oprations ensemblistes et vnements alatoires :
C HN
Si A et B sont deux vnements,
O LYTE
E P
OL
NON : la ralisation deClvnement
nappartient
contraire A est reprsente par Ac : le
rsultat de lexprience pas A.

ET : lvnement A et B sont raliss est reprsent par A B : le rsultat de


lexprience se trouve la fois dans A et dans B.

OU : lvnement A ou B sont raliss est reprsent par lvnement A B :


le rsultat de lexprience se trouve dans A ou dans B.

IMPLICATION : le fait que la ralisation de lvnement A entrane la ralisa-


tion de B se traduit par A B.
2.1 Le langage des probabilits 21

INCOMPATIBILITE : si AB = , A et B sont dits incompatibles. Un rsultat


de lexprience ne peut tre la fois dans A et dans B.

TOUJOURS VRAI : lvnement est lvnement certain (tous les rsultats


de lexprience prennent leurs valeurs dans ).

IMPOSSIBLE : est lvnement impossible.

Nous notons par A lensemble de tous les vnements. IlU E


modlise linformation qui peut
N I Q pourrons prendre A = P(),
H
tre obtenue partir des rsultats de lexprience. Nous
pasCtoujours et nous verrons pourquoi dans la
E
ensemble de toutes les parties de , mais
Y T
suite de ce cours.
P OL
O LE
Remarque C
fondamentale : Pour que la modlisation soit cohrente avec lintui-
tion, A doit tre stable par les oprations ensemblistes ci-dessus : si A, B A, alors
A B A, A B A, Ac A, mais aussi A, A.

U E
NIQ
2.1.2 CH
Probabilit - Premires proprits
TE
LY
E PO
O L un ensemble possible de ralisations de lexprience
Nous cherchons dfinir, pour
Caccorde
A A, la vraisemblance a priori A (avant le rsultat de lexprience).
Nous voulons donc associer chaque vnement A un nombre P(A) compris entre 0
et 1, qui reprsente la chance que cet vnement soit ralis la suite de lexprience.

Approche intuitive : Pensons un jeu de Pile ou Face. Si nous


I Q U E jouons 3 fois, une

HilNest tentant de dire que la


suite de 3 rsultats noffre presquaucune information. En revanche, si nous jouons
10000 fois et si nous obtenons 5003 Pile et 4997 E
T C
Face,
probabilit que la pice tombe sur Pile est
O L
la Y
mme que celle quelle tombe sur Face,
P
savoir 1/2. LE
CO
Cette ide intuitive est la base du raisonnement probabiliste.

Considrons un vnement A li une exprience alatoire donne E. Nous rptons


n fois lexprience E, dans des conditions similaires. Notons nA le nombre de fois o
A est ralis, et dfinissons
nA
fn (A) = ,
n
la frquence de ralisation de A sur ces n coups. Nous avons les proprits suivantes :
fn (A) [0, 1] ; fn () = 1 ;
Si A et B sont disjoints, fn (A B) = fn (A) + fn (B).
22 Chapitre 2 Espace de probabilit

Lapproche intuitive et naturelle consiste dfinir P(A) comme tant la limite quand
n tend vers linfini des frquences de ralisation fn (A). Nous donnerons ultrieurement
une justification et un sens prcis cette limite, grce la loi des grands nombres,
qui est un des thormes fondamentaux de la thorie, justifiant toute la construction
mathmatique.

Intuitivement,

E
P(A) = limite de fn (A) quand n +. (2.1.1)
Des proprits videntes des frquences, nousH
IQU
enNdduisons immdiatement que
L Y TEC
E P O est dfinie sur les ensembles alatoires lis lex-
Proposition 2.1.3 Une probabilit
L
O
prience et vrifie lesCproprits essentielles suivantes :
0 P(A) 1, (2.1.2)
P() = 1, (2.1.3)
P(A B) = P(A) + P(B) si A BE= , (2.1.4)
U
NIQ
et il en dcoule que TE CH
LY
E PO
L
C O vrifie de plus :
Corollaire 2.1.4 Une probabilit

P() = 0 (2.1.5)
c
P(A) + P(A ) = 1, (2.1.6)
n
X
P(ni=1 Ai ) = P(Ai ) , si les Ai sont deux--deux disjoints, (2.1.7)
i=1
UE
P(A B) + P(A B) = P(A) + P(B),
H NIQ (2.1.8)
TEC (2.1.9)
O LY
P(A) P(B) si A B.
P
LE
Preuve. La proprit (2.1.5)CseOmontre en appliquant (2.1.4) avec A = B = , et

(2.1.6) sobtient de la mme faon avec A et Ac . Pour prouver (2.1.8), nous dcompo-
sons lensemble A en lunion des deux ensembles disjoints AB et son complmentaire
A\B, et de mme pour B, comme cela est reprsent dans la figure 4.8. Lingalit
(2.1.9) se dduit de (2.1.4) avec B = A (B\A). 

Dfinition 2.1.5 Un modle probabiliste est un triplet (, A, P) constitu de les-


pace , de lensemble des vnements A, et de la famille des P(A) pour A A. Nous
pouvons ainsi considrer P comme une application de A dans [0, 1], qui vrifie au moins
les proprits (2.1.3) et (2.1.4) donnes ci-dessus. (Nous verrons ultrieurement quelle
doit satisfaire une proprit supplmentaire ncessaire ds que nest pas un espace fini).
2.2 Probabilit sur un espace fini - Calcul combinatoire 23

U C B
B A
U C
A B U
A B

Fig. 2.1 : A, B, A B c , A B, B Ac et A B
IQ UE
EC HN
O YT
Nous allons maintenant donner desLdfinitions mathmatiques rigoureuses de ces ob-
jets. E P
L
CO
2.2 Probabilit sur un espace fini - Calcul combina-
toire
I Q UE
N
T E CH
2.2.1 Dfinition
P O LY
LE
CO
Dans ce paragraphe, nous supposons que lespace de probabilit est un ensemble
fini. Dans ce cas, nous choisirons toujours A = P().

Dfinition 2.2.1 Une probabilit sur fini est une application P : P() [0, 1]
qui vrifie (2.1.3) et (2.1.4). Ainsi, elle est caractrise par : E U
IQ
C HN
YTE
0 P(A) 1,
P() = 1,
P O L
OL
P(A B) =E
P(A) + P(B) si A B = .
C
La probabilit P satisfait galement les proprits (2.1.5)(2.1.9).

Comme lensemble des singletons {}, pour , est une partition finie de , nous
aurons la proposition fondamentale suivante.

Proposition 2.2.2 Supposons que = {w1 , ..., wn }.

i) Une probabilit P sur est entirement caractrise par ses valeurs sur les single-
tons, cest--dire par la famille {pi = P({i }), i }.
24 Chapitre 2 Espace de probabilit

ii) Etant donne une famille (pi )1in de nombres rels, il lui correspond une unique
probabilit P telle pour tout i , pi = P({i }), si et seulement si
n
X
0 pi 1, pi = 1. (2.2.1)
i=1

Nous avons alors


X X
A P(), P(A) = P({}) = p . (2.2.2)
A
IQ UE
A
N
ECH
Y T sont des sommes finies, puisque et donc
Remarquons que les sommes dans (2.2.2)
A, sont de cardinal fini. P O L
LE
CO
Preuve. Soit P une probabilit sur , et soit p = P({}). Il est alors vident que
0 p 1, et (2.2.2) dcoule de (2.1.7) puisque toute partie A de est runion
disjointe (et finie) des singletons {}, pour les A. Nous en dduisons donc (i) et
E dcoule de (2.2.2)
deU(2.2.1)
I
la condition ncessaire de (ii). En effet, la seconde partie
N Q
appliqu A = et de P() = 1.
TE CH
O LY
Inversement, considrons n nombres
P({i }) = pi et pour tout O
E P (pi )1in vrifiant (2.2.1). Nous posons
AL , nous dfinissons P(A) par (2.2.2). La vrifica-
C
tion de (2.1.2), (2.1.3) et (2.1.4) est immdiate. 

Exemple 2.2.3 Loi de Bernoulli de paramtre p [0, 1].


Lespace a deux lments :
E
= {w1 , w2 } et Qp.U
p1 = p ; p2 = 1I
HN
L Y TEC
Cette probabilit modlise en particulier O
la chance pour une pice de tomber sur Pile
PDans
(ou Face) dans un jeu de Pile ou L E
Face. ce cas, = {P, F } peut tre assimil
ClaOpice est quilibre, p sera gal 1/2. Mais cette
plus simplement {0, 1}. Si
probabilit peut aussi modliser la probabilit de ralisation dun des rsultats, pour
toute exprience alatoire avec deux rsultats possibles (mon premier enfant sera-t-il
une fille ou un garon ?).

2.2.2 Probabilit Uniforme

Un exemple important de probabilit sur un espace dtats fini est celui de la proba-
bilit uniforme, pour laquelle chaque singleton de a la mme chance de ralisation.
Ainsi, la dfinition suivante dcoule de (2.2.1).
2.2 Probabilit sur un espace fini - Calcul combinatoire 25

Dfinition 2.2.4 Nous dirons que la probabilit P sur lespace fini est uniforme si
p = P({}) ne dpend pas de . Nous avons donc pour tout :

1
p = ,
card()

o card() dsigne le cardinal de , cest dire son nombre dlments.

U E que
Si P est une probabilit uniforme, nous dduisons de (2.2.2)
IQ
N
CH
Ecard(A)
O LY T= card() ,
P(A) (2.2.3)
P
LE
O probabilits se ramne, dans ce cas, des dnombrements :
Cdes
de sorte que le calcul
nous sommes dans le cadre du calcul combinatoire.

Remarquons que sur un espace fini donn , il existe une et


U E une seule probabilit
uniforme. I Q
E C H N intuitive de au hasard (ti-
Cette probabilit dcrit mathmatiquement lexpression
LYT
rage au hasard dune carte, lanc au hasard
O dun d, choix au hasard dun chantillon
dans une population). E P
L
CO
2.2.3 Modles durnes

ilEest fondamental de
I Q U Cette remarque
Dans les calculs de probabilits uniformes sur des ensembles finis,
N
C H allons dvelopper diffrents
faire trs attention bien prciser lespace de probabilit sous-jacent.
prend toute son ampleur dans ce paragraphe, T oEnous
Y
modles durnes que lon peut galement
E P O Lvoir comme des modles de prlvement
Lau cours dun sondage. Ces modles interviennent
C Oou dans de multiples autres situations. Si le lecteur
dchantillons dans une population
aussi en contrle de fabrication,
nest pas inspir par les couleurs des boules dune urne, il pourra transcrire lanalyse
suivante dans le cadre des opinions politiques dans la population franaise ou celui
du niveau de perfection dun objet dans une chane de fabrication.

Le modle gnral est le suivant : une urne contient N boules de k couleurs diffrentes,
rparties en N1 boules de couleur 1, N2 boules de couleur 2, ..., Nk boules de couleur
k. Nous appelons pi = N N la proportion de boules de couleur i. Tirons au hasard n
i

boules de cette urne, n N , et intressons-nous la rpartition des couleurs dans


lchantillon obtenu. Nous notons par Pn1 n2 ...nk la probabilit dobtenir n1 boules de
couleur 1, n2 boules de couleur 2,..., nk boules de couleur k, avec bien sr n1 + n2 +
... + nk = n.
26 Chapitre 2 Espace de probabilit

Nous allons considrer trois faons de tirer les boules au hasard : tirage avec remise,
tirage sans remise, tirage simultan. Nous verrons que chaque tirage donnera lieu
un calcul de probabilit et un rsultat diffrent.

Remarque : Le problme du choix du tirage de lchantillon se pose sans cesse ds que


lon souhaite rcolter des donnes statistiques.

Remarque 2.2.5 : Pour k et n deux entiers tels que k n, nous allons souvent
E dans un ensemble n
I U
utiliser, dans la suite, le nombre de parties nk kQlments
N
ECH
lments, qui vaut :
Y T
=E P
O L = n(n 1) . . . (n k + 1) .

n n!
kO L k!(n k)!
C
k!

Tirage exhaustif ou simultan - La loi hypergomtrique


U E
H NIQ
T C et le nombre de rsultats possibles
Nous tirons toutes les boules en mme temps.ELensemble est alors lensemble de
Y
toutes les parties possibles de n lmentsLdistincts,
est Nn . Le nombre E P Odonnant la bonne rpartition des couleurs est
de cas favorables
L
alors gal n1 . . . nk. C
N1  Nk 
LaOprobabilit recherche vaut donc

N1  Nk 
n1 . . . nk
Pn1 n2 ...nk = N
. (2.2.4)
n

I Q U E le cas de deux
Cette distribution sappelle la distribution polygomtrique. Dans
couleurs, elle vaudra  N
N1 N N1 H
E C
YNTnn

L
n1 1
Pn1 ,nn1 = ,
P O 
LE n
C Oloi) hypergomtrique.
qui est appele distribution(ou

Ainsi, si dans une fabrication en srie, nous savons que parmi N pices usines, M sont
mettre au rebut, et si nous choisissons au hasard et simultanment un chantillon
de n pices, la probabilit pour que cet chantillon contienne k pices dfectueuses
(M )(N M )
sera k Nnk .
(n)

Tirage avec remise - La loi binomiale

Les tirages sont successifs. Nous replaons la boule tire dans lurne avant le tirage
suivant. Nous pouvons donc tirer plusieurs fois la mme boule. Lensemble est
2.2 Probabilit sur un espace fini - Calcul combinatoire 27

alors lensemble de tous les n-uplets dlments de lurne. Toutes les rptitions tant
possibles, card() = N n . Nous munissons de sa probabilit uniforme. Le nombre de
faons de dterminer les places des k couleurs parmi n est gal au nombre de faons de
partager n en k parties de tailles ni , savoir n1 !n2n!!...nk ! . Une fois la place des couleurs
choisies, nous avons Ni possibilits pour chaque boule de couleur i. Le nombre de
n-uplets de rpartition n1 , n2 , ..., nk est alors gal n1 !n2n!!...nk ! N1n1 ...Nknk . Nous avons
donc finalement
n! N1n1 ...Nknk
NQn U E
Pn1 n2 ...nk = . (2.2.5)
NI
n1 !n2 !...nk !

Y T ECH
Cette probabilit est appele O Ldistribution multinomiale. Dans le cas particulier
une
o k = 2, p1 = p = NN etLp2E=P1 p, la probabilit dfinie par
1

CO
n
Pn1 ,nn1 = pn1 (1 p)nn1 (2.2.6)
n1

E
sera appele loi binomiale de paramtres n et p. (Elle faitUintervenir les coefficients
N I Q
du binme, do son nom). Attention, les paramtres
n N et p [0, 1]. Notons galement que T E CH
cette
ne sont pas interchangeables
probabilit est dfinie sur lespace
:

O LY
= {0, 1, 2, ..., n} comportant n + 1P lments.
LE
CO
Remarque : le lecteur pourra vrifier que
n
X n i
p (1 p)ni = 1.
i=0
i

IQ UE
C HN
YTE
Tirage sans remise

P O L
Nous tirons maintenant successivement
C O L E les boules de lurne, mais sans les replacer
dans lurne aprs tirage. Lensemble est alors lensemble des suites de n lments
distincts parmi N et le nombre de cas possibles sera N (N 1)...(N n + 1) = AnN .
En raisonnant comme dans le cas avec remise, nous pouvons montrer que le nombre
de cas favorables vaut n1 !n2n!!...nk ! AnN11 ...AnNkk , ce qui finalement donne pour probabilit
la mme que celle du cas de tirage simultan.

Ainsi, il y a quivalence du tirage sans remise et du tirage simultan, du point de


vue de la composition de lchantillon, et lon peut se permettre de ne pas prendre en
compte lordre des individus dans le tirage.
28 Chapitre 2 Espace de probabilit

Cas dune urne dont le nombre de boules est infini

Nous nous plaons dans les hypothses du tirage simultan, avec 2 couleurs, en sup-
posant que N et N1 tendent vers linfini de telle manire que NN1 converge vers p < 1.
Il est trs facile de montrer qualors,
N1 N N1
 
n1 nn1 n
Pn1 ,nn1 = N
converge vers Pn1 ,nn1 = pn1 (1 p)nn1 .
n1
E
QU
n

N I
Ce rsultat est intuitivement vident car siCleHnombre de boules devient infini, les ti-

O L Y T E presque quivalents : on a une chance


rages de boules avec ou sans remise deviennent
trs infime de tomber deux foisP sur la mme boule.
LE
CO
Remarque 2.2.6 Nous avons obtenu la loi binomiale comme limite de lois hypergo-
mtriques. Cette convergence dune suite de probabilits vers une probabilit donne
sera dveloppe au chapitre 6.3. (Convergence en loi) UE IQ
N
Y T ECH
Exemple 2.2.7 : Les yeux bands, vous
P O L manipulez 7 fiches o sont crites les lettres
E, E, T, B, R, L, I. Quelle est laEprobabilit que vous criviez le mot
L
2 1 CO LIBERTE
Solution : 7! = 2520 .

Exemple 2.2.8 : On tire au hasard quatre cartes dun jeu de cinquante-deux cartes.
E exactement deux
Quelle est la probabilit pour que, parmi ces quatre cartes, il yUait
N IQ
rois ? H C
O LYTE
P
O LEquil modliser
Solution : Lhypothse au hasard amne cette exprience comme un tirage
C
uniforme dans un certain ensemble faut prciser. Ici, on prend pour  la classe
des parties 4 lments de lensemble de 52 cartes. Le cardinal de est 52 4 et P est
la probabilit uniforme sur . Les rsultats favorables sont les tirages qui contiennent
exactement 2 rois, savoir 2 rois et 2 cartes parmi les 48 cartes autres que des rois.
(4)(48)
Ainsi, la probabilit cherche vaut 2 52 2 .
(4)

Exemple 2.2.9 : On lance trois ds parfaitement quilibrs. Montrer que la pro-


babilit que la somme des points amens dpasse dix est gale la probabilit que
cette somme ne dpasse pas dix. (Cela permettra de construire un jeu parfaitement
quitable...)
2.2 Probabilit sur un espace fini - Calcul combinatoire 29

Solution : Lensemble est ici lensemble des suites (a1 , a2 , a3 ) de 3 nombres compris
entre 1 et 6, muni de la probabilit P uniforme. Remarquons que

a1 + a2 + a3 > 10 (7 a1 ) + (7 a2 ) + (7 a3 ) 10.

Ainsi, si A dsigne lvnement "la somme des points obtenus est strictement sup-
rieure 10", nous remarquons que lapplication (a1 , a2 , a3 ) 7 (7 a1 , 7 a2 , 7 a3 )
est une bijection de A sur Ac . Les vnements A et Ac ont donc mme cardinal, et
donc mme probabilit de ralisation.
IQ UE
Une difficult majeure dans ce style de Ecalcul HN
C combinatoire est de bien prciser le
modle probabiliste. De clbresO LY T sont ns de cette difficult.
paradoxes
P
LE
CO
Exemple 2.2.10 Rappelons le problme du chevalier de Mr. Ce personnage mar-
quant de la cour de Louis XIV qui avait trs bon esprit, mais ntait pas trs bon
gomtre" (cf. lettre de Pascal Fermat du 29 juillet 1654) tait un joueur impni-
tent, toujours la recherche de rgles caches lui permettant davoir un avantage sur
E
ses adversaires. Voici deux de ses rgles.
N IQU
T E CH
O LY dau moins un 6 en lanant un d 4
1) Il est avantageux de parier sur lapparition
P
fois de suite. LE
CO
Cette rgle est bonne puisque la probabilit de lvnement qui nous intresse vaut
4
5 1
1 ' 0.5177 > .
6 2
E gains assurs : le
La diffrence avec 12 est faible, mais apte fournir long termeUdes
N IQ
chevalier devait jouer souvent...
CH
O LYTE
P
LE
2) Il est avantageux de parier sur lapparition dau moins un double-six en lanant
deux ds 24 fois de suite. CO
Cette rgle est mauvaise, puisque la probabilit de lvnement cherch vaut :
24
35 1
1 ' 0.4914 < .
36 2
Le Chevalier tait donc moins heureux avec cette rgle quavec la prcdente. En fait,
il stait laiss abuser par un soi-disant argument dhomothtie : en lanant un d,
il y a 6 rsultats possibles, en lanant deux ds, il y en a 62 = 36, soit 6 fois plus.
Comme il est avantageux de parier sur lapparition dau moins un 6 en lanant un d
4 fois de suite, il doit tre avantageux de parier sur lapparition dun double-six en
lanant deux ds 4 6 = 24 fois de suite. Paradoxe !
30 Chapitre 2 Espace de probabilit

2.3 Dfinition gnrale des Probabilits

2.3.1 Pourquoi la dfinition prcdente ne suffit-elle pas ?

Lorsque lespace dtats nest pas fini, la dfinition 2.2.1 nest pas suffisante.

Nous allons nous en rendre compte sur lensemble suivant. Jouons Pile ou Face.
UE
N I Q {P, F }n (ensemble des mots de
Si nous jouons n fois, lespace naturel est lensemble
H
PCet F ). Cest un ensemble fini de cardinal
T Epas
n lettres avec un alphabet deux lettres
L Y
E P O dans letruque,
2n . Si nous supposons que la pice nest la probabilit de chaque tirage
est uniforme et nous nous L retrouvons cadre de la combinatoire. Ainsi, pour
tout A , CO
card(A)
Pn (A) = . (2.3.1)
2n
E Lespace dtats
I Q Umots de longueur infi-
Supposons maintenant que le jeu se poursuive indfiniment.
devient = {P, F }N , cest dire lensembleN des

nie, avec le mme alphabet P et F . Cest T C Hensemble infini. Essayons dva-


Eun
luer la probabilit P(A) de lvnement Y
O L A = on ne tire jamais Pile. Soit
E Pdes
An = on ne tire jamais Pile L lors n premiers tirages. Daprs (2.3.1), nous
avons P(An ) = Pn (An )= CO
2n . Remarquons que A est la limite naturelle des en-
sembles An , au sens o les An sont dcroissants (i.e. An+1 An ) et o A = n An . Il
est alors naturel dcrire que
P(A) = lim P(An ) = 0. (2.3.2)
n
E sont insuffi-
N IQU
Pour que ceci soit vrai, les proprits (2.1.2), (2.1.3), (2.1.4)

T E CH
santes. Il faut ajouter un axiome supplmentaire permettant le passage
la limite dans (2.3.2). Y
E POL
A cet effet, nous devons dabordO L
caractriser les proprits que doit satisfaire la classe
si C
A des vnements. En effet, sur un ensemble fini, il est naturel de prendre A = P(),
il nen est plus de mme lorsque est infini, ceci pour des raisons mathmatiques et
des raisons de modlisation qui seront explicites plus loin. La classe A doit toutefois
satisfaire un certain nombre daxiomes, et pour les dfinir, rappelons ce quest un
ensemble dnombrable.

2.3.2 Les ensembles dnombrables

Un ensemble E est dnombrable sil est en bijection avec N, cest--dire si ses points
peuvent tre numrs en une suite (xn )nN . Cest le cas de lensemble N lui-mme,
2.3 Dfinition gnrale des Probabilits 31

de Z, de Q, des entiers pairs ou de toute suite strictement croissante dentiers. Ce



nest pas le cas de {0, 1}N , de R, ni des intervalles [a, b] lorsque a < b.

Enonons quelques proprits des ensembles dnombrables.


Tout ensemble dnombrable est infini. (Mais la rciproque est fausse, comme
nous lavons vu ci-dessus.)
Toute partie dun ensemble dnombrable est elle-mme finie ou dnombrable.
La runion dune famille finie ou dnombrable
I UE
Qdensembles eux-mmes finis ou
H N
dnombrables est un ensemble fini ouCdnombrable.
E
Y Til en est de mme de A\B, pour tout B A
P O L
Si A nest ni fini, ni dnombrable,
LE
qui est fini ou dnombrable.
CO
2.3.3 Tribu
E
I QlesUproprits suivantes :
Dfinition 2.3.1 La classe A est une tribu si elle vrifie
EC HN
(A1) : A et A.
PO LY T
C OLE
(A2) : A est stablepar passage au complmentaire : A A Ac A.

(A3) : A est stable par runion et intersection dnombrables, i.e. si (An )nN est
une suite dlments de A, alors nN An et nN An sont dans A.

UE
Q : si A, B A, alors
N Ifinie
Notons que A est alors stable par runion et intersection
H
EAC et An = B pour n 1.
A B A et A B A. Il suffit de prendre A0 =
YT
O L
P que A soit stable par runion ou intersection
Notons galement que (A3) nentraneEpas
infinie non dnombrable. C O
L

Remarque fondamentale : Dans la modlisation de notre phnomne alatoire, la


tribu reprsente un ensemble de parties de (parties composes de certains rsultats
de lexprience) dont on va pouvoir mesurer la chance de ralisation. Cest pour un
lment A de cette tribu que nous allons tre capable de dfinir sa probabilit de ralisa-
tion P(A), tandis que P(A) naura pas de sens ds lors que A nappartient pas la tribu A.

Comme ces ensembles A sont des sous-ensembles de rsultats possibles de lexp-


rience, la tribu modlise linformation que nous donne cette exprience.
32 Chapitre 2 Espace de probabilit

Exemple 2.3.2 A = {, } est la tribu grossire, ou triviale : cest la plus


petite tribu de .

(ii) Lensemble P() des parties de est une tribu sur . Cest celle que nous
choisirons systmatiquement si est un ensemble fini ou dnombrable. Cepen-
dant, pour des raisons fondamentales que nous indiquerons sommairement ul-
trieurement, cette tribu sera trop grande ds que est infini non dnombrable
pour que lon puisse dfinir la probabilit de tous ses lments de manire non
triviale.
IQ UE
HN
Dfinition 2.3.3 Si C P(), on appelle
L Y T E Cpart
tribu engendre par C la plus petite tribu
contenant C. Elle existe toujours, O car
Pfamille dune P() est une tribu contenant C, et
L E
dautre part lintersection dune quelconque de tribus est une tribu. Ainsi, la tribu
CO
engendre par C estlintersection de toutes les tribus contenant C.

Exemple 2.3.4 La tribu engendre par lensemble A est {, A, Ac , }.


Si (Ai )iI est une partition finie ou dnombrable deUE(i.e. les Ai sont deux-
-deux disjoints et leur runion est ), la tribu Q
N Iengendre par {Ai , i I} est
lensemble des runions BJ = iJ Ai ,T
H
oEJCdcrit la classe de toutes les parties
Y
de I. POL
LE
CO
Dfinition 2.3.5 Si = R, on appelle tribu borlienne la tribu engendre par la classe
des intervalles ouverts de R.

titre dexercice de maniement des tribus, donnons en dtail la dmonstration du


E
rsultat suivant : QU NI
C H engendre par les intervalles
Proposition 2.3.6 La tribu borlienne de R est laEtribu
T
L Y
PO
de la forme ] , a] pour a Q.

C O L Eest stable par passage au complmentaire, par


Preuve. Rappelons que toute tribu
runion ou intersection dnombrable.

Puisque ] , a] est le complmentaire de lintervalle ouvert ]a, +[, il appartient


la tribu borlienne, et donc la tribu C engendre par ces intervalles est incluse dans
la tribu borlienne. Rciproquement, soit ]x, y[ un intervalle ouvert de R. Soit (xn )n
une suite de rationnels dcroissant vers x et (yn )n une suite de rationnels croissant
strictement vers y. On a :

]x, y[= n (] , yn ]] , xn ]c ).

Nous en dduisons que tout intervalle ouvert appartient C, do le rsultat. 


2.3 Dfinition gnrale des Probabilits 33

2.3.4 Dfinition dune probabilit

Nous sommes maintenant en mesure de donner la dfinition gnrale dune probabilit.

Dfinition 2.3.7 Une probabilit sur lespace (, A) est une application de A dans
[0, 1], note P, telle que :
On a

P() = 1.
IQ UE (2.3.3)

E C HN
(AT
Pour toute suite (dnombrable) Y n )n dlments de A deux--deux disjoints, on
a P O L
O LE
C
X
P(n An ) = P(An ). (2.3.4)
n

Remarque : La probabilit P (dite aussi mesure de probabilit), est une mesure abstraite
U E nous travaillons est
de masse 1 sur lespace mesurable (, A). Le cadre dans
N I Q lequel
mathmatiquement dvelopp par la thorie de C laHmesure, mais nous ninvoquerons
aucun rsultat gnral de cette thorie. Y T E
E POL
OL
C de -additivit, entrane en particulier que la srie de
Laxiome (2.3.4), dit axiome
terme gnral P(An ) est convergente (et de somme P(n An )). Il est plus fort que
(2.1.4). Pour le voir, nous commenonsPpar appliquer (2.3.4) avec An = pour tout
n N : si a = P(), nous obtenons n a = a, ce qui entrane a = 0. Ensuite, si
A, B A sont disjoints, nous appliquons (2.3.4) avec A0 = A, A1 = B et An = pour
tout n 2, ce qui donne P(A B) = P(A) + P(B) + n2 P() =EP(A) + P(B), do
P
(2.1.4). IQU
EC HN
O LY T
Notons que toute probabilit vrifie les proprits
P (2.1.5)(2.1.9).
LE
CO
Le rsultat suivant est trs utile dans la pratique, et rpond au problme de modli-
sation que nous nous tions pos en Section 2.3.1. Pour ce rsultat, nous utilisons les
notations suivantes. Si (An ) est une suite dcroissante de parties de , i.e. An+1 An
pour tout n et si A = n An , nous crivons An A. De mme, si la suite (An ) est
croissante, i.e. An An+1 pour tout n et si A = n An , nous crivons An A.
Proposition 2.3.8 Supposons que P : A [0, 1] vrifie (2.3.3) et (2.1.4). Il y a
quivalence entre :
(i) La proprit de -additivit (2.3.4).
(ii) Pour toute suite (An )n croissante,

P (n An ) = lim P(An ). (2.3.5)


n
34 Chapitre 2 Espace de probabilit

(iii) Pour toute suite (An )n dcroissante,

P (n An ) = lim P(An ). (2.3.6)


n

Ce rsultat entrane en particulier que si (An )n est une suite croissante ou dcroissante
dvnements, la suite (P(An ))n admet une limite quand n tend vers linfini.

Preuve. Etant donn (2.1.6), on a (ii) (iii). Montrons que (i) (ii).
E
N IQU
disjoints, et posons Bn = pn Ap etY
C H (An )n dlments de A deux--deux
Supposons dabord (ii). Considrons une suite
BT=En An . Comme P vrifie (2.1.4), elle vrifie
(2.1.7) et P(Bn ) = pn P(ApP
P
O L vers Pn P(An ) et aussi vers P(B) par (ii). Nous
) crot
avons donc (i). OL E
C
Supposons maintenant (i). Soit An A pour n 0, avec An A. Soit aussi B0 = A0 ,
et dfinissons par rcurrence Bn = An \Bn1 , pour n 1. Comme n Bn = A et
comme les Bn sont deux--deux disjoints, nous avons
U E
n
NIQ
C Hp ) = lim
EP(B
X X
P(A) =
LY T
P(Bn ) = lim
n n
P(An ),
PO
n p=0

L E
C Ode (2.1.7). Nous obtenons donc le rsultat.
la dernire galit provenant 

La proprit (2.3.4) donne la probabilit de la runion n An en fonction des proba-


bilits P(An ), lorsque les vnements An sont deux--deux disjoints. Si ce nest pas le
cas, nous avons tout de mme la majoration suivante, trs utile dans la pratique :
E
N I QU
ECH
Proposition 2.3.9 Soit P une probabilit, et soit (An )nI une famille finie ou d-
nombrable dvnements. On a alors
L Y T
E P OX
P(nILAn )
CO
P(An ). (2.3.7)
nI

Preuve. a) Supposons dabord lensemble I fini. Il sagit de montrer que pour tout k
entier,

P(A1 Ak ) P(A1 ) + + P(Ak ). (2.3.8)

Nous montrons cette proprit par rcurrence sur k : elle est vidente pour k = 1.
Supposons la proprit vraie pour k 1, avec k 2, et posons B = A1 Ak1 et
C = B Ak . En vertu de (2.1.8), nous avons P(C) + P(B Ak ) = P(B) + P(Ak ), donc
P(C) P(B) + P(Ak ), et nous en dduisons immdiatement que (2.3.8) est satisfaite
pour k.
2.3 Dfinition gnrale des Probabilits 35

b) Considrons maintenant le cas o I est dnombrable. Nous pouvons supposer sans


restriction que I = N . Posons Bn = ni=1 Ai , qui crot vers lensemble C = nI An .
Daprs (a), nous avons
X n
P(Bn ) P(Ai ).
i=1

Mais le membre de gauche ci-dessus crot vers P(C) en vertu de la proposition prc-
dente, tandis que le membre de droite crot vers nI P(An ). En passant la limite,
P
nous obtenons donc (2.3.7). E
IQU

N
YT ECH
Nous avons pu ainsi construire O L
P dans toute sa gnralit un espace abstrait , une
L E la notion de probabilit sur cette tribu. Cest cette
tribu sur cet espaceCetOdfinir

ide gniale qua introduite Kolmogorov en 1933 : avoir mis au coeur des probabilits
un objet nouveau, une mesure de probabilit, et ne pas sintresser aux causes de
lexprience gnriquement reprsentes par .

I Q UE
Dfinition 2.3.10 On appelle le triplet (, A, P) H unNespace de probabilit. Cest
T E C
un espace mesur au sens de la thorie de la mesure.
P O LY
LE
C O consiste donc dcrire une exprience ala-
La modlisation probabiliste

toire par la donne dun espace de probabilit.

Une question fondamentale va ainsi tre de dcrire et caractriser les mesures


de probabilit dfinies pour des espaces de probabilit de plus en plus gros :
E alatoires, ne
N I QU
N, Q, R, Rn , C([t1 , t2 ], R). Le dernier exemple, qui traite de trajectoires
pourra pas tre abord dans ce cours de base. CH
O LYTE
P
L E de nombreuses probabilits distinctes sur le
Remarquons que lon peut construire
O
mme espace (, A). Nous C beaucoup dexemples ultrieurement, mais nous
verrons
pouvons nous en convaincre rapidement dans le cadre du jeu de Pile ou Face, suivant
que la pice est truque ou non truque. Nous pouvons dfinir sur {0, 1} diffrentes
lois de Bernoulli, en fonction du paramtre p [0, 1] choisi.

La dfinition suivante est fondamentale en thorie des probabilits. Elle introduit une
notion de vrai ou faux qui dpend de la probabilit choisie sur lespace dtats.

Dfinition 2.3.11 Soit (, A, P) un espace de probabilit.

Un vnement de probabilit nulle est dit ngligeable.


36 Chapitre 2 Espace de probabilit

Une proprit est vraie P-presque-srement (en abrg P-p.s.), si lensemble des
pour lesquels elle est vraie est de probabilit gale 1. Dans ce cas, lensemble des pour
lesquels la proprit est fausse est ngligeable.

2.3.5 Probabilits sur un espace dnombrable

Supposons que soit dnombrable. Nous pouvonsI Q U Enumroter ses lments par
alors
N
EIci,C H
{w0 , w1 , , wn , }, n N. La proposition suivante gnralise au cas dnombrable
la proposition 2.2.2 vue dans le cas Y T
fini. la tribu considre est lensemble P()
des parties de . E POL
Proposition 2.3.12 CUneO L probabilit sur un ensemble dnombrable est entirement
caractrise par ses valeurs sur les singletons.

Etant donne une suite (pn )n de nombres rels tels que


E
IQU
X
HN
0 pn 1 , pn = 1,
EC
LY T
n

P O P telle que pour tout A E,


il lui correspond une unique probabilit
E
L
C O=
P(A)
X X
P({n }) = pn . (2.3.9)
n A n A

Preuve. Lorsque est fini, ce rsultat nest autre que la proposition 2.2.2. Lorsque
est dnombrable, la dmonstration est analogue, si ce nest que pour prouver que P
dfinie par (2.3.9) vrifie (2.3.4), il faut utiliser la proprit de sommation par paquets
E
pour les sries. (Voir Section 3.1 ci-aprs.) IQU 
EC HN
Exemple 2.3.13 Soit > 0 et pn = eP O LY T
n

E n! . Il est facile de vrifier que 0 pn 1


L
C1.OLa suite (pn )n dfinit une probabilit sur N, appele
n

et que n pn = e n n! =
P P
loi de Poisson de paramtre . Cette loi fut introduite par Simon Denis Poisson, dans
son ouvrage "Recherches sur la probabilit des jugements en matire criminelle et en
matire civile" (1837).

Exemple 2.3.14 1) Considrons un espace mesurable (, A) et un point 0 fix dans


. Nous pouvons alors dfinir la probabilit 0 , appele mesure de Dirac en 0 , de
la manire suivante : pour A A,

0 (A) = 1 si 0 A ; 0 (A) = 0 si 0
/ A.

Une proprit est alors vraie 0 -presque-srement si elle est satisfaite par 0 , et
lensemble \{0 } est un ensemble 0 -ngligeable.
2.4 Loi dune variable alatoire 37

2) Soit P une probabilit dfinie sur = {w0 , w1 , , wn , }, et pn = P({wn }).


Alors pour tout A A, on a
X
P(A) = pn wn (A).
n

La probabilit P peut donc scrire


X
P= pn wn .
n
UE
H NIQ
2.4 Loi dune variable
LY TEC
alatoire
E PO
L
CO
En thorie moderne des probabilits, on prfre prendre un point de vue fonctionnel
plutt quensembliste, et utiliser les variables alatoires plutt que les vnements. Ce
point de vue sera dvelopp dans la suite du cours. Donnons-en ici uniquement les
ides de base. EU
IQ
HN
E C du rsultat de lexprience. Par
Une variable alatoire est une grandeur quiTdpend
L Y
exemple,
E PO
le nombre de 6 obtenus O L
dans un lanc de 3 ds,
le nombre dappels Cdans un central tlphonique pendant une heure,
la distance du point datteinte dune flche au centre de la cible,
la valeur maximale dun prix dactif sur un intervalle de temps donn,
sont des variables alatoires.
E
En termes mathmatiques, on considre un espace deH NI
probabilit
QU
(, A, P). Une va-
riable alatoire X est une application de (, A)T C
E un ensemble F ,
dans
P O LY
OLE
7 X() F.
C
En pratique, lensemble F pourra tre un ensemble fini ou dnombrable ou R ou Rd
ou un espace plus sophistiqu tel que lensemble C(R+ , Rd ) des fonctions continues
de R+ dans Rd .

Attention : La terminologie, consacre par lusage, est trs malencontreuse et en-


gendre une difficult lie au vocabulaire employ. Une variable alatoire, malgr son
nom, nest pas une variable (au sens de lanalyse), mais une fonction de la variable
.

Intrt fondamental : Comme lespace F est connu dans la pratique, nous allons
prfrer nous intresser aux chances de ralisation des valeurs de X plutt quaux chances
38 Chapitre 2 Espace de probabilit

de ralisation des rsultats de lexprience. Ainsi, grce une variable alatoire X, nous
pouvons transporter la structure abstraite du modle probabiliste (, A, P) sur lespace
darrive F (dont la structure est mieux connue), en posant pour B F

PX (B) = P(X 1 (B)) = P({, X() B}). (2.4.1)

NOTATION : Il est usuel de noter lensemble X 1 (B) = {, X() B} par {X


Eque cette notation simplifie
IQU
B}, ce qui allge les critures. Rappelons-nous toutefois
dsigne un sous-ensemble de . H N
C
O LYTE
P
permet de dfinir PXC
O L Eque pour les A appartenant A, la formule (2.4.1) ne
Comme P(A) nest dfinie
(B) que pour les ensembles B tels que X 1 (B) = {X B} A,
do limportance de la proposition suivante.

E
Proposition 2.4.1 a) La famille F des parties B de F telles que X 1 (B) A est
une tribu de F . IQ U
EC HN
b) Lapplication PX dfinie pour B O
PF par LY T
O L E 1
C
X (B) = P(X (B)) = P(X B)
P

dfinit une probabilit sur la tribu F de F .

Preuve. Les proprits (A1), (A2) et (A3) pour F , ainsi que (2.1.3) et (2.3.4) pour
PX dcoulent immdiatement des proprits du mme nom pour
I Q U E A et P, une fois
remarques les proprits lmentaires suivantes : N
XT
X 1 () = , X 1 (F ) = L, Y 1 ECH
(B c ) = (X 1 (B))c ,
PO
OLE
)C
X 1 (i Ai = i X 1 (Ai ), X 1 (i Ai ) = i X 1 (Ai ). (2.4.2)

Dfinition 2.4.2 La probabilit PX , dfinie sur (F, F ) par (2.4.1) est appele loi de
la variable X, ou distribution de X. Cest la mesure image de P par lapplication
mesurable X.

Elle sera plus facile caractriser que P, puisque F est un ensemble connu (on pourra
en particulier utiliser ses proprits topologiques) alors que est un espace abstrait.
Nous remarquerons quen gnral F 6= P(F ), mme si on a A = P(). Comme PX ne
2.5 Conditionnement et indpendance 39

peut tre dfinie que sur F , ceci constitue une premire raison, dordre mathmatique,
pour quune probabilit soit dfinie sur une tribu qui peut tre strictement plus petite
que lensemble de toutes les parties.

Les variables que nous rencontrerons dans ce cours seront soit valeurs dans un ensemble
dnombrable, soit valeurs dans R ou dans Rd . Nous les appellerons respectivement des
variables alatoires discrtes, relles ou des vecteurs alatoires. Leurs lois seront alors des
probabilits respectivement sur un ensemble dnombrable, sur R ou sur Rd . Nous avons vu
ci-dessus des caractrisations simples des probabilitsI Q E espace fini ou dnombrable.
surUun
N
C Hsur R est beaucoup plus dlicat. Nous
d
En revanche, dcrire les probabilits sur R ou
Y T E et vecteurs alatoires au Chapitre 4.
POL
dvelopperons cela dans le cadre des variables

OL E
C
Exemple 2.4.3 Etudions un lanc de deux ds que lon suppose bien quilibrs. Dans
ce cas, lespace dtats vaut = {(i, j) : 1 i 6 ; 1 j 6}, et il est naturel de
prendre ici A = P(). Considrons un vnement alatoire A . Puisque les ds
U
sont quilibrs, nous dfinissons la probabilit de A par P(A) E= card(A) o card(A)
est le cardinal de A et dsigne le nombre dlmentsNde Q
I A. Cest la36probabilit uni-
H
TEC
1
forme sur , et nous avons P({}) = 36 pour chaque singleton {}.
P O LY
LE
C2,O , 12} dfinie par X(i, j) = i+j est la variable alatoire
Lapplication X : {1,
"somme des rsultats des deux ds". Elle a pour loi
nombre de couples (i, j) tels que i + j B
PX (B) = .
36

UE
1 2
Par exemple, PX ({2}) = PX ({12}) = 36 , PX ({3}) = 36 , etc.
IQ
C HN
EXERCICE 2.4.4 Dessiner le diagramme en bton
O LY T E P de la loi PX de X et remarquer
P
quelle est trs diffrente de la probabilit uniforme dfinie pralablement sur .
LE
CO
2.5 Conditionnement et indpendance

2.5.1 Probabilits conditionnelles

La notion de conditionnement est lune des plus fructueuses de la thorie des pro-
babilits, et la diffrencie fondamentalement de la thorie de la mesure. Lide de
base permettant la comprhension de cette notion est la suivante : une information
supplmentaire concernant lexprience modifie la vraisemblance que lon
accorde lvnement tudi.
40 Chapitre 2 Espace de probabilit

Par exemple (et il serait bien de mditer sur cet exemple trs simple), cherchons, pour un
lanc de deux ds, la probabilit de lvnement la somme est suprieure ou gale 10.
Elle vaut 16 sans information supplmentaire, 21 si lon sait que le rsultat dun des ds
est 6, 0 si lon sait a priori que le rsultat dun des ds est 2. Pour obtenir ces rsultats,
nous avons dans chaque cas calcul le rapport du nombre de rsultats favorables sur le
nombre de cas possibles. Nous remarquons quil est indispensable de bien dfinir lespace
de probabilit li lexprience munie de linformation a priori. Remarquons galement
que linformation a priori a chang la valeur de la probabilit de lvnement alatoire.

UE
Lapproche intuitive pour formaliser cette notion
H NIQconsiste revenir la notion de
T E C de lvnement A sachant que lv-
frquence empirique. La frquence de ralisation
P O LY est gale au nombre de ralisations de A
nement B est ralis, sur n expriences,
O L EB est ralis. Elle vaut donc
parmi celles pour lesquelles
C
nAB fn (A B)
= ,
nB fn (B)

U E suivante.
et en faisant tendre n vers linfini, nous aboutissons la dfinition
IQ
N
ECH
O LY T
Dfinition 2.5.1 Soit A et B deuxPvnements,
O
tionnelle de A sachant BCest L
le
E
nombre
avec P(B) > 0. La probabilit condi-

P(A B)
P(A|B) = . (2.5.1)
P(B)

Cela dfinit bien une probabilit comme lnonce la proposition suivante.


IQ UE
C HN
Proposition 2.5.2 1) Soit (, A, P) un espaceTdeEprobabilit et B un vnement de
L Y
socie P(A|B) dfinit une nouvelle L E P O sur , appele probabilit
A de probabilit strictement positive. Alors
probabilit
lapplication de A dans [0, 1] qui A as-
conditionnelle
sachant B. CO
2) Si P(A) > 0 et P(B) > 0, nous avons

P(A|B) P(B) = P(A B) = P(B|A) P(A).

Preuve. Il est clair que 0 P(A|B) 1. Par ailleurs, les proprits (2.3.3) et (2.3.4)
pour P(|B) proviennent des mmes proprits pour P et des remarques suivantes :
B = B, et (n An ) B = n (An B). De plus, si A et C sont disjoints, il en est
de mme de A B et C B. Lassertion (2) est vidente. 
2.5 Conditionnement et indpendance 41

Proposition 2.5.3 Formule des probabilits composes. Si A1 , ..., An sont des


vnements de tels que P(A1 A2 ... An1 ) > 0, alors
P(A1 A2 ... An ) = P(A1 ) P(A2 |A1 ) P(A3 |A1 A2 )...P(An |A1 A2 ... An1 ).

(2.5.2)

Preuve. La dmonstration se fait par rcurrence. Si n = 2, les formules (2.5.1)


U E vraie pour n 1, et soit
et (2.5.2) sont les mmes. Supposons que (2.5.2) soit
B = A1 A2 ... An1 . Daprs (2.5.1), onNaI Q
P(B An ) = P(B)P(An |B). En
H avec n 1, nous obtenons (2.5.2)
E C(2.5.2)
remplaant P(B) par sa valeur donneTpar
pour n. OL Y
P 
LE
CO
Proposition 2.5.4 Formule des probabilits totales. Soit (Bi )iN une partition
finie ou dnombrable dvnements de , telle que P(Bi ) > 0 pour chaque i. Pour tout
A A, on a alors

I Q UE
P(A|BN
X X
P(A) = P(A Bi ) = ) i ). (2.5.3)
CH
i P(B
i
LY TEi

E PO
Preuve. Nous avons A =CO L(A Bi). Par hypothse, les ensembles (A Bi ) sont
pariIailleurs P(A
deux--deux disjoints, et Bi ) = P(A|Bi ) P(Bi ). Il suffit alors dap-
pliquer (2.3.4). 

Thorme 2.5.5 Formule de Bayes. Sous les mmes hypothses que dans la pro-
position 2.5.4, et si P(A) > 0, UE
NIQ
i N, P(Bi |A) = P Y T E
C Hi ) .
P(A|Bi ) P(B
(2.5.4)
OjLP(A|Bj ) P(Bj )
P
LE
CO
Preuve. Le dnominateur de (2.5.4) vaut P(A) daprs (2.5.3), tandis que (2.5.1)
implique
P(A Bi ) P(A|Bi ) P(Bi )
P(Bi |A) = = .
P(A) P(A)


Exemple 2.5.6 Un individu est tir au hasard dans une population o lon trouve
une proportion 104 de sropositifs. On lui fait passer un test de dtection de la
sropositivit. Par ailleurs, des exprimentations antrieures ont permis de savoir que
les probabilits davoir un rsultat positif lors de lapplication du test si lindividu est
42 Chapitre 2 Espace de probabilit

sropositif, ou sil ne lest pas, sont respectivement gales 0, 99 (cest la sensibilit


du test) et 0, 001 (0, 999 = 1 0, 001 est la spcificit du test). Sachant que le test
donne un rsultat positif, quelle est la probabilit pour que lindividu soit effectivement
sropositif ?

Solution : Considrons les vnements A lindividu est sropositif, et B le test


de dtection donne un rsultat positif. Les donnes fournissent P(A) = 104 do
P(Ac ) = 0, 9999, P(B|A) = 0, 99 et P(B|Ac ) = 0, 001. Nous trouvons alors
E
IQU
P(A B)
P(A|B) = =
N
E C H P(A)
P(B)
Y T
= OL
P(B|A)
E PP(B|A) P(A) + P(B|Ac )P(Ac )
L
CO = 0, 99 104
' 0, 09.
0, 99 104 + 0, 001 0, 9999
Remarquons que contrairement lintuition, cette probabilit est petite.
UE
I Qdeux catgories, les bien in-
Exemple 2.5.7 On classe les grants de portefeuilles
H Nen
forms et les autres. Lorsquun grant bien T E C achte une valeur boursire pour
inform
Y pralable
son client, on peut montrer par une O L
P le grant est malque
tude la probabilit que le cours
de cette valeur monte est de 0, L E
8. Si inform, la probabilit que le
cours descende est de 0, 6.C O
On sait par ailleurs que si lon choisit au hasard un g-
rant de portefeuille, il y a une chance sur 10 que celui-ci soit un grant bien inform.
Un client choisit au hasard un grant dans lannuaire, et lui demande dacheter une
valeur. Sachant que le cours de cette valeur est mont, cherchons la probabilit pour
que le grant soit mal inform.
E
N IQU
Solution : Notons M lvnement la valeur monteEetCIH lvnement le grant est bien
Y T
P OL
inform. Par la formule des probabilits totales, la probabilit que la valeur monte

O L Ec c
vaut
C
P(M ) = P(M |I) P(I) + P(M |I ) P(I ) = 0, 8 0, 1 + 0, 4 0, 9 = 0, 44.
La formule de Bayes donne alors
P(M |I c ) P(I c ) 0, 4 0, 9
P(I c |M ) = = = 0, 818.
P(M ) 0, 44

2.5.2 Indpendance

La notion dindpendance est absolument fondamentale en probabilits et nous verrons


par la suite toutes ses implications dans la modlisation de lalatoire.
2.5 Conditionnement et indpendance 43

Evnements indpendants

Intuitivement, deux vnements A et B sont indpendants si le fait de savoir que A est


ralis ne donne aucune information sur la ralisation de B et rciproquement.

Supposons que la ralisation de lvnement B nait aucune influence sur la ralisation


de A. Alors, aprs n expriences, la frquence empirique de ralisation de A sera
approximativement la mme, que lon sache ou non que B est ralis. Ainsi donc,
E
fn (A|B) = fnf(AB)
n (B) Q U fn (A). (Le conditionnement
doit tre approximativement Igal
N
ne change pas linformation que lon a surC H
E lexprience). Par passage la limite sur
LY T
le nombre dexpriences, nous en dduisons les dfinitions suivantes.
E PO
L
CO
Si B est un vnement de probabilit strictement positive, A sera dit indpendant
de B si
P(A B)
P(A|B) = P(A) =
P(B)

I Q UE
On remarque que cette formule se symtrise et la notion dindpendance se dfinit
HN
finalement comme suit.
Dfinition 2.5.8 Deux vnements alatoiresT E
A C
et B de probabilit strictement positive
sont indpendants si et seulement siP O L
Y
LE
C OP(A B) = P(A) P(B). (2.5.5)
La probabilit de voir A ralis ne dpend pas de la ralisation de B, et rciproquement.

Remarque 2.5.9 1) Cette notion est une notion lie au choix de la probabilit P et
nest pas une notion ensembliste. Cela na en particulier rien voir avec le fait que A
E
QU
et B soient disjoints ou non. (Cf. Exemple 2.5.10 2) ci-dessous).
NI
H
TEC
2) Si P(A) > 0 et P(B) > 0, alors
P O LY
L EP(A|B) = P(A) P(B|A) = P(B).
P(A B) = P(A) P(B)O
C
Exemple 2.5.10 1. On lance 3 fois un d. Si Ai est un vnement qui ne dpend
que du ime lanc, alors A1 , A2 , A3 sont indpendants.
2. On tire une carte au hasard dans un jeude 52 cartes. A = {la carte est une dame};
4
B = {la carte est un coeur}. Il est facile de voir que P(A) = 52 , P(B) = 13
52 ,
1
et P(A B) = P( la carte est la dame de coeur ) = 52 = P(A) P(B). Ainsi, les
vnements A et B sont indpendants pour la probabilit uniforme P.
3. Supposons maintenant que le jeu de cartes soit trafiqu. Soit Q la nouvelle
probabilit correspondant au tirage de cartes. Supposons que
1 1 1 1
Q(valet de pique) = , Q(autre carte) = = .
2 2 51 102
44 Chapitre 2 Espace de probabilit

Alors
1 2 13
Q(A B) = 6= Q(A) Q(B) = .
102 51 102
Les vnements A et B ne sont pas indpendants sous la probabilit Q.

Nous laissons en exercice (trs simple vrifier) la dmonstration de la proposition


suivante, dont le rsultat est tout fait intuitif.
E
IQU
Proposition 2.5.11 Si les vnements A et B sont indpendants, alors il en est de
mme de A et B c , Ac et B, Ac et B c . H N
TEC
O LY une suite finie ou infinie dvnements de la
La notion dindpendance se gnralise
P
manire suivante. LEO
C suite (An )n dvnements de (, A, P ) est dite indpendante
Dfinition 2.5.12Une
si
P(Ai1 ... Aik ) = P(Ai1 )...P(Aik )

UE
pour toute suite finie (i1 , ..., ik ) dentiers deux deux distincts.
NIQ
H la suite (A, B, C) soit indpen-
Cette dfinition est dlicate. Par exemple, pour Cque
T Eles
O Y
dante, la proprit doit tre vrifie pourLtoutes intersections de deux ensembles et
lintersection des 3 ensembles. L ne P
Il E suffit pas davoir P(A B C) = P(A) P(B) P(C).
Par exemple, prenons O de d avec A = {1, 2, 3}, B = {2, 4, 6} et C =
unClanc
{1, 2, 4, 5}. Nous avons P(A) = 21 , P(B) = 12 , P(C) = 23 . Ainsi, nous avons bien
P(A B C) = P(A) P(B) P(C) mais P(A B) 6= P(A) P(B).

Il ne suffit pas non plus que les vnements soient indpendants deux deux. On joue
2 fois Pile ou Face et on considre les vnements A = { Face au premier lanc },
E
I Q U le mme rsultat}.
B = { Face au deuxime lanc } et C = {les deux tirages donnent
N
T CH
On vrifie que ces vnements sont deux deux indpendants mais que la probabilit
Eprobabilits.
L
de leur intersection nest pas gale au produitY des
PO
C OLE
Expriences alatoires indpendantes et espace de probabilit produit

Considrons une suite despaces de probabilit (n , An , Pn ). Nous avons vu que ces


espaces modlisent des expriences alatoires. Nous souhaiterions construire un espace
de probabilit rendant compte de toutes ces expriences indpendantes les unes des
autres.

Si nous avons uniquement deux espaces (1 , A1 , P1 ) et (2 , A2 , P2 ), nous prendrons


= 1 2 , que nous munirons de la tribu produit A = A1 A2 . Cette tribu
produit de A1 et A2 est dfinie comme tant la tribu engendre par les pavs A1 A2 ,
A1 A1 , A2 A2 , (voir dfinition 2.3.3). Nous dfinissons P sur les pavs de A par
2.5 Conditionnement et indpendance 45

P(A1 A2 ) = P1 (A1 ) P2 (A2 ). On peut montrer que cela suffit pour caractriser une
probabilit sur A, que lon appelle probabilit produit, note P1 P2 .

Nous pouvons gnraliser cette notion despace de probabilit produit, et considrer


le produit (dnombrable) cartsien = n n , A = n An o n An dsigne la plus
petite tribu de engendre par les produits cartsiens finis dlments des tribus
coordonnes, donc contenant tous les ensembles de la forme

A1 A2 ... Ak k+1 k+2 ..., Ai EAi , k = 1, 2, 3, ...


U
H NIQ
Il est possible de montrer par un thorme C
T Egnral de thorie de la mesure quil existe
une unique probabilit P sur (, A) L Y
qui vrifie
E PO
L
P (A
1CAO2 ... Ak k+1 k+2 ...) = k Pi(Ai )
i=1

pour tous k = 1, 2, ... et Ai Ai . Cette probabilit rend ainsi indpendantes les


expriences alatoires correspondant chaque espace (n , An , Pn ).
I Q UE
N gaux, cela nous permettra de
ECH
En particulier, en prenant tous les espaces coordonnes
T
modliser la mme exprience rpte uneYinfinit (dnombrable) de fois, de manire
POL
indpendante et dans les mmes conditions.
E
L
CO
Exemple 2.5.13 Considrons les lancs successifs et indpendants dune mme pice
de monnaie, telle que la probabilit de tirer Face soit gale p ]0, 1[. Soient Fn
lvnement Face au n-ime lanc et Pn lvnement Pile au n-ime lanc. Soit T
la variable alatoire dcrivant le premier lanc pour lequel un Pile est obtenu. Alors,
par indpendance des lancs, nous avons pour k N,
U E
IQ
P(T = k) = . EFC
P(F1 F2 . . T
HN
k1 Pk )
L Y
= P O P(Pile) = pk1 (1 p).
P(Face)k1

LE
Remarquons que CO
X
P(T < +) = P(T = k) = 1,
k1

donc P(T = +) = 0. La loi de T est appele loi gomtrique de paramtre p.

Nous allons maintenant voir un thorme fameux, dans lequel intervient fondamen-
talement la notion dindpendance, et qui sera trs important, en particulier pour les
thormes de convergence (cf. Chapitre 5).
46 Chapitre 2 Espace de probabilit

2.5.3 Le Lemme de Borel-Cantelli

Considrons une suite (An )n dvnements alatoires. Nous dfinissons lensemble


lim supn An comme tant lensemble

lim sup An = p np An .
n

Remarquons que
IQ UE
HN
p, nC p, tel que An
YTE
lim sup An
n
P O L
LE appartient une infinit de An
CO
X
1An () = +.
n

De mme,
E
U fini de An .

/ lim sup An I Qnombre
appartient au plus un
n
EC HN
LY T
O dvnements de A.
Thorme 2.5.14 Soit (An )n unePsuite
L E
Si la srie
n )O< +, alors P(lim supn An ) = 0, cest dire que P-
n P(AC
P
presque srement, il y a au plus un nombre fini de An qui sont raliss.
Si de plus la suite (An )n est indpendante, alors
X
P(An ) = + = P(lim sup An ) = 1. (2.5.6)
n
UE
n

n I
Dans ce cas, P-presque srement, une infinit de AN Q raliss.
ECH
sont
Y T
O L plus vraie dans le cas o la suite nest
Il est clair que cette dernire propritPnest
E
L convaincre de prendre tous les An gaux un
pas indpendante. Il suffit pourOsen
C
mme vnement A de probabilit P(A) ]0, 1[.

La premire partie de ce lemme est un outil prcieux pour dmontrer quune proprit
est vraie P-presque srement. Nous en verrons un exemple dans la preuve de la loi
forte des grands nombres donne au paragraphe 4.2. La deuxime partie du lemme
caractrise entirement, dans le cas indpendant, le fait que P(lim supn An ) vaut 0 ou
1 suivant la convergence ou la divergence de la srie de terme gnral P(An ).

Preuve. Remarquons tout dabord que


X
P(lim sup An ) = lim P(np An ) lim P(An ), (2.5.7)
n p p
np
2.6 Exercices sur le chapitre 2 47

o lim dsigne la limite dune suite dcroissante.

Si la srie n P(An ) est convergente, le reste de cette srie tend vers 0 et (2.5.7)
P
implique que P(lim supn An ) = 0.

Supposons maintenant que les An soient indpendants et que la srie P(An )


P
n
diverge. Soit m un nombre entier. Nous avons
c U E
P(m 1 P(m I QP
c m
i=p Ai ) = i=p Ai ) = 1 i=p P(A i) grce lindpendance
H N
EC 1 e i=p P(Ai)
m

= i=p (1 P(AT
1 m i ))

P O LY
grce lingalit 1 x LeE
x
pour x 0. Ainsi,
CO P
P(Ai )
P(
i=p Ai ) 1 e
i=p =1

et lon conclut finalement que pour tout p, P(


i=p Ai ) = 1, ce qui implique finalement
E
que P(lim supn An ) = 1. IQU 
EC HN
PO LY T
LE
Application percutante : Considrons une suite de parties indpendantes de Pile
CO
ou Face, la probabilit dapparition dun Pile tant gale p ]0, 1[. Soit A un "mot"
de longueur l choisi a priori, cest dire une suite de l termes dont chaque lettre est P
ou F . Dsignons par A1 lvnement consistant en le fait que le mot se ralise dans les
l premires parties, par A2 lvnement consistant en le fait que le mot se ralise dans
les l parties suivantes, etc. Les vnements A1 ,P A2 , ..., sont indpendants et pour tout
n 1, nous avons P(An ) = P(A1 ) > 0, do n P(An ) = +. E Il rsulte du lemme
I Q Ugale
de Borel-Cantelli (deuxime assertion), quavec une probabilit
H N 1, le mot A se
ralise une infinit de fois au cours du jeu. Le mme E C
Talors, raisonnement montre que si un
L Y
E P Oinfinit de fois au cours de la frappe. Cest
singe tape au hasard sur une machine crire, avec une probabilit gale 1,
le mot ABRACADABRA se ralisera
O L il tapera aussi une infinit de fois le livre " LA
Cdonc
vrai pour nimporte quel texte,
une

RECHERCHE DU TEMPS PERDU".

2.6 Exercices sur le chapitre 2

EXERCICE 2.6.1 1) Parmi n personnes en prsence (n 365), quelle est la proba-


bilit pour quau moins deux personnes soient nes le mme jour ? (On conviendra de
ne pas prendre en compte les personnes nes le 29 fvrier). Que vaut cette probabilit
pour n = 4, n = 16, n = 22, n = 40, n = 64 ?
48 Chapitre 2 Espace de probabilit

2) Dterminer nmin pour que la probabilit quau moins deux personnes soient nes
le mme jour soit suprieure 0, 5. On pourra utiliser la formule de Stirling m! m
1
2mm+ 2 em .

EXERCICE 2.6.2 Montrer la formule de Poincar :


n
X
P (nm=1 Am ) = p1 p2 + ... + (1)n1 pn = (1)k1 pk (2.6.1)

IQ UE
k=1
N
o
XLY T
ECH
pk = P O ... Aik ). (2.6.2)
O L E1i <...<i n
P(Ai 1

C 1 k

EXERCICE 2.6.3 Un facteur possde n lettres adresses n destinataires distincts.


Il est totalement ivre et poste au hasard une lettre par bote.E
N IQU
Y T ECH ?
Quelle est la probabilit dobtenir la bonne rpartition

P OauL moins arrive la bonne adresse ?


Quelle est la probabilit quune lettre
E
L
CO
Quelle est la probabilitquaucune lettre narrive la bonne destination ?

Quel est le nombre dn de manires diffrentes de poster les lettres de telle sorte
quaucune narrive destination ?

E dfinie par pn =
EXERCICE 2.6.4 Soit a ]0, 1[. Montrer que la suite de nombres
U
(1 a)an1 caractrise une probabilit sur N . INQ
T E CH
EXERCICE 2.6.5 M. et Mme Barbtipoil Y ont deux enfants, garons ou filles, les
P O Lest la probabilit que les deux enfants
4 configurations sont quiprobables. Quelle
Barbtipoil soient des filles, C O L
E

1. sans autre information,
2. sachant que lane est une fille,
3. sachant que lun des deux enfants est une fille.

EXERCICE 2.6.6 Modle de Hardy-Weinberg. Les caractres hrditaires dans cer-


tains organismes, tels que les humains, sont ports par des paires de gnes. Dans le
cas le plus simple, chaque gne peut prendre deux formes appeles allles, A et a. Ces
allles se trouvent dans une population parentale avec les proportions p et q. Comme
Aa et aA ne sont pas discernables, il y a 3 gnotypes possibles, AA, aa, Aa. Nous sup-
poserons que la reproduction peut avoir lieu entre deux individus quelconques de la
population, indpendamment des gnes considrs. Chaque parent transmet un gne
2.6 Exercices sur le chapitre 2 49

de son gnotype de faon quiprobable, les deux gnes ainsi obtenus constituant le
gnotype du descendant.

Calculer la probabilit des diffrents gnotypes dans la gnration suivante. Montrer


que la proportion de chacun des allles reste la mme dans la deuxime gnration.

EXERCICE 2.6.7 Lhmophilie est transmise par la mre. La reine porte le gne
de lhmophilie avec une probabilit de 0, 5. Si elle est porteuse, chaque prince aura
une chance sur deux de souffrir de cette maladie. La reine
U E a eu 3 fils non hmophiles.
NI Q
Quelle est la probabilit quelle soit porteuse du gne ? Sil nat un quatrime prince,
avec quelle probabilit sera-t-il hmophileE?C H
O LYT
P
EXERCICE 2.6.8 Le L Edes 3 portes est un jeu tlvis populaire (Lets make a
Ojeu
C
deal) diffus dans les annes 70 aux USA. Trois portes A, B, C sont fermes. Derrire
lune delle il y a une Ferrari, derrire les autres une chvre.
Le joueur choisit une porte, disons A.
E alors quelle nest pas
Le prsentateur, qui sait o se trouve la voiture, linforme
derrire la porte B et lui offre la possibilit de N I Q Uson choix (i.e. de choisir
rviser
la porte C).
Y T ECH
OL ?
Le joueur a-t-il intrt rviser sonPchoix

EXERCICE 2.6.9 UnproblmeC OLE simple de dmographie. Soit a ]0, 1[. Soit pk , la
probabilit quune famille ait k enfants. Nous supposons que
p0 = p1 = a ; pk = (1 2a)2(k1) , k 2,
et que P(Fille) = P(Garon) = 21 .
E
IQU
GnN: n garons.
On pose : En : la famille a n enfants, Fn : n filles, H
C
O LYTE
P
LE
1) Quelle est la probabilit pour quune famille ayant deux filles aient deux enfants
seulement ?
C O
2) Quelle est la probabilit quune famille ait deux garons sachant quelle a deux
filles ?

EXERCICE 2.6.10 On jette indfiniment une pice de monnaie, la probabilit


dapparition dun Face tant gale p. Soit Ak , pour k entier, lvnement selon
lequel au moins "k Faces" conscutifs apparaissent au cours des lancs numrots 2k ,
2k + 1, , 2k+1 1.
1 1
Montrer que P(lim supk Ak ) vaut 0 ou 1 selon que p < 2 ou que p 2. Comment
interprtez-vous ce rsultat ?
50 Chapitre 2 Espace de probabilit

EXERCICE 2.6.11 Montrer quil nexiste pas de probabilit P sur (N, P(N)) telle
que P(kN) = k1 pour tout entier k, o kN dsigne lensemble des entiers multiples
de k.

IQ UE
C HN
O LYTE
P
LE
CO

U E
NIQ
TE CH
LY
PO
LE
CO

IQ UE
C HN
O LYTE
P
LE
CO
Chapitre 3
IQ UE
C HN
O LYTE
Variables Lalatoires
E sur un P
CO
espace fini ou dnombrable
U E
NIQ
Y T ECH
P L ; for men thus endowed seem to have an
I have deeply regretted that I did O
not proceed at least to understand something of
the great leading principles of L E
mathematics
extra sense. CO
Charles Darwin, Uses and abuses of Mathematics in Biology

IQ UE
HN
L Y TEC
Dans ce chapitre et le suivant, nous allons
E P Odvelopper une tude plus systmatique des
O
variables alatoires et de leur loi. La L
grande nouveaut va tre de comprendre que ce nest
Cque
pas la variable alatoire en tant fonction prcise de lala qui nous intresse, mais sa
loi, cest--dire la description de son comportement probable.

3.1 Prrequis : quelques rsultats utiles sur les sries

Nous rappelons les rsultats essentiels sur les sries, qui seront dusage constant dans
ltude des variables alatoires sur un espace dnombrable.

Soit (un )n1 une suite numrique, et Sn = u1 +...+un la somme partielle lordre n.

51
52 Chapitre 3 Espace fini ou dnombrable

S1 La srie n un est dite convergente si Sn converge vers une limite finie S, note
P
aussi S = n un . (Cest la somme de la srie).
P

S2 Si la srie n un converge, la suite (uPn )n1 tend vers 0. La rciproque est


P
fausse : on peut avoir un 0 sans que la srie n un converge. (Prendre par exemple
un = n1 ).
IQ UE
C HN
S3 La srie
Y T Econvergente
un est dite absolument si la srie |un | converge.
P P

POL
n n

S4 Si un 0 pour
OLE
Ctout n, alors la suite Sn est croissante,P
donc elle tend toujours
vers une limite S ventuellement infinie. On crit encore S = n un , bien que la srie
converge au sens de (S1) si et seulement si S < .

I Q UE
N
T
existe en effet de nombreux exemples de suites
C H dune srie est important. Il
En gnral lordre dans lequel on considre les termes
E (un )n1 et de bijections v de N dans
lui-mme pour lesquels n un converge
P
P O LYet n uv(n) diverge, ou converge vers une
P
il E
L
CO
somme diffrente. Cela tant, existe deux cas importants o lordre des termes na
pas dimportance :

S5 Si un 0 pour tout n, la somme n un ne change pas si lon change lordre


P
de sommation. Rappelons rapidement la dmonstration de cette proprit, qui est
fondamentale pour les probabilits : soit v une bijection de U E
N dans lui-mme,
0
Sn = u1 + . . . + un et Sn = uv(1) + . . . + uv(n) ; les suites Q
N I (Sn ) et (Sn0 ) sont crois-
H
C R {+}). Pour tout n il
YqueEi n.+Comme ui 0, clairement
santes. Notons S et S leur limites respectivesT(dans
0

existe un entier m(n) tel que v(i) m(n)Ods


P L
Sn0 Sm(n) S et donc en passant
O LE0 la limite nous obtenons S 0 S. Nous montrons
0
de mme que S S , et donc CS = S .

S6 Lorsque les un sont des rels de signe quelconque et que la srie est absolu-
ment convergente, nous pouvons modifier de manire arbitraire lordre des termes
sans changer la proprit dtre absolument convergente, ni la somme de la srie.

S7 Si un 0, il est possible de sommer par paquets. Cela signifie la chose sui-


vante : soit (Ai )iI une partition finie ou dnombrable de N . Pour chaque i I,
posons vi = nAi un . Si Ai est fini, cest une somme ordinaire ; sinon vi est elle-
P
mme la somme dune srie termes positifs. Nous avons alors n un = iI vi , qui
P P
3.2 Variables alatoires discrtes 53

est de nouveau la somme dune srie termes positifs si I = N . La dmonstration


de ce rsultat est analogue celle de (S5) ci-dessus.

S8 Si la srie un est absolument convergente, la proprit (S7) est encore vraie.


P
n

S9 Thorme de Fubini pour les sries. Soit (amn )m,nN une srie double telle
que la
P srie de terme gnral m |amn | converge. Alors les sries m amn et
P P P

n amn sont convergentes et de mme somme.Q U


E n

NI
P
m
H
TEC
P O LY
3.2 LE
VariablesOalatoires discrtes
C
Dans tout ce chapitre, lespace est fini ou dnombrable.

Nous supposons donne une probabilit P sur (muni de Ela tribu de ses parties
P()), caractrise par les p = P({}). Alors toute N I Q U dfinie sur est une
application
H
Y T deCX (i.e.Lalensemble
variable alatoire et lensemble F des valeurs E
parcourt ) est ncessairement fini ouLdnombrable.
des X() lorsque
loi de X est une probabilit
E P Osavons que cette probabilit PX est caractrise
L
sur F . Par la proposition 2.3.12, nous
par les nombres CO
X
pX
i = PX ({xi }) = P({, X() = xi }) = P(X = xi ) = p , xi F.
,X()=xi
(3.2.1)
E
Ainsi, N IQU
T E CXH valeurs dans un espace d-
Proposition 3.2.1 La loi dune variable alatoire
Y
nombrable F est caractrise par OL
LEP
{ (xi , pX
CxO
i ), i F, avec pX
i = P(X = xi ) }.

Exemple 3.2.2 Une variable alatoire de loi uniforme sur {1, . . . , n} a pour loi
{ (k, n1 ), 1 k n}.

La reprsentation graphique dune loi de variable discrte en utilisant un diagramme


en btons est trs parlante. Les valeurs xi sont places en abscisse et les images pX
i
en ordonne.

La reprsentation graphique ne donne pas dinformation quantitative sur la loi. Dans


les paragraphes suivants, nous allons dfinir des nombres rels qui vont rsumer en
un certain sens le comportement de la variable alatoire.
54 Chapitre 3 Espace fini ou dnombrable

3.3 Esprance des variables alatoires discrtes

Nous supposons ici que F R.

3.3.1 Dfinition

Motivation : Rptons n fois une exprience alatoire,Eet notons X1 , . . . , Xn les


valeurs successives prises par X. Pour avoir uneN ide
U comportement de la variable
I Qdu
X, il est naturel de considrer leur moyenne H
E Carithmtique Mn = n1 (X1 + . . . + Xn ) .
(Pensez vos propres calculs deO L Y T
E P moyennes en tant qulves.) En regroupant suivant
L
les diffrents rsultats de lexprience, nous obtenons
CO X
Mn = fn ({}) X(),

o fn ({}) est la frquence de ralisation du singleton {} au E cours des n expriences.


Nous voulons faire tendre n vers linfini. Si la propritI Q U
(2.1.1) intuite au Chapitre
H N lexpression ci-dessus on peut
1 est vraie, cest--dire si fn ({}) p , etEsiCdans
Y Ten particulier vrai si est fini), alors la
intervertir la somme et la limite (ce quiLest
O
suite (Mn )n tend vers pL E P : lesprance mathmatique, ou moyenne, est la
X()
P

C O
limite des moyennes arithmtiques lorsque le nombre dexpriences tend vers linfini.
Nous justifierons cette assertion plus loin, dans lun des thormes les plus importants
de la thorie des probabilits, appel la loi des grands nombres.

Dfinition 3.3.1 Soit X une variable alatoire relle sur lespace fini ou dnombrable
(i.e. une application de dans R). Son esprance (appele aussi E
I Q U parfois moyenne) est
le nombre N
T E CH
Y
X
E(X) = pLX(), (3.3.1)
E PO
O L

pourvu que la somme


P
Cp |X()| soit finie.

(Rappelons que, en vertu de (S6), comme la srie de terme gnral p X() est
absolument convergente, la somme E(X) de la srie ne dpend pas de la manire dont
les sont ordonns.)

Remarque : E(X) est un nombre rel qui donne une valeur moyenne rsumant la
variable alatoire X.

Lesprance mathmatique dune variable alatoire est lun des concepts les plus impor-
tants de la thorie des probabilits. La dnomination desprance pour cette quantit fait
3.3 Esprance des variables alatoires discrtes 55

rfrence aux problmes de jeux et desprance de gain. Cette terminologie image a t


introduite par Pascal.

Thorme 3.3.2 Considrons une variable alatoire X satisfaisant p |X()| =


P
E(|X|) < +. On a alors la formule fondamentale suivante :
X X X
E(X) = p X() = xi P(X = xi ) = xi pX
i . (3.3.2)
xi F xi F
E
I QXUne dpend que de la loi de X.
En particulier, nous remarquons que lesprance de
EC HN
LY T consiste
Preuve. La preuve de cette proposition
O juste observer que la sommation
P
LE
par paquets est justifie par (S8) puisque |X()| = E(|X|) < +, puis
p
P
crire
C O
X X X X X X
E(X) = p X() = p xi = xi P({; X() = xi }) = xi pi .
xi F ,X()=xi xi F xi F

U E
NIQ


Y T ECH
Analogie avec une notion de mcanique
E POL : Le concept desprance est rappro-
O
cher de la notion de centre de L
gravit dun groupe de masses au sens de la mcanique.
Considrons en effet une Cvariable X de loi de probabilit {(xi , P(xi )), i 1}. On
montre que si les masses P(xi ), i 1 sont rparties sur une barre sans poids aux
abscisses xi , i 1, le centre de gravit, cest dire le point sur lequel la barre pourra
tre pose et rester en quilibre, est dabscisse E(X). En effet, il suffit dtablir que
la somme des moments des forces gravitationnelles par rapport au point dabscisse
E(X) est nulle. En dautres termes, il suffit de montrer que U E
H NIQ
T E Ci ),
X
0= (xi E(X))P(x
P
i O LY
LE
ce qui est immdiat.
CO
Exemple 3.3.3 Un nombre est choisi au hasard entre 1 et 10, et nous devons deviner
ce nombre en posant des questions auxquelles il ne sera rpondu que par oui ou
par non. Calculons lesprance du nombre N de questions ncessaires dans les cas
suivants :

La ime question est du type Est-ce i ?", i tant gal 1, 2, ..., 10 :


Soit Ak lvnement : le nombre k {1, ..., 10} a t choisi". Alors
1
P(N = k) = P(N = k|Ak )P(Ak ) = ,
10
56 Chapitre 3 Espace fini ou dnombrable

et
10
X 11
E(N ) = k P(N = k) = .
2
k=1

Avec chaque question, nous essayons dliminer peu prs la moiti des rponses
possibles, avec le protocole suivant : est-ce 5, 2 (resp. 7), 4 (resp. 9).
Alors
6 4 17
E(N ) = 3 +4 = .
10 10 5
IQ UE
C HN
3.3.2 Y T E des variables alatoires discrtes
Proprits de lesprance
POL
LE
Dfinition 3.3.4 C Oappelons variable alatoire
Nous P intgrable une variable alatoire X
qui admet une esprance, cest dire telle que p |X()| = E(|X|) < +. Len-
semble de toutes les variables alatoires intgrables est not L1 . Lensemble L1 dpend
de et de la probabilit P.
U E
NIQ
Les proprits suivantes sont immdiates :
TE CH
LY
Proposition 3.3.5 L1 L PO
estEun espace vectoriel, et lesprance est linaire sur
a,Ob R,
L1 : X, Y L1 , C

E(aX + bY ) = a E(X) + b E(Y ). (3.3.3)

X L1 |X| L1 , et dans ce cas,

|E(X)| E(|X|).
IQ UE (3.3.4)
C HN
Lesprance est positive :
O LYTE
P
O L E 0)
si X 0 (i.e. , X()
C
et X L1 , alors E(X) 0. (3.3.5)

Si X, Y L1 , telles que X Y (i.e. , X() Y ()), alors

E(X) E(Y ). (3.3.6)

L1 contient toutes les variables alatoires bornes.


(X est dite borne sil existe un rel b tel que |X()| b pour tout ).
Lesprance dune variable constante est gale cette constante :

Si X() = a pour tout , alors E(X) = a. (3.3.7)

Si est fini, L1 contient toutes les variables alatoires relles.


3.3 Esprance des variables alatoires discrtes 57

Exemple 3.3.6 Supposons que A soit un vnement alatoire et dfinissons la va-


riable alatoire X de la manire suivante : X() = 1 si A, et X() = 0 si
/ A.
Cette variable alatoire est note X = 1A et est appele fonction indicatrice de A.
Nous remarquons alors que

E(X) = E(1A ) = P(A),

ce qui donne le lien entre la probabilit dun vnement et lesprance dune variable
alatoire.
IQ UE
HN
TEC
3.3.3 O LY
Variance et cart-type
P
LE
CO
Nous allons maintenant introduire un second ensemble de variables alatoires , len-
semble L2 des variables alatoires X relles telles que le carr X 2 soit intgrable. Nous
dirons dans ce cas que X est de carr intgrable.

I Q UE
Proposition 3.3.7 2
Hde
L est un sous-espace vectoriel N L , et si X L2 on a
1

E C
|E(X)| P O LY T E(X 2 ).
E(|X|) (3.3.8)
L E
CO
Preuve. Soient X et Y deux variables alatoires relles et a R. Si X et Y sont dans
L2 , et comme (aX + Y )2 2a2 X 2 + 2Y 2 , nous dduisons de (3.3.3) que aX + Y L2 :
ainsi L2 est un espace vectoriel. Linclusion L2 L1 dcoule de |X| 1 + X 2 et de
la linarit (3.3.3).
E
U la seconde, nous
I QPour
La premire ingalit de (3.3.8) a dj t vue en (3.3.4).
N
H a = E(X) et Y = X a.
E Calors
pouvons nous limiter au cas o X est positive. Soit
Daprs (3.3.3) il vient L Y T
E PO
L
E(Y )2
C O) 2aE(X) + a2
= E(X 2
= E(X 2 ) a2 ,

et E(Y 2 ) 0 par (3.3.5). Donc a2 E(X 2 ), ce qui est le rsultat cherch. 

Dfinition 3.3.8 Si X L2 , sa variance est dfinie par

V ar(X) = E((X E(X))2 ) =


X
(xi E(X))2 pX
i .
xi F

En vertu de (3.3.5), V ar(X) est positive, et sa racine carre positive X sappelle


lcart-type de X.
58 Chapitre 3 Espace fini ou dnombrable

2
En dveloppant le carr (X E(X)) comme dans la preuve ci-dessus, nous voyons
aussi que
2
X = E(X 2 ) E(X)2 . (3.3.9)

Lcart-type est une grandeur qui mesure la moyenne (en un certain sens) de lcart
des valeurs de X sa moyenne, do son nom.

IQ UE
Exemple 3.3.9 Un jeu de loto.
C HN
O LYTE
P
E une grille qui en comporte 49. Les 6 numros gagnants
Le joueur coche 6 numros sur
O Lau
C
sont dtermins par tirage sort. Soit N le nombre de numros gagnants de la grille.
Pour une mise de 2 Euros, on reoit le gain G=g(N) suivant :

n numros gagnants gain g(n) E


probabilit
6
QU
2 132 885HEN I 7, 2 108
C
T3E575
5 LY E 7, 8 105
PO
LE
CO
4 94 E 9, 7 104
3 11 E 7, 8 102

Le gain moyen est

UE
X
E(G) = g(n)P(N = n)
IQ
n
HN
T EC7.8 105 + 2132885 7.2 108
= 11 7.8 102 + 94 9.7 104 + 3575
P O LY
OLE
= 1, 16 E.
C
Le lecteur pourra vrifier que lcart-type vaut 572. Ainsi le bnfice moyen du joueur,
qui vaut E(G) 2 = 0.84 , est ngatif, et le jeu est dfavorable au joueur. La grande
valeur de lcart-type vient de ce que parfois (mais trs rarement), le jeu peut rapporter
beaucoup.

3.3.4 Un rsultat fondamental - Moments dune variable


alatoire

Nous avons vu en Proposition 3.3.2 que si E(|X|) < +, alors E(X) ne dpend que
de la loi PX de X.
3.4 Fonction gnratrice dune variable alatoire valeurs entires 59

Plus gnralement, nous considrons maintenant une fonction f de F dans R. Ainsi


Y = f (X) est une variable alatoire relle, qui prend un nombre fini ou dnombrable
de valeurs. Nous pouvons aussi considrer f comme une variable alatoire sur lespace
de probabilit (F, PX ). Nous avons alors le rsultat fondamental suivant, qui montre
la cohrence de la notion desprance. Ce thorme sappelle souvent le thorme de
transfert dans la littrature.

Thorme 3.3.10 Avec les hypothses prcdentes, la variable alatoire Y = f (X)


U E alatoire f sur (F, PX )
I Qvariable
dfinie sur (, P) est intgrable si et seulement si la
cesNdeux variables alatoires sont gales,
lest galement. Dans ce cas, les esprances de H
et nous avons en particulier que
L Y TEC
X PO
E(f (X)) = O L Ef (X()) p =
X
f (xi )P(X = xi ). (3.3.10)
C xi F

Preuve. Comme nous pouvons sommer par paquets par (S7) dans une srie termes
Q U E de droite de (3.3.10)
positifs, nous voyons comme pour (3.3.2) que les deux expressions
I
N finies simultanment. Daprs
T E CH
sont gales si nous remplaons f par |f | ; elles sont donc
Y
la dfinition de lespace L1 , nous avons donc f (X) L1 (, P) f L1 (F, PX ).
E POL
L en utilisant cette fois (S8), nous voyons de la mme
C O de droite de (3.3.10) sont aussi gales pour f , ce
Si ces proprits sont ralises,
manire que les deux expressions
qui, compte-tenu de (3.3.1), achve la dmonstration. 

Dfinition 3.3.11 Soit p N . On dit que la variable alatoire X admet un mo-

I Q U E vaut alors (en


ment dordre p si la variable alatoire X p L1 , et ce moment
utilisant la proposition prcdente) : N
T E CH
iY
xL
X p
p
E(X ) = P(X = xi ).
xP
O
O L E F
i

C
3.4 Fonction gnratrice dune variable alatoire
valeurs entires

Considrons une variable alatoire valeurs dans N. Sa loi est une probabilit sur N.
Elle est donc, comme nous lavons vu, caractrise par une suite de nombres compris
entre 0 et 1 et de somme 1. Le but de ce paragraphe est de montrer quune telle
loi de probabilit peut galement tre caractrise par une fonction, appele fonction
gnratrice, dfinie sur [0, 1] et indfiniment drivable sur [0, 1[. Les drives auront
leur interprtation en termes de moments de la variable alatoire.
60 Chapitre 3 Espace fini ou dnombrable

Nous considrons une variable alatoire X valeurs dans N, dont la loi est caractrise
par les nombres pn = pX
n = P(X = n).

Dfinition 3.4.1 La fonction gnratrice GX de X est la fonction dfinie sur lin-


tervalle [0, 1] par la formule suivante : s [0, 1],

X
GX (s) = E(sX ) = p n sn . (3.4.1)
E
IQU
n=0

N
cest dire de la probabilit (pn )n . LY T
E H
Comme nous le voyons ci-dessus, la fonctionCgnratrice ne dpend que de la loi de X,

E PO
L
Proposition 3.4.2 CLaOfonction gnratrice est continue sur [0, 1] et indfiniment
drivable sur [0, 1[ ; elle caractrise la loi de X.

Preuve. La fonctionPGX est la somme dune srie entire qui E converge absolument
U et
N I
au point 1, puisque n pn = 1. Les proprits de continuitQ de drivabilit en d-
(n) C H
coulent. Comme la drive nime en 0 est GX
Y T E(0) = p n n! , la fonction GX caractrise
les pn , donc la loi de X.  O L P 
LE
CO
Proposition 3.4.3 Soit X une variable alatoire valeurs entires, de fonction g-
nratrice GX . Pour que X soit intgrable , il faut et il suffit que GX soit drivable
gauche en s = 1, et dans ce cas E(X) = G0X (1).

Preuve. Rappelons dabord un rsultat facile sur les sries : si


I UE
Qles fonctions s 7 un (s)
H N
EC
sont croissantes et positives sur [0, 1[, on peut changer la limite en s au point 1 et la
somme en n : Y T
X E P
O LX
limC O L un (s) = lim un (s). (3.4.2)

s1
n0 n0
s1

Si s < 1, nous avons

GX (s) GX (1) X sn 1 X
= pn = pn (1 + s + . . . + sn1 ),
s1 s1
n0 n0

et les fonctions un (s) = pn (1 + s + . . . + sn1 ) sont croissantes et positives, avec


lims1 un (s) = n pn . Le rsultat dcoule alors de (3.4.2). 

Plus gnralement, la mme dmonstration prouve que


3.5 Variables alatoires discrtes usuelles 61

Proposition 3.4.4 La variable alatoire X(X 1) . . . (X p) est intgrable (et donc


X admet un moment dordre p + 1), si et seulement si GX est p + 1 fois drivable
gauche en s = 1, et nous avons alors
(p+1)
E (X(X 1) . . . (X p)) = GX (1). (3.4.3)

En particulier, E(X(X 1)) = G00X (1), do

V ar(X) = G00X (1) (G0X (1))2 + G0X (1).


E
N IQU
Pour retrouver cette formule, nous pouvons H formellement la srie (3.4.1) terme
E Cdriver
Y T
P O LX
terme p + 1 fois au point s = 1, ce qui donne
L E
CGOX (1) =
(p+1)
pn n(n 1) . . . (n p),
n

et le membre de droite ci-dessus est gal au membre de gauche de (3.4.3) lorsque ce


dernier existe, daprs (3.3.10). Cela revient driver formellement p + 1 fois les deux
E
Q U et le signe esprance.
membres de lgalit GX (s) = E(sX ), en changeant lesIdrives
N
T E CH
Remarque 3.4.5 Pour calculer les moments
P O LYet simple
dune variable alatoire (esprance, va-

O L E direct, comme nous


riance,...), il peut tre beaucoup plus rapide dutiliser les drives de la fonc-

tion gnratrice plutt quunC calcul le verrons dans le paragraphe
ci-dessous.

3.5 Variables alatoires discrtes usuelles


E
N IQU
3.5.1 Variable alatoire de Bernoulli
Y T ECH
E POL
fois.LNous associons 1 Pile et 0 Face. Lespace des
O
Nous lanons une pice n C
rsultats de lexprience sera donc

= {0, 1}n.

Nous supposons que les lancs sont indpendants les uns des autres. Par ailleurs, la
pice peut tre truque, ce qui nous conduit supposer que la probabilit de Pile vaut
p ]0, 1[. Pour une pice quilibre, nous prendrons p = 21 .

Pour tout k {1, ..., n}, appelons Xk le rsultat du k-ime lanc. Xk peut prendre
les deux valeurs 0 et 1, et

PXk (1) = P(Xk = 1) = p , PXk (0) = 1 p.


62 Chapitre 3 Espace fini ou dnombrable

Nous remarquons que chaque variable Xk a la mme loi, prenant les deux valeurs
1 et 0 avec respectivement les probabilits p et 1 p. Une telle variable est appe-
le variable de Bernoulli de paramtre p. Sa loi est la loi de Bernoulli de
paramtre p.

Proposition 3.5.1 Lesprance et la variance dune variable alatoire de Bernoulli


de paramtre p valent respectivement

E(X) = p ;
U E (3.5.1)
V ar(X) =H NI Qp),
p(1 (3.5.2)

LY TEC
et sa fonction gnratrice vaut GO (s) = 1 p + ps.
E PX
L
Preuve. Nous avonsCO
E(X) = p 1 + 0 (1 p) = p;
V ar(X) = p p2 = p(1 p).
U E
NIQ
Le calcul de GX est immdiat.
TE CH 
LY
PO
C OLE
3.5.2 Variable alatoire binomiale

Cherchons maintenant le nombre de Piles obtenus sur les n lancs.


n

UE
X
Sn = Xi .
IQ
i=1
EC HN
La variable alatoire Sn peut prendre toutesL les T
Yvaleurs entires entre 0 et n. Calculons
sa loi. Pour tout k {0, ..., n}, nous E P O
cherchons
L
CO n
X
PSn (k) = P({ , Xi () = k}).
i=1

Cela veut dire que les n lancs ont donn k Piles et n k Faces.  Il faut tenir compte
des places des Piles dans la suite de rsultats obtenus. Il y a nk possibilits dobtenir
les k Piles parmi les n lancs. Si nous fixons une rpartition prcise, (par exemple les
k Piles sont les k premiers), et comme les lancs sont indpendants, la probabilit de
cette rpartition est gale pk (1 p)nk . Ainsi, nous obtenons que

n k
P(Sn = k) = p (1 p)nk .
k
3.5 Variables alatoires discrtes usuelles 63

Dfinition 3.5.2 On dit que la variable alatoire X est une variable alatoire binomiale
de paramtres n et p, que lon note B(n, p), si X prend ses valeurs dans {0, . . . , n} et si
pour k {0, . . . , n},

n k
P(X = k) = p (1 p)nk .
k
Sa loi est une loi binomiale de paramtres n et p.

E un raisonnement intuitif.
Nous avions obtenu cette loi dans nos modles durnes, par
(Elle correspond au choix dun tirage avec remise.)I Q U
EC HN
Remarquons que la loi B(1, p) P
est LY T
Ola loi de Bernoulli de paramtre p.
LE
CO
Proposition 3.5.3 Soit X une variable binomiale de loi B(n, p). Alors,

GX (s) = (1 p + p s)n U E (3.5.3)


IQ
E(X) = n p
EC HN (3.5.4)
YnTp(1 p).
V ar(X)L= (3.5.5)
E PO
L
Preuve. CO
n
X n k k
GX (s) = p s (1 p)nk = (1 p + p s)n .
k
k=0

U E obtenons que
En drivant GX et en considrant la drive de GX en s = 1, nous
IQ
N
n
T E CH
n k Ynk = G0X (1) = p n.
p (1OLp)
X
E(X) = k
P
LE
k
CO
k=0

Si nous drivons deux fois en 1 ce polynme GX , nous obtenons


n
X n k
G00X (1) = k(k 1) p (1 p)nk = E (X(X 1)) ,
k
k=1

et par suite, puisque E(X) = np, nous en dduisons que

V ar(X) = E (X(X 1)) + E(X) E(X 2 ) = n p(1 p). (3.5.6)


64 Chapitre 3 Espace fini ou dnombrable

Exemple 3.5.4 Aux jeux olympiques de Vancouver (2010), 86 mdailles dor ont t
mises en jeu. Nous faisons lhypothse que le nombre de mdailles remportes par
pays est proportionnel sa population. Soit X le nombre de mdailles prvues pour
la France. X va suivre une loi binomiale B(86, p), o
population France 60 106
p= = 0, 01.
population monde 6000 106
Ainsi lesprance de X sera gale 86 0, 01 = 0, 86.
E
I Q U soit infrieur 3. Elle vaut
Cherchons la probabilit pour que le nombre de mdailles
C HN
Y T E= 1) + P(X = 2) + P(X = 3),
P(X 3) = P(X = 0) + P(X
POL
avec LE
C OP(X = k) = 86 (0, 01)k (0, 99)86k .

k
Tous calculs faits, nous trouvons
P(X 3) = 0, 9889. U E
NIQ
E C Hdor.
Remarquons que la France a remport 2 mdailles
YT
P O L
LE
3.5.3 deOsuccs et variable alatoire gomtrique
Probabilit C

Toujours sur ce jeu de n lancs de notre pice, intressons-nous au premier temps


o nous allons obtenir un Pile. Pour ce faire, dfinissons la variable alatoire T par
T () = inf{k {1, , n}, Xk () = P ile}, si cet ensembleEnest pas vide ;
U
= + sinon. NIQ
,T
Y
Lensemble des valeurs de T est donc {1, 2, L
ECH
n, +}. Pour 1 k n,
PO
,LXE
P(T = k) = P(X1 = F ace, O k1 = F ace, Xk = P ile} = p(1 p)
k1
,
C
car nous avons suppos que nos lancs taient indpendants (voir Section 2.6.2). De
mme,
P(T = +) = (1 p)n .
Si nous faisons (heuristiquement) tendre le nombre de lancs n vers linfini, la loi de
la variable alatoire T de succs du premier Pile est alors une probabilit dfinie sur
N par
P(T = k) = p(1 p)k1 ,
pour k N . On appelle cette probabilit la loi gomtrique de paramtre p.
3.5 Variables alatoires discrtes usuelles 65

Dfinition 3.5.5 Une variable gomtrique de paramtre p ]0, 1[ est une variable
alatoire valeurs dans N telle que k N ,
P(X = k) = p(1 p)k1 .

Proposition 3.5.6 Soit X une variable alatoire de loi gomtrique de paramtre p


sur N .

E(X) =
1
, IQ UE (3.5.7)
p
C HN
GXY T=E ps
(3.5.8)
POL
(s) .
1 (1 p)s

C OLE
En dautres termes, en supposant que lon rpte des preuves indpendantes de
Bernoulli avec mme probabilit de succs p (obtention dun Pile par exemple), jusqu
lobtention du premier succs, le nombre moyen des rptitions ncessaires est 1/p. Il
U E
faut donc sattendre lancer 6 fois un d quilibr avant dobtenir le premier 1, en
moyenne. I Q
EC HN
Preuve.
PO LY T
O L E

C =
E(X)
X
k p(1 p)k1 < +. (3.5.9)
k=1

Calculons la fonction gnratrice


X ps
GX (s) = p(1 p)k1 sk = .
k1
1 (1 p)s
IQ UE
Il est immdiat que G0X (s) = p 0 C
et donc GE H N1
X (1) = p .
(1s+p s)2
O LYT
Nous en dduisons que E(X) = 1p .L E
P 
CO

3.5.4 Variable alatoire de Poisson

Dfinition 3.5.7 Nous dirons que X est une variable alatoire de Poisson de para-
mtre > 0 si X prend ses valeurs dans N et si sa loi est caractrise pour tout k N
par
k
P(X = k) = e . (3.5.10)
k!
Sa loi est une loi de Poisson de paramtre > 0.
66 Chapitre 3 Espace fini ou dnombrable

Proposition 3.5.8 Soit X une variable alatoire de Poisson de paramtre , alors

E(X) = , (3.5.11)
V ar(X) = , (3.5.12)
GX (s) = e (s1) . (3.5.13)

Preuve. Soit X une variable alatoire de Poisson de paramtre . Son esprance vaut

k Q U E

k e N I=
X
E(X) = .
C H k!
YTE
k=0

P O L
LE
Par ailleurs,
CEO(X(X 1)) = e k(k 1)

X k
= 2
k!
k=2

do V ar(X) = , vu que E(X) = .


E
I Q U au point s = 1,2 nous
Il est facile de montrer que GX (s) = e (s1) . En drivant
N
H donne E(X(X 1)) = , do
TEC
retrouvons E(X) = . En drivant deux fois, (3.4.3)
nous pouvons aussi dduire la valeur deLVYar(X). 
PO
C OLE
que le nombre derreurs Y par page de ce livre suive une
Exemple 3.5.9 Admettons
loi de Poisson de paramtre 12 . Calculons la probabilit quil y ait au moins une erreur
dans une page donne :
1
P(Y 1) = 1 P(Y = 0) = 1 e 2 0, 39.
UE
H NIQ
TEC
La loi de Poisson comme limite de lois binomiales.
LY
E P O sur N dfinie par
Considrons, pour an [0, 1], la probabilit
L
CO n
pj (an , n) = (an )j (1 an )nj si jn
j

= 0 si j n + 1. (3.5.14)

Ainsi, (pj (an , n))jN est lextension naturelle sur N de la loi binomiale B(n, an ) de
paramtre an et de taille n. Supposons alors que la suite (an )n tende vers 0 quand n

tend
 vers linfini, de telle sorte que nan R+ . En dveloppant les combinaisons
n
j , il est facile de vrifier que pour tout j N,

j
pj (an , n) n pj = e .
j!
3.6 Lois conditionnelles et indpendance 67

La loi de Poisson modlise donc la probabilit du nombre dapparitions dun v-


nement rare (an n est petit) dans une suite infinie dvnements (n grand). Ce
rsultat est trs utile pour les calculs numriques, dans le cas o lon souhaite mod-
liser les occurences dun vnement rare. Il permet de remplacer la loi binomiale par
la loi de Poisson, ce qui conduit des calculs beaucoup plus simples.

On peut citer beaucoup dexemples de variables alatoires qui obissent une loi de
E :
Poisson, (parce que lon approxime ainsi une loi binomiale)
U
N I Q humaine,
le nombre de centenaires dans une communaut
ECH
Y Tun bureau de poste en lespace dun jour,
le nombre de clients entrant dans
P OL
L Edans un volume de liquide fix,
le nombre de bactries
O
C
le nombre departicules mises par un gramme de matire radioactive,
le nombre dobjets dfectueux trouvs pendant un contrle de qualit.

U Eapproche par une va-


Reprenons lexemple 3.5.4. La variable alatoire X peutQtre
I
H N les probabilits :
riable alatoire Z de loi de Poisson P(0, 86). Comparons
EC
k P(X =Lk)
O Y T P(Z = k)
0L E P
0,4213 0,4231
C O1 0,3660 0,3639
2 0,1571 0,1564
3 0,0444 0,0448
Lapproximation est trs bonne.

E
N IQU
3.6 E C H alatoires ind-
Lois conditionnelles et variables
Y T
pendantes E POL
L
CO
3.6.1 Lois conditionnelles

Nous rappelons ici que les notions de probabilits conditionnelles et dvnements


alatoires indpendants ont t introduites au chapitre 2.5.

Dans ce paragraphe, nous considrons deux variables alatoires X et Y dfinies sur


le mme espace fini ou dnombrable, muni de la probabilit P. Nous supposons
que X et Y sont valeurs respectivement dans F et G, que nous pouvons supposer
eux-mmes finis ou dnombrables. Nous posons pX i = P(X = xi ) pour xi F , et
pYj = P(Y = yj ) pour yj G.
68 Chapitre 3 Espace fini ou dnombrable

La connaissance des deux lois PX et PY ne donne pas dinformation sur les liens qui
peuvent unir les comportements alatoires de X et de Y .

Il est plus intressant de considrer le couple Z = (X, Y ) comme une variable alatoire
discrte valeurs dans le produit cartsien F G. Notons PZ = (pZ k , zk F G) la
loi du vecteur alatoire Z.

Pour zk = (xi , yj ) F G
E
N I QU
ECH i
pZ
= P(Z = zk ) = P(X
k = x et Y = yj ).
Y T
OL
PXPet PY de X et Y sappellent les lois marginales du
Dfinition 3.6.1 Les lois E
L alatoires X et Y .
CO
couple (X, Y ) de variables

Considrons lexprience suivante. Nous lanons en mme temps un d rouge et un d


bleu. Soit X le rsultat du d rouge, et Y le rsultat de la somme des deux ds. Il est
E possibles que peut
Uvaleurs
Q
clair que la connaissance de la valeur de X va influer surIles
H N Y ne pourra prendre que des
prendre Y et sur sa loi. Par exemple, si X = 3,Calors
E
T
O xYi de X, la loi de Y avec linformation a
valeurs suprieures ou gales 4, ce quiLnest pas le cas si X = 1. Il est donc naturel
P
LE
de sintresser, pour chaque valeur fixe
priori que X = xi . CO

Dans la suite de ce paragraphe, les rles de X et de Y pourront tre changs.

E
N I Q U loi conditionnelle
Dfinition 3.6.2 Soit xi F tel que P(X = xi ) > 0. On appelle
ECH
de Y sachant X = xi la probabilit sur G dfinie par
YT
P O L
Y |X=xi
L E= yj |X = xi ) (3.6.1)
CO
pj = P(Y yj G.

Y |X=x
La loi conditionnelle de Y sachant X = xi est donc caractrise par { (yj , pj i
),
yj G}. Ces lois conditionnelles sont a priori diffrentes pour chaque valeur de xi et
diffrentes de la loi marginale P Y .

Nous avons en fait les relations suivantes.

Proposition 3.6.3 Il est quivalent de connaitre les (pZ k : zk F G) avec zk =


Y |X=xi
(xi , yj ), et les (pX
i : xi F ) et (p j : y j G) pour xi F tels que pX
i > 0, via
3.6 Lois conditionnelles et indpendance 69

les formules :
X
P(X = xi ) = P(Z = (xi , yj )), (3.6.2)
yj F

Y |X=xi P(Z = (xi , yj ))


pj = si P(X = xi ) > 0, (3.6.3)
P(X = xi )
P(X = xi ) P(Y = yj |X = xi ) si P(X = xi ) > 0
(
P(Z = (xi , yj )) = (3.6.4)
0 UE IQ
sinon
N
T
Yformules ECH
O L
Preuve. Il suffit de montrer les trois de lnonc. Remarquons tout dabord
que lensemble {X = xi } estElaPrunion (finie ou dnombrable) des ensembles deux--
deux disjoints {X =CxiO
L
, Y = yj } = {Z = (xi , yj )} pour yj G, donc (3.6.2) dcoule
immdiatement de la -additivit (2.3.4).

(3.6.3) vient de la formule (2.5.1).


E
U que si pXi = 0 nous
Enfin si pX
i = P(X = xi ) > 0, (3.6.4) dcoule de (3.6.3)
N I Qtandis
EiC, yH
avons a fortiori P(X = xi , Y = yj ) = P(Z = (x
YT
j )) = 0 daprs (2.2.2). 

P O L
LE
CO
3.6.2 Esprance conditionnelle

Pour i fix tel que pX i > 0, la loi conditionnelle de Y sachant X = xi donne par
Y |X=i
{ (yj , pj ), yj G} dfinit une probabilit. Nous pouvons lui associer son esp-
E Par exemple,
rance, sa variance ou plus gnralement ses moments, ds quils existent.
U
ds que Y est intgrable, son esprance conditionnellement N I Q
{X = xi } sera dfinie
C H
comme suit. TE Y
P O L intgrable. Lesprance conditionnelle de
Dfinition 3.6.4 Soit Y une variable alatoire
E
L de la loi conditionnelle de Y sachant {X = xi },
CO
Y sachant {X = xi } est lesprance
cest--dire
Y |X=xi
X X
E(Y |X = xi ) = y j pj = yj P(Y = yj |X = xi ). (3.6.5)
j j

Remarque 3.6.5 La srie dfinie en (3.6.5) est bien convergente. En effet, nous pou-
vons utiliser lobservation suivante
X XX
E(|Y | |X = xi )P(X = xi ) = |yj | P(X = xi , Y = yj ) = E(|Y |)
i i j

et le thorme de Fubini (voir (S9)).


70 Chapitre 3 Espace fini ou dnombrable

Cette esprance conditionnelle sachant {X = xi } est une fonction de xi , que nous


noterons (xi ). Elle nest dfinie que sur les valeurs possibles xi de X. Nous pouvons
alors plutt considrer la fonction (X) elle-mme.

Dfinition 3.6.6 On appelle esprance conditionnelle de Y sachant X la variable


alatoire
E(Y |X) = (X), avec (x) = E(Y |X = x), (3.6.6)
pour x tel que P(X = x) > 0, et (x) = 0 sinon.
IQ UE
EC HN
L Y T qui est un nombre rel, lesprance condi-
ATTENTION : Contrairement lesprance
O
tionnelle de Y sachant X L
est P variable alatoire, dpendant de lala travers la
E une
C
variable alatoire X. O

Lesprance conditionnelle possde la proprit fondamentale suivante.

Thorme 3.6.7 Si Y est intgrable, alors (X) =N I Q| X) est intgrable, et


E(Y
UE
EY ) .
E( (X))Y=TE(
CH
E POL
Preuve. Nous avons C OL
X X
E( (X)) = (xi ) pX (xi ) = y j pY | X=xi
(yj ) pX (xi )
i i,j
X X
= yj pX,Y (xi , yj ) = yj pY (yj ) = E( Y ).

UE
i,j j

Q justification de lint-
N ILa
Nous avons utilis ici le thorme de Fubini pour les sries.
H
|. LY
que ci-dessus o on a remplac yj par |yjO
T E C en utilisant le mme calcul
grabilit de (X) et du thorme de Fubini sont montres

P
LE
CO
Ce rsultat permet de calculer E( Y ) en conditionnant par une variable auxiliaire X :
X
E( Y ) = E(Y | X = xi ) P(X = xi )
i

Il gnralise la formule des probabilits totales (2.5.3), qui correspond ici Y = 1A ,


et Bi = {X = xi }. On lcrit souvent sous forme
 
E E(Y | X) = E( Y ). (3.6.7)

Lesprance conditionnelle tant dfinie comme lesprance de la loi conditionnelle,


elle hrite des proprits usuelles de lesprance :
3.6 Lois conditionnelles et indpendance 71

a) E (aY + bZ | X) = a E (Y | X) + b E(Z | X)
b) E (Y | X) 0 si Y 0
c) E (1 | X) = 1.
De plus,

E (Y g(X) | X) = g(X) E (Y | X) (3.6.8)

est une gnralisation de lgalit a) ci-dessus, au cas o a = g(X), qui doit tre
considr comme une constante dans le calcul deI Q U E conditionnelle sachant
lesprance
X. (X est fixe comme une donne connueC aH
N
YTE
priori.)

P O L
Exemple 3.6.8 Le C
LE
O N de voitures passant devant une station dessence en
nombre
un jour suit la loi de Poisson de paramtre > 0. Chaque voiture dcide de sarrter
la station avec probabilit p indpendamment des autres. On note K le nombre de
voitures qui sarrtent la station. Cherchons E( K).
U E
Solution : Nous avons par hypothse, NIQ
Y T E CH
KO| NL
n
n k
pP =n
p (1 p)nk .
OLE
pN (n) = e , (k) =
n! k
C
Do
X
E(K | N = n) = k pK | N =n (k) = n p ,
k

soit E (K | N ) = p N . Daprs le thorme 3.6.7, IQ UE


C HN
YNTp)E = p E( N ) = p
E( K) = E ( (E (K | N ))) = E(
POL
LE
CO
puisque = E( N ).

3.6.3 Variables alatoires indpendantes

Remarque : La formule (3.6.2) de la proposition prcdente montre que lon peut


calculer les lois marginales PX et PY de X et de Y partir de la loi PZ de Z.

En revanche, la connaissance des lois marginales ne suffit pas, en gnral, retrouver


la loi de Z = (X, Y ), comme le prouve lexemple suivant. Considrons une variable
alatoire Z qui vaut (1, 1) et (1, 1) avec probabilit p2 , et (1, 1) et (1, 1) avec
probabilit 1p 1
2 , o p 6= 2 . Dans ce cas, les variables alatoires X et Y prennent
72 Chapitre 3 Espace fini ou dnombrable

les valeurs 1 et 1 avec probabilit 12 , et leur loi ne dpend donc pas du paramtre
p (0, 1) choisi. Pour le voir, nous avons calcul par exemple
1
P(X = 1) = P(Z = (1, 1)) + P(Z = (1, 1)) = .
2

Il est trs intressant dtudier le cas o linformation que lon possde sur X ne
change rien la loi de Y , gnralisant ainsi la notion dindpendance introduite pour
les vnements alatoires.
E
N IQU
T E C HY sont dites indpendantes si pour
Dfinition 3.6.9 Les variables alatoires X et
Y
toutes parties A F , B G elles vrifient
OL
P(XLEA,PY B) = P(X A) P(Y B). (3.6.9)
CO
Remarque : la notation P(X A, Y B) signifie usuellement P({X A} {Y
B}) = P(X A et Y B).

Nous avons la proprit fondamentale suivante.


I Q UE
Proposition 3.6.10 Il y a quivalence entre : C H N
L Y TE
(i) Les variables alatoires X etPYO sont indpendantes, de lois respectives pX et
LE
CO
Y
p .

(ii) On a P(Z = (xi , yj )) = P(X = xi )P(Y = yj ) = pX Y


i pj pour tous xi F ,
yj G.
Y |X=xi
(iii) On a pj = pYj pour tout yj G et tout xi F tel que pX
i > 0.
E
N I QU
EC
Remarque 3.6.11 (iii) signifie que la loi conditionnelle H de Y sachant X = xi est
L Y
gale la loi marginale de Y , ce qui correspond T
bien lide intuitive dindpendance.
Bien entendu, comme la dfinition 3.6.9Pde Olindpendance est symtrique en X et Y ,
O E
L variables alatoires X et Y .
C
nous pouvons ci-dessus changer les

Preuve. Pour obtenir (i)(ii) il suffit de prendre A = {xi } et B = {yj } dans (3.6.9).
Inversement, supposons (ii). En sommant par paquets dans la srie termes positifs,
nous obtenons pour A F et B G :
X
P(X A, Y B) = P(Z A B) = P(Z = (xi , yj ))
(xi ,yj )AB
X X X X
= pX Y
i pj = pX
i pYj = P(X A) P(Y B),
xi A yj B xi A yj B

et (i) sen dduit. Enfin, lquivalence (ii)(iii) provient de (3.6.3) et (3.6.4). 


3.6 Lois conditionnelles et indpendance 73

Proposition 3.6.12 Supposons les variables alatoires X et Y indpendantes. Soient


f et g deux fonctions relles sur F et G respectivement, telles que f (X) L1 et
g(Y ) L1 . Alors le produit f (X) g(Y ) est aussi intgrable et vrifie

E (f (X)g(Y )) = E (f (X)) E (g(Y )) . (3.6.10)

Preuve. Exactement comme dans la dmonstration prcdente, nous pouvons crire

UiE) g(yj )| pXi pYj


X X
|f (xi ) g(yj )| pZ
(xi ,yj ) = |f (x
N IQ
ECH
(xi ,yj )F G xi F,yj G

LYT !
P O X
|f (xi )| pX
X
|g(yj )| pYj
OLE
= i ,
C xi F yj G

qui est fini par hypothse. Par suite, la variable alatoire f (X) g(Y ) est intgrable.
En utilisant alors (S8), la mme dmonstration montre que les galits ci-dessus sont
E
galement vrifies en enlevant les valeurs absolues : nous obtenons (3.6.10).
U

IQ
EC HN
Exemple 3.6.13 Considrons n variables
O LYT
alatoires de Bernoulli (Xi )ni=1 indpen-
dantes et de paramtre p ]0, 1[.E P
L
CO
i {1, . . . , n}. La probabilit que la suite X1 Xn soit
Soient xi {0, 1}, pour
gale x1 xn , vaut
P P
P (Xi = xi , 1 i n) = ni=1 pxi (1 p)1xi = p xi (1 p)n xi , (3.6.11)

et nous retrouvons les rsultats donns au chapitre 2 (modlesU E


durnes).
N IQ
T ECH
Nous souhaitons simuler ces n variables O
P LY de Bernoulli indpendantes et de
alatoires
L E un gnrateur de nombres au hasard, i.e. un
paramtre p ]0, 1[. Nous allons utiliser
algorithme qui fournit une C Ode nombres compris entre 0 et 1 ayant les mmes
suite
caractristiques que les tirages (Ui )ni=1 dune suite de variables alatoires indpen-
dantes de loi uniforme sur [0, 1]. (Voir le chapitre suivant pour la dfinition dune loi
uniforme.) Nous posons alors

1 si Ui < p
(
Xi =
0 si Ui > p

Il est facile de voir que les variables alatoires Xi sont indpendantes et de loi de
Bernoulli de paramtre p.
74 Chapitre 3 Espace fini ou dnombrable

Exemple 3.6.14 On admet que le nombre de clients dans un bureau de poste pen-
dant une journe soit une variable alatoire de Poisson de paramtre . Soit p la
probabilit quune personne entrant dans le bureau de poste soit une femme. Dans ce
cas, le nombre de femmes X et celui des hommes Y parmi les clients quotidiens sont
des variables alatoires indpendantes, et suivent des lois de Poisson de paramtres
respectifs p et (1 p). Pour sen assurer, le lecteur pourra utiliser les calculs de
lexemple 3.6.8.

E
3.6.4 Somme de variables alatoires QU
N I indpendantes
Y T ECH
P OlaLloi dune somme de variables alatoires indpen-
Les rsultats suivants concernent
E
L trs utiles dans la pratique.
CO
dantes. Ce sont des rsultats
Proposition 3.6.15 Supposons que X et Y soient deux variables alatoires valeurs
dans Z et notons Z = (X, Y ). Alors
X X
P(X + Y = i) = P(Z = (j, i j)) = P(Z = (i j, j)). (3.6.12)
U E
NIQ
jZ jZ

onCa
H
LY TE
En particulier si X et Y sont indpendantes,
P O = i j) =
E j)P(Y
X X
P(X + Y = i) = P(X = P(X = i j)P(Y = j).
L
CO
jZ jZ
(3.6.13)

La loi de X + Y est donc obtenue grce un calcul de convolution discrte.


Preuve. (3.6.13) dcoule immdiatement de (3.6.12) et de (ii) de la proposition 3.6.10.
Pour (3.6.12), il suffit dappliquer (2.3.4) et le fait que {X Q +UY E
= i} est la runion
N Ipour
des ensembles deux--deux disjoints {X = j, Y = i
T E CH j} j Z, et aussi des
{X = i j, Y = j} pour j Z. Y 
E POL
Remarque 3.6.16 Ces formules
OL
C peuvent se gnraliser la somme de n variables
alatoires indpendantes. En particulier, (3.6.11) entrane que la somme S = X1 +
+ Xn de n variables alatoires indpendantes de loi de Bernoulli de paramtre p
suit une loi binomiale B(n, p).
Ainsi, la loi binomiale B(n, p) doit tre interprte comme la loi de la somme de n variables
alatoires indpendantes, de loi de Bernoulli de paramtre p.

Proposition 3.6.17 Supposons les variables alatoires X et Y indpendantes, va-


leurs dans F = G = N, et U = X + Y . Notons GX , GY et GU les fonctions
gnratrices de X, Y et U . Nous avons alors pour tout s [0, 1]
GU (s) = GX (s) GY (s). (3.6.14)
3.7 Exercices sur le chapitre 3 75

Preuve. Il suffit de remarquer que pour s [0, 1], GU (s) = E(sU ) = E(sX+Y ) et
GX (s) = E(sX ) et GY (s) = E(sY ), et dappliquer (3.6.10). 

Ce rsutat permet didentifier dans certains cas trs facilement la loi dune somme de
variables alatoires.

Exemple 3.6.18

E
I QU
Nindpendantes
E C H
1) Soient X et Y des variables alatoires de loi binomiale res-
Y T
pectivement B(n, p) et B(m, p) (avec le mme paramtre p). Daprs (3.5.3),
U = X + Y vrifie POL
GU
(s)
OLE
C = (1 p + ps)n (1 p + ps)m = (1 p + ps)n+m .
En appliquant encore (3.5.3) et la proposition 3.4.2, nous en dduisons que X+Y
suit la loi binomiale B(n + m, p).
U E
2) Soient X et Y des variables alatoiresC H NIQ
Y T E indpendantes de loi de Poisson de
L
paramtres respectifs et . Daprs
O
(3.5.13), U = X + Y vrifie
EP
L (s1) e(s1) = e(+)(s1) ,
CUO(s) = e
G

de sorte que X + Y suit la loi de Poisson de paramtre + .

3.7 Exercices sur le chapitre 3


IQ UE
C HN
EXERCICE 3.7.1 Un sauteur tente de franchir
O LY T Edes hauteurs successives numro-
P sont indpendants les uns des autres, et
LE
tes 1, . . . , n, . . . . On suppose que les sauts
que P(n-ime saut) = n1 .
C O
Soit X le dernier saut russi. Quelle est la loi de X ? Calculer E(X), V ar(X).

EXERCICE 3.7.2 Si X prend ses valeurs dans N, montrer que



X
E(X) = P(X > k).
k=0

EXERCICE 3.7.3 Le nombre daccidents N en une semaine dans une usine est
alatoire desprance m et de variance 2 . Le nombre dindividus X blesss dans
76 Chapitre 3 Espace fini ou dnombrable

un accident est alatoire, desprance et de variance 2 . Tous ces vnements sont


supposs indpendants.

Donner la fonction gnratrice du nombre Y dindividus blesss par semaine, en fonc-


tion des fonctions gnratrices de N et de X. En dduire la valeur des esprance et
variance de Y , en fonction de m, 2 , et 2 .

EXERCICE 3.7.4 On tudie le flux de vhicules durant une tranche horaire donne
un raccordement de routes, dcrit dans le dessin ci-dessous.
IQ UE
C HN
O LYTE
P
LE
CO

I Q UE
On note X (respectivement Y ), le nombre de vhicules empruntant la premire (res-
pectivement la deuxime) branche, et donc S = XH+N Y vhicules empruntent lauto-

LY T E C par des variables alatoires de


route aprs le raccordement. X et Y sont modlises
P O > 0 et > 0. Les variables alatoires X et
loi de Poisson de paramtres respectifs
E
O L
Y sont supposes indpendantes.
C
Dterminer la loi de S et lesprance conditionnelle de X sachant S.

EXERCICE 3.7.5 Soit Z le nombre denfants dune famille ; X le nombre de filles

choisie possde k enfants dont n filles, est donne par : N I Q


UE
et Y le nombre de garons. Nous supposons que la probabilit quune famille ainsi

ECH
Y52)Tn (0, 48)kn 1
pk,n = P(Z = k; X = n) = L
e2 2k (0,
O
P n!(k n)! {0nk} .
LE
CO
Montrer que les variables alatoires Z et X ne sont pas indpendantes mais que Y et
X le sont.

Donner la loi conditionnelle de X sachant Z = k. En dduire lesprance conditionnelle


de X sachant Z.

EXERCICE 3.7.6 Considrons un jeu de Pile ou Face, qui associe 1 Pile et 0


Face. On appelle Xn le rsultat du n-ime lancer et on suppose que

P(Xn = 1) = p,

o p ]0, 1[.
3.7 Exercices sur le chapitre 3 77

1) Les vnements An = {Xn1 6= Xn }, pour n 2, sont-ils indpendants ?


Discuter selon p.

2) On introduit la variable alatoire T dfinie par


T () = inf{n, Xn1 () 6= Xn ()}
si cet ensemble est non vide et T () = + sinon.

UE
a - Calculer P(T = n).
IQ
HN
TEC
b - Montrer que P(T < +) = 1.
L Y
P O alatoire dfinie par XT () = XT () ().
3) On dsigne par XT la variable
E
O L
Quand a-t-on C
P ((XT , XT +1 ) = (1, 0)) = P ((XT , XT +1 ) = (0, 1)) ?

UE
EXERCICE 3.7.7 On note P lensemble des nombres
H N I Qpremiers diffrents de 1. On
T: NC
sait que tout x N scrit de manire uniqueEcomme

produit de puissances entires
O L
de nombres premiers de P. Il existe donc Y
U
N telle que
P p

O LE
C x N , x = pP pUp (x) .
Soit Q la probabilit sur N dfinie par
c
Q({x}) = , (0 < c < ).
x2

1) Trouver la loi de Up , pour chaque p P. IQ UE


C HN
2) Calculer Q(Up n), pour n N.
O LYTE
E P
3) Montrer que pour Q, les
O L (Up )p sont indpendantes.
Cvariables
4) Calculer la fonction gnratrice de la v.a. Up .

En dduire son esprance et sa variance.

EXERCICE 3.7.8 Probabilits de Gibbs sur un systme fini.

Rappel : Considrons une fonction strictement convexe, et pour i {1, . . . , n}, des
rels xi et des rels positifs ai dont lun au moins est non nul. Alors
ai xi ai (xi )
P P
Pi iP ,
i ai i ai
78 Chapitre 3 Espace fini ou dnombrable

avec galit si et seulement si tous les xi sont gaux.

1) Soit un espace de probabilit fini = {i , i = 1, . . . , n} de cardinal n. On


notera p une probabilit p = {pi , i = 1, . . . , n} sur .

On dfinit lentropie de cette probabilit p en posant


n
X n
X
H(p) := p(i ) ln p(i ) = pi ln pi .
i=1
IQ UE
i=1
N
:Y
1-a) Vrifier que la fonction L [0,T
ECH
1] [0, +[, (t) = t log t est strictement
P O
concave.
L E
CO
1-b) Montrer que H(p) = 0 si et seulement si p est une mesure de Dirac sur .

1-c) Montrer que H(p) ln || = ln n.


UE
N I Q non constante, et pour
2) Considrons une variable alatoire relle U , suppose
H
p une probabilit sur , nous noterons hU iTp E
C esprance et Varp (U ) sa variance.
son
L Y
E PO
Nous appellerons fonction de partition associe lnergie U la fonction qui chaque
R associe le nombre L
C O Z() = X n
eU(i ) .
i=1

La probabilit de Gibbs associe est alors dfinie pour chaque wi par (i ) :=


eU (i )
Z()

IQ UE
2-a) Que vaut ln Z(0) ?
HN
2-b) Montrer que quand tend vers +,LY TEC
devient une probabilit uniforme sur
P O
L
lensemble min := {; U () = min E U }, et que lorsque , devient une
C:=O{; U () = max U }. En dduire que

probabilit uniforme sur max

lim hU i = min U ; lim hU i = max U. (3.7.1)


+

2-c) Montrer que lapplication dfinie sur R par 7 ln Z() est de classe C et
que
ln Z)0 () = hU i ; ln Z)00 () = Var (U ).
En dduire que la fonction 7 ln Z() est strictement convexe.

3) Notre but est de rechercher une probabilit sur qui maximise lentropie
p H(p) et telle que hU i = E, o E ] min U, max U [ est donn.
3.7 Exercices sur le chapitre 3 79

On acceptera que, par un thorme de Lagrange, doit tre un extremum de la


fonction
n
!
X
p = (pi ; i {1, . . . , n}) 7 F (p) := H(p) (hU ip E) pi
i=1

o est un paramtre dterminer par la contrainte hU i = E et un paramtre


dterminer par la contrainte que est une probabilit. Ces paramtres sont les
multiplicateurs de Lagrange. E
IQU
H N R tel que hU i = E.
3-a) Montrer quil existe un unique =C(E)
E
LY T
P O lentropie. Montrer qualors son entropie vaut
3-b) Supposons que maximise
LE
CO H( ) = ln Z() + E.

3-c) Montrer que la fonction p 7 H(p) hU ip ln Z() est ngative ou nulle, et


quelle est nulle si et seulement si p = . UE
H NIQ
LY TEC
En dduire que est bien un maximum et que cest en fait lunique maximum.

E PO
L
CO

IQ UE
C HN
O LYTE
P
LE
CO
IQ UE
C HN
O LYTE
P
LE
CO

U E
NIQ
TE CH
LY
PO
LE
CO

IQ UE
C HN
O LYTE
P
LE
CO
Chapitre 4
IQ UE
C HN
O LYTE
Variables Lalatoires
E relles et
P
CO
Vecteurs alatoires
U E
NIQ
Y T ECH
P O Ldautre...
Je crois au hasard avec une obstination constante ; cest mme cela qui fait que
lorsque je vois, je vois commeL E
personne
CO
Nicolas de Stael.

4.1 Les variables alatoires relles


IQ UE
C HN
Les variables alatoires que nous considrons Y
L TE
maintenant peuvent tre valeurs dans
R tout entier. Nous souhaitons que la P Otribu E dfinie dans la proposition 2.4.1
L E
C O 4.2.1. Cela nous conduit poser :
contienne la tribu borlienne B(R) de R, dfinie en Dfinition 2.3.5. La justification
de ce choix se trouvera au paragraphe

Dfinition 4.1.1 Soit lespace dtat muni de la tribu A des vnements. Une appli-
cation X de dans R est une variable alatoire relle si X 1 (B) = {X B} A
pour tout B B(R).

Nous avons alors le rsultat trs utile suivant :

Proposition 4.1.2 Si X1 , . . . , Xn sont des variables alatoires relles et si f est


une fonction continue de Rn dans R, alors Y = f (X1 , . . . , Xn ) est une
variable alatoire relle.

81
82 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

Preuve. 1) Montrons dabord un rsultat auxiliaire, savoir que si X est une appli-
cation de dans R telle que { : X() a} = X 1 (] , a]) appartient la tribu
A pour tout a R, alors X est une variable alatoire relle.

Pour cela, nous notons R lensemble des B B(R) tels que X 1 (B) soit dans A.
Comme limage rciproque X 1 commute avec la runion, lintersection et le passage
au complmentaire, il est clair que R est une tribu contenue dans B(R), et elle contient
les intervalles ] , a] par construction. Par la proposition 2.3.6, nous avons donc
R = B(R), ce qui veut dire que X 1 (B) A pour tout B B(R), et X est une
E
variable alatoire.
N IQU
T E CH
2) Daprs ce qui prcde, il suffitLY
de montrer que les ensembles {Y a}, ou de
E P O{Y > a}, sont dans A pour tout a R. Or f tant
L
manire quivalente les ensembles
continue, A = {x CRO n
: f (x) > a} est un ouvert. Il scrit donc comme runion
dnombrableQA = iN Ai densembles Ai qui sont des rectangles ouverts de la
forme Ai = nj=1 ]xi,j , yi,j [, et nous avons

Ei j=1 {xi,j < Xj < yi,j }.


n
{Y > a} = {(X1 , . . . , Xn ) A} = i {(X1 , . . . , Xn ) Ai } =
N IQU
C H en dduisons le rsultat.
Comme par hypothse {xi,j < Xj < yi,j } A, nous
E


PO LY T
Comme application de cet O L E ou de la partie 1) de sa preuve, nous avons les
nonc
proprits suivantes. C
Proposition 4.1.3 Soient X, Y et (Xn )nN? des variables alatoires relles. Alors,

X
X + Y, XY, si Y 6= 0, sont des variables alatoires. (4.1.1)
E
IQU
Y
N
CH

T E
sup Xn ,
O LY
inf Xn , sont
1np P
des variables alatoires. (4.1.2)
LE
1np

CO
sup Xn , inf Xn , sont des variables alatoires. (4.1.3)
n1 n1

(En effet, remarquons que {supi Xi a} = i {Xi a} A par hypothse, et


appliquons la partie 1) de la preuve prcdente ; mme chose pour linf.)

Si Xn () n Z(), , alors la limite Z est une variable alatoire .
(4.1.4)
(Nous avons en effet Z = inf n Yn , o Yn = supin Xi , et nous appliquons deux
fois (4.1.3)).
4.2 Les lois de variables alatoires relles 83

Z = 1A (indicatrice de A) est une variable alatoire A A. (4.1.5)

(Il suffit de remarquer que Z 1 (B) est gal , A, Ac ou selon que B {0, 1}
soit gal , {1}, {0} ou {0, 1}).

Dans le cas o n = 1 (le cas gnral sera vu ultrieurement), nous pouvons gnraliser
la Proposition 4.1.2 des fonctions f beaucoup plus gnrales, appeles fonctions
mesurables. Ces fonctions seront dfinies comme suit.U E
N IQ
Dfinition 4.1.4 Une fonction f de ECH
YRT dans R est dite mesurable si limage rci-
O L
proque par f dun ensemble deP la tribu borlienne de R est un ensemble de la tribu
LE
borlienne. CO

La partie 1) de la preuve de la Proposition 4.1.2 implique quil suffit de montrer
que pour tout a rel, f 1 (] , a]) est un ensemble de la tribu borlienne. Cette

I Q U E le cadre de ce cours.
dfinition est lie la thorie de la mesure qui dpasse largement

variable alatoire relle, f (X) lest aussi. T E C


HN
La proprit dune fonction mesurable que nous retiendrons sera que si X est une

P O LY
LE
CO
4.2 Les lois de variables alatoires relles

Ds lors que la notion de variable alatoire relle est bien tablie, nous pouvons dfinir
rigoureusement la loi PX de X introduite en Section 2.4. Cest la probabilit dfinie sur
R muni de la tribu borlienne B(R), qui vrifie pour tout ensemble U Eborlien B B(R),
H NIQ
PX (B) = P(X TB).
Y EC
O L
L
Nous sommes donc amens tudierEcePquest une probabilit sur R muni de sa tribu
borlienne. CO

4.2.1 Fonction de rpartition

1) Dfinition

Soit X une variable alatoire relle et PX sa loi.

Rappelons que la tribu borlienne de R est engendre par les intervalles de la forme
] , a], avec a Q.
84 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

Un rsultat fondamental sur R, et li cette proprit de la tribu borlienne, est


que la probabilit PX est caractrise par une fonction relle de variable relle, objet
mathmatique que lon connait beaucoup mieux.

Dfinition 4.2.1 Soit X une variable alatoire et PX sa loi. On appelle fonction de


rpartition de X la fonction suivante :

FX (x) = PX (] , x]) = P(X x), x R. (4.2.1)

IQ UE
C HN
E en 0 (voir Exemple 2.3.14), cest--dire
Exemple 4.2.2 Si PX est la mesureY deTDirac
O L de rpartition est la measure de Heaviside en
si X = 0 presque-srement, la Pfonction
L E = 1 si x 0.
OH(x)
0 : H(x) = 0 si x < 0 et
C
Remarque : Lexemple ci-dessus montre quen gnral, une fonction de rpartition
nest pas une fonction continue. Nous verrons ci-dessous une caractrisation des points
o elle est continue. UE Q
Proposition 4.2.3 La fonction de rpartition FX H NI
caractrise la probabilit PX et elle
T E C
O LY
vrifie les trois conditions suivantes :
P
LE
(i) elle est croissante
COdroite
(ii) elle est continue
(iii) limx F (x) = 0, limx+ F (x) = 1.
Preuve. Puisquil ny a pas ambiguit, notons plus simplement FX par F .

1) Daprs (6.3.5), nous avons PX (]x, y]) = F (y) F (x) pour tous x < y. Par suite,
E
si B = ni=1 ]xi , yi ], avec xi < yi < xi+1 , nous avons IQU N
TE CH
LYX
n n
PX (]xi ,PyO
X
PX (B) = i ]) = (F (yi ) F (xi )),
LE
CO
i=1 i=1

car les intervalles sont disjoints. Puisque PX (]x, +[) = 1 F (x), nous en dduisons
finalement que F caractrise la restriction de PX lensemble de toutes les runions
finies dintervalles disjoints de la forme ]x, y] ou ]x, +[. Cet ensemble contient R,
et est stable par passage au complmentaire et par runion finie (on dit que cest une
algbre). Un rsultat difficile de thorie de la mesure (que nous admettrons, voir le
livre de Jacod-Protter pour une preuve), montre que la connaissance de PX sur cette
algbre suffit dterminer entirement PX sur la tribu engendre par cette algbre.
Mais nous avons vu (Proposition 2.3.6) que cette tribu est la tribu borlienne.

2) La croissance de F est immdiate. Pour montrer (ii), nous remarquons que si la


suite xn dcrot vers x, alors ] , xn ] dcrot vers ] , x] et donc F (xn ) dcrot
4.2 Les lois de variables alatoires relles 85

vers F (x). (iii) se montre de manire analogue, en remarquant que ] , x] dcrot


vers (resp. crot vers R) lorsque x dcrot vers (resp. crot vers +). 

Comme F est croissante, elle admet une limite gauche en chaque point note F (x).
En remarquant que ], y[= limn ], yn ] si yn y, nous pouvons facilement obtenir
que pour x < y,

PX (]x, y]) = P(x < X y) = F (y) F (x),


IQ UE
PX (]x, y[) = EC
P(x <TX
HN
< y) = F (y) F (x),
P O LY
LE
([x,Oy]) = P(x X y) = F (y) F (x),
PXC

PX ([x, y[) = P(x X < y) = F (y) F (x). (4.2.2)

En particulier, U E
PX ({x}) = F (x) FH NIQ
(x)
Y EC
Tavons
est le saut de la fonction F au point x. L
Nous donc
P O
LE
CO
Proposition 4.2.4

PX ({x}) = P(X = x) = 0 F est continue en x.

La proposition 4.2.3 admet une rciproque, qui est un des rsultats les plus difficiles
de la thorie de la mesure. UE IQ
EC
Thorme 4.2.5 (non dmontr). Si F est une fonction H N relle sur R, vrifiant les
conditions (i)(iii) de la Proposition 4.2.3, Y T
cest la fonction de rpartition dune
O L borlienne. On ne peut pas, en gnral,
(unique) probabilit sur R muni de saPtribu
E
O L les parties de R.
dfinir sur la tribu P(R) deCtoutes

Remarque : Le thorme ci-dessus explique pourquoi, dun point de vue strictement
mathmatique, il est ncessaire dintroduire les tribus en probabilits, malgr la com-
plexit que cela engendre. Sinon, cela reviendrait prendre (sans le dire) la tribu
P(R) et il nexisterait que trs peu de probabilits sur R, savoir les probabilits
discrtes que nous avons introduites aux chapitres prcdents.

2) Fonction de rpartition dune variable alatoire X discrte

Etudions la fonction de rpartition dune variable alatoire discrte.


86 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

1) X est identiquement gale au rel a R. Alors sa loi est la mesure de Dirac en


a et sa fonction de rpartition est F (x) = 1[a,[ (x).
2) X prend ses valeurs dans N. La loi PX de X est caractrise par la suite
pn = PX ({n}) = P(X = n). La fonction de rpartition F de X vaut alors

0 si x < 0
(
F (x) = (4.2.3)
p0 + . . . + pn si n x < n + 1, n N.
E
U de lamplitude pn au point
I Qsaute
La fonction F est une fonction en escalier qui
N
n. Puisque F (x) [0, 1], F admet au C
E H
plus k sauts de taille suprieure k1 , pour
tout k N .
POLY T
si E
3) Plus gnralement, L X prend ses valeurs dans une partie finie ou dnombrable
CPXOde X est caractrise pour tout i E par qi = PX ({i}) =
E de R, la loi
P(X = i). La fonction de rpartition F de X est alors
X
F (x) = qi , (4.2.4)
U E
NIQ
iE: ix

CH
T Evaut 0. Nous retrouvons bien (4.2.3)
Y
avec la convention quune somme vide
L
P O que la fonction F est purement discon-
dans le cas o E = N. Nous voyons
E
L
CO
tinue, au sens o elle
la
F (x) F (x), via
est compltement
formule
caractrise par ses sauts F (x) =

X
F (x) = F (y).
yx

E peut tre dense


IQU
Notons aussi que lensemble E, quoiquau plus dnombrable,
N
C Hdonne un exemple de fonction
dans R, par exemple il peut tre gal lensemble des rationnels Q. Dans ce
E
cas, si qi > 0 pour tout i Q, la fonction FT nous
Y
P O Let continue partout ailleurs.
discontinue en tout nombre rationnel,
LE
CO
3) La mesure de Lebesgue sur [0, 1]

La fonction F , nulle sur R , qui vaut F (x) = x sur [0, 1] et F (x) = 1 pour x 1, sa-
tisfait les hypothses du thorme 4.2.5. Nous obtenons alors le corollaire fondamental
suivant.

Corollaire 4.2.6 Si B([0, 1]) dsigne la tribu borlienne sur [0, 1], il existe une unique
probabilit sur ([0, 1], B([0, 1])) telle que la fonction de rpartition soit gale liden-
tit :
(]x, y]) = y x , x < y, x, y [0, 1].
4.2 Les lois de variables alatoires relles 87

Cette probabilit est appele mesure de Lebesgue sur [0, 1]. La fonction F tant
continue, cette probabilit ne charge pas les points : ({x}) = 0, x [0, 1].

Il existe bien dautres probabilits, non discrtes, sur R. Le paragraphe suivant est
consacr un exemple trs important, celui des variables alatoires dont la loi a une
densit.

E
4.2.2 QU
Variables alatoires de loi densit
NI
H
TEC
O LY dintgration sera en gnral R tout entier, ou
Dans la suite de ce chapitre nous aurons continuellement considrer des intgrales
P
LE
de fonctions relles sur R. Lintervalle
CO
parfois un intervalle de la forme ], x]. Il sagit donc la plupart du temps dintgrales
gnralises. Dans ce qui suit nous parlerons de fonctions intgrables. Cela signifie
que la fonction f quon intgre est intgrable au sens de Riemann ou de Lebesgue (ce
qui est plus gnral), selon les connaissances pralables du lecteur. Nous supposerons
E finie, ce qui implique
R +
plus prcisment que lintgrale gnralise |f (x)|dx U est
I Q
HN
R +
que lintgrale gnralise f (x)dx existe.
TE C
LY
PO
E f dfinie sur R est une densit de probabilit, ou
Dfinition 4.2.7 Une fontion
C O Lrelle
simplement une densit, si elle est positive, intgrable, et vrifie
Z +
f (x)dx = 1. (4.2.5)

Si f est comme ci-dessus, la fonction IQ UE


EC HN
Y T(y)dy
x
Z
F (x) =
PO L f (4.2.6)
OLE

C
vrifie les proprits (i, ii, iii)
de la Proposition 4.2.3. Cest donc la fonction de rpartition
dune probabilit.

Remarque 4.2.8 F (x) est la surface grise dans la Figure 4.1, dlimite par laxe
y = 0, le graphe de f , et la droite verticale dabscisse x.

Dfinition 4.2.9 Soit X une variable alatoire . On dit que X a une loi de densit
f (ou par abus de langage est de densit f ), si PX admet la densit f , et donc si pour
tout rel x, Z x
P(X x) = f (y)dy.

88 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

IQ UE
C HN
O LYTE
P
LE
CO
Fig. 4.1 : Graphe de la densit f et de la fonction de rpartition F .

La proposition suivante se dmontre immdiatement en utilisant des rsultats bien


connus danalyse. I Q UE
. H
Proposition 4.2.10 Soit X de loi de densitEfC
N
O LYT
1) Sa fonction de rpartition FL E
P
est continue, de sorte que
C OP(X = x) = 0, x R.
2) La fonction F est drivable en tout point x o f est continue, et
F 0 (x) = f (x).
Eou seulement conti-
IQU
3) A linverse, si la fonction de rpartition F de X est drivable,
nue partout et drivable par morceaux, alors X admet H laN
densit
T EC
fY
F 0 (x) =L (x).
PO
C OLE
interprtation intuitive de la densit f de PX . Si x
Remarque 4.2.11 Voici une
est un petit accroissement de la quantit x, on a (si du moins f est continue en x) :
PX ([x, x + x]) F (x + x) F (x)
f (x) = . (4.2.7)
x x

Remarque 4.2.12 1) La fonction de rpartition est, de manire vidente, enti-


rement dtermine par la probabilit PX . Il nen est pas de mme de la densit,
lorsquelle existe. Si en effet nous avons (4.2.6) et si nous posons g(x) = f (x) si
x/ Q et g(x) = f (x) + 1 si x Q, alors g est encore une densit de PX . Dune
manire gnrale, une densit est dfinie un ensemble de mesure de Lebesgue
nulle prs.
4.2 Les lois de variables alatoires relles 89

0.25

0.20

0.15

0.10

IQ UE
HN
0.05

C
0.00
O LYTE
0 1
P
2 3 4 5 6 7 8 9 10

C OLE
Fig. 4.2 : f (6) (F (6,5) F (6))/0,5

2) Il existe des variables alatoires qui nont pas de densit


U E : cest le cas des va-
I Q
riables alatoires discrtes. Il existe des cas mixtes. Nous nous donnons dune
HN
part une fonction f positive intgrableEetCdintgrale strictement positive, et
L YT
dautre part une partie finie ou dnombrable
O I de R non vide et des qi > 0
indics par i I, tels que E P
L
C O Z + X
f (x)dx + qi = 1.
iI

Alors, la fonction
x
E
Z
QqiU
X
(4.2.8)
F (x) = f (y)dy +
N I
H
TEC
iI:ix

est une fonction de rpartition, et O Y


la Lprobabilit PX associe nadmet pas de
E P
densit et nest pas non plusLdiscrte.
CO
Exemple 4.2.13 La dure de fonctionnement dun ordinateur avant sa premire
panne est une variable alatoire positive de densit donne par
1 x
100 e
100 x0
f (x) =
0 x<0
Calculons la probabilit que cette dure de fonctionnement X soit comprise entre 50
et 150 heures. Elle vaut
Z 100
1 100
x e1
P(X [50; 100]) = e dx = 0, 24.
50 100 e
90 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

Calculons la probabilit que lordinateur fonctionne moins de 100 heures.


Z 100
1 x e1
P(X 100) = e 100 dx = 0, 63.
0 100 e

4.2.3 Variable alatoire uniforme sur [0, 1] et gnrateurs de


nombres alatoires
UE
Q densit sont les variables uni-
N Iloi
Les plus simples des variables alatoires relles de
H
formes sur [0, 1]. Leur densit vaut
Y TEC
P OfL(x)
LE = 1[0,1] (x).
CO
Une valeur dune telle variable a autant de chance dappartenir au voisinage de chaque
point de [0, 1].

Il nest pas facile1 de trouver un bon gnrateur de nombres E hasard. Actuellement,


Uau
I Q
N dterministes par une r-
C H dentier I = [0, m[ N, pour une
tous les gnrateurs sont fonds sur des procds purement
T E
currence de la forme xn+1 = (xn ) sur un intervalle
application de I dans I. Les valeursP LY
Onormalises un = xn /m sont comprises entre
L E
C O statistiques dune suite de tirages indpendants de
0 et 1. La suite (un ) est priodique de priode p m. La squence (u0 , u1 , . . . , up/10 )
devrait avoir les caractristiques
variables alatoires de loi uniforme sur [0, 1[ (il est vivement conseill de ne pas d-
passer le dixime de la priode). Ces gnrateurs nont donc en fait rien dalatoire
et cest pourquoi on les qualifie aussi de pseudo-alatoires.

I Q U E trs utiliss. Ils


Sans tre les plus rcents, les gnrateurs congruentiels linaires sont
produisent une suite dentiers N
xn+1 = a xn + b LY T m,
modulo
ECH
PO
E entendu, les entiers m, a et b doivent tre
0 .L
partir dune valeur initiale xO Bien
C
soigneusement choisis (on exige au moins que la priode p soit maximale, cest--dire
gale m).

Exemples de tels gnrateurs :

la fonction rand de Scilab utilise les valeurs m = 231 , a = 843314861 et


b = 453816693 ;
la mthode Math.random de Java utilise les valeurs m = 248 , a = 25214903917
et b = 11.
1 Park & Miller, Random number generators, good ones are hard to find, Commun. ACM (1988),

31, p. 1192-1201.
4.2 Les lois de variables alatoires relles 91

Par contre, la fonction grand de Scilab est base sur un gnrateur plus per-
formant et plus moderne : le Mersenne twister2 de priode colossale 219937 1.

4.2.4 Simulation dune variable alatoire par inversion de la


fonction de rpartition

E
IQU
A partir dune variable alatoire uniforme U sur [0, 1], gnre comme ci-dessus, on
loiNquelconque,
peut simuler une variable alatoire relle X deH ds lors que lon connat
sa fonction de rpartition F . TEC
P O LY
Dfinissons la fonction O L E continue gauche de
inverse F par :
C
G(u) = inf{x : F (x) u}, u ]0, 1[. (4.2.9)
La fonction G nest pas proprement parler linverse (ou la fonction rciproque) de F ,
puisque celle-ci nest pas ncessairement bijective de R dans ]0,E1[. Elle joue cependant
U
le mme rle, dans la mesure o elle vrifie NIQ
G(u) x L

ECH
Y Tu F (x),
PO
Ela fonction F est continue au point G(u).
et F (G(u)) = u si 0 < u < 1OetLsi
C
Proposition 4.2.14 Soit U une variable alatoire de loi uniforme sur [0, 1], F une
fonction de rpartition et G dfinie par (4.2.9). La variable alatoire Y = G(U ) est
alors une variable alatoire de fonction de rpartition F .

Preuve. Nous remarquons facilement que si x R, alorsN I Q


UE
CH
T E F (x)) = F (x),
P(X x) = P(G(U ) x) =Y
POL
P(U

L E[0, 1].
puisque U suit une loi uniforme sur
CO


Exemple 4.2.15 Simulation dune variable alatoire discrte. Soit P =


(p1 , p2 , . . . ) une probabilit sur un ensemble dnombrableP{x1 , x2 , . . . } avec x1 <
x2 < . . . . La fonction de rpartition associe est F (x) = pi . Cest une fonction
xi x
en escalier, de mme que G donne par G(u) = xi lorsque pj < u pj . La
P P
j<i ji
proposition conduit alors lexpression naturelle
X X
X = xi si pj < U pj + pi , i1
j<i j<i

2 http ://fr.wikipedia.org/wiki/Mersenne_Twister
92 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

qui dfinit une variable alatoire X de loi P.

Ainsi, une variable alatoire de Bernoulli X de paramtre p sera simule ainsi :


Si U [0, 1 p], nous posons X = 0,
Si U ]1 p, 1], nous posons X = 1.
Remarque : Le choix de la valeur de X lorsque U = 1p importe peu, car la probabilit
que U = 1 p exactement vaut 0.
E
N IQU
Y T ECH
4.3 OL
Esprance desPvariables alatoires relles
L E
CO
4.3.1 Dfinition

Dans cette partie, nous voulons gnraliser la notion desprance introduite au Cha-
I Q
pitre 3 toutes les variables alatoires relles suffisammentU Epetites (en un certain
N
T E C H Nous allons nous contenter de
sens), par exemple aux variables alatoires bornes.

P LYtant difficiles dmontrer. Lide natu-


rsultats partiels, les rsultats complets
Oprcdent
LE
relle est de se ramener au chapitre en approchant X par une suite de
C O un nombre fini de valeurs.
variables alatoires prenant

Remarque fondamentale : Il est important de comprendre ici que lon connat bien lespace
darrive dune variable alatoire (ici cest R) mais quon connat trs mal son espace de
dpart (lespace abstrait ). Aussi, lide majeure que nous allons exposer ici, et la base
E
Q U alatoires par une
de la thorie de lintgration de Lebesgue, est dapprocher nos Ivariables
N
suite de variables alatoires obtenues par un dcoupage CdeH lespace darrive, et non pas
Y T E de Riemann).
POL
de lespace de dpart (comme dans le cas de lintgrale

OL E
C
Dfinition 4.3.1 Nous appellerons variable alatoire tage toute variable alatoire
Y qui ne prend quun nombre fini de valeurs, disons a1 , . . . , ap . Daprs (3.3.1), elle admet
donc une esprance donne par
p
X
E(Y ) = ai P(Y = ai ). (4.3.1)
i=1

Nous allons maintenant dfinir lesprance dune variable alatoire relle X. Construi-
sons dans une premire tape lesprance des variables alatoires positives. Si X est
une telle variable, nous considrons une suite (Xn )n de variables alatoires positives
4.3 Esprance des variables alatoires relles 93

1.000

0.875

0.750

0.625

0.500

IQ UE
C HN
YTE
0.375

P O L
LE
0.250

0.125 CO
0.000
0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0

U E
NIQ
E C H de mme longueur de labscisse
Fig. 4.3: Dcoupage la Riemann, en 16 intervalles
YT
P O L
L E
C Oexemple
tages croissant vers X, par

k2n si k2n X() < (k + 1)2n et 0 k n2n 1
(
Xn () =
n sinon.
(4.3.2)
E
I Q U et nous pouvons
Comme Xn Xn+1 , nous avons E(Xn ) E(Xn+1 ) par (3.3.6),
N
poser H
E(X) = O
lim
TEC
LYE(Xn ). (4.3.3)
Pn
OLE
Celle est positive, mais elle peut tre infinie. On peut
Cette limite existe toujours,
montrer quelle ne dpend pas de la suite (Xn )n approximante choisie, pourvu que
celle-ci soit compose de variables alatoires positives tages croissant vers X.

Considrons maintenant une variable alatoire X de signe quelconque. Celle-ci scrit


X = X + X , o X + = sup(X, 0) et X = sup(X, 0) sont les parties positive et
ngative de X, de sorte que |X| = X + + X , et videmment, X + et X sont deux
variables alatoires positives.

Dfinition 4.3.2 Nous dirons que la variable alatoire X est intgrable si les valeurs
E(X + ) et E(X ) sont toutes les deux finies. Dans ce cas, lesprance mathmatique de
94 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

1.000

0.875

0.750

0.625

0.500

IQ UE
C HN
YTE
0.375

P O L
LE
0.250

0.125 CO
0.000
0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0

U E
NIQ
E C H de mme longueur de lordonne
Fig. 4.4: Dcoupage la Lebesgue, en 16 intervalles
YT
P O L
LE
X est le nombre
CO Z
E(X) = E(X + ) E(X ) , not aussi X()P(d) . (4.3.4)

Nous appellerons L1 lensemble des variables alatoires intgrables, que lon pourra aussi
E
noter L1 (, A, P ) si lon souhaite prciser lespace de probabilit sous-jacent.
U
IQ
C HN
Y T Eest vidente.
Puisque |X| = X + + X , la proposition suivante
POL
LE
C Ovariable alatoire . Alors
Proposition 4.3.3 Soit X une

X L1 E(|X|) < +.

Nous pouvons vrifier sans peine que cette dfinition concide avec celle du paragraphe
3.3 lorsque est fini ou dnombrable. Nous pouvons aussi montrer, (par passage la
limite), que les proprits donnes dans la proposition 3.3.5 restent vraies dans notre
cadre gnral.

Nous les rappelons ici :


4.4 Variables alatoires de carr intgrable 95

Linarit : L1 est un espace vectoriel, et X, Y L1 , a, b R,

E(aX + bY ) = aE(X) + bE(Y ). (4.3.5)

X L1 |X| L1 , et dans ce cas,

|E(X)| E(|X|). (4.3.6)

Positivit :
E
N I QU
ECH
1
si X 0 et X L , alors E(X) 0. (4.3.7)
Y T
Remarquons de plus quePsiOXL 0 et E(X) = 0, alors X = 0 presque-srement.
1 C
OLE
Si X, Y L sont telles que X Y , alors

E(X) E(Y ). (4.3.8)

Q UE
Lesprance dune variable constante (ou en fait presque-srement
I constante)
N
est gale cette constante : CHTE
L Y
O tout , alors
Si X() = a Ppour E(X) = a. (4.3.9)
C OLE
Sil existe un rel
b tel que |X()| b pour tout , alors X L1 et E(X) b.

R
Remarque : Cette notion dintgrale X()P(d), dfinie sur un espace abstrait muni
E
dune mesure de probabilit, sappelle lintgrale de Lebesgue et fait lobjet dune im-
portante thorie mathmatique. Cette notation et cette terminologie
N I Q U dintgrale sont jus-
tifies par le fait que les proprits qui taient vraies pour H
E C lintgrale de Riemann (linarit,
positivit) sont encore vraies dans ce cadre. LY T
PO
C OLE
4.4 Variables alatoires de carr intgrable

4.4.1 Variance et Covariance

Outre lespace L1 , nous dfinissons aussi, comme au Chapitre 3, lespace L2 des va-
riables alatoires X dont le carr X 2 est dans L1 .

Dfinition 4.4.1 Nous dirons quune variable alatoire X est de carr intgrable si la
variable alatoire X 2 est intgrable, cest--dire si son esprance E(X 2 ) est finie.
96 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

Proposition 4.4.2 L2 est un sous-espace vectoriel de L1 , et si X L2 ,



|E(X)| E(|X|) E(X 2 ).

La preuve est identique celle de la proposition 3.3.7.

Dfinition 4.4.3 Si X L2 , sa variance est lesprance de la variable alatoire (X


E(X))2 , et on la note V ar(X) ou X2
, ou 2 , sil ny a pas dambigut. Elle est positive,
et sa racine carre positive X sappelle lcart-typeQde E
U X.
H NI
LY TEC
P O
LE
Nous avons videmment encore
CO V ar(X) = E(X 2 ) E(X)2 . (4.4.1)

La variance est gale la moyenne des carrs moins le carr de la moyenne.

UE
De mme que lesprance a t compare au centre
H N IdeQ gravit dun ensemble de
L Y T E C mcanique de moment dinertie
masses, la variance peut tre rapproche du concept
(par rapport lesprance). O P
LE
CO
Remarquons que si X et Y sont dans L2 , la variable alatoire XY est dans L1 . En effet,
il suffit dcrire |XY | 12 (X 2 + Y 2 ). Nous pouvons alors dfinir la notion suivante.

Dfinition 4.4.4 Si X et Y sont dans L2 , la variable alatoire (X E(X))(Y E(Y ))

I Q U E variable alatoire,
est intgrable. On appelle covariance de X et Y lesprance de cette
et on la note cov(X, Y ) : N
ECH
LY T E(Y ))) .
cov(X, Y ) = E ((X E(X))(Y
O
(4.4.2)

Le coefficient de corrlation O
des E P alatoires X et Y
Lvariables est le nombre
C
cov(X, Y )
(X, Y ) = p . (4.4.3)
var(X)var(Y )

Notons que, en utilisant la linarit de lesprance, nous obtenons

cov(X, Y ) = E(XY ) E(X)E(Y ), (4.4.4)

et dailleurs (4.4.1) est un cas particulier de (4.4.4), car V ar(X) = cov(X, X). La
linarit de lesprance donne immdiatement pour a, b, a0 , b0 R :

E((aX + b)(a0 Y + b0 )) = aa0 E(XY ) + ab0 E(X) + a0 b E(Y ) + bb0 ,


4.4 Variables alatoires de carr intgrable 97

E(aX + b) E(a0 Y + b0 ) = aa0 E(X)E(Y ) + ab0 E(X) + a0 b E(Y ) + bb0 .


Donc au vu de (4.4.4), la covariance est une forme bilinaire sur lespace vectoriel des
variables alatoires de carr intgrable, et nous avons

cov(aX + b, a0 Y + b0 ) = aa0 cov(X, Y ). (4.4.5)

En particulier,

V ar(aX + b) = a2 V ar(X).U E (4.4.6)


IQ
Nous en dduisons que les coefficients de EC HN
corrlation de X et Y et de aX +b et a0 Y +b0
Y T
0
sont gaux lorsque aa > 0.
POL
LE
CO
Remarque 4.4.5 En vertu des rgles nonces ci-dessus, et si X est une variable alatoire
de carr intgrable, desprance E(X) et dcart-type X > 0, alors la variable alatoire
E
X E(X)
N IQU
X E C H
O LYT
P1. Nous dirons que cette variable alatoire est cen-
LE
est desprance nulle et dcart-type
tre et rduite.
C O
Proposition 4.4.6 Soient X1 , . . . , Xn des variables alatoires de carr intgrable,
alors il en est de mme de la somme, et

E
X
V ar(X1 + . . . + Xn ) = V ar(X1 ) + . . . + V ar(Xn ) + 2 cov(Xi , Xj ). (4.4.7)
N IQU
1i<jn
H
LY TEC
P O ci-dessus.
Le calcul est immdiat, grce aux formules
E
L
CO
4.4.2 Approximation linaire

Nous considrons deux variables alatoires de carr intgrable dont nous supposons
que les variances et la covariance sont connues. Nous souhaitons trouver la meilleure
approximation de Y par une fonction affine de X de la forme aX + b, au sens des
moindres carrs, cest dire qui minimise la quantit E((Y (aX + b))2 ). Il sagit de
dterminer les constantes a et b telles que E((Y (aX + b))2 ) soit minimale. Or, par
linarit,

E((Y (aX + b))2 ) = E(Y 2 ) 2aE(Y X) 2bE(Y ) + a2 E(X 2 ) + 2abE(X) + b2 .


98 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

Lannulation des drives partielles par rapport a et b entrane que les solutions a
et b sont
Cov(X, Y ) Y
a = = (X, Y ) ;
V ar(X) X
b = E(Y ) aE(X). (4.4.8)

Nous vrifions aisment que ces valeurs donnent bien un minimum pour E((Y (aX +
b))2 ), et dterminent ainsi la meilleure approximation linaire de Y base sur X au
E
sens de la distance quadratique moyenne. IQU
N
Cette erreur vaut Y T ECH
E(Y P
L
O(X, Y )
Y
(X E(X)) .
OLE
)+
X
C
Le carr moyen delerreur vaut alors
2
Y
E Y E(Y ) (X, Y ) (X E(X)) = Y2 + 2 (X, Y )Y2 22 (X, Y )Y2
U E2
X
=H I Q
N (1 (X, Y )).
Y2
EC
LY T
O voisin de +1 ou 1, le carr moyen de lerreur
Nous constatons que lorsque (X, Y ) est
E Pproche de 1, meilleure est lapproximation.
est presque nul : plus |(X, Y )|Lest
CO
Dfinition 4.4.7 La droite dquation y = ax+ b, o les coefficients a et b sont donns
par les formules (4.4.8) sappelle la droite des moindres carrs de Y sur X.

E
4.5 Calcul de lesprance pour une N IQU
variable alatoire
C H
densit
O LYTE
P
O LE
4.5.1 C
Un rsultat gnral fondamental

Le rsultat suivant est lanalogue du thorme 3.3.10. Nous considrons une variable
alatoire X de dans R, de loi PX , et une fonction mesurable h de R dans R. Nous
avons vu que Y = h(X) est une variable alatoire sur .

Nous dirons que h est intgrable si h appartient L1 (R, B(R), PX ).

Proposition 4.5.1 Sous les hypothses prcdentes, h est intgrable si et seulement


si h(X) appartient L1 (, A, P), et dans ce cas, les esprances, respectivement de h
4.5 Calcul de lesprance pour une variable alatoire densit 99

relativement PX , et de h(X) relativement P sont gales. Nous avons


Z Z
E (h(X)) = h(X())P(d) = h(x)PX (dx). (4.5.1)
R

Preuve. (4.5.1) est vident lorsque h ne prend quun nombre fini de valeurs, grce
(4.3.1) et au fait que P(X 1 (B)) = PX (B), par dfinition de la loi de X. Si h est
une fonction positive, nous lapprochons par une suite de fonctions tages comme

I Q UE
en (4.3.2) et nous en dduisons encore (4.5.1), les trois membres tant simultanment
N
finis ou infinis. Le rsultat gnral sen dduit par diffrence. 
CH
O L YTE
E P
Commentaire : Si nous connaissons la loi de X, nous pourrons donc calculer
L
CO
E(h(X)) pour toute fonction h intgrable.

Par exemple, si X est une variable alatoire discrte, chargeant chaque entier k avec
probabilit pk , nous retrouvons que

. U
E
Z
h(k) pIkQ
X
h(x) PX (dx) =
R
EC k HN
PO LY T
C OLE
4.5.2 Calculs desprances dans le cas avec densit

Nous allons voir dans ce paragraphe comment calculer lesprance dune variable
alatoire relle, ou plus gnralement dune fonction dune variable alatoire relle,
R x rappelons que X Eadmet la densit f
lorsque cette dernire admet une densit. Nous
si la fonction de rpartition de PX est x f (y)dy. N I Q U

Y T ECH
L
P Oalatoire
E
Proposition 4.5.2 Soit X une variable relle admettant la densit f ,
soit g une fonction mesurableCdeORLdans R. Alors g(X) L1 si et seulement si
et
Z +
|g(x)|f (x)dx < , (4.5.2)

et dans ce cas,
Z +
E (g(X)) = g(x)f (x)dx. (4.5.3)

En particulier,
Z +
E(X) = xf (x)dx, (4.5.4)

100 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

et
Z + Z +
Z +
2
V ar(X) = (x E(X))2 f (x)dx = x2 f (x)dx xf (x)dx .(4.5.5)

Nous navons pas les lments permettant de dmontrer ce rsultat, mais largument
heuristique suivant permet de comprendre pourquoi il est vrai : supposons f et g
continues. Posons Xn = i/n si i/n X < (i + 1)/n, pour i Z. Ainsi, Xn ()
U En ) g(X). De plus, comme
I Qg(X
X() pour tout , et par continuit de g, nous avons
N
Y T E H en
Xn est une variable alatoire discrte, nousCavons utilisant (4.3.1) et (4.2.7) :
i O Li
g E PP
i+1 X i i 1
X

OL n
E(g(Xn )) = X< g f ,
n n n n n
C
iZ
Z iZ
Z

et le dernier terme ci-dessus tend vers le second membre de (4.5.3) lorsque n ,


par le thorme dapproximation de Riemann.

I Q UE
E HN
Cde
4.6 Exemples fondamentaux
LY T variables densit
P O
O LE
4.6.1 C
Variable alatoire uniforme sur [a, b]

Nous gnralisons ici la notion de variable uniforme sur [0, 1]. Nous nous donnons
deux rels a < b, et la probabilit PX admet la densit
si a x b Q U E
( 1
f (x) =
ba
H NI (4.6.1)
0 TE
sinon. C
P O LY
L Enous pourrions aussi bien choisir f (a) = 0 ou
En vertu de la proposition 4.2.10,
C O (4.2.7), le fait que f soit constante sur [a, b]
f (b) = 0. Au vu de linterprtation
exprime que si nous simulons une variable alatoire selon la probabilit PX , nous
avons autant de chances de tomber au voisinage de chaque point de lintervalle
[a, b]. Cela explique le nom uniforme. Remarquons aussi que PX ({x}) = 0 pour tout
x (comme pour toutes les probabilits avec densit). Nous avons donc une probabilit
nulle de tomber exactement en un point x fix lavance.

Proposition 4.6.1 Soit X une variable alatoire de loi uniforme sur [a, b]. Alors X
est de carr intgrable, et
Z b
x a+b (b a)2
E(X) = dx = ; V ar(X) = . (4.6.2)
a ba 2 12
4.6 Exemples fondamentaux de variables densit 101

(Avec la mme chance de tirer "un quelconque point" de lintervalle [a, b], il est naturel
dobtenir comme esprance le milieu du segment.)

Les calculs sont immdiats.

Exemple 4.6.2 A partir de 7h, les bus passent toutes les 15 minutes un arrt donn.
Un usager se prsente entre 7h et 7h30 cet arrt, lheure exacte de son arrive tant
une variable uniforme sur cette priode. Trouver la probabilit
E quil doive attendre
moins de 5 minutes, puis plus de 10 minutes. I Q U
N
T E CH
Y scoulant entre 7h et larrive de lusager.
Solution : Soit X le nombre de minutes
P O L sur [0, 30]. Lattente est infrieure 5 mns si
Cest une variable alatoireEuniforme
lusager arrive entreC O Let 7h15 ou entre 7h25 et 7h30. La probabilit dattendre
7h10
moins de 5 minutes est donc
15 30
1 1 1
Z Z
P(10 < X < 15) + P(25 < X < 30) = dx + dx = .
10 30
U E25 30 3

H NIQ
De mme, la probabilit dattendre plus de T C
10Eminutes vaut
Y
POL
OX
P(0 < L E< 5) + P(15 < X < 20) = 1
.
C 3

4.6.2 Variable alatoire exponentielle

I Q UE
Dfinition 4.6.3 Nous dirons que X suit la loi exponentielle de paramtre > 0 si PX
admet la loi de densit N
T E C<H0
0
LY si x
(
f (x) = P O (4.6.3)
O L E e x
sinon.
C
Proposition 4.6.4 Si X suit la loi exponentielle de paramtre > 0, alors sa fonc-
tion de rpartition vaut

0 si x < 0
(
F (x) = (4.6.4)
1 ex sinon.

De plus,
1 1
E(X) = , V ar(X) = . (4.6.5)
2
102 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

IQ UE
C HN
O LYTE
P
LE
CO
Fig. 4.5: Graphe de la densit f (x) = ex et de la fonction de rpartition associe
F (x) = 1 ex .

I Q U E R x
R 2 x
E C H2 N
Preuve. Les calculs sont trs simples. Par exemple, E(X) = 0 xe dx et

Y T E(X) . Nous obtenons le rsultat par


2 2 2
E(X ) = 0 x e dx, et = E(X )
intgrations par parties successives.P O L 
LE
CO
Dans la pratique, la loi exponentielle modlise souvent une dure de vie ou le temps
dattente avant larrive dun vnement spcifique. Par exemple la dure de vie dune
bactrie, la dure dune conversation tlphonique ou le temps qui nous spare du pro-
chain tremblement de terre peuvent tre considres comme des variables alatoires de
loi exponentielle.
U E
IQ
Exemple 4.6.5 Supposons que la dure de vie T dune
HN
E C conversation tlphonique me-
LY
P O exponentielle
1
sure en minutes soit une variable alatoire de paramtre = 10 . Vous
arrivez une cabine tlphonique L E
et quelquun entre juste devant vous. Avec quelle
C Oplus de 10 mns ? entre 10 et 20 mns ?
probabilit devez-vous attendre

Solution : X dsigne la dure de la conversation de la personne prcdente.


Z +
1 x
P(X > 10) = e 10 dx 0.368
10 10
et
P(10 < X < 20) 0.233.

La loi exponentielle possde une proprit importante pour les applications : elle est
sans mmoire. On dit aussi quelle satisfait la proprit de non-vieillissement.
4.6 Exemples fondamentaux de variables densit 103

Proposition 4.6.6 (Proprit de non-vieillissement) Soit X une variable alatoire


positive, telle que P(X > s) > 0 pour tout s R. Alors

P(X > t + s|X > t) = P(X > s)

pour tous s, t > 0 si et seulement si X suit une loi exponentielle.

Preuve. Soit G(t) = P(X > t) = 1 F (t), o F est la fonction de rpartition de X.


E G(t + s) = G(t)G(s) pour
Daprs (2.5.1), la proprit de lnonc quivaut dire que
Udroite
N
tous s, t > 0. Comme G est dcroissante et continue I Q et tend vers 0 linfini,
E C H
cela revient aussi dire que cest une exponentielle ngative, de la forme G(t) = et
Y T
pour un > 0. Le rsultat sobtientLalors en comparant (4.6.4) et en utilisant le fait
PO
L E caractrise la loi laquelle elle est associe.
quune fonction de rpartition 
CO
Reprsentons-nous X comme la dure de vie dun certain instrument. La proprit
ci-dessus signifie que si linstrument fonctionne aprs t heures de service, la loi de sa
dure de vie partir de l est la mme que la loi de la dure de vie de lappareil neuf.
E
Lappareil fonctionne sans mmoire du temps dusage dj I Q Ucoul.
EC HN
LY T
P O X de loi exponentielle de paramtre
E
Simulation dune variable alatoire
L
>0: CO
Sa densit est donne par (4.6.3). Nous savons que F (x) = 1 ex pour x 0, et
F (x) = 0 pour x < 0. Alors,

F 1 (u) = (1/) ln(1 u).


UE
N I Q alatoire uniforme, la
Nous avons vu au paragraphe 4.2.4 que si U est une variable
H
0
variable alatoire X = (1/) ln(1 U ) suit une C exponentielle de paramtre .
T Eloi
L Y
Mais nous lui prfrons
E P O1
L
CO
X = ln U,

qui suit la mme loi que X 0 (car U et 1 U ont mme loi), et qui est moins coteuse
en temps de calcul.

4.6.3 Variable alatoire de loi gamma

Rappelons tout dabord que la fonction gamma est dfinie pour ]0, +[ par
Z
() = x1 ex dx. (4.6.6)
0
104 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

Une intgration par parties montre que (+ 1) = (), et on a de manire vidente


(1) = 1. Il sensuit que (n + 1) = n! pour tout entier n 0, avec la convention
que 0! = 1.

Soit > 0 et > 0.

Dfinition 4.6.7 Une variable alatoire X suit une loi gamma de paramtre dchelle
et dindice , que lon note (, ), si sa loi admet la densit
E

N I QsiU x 0
ECH
0
1Y T
f (x) = (4.6.7)
L 1 x
PO () x e sinon.

C OLE
Le changement de variable x 7 x montre que cette fonction est dintgrale gale
1.

E
Nous remarquons immdiatement que (1, ) est la loi exponentielle
U
de paramtre .
IQ
C HN
E esprance E(X), sa variance X2 , et
LY
Proposition 4.6.8 Si X est de loi (, ), Tson
P Osont donnes par
lesprance E(X ) pour tout > ,
LE
C O2 ( + ) 1
E(X) = , X = , E(X ) = . (4.6.8)
2 ()

Cette
R proposition se montre immdiatement en utilisant le fait que E(X ) =
x f (x)dx et (4.6.6). En revanche si , nous avons E(XE) = +.

0
IQ U
Lorsque = n, la loi gamma reprsente la loi du T
temps
HN
E C dattente avant la n-ime occu-
O L Y
rence dvnements indpendants de loisPexponentielles de paramtre (voir Exercice
6.1.11). O L E
C
4.6.4 Variables alatoires normales (ou variables gaussiennes)

Nous introduisons ici les variables alatoires les plus clbres en probabilit.

Dfinition 4.6.9 Nous appelons variable alatoire normale centre rduite une va-
riable alatoire X de loi de densit
1 2
f (x) = ex /2 . (4.6.9)
2
4.6 Exemples fondamentaux de variables densit 105

Pour vrifier que la fonction introduite en (4.6.9) est bien dintgrale 1, nous remar-
R +
quons que I = f (x)dx vrifie

+ + 2
1 2 /2
Z Z Z Z
2
I = f (x)f (y)dxdy = d e d,
0 0 2

(en passant en coordonnes polaires dans lintgrale double). Un calcul simple montre
alors que I 2 = 1.

IQ UE
C HN
T E normale centre rduite. Alors
Proposition 4.6.10 Soit X une variable
Y
E POL
LE(X)
CO
= 0 , V ar(X) = 1. (4.6.10)

La loi de X est dans ce cas note N (0, 1), et les qualificatifs centre et rduite
proviennent prcisment de (4.6.10).

E
N QU
Cette proposition est immdiate. E(X) = 0 car cest Ilintgrale dune fonction im-
H intgration par parties.
paire ; pour calculer V ar(X) nous pouvons faireCune
LY TE
PO
LE
CO

IQ UE
HN
1

C
O LYTE
P
OLE
deCGauss f et les proportions daire sous la courbe
Fig. 4.6 : La courbe

Dfinition 4.6.11 On dit que X est une variable alatoire de loi normale N (m, 2 ),
pour m R et 2 > 0, si cette variable a la loi de densit

1 (x m)2
f (x) = exp . (4.6.11)
2 2 2 2

Nous pouvons vrifier que f est une densit en nous ramenant par le changement de
variable x 7 xm
la fonction (4.6.9). Le mme changement de variable permet
106 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

de voir que m et 2 sont lesprance et la variance dune variable alatoire de loi


N (m, 2 ).

La distribution normale fut introduite par De Moivre en 1733. Celui-ci lutilisa pour
approximer une variable alatoire binomiale quand le paramtre n de celle-ci tait
grand. Ce rsultat fut ensuite progressivement gnralis par Laplace et dautres
confrres pour devenir le thorme connu sous le nom de thorme de la limite cen-
trale, qui sera dmontr au Chapitre 6. Ce thorme est lun des plus importants
de la thorie des probabilits et prouve que de trs Q
I U E phnomnes alatoires
nombreux
N
ECH
suivent approximativement une loi normale. Nous pouvons citer titre dexemple la
taille dun individu choisi au hasard,Y
L T
les composantes de la vitesse dune molcule de
gaz ou lerreur de mesure dune POquantit physique.
LE
CO
Pour les calculs sur la loi normale. Il est difficile de faire des calculs avec la loi
normale car la densit dfinie en (4.6.10) nadmet pas de primitive explicite. Aussi des
tables numriques ont-elles t construites pour permettre aux utilisateurs dobtenir
trs rapidement des valeurs numriques. La table ci-dessous
I Q U Edonne les valeurs de la
N
E C1),Het en utilisant la symtrie de la
fonction de rpartition de la loi normale centre rduite, pour certaines valeurs x.
Par exemple, pour une variable X de loiYN T
P O Lnous aurons
(0,
densit et la table numrique ci-dessous,
E
L
CO 1

P(|X| < 2) = 2 P(0 < X < 2) = 2 P(X < 2) = 2 (0, 9772 0, 5) = 0, 9544.
2

Exemple 4.6.12 Lors dun procs en attribution de paternit, un expert tmoigne


que la dure de grossesse, en jours, est de loi approximativement normale de para-
E de prouver son
I Q U et le 240-ime jour
mtres m = 270 et 2 = 100. Lun des pres possibles est en mesure
absence du pays pendant une priode stendant entre le N290-ime
EC H
Y T
prcdant laccouchement. Quelle est la probabilit que la conception de lenfant ait
O L au pays ?
pu avoir lieu pendant la prsence de cetPhomme

C =
Solution : Remarquons queXm
O L EX270 suit une loi N (0, 1). Nous allons utiliser
10
la table ci-dessous.
X 270 X 270

P(X > 290 ou X < 240) = P >2 +P < 3
10 10
= 1 (2) + 1 (3) = 0, 02411.

Le tableau ci-dessous donne les valeurs de (x) = P(X x), lorsque X suit la loi
gaussienne centre rduite.
Bien-sr, les logiciels classiques de statistiques permettent dobtenir les valeurs don-
nes par la table.
x 0,00 0,010 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549

CO
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133

LE
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389

CO
P
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621

CO
LE
O
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830

L
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015

LE
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177

PO
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319

P
L
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418
YTE 0,9429 0,9441

O
Y
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
C

L
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706

TE
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
HN

YTE
4.6 Exemples fondamentaux de variables densit

CH
2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
IQ

C
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
UE

NIQ
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916

HN
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
U
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952

IQ
E
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974

UE
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986

x 3,0 3,1 3,2 3,3 3,4 3,5 3,6 3,8 4,0 4,5
(x) 0,99865 0,99903 0,99931 0,99952 0,99966 0,99977 0,999841 0,999928 0,999968 0,999997
Valeurs de la fonction de rpartition de la loi de Gauss N (0, 1)

Remarque 4.6.13 Dans les exemples que nous venons de voir, il est intressant de

variance de la variable. Cest trs important en Statistique. En effet, si nous savons a


nos exemples), paramtres lis trs directement aux valeurs de lesprance et de la

priori que la loi de X appartient une certaine classe de lois (lois exponentielles, lois
remarquer que les densits sont paramtres par des nombres rels (un ou deux dans
107
108 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

normales), nous pourrons trouver laquelle en estimant ses paramtres en fonction des
observations de X.

Il existe des variables alatoires qui nont pas desprance, comme le montre lexemple
suivant.

Exemple 4.6.14 Variable alatoire de Cauchy. Un gyrophare G envoie un flash


lumineux dans une direction alatoire uniforme dangle . Cherchons la distribution
E
N IQU
de labscisse X du point dimpact du rayon lumineux sur un cran plan infini situ
C H4.7.
distance 1 de G, comme indiqu sur la figure

O LYTE
P
LE
CO

U E
NIQ
TE CH
LY
PO
LE
CO

Fig. 4.7 : Gyrophare


E
Langle est une variable alatoire de densit q() =H 1 NI QU
C 1{] 2 , 2 [} (), variable de loi
Y T E pour

uniforme sur ] 2 , 2 [. Labscisse X est donne par X = tan , cest donc une
P O
variable alatoire de fonction de rpartitionLdonne x R par
L E
COarctan x) =
arctan x
1 1
Z
F (x) = P(X x) = P( q()d = arctan x + .
2
La fonction F est de classe C 1 et a pour drive
1
f (x) = , xR. (4.6.12)
(1 + x2 )
Par consquent, la variable alatoire X a la loi de densit f .

Dfinition 4.6.15 Une variable alatoire relle X suit une loi de Cauchy si elle
admet la densit
1
f (x) = .
(1 + x2 )
4.7 Des ingalits fameuses 109

Voyons si X est intgrable. Pour cela il faut tudier la convergence de lintgrale


gnralise
Z +
|x|
dx.
(1 + x2 )
1
Cette intgrale diverge (car f (x) x |x| ). Ainsi, la variable alatoire X na pas
desprance. Une variable de Cauchy nest donc pas intgrable.

UE
H NIQ
4.7 LY TEC
Des ingalits fameuses
E PO
L
4.7.1
CO
Ingalit de Bienaym-Chebyshev

Thorme 4.7.1 Soit p 1 et a > 0. Nous avons les ingalits suivantes


U E
Ingalit de Markov : soit X Lp , alors
NIQ
Y T E C Hp )
P La) ap .
E(|X|
P(|X|O (4.7.1)
OL E
C
Ingalit de Bienaym-Chebyshev : soit X L2 ,

V ar(X)
P(|X E(X)| a) . (4.7.2)
a2

IQ UE
Preuve. On a
HN
TEC
|X|p ap 1[a,[ (|X|),
P O LY
donc
p L
E
E(|X|p )CaOE 1[a,[ (|X|) = ap P(|X| a),


ce qui donne la premire formule (ingalit de Markov). La seconde dcoule de la


premire applique X E(X) et p = 2. 

Remarque 4.7.2 Lingalit de Bienaym-Chebyshev est trs utile dans la pratique,


comme nous le verrons par la suite. Elle permet de mesurer la probabilit des grands
carts entre X et sa moyenne. Par exemple, avec a = 10 X , il en rsulte quil est
improbable quune variable alatoire X dvie de E(X) de plus de 10 fois son cart-type
(probabilit infrieure 0,01). Cette ingalit, tout fait gnrale, nest cependant
pas trs prcise, et surestime trs souvent en pratique le membre de gauche de (4.7.2),
comme nous allons nous en convaincre ci-dessous.
110 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

Exemple 4.7.3 Posons m = E(X) et 2 = V ar(X). Alors, pour tout a > 0,


2
P(|X m| a) ,
a2
soit encore
1 1
P(|X m| a) , do P(|X m| < a) = P(X ]m a, m + a[) 1 2 .
a2 a
En particulier, pour a = 2 et a = 3, nous avons respectivement :
1 E
U3, m + 3[) 1 0.88.
1
P(X ]m 2, m + 2[) 1 0.75 ; P(X ]m I Q
4 HN 9
TEC
O LYmais trs grossires. Soit X une variable normale
Ces approximations sont universelles
P
L E la table numrique de la loi normale donne ci-dessus,
de loi N (m, ). En utilisant
nous obtenons CO
1 1
P(X ]m 2, m + 2[) 0.95  1 ; P(X ]m 3, m + 3[) 0.997  1 .
4 9
Les renseignements ainsi obtenus sont beaucoup plus prcis. E
IQ U
HN
TEC
4.7.2 O LY
Ingalit de Cauchy-Schwarz
P
O LE
Proposition 4.7.4
C
X et Y deux variables alatoires de carr intgrable, alors
Soient
XY L1 , et on a lingalit de Cauchy-Schwarz :

|E(XY )| E(|XY |) E(X 2 )E(Y 2 ). (4.7.3)
Il y a galit dans (4.7.3) si et seulement si les deux variables alatoires sont presque-
srement proportionnelles.
IQ UE
N
Preuve. Comme |XY | 12 (X 2 + Y 2 ), nous Y
avons ECH
T XY L1 ds que X, Y L2 . De
L
P Ola linarit et la positivit de lesprance
plus, pour tout x R, nous avons daprs
LE
C O ) + E(Y 2 ) = E[(xX + Y )2 ] 0.
E(XY
x2 E(X 2 ) + 2x
Mais ceci nest possible que si ce trinme en x a au plus une seule racine relle. Son
discriminant doit donc tre ngatif ou nul, ce qui donne immdiatement (4.7.3).

Le discriminant est nul si et seulement si il y a une racine double x0 et dans ce cas,


Y () = x0 X() pour presque tout . 

Nous dduisons en particulier de lingalit de Cauchy-Schwarz, que le coefficient de


corrlation dfini par (4.4.3) vrifie
1 (X, Y ) 1. (4.7.4)
4.8 Vecteurs alatoires 111

4.7.3 Ingalit de Jensen

Thorme 4.7.5 Soit X une variable alatoire relle intgrable, et f une fonction
mesurable telle que f (X) soit intgrable. Supposons de plus que f soit une fonction
convexe. Alors
E (f (X)) f (E(X)) .

Preuve. Puisque f est convexe, nous savons que pour tout a R, il existe a R
E
tel que pour tout x,
N I QU
CHa (x a).
f (x) f (a) +
TE
Y x = X() et a = E(X). Il suffit alors de
O Lpour
Ce rsultat est en particulier vrai
prendre lesprance pour L
P
E le rsultat.
obtenir 
CO
Applications :
Si X est une v.a. centre (E(X) = 0), alors pour tout R, nous avons
U E
E(eX ) 1.
NIQ
T ECH
loiYnormale
Soit G une variable alatoire de L centre rduite. Alors pour tous
x, , K R, nous avons E P
O
L
CO 2
E( (xeG /2
K)+ ) (x K)+ .
2
car E(eG /2
) = 1 et la fonction u (x u K)+ = sup(0, x u K) est
convexe.
E
U dans une affaire
Exemple 4.7.6 Un investisseur a le choix : soit il placeN I Qcapital
son
risque rapportant une somme alatoire X desprance
Y T ECH m, soit il le place en titres sans
risques qui rapporteront m avec probabilitL1. Il va prendre sa dcision de manire
maximiser lesprance de u(R), oLREest PO son bnfice et u sa fonction de prfrence.
C O que si u est une fonction concave, E(u(X)) u(m),
Lingalit de Jensen nous montre
ce qui rend le placement sr prfrable. Si par contre u est convexe, le placement risqu
est meilleur puisque E(u(X)) u(m).

4.8 Vecteurs alatoires

Nous allons gnraliser ici la notion de variable alatoire en considrant maintenant


quelle peut prendre ses valeurs dans Rn . De mme quen dimensionQ 1, la tribu bor-
lienne sur Rn est la tribu engendre par les ensembles de la forme ni=1 ], xi ], pour
xi R. Nous munirons dornavant Rn de cette tribu. Nous pourrons alors gnraliser
112 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

la notion de fonction mesurable de Rn dans R de manire vidente et considrer les


intgrales gnralises de telles fonctions. Une fonction mesurable f de Rn dans R
(par exemple une fonction continue ou continue par morceaux), sera dite intgrable
si Z + Z +
... |f (x1 , . . . , xn )|dx1 . . . dxn < +.

Nous rappelons le thorme de Fubini, essentiel dans les calculs dintgrales multiples.
E
N I Q U2
Y T E C H sur R .
Thorme 4.8.1 Soit f une fonction mesurable

PO L
L E
1) (Thorme de Tonelli) Si f est positive, alors
CO
Z Z Z Z
f (x, y)dy dx = f (x, y)dx dy. (4.8.1)
R R R R
R R 
2) (Thorme de Fubini)
R RSi f est de signe quelconque mais vrifie que R R |f (x, y)|dy
E
Q U est encore vraie et on
I(4.8.1)

dx < + ou R que R R |f (x, y)|dx dy < +, alors N
CH
peut dfinir RR f (x, y)dxdy comme la valeur commune
T E
:
LY
PO
O L E f (x, y)dy
Z Z Z Z Z
f (x, y)dxdy = dx = f (x, y)dx dy. (4.8.2)
RR C R R R R

Remarquons lanalogie avec le thorme de Fubini (S9) pour les sries. En fait, la
thorie de lintgration (de Lebesgue) permet de voir ces rsultats comme issus du
mme thorme gnral, dont dcoule aussi le rsultat mixte suivant.
IQ UE
HN
T E C(fk )k telle que
P R
Thorme 4.8.2 Considrons une suite de fonctions |fk (x)|dx <
L Y k R

PO
+, alors
L E
!
CfO
XZ Z X

k
R
k (x)dx = fk (x) dx.
R k

Le Corollaire 4.2.6 se gnralise alors de la manire suivante.


Thorme 4.8.3 Pour tout entier n 1 fix, il existe une unique fonction den-
sembles dfinie sur la tribu borlienne de Rn et valeurs dans R+ , qui soit -
additive, et qui coincide avec le volume sur les pavs :

( ni=1 ]ai , bi ]) = ni=1 (bi ai ),

o ai < bi , i {1, , n}. Cette mesure sappelle la mesure de Lebesgue sur


Rn .
4.8 Vecteurs alatoires 113

Nous pouvons alors gnraliser la notion dquiprobabilit vue dans le cas dun en-
semble fini ou sur [a, b]. La probabilit uniforme sur un ensemble borlien V de Rn
de mesure de Lebesgue (V ) ]0, +[, est dfinie pour tout borlien A V par

(A)
PV (A) = .
(V )

La probabilit que le rsultat tombe dans une partie A de V est proportionnelle au


volume de cette partie. Si n = 1 et A est un intervalle, le volume est la longueur de
E
I Q Ule cas particulier o V = [a, b].
lintervalle. Le cas de la loi uniforme sur [a, b] est donc
EC HN
P O LY T
4.8.1 LE
Vecteurs alatoires
CO
Dfinition 4.8.4 Un vecteur alatoire X valeurs dans Rn est form de n variables
alatoires relles, qui sont les composantes de X : X = (X1 , . . . , Xn ).

UE
N I Q par la fonction de rpar-
Comme dans le cas de la dimension 1, sa loi est caractrise
H
T E Cpar
n
tition multidimensionnelle F : R [0, 1] dfinie
LY
E PO
L n
!
, .O
F (x1C
Y
(4.8.3)
. . , xn ) = P X ] , xi ] .
i=1

De manire gnrale, caractriser les fonctions de rpartition sur Rn est assez dlicat,
de sorte que cette notion est rarement utilise. Nous allons plus particulirement nous
intresser aux vecteurs alatoires densit. E U
IQ
C HN
O LY T E f si la fonction f est positive sur
Dfinition 4.8.5 On dit que X admet la densit
Rn , intgrable et vrifie P
LE
Z Z C OZ
+ +
f (x)dx = ... f (x1 , . . . , xn )dx1 . . . dxn = 1, (4.8.4)
Rn

et si
Z x1 Z xn
P(X1 x1 , X2 x2 , . . . , Xn xn ) = ... f (y1 , . . . , yn )dy1 . . . dyn .

(4.8.5)

La proposition suivante gnralise la dimension n la proposition 4.5.2.


114 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

Proposition 4.8.6 Soit X une variable alatoire valeurs dans Rn admettant la


densit f , et soit g une fonction mesurable de Rn dans R. Alors g(X) est intgrable
si et seulement si
Z + Z +
... |g(x1 , . . . , xn )| f (x1 , . . . , xn ) dx1 . . . dxn < +. (4.8.6)

Dans ce cas nous avons


Z + +
. .E
Z
g(x1 , . . . , xn ) f (x1 , .U (4.8.7)
IQ
E(g(X)) = ... , xn ) dx1 . . . dxn .

C HN
O LYTE
P
L E aussi E(g(X)) =
Pour simplifier, nous crirons g(x)f (x)dx, avec les notations de
R

CO
Rn
lintgration.

4.8.2 Moments dun vecteur alatoire


U E
NIQ
Y T E C Halatoire X = (X1 , . . . , Xn ) sont
Dfinition 4.8.7 Si les composantes Xi du vecteur
O L esprance E(X) = (E(X1 ), . . . , E(Xn )).
intgrables, nous pouvons dfinir le vecteur
P
LE
Si les composantes Xi du C O alatoire X = (X1 , . . . , Xn ) sont de carr intgrable,
vecteur
la matrice de covariance de X est la matrice CX = ((ci,j ))1i,jn de taille n n
et dont les lments valent
ci,j = cov(Xi , Xj ).

E
Proposition 4.8.8 La matrice des covariances est symtrique non-ngative.
U
IQ
HN
T E Csignifie que
Pn
Preuve. La symtrie est vidente. Non-ngative ai aj ci,j 0
LY i,j=1

E PO
pour tous rels ai . Un calcul simple montre que
L
n
CO n
!
X X
ai aj ci,j = V ar ai Xi 0.
i,j=1 i=1

Proposition 4.8.9 Soit X un vecteur alatoire n-dimensionnel, de matrice de cova-


riance C. Soit A une matrice de taille mn, et Y le vecteur alatoire m-dimensionnel
Y = AX. La matrice de covariance de Y est alors AC t A, o t A est la transpose de
A.

La preuve provient dun calcul immdiat.


4.8 Vecteurs alatoires 115

Exemple 4.8.10 Vecteur gaussien n-dimensionnel.

Un exemple de vecteurs alatoires est celui des vecteurs gaussiens, que nous tudierons
en dtail au chapitre 6. Soit m Rn et C une matrice symtrique positive. Le vecteur
X Rn est un vecteur alatoire gaussien desprance m et de matrice de covariance
C si sa densit scrit
1 1 1
f (x) = det(C) e 2 hxm, C (xm)i ,
(2)n/2
IQ UE
HN
Pn
o hx, yi = xi yi .
i=1
C
O LYTE
On a alors E(X) = m RnEet CX = C. P
L
CO
La densit gaussienne f a la forme suivante (pour n = 2) :

U E
NIQ
TE CH
LY
PO
LE
16

CO
14
12
10
8
Z

6
4
2
0
4 4
3 3

UE
2 2
1 1

IQ
0 0
1 1

HN
2 2
Y 3 3 X

C
4 4

O LYTE
E P
O Lgaussienne
Fig. 4.8 : Densit
C
en dimension deux.

4.8.3 Densits marginales et conditionnelles

Nous allons nous limiter dans la suite de ce paragraphe au cas o n = 2, pour simplifier
les notations. Nous considrons une variable alatoire Z valeurs dans R2 de loi
densit, et nous notons X et Y ses deux composantes : Z = (X, Y ). Comme dans le
cas discret, la loi des marginales X et Y peut sobtenir partir de la loi de Z. Ce
rsultat se gnralise sans peine une dimension suprieure.
116 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

Proposition 4.8.11 Supposons que Z admette une densit f . Alors, X et Y ad-


mettent les densits fX et fY suivantes sur R :
Z + Z +
fX (x) = f (x, y)dy, fY (y) = f (x, y)dx. (4.8.8)

Les fonctions fY et fZ sappellent les densits marginales de f . Notons que la


rciproque de cette proposition est fausse : les variables alatoires X et Y peuvent
E
I QaitUune.
avoir des densits sans que le couple Z = (X, Y ) en
E C HN
Supposons par exemple que X = Y .Y
L T
Si = {(x, x) : x R} est la diagonale de R2 ,
O
nous avons videmment PZ ()P= 1, tandis
R que si la formule (4.8.7) tait valide pour
PZ , nous aurions PZC O
() L E
= E(1 (Z)) = R 1 (z)f (z)dz = 0 car a un volume nul
2
dans R . 2

En particulier, il faut faire attention au fait que dans le cas gnral, la densit dun couple
de variables alatoires densit nest pas le produit des densits.
U E
NIQ
Y T ECH
P L (4.8.5) :
Preuve. Pour tout x R, nous avonsOpar
E
OL
C]
Z x Z +

P(X x) = P(Z , x] R) = du f (u, v) dv .

Rx
Donc si fX est dfinie par (4.8.8), nous obtenons P(X x) = fX (u)du, ce qui
montre que fX est la densit de X. Le raisonnement est analogue pour Y . 

IQ UE
Exemple 4.8.12 On lance une flchette sur uneEcible HN
C circulaire de rayon unit. Le
LY Tle point
E P Ola cible. (On dcide
joueur est suffisamment loin de la cible pour que M dimpact de la flchette
soit suppos uniformment distribuL sur de nobserver que les
CO
!).
lancs qui atteignent la cible

Les coordonnes cartsiennes de M D = {(x, y) R2 , x2 + y 2 1} constituent un


couple de variables alatoires de densit
1
f(X,Y ) (x, y) = 1{x2 +y2 1}

uniforme sur le disque, par hypothse. Labscisse X est distribue selon la densit
marginale
2
Z
1
fX (x) = f(X,Y ) (x, y) dy = (1 x2 ) 2 1[1,1] (x).

La loi de Y a la mme densit.
4.8 Vecteurs alatoires 117

Donnons maintenant dans ce cadre une dfinition de la loi conditionnelle de Y sachant


X = x, comme nous lavons fait dans le cas discret (Section 3.6.1).

Proposition 4.8.13 La formule suivante dfinit une densit sur R, pour tout x tel
que fX (x) > 0 :
f (x, y)
fY |X=x (y) = . (4.8.9)
fX (x)
UE
N IdeQY sachant X = x.
Cette fonction sappelle densit conditionnelle

Y T ECH
E P OfLY |X=x est une fonction positive dintgrale 1.
La preuve est immdiate puisque
L
CO
Linterprtation de (4.8.9) est la suivante : la fonction fY |X=x est la densit de la loi
conditionnelle de Y sachant que X = x. Bien sr, nous avons P(X = x) = 0 puisque
X admet une densit, donc la phrase ci-dessus na pas rellement de sens, mais elle se
justifie heuristiquement ainsi : x et y tant de petitsI Q UE
accroissements des variables
x et y, nous avons comme en (4.2.7), et lorsque C fH
N
est continue :
L Y TE
fX (x)x P(x
E P O X x + x),
O L
C
f (x, y)xy P(x X x + x, y Y y + y).

Par suite
P(x X x + x, y Y y + y)
fY |X=x (y)y
P(x X x + x)
U+Ex).
P(y Y y + y|x X x
IQ
N
ECH
Y Ten particulier dfinir lesprance qui
Puisque fY |X=x est une densit, nous pouvons
P O L
lui est associe, et gnraliser ainsi E
O L la notion desprance conditionnelle vue dans le
C
cas discret, dans le cas o Y est intgrable.

Dfinition 4.8.14 Soit Y une variable alatoire intgrable.

1) Lesprance conditionnelle de Y sachant X = x est dfinie par


Z
E(Y |X = x) = y fY |X=x (y)dy. (4.8.10)
R

2) Lesprance conditionnelle de Y sachant X est la variable alatoire dfinie par :

E(Y |X) = (X), avec (x) = E(Y |X = x). (4.8.11)


118 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

Remarque 4.8.15

1)
R (x) nest dfini que pour x / B = {u, fX (u) = 0}. Mais P(X B) =
f
B X
(u)du = 0. Donc (4.8.11) dfinit bien lesprance conditionnelle (X) =
E(Y | X) avec probabilit 1.

R R f (x,y)

2) Comme E (E(|Y | |X)) = R R |y| X,YfX (x) dy fX (x)dx = E(|Y |) (nous avons uti-
lis le Thorme 4.8.1 (thorme de Fubini) ), lesprance conditionnelle est bien
E
dfinie ds que Y est intgrable.
N IQU
T E CH
3) Les rles de X et de Y peuventLY inverss dans tous les rsultats.
O tre
P
C OLE
En remplaant les sommes par des intgrales, nous pouvons adapter les preuves de
la Section 3.6.1 et obtenir dans le cadre des lois densit les mmes proprits de
lesprance conditionnelle rsumes ci-dessous.
UE
N I Q Nous avons
Proposition 4.8.16 Soit Y une variable alatoire intgrable.
TE CH
1) LY
PO
L E|X)) =
Z
E( Y ) = EO
(E(Y E(Y | X = x) fX (x)dx.
C R

2) Supposons de plus que Z soit intgrable. Alors, pour a, b R,


E (aY + bZ | X) = a E (Y | X) + b E(Z | X).

IQ UE
HN
3) Si Y 0, alors E (Y | X) 0.
C
4) E( 1 | X) = 1.
O LYTE
E P
L
C Oou borne,
5) Si g est mesurable positive

E( Y g(X) | X) = g(X) E (Y | X).

6) Pour toute fonction h mesurable positive ou borne sur R2 ,


Z Z
E(h(X, Y )) = h(x, y) f (x, y)dxdy
R R
Z Z
= h(x, y) fX (x) fY |X=x (y)dxdy
ZR ZR
= h(x, y)fY (y) fX|Y =y (x) dxdy.
R R
4.9 Variables alatoires indpendantes 119

Exemple 4.8.17 Soit X et Y de densit jointe fX,Y (x, y) = x1 1T (x, y) o T est le


triangle T = {0 < y < x < 1}.

La densit de X est donne par fX (x) = fX,Y (x, y)dy = 1]0,1[ (x) et pour x ]0, 1[,
R

1
fY |X=x (y) = 1]0,x[(y) .
x
Ainsi, X est uniformment distribue sur ]0, 1[, et la loi de Y sachant X = x est
uniforme sur ]0, x[ (0 < x < 1). Pour un tel x, lespranceEconditionnelle E(Y | X = x)
I Q Uloi uniforme, et nous obtenons
Ncette
est donne par le milieu x/2 de lintervalle portant
X
EC H
YT
E(Y | X) = 2 .
P O L
LE
CO
4.9 Variables alatoires indpendantes

4.9.1 Indpendance de deux variables alatoires


E
IQ U
HN
E C un couple (X, Y ) de vecteurs ala-
LY Tdans Rm et Rn .
Dans la suite de ce paragraphe, nous considrons
toires. X et Y sont respectivement O
valeurs
L EP
C O alatoires X et Y sont indpendants si pour tous
Dfinition 4.9.1 Les vecteurs
borliens A et B dans lesespaces correspondants,

P(X A, Y B) = P(X A) P(Y B). (4.9.1)

surUREm et Rn .
Considrons alors deux fonctions mesurables g et h dfinies Q
H NI
TEC
Y et si X et Y sont indpendantes,
POL
Proposition 4.9.2 Avec les notations prcdentes,
les variables alatoires g(X) et h(Y E) sont aussi indpendantes. Si de plus g(X) et
L
C O g(X)h(Y ) est aussi intgrable, et nous avons
h(Y ) sont dans L1 , alors le produit

E (g(X)h(Y )) = E (g(X)) E(h(Y )) . (4.9.2)

Preuve. La premire assertion est vidente par dfinition mme de lindpendance.


Pour le reste, nous remarquons dabord que (4.9.2) se rduit (4.9.1) si g et h sont
des fonctions indicatrices. Comme les deux membres de (4.9.2) sont linaires en g
et en h, nous avons aussi (4.9.2) lorsque g et h sont des fonctions tages. Daprs
(4.3.3), nous en dduisons (4.9.2) pour g et h positives quelconques. Si g et h sont
de signe quelconque, (4.9.2) est vrifie pour |g| et |h|, donc si g(X) et h(Y ) sont
intgrables, nous en dduisons que g(X)h(Y ) L1 . Enfin, dans ce cas, par diffrence
(en considrant g = g + g et h = h+ h et en dveloppant le produit), nous
120 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

obtenons (4.9.2) pour g et h elles-mmes. 

Si X et Y sont des variables alatoires relles, il dcoule alors de (4.4.4) et du rsultat


prcdent que :

Proposition 4.9.3 Si les variables alatoires X et Y sont indpendantes et dans L2 ,


alors Cov(X, Y ) = 0 et (X, Y ) = 0 ((X, Y ) est le coefficient de corrlation).

Nous savons que |(X, Y )| 1 par (4.7.4). Si lesI Q U E


variables alatoires X et Y sont
H
indpendantes, le coefficient de corrlationC|(X,N Y )| est donc nul ; au contraire si
|(X, Y )| est proche de 1, nous avons
L T E remarqu que les variables alatoires sont
Ydj
O
Ple nom de coefficient de corrlation. Attention cepen-
L E pas que X et Y soient indpendantes.
fortement dpendantes, do
C O
dant, (X, Y ) = 0 nimplique

Le rsultat suivant est un analogue de lquivalence (i)(ii) dans la proposition
3.6.10. E
IQ U
HN
Calatoires relles admettant les den-
YTE
Proposition 4.9.4 Soient X et Y deux variables
sits fX et fY . Pour quelles soient O L
P suivante : il faut et il suffit que le couple
indpendantes,
la E
Z = (X, Y ) admette (sur R2 ) L densit
C O f (x, y) = fX (x) fY (y). (4.9.3)

Preuve. Sil y a indpendance, il vient par (4.9.1) que


Z x
U E
Z y
P(X x, Y y) = P(X x) P(Y y) = XI
fN Q
(u)du fY (v)dv,

Y T E CH

PO
ce qui montre que PZ vrifie (4.8.5) avec fL
donne par (4.9.3).
L E
O soit satisfaite. Le mme
Inversement, supposons que C(4.9.3) calcul que ci-dessus
montre alors que P(X x, Y y) = P(X x) P(Y y) pour tous x, y R.
Mais, comme dans la preuve de la proposition 4.2.3, nous pouvons montrer que ces
relations stendent en P(X A, Y B) = P(X A) P(Y B) pour tous borliens
A et B, do le rsultat. 

4.9.2 Suite de variables alatoires indpendantes

Etant donne une famille finie X1 , . . . , Xn de vecteurs alatoires valeurs respecti-


vement dans Rp(i) , 1 i n, tout ce qui prcde stend sans difficult, sauf que les
4.9 Variables alatoires indpendantes 121

notations deviennent plus compliques. La seule chose pouvant prter confusion est
la notion dindpendance ; nous la dfinissons donc ci-dessous :

Dfinition 4.9.5 Les variables alatoires X1 , . . . , Xn sont indpendantes (ou, mu-


tuellement indpendantes) si pour tous borliens A1 , . . . , An on a

n
Y
P(X1 A1 , . . . , Xn An ) = P(Xi Ai ). (4.9.4)
U E
NIQ
i=1

Y T ECH
E POL
La proposition suivante est extrmement utile dans la pratique.
L
CO
Proposition 4.9.6 Si les Xj , 1 j n, sont des variables alatoires indpendantes
et de carr intgrable, les variances vrifient
n n
!
V ar(Xi ). U E
X X
V ar Xi = (4.9.5)
N IQ
ECH
i=1 i=1

O LYT
P
L E savoir
Preuve. Nous utilisons ici (4.4.7),
O
Xn C !
X n n
X
V ar Xi = V ar(Xi ) + Cov(Xi , Xj ).
i=1 i=1 i,j=1;i6=j

Comme les Xi sont indpendantes, Cov(Xi , Xj ) = 0 si i 6= j, do le rsultat. 

IQ UE
Considrons maintenant une suite infinie (Xn )nN . HN
L Y TEC
O
Dfinition 4.9.7 La suite (Xn )nN dePvariables alatoires est dite indpendante si

E
. .L, Xn est indpendante.
pour tout n, la famille finie X1 , .O
C
Il est facile de vrifier (et intuitif aussi) que lindpendance est prserve par certaines
transformations.

Proposition 4.9.8 Lindpendance de la suite (Xn )n entrane celle de

1) toute sous-suite (Xik )k ,

2) toute sous-suite de vecteurs issus de (Xn )n ,

3) toute suite de la forme (f1 (X1 ), , fn (Xn ))n , o les fonctions fi sont des
fonctions continues, ou mme mesurables.
122 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

Exemple 4.9.9 Nous considrons lensemble = [0, 1[ muni de la tribu borlienne


restreinte cet ensemble, et de la mesure de Lebesgue. A chaque rel , nous associons
son dveloppement dyadique (unique si lon impose que les wi ne soient pas tous gaux
1 partir dun certain rang) :
X wi
w= , wi {0, 1}.
2i
i1

Lapplication Xi : {0, 1}, qui associe Xi () = i est une variable alatoire sur
E
. En effet, pour xi {0, 1}, 1 i n,
NIQU
"Ci H
E
L[ T
Y X xj i
xj 1
"
PO
X
{Xi = xi } = , + i ,
OLE
2j 2j 2
C
x1 , ,xi1 j=1 j=1

qui est bien un lment de la tribu borlienne de = [0, 1[, et

1 X 1
2U E
P({Xi = xi }) = 1= .
2i
N
x1 , ,xi1 IQ
ECH
Y T (Xi)1in . Nous avons
Montrons lindpendance des variables alatoires
O
P "n L
\ OLE n
"
C
{Xi = xi } =
X xi X
,
xi 1
+ n ,
i=1
2i i=1 2i 2
1in

si bien que
\ 1
UE
P {Xi = xi } = ,
2n
IQ
HN
1in
C
T E Cela dmontre que1 les variables
qui est la mesure de Lebesgue de lintervalle ci-dessus.
Ode
alatoires Xi sont indpendantes et de Ploi LYBernoulli de paramtre 2 . Ainsi, nous
venons de construire sur une O L Ede variables alatoires telle que toute sous-suite
suite
C alatoires indpendantes. Cest donc une suite de
finie est constitue de variables
variables alatoires indpendantes de loi de Bernoulli de paramtre 21 .

Nous citerons sans dmonstration le thorme suivant rpondant, dans un cadre g-


nral au problme de la construction dune suite de variables alatoires indpendantes
de lois donnes.

Thorme 4.9.10 Etant donne, pour chaque entier n, une probabilit n sur Rp(n) ,
o p(n) est un entier non nul, il existe un espace muni dune tribu A et dune proba-
bilit P sur lequel on peut dfinir une suite (Xn ) de variables alatoires indpendantes,
chaque Xn tant de loi n .
4.10 Calculs de lois 123

4.10 Calculs de lois

4.10.1 Un thorme didentification

Dans ce paragraphe, nous allons utiliser le thorme suivant (que nous ne dmontre-
rons pas), rciproque de (4.5.3).
Thorme 4.10.1 1) Si il existe une probabilit sur R telle que pour toute fonction
E
IQU
continue borne h,
N
E C Hnotation en (4.3.4)),
Z
(4.10.1)
YT
E(h(X)) = h(x)(dx), (voir
R
O L
alors la loi de X est galeLE.P
CO
2) Si il existe une fonction f telle que pour toute fonction continue borne h,
Z
E(h(X)) = h(x)f (x)dx,
R
E
alors la loi de X admet la densit f . N IQU
T CH
Lide de la preuve repose sur le fait que lesE fonctions continues bornes peuvent
approcher une fonction h = 1],y] , O L Y
pour laquelle (4.10.1) donne la fonction de r-
P
partition de . LE
CO
Utilisons ce rsultat dans lexemple suivant, qui montre quil existe des variables
alatoires relles qui ne sont ni discrtes, ni densit. Soit X une variable alatoire
de loi de densit f et a R fix. Considrons la variable alatoire Y dfinie par
Y = max(a, X). La loi de Y est gale
UE
NIQ
P(X a)a + 1{]a,+[} f (x)dx.
CH
E nous en convaincre, nous consi-
LYetTnous calculons
(Une partie densit et une masse au point a.) Pour
drons une fonction h continue borne P OR,
sur
LE
E(h(Y )) C O X)) =
= E(h(max(a, E(h(a)1{aX} ) + E(h(X)1{a<X} )
Z +
= h(a)P(X a) + h(x)f (x)dx.
a
Nous utilisons alors le rsultat ci-dessus.

4.10.2 Recherche de densit

Un problme important est le suivant. Soit X une variable alatoire relle, admettant
la densit fX . Soit g une fonction mesurable, de sorte que Y = g(X) soit aussi une
variable alatoire. Est-ce que Y admet une densit, et si oui, comment la calculer ?
124 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

Il convient dabord de remarquer que cette densit nexiste pas toujours. Si par
exemple g(x) = a pour tout x, la loi de Y est la masse de Dirac en a, qui na
pas de densit.

Pour rsoudre ce problme, lide consiste essayer de mettre E(h(Y )) = E(h


g(X)) sous la forme h(y)fY (y)dy pour une fonction convenable fY , et une classe de
R

fonctions h suffisamment grande. La fonction fY sera alors la densit cherche.

Or, (4.5.3) implique


E
N IQU
H h g(x)f
+
Z
C
E(h(Y )) = E(h g(X))E= X (x) dx. (4.10.2)
O LYT

E P
C OL
Nous souhaitons faire le changement de variable y = g(x) dans cette intgrale. Cela
ncessite que g soit drivable et bijective par morceaux, et il faut faire trs atten-
tion aux domaines o g est croissante ou dcroissante. Plutt quexposer une thorie
gnrale, donnons des exemples.
E
Exemple 4.10.2 IQU
1) Soit Y = aX + b, o a et bNsont des constantes. Si a = 0,
E
nous avons alors Y = b et la loi de Y (sans C H
densit) est la masse de Dirac en b.
L
Si au contraire a 6= 0, nous faisons Y T
le changement de variable y = ax + b dans
(4.10.2), ce qui donne L E P
O
C
Z+
O
+
yb 1
Z
E(h(Y )) = h(ax + b) fX (x) dx = h(y) fX dy
a |a|

(on peut considrer sparment les cas a > 0 et a < 0). Donc
E
. IQU
yb 1

(4.10.3)
fY (y) = fX
H N
|a|
TEC
a

Par exemple : P O LY
LNE(m, 2 ), alors
CO
Xm
Si X suit la loi normale suit la loi N (0, 1).
Si X suit la loi normale N (0, 1), alors aX + b suit la loi N (b, a2 ).
Si X suit la loi uniforme sur [, ], alors aX + b suit la loi uniforme sur
[a + b, a + b].
Si X suit la loi (, ), alors aX suit la loi (, /a).

2) Soit Y = X 2 . La fonction x x2 est dcroissante sur R et croissante sur R+ .


Le changement de variable y = x2 donne alors
R0 R +
E(h(Y )) = h(x2 ) fX (x) dx + 0 h(x2 ) fX (x) dx
R + 1
R + 1
= 0 h(y) fX ( y) 2 y dy + 0 h(y) fX ( y) 2 y dy,
4.10 Calculs de lois 125

et nous avons donc


1
fY (y) = (fX ( y) + fX ( y)) . (4.10.4)
2 y

Nous en dduisons le rsultat suivant.


Proposition 4.10.3 Si X suit la loi N (0, 1), alors X 2 suit la loi (1/2, 1/2).
E
U Soit X = (X1 , . . . , Xn ) un
NIQ
Dans le cas des vecteurs alatoires, lide est la mme.
H
Y T EC
vecteur alatoire de densit fX sur Rn . Soit g une fonction de Rn dans Rm , et Y =

PO L
g(X). Plusieurs cas sont considrer :

OLE
C Y nadmet pas de densit.
a) m > n : Le vecteur

b) m = n : Nous utilisons, comme dans le cas unidimensionnel, le changement de


E de droite de (4.10.2).
variable y = g(x) dans lintgrale n-uple qui remplace le terme
N IQU
Rappelons cette formule de changement de variable.
EC H Supposons tout dabord que g
soit une bijection continment diffrentiableLY Tde A dans B (deux ouverts de Rn ). Son
O
P de la matrice jacobienne, dont les composantes
LE
jacobien est le dterminant J(g)(x)
O
sont les drives partiellesCg
i (x)/xj , o gi est la i
me composante de g. Nous avons
alors
1
Z Z
h g(x)fX (x)dx = h(y)fX g 1 (y) dy (4.10.5)
A B |J(g)(g 1 (y))|

(attention la valeur absolue de J(g)). Rappelons dailleurs queE1/J(g)(g 1 (y)) est


Q U le cas o fX (x) = 0
le jacobien de la transformation inverse g 1 au point y B.IDans
N
en dehors de A, nous obtenons que Y admet la densit
YT ECH
O L
P g1 (y) 1
L EX
fY (y) = 1B (y)f . (4.10.6)
CO
|J(g)(g 1 (y))|

Lorsque g est simplement continment diffrentiable, il existe souvent une partition


finie (Ai )1id de lensemble {x : fX (x) > 0}, avec g injective sur chaque Ai . Nous
notons Bi = g(Ai ) limage de Ai par g. Nous dcoupons alors lintgrale selon les Ai ,
nous appliquons (4.10.5) chaque morceau, et nous sommons. Nous obtenons alors
d
X 1
fY (y) = 1Bi (y)fX g 1 (y) , (4.10.7)
i=1
|J(g)(g 1 (y))|

o g 1 est bien dfinie sur chaque Bi (comme image rciproque de la restriction de g


Ai ).
126 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

c) m < n : On commence par complter Y , en essayant de construire une application


g 0 de Rn dans Rn dont les m premires composantes concident avec les composantes
de g, et pour laquelle (4.10.6) ou (4.10.7) sappliquent. Nous obtenons ainsi la densit
fY 0 de Y 0 = g 0 (X). Puis nous appliquons lextension vidente de (4.8.8) :
Z Z
fY (y1 , . . . , ym ) = ... fY 0 (y1 , . . . , ym , ym+1 , . . . , yn )dym+1 . . . dyn .
Rnm
(4.10.8)

IQ UE
EC
Donnons les exemples importants suivants. HN
O LYT
P
O LE
Coordonnes Cpolaires.
Soit X = (U, V ) un vecteur alatoire de R2 , et Y = (R, ) ses coordonnes
polaires. La transformation g est un diffomorphisme de A = R2 \{0} dans
B =]0, []0, 2], et son inverse g 1 scrit facilement : u = r cos , v = r sin .
U Eentrane que
Le jacobien de g 1 au point (r, ) vaut r, donc (4.10.6)
H NIQ
fY (r, )
Y EC
= r fX (rTcos , r sin )1B (r, ). (4.10.9)
PO L
Par exemple si U et
VO L Eindpendantes et de loi N (0, 1), (4.9.3) entrane que
sont
1 Cu2 +v 2
fX (u, v) = 2 exp 2 , et (4.10.9) implique

1 2
fY (r, ) = r er /2 1]0,[ (r) 1]0,2] (). (4.10.10)
2
En particulier les variables alatoires R et sont indpendantes,
E surla[0,premire
2
I
suit la loi de densit rer /2 1]0,[ (r), et la seconde estQ U
uniforme 2].
EC HN
Loi bta. PO 2 LY T
Soit X = (U, V ) un vecteur O L E
alatoire de R , avec U et V indpendantes de lois
Cest
(, ) et (, ). Quelle la densit de Y = U+VU
?
Comme la dimension de Y est plus petite que celle de X, il faut dabord com-
plter Y . Nous prenons
par exemple
Y 0 = (Y, Z), avec Z = U + V , ce qui cor-
u
respond g(u, v) = u+v , u + v . Cette application est bijective de A =]0, [2
dans B =]0, 1[]0, [, et nous avons g 1 (y, z) = (yz, z(1 y)), qui a pour
jacobien z.
+ 1 1 (u+v)
Comme fX (u, v) = ()() u v e 1A (u, v), (4.10.6) entrane

+
fY 0 (y, z) = z +1 y 1 (1 y)1 ez 1B (y, z). (4.10.11)
()()
4.10 Calculs de lois 127

Il reste appliquer (4.10.8) :


Z
fY (y) = fY 0 (y, z)dz
0


+
Z
= y 1 (1 y)1 1]0,1[ (y) z +1 ez dz
()() 0

( + ) 1
= y E
(1 y)1 1]0,1[ (y) (4.10.12)
()() QU
NI
Y T ECH
(utiliser (4.6.6)). On appelle loi bta de paramtres et la loi admettant

P O L la densit de Z. En effet, (4.10.12) montre que


cette densit.
E
Nous obtenons aussiLfacilement
O de fY (y) par la fonction
le C
fY 0 (y, z) est produit
+
fZ (z) = z +1 ez 1]0,[ (z),
( + )

I Q U EZ. Nous avons en fait


qui daprs (4.8.8) est la densit de la variable alatoire
dmontr la : HN
EC
Proposition 4.10.4 Si U et V sont L T
Yindpendantes et de lois respectives (, )
P O
O L E
et (, ), alors U + V suit la loi ( + , ) et est indpendante de U+V U
qui

suit une loi bta de C
paramtres et .

Produit de convolution.
Si U et V sont indpendantes de densits respectives fU et fV , nous pouvons
de la mme manire trouver la densit de la somme Z = U + V . L encore,
nous compltons Z en le couple T = (U, Z) (par exemple), correspondant la
E
estU1. Par suite (4.10.6)
bijection g(u, v) = (u, u + v) sur R2 , dont le jacobienI Q
N
conduit : CH
O LYTE
Proposition 4.10.5 Si U etLVE P deux variables alatoires indpendantes de
sont
CO
densits respectives fUet fV , alors Z = U + V admet la densit
Z + Z +
fZ (z) = fU (u)fV (z u)du = fU (z v)fV (v)dv. (4.10.13)

La fonction fZ est appele le produit de convolution des deux fonctions fU


et fV . Nous verrons intervenir de nouveau le produit de convolution dans le
chapitre suivant.
Application : En utilisant ce calcul, nous pouvons montrer que la somme de
deux variables alatoires indpendantes, de lois normales N (m, 2 ) et N (, 2 )
est une variable alatoire de loi normale N (m + , 2 + 2 ). Nous verrons au
chapitre 6 une autre preuve de ce rsultat grce la fonction caractristique.
128 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

4.11 Simulation de suites de variables alatoires in-


dpendantes

Un gnrateur alatoire nous permet dobtenir une suite X1 , . . . , Xn , . . . potentielle-


ment infinie, de variables alatoires indpendantes et de loi uniforme sur [0, 1]. Nous
voulons construire une suite Y1 , . . . , Yn , . . . de variables alatoires relles indpen-
dantes, de loi donne note PY .

IQ UE
HN
4.11.1 T E Cde rpartition
Inversion de la fonction
P O LY
E
Lintroduite
CO
Gnralisons la mthode au paragraphe 4.2.4.

Supposons que lon connaisse la fonction de rpartition F des variables Yi . A partir


dune suite de variables alatoires uniformes sur [0, 1] et indpendantes, nous pouvons
simuler une suite de variables alatoires relles indpendantes de fonction de rparti-
tion F . Comme au paragraphe 4.2.4, nous dfinissons laI Q U E inverse continue
fonction
N
gauche de F par :
TE CH
G(x) = inf{y O Y x},
: FL(y) (4.11.1)
P x ]0, 1[.

C OLE
Proposition 4.11.1 La suite (Yn )n dfinie par Yn = G(Xn ) est une suite de va-
riables alatoires indpendantes, de loi PY .

Preuve. Lindpendance et le fait que les Yn suivent la mme loi sont vidents. Le
calcul de la loi a t fait au paragraphe 4.2.4. 

IQ UE
C HN
O LYTE
P
E alatoires exponentielles indpendantes
Simulation dune suite de variables
L
CO
Nous souhaitons simuler n ralisations indpendantes X1 , X2 , . . . , Xn de variables
x
alatoires de mme loi de densit f (x) R = e 1x>0 , suivant la mthode prconise au
paragraphe 4.2.4. Remarquons que 5 ex dx = e5 est trs petit et nous pouvons
nous limiter aux valeurs des variables alatoires appartenant lintervalle [0, 5]. Une
manire commode de reprsenter les tirages est den tracer un histogramme. Nous
partitionnons [0, 5] en intervalles Ik . Pour chacun deux, nous calculons la proportion
de ralisations qui tombent dedans, proportion que nous normalisons par sa longueur.
Ainsi, lhistogramme fn associ cette partition et aux observations X1 , . . . , Xn est
la fonction en escalier dfinie par
1 card{i : i n, Xi Ik }
fn (x) = pour x Ik .
(Ik ) n
4.11 Simulation de suites de variables alatoires indpendantes 129

Nous avons not (I) la longueur de lintervalle I, et comme prcdemment card(A)


dsigne le cardinal de lensemble fini A. Les tailles des intervalles peuvent tre adaptes
aux valeurs prises par les variables Xi .

Par exemple, pour la loi exponentielle de paramtre 1, nous pouvons choisir la parti-
tion de [0, 5] en intervalles Ik avec

I1 , . . . , I20 intervalles conscutifs de [0, 2[ de longueur 1/10;


I21 , . . . , I35 E de longueur 1/5.
intervalles conscutifs de [2, 5[
N IQU
ECH
T peut constater que fn "approche" la vraie
Yon
P O L
Au fur et mesure de la simulation,
L E Cette observation sera justifie au chapitre 5 par la
densit f , lorsque n augmente.
O
C
loi des grands nombres.

4.11.2 Mthode du rejet


U E
NIQ
PYHadmet une densit f , et lorsquon
Cette mthode sapplique lorsque la probabilit
Y T EC
connait une autre probabilit , telle queL
P Oalatoires
O L E
-il est possible de simuler des variables de loi (par exemple par la mthode
prcdente) ; C
- admet une densit g telle que

f (x) ag(x), x Rd , (4.11.2)

pour une constante a connue (ncessairement a 1, et mme a > 1 si PY 6= ,


E
Q U 1).
puisque f et g sont deux fonctions positives ayant la mmeI intgrale
N
CH
O LY T Econtinue support compact (donc
Un cas particulier est le cas o f est une densit
borne). P
LE
CO
Nous supposons aussi que nous disposons, dune part de la suite (Xn )n ci-dessus
(constitue de variables alatoires indpendantes de loi uniforme), et dautre part
dune suite (Zn )n potentiellement infinie de variables alatoires indpendantes de
loi et indpendantes des (Xn )n . Nous posons alors

N = inf{n N? ; f (Zn ) > aXn g(Zn )} ; et Y = Zn si N = n. (4.11.3)

Proposition 4.11.2 La variable alatoire N est valeurs dans N? et suit une loi
gomtrique de paramtre a1 (et donc desprance a). La variable alatoire Y suit la
loi PY et N et Y sont indpendantes.
130 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

Preuve. La premire assertion entrane que la variable Y est bien dfinie dans la
seconde formule (4.11.3).

Notons An = {f (Zn ) > aXn g(Zn )}. Les vnements An sont indpendants et ont
mme probabilit. Posons P(An ) = (nous calculerons plus tard), de sorte que
P(N > n) = (1 )n . Pour toute fonction h nous avons

X 
E(h(Y )) = E h(Zn )1An 1{N >n1} .
E
IQU
n=1

N
n

Y T ECH
Les variables alatoires h(Zn )1A dune part et 1{N >n1} dautre part sont indpen-

P O L
dantes, donc
E
O L )) = X E (h(Z )1 ) (1 )n1 .
CE(h(Y n A n (4.11.4)
n=1

Enfin E (h(Zn )1An ) vaut


E
fQ
I (z)U
Z 1
N 1
Z Z Z
H
T E C ag(z)
h(z)g(z) 1{f (z)>axg(z)} dx dz = h(z)g(z) dz = h(z)f (z)dz.
a
O LY
0

P
LE
C Oexpression lorsque h = 1, donc = 1/a, puisque f est
En particulier gale cette

une densit. Ainsi, 0 < < 1 et la variable alatoire N est bien valeurs dans N .

En remplaant E (h(Zn )1An ) par sa valeur dans (4.11.4), nous obtenons que
E(h(Y )) = h(z)f (z)dz, do le rsultat. Lindpendance est immdiate.
R


E
I Q Uobtenir une suite de
Nous avons ainsi obtenu une variable alatoire de loi PY . Pour
N
E C Hla mme procdure.
telles variables alatoires indpendantes, il faut rpter
YT
P O L
LE
Nous pouvons comparer les deux mthodes.
C O
La premire est trs simple mettre en oeuvre, si lon connat explicitement la fonction
G = F 1 , ce qui est assez rare dans la pratique.

La seconde ncessite la connaissance de f , g et a, et aussi le fait que lon sache


pralablement simuler selon la loi . Lide est par exemple dutiliser la premire m-
thode pour cette loi. Les conditions sont assez souvent remplies, mais cette deuxime
mthode est malheureusement parfois longue mettre en oeuvre (sa longueur est
proportionnelle N ).

Un cas particulier : Supposons que la densit f est support dans le compact


[b, c] et est borne par une constante C. Alors la constante a de lnonc gnral
4.12 Exercices sur le chapitre 4 131

peut-tre remplace par a = C(c b). Nous pouvons adapter la proposition 4.11.2 et
montrer que si (Uk )k et (Vk )k sont des suites de variables alatoires indpendantes et
de loi respectivement uniforme sur le rectangle [b, c] et sur le rectangle [0, C], alors la
variable alatoire

Y = UN , avec N = min{k 1 : Vk f (Uk )},

dfinit une variable alatoire de densit f .


E
Nous allons en dduire lalgorithme suivant :
N IQU
E c]Het sur [0, C], jusqu ce que V
Tirer (U, V ) de lois uniformes sur [b,C
f (U ). Poser alors X = U . LY T
E PlaOvariable alatoire X ainsi obtenue a pour densit
L
Daprs la proposition 4.11.2,
O
Ccouples
f . Nous rejetons les (U, V ) tels que V > f (U ). Cet algorithme sappelle
lalgorithme du rejet.

1
E C(cb) , desprance
Remarquons que la loi de N est une loi gomtrique de paramtre
U
N I Q pseudo-alatoire est 2N ,
E(N ) = C(c b). Comme le nombre dappels au gnrateur
H
support [b, c] est bien ajuste. LY T laCdensit f par la constante C sur le
lalgorithme sera efficace si la majoration de E
O
P
LE
CO
4.12 Exercices sur le chapitre 4

EXERCICE 4.12.1 Soit X une v.a. de carr intgrable. Montrer que E((X a)2 )
E
atteint son minimum lorsque a = E(X). IQU
EC HN
LY T
P O alatoire densit, et g une fonction
EXERCICE 4.12.2 Soit X 0 une
1 OL
E variable
positive croissante de classe CC, telle que g(0) = 0. Montrer que

Z +
E (g(X)) = g 0 (t)P(X > t)dt.
0

On pourra en particulier voir ce que devient cette formule dans le cas o g(x) = x.

EXERCICE 4.12.3 1) Un poste incendie doit tre install le long dune route
forestire de longueur A, A < .

Si les incendies se dclarent en des points uniformment rpartis sur (0, A), ou
doit-on placer ce poste de faon minimiser lesprance de la distance entre le poste
et lincendie ?
132 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

2) Supposons que la route soit infiniment longue, stendant de 0 linfini. Si


la distance entre un incendie et lorigine est exponentiellement distribue avec un
paramtre , o doit-on alors installer le poste incendie ?

EXERCICE 4.12.4 La dure de fonctionnement dune lampe suit une loi de densit
1 t
f (t) = te 4 1t0
16
(lunit de temps est lanne).
IQ UE
EC HN
1) Vrifier que f est une densit de probabilit.
O L YT
P
L E la variance de cette dure de fonctionnement.
2) Calculer lesprance et
O
C
3) Quelle est la probabilit que la lampe fonctionne pendant 6 ans ?

EXERCICE 4.12.5 Soit X une variable alatoire de densit fX . Considrons la


UE
variable alatoire
Y = ceX 1{X>0} , ( > 0,Nc I>Q0).
et T
Etudier lexistence dune densit pour Y Y donner
CH
E sa valeur en fonction de fX .
E POL
L
CO
EXERCICE 4.12.6 Soit X une variable alatoire de loi N (0, 1).

1) Calculer E(eX ) pour R.


a2
2) En dduire que pour a 0, on a P(X a) e 2 .

E
3) Utiliser la forme intgrale de P(X a) pour obtenir lencadrement
N I QU
1 1 CH 1
e 2 P(XTEa) e 2 .

a2 a2

a 2 a 23
OL Y a 2
P
LE
CO
EXERCICE 4.12.7 Considrons deux paramtres a > 0 et > 0. On dira que X
suit une loi de Pareto de paramtres (a, ) si X est une variable alatoire de densit
f dfinie par

f (x) = 0 si x < a
 a +1
f (x) = si x a.
a x
Cette variable alatoire dcrit par exemple la rpartition des richesses.

1) Montrer que f est bien une densit de probabilit. Allure du graphe de f : on


pourra prendre a = 1 et = 3.
4.12 Exercices sur le chapitre 4 133

2) Calculer P(X > x). Allure de la fonction de rpartion pour les paramtres
ci-dessus.

3) Soit y > 0 fix. Calculer limx P(X > x + y|X > x). Quen conclure ? Cette
proprit est-elle vraie pour une variable exponentielle ?

4) Montrer que X admet une esprance si et seulement si > 1. Calculer E(X)


dans ce cas.

E si > 2. Calculer V ar(X)


IQU
5) Montrer que X admet une variance si et seulement
dans ce cas. H N
)L
EXERCICE 4.12.8 Soit (X, YO
TEC
unYcouple alatoire de densit
P
.L E
x 2 (1+y2 )

CO
1
f (x, y) = 2 |x|e
2

1) Calculer la loi de X et la loi de Y . Est-ce que X et Y sont indpendantes ?

2) Est-ce que X et XY sont indpendantes ? Calculer la loi de XY .


U E
NIQ
ECH
3) Quelle est la loi de X(1 + Y ) ?

EXERCICE 4.12.9 Soient X et YOdeux Y T


L v.a.r. On suppose que la densit condi-
tionnelle de X sachant Y = y L E
est laPdensit 1R (x)y 2 xexy et que la loi de Y est de
densit y1 1[1,+[ (y). C O
+

On pose T = XY .

1) Trouver la loi du couple (T, Y ). Quen dduit-on ?

2) Trouver la loi conditionnelle de Y sachant X = x. IQ UE


C HN
3) Calculer E(Y |X).
O LYTE
P
E de loi uniforme sur [0, 1] et X valeurs dans
EXERCICE 4.12.10 Soit Y une
C O Lv.a.
N, avec X et Y indpendantes. On considre Z = XY .

Trouver la loi de Z et donner une condition pour que la loi de Z admette une densit
par rapport la mesure de Lebesgue.

EXERCICE 4.12.11 Soit , > 0. On considre deux v.a. : X valeurs dans N et


Y valeurs dans R+ . La loi du couple est donne, pour n N et y > 0, par
Z y
(y)n
P(X = n, Y y) = e(+)y dy.
0 n!

Donner les lois respectives de X et de Y .


134 Chapitre 4 Variables alatoires relles et Vecteurs alatoires

EXERCICE 4.12.12 Soient X1 , . . . , Xn des v.a. indpendantes de loi uniforme sur


[0, 1]. On pose :
U 1 = X 1 , U 2 = X 1 X 2 , . . . , Un = X 1 . . . Xn .

1) Chercher la loi du n-uplet (U1 , . . . , Un ).

2) Chercher la loi conditionnelle de Un sachant Un1 = u.

EXERCICE 4.12.13 Cet exercice donne une mthode


I Q U E(usuelle) pour simuler deux
N
variables alatoires indpendantes et de loi normale.

Y T ECH
P O L valeurs R+ [0, 2[, obtenu en exprimant
Soient X et Y deux variables alatoires indpendantes de loi N (0, 1). On considre
L E
le couple (R, ) de variables alatoires
C Opolaires.
(X, Y ) en coordonnes

1) Calculer la loi de (R, ) et celle de (R2 , ).

2) En dduire le procd pratique suivant de simulationEde variables alatoires


IQ U
N
indpendantes et de loi normale : si Uet V sont deux variables alatoires indpen-
H ) et Y = 2 ln U sin(2V )
dantes uniformes sur [0, 1], alors X = 2 lnEUC
T cos(2V
O LY de loi N (0, 1).
sont deux variables alatoires indpendantes
P
LE
CXO?
Y
3) Quelle est la loi de

EXERCICE 4.12.14 Soit Z1 , . . . , Zn des variables alatoires relles, indpendantes


et de mme loi, de fonction de rpartition F . On pose

X = min Zk , Y = max Zk .
1kn 1kn
IQ UE
EC HN
L Y TFX,Y en fonction de F . Calculer les
1) Calculer la fonction de rpartition jointe
O
fonctions de rpartition FX et FY . E P
L
CO
2) Dans le cas o la loi des Zk est de densit f , calculer les lois de X, de Y et de
(X, Y ).

3) Nous supposons dsormais que les Zk ont une loi uniforme sur [a, b] pour a < b
dans R.

Expliciter les lois de X, de Y et de (X, Y ). Calculer E(X) et E(Y ), V ar(X) et


V ar(Y ), cov(X, Y ) et (X, Y ).

EXERCICE 4.12.15 Soient X et Y deux variables alatoires exponentielles in-


dpendantes de paramtres et . On pose M = min(X, Y ) et D = |X Y | =
max(X, Y ) min(X, Y ).
4.12 Exercices sur le chapitre 4 135

1) Calculez P(M > a, D > b, X > Y ) pour a, b 0.

2) Dduisez-en P(X > Y ), P(X < Y ), la loi de M , la loi de D conditionnellement


X < Y , la loi de D conditionnellement X > Y .

3) Montrez que M et X < Y sont indpendants.

4) Soient, pour 1 i n, des variables alatoires


U E Xi indpendantes de lois
N Q
exponentielles de paramtre i . Que dire de la loiIde min1in Xi et de lvnement
{ Xk = min1in Xi } ?
YT ECH
P O L
LE
CO

U E
NIQ
TE CH
LY
PO
LE
CO

IQ UE
C HN
O LYTE
P
LE
CO
IQ UE
C HN
O LYTE
P
LE
CO

U E
NIQ
TE CH
LY
PO
LE
CO

IQ UE
C HN
O LYTE
P
LE
CO
Chapitre 5
IQ UE
C HN
O LYTE
Convergences
LE et loi des grands P
CO
nombres
U E
NIQ
CH
LYTE
Un coup de ds jamais nabolira leOhasard
P
O LE
C Stphane Mallarm.

Nous allons prsenter dans ce chapitre lun des rsultats essentiels de la thorie des
E
probabilits, qui va justifier toute la thorie que nous avons
N IQU construite partir de
lapproche heuristique du Chapitre 2. Ce rsultat montre
T C H rigoureusement que, quand
Elinfini,
le nombre de rptitions de lexprience tend Y vers la frquence de ralisations
P
dun vnement converge vers la probabilit O L de ralisation de cet vnement. Ainsi,
L Elintuition. Ce rsultat, appel Loi des grands
notre modle est bien cohrent
COavec
nombres, a dautres portes fondamentales. Philosophique tout dabord, puisquil
permet de voir le monde dterministe comme la limite macroscopique dune accumu-
lation de phnomnes lmentaires microscopiques alatoires. Porte numrique aussi,
car nous verrons que ce thorme est lorigine de mthodes de calcul numrique ap-
peles Mthodes de Monte-Carlo, qui sont extrmement puissantes et robustes.
Elles sont par exemple trs utilises en Physique ou en Mathmatiques Financires.

Considrons un espace dtats (muni de la tribu A et de la probabilit P). Nous vou-


lons tudier la rpartition des valeurs dune variable alatoire X de loi PX , ralises
au cours dune succession de n expriences alatoires indpendantes. Par exemple,
nous interviewons n personnes choisies au hasard et nous leur demandons si elles

137
138 Chapitre 5 Convergences et loi des grands nombres

aiment les brocolis. Ici, la rponse sera 0 ou 1 et la variable alatoire associe X sera
une variable de loi de Bernoulli PX .

Nous allons modliser les rsultats possibles de X au cours des n expriences par une
suite X1 , , Xn de variables alatoires indpendantes et de mme loi PX . Nous nous
intressons au comportement alatoire de cette suite de rsultats et en particulier par
leur moyenne empirique, quand le nombre n tend vers linfini (n est le nombre dex-
priences analogues ralises, par exemple la taille de lchantillon dans un sondage).
La question est donc : comment dfinir UE
X1 +C H
NIQ
lim Y T E
+ Xn
,
OL
n+ n
L EP
CiOest une fonction de ?
sachant que chaque X

Pour ce faire nous allons, de manire gnrale, dfinir les notions de convergence de
variables alatoires et voir que plusieurs dfinitions diffrentes sont possibles, non

I Q U E des comportements
quivalentes, ce qui enrichit mais complique aussi la description
asymptotiques.
C HN
LY TE
PO
LE
5.1 C O de variables alatoires
Convergences

Dans ce paragraphe, nous allons tudier des modes de convergence impliquant la


proximit des variables alatoires elles-mmes, contrairement au cas de la convergence
en loi qui sera tudie ultrieurement. E
N IQU
probabilit (, A, P), et valeurs dans Rd . LY
Nous
E C H dfinies
Nous considrons une suite (Xn )n1 de variables alatoires,
Tconsidrons
sur un espace de
galement sur le mme
O
espace une variable alatoire limiteEX.P On notera |.| la valeur absolue dans R ou la
L
CO
d
norme dans R .

Dfinition 5.1.1 a) La suite (Xn ) converge presque srement vers X, ce qui scrit
Xn X p.s., sil existe un ensemble N A de probabilit nulle tel que

Xn () X() quand n pour tout


/ N.

P
b) La suite (Xn ) converge en probabilit vers X, ce qui scrit Xn X, si pour
tout > 0 on a

P(|Xn X| ) 0 quand n . (5.1.1)


5.1 Convergences de variables alatoires 139

L1
c) La suite (Xn ) converge en moyenne vers X, ce qui scrit Xn X, si Xn et X
sont dans L1 et si

E(|Xn X|) 0 quand n . (5.1.2)

Remarque : La convergence presque-sre est la plus proche de la convergence simple


des fonctions. Mais ici, nous permettons certains de neEpas vrifier Xn () X(),
IQU
si toutefois la probabilit de ralisation de lensemble de ces est nulle.
EC HN
P O LY T
OLE quivalentes,
Ces convergences ne sont pas comme le montre lexemple suivant.
C
Exemple 5.1.2 Soit (Xn )n une suite de variables alatoires de Bernoulli telles que

P(Xn = 1) =
1
; P(Xn = 0) =I Q
1U1E.
n HN n
Pour tout ]0, 1[, la probabilit P(|XL
TEC
n |Y> ) = n tend vers 0 quand n tend vers
1
O
P X = 0 en probabilit. Comme E(Xn ) = n1 , elle
L
linfini. Ainsi, la suite (Xn )n tendEvers
tend aussi en moyenne CO
vers 0.

Mais considrons maintenant une suite (Yn )n de variables alatoires de Bernoulli telles
que
1 1
P(Yn = n2 ) = ; P(Yn = 0) = 1 .
n n
Par le mme argument que ci-dessus, nous voyons que laI Q U E(Yn )n converge en
suite
probabilit vers 0, mais en revanche, E(Yn ) = E
N
n,CetHla suite ne converge pas en
YT
moyenne vers 0 (ni vers aucune autre limiteLfinie).
PO
Exemple 5.1.3 Soit U une
OLE
Cvariable alatoire uniforme sur [0, 1]. Posons Zn =
1{U n1 } . Alors
1 1
P(Zn = 1) = ; P(Zn = 0) = 1 .
n n
De plus, la suite (Zn )n converge presque-srement vers 0. En effet, si est fix, alors
ds que U () > 0 (ce qui est vrai avec probabilit 1), il existe n0 tel que U () > n1 ,
et donc tel que Zn () = 0, pour tout n 0.

Nous allons maintenant tudier les liens entre ces diffrentes convergences.

Le rsultat le plus simple est le suivant.


140 Chapitre 5 Convergences et loi des grands nombres

Thorme 5.1.4 Supposons que les Xn et X soient intgrables. Alors la convergence


en moyenne de (Xn )n vers X entrane la convergence en probabilit.

Preuve. Ce rsultat est un corollaire de lingalit de Markov (4.7.1). En effet, elle


implique que pour tout > 0,
E(|Xn X|)
P(|Xn X| ) .

IQUE
La convergence vers 0 dcoule alors de la convergence en moyenne de (Xn )n vers X. 
N
Nous avons vu dans lexemple 5.1.2 Y
que ECH
Tla rciproque nest pas toujours vraie.
E POL
C OL
Lun des rsultats les plus importants de la thorie de lintgration relie la convergence
en moyenne et la convergence presque-sre. Cest ce rsultat qui, en grande partie, fait
la supriorit de lintgrale de Lebesgue par rapport celle de Riemann. Ce thorme
sappuie sur un certain nombre de proprits de lespranceEque nous navons pas
vues, et nous lnonons donc sans dmonstration. N I Q
U
Y T ECH
Thorme 5.1.5 (de Lebesgue, ouP O de Lconvergence domine) Si les variables ala-
L E
CO
toires Xn convergent presque-srement sur vers une limite X et si
1
n, |Xn | Z avec Z L ,

alors Xn et X sont intgrables et on a

E(|Xn X|) n 0.

IQ UE
HN
En particulier, E(Xn ) n E(X).

LY TEC
Attention : la rciproque est fausse. DansOlexemple 5.1.2, supposons
PPuisque que les variables
L E
alatoires (Xn )n soient indpendantes. 1
, la srie de terme
CO
P(|X n | > ) = n
gnral P(|Xn | > ) = n1 estdivergente. Par ailleurs les vnements An = {Xn > }
sont alors indpendants. Par le thorme 2.5.14 de Borel-Cantelli, nous en dduisons
que pour presque tout , une infinit de Xn () seront suprieurs . Ainsi, la suite
ne peut pas converger vers 0. Ainsi, la suite (Xn )n est borne par 1, elle tend en
moyenne vers 0 mais pas presque-srement.

En revanche, considrons maintenant la suite (Vn )n avec, pour a > 1


1
P(Vn = 1) = = 1 P(Vn = 0).
na
Puisque a > 1, la srie de terme gnral P(Vn ) converge, et donc toujours par le
thorme de Borel-Cantelli, nous savons que pour presque tout , un nombre fini au
5.1 Convergences de variables alatoires 141

plus de Vn () seront suprieurs . La suite (Vn )n converge donc presque-srement


vers 0.

Nous pouvons donc voir travers ces exemples que ces notions sont dlicates.

Remarque : Lhypothse de domination est ncessaire. Considrons la suite (Tn )n


dfinie par
1
P(Tn = n2 ) = = 1 P(Tn = 0).
n n UE IQ
N
T E C H nous pouvonsmontrer que la suite
Par un argument similaire largument prcdent,

O LY
(Tn )n converge presque-srement vers 0. En revanche, E(Tn ) = n, et la suite (Tn )n
E P
ne peut pas converger en moyenne.
L
CO
Dautres relations existent entre ces convergences, que nous allons explorer mainte-
nant.

I Q UE
N la convergence en probabi-
T E CH
Proposition 5.1.6 La convergence presque-sre entrane

O LY
lit.
P
LE
Preuve. Soit An, = CO
{, |Xn () X()| }. Supposons que Xn n X
presque-srement, et soit N lensemble de probabilit nulle en dehors duquel on a
Xn () X(). Si / N , alors
/ An, pour tout n n0 , o n0 dpend de et de ,
ce qui implique que les variables alatoires Yn, = 1N c An, tendent simplement vers
0 quand n . Comme nous avons aussi 0 Yn, 1, le thorme de convergence
domine (Thorme 5.1.5) entrane que E(Yn, ) n 0. Mais E
N IQU
E n,H) = E(Yn, )
P(An, ) P(N An, ) + P(N ) = P(N AC
c c
n 0,
Y T
et nous en dduisons (5.1.1). E POL 
L
CO
La convergence en probabilit nentrane pas la convergence en moyenne, comme nous
lavons vu dans lexemple 5.1.2. Si les Xn ne sont pas trop grands, il y a cependant
quivalence entre les deux modes de convergence. En voici un exemple.

Proposition 5.1.7 Sil existe une constante a telle que |Xn | a presque-srement,
P L1
il y a quivalence entre Xn X et Xn X.

Preuve. Etant donn le thorme 5.1.4, il suffit de montrer que la convergence en


probabilit implique la convergence en moyenne, lorsque |Xn | a.
142 Chapitre 5 Convergences et loi des grands nombres

Comme |Xn | a, nous avons {|X| > a + } An, (avec la mme notation que
prcdemment), et donc P(|X| > a + ) P(An, ). En faisant tendre n vers +,
nous en dduisons que P(|X| > a + ) = 0. Ceci est vrai pour tout , et donc

P(|X| > a) = 0. (5.1.3)

Comme |Xn | a, nous avons aussi

U E + 2a 1An,
|Xn X| + (|Xn | + |X|)1An,
H NIQ
LY T E C 1. Donc il vient
sur lensemble {|X| a}, qui est de probabilit

E PnO X|) + 2aP(An, ).


L E(|X
CO
Il sen suit (par (5.1.1)) que lim supn E(|Xn X|) , et comme est arbitrairement
proche de 0, nous en dduisons (5.1.2). 

E
I Q U en probabilit sont plus
Les rapports entre convergence presque-sre et convergence
N
subtils. La premire de ces deux convergences E
est H forte que la seconde daprs la
Cplus
LY T
proposition 5.1.6, mais peine plus, comme le montre le rsultat suivant.
PO
CP OLE
Proposition 5.1.8 Si Xn X, il existe une sous-suite (nk ) telle que Xnk X
presque-srement quand k .

Preuve. Comme la suite Xn converge en probabilit vers X, elle E satisfait le critre


de Cauchy : Xn Xm converge en probabilit vers 0 quandI Q m,Un . Dterminons
les termes de la sous-suite. Posons n1 = 1, et soit C H
N
T E

P O LY 1 1
nj = inf n > nj1 ; P L|XE
r Xs | > j < j , pour r, s n .
CO 2 3

Il rsulte alors de : j P(|Xnj+1 Xnj | > 21j ) < j 31j < que la suite (Xnj )j1
P P
converge presque-srement. En effet, cest une consquence du lemme de Borel-
Cantelli (Thorme 2.5.14) appliqu aux ensembles Aj = {|Xnj+1 Xnj | > 21j }.


Exemple 5.1.9 Soit = R muni de sa tribu borlienne et P la probabilit uniforme


sur [0, 1]. Soit Xn = 1An , o An est un intervalle de [0, 1] de longueur 1/n. Ainsi,
E(Xn ) = 1/n, et la suite Xn tend vers X = 0 en moyenne, et donc en probabilit.
Supposons que les An soient placs bout--bout, en recommenant en 0 chaque fois
quon arrive au point 1. Il est clair que lon parcourt indfiniment lintervalle [0, 1] (car
5.2 La loi des grands nombres 143

la srie de terme gnral 1/n diverge). Ainsi la suite numrique Xn () ne converge


pour aucun , et on na pas Xn X presque-srement ; cependant comme la srie
2
n 1/n converge, il sen suit que Xn2 X = 0 presque-srement. Nous avons donc
P
la convergence presque-sre de la sous-suite (Xn2 )n .

Proposition 5.1.10 Soit f une fonction continue de Rd dans R.

a) Si Xn X presque-srement, alors f (Xn ) f (X) presque-srement.


IQ UE
P P
b) Si Xn X, alors f (Xn ) f (X). C HN
O LYTE
P
LE
C O Pour (b) remarquons dabord que si K > 0 et > 0,
Preuve. (a) est vident.

{|f (Xn ) f (X)| } {|X| > K} {|X| K, |f (Xn ) f (X)| }. (5.1.4)

La fonction f est uniformment continue sur {x : |x| 2K},Edonc il existe > 0 tel
que |x y| < et |x| 2K, |y| 2K impliquent queI Q |f U
(x) f (y)| < . Ainsi, en
H N
YT EC
choisissant suffisamment petit, |x| K entrane |y| 2K, et (5.1.4) implique :

P O L
L E} {|X| > K} {|Xn X| },
{|f (Xn ) f (X)|
O
C
P(|f (Xn ) f (X)| ) P(|X| > K) + P(|Xn X| ).
Daprs lhypothse il vient

lim sup P(|f (Xn ) f (X)| ) P(|X| > K). (5.1.5)


n

Enfin limK P(|X| > K) = 0 (nous le montrons grce N Q UE


auIthorme de convergence
C H
TE
domine) et donc dans (5.1.5) la lim sup est nulle. Nous obtenons ainsi le rsultat. 
P O LY
LE
CO
5.2 La loi des grands nombres

Reprenons la modlisation prsente dans lintroduction de ce chapitre. Nous consid-


rons une suite (Xn )n1 de variables alatoires relles indpendantes et de mme
loi. Soit Mn , la moyenne des n premires variables alatoires, i.e.
1
Mn = (X1 + . . . + Xn ). (5.2.1)
n
Notre objectif est de montrer que Mn converge vers lesprance des variables Xn
lorsque cette dernire existe (comme les Xn ont mme loi, cette esprance est la
144 Chapitre 5 Convergences et loi des grands nombres

mme pour tout n). Il sagit l, rptons-le, dun des rsultats essentiels de toute la
thorie des probabilits, connu sous le nom de loi des grands nombres.

Nous allons dmontrer la loi des grands nombres pour des variables alatoires de
carr intgrable. Les hypothses les plus gnrales sont donnes dans lnonc du
thorme 5.2.2.

Thorme 5.2.1 Soit (Xn )n une suite de variables alatoires indpendantes, de


mme loi et de carr intgrable (Xn L2 ), et m = E(XEn ) leur moyenne commune.
U
Alors la suite (Mn )n dfinie par NIQ
Y T ECH
OnL=
X 1 + . . . + Xn
(5.2.2)
PM
OLE
n
C
converge vers m, presque-srement et en moyenne, quand n tend vers linfini.
Elle converge donc aussi en probabilit. On a mme un peu plus que la convergence
en moyenne, savoir que

E((Mn m)2 ) n 0. U E (5.2.3)


NIQ
Y T ECH
PO
Le rsultat prouvant la convergence enLmoyenne est appel loi faible des grands
E
L immdiate. Elle utilise lingalit de Bienaym-
CO
nombres. Sa preuve est presque
Chebyshev. Le rsultat est peu informatif et permet dobtenir certains contrles der-
reurs. Le rsultat prouvant la convergence presque-sure est appel loi forte des
grands nombres. Sa preuve est plus dlicate et utilise le lemme de Borel-Cantelli.
Le rsultat est plus fort et donne une information sur la trajectoire n Xn (), pour
presque tout .
E
N IQU
H alatoires Xn soient in-
ElesCX
Remarquons galement quil est ncessaire que les variables
Y T
dpendantes. En effet, prenons par exemple toutes n gales une mme variable
alatoire X. Alors Mn = X, qui ne E P O L vers m que si X est constante, gale
convergera
L
m.
CO
Preuve. Notons 2 la variance commune toutes les variables Xn , bien dfinie
puisque Xn est de carr intgrable. En vertu de la linarit de lesprance et de
(4.9.5) et (4.4.6), nous avons

2
E(Mn ) = m, E((Mn m)2 ) = V ar(Mn ) = , (5.2.4)
n
do (5.2.3).

Comme E(|Y |)2 E(Y 2 ), nous en dduisons que E(|Mn m|) converge vers 0 quand
n tend vers linfini.
5.2 La loi des grands nombres 145

La preuve de la convergence presque-sre est beaucoup plus dlicate.

Quitte remplacer Xn par Xn m (donc Mn par Mn m), nous pouvons supposer


que m = 0.

Montrons tout dabord que la sous-suite (Mn2 )n converge presque-srement vers 0.

Daprs lingalit de Bienaym-Chebyshev (4.7.2), (5.2.4) implique que pour q N ,


1 2 q2 E

InQ2 U
P |Mn2 | .
q N
T E C H Pn1 P(An,q ) < . Posons ensuite
Donc si An,q = {|Mn2 | 1q }, nous obtenons
Y
Bn,q = mn Am,q et Cq = P OBLn,q = lim supn An,q . En appliquant le lemme de
Borel-Cantelli (Thorme E n1
O L2.5.14) nous montrons alors que P(Cq ) = 0.
C
Par suite si nous posons N = qN Cq , nous obtenons P(N ) q=1 P(Cq ) = 0 en
P
vertu de (2.3.7). Maintenant, si / N alors qN (Cq )c . Ainsi, / Cq pour
tout q 1, donc aussi
/ Bn,q pour n assez grand (car Bn,q est dcroissant en n).
Cela veut dire que pour tout / N , pour tout q 1 il Q
I U E n assez grand tel que
existe
Mk2 () q1 ds que k n. En dautres termes,CH MNn2 () 0 si / N , donc (par
T E
dfinition),
PO LY
O L EMn 0 p.s. (5.2.5)
C
2

Montrons maintenant que la suite (Mn )n tend presque-srement vers 0.

Pour tout entier n, notons p(n) lentier tel que p(n)2 n < (p(n) + 1)2 . Alors
n
p(n)2
UE
1 X
IQ
Mn Mp(n)2 = Xp ,
HN
n n
EC
p=p(n)2 +1

et puisque les variables alatoires de la sommeL T indpendantes, il vient


Ysont
2E P
O
O L

p(n)2 n p(n)2 2
E Mn MC
p(n)2 =
n n2

2p(n) + 1 2 2 n+1 2
,
n2 n2

parce que p(n) n. Une nouvelle application de lingalit de Bienaym-Chebyshev
donne alors
p(n)2 2 n + 1 2

P Mn Mp(n)2 a .

n n2 a2
P
Comme la srie n 2 nn+1 2 converge, le mme raisonnement que ci-dessus pour (5.2.5)
montre que
p(n)2
Mn Mp(n)2 0 p.s.
n
146 Chapitre 5 Convergences et loi des grands nombres

Par ailleurs Mp(n)2 0 p.s. daprs (5.2.5), et p(n)2 /n 1. Nous en dduisons que
Mn 0 p.s. 

Enonons la loi forte des grands nombres dans toute sa gnralit. Pour sa preuve,
le lecteur pourra consulter le livre Promenade alatoire de Benam et El Karoui.

Thorme 5.2.2 Considrons des variables alatoires Xn indpendantes, de mme


E
I Q U commune. Alors la moyenne
loi et intgrables, et notons m = E(Xn ) leur moyenne
N
empirique
TECH
O LY+
P X . . . + Xn
LE
1
(5.2.6)
CO
n
converge presque-srement et en moyenne vers m, quand n tend vers linfini.

E
U un vnement A. Nous
Revenons lapproche par les frquences du Chapitre I2.QSoit
N
Y T E C Halatoire
rptons lexprience, et nous notons Xn la variable qui vaut 1 si A est ralis

n premires expriences est alors E P


OL
au cours de la nime exprience et 0 sinon. La frquence de ralisation de A au cours des
L
CO 1
fn (A) = (X1 + . . . + Xn ) = Mn .
n
Par ailleurs, les Xi sont indpendantes et de mme loi et E(Xi ) = P(Xi = 1) = P(A).
Donc (5.2.2) implique que fn (A) converge vers P(A) presque-srement. Nous obtenons
E sans en dmontrer
ainsi une justification a posteriori de lapproche par les frquences, qui,
Umontre
N
de manire rigoureuse la validit (cest videmment impossible), I Q au moins que
E C H
YT
cette approche est compatible avec la thorie qui a t fonde dessus.
P O L
C O L Enous indique aussi dans quel sens il convient de
En outre, la loi des grands nombres
prendre la convergence dans (2.1.1), savoir au sens presque-sr. Il faut remarquer
que dans les thormes prcdents, et donc aussi dans lapproche par les frquences,
on ne peut pas avoir convergence de Mn () vers m pour tout . Nous allons voir
dans lexemple suivant quil existe un ensemble ngligeable sur lequel la convergence
nest pas ralise.

Exemple 5.2.3 Considrons un jeu de Pile ou Face infini, cest--dire une suite Xn
de variables alatoires ne prenant que les valeurs 0 et 1. Nous dfinissons cette suite

sur lespace = {0, 1}N , i.e. un point est une suite numrique x1 , . . . , xn , . . . de
0 et de 1. Chaque suite est en principe possible. Soit alors Pp une probabilit sous
laquelle les Xn sont indpendantes et de mme loi de Bernoulli de paramtre p ]0, 1[.
5.3 Mthode de Monte-Carlo 147

(Il est possible de construire une telle loi.) La loi des grands nombres nous dit que
pour toute suite (xn )n en dehors dun ensemble de probabilit nulle, la moyenne
1
n (x1 + . . .+ xn ) tend vers le nombre p quand n tend vers linfini. Il existe videmment
beaucoup de suites ne vrifiant pas cette proprit, par exemple xn = 0 pour tout
n. Si nous considrons maintenant la probabilit Pq dfinie de la mme manire pour
q 6= p, lensemble de probabilit 1 pour Pp des suites (xn )n qui tendent vers p, devient
sous Pq un ensemble de probabilit nulle. Remarquons galement que la probabilit
de chaque suite particulire est nulle (elle vaut limk+ pk1 (1 p)k2 , k1 + k2 = k),
ce qui veut dire que P nest pas une somme de mesures E de Dirac.
U
H NIQ
L Y T ElaCconvergence des variables alatoires, il est
Cet exemple montre que lorsque lon tudie
O
Ptout
indispensable dintroduire la convergence presque-sre, puisquon na gnralement pas
E
la convergence simple (i.e.Lpour
CO
).

5.3 Mthode de Monte-Carlo


U E
NIQ
T CH
Montrons comment nous pouvons appliquer laEloi des grands nombres au calcul din-
tgrales. LY
E PO
L
C O un corollaire immdiat de la loi des grands nombres.
Pour cela, nonons tout dabord

Corollaire 5.3.1 Considrons une suite (Xn )n de variables alatoires indpendantes


qui suivent des lois uniformes sur [0, 1], et une fonction f mesurable borne sur [0, 1],
par exemple une fonction continue sur [0, 1].
E
Alors
N I QU
En H n ,
1
f (X1 ) + C
+ f (X )
Z
f (x)dx = lim
Y T
POL
0 n

pour la convergence presque-sre. L E


CO
Preuve. Nous appliquons la loi des grands nombres aux variables alatoires f (Xi )
qui vrifient bien toutes les hypothses voulues puisque f est borne. Nous avons
alors Z 1
f (X1 ) + + f (Xn )
lim = E(f (X)) = f (x)dx.
n n 0

En choisissant des variables alatoires de loi uniforme sur [a, b], nous pouvons obtenir
de mme une approximation dune intgrale dfinie sur lintervalle [a, b].
148 Chapitre 5 Convergences et loi des grands nombres

Ce rsultat se gnralise toutes les dimensions.

Nous voulons calculer lintgrale I = A f (x)dx, o f est une fonction mesurable


R

borne et A est le cube {x = (x1 , . . . , xd ) : |xi | i} de Rd . Pour calculer I, nous


pouvons simuler une suite X1 , . . . , Xn de variables alatoires indpendantes et de loi
uniforme sur A. Cela revient dire que si chaque Xn admet les composantes Xn,j
(1 j d), les variables alatoires (Xn,j : n 1, 1 j d) sont indpendantes et
uniformes sur [, ]. Une suite de valeurs approches de I est alors
E
(2)d
.N
QU
. . I+ f (Xn )) .
In =
n H
(f (X1 ) +
EC
(5.3.1)

LY T
O la densit g(x) =
En effet la loi uniforme surEA Padmet 1
1 (x), donc lesprance
OI L
(2)d A
des f (Xi ) est galeC(2)d , et il sensuit que In converge vers I par la loi des grands
nombres.

Q UE
Linconvnient de cette mthode est que In est une approximation
I alatoire de I,
donc on a un peu de peine contrler lerreur InCH I. N
Toutefois, le deuxime thorme
Y
fondamental de ce cours, savoir le thorme
L T Ede la limite centrale qui sera lobjet du
P O de cette erreur.
chapitre suivant, va donner un contrle
C OLE
Un avantage de cette mthode est quelle reste valable si la fonction f est trs ir-
rgulire (alors que les mthodes dterministes de type mthode du trapze ne se
justifient que si la fonction f est continue). En outre, elle est peu sensible la dimen-
sion d, le temps de calcul tant proportionnel d, alors que les mthodes dterministes
ne sont possibles, du point de vue du temps de calcul, que pour d petit, (disons d 3),
E la puissance
I QAUrevient tirer ses d
puisque ce temps de calcul est environ proportionnel une constante
d. Dans notre cas, tirer une variable X de loi uniforme H Nsur
composantes, chacune selon la loi uniforme sur T CNous
[0,E1]. verrons galement que la
O LY
P
vitesse de convergence de In vers I ne dpend pas non plus de la dimension.
C OLE
Pour toutes ces raisons, lesalgorithmes obtenus par mthodes de Monte-Carlo sont
extrmement utiliss dans toutes les situations ncessitant des temps de calcul trs
courts ou en grande dimension.

5.4 Exercices sur le chapitre 5

EXERCICE 5.4.1 Soit (un )n une suite de nombres rels tels que pour tout n 1,
on ait 0 < un 1. Soit (Xn )n une suite de variables alatoires indpendantes telles
5.4 Exercices sur le chapitre 5 149

que pour tout n 1,

1

P Xn = = un ; P(Xn = 0) = 1 un .
un

1) Calculer E(Xn ).

P
2) On suppose que n1 un < +. En dduire que Xn 0. Montrer en fait que
P
p.s. UE
Xn 0 quand n tend vers linfini. NIQ
Y T ECH
p.s.
POL
X1 ++Xn
3) Montrer que la suite n 0 quand n tend vers linfini. Ce rsultat
L Ela loi des grands nombres ?
est-il en contradiction avec
CO
EXERCICE 5.4.2 Montrer que la loi forte des grands nombres reste vraie pour des
variables alatoires indpendantes positives de mme loi, desprance commune gale
p.s. E
+, cest--dire que lon a X1 ++X +. QU
n
I
HN
n

E C
EXERCICE 5.4.3 Soit (Xn )n une suite de
O L Y T variables alatoires indpendantes, de
mme loi de Bernoulli P
O LE
C
P(Xn = 1) = x ; P(Xn = 0) = 1 x,
o x ]0, 1[.

1) Montrer que pour toute fonction continue de [0, 1] dans R,


E
X1 + . . . + Xn QU

E f n fN(x).I
n CH
O LYTE
E P
En dduire quil existe une suite deLpolynmes qui convergent simplement vers f . On
CO
les appelle polynmes de Bernstein.

2) Montrer quen fait, la convergence est uniforme.

EXERCICE 5.4.4 Ingalit de Chernov

Soit (Xn )n une suite de v.a.r. indpendantes de loi N (m, ).

1) On pose pour u R : M (u) = E(eu(X1 m) ). Calculer M (u).

2) On pose Sn = X1 + . . . + Xn . Montrer que a R, u R+ ,


n
P(Sn nm a) eua (M (u)) ,
150 Chapitre 5 Convergences et loi des grands nombres

et que a R, u R ,

P(Sn nm a) eua (M (u))n .

Sn
3) Soit Yn = n . Montrer que > 0,

n2

P(|Yn m| ) 2 exp .
2 2
Cette ingalit est appele ingalit de Chernov. IQ UE
EC HN
LY T= 10.
2
4) On suppose que m = 1 et que
O
EP
O L doit-on choisir pour obtenir
Quelle taille dchantillon
C
P(|Yn m| ) ,

avec = 0, 95 et = 0, 05,
En utilisant lingalit de Bienaym-Chebyshev ? I Q U
E
En utilisant lingalit de Chernov ? EC HN
O
Prisqu) LY T
EXERCICE 5.4.5 (Placement
O L E Un particulier place une somme S0 sur
C
un placement risqu. Lvolution de son placement des chances fixes n = 1, 2,
. . . est donne par Sn = (1 + Rn )Sn1 , o les intrts alatoires Rn forment une
suite indpendante et de mme loi valeurs dans ] 1, [ et desprance finie. Que
pouvez-vous dire de lvolution du placement Sn pour de grands n ? Que se passe-t-il
si E(R1 ) = 0 ?
E indpendantes de
I Q U continue borne sur
EXERCICE 5.4.6 Soit (Xn )n une suite de variables alatoires
N
ECH
mme loi, intgrables. On pose E(X1 ) = a. Soit f une fonction
R.
L Y T
E P Op.s.
1) Montrer que f X1 +...+X L


CO
n
n
f (a)

X1 +...+Xn
2) Montrer que E f

n n f (a).

3) Soit g C([0, 1]).


x1 +...+xn
Calculer limn In , o In =
R 
[0,1]n
g n dx1 . . . dxn .

1
4) En utilisant des variables alatoires de loi exponentielle de paramtre a, mon-
trer que
(1)n1  n n (n1)  n 
f (a) = lim F
n (n 1)! a a
5.4 Exercices sur le chapitre 5 151

R
o F (t) = 0 f (x)etx dx. On pourra montrer que la somme de n variables alatoires
indpendantes de loi exponentielle de nparamtre suit une loi Gamma de paramtres

(n, ), cest--dire de densit x 7 (n1)! xn1 ex pour x > 0.

EXERCICE 5.4.7 Rduction de variance dans une mthode de Monte Carlo.


R1
Soit g une fonction mesurable telle que 0 g 1. On souhaite calculer m = 0 g(x)dx.
Soient X et Y des variables indpendantes et identiquement distribues, de loi uni-
forme sur [0, 1] et
E
N IQU
V = g(X)E CetH W =
g(X) + g(1 X)
U = 1Y g(X) , .
L Y T 2
PO
LE
C O et la variance de U , V et W .
1) Calculer lesprance

2) Proposer 3 mthodes de type Monte-Carlo pour calculer m.

On suppose dans la suite que g est monotone.


U E
H
3) Montrer que (g(x) g(y))(g(1 x) g(1 C NIQ
y)) 0 pour tout x, y.
LY TE
En dduire que PO
LZE
CO 1 Z 1
E(g(X)g(1 X)) = g(x)g(1 x) dx m2 g(x)2 dx .
0 0

Comparer les variances de U , V , W .


E
I Q U et de mme loi
4) Soit (Xi )i1 une suite de variables alatoires indpendantes
N
uniforme sur [0, 1]. Des estimateurs CH
O LY TnE
2n P 1X
, L EBn =
1
g(Xi )O
X
An = (g(Xi ) + g(1 Xi )) ,
2n i=1 C 2n i=1

lequel est le meilleur pour calculer m ?


Remarque : cet exercice se continue au chapitre suivant par lexercice 6.6.2.
IQ UE
C HN
O LYTE
P
LE
CO

U E
NIQ
TE CH
LY
PO
LE
CO

IQ UE
C HN
O LYTE
P
LE
CO
Chapitre 6
IQ UE
C HN
O LYTE
Fonctions Lcaractristiques,
E P
CO
convergence en loi et thorme
de la limite centrale NIQUE
TE CH
LY
PO
C OLE
Rien ne mest sr que la chose incertaine ; Obscur, fors ce qui est tout vident ;
Doute ne fais, fors en chose certaine ; Science tiens soudain accident.

Franois Villon - Ballade du concours de Blois

IQ UE
HN
6.1 La fonction caractristique LY TEC
E PO
L
CO
Dans ce paragraphe, nous introduisons un outil important en calcul des probabilits :
il sagit de ce que lon appelle la fonction caractristique dune variable alatoire,
et qui dans dautres branches des mathmatiques sappelle aussi la transforme de
Fourier.

6.1.1 Dfinition et premires proprits

Nous noterons hx, yi le produit scalaire de deux vecteurs de Rn . Si u Rn , la


fonction (complexe) x 7 ei hu,xi est continue, de module 1. Donc si X est une
variable alatoire valeurs dans Rn , nous pouvons considrer ei hu,Xi comme une

153
154 Chapitre 6 Fonctions caractristiques et convergence en loi

variable alatoire valeurs complexes. Ses parties relle Y = cos(hu, Xi) et imaginaire
Z = sin(hu, Xi) sont des variables alatoires relles. Ces variables alatoires relles
sont de plus bornes par 1, donc elles admettent une esprance. Il est alors naturel
dcrire que lesprance de ei hu,Xi est
E(ei hu,Xi ) = E(Y ) + i E(Z) = E(cos(hu, Xi)) + i E(sin(hu, Xi)).

Dfinition 6.1.1 Si X est une variable valeurs dans Rn , sa fonction caractris-


tique est la fonction X de Rn dans C dfinie par E
NIQ U
X (u) = ECeH i hu,Xi
(6.1.1)
YTE
.

P O L
LXE est dfinie de R dans C et vaut
C O u R, (u) = E eiuX  .
Si X est valeurs relles,

X (6.1.2)

Remarquons que la fonction caractristique ne dpend en U E que de la loi PX de


fait
X : cest la transforme de Fourier de la loi PX . H N I Q
L Y TEC
P Obien son nom, au sens o elle caractrise la loi
Nous verrons que cette fonction porte
E
L
C O2. Elle vrifie
PX . Cest une notion qui, de ce point de vue, gnralise la fonction gnratrice que
nous avons vue au Chapitre
X (u) = GX (eiu ),
pour une variables alatoire valeurs dans N.

E
U gal 1, continue,
I Qou
Proposition 6.1.2 La fonction X est de module infrieur
N
avec CH
X (0) = 1 ; XL Y T E= X (u).
(u)
PO
C OLE
Preuve. |z| dsigne le module dun nombre complexe z.

Comme E(Y )2 E(Y 2 ) pour toute variable alatoire relle Y , nous avons :
2 2
|X (u)|2 = (E(cos hu, Xi)) + (E(sin hu, Xi)) E(cos2 hu, Xi + sin2 hu, Xi),
et donc |X (u)| 1.

Pour montrer la continuit, considrons une suite up p u. Il y a convergence


simple de ei hup ,Xi vers ei hu,Xi . Comme ces variables alatoires sont de module
born par 1, nous pouvons appliquer le thorme de convergence domine (Thorme
5.1.5), et obtenir que X (up ) p X (u). Ainsi, la fonction X est continue. 
6.1 La fonction caractristique 155

Proposition 6.1.3 Si X est une variable alatoire valeurs dans Rn , si a Rm et


si A est une matrice m n, nous avons :
a+AX (u) = ei hu,ai X (t Au), u Rm , (6.1.3)

o t A dsigne la transpose de la matrice A.

t
Preuve. Nous avons ei hu,a+AXi = ei hu,ai ei h Au,Xi . En effet, hu, AXi = ht Au, Xi.
E
Il suffit alors de prendre les esprances pour obtenir leUrsultat. 
N IQ
YT ECH
P O L
6.1.2 Exemples LE
CO
1) X suit une loi binomiale B(n, p)

nU E iu k
n n
iuk n
I Q
X X
iuX k nk
(e p) (1 p)nk
E(e ) = e
k
p (1 p) =
H N k
k=0
TE C k=0
= (e p + 1 p) . O LY
iu n
P
O LE
Ainsi,
C
X (u) = (peiu + 1 p)n . (6.1.4)

2) X suit une loi de Poisson de paramtre


E
k NI QU
eiu H
C
X iu
iuX iuk
E(e ) = e e = eE e = e(e 1) .
k! Y T
POL
k0

Ainsi, OL E
C iu
X (u) = e(e 1)
. (6.1.5)

3) X suit une loi uniforme sur [a, b]


Z b
1 1 1 iux b eiub eiua
X (u) = eiux dx = [e ]a = .
ba a b a iu iu(b a)
Ainsi, pour une loi uniforme sur [a, a], a > 0,
sin ua
X (u) = .
ua
156 Chapitre 6 Fonctions caractristiques et convergence en loi

4) X suit une loi exponentielle de paramtre > 0


Z + Z +

X (u) = ex eiux dx = e(iu)x dx = [e(iu)x ]+
0 = .
0 0 iu iu
Ainsi,

X (u) = .
iu

IQ UE
C HN
5) X suit une loi normale N (0, 1)Y T E
POL
C OLE 1
2
Appelons g la densit normale (ou gaussienne) dfinie par g(x) = 2
ex /2
. Nous
constatons tout dabord que pour tout rel s,
Z +
2
esx g(x) dx = es /2 , E (6.1.6)
U
NIQ

H
Cmontrer que (6.1.6) reste vraie pour
Y TdeE s les deux membres de cette galit,
2
puisque g(x) esx = g(x s) es /2 . Nous voulons
s complexe. En dveloppant en srie O
P L
entire
L Eque
nous pouvons facilement justifier
O
Z + C
X sn Z + X s2n
2
sx
e g(x)dx = xn g(x)dx ; es /2 = .
n
n! n
2n n!

Par identification des coefficients de sn , nous en dduisons les moments de g,

=U En .
Z + Z +
(2n)!
x2n+1
g(x)dx = 0 ; x2n g(x)dx
N I Q
ECH
2 n!

L
Ce rsultat peut aussi sobtenir par intgration
O Y Tpar parties et un calcul direct des
P srie entire tant infini, nous dduisons de
LE
intgrales. Le rayon de convergence de la
C O
ces rsultats que si s est complexe, les dveloppements de Taylor des deux membres
de (6.1.6) sont encore gaux, et donc que

2
X (u) = eu /2
. (6.1.7)

Remarque 6.1.4 Au cours de la preuve prcedente, nous avons obtenu les moments
dune variable alatoire X de loi normale centre rduite,
(2n)!
E(X 2n ) = ; E(X 2n+1 ) = 0.
2n n!
Par exemple, E(X 4 ) = 3.
6.1 La fonction caractristique 157

6) X suit une loi normale N (m, 2 )

Dans ce cas, la variable alatoire X scrit X = m + Y , o Y suit la loi N (0, 1).


Daprs (6.1.3) et (6.1.7), sa fonction caractristique vaut alors
2
2 /2
X (u) = eiumu . (6.1.8)

6.1.3 Proprit fondamentale IQ UE


EC HN
LYT
Lintrt majeur de la fonction caractristique
O rside dans le fait quelle caractrise la
loi de la variable alatoire. E P
L
CO
Thorme 6.1.5 La fonction caractristique X caractrise la loi du vecteur ala-
toire X. Ainsi, si deux vecteurs alatoires X et Y ont mme fonction caractristique,
ils ont mme loi.
I Q UE
Preuve. La preuve montre que la transforme deHFourier N dune probabilit sur Rn
T E C > 0, les fonctions
caractrise cette probabilit. Introduisons,Ypour
OL
1 E P|x| /2
f (x) = O L
2 2 2 2
e et f (u) = e|u| /2 .
C
(2 2 )n/2
Alors f (x) est la densit dun vecteur alatoire compos de n coordonnes indpen-
dantes et de loi N (0, 2 ). Nous avons
Z Z Y n 2 n
1 xj Y u2 2 /2
ihu,xi
f (x)e dx = exp + iuj xj dx1 . . . dxn = e j = f (u),
Rn Rn j=1 2 2 2
E
Uj=1
IQ
HN
TEC
par le thorme de Fubini.
L
1 O
Y
P f (u) =
uv
Remarquons ainsi que f (u v) = 1
f (x)eih ,xi
R

OLE
(22 )n/2
uv
(22 )n/2 Rn
2 dx.
2

C
Considrons deux vecteurs alatoires X et Y de mme fonction caractristique. Mon-
trons quils ont mme loi : PX = PY . Nous avons (en utilisant le thorme de Fubini)
que
1
Z Z Z
ih uv2 ,xi
f (u v)PX (du) = 2 n/2
f (x)e dx PX (du)
Rn n (2 ) Rn
ZR
1 x v
= f (x) 2 n/2
X ( 2 )eih 2 ,xi dx,
Rn (2 )
et la mme galit reste vraie pour PY . Nous en dduisons que
Z Z
g(x)PX (dx) = g(x)PY (dx), (6.1.9)
Rn Rn
158 Chapitre 6 Fonctions caractristiques et convergence en loi

pour toute fonction g de lespace vectoriel des fonctions engendres par u 7 f (uv).
Nous pouvons appliquer le thorme de Stone-Weierstrass pour montrer que cet en-
semble est dense dans lensemble des fonctions continues sur Rn qui tendent vers 0
linfini, muni de la convergence uniforme. Lgalit (6.1.9) reste vraie pour de telles
fonctions. Un argument de thorie de la mesure montre que cela suffit pour en dduire
que PX = PY . 

Corollaire 6.1.6 Soit X = (X1 , . . . , Xn ) un vecteur alatoire valeurs dans Rn .


E
Q U si pour tous u1 , . . . , un R
NI
Les composantes Xi sont indpendantes si et seulement
C H
TE
n
.Y
X (u1 , . .L
Y
, un ) = Xj (uj ), (6.1.10)
E PO
O L j=1

o X dsigne la
C
fonction caractristique du vecteur alatoire X, et Xj celle de la
composante Xj , pour chaque j.

E
Preuve. Nous avons hu, Xi = nj=1 uj Xj . Si les Xi sontUindpendantes et comme
Q
P
N I
CH
i hu,Xi Q i uj Xj
e = je , nous obtenons immdiatement (6.1.10), en utilisant (4.9.2).
LY TE
P O Nous pouvons alors construire des variables
Supposons inversement quon ait (6.1.10).
L E que Xj0 et Xj aient mmes lois pour tout j et donc
alatoires Xj0 indpendantes,Otelles
C
telles que X = X . SiX 0 = (X10 , . . . , Xn0 ), alors, en utilisant la condition ncessaire
0
j j

et (6.1.10), nous en dduisons que X 0 = X . Ainsi, X et X 0 ont mme loi, ce qui


entrane que pour tous borliens Aj ,
\ \ Y Y
P( {Xj Aj }) = P( {Xj0 Aj }) = P(Xj0 Aj ) = P(Xj Aj ),
j j j
IQ U Ej
do lindpendance cherche. C HN
YTE


P O L
C OLE
La transforme de Laplace : Lorsque X est une variable alatoire valeurs dans
R+ , nous pouvons dfinir sa transforme de Laplace par

X () = E eX , (6.1.11)

R+ .

Cest une fonction dfinie sur R+ , indfiniment drivable sur ]0, [, et qui satisfait
formellement X () = X (i). Ainsi, il nest pas tonnant que la transforme de La-
place ait des proprits analogues celles de la fonction caractristique. En particulier,
elle caractrise la loi PX .

Si de plus X est une variable alatoire valeurs dans N, de fonction gnratrice GX ,


alors X () = GX (e ).
6.1 La fonction caractristique 159

Exemple 6.1.7 Transforme de Laplace dune loi gamma. Soit X une variable
alatoire de loi (, ). Alors,

+ +

Z Z
1 x 1 x 1
X () = e x e dx = e(+)x x1 dx = .
() 0
() 0
( + )
(6.1.12)

IQ UE
HN
C variable alatoire de loi exponentielle
LY
T Edune
En particulier la transforme de Laplace
P O+ .
de paramtre , prise en , vaut
LE
CO
6.1.4 Somme de vecteurs alatoires indpendants

I Q
Proposition 6.1.8 Si X et Y sont deux vecteurs alatoiresU Eindpendants valeurs
CX
dans Rn , la fonction caractristique de la somme HN
+ Y est donne par
LY TE
E P O = X Y .
X+Y (6.1.13)
O L
C
Preuve. Comme ei hu,X+Y i = ei hu,Xi ei hu,Y i , il suffit dappliquer (4.9.2). 

Exemple 6.1.9 Soit X, Y indpendantes, et Z = X + Y : E


N0 I0 2 QU
E C H
1) X suit loi normale N (m, 2 ) et Y suit une loi N (m , ( ) ) : alors Z suit une loi
0 2 0 2
N (m + m , + ( ) ) ; Y T
E POL
Cela dcoule de (6.1.8) C OL
et (6.1.13).

2) X et Y suivent des lois de Poisson de paramtres et 0 : alors Z suit une loi de
Poisson de paramtre + 0 ;

Cela dcoule de (6.1.5) et (6.1.13).

3) X suit une loi binomiale B(n, p) et Y suit une loi B(m, p) : alors Z suit une loi
B(n + m, p) ;

Cela dcoule de (6.1.4) et (6.1.13).


160 Chapitre 6 Fonctions caractristiques et convergence en loi

6.1.5 Fonction caractristique et moments

Proposition 6.1.10 Soit X un vecteur alatoire de Rn . Si la variable alatoire |X|m


(o |X| dsigne la norme euclidienne du vecteur X) est dans L1 pour un entier m,
la fonction X est m fois continment diffrentiable sur Rn , et pour tout choix des
indices i1 , . . . , im ,

m
X (u) = im E ei hu,Xi Xi1 Xi2 . . . Xim (6.1.14)
E
IQU
ui1 ui2 . . . uim
N
(les Xj sont les composantes de X).
YT ECH
P O L
C OLE
En prenant u = 0 ci-dessus, cette formule permet de calculer E (Xi 1 Xi2 . . . Xim ) en
fonction des drives lorigine de X . Par exemple, si X est valeurs relles et est
intgrable (respectivement de carr intgrable), nous avons

E(X) = i 0X (0),
I U00XE(0) ).
(resp. E(X 2 ) =Q (6.1.15)
C HN
LY TE
PO
Om.L ESoit vm == 1,(0,le. .cas
Preuve. Prouvons le rsultat quand gnral se montrant de la mme
C
manire, par rcurrencesur j . , 0, 1, 0, . . . , 0) le j ime vecteur de
base de Rn . Nous avons
i tXj
X (u + tvj ) X (u) i hu,Xi e 1

= E e . (6.1.16)
t t

Soit tp une suite de rels tendant vers 0. Les variables E


Ualatoires (ei tp Xj
1)/tp convergent simplement vers iXj , en restantHbornes N I Q en module par la
T E C Donc par le thorme 5.1.5
variable alatoire 2|Xj |, qui par hypothse est intgrable.
P O LYconverge vers i E(ei hu,Xi Xj ) quand t
(de Lebesgue), nous en dduisons que (6.1.16)
tend vers 0. Nous en dduisons O E premire drive partielle de X par rapport
queLla
C
uj existe et est donne par la formule (6.1.14). Enfin, nous pouvons montrer comme
dans la proposition prcdente que cette drive est continue. 

6.2 Vecteurs gaussiens

Dfinition 6.2.1 Un vecteur alatoire X = (X1 , . . . , Xn ) valeurs dans Rn est appel


Pn
un vecteur gaussien si toute combinaison linaire j=1 aj Xj = ha, Xi, pour a =
(a1 , . . . , an ) Rn , suit une loi normale (avec la convention que la masse de Dirac au
point m est la loi normale N (m, 0)).
6.2 Vecteurs gaussiens 161

Cela entrane bien entendu que chaque composante Xj suit elle-mme une loi normale.

Exemple 6.2.2 Si les Xi sont des variables alatoires normales indpendantes, le


vecteur X est gaussien (cela dcoule de lexemple 6.1.9 (1)).

Contre-exemple : Si les composantes Xi sont de loi normale mais pas indpendantes,


il se peut que X ne soit pas un vecteur gaussien. Prenons par exemple X1 de loi
N (0, 1), et
(
X1 |XI1Q
si N |1
UE
X2 = H
E Csinon.
L Y T
X
PO
1

0C
gaussien, puisque
O LlaE loi N (0, 1), mais X = (X1 , X2 ) nest pas un vecteur
Alors X2 suit galement
< P(X1 + X2 = 0) < 1 (donc X1 + X2 ne suit pas une loi
normale).

I Q U Esi sa fonction caract-


Thorme 6.2.3 X est un vecteur gaussien si et seulement
N
ristique scrit CH TE
eiY
X (u) =O L
1
hu,mi 2 hu,Cui
(6.2.1)
E P ,
o m Rn et C est une O L n n symtrique positive ; dans ce cas, m = E(X)
Cmatrice
(i.e. mj = E(Xj ) pour chaque j), et C est la matrice de covariance de X.

Preuve. a) Condition suffisante : supposons (6.2.1). Pour toute combinaison linaire


Y = j aj Xj = ha, Xi, et pour v R, nous avons E
P

N IQU
C H
2
i v hm,ai v2 ha,Cai

YTE
Y (v) = X (va) = e ,
donc Y suit la loi N (ha, mi, ha, Cai). P O L
LE
CO
b) Condition ncessaire : Soit C la matrice de covariance de X et m son vecteur
moyenne. Notons que ces quantits existent, car chaqueP composante Xj tant de loi
normale, elle est de carr intgrable. Si Y = ha, Xi = nj=1 aj Xj avec a Rn , un
calcul simple montre que
E(Y ) = ha, mi, V ar(Y ) = ha, Cai.
Par hypothse, Y suit une loi normale, donc vu ce qui prcde, sa fonction caract-
ristique est
v2
Y (v) = ei v ha,mi 2 ha,Cai .
Mais Y (1) = ha,Xi (1) = E(ei ha,Xi ) = X (a), do (6.2.1). 
162 Chapitre 6 Fonctions caractristiques et convergence en loi

Corollaire 6.2.4 Si X est un vecteur gaussien, ses composantes sont indpendantes


si et seulement si la matrice de covariance est diagonale.

Attention : ce rsultat peut tre faux si X nest pas gaussien (prendre le contre-
exemple prcdent).

Preuve. Il suffit de combiner (6.2.1) et le corollaire 6.1.6.


E 
U
NIQ
E CH
Proposition 6.2.5 Soit X un vecteur
O L Y Tgaussien valeurs dans Rn , de moyenne m.
P relles indpendantes Y1 , . . . , Yn de lois normales
LjE= 0 on convient que Yj = 0) et une matrice orthogonale
Il existe des variables alatoires
O
N (0, j ) avec j 0C(si
+ AY , o Y = (Y1 , . . . Yn ).
A telles que X = m

Preuve. Comme C est une matrice symtrique positive (cf.


U E Proposition 4.8.8), il
I Q
E
naux vrifient j 0, et telle que la matrice de C HN
existe une matrice orthogonale A et une matrice diagonale dont les lments diago-
covariance de X scrive C = At A.
Soit Y = t A(X m). Alors Y est un O L Y Tgaussien de covariance C 0 = t ACA =
vecteur
P
L E Yj de Y rpondent la question.
et de moyenne nulle. Les composantes 
CO
Proposition 6.2.6 Le vecteur gaussien X admet une densit sur Rn si et seulement
si sa matrice de covariance C est non-dgnre (ou inversible, ou de valeurs propres
toutes strictement positives). Dans ce cas cette densit est donne par
1 1
e 2 hxm,C IQ
1
U E.
(xm)i
(6.2.2)
HN
fX (x) = p
(2)n/2 det(C) C
O LYTE
P
LE
O la proposition prcdente : les j qui y paraissent
Preuve. Reprenons la preuve Cde
sont les valeurs propres de C.

Si j > 0 pour tout j, le vecteur alatoire Y admet la densit suivante sur Rn :


n
Y 1 2
fY (y) = p eyj /2j .
j=1
2j

Comme X = m + AY , nous en dduisons que X admet la densit donne par (6.2.2).

Si au contraire C nest pas inversible, il existe a Rn tel que a 6= 0 et Ca = 0. La


variable alatoire Z = hX, ai a pour variance ha, Cai = 0 et pour moyenne z =
6.2 Vecteurs gaussiens 163

hm, ai, donc P(Z = z) = 1. Ainsi, avec une probabilit 1, le vecteur X est dans un
hyperplan H orthogonal a,
R i.e. P(X H) = 1. Or, si X admettait la densit f ,
nous aurions P(X H) = H f (x)dx, donc P(X H) = 0 puisque le volume de
lhyperplan H est nul. 

Dfinition 6.2.7 On appelle variable alatoire de 2 (chi-deux) d degrs de libert


toute variable alatoire positive qui a mme loi que la somme de d carrs de variables
alatoires de loi normale N (0, 1) indpendantes.
E
N IQU
Hson utilisation massive en statistiques,
E Cde
Lintrt de cette loi provient essentiellement
puisquelle permet de construire unLtestY T(appel test du chi-deux), fondamental pour
P Osi une variable alatoire
L Ealatoires sont indpendantes.suit une certaine loi donne
savoir (statistiquement parlant)
O
C
a priori ou si deuxvariables

Grce aux propositions 4.10.3 et 4.10.4, nous obtenons immdiatement que la loi du
2 d degrs de libert est la loi (d/2, 1/2) de densit dfinie sur R+ par
IQ UE
H,N
Cd exp(y/2) y d/21 (6.2.3)

pour une constante approprie Cd . O LY


TEC
O EP
Lobtenons

En utilisant la dfinition,Cnous immdiatement que si Y suit une loi de 2
d degrs de libert, alors

E(Y ) = d , V ar(Y ) = 2d. (6.2.4)

E
Nous pouvons alors montrer le rsultat suivant.
N IQU
mme loi normale N (m, 2 ). Considrons LY T
E (XH
Proposition 6.2.8 Soient n variables alatoires C 1 , . . . , Xn ) indpendantes, de

PO
X1 + + Xn O L E 1
C; V = (X1 X)2 + . . . + (Xn X)2 .

X=
n n
Alors

1) X suit une loi normale desprance m et de variance 2 /n,

2) n2 (X1 X)2 + . . . + (Xn X)2 est une variable alatoire de 2 n 1



degrs de libert,

3) les variables alatoires X et V sont indpendantes.

Preuve. Comme les variables alatoires Xi sont indpendantes et de loi normale, le


vecteur X = (X1 , . . . , Xn ) est un vecteur gaussien, et il est donc immdiat que X
164 Chapitre 6 Fonctions caractristiques et convergence en loi

suive une loi normale desprance la moyenne des esprances des Xi et de variance la
somme des variances divise par n2 .

Nous allons simplifier le problme en nous ramenant des variables alatoires centres
rduites. Posons pour chaque 1 i n, i = Xim . Il est alors facile de montrer que

n
!
2 X
V = i2 12 ,
n i=1

IQ UE
HN
1 ++
o 1 = n
.
TEC
n

L Y
Considrons une matrice U , de
E P Otaille n n, orthogonale,
et dont la premire ligne
L
C O par j (1 j n) les coordonnes du vecteur alatoire
est forme de coordonnes toutes gales 1/ n (les autres termes tant choisis
arbitrairement). Dsignons
obtenu en appliquant U au vecteur alatoire (colonne) , soit

1 1
. . . = U . . . . IQUE
n nC H N
LY TE
Alors nous avons bien que 1 = E PnO . Puisque U est orthogonale et que est un
++
1 n

O L
deCvariables
vecteur gaussien form Pn alatoires
2 Pn indpendantes,
2
il en est de mme pour
, et de plus nous avons que i=1 i = i=1 i . Ceci entrane que

n n
!
2 X 2 X 2
V = i2 12 = .
n i=1
n i=2 i
UE
IQ
Ainsi, n2 V est bien une variable alatoire de chi-deux N n 1 degrs de libert,
C H
indpendante de 1 , et donc de X. TE 
P O LY
LE
CO
6.3 Convergence en loi

Nous allons introduire maintenant une nouvelle notion de convergence de suites de


variables alatoires. (Nous renvoyons au Chapitre 5 pour les dfinitions des diffrentes
notions de convergence dj introduites.)

La convergence en loi dfinie dans ce paragraphe va concerner les lois des variables
alatoires. Elle signifiera que les lois sont asymptotiquement proches, sans que les
variables alatoires elles-mmes le soient ncessairement. Nous verrons galement que
toutes les convergences introduites au Chapitre 5 entranent la convergence en loi.
6.3 Convergence en loi 165

Considrons des variables alatoires Xn et X, toutes valeurs dans le mme espace


Rd , mais pouvant ventuellement tre dfinies sur des espaces dtats diffrents.

Dfinition 6.3.1 Nous dirons que la suite (Xn ) converge en loi vers X, et nous
L
crirons Xn X, si pour toute fonction f continue borne sur Rd ,

E(f (Xn )) E(f (X)),

quand n tend vers linfini.


IQ UE
HN
L Y TEC
P O est celui o toutes les variables alatoires Xn
Exemple 6.3.2 Un cas trs simple
E
L
C Osi
ont un nombre fini de valeurs {xi , 1 i N }. Alors, la suite (Xn )n converge en loi
vers X si et seulement

lim P(Xn = xi ) = P(X = xi ) 1 i N.


n

U E
NIQ
Il suffit dcrire
TE CH
N
L Y
=O f (xi ) P(Xn = xi ).
E(f (Xn )) P
X

LE
CO
i=1

Au paragraphe 3.5.4, nous avons montr la convergence en loi dune suite de variables
alatoires binomiales vers une variable alatoire de Poisson, pour un bon choix des
paramtres.

IQ UE
HN
C alatoires de lois respectives
Exemple 6.3.3 Soient (Xn )n et X des variables
L Y TleEmme
E P(O
N (0, n2 ) et N (0, 2 ), pas forcment dfinies sur espace de probabilit. Nous

linfini. Alors la suite (Xn ) nC


OL
supposons que la suite de rels positifs n )n converge vers > 0, quand n tend vers
converge en loi vers X. En effet, soit f une fonction
continue borne sur R. Nous avons
1
Z
2 2
E(f (Xn )) = f (y) ey /2n dy
2n
1
Z
2 2
n f (y) ey /2 dy = E(f (X)).
2
Cette convergence est justifie par le thorme de convergence domine.

La convergence en loi est plus faible que la convergence en probabilit.


166 Chapitre 6 Fonctions caractristiques et convergence en loi

P L
Proposition 6.3.4 Si Xn n X, alors Xn n X.

Ainsi, les convergences en moyenne et presque-sre entranent galement la conver-


gence en loi, par la proposition 5.1.6.

Preuve. Supposons que la suite (Xn ) converge en probabilit vers X. Soit f une fonc-
E la suite (f (Xn ))n converge
tion continue borne sur Rd . Daprs la proposition 5.1.10,
en probabilit vers f (X), et comme f est borne, I QlaUproposition 5.1.7 entrane que
N
E C HEn particulier, E(f (Xn )) converge vers
f (Xn ) converge aussi en moyenne vers f (X).
T
E(f (X)).
POLY 

C OLE
Proposition 6.3.5 Soient Xn et X des variables alatoires relles de fonctions de
L
rpartition respectives Fn et F . Pour que Xn X il faut et il suffit que Fn (x) F (x)
pour tout x en lequel F est continue.
U E
NIQ
ECH
Y T droite et croissante, lensemble des
L
Notons que puisque la fonction F est continue
O
O E P D = {x : F (x) = F (x)}, et son complmen-
points o F est continue est lensemble
LAinsi,
C
taire est au plus dnombrable. D est dense dans R.

L
Preuve. a) Supposons dabord que Xn X. Soit a avec F (a) = F (a). Pour tout
p N? et tout b R, il existe une fonction fp,b continue borne sur R telle que

1],b] fp,b 1],b+1/p] .


U E (6.3.1)

Alors E(fp,b (Xn )) converge vers E(fp,b (X)) quand EnC tend
NIQ
H vers linfini. De (6.3.1), nous
dduisons dabord que Fn (a) = P(Xn a) L Y T
E(f (X 1
n )) et E(fp,a (X)) F (a + p ) ;
P O p,a

O L Etout p, donc
donc lim supn Fn (a) F (a + p1 ) pour aussi lim supn Fn (a) F (a). Nous
avons galement que Fn (a) CE fp,a1/p (Xn ) et E fp,a1/p (X) F (a p1 ) ; donc
 

lim inf n Fn (a) F (a 1p ) pour tout p, donc aussi lim inf n Fn (a) F (a) puisque
F (a) = F (a). Ces deux rsultats impliquent que Fn (a) F (a).

b) Inversement, supposons que Fn (x) F (x) pour tout x T , o T est une partie
dense de R. Soit f une fonction continue borne sur R et > 0. Soit a, b T avec
F (a) et F (b) 1 . Il existe n0 tel que

n n0 P(Xn
/ ]a, b]) = 1 Fn (b) + Fn (a) 3. (6.3.2)

La fonction f est uniformment continue sur [a, b], donc il existe un nombre fini de
points a0 = a < a1 < . . . < ak = b appartenant tous T et tels que |f (x) f (ai )|
6.3 Convergence en loi 167

si ai1 x ai . Donc
k
X
g(x) = f (ai )1]ai1 ,ai ] (x)
i=1

vrifie |f g| sur ]a, b]. Si M = supx |f (x)|, il vient alors

|E (f (Xn )) E (g(Xn )) | M P(Xn


/ ]a, b]) + , (6.3.3)

et de mme pour X. Enfin E (g(Xn )) = ki=1 f (ai )(FU


P
Ei1 ) Fn (ai )), et de mme
n (a
N I Q vers F (ai) pour tout i, nous en
H
pour X, par dfinition de g. Comme Fn (ai ) converge
dduisons lexistence de n1 tel que TEC
P O LY
n nL E |E (g(X (6.3.4)
CO
1 n ))] E (g(X)) | .

Daprs (6.3.2), (6.3.3) et (6.3.4), nous avons

n sup(n0 , n1 ) |E (f (Xn )) E (f (X)) | UE 3 + 5M .


H NIQ
Cn )) converge vers E (f (X)), do le
(fE(X
tant arbitraire, nous en dduisons que ET
L Y
rsultat.
E PO 
L
CO
Corollaire 6.3.6 : Si la suite (Xn )n de variables alatoires relles converge en loi
vers X, et si la loi de X a une densit, alors pour tous a < b,

P(Xn ]a, b]) n P(X ]a, b]).


E
N IQU
XnT.)
ncessairement celles des variables alatoiresLY
E C H en tout point. (Mais pas
Preuve. : La fonction de rpartition de X est alors continue

P O
LE
CO L
Proposition 6.3.7 Soient Xn et X des vecteurs alatoires. Pour que Xn X il
faut et il suffit que E(f (Xn )) E(f (X)), pour toute fonction f lipschitzienne borne.

Preuve. Il suffit de montrer que dans la preuve de la proposition 6.3.5, nous pouvons
remplacer les fonctions continues bornes fp,b approchant 1],b] par des fonctions
lipschitziennes bornes, ce qui est immdiat. 

Thorme 6.3.8 (Lemme de Slutsky). Soit (Xn )n et (Yn )n deux suites de vecteurs
alatoires. Supposons que (Xn ) converge en loi vers X et que Xn Yn converge vers
0 en probabilit. Alors (Yn ) converge en loi vers X.
168 Chapitre 6 Fonctions caractristiques et convergence en loi

Preuve. Grce la proposition 6.3.7, il suffit de montrer que limn E(f (Yn )) =
E(f (X)), pour toute fonction borne lipschitzienne f . Nous avons alors |f (x)| k et
|f (x) f (y)| C|x y|, pour des constantes k et C. Soit > 0 donn. Nous crivons

|E(f (Yn )) E(f (Xn ))| E(|f (Yn )) E(f (Xn ))|)
C + 2k P(|Xn Yn | > ).

Le deuxime terme du membre de droite tend vers 0 quand n tend vers linfini, car

I Q U Ele rsultat. petit, nous en


Xn Yn converge en probabilit vers 0. Comme est arbitrairement
N
dduisons que limn |E(f (Yn )) E(f (Xn ))| = 0, do 

Y T ECH
PO
Une gnralisation de ce lemme estLdveloppe dans lexercice 6.6.6.
L E
CO
Le thorme suivant caractrise la convergence en loi laide des fonctions caract-
ristiques. Cest un critre extrmement utile dans la pratique.
Thorme 6.3.9 (Thorme de Lvy) Soit Xn des variables alatoires valeurs
U E
NIQ
dans Rd .
CH
E alors Xn converge simplement vers
a) Si la suite (Xn )n converge en loi versTX,
L Y
X . PO
OLE
C simplement vers une fonction (complexe) sur Rd ,
b) Si les Xn convergent
et si cette fonction est continue en 0, alors cest la fonction caractristique dune
L
variable alatoire X et Xn X.

Preuve. (Nous ne dmontrons pas (b), qui est assez difficile). E


N IQU
H = E(gu (Xn ))
TEC
Pour obtenir (a), il suffit de remarquer que X (u)
n et X (u) =
L Y
E(gu (X)), o gu est la fonction continue borne i hu,xi
gu (x) = e et dappliquer la
dfinition 6.3.1 (en sparant parties E P Oet imaginaire).
relle 
L
CO
Exemples : Ce thorme, plus les formules du premier paragraphe donnant les fonc-
L
tions caractristiques des lois usuelles, impliquent immdiatement que Xn X dans
les cas suivants :

1) Xn suit B(m, pn ), X suit B(m, p), et pn p.


2) Xn suit N (mn , n2 ), X suit N (m, 2 ), et mn m, n2 2 .
3) Xn et X suivent des lois de Poisson de paramtres n et , et n .
4) Xn et X suivent des lois exponentielles de paramtres n et , et n .
6.4 Le thorme de la limite centrale 169

En conclusion de ce paragraphe, nous pouvons rsumer dans la figure 6.1 les relations
entre les diffrents modes de convergence.

Relations entre modes de convergence


si domine
Convergence Convergence
presque-sre en Moyenne

IQ UE
EC HN
LY TProbabilit
Convergence

PO en
LE
CO Convergence
en Loi

U E
NIQ
Y T ECH
PO L 6.1 :
Fig.
LE
CO
6.4 Le thorme de la limite centrale

E Plus simplement,
Ce thorme est aussi connu sous le nom de thorme central limite.
U
il apparat souvent sous labrviation TCL.
NI Q
T E CH
O LYune suite de variables alatoires Xn
La situation est la mme que dans le chapitre prcdent concernant la loi des grands
P
LE
nombres (Thorme 5.2.1). Nous considrons
C Oet de carr intgrable. Notons m et la moyenne
2
indpendantes, de mme loi,
et la variance communes aux variables Xn , et

Sn = X 1 + . . . + X n (6.4.1)

(ainsi Mn = Snn ). Nous avons vu que Snn converge vers m, presque-srement et en


moyenne, et il est naturel de chercher la vitesse laquelle cette convergence a lieu.

Pour valuer cette vitesse, cest--dire trouver un quivalent de Snn m, nous sommes
amens tudier la limite ventuelle de la suite n ( Snn m) pour diffrentes valeurs
de : si est petit cette suite va encore tendre vers 0, et elle va exploser si est
grand. On peut esprer que pour une (et alors ncessairement une seule) valeur de
, cette suite converge vers une limite qui nest ni infinie ni nulle.
170 Chapitre 6 Fonctions caractristiques et convergence en loi

Il se trouve que la rponse cette question a un aspect ngatif : la suite n ( Snn m)


ne converge au sens presque-sr, ou mme en probabilit, pour aucune valeur de .
(Voir lexercice 6.6.8). Elle a aussi un aspect positif : cette suite converge, au sens
de la convergence en loi, pour la mme valeur = 1/2 quelle que soit la loi des Xn ,
et toujours vers une loi normale.

Ce rsultat, qui peut sembler miraculeux, a t nonc par Laplace (1749-1827) et d-


montr beaucoup plus tard par Lyapounov (1901). Il montre le caractre universel de
la loi normale (do son nom !). Il fait lobjet du thorme suivant, appel thorme
E
central limite, ou de la limite centrale :
N IQU
T E CH
Thorme 6.4.1 Si les Xn sont L Y variables alatoires relles indpendantes et de
des
Omoyenne
P
LE
mme loi, de carr intgrable,
O
de m et de variance 2 avec 2 > 0, alors
les variables C S nm
n

n
convergent en loi vers une variable alatoire de loi N (0, 1).
U E
NIQ
CH
Y TenE loi vers une variable normale de loi
Sn
En dautres termes, n( n m) converge
N (0, 2 ).
E POL
C OL
Preuve. Nous donnons ici une preuve fonde sur le thorme de Lvy. Une autre
preuve sera donne dans lexercice 6.6.7.

Soit la fonction caractristique de Xn m, et Yn = (Sn nm)/ n.
E
I Q U caractristique de
Comme les Xn sont indpendantes et daprs (6.1.3), la fonction
N
Yn est CH
YTE
Lu
n (u)E =P O
n
. (6.4.2)
OLC
n

Comme E(Xn m) = 0 et E (Xn m)2 = 2 , (6.1.14) entrane




u2 2
(u) = 1 + u2 o(|u|) quand u 0.
2
Comme (0) = 1 et que est continue en 0, il est facile de voir que pour u fix et n
assez grand,
u


1 1/2.
n
Il est possible de gnraliser la notion de logarithme aux complexes z tels que |z
1| 1/2. (Voir un cours danalyse complexe.) La fonction ln z dfinie sur le disque
6.4 Le thorme de la limite centrale 171

{z C : |z 1| 1/2} admet le mme dveloppement limit au voisinage de z = 1


que le logarithme rel. Ainsi,

u2 1

n (u) = exp n ln 1 + n (u) ,
2n n

o n (u) tend vers 0 quand n tend vers linfini, et nous en dduisons immdiatement
que n (u) converge vers exp u2 /2. Le rsultat dcoule alors du thorme 6.3.9. 

IQ UE
HN
(Sn nm)/ n suit une loi N (0,L
T E C 6.4.1 suivent des lois N (0, 1), alors
Remarque :Si les Xi de lnonc du thorme
1)Ypour tout n. Le thorme de la limite centrale
E P O rduite est la seule probabilit Q sur R telle que
implique que la loi normaleL centre
C Oil en est de mme de (Sn nm)/n.
Q,
si les Xi sont de loi

Exemple 6.4.2 Convergence des lois binomiales. Supposons que Sn suive une
loi binomiale B(n, p). Cela revient dire que Sn a la mme loi quune somme X1 +
U E p), i.e. P(Xi = 1) = p
I Q
. . . + Xn de n variables alatoires Xi indpendantes de loi B(1,
N2 = p(1 p).
et P(Xi = 0) = 1 p. Nous savons alors que m =
TE CHp et
L Y
P Ox fix et n grand.
Nous voulons calculer P(Sn x) pour
E
L
C Oque = np ne soit pas trop grand (en pratique, 5
Si p est trs petit, de sorte
convient), nous pouvons utiliser lapproximation par une loi de Poisson, obtenue au
Chapitre 3. Si p est trs proche de 1, de sorte que = n(1 p) soit comme ci-dessus,
alors n Sn suit son tour une loi proche de la loi de Poisson de paramtre .

Dans les autres cas, nous utilisons les thormes prcdents :


IQ UE
p, T E C
Sn P HN (6.4.3)
n LY
PO
OLE
CpSn np L
N (0, 1). (6.4.4)
np(1 p)

Si nous dsignons par la fonction de rpartition de la loi N (0, 1), il vient



x np
P(Sn x) ' p . (6.4.5)
np(1 p)

Rappelons que la fonction de rpartition ci-dessus est "tabule", et une table de


cette fonction est fournie au chapitre 4.6.
172 Chapitre 6 Fonctions caractristiques et convergence en loi

Exemple 6.4.3 Lanons 1000 fois une pice (que lon suppose non truque). Cher-
chons la probabilit dobtenir plus de 545 fois le ct Face.

Bien sr, le calcul exact utilisant les lois binomiales serait rbarbatif et extrmement
lourd. Nous utilisons le thorme de la limite centrale et crivons
Z +
Sn n/2 45 1 x2
P(Sn > 545) = P > ' e 2 dx.
1000/2 1000/2 90
1000
2

En utilisant la table numrique, nous obtenons


IQ UE
C HN
E (2, 84) ' 0, 0023.
'T
P(Sn > 545) Y 1
POL
LE
CO
Le thorme 6.4.1 admet une version multidimensionnelle, de preuve similaire. Consi-
drons des vecteurs alatoires Xn valeurs dans Rd , indpendants et de mme loi,
dont les composantes sont de carr intgrable. Nous avons ainsi un vecteur moyenne
m = E(Xn ), et une matrice de covariance C = (cij ) avec
I Q UEcij = la covariance des
H N
composantes i et j de Xn . Nous pouvons alors noncer le TCL multi-dimensionnel.
LY TEC
Thorme 6.4.4 Les vecteurs E P O S nm
alatoires nn convergent en loi vers un vecteur
L
C O de moyenne nulle), de matrice de covariance C.
(i.e.
alatoire gaussien centr

Remarque 6.4.5 La vitesse de convergence est toujours en 1n , indpendante de la


dimension d. Cette remarque est fondamentale pour les applications numriques et
justifie limportance des mthodes de Monte-Carlo dans le cas des grandes dimensions.

IQ UE
C HN
6.5 Intervalles de confiance
O LYTE
P
O LE
C
Dans les deux exemples suivants, nous allons voir comment la loi des grands nombres
et le thorme de la limite centrale permettent destimer un paramtre inconnu
et de donner, un pourcentage derreurs prs fix a priori, dans quelle fourchette
destimation se trouve ce paramtre.

6.5.1 Sondages

A la veille dune lection portant sur le choix entre deux candidats, on effectue un
sondage afin de dterminer la proportion p de votes pour un des candidats, appel AA.
On pourrait considrer plus gnralement tout problme de sondage avec rponses
6.5 Intervalles de confiance 173

binaires. Le sondage porte sur n = 2500 individus choisis au hasard dans le corps
lectoral (excluant les abstentionnistes). On note Xi = 1 si le ime individu interrog
vote pour AA, Xi = 0 sinon. En pratique, on vite dinterroger deux fois un mme
individu (tirage sans remise), de sorte que a priori, les Xi sont dpendants. Mais nous
avons vu au chapitre 2.2.3 que lorsque la taille de la population totale est grande, il y
a peu de diffrence entre les tirages avec remise et sans remise. Nous nous placerons
donc dans cette hypothse, et supposerons ainsi les Xi indpendantes. Il faut bien
comprendre quici, lespace dtats est lensemble de tous les chantillons de n
E
individus, et que choisir un chantillon est un choix particulier de .
IQU
N
Les variables alatoires Xi , i n, dfinies sur
T E C H, sont supposes indpendantes et de
mme loi de Bernoulli P(Xi = 1) L =Yp = 1 P(Xi = 0). Nous nous trouvons avec
P Ocomment
L1 ,E. . . , Xn ? Intuitivement, aucune information sur p nest
le problme statistique suivant : estimer le paramtre p inconnu au
vu des observations
C O X
contenue dans lordre des rponses, et il suffit de rsumer le sondage X1 , . . . , Xn par
le nombre dintentions de vote Sn = X1 + . . . + Xn . Ce raisonnement heuristique
peut dailleurs se quantifier ainsi. La loi conditionnelle des observations (X1 , . . . , Xn )
sachant Sn = k ne dpend pas du paramtre inconnu p. CestEla probabilit uniforme
sur les nk suites (x1 , . . . , xn ) comportant k uns etNnI QkUzros). Par consquent,
la valeur de Sn contient toute linformation E
T C H dans le sondage sur p. Nous
contenue
cherchons alors estimer p en utilisant Y
O Lune fonction Xn de Sn , appele estimateur
de p, et le choix naturel est la L EP
proportion Xn de vote pour AA dans lchantillon,
CO
Sn
Xn = .
n

Cet estimateur est bon en moyenne, au sens o son esprance est gale au paramtre
Eest sans biais. La
I estUaussi
que nous cherchons estimer : E(Xn ) = p . Nous dirons alorsQquil
N
loi des grands nombres nous apprend que cet estimateur
T E C Hau sens
X n asymptotique-

O LYp, en probabilit et presque-srement.


ment bon (lorsque lchantillon est de grande taille), o il converge, quand
n tend vers linfini, vers le paramtre P
estimer

C OLE
Le sondage donne 1300 intentions de votes pour AA et 1200 pour son adversaire.
La valeur de lestimateur Xn , calcule sur notre chantillon (un particulier), ap-
pele estimation pn de p, vaut 0,52. Peut-on quantifier la confiance donner cette
estimation numrique ? Plus prcisment, cette valeur 0,52 est-elle significativement
diffrente de 0,5 ?

Il faut tenir compte des possibilits de fluctuations dues lchantillonnage : si lon


change dchantillon, il est clair que la valeur de lestimation va changer. (Nous pou-
vons par exemple imaginer que sur un autre chantillon de 2500 personnes interroges,
lestimation vaut 0,49). Toutefois, nous connaissons la loi de la variable alatoire Xn
dfinie sur lensemble des chantillons de taille n. La rponse dpend alors de lam-
plitude des fluctuations de Xn autour de p, et comme la taille n de lchantillon est
174 Chapitre 6 Fonctions caractristiques et convergence en loi

grande, nous pouvons alors utiliser lapproximation normale (Thorme 6.4.1)


Z a
n|Xn p| n
P |Xn p| = P p p ' g(x)dx ,
p(1 p) p(1 p) a


n
o g est la densit de la loi normale centre rduite et a = .
p(1p)

Cette probabilit sera environ gale 0,95, si a = 1.96 et 0,99 si a = 2.6. (Voir la
E
table numrique de la fonction de rpartition de la loiUnormale, Section 4.6.)
H NIQ
Ce rsultat nous dit que lerreur pn p T
Y E C en prenant pn comme approximation
commise
de p ne dpassera pas, avec unePO L
probabilit de 95%, resp. de 99% environ, le seuil
L E
O p(1 p)
C1.96
p p
2.6 p(1 p)
, resp. .
n n

Ce seuil dpend malencontreusement du paramtre p inconnu, mais la fonction


= (p) est majore par sa valeur maximale 1/2, U deEsorte quen remplaant
p
p(1 p)p
I Q
H N nous ne ferons quaugmenter
le facteur p(1 p) par 1/2 dans les seuils prcdents,
E Cnous
notre quasi-certitude. Plus gnralement, Y
L T
si nous donnons a priori la probabilit
P
que lerreur pn p ne dpasse pas O
un seuil donn, ce seuil sera gal 2sn , o s
E
CO
est tel que 2(1 (s )) = . L

En conclusion, nous obtenons le rsultat suivant (en remplaant 1,96 par 2).

Proposition 6.5.1 Intervalle de confiance pour lestimation de p.


E
I Q Ude confiance asymp-
Soit ]0, 1[, proche de 1 dans la pratique et appel le niveau
N
ECH
totique de lintervalle. Ds que n est assez grand (n 50, np et n(1 p) 5 en
pratique), lintervalle
L Y T
nE
PsO s

I = pL

; pn + ,
R s CO 2 n 2 n
o s est tel que s g(x)dx = , est lintervalle de confiance de p de niveau asymp-
totique , au sens o

s s

lim P p Xn ; Xn + = .
n 2 n 2 n

Ainsi
1 1

pn ; pn + (6.5.1)
n n
6.5 Intervalles de confiance 175

est lintervalle de confiance de niveau 95% et


1, 3 1, 3

pn ; pn + (6.5.2)
n n
celui de niveau 99%.

Dans notre exemple, lintervalle de confiance 95% pour p est [0, 50; 0, 54]. Les
instituts de sondage annoncent dailleurs leurs rsultats ainsi (sous forme de fourchette
destimation).
U E
H NI Q
T EC

Xn 2sn ; Xn + 2sn est linter-
Y
Remarque 6.5.2 On dit souvent que lintervalle
L
E P Oasymptotique
valle de confiance de p de niveau . Il faut bien faire attention au fait
O L
C
que cet intervalle est alatoire.

6.5.2 Prcision dans la mthode de Monte-Carlo

I Q UE
N que le calcul analytique de
CH
d
Soit fZ une fonction intgrable de R R, telle
T E
O LY
I = f (x)dx soit compliqu ou impossible. Nous avons vu au Chapitre 5.3 une m-
P
L E Compare aux mthodes dintgration numriques
Rd
thode probabiliste par simulation.
usuelles, la mthode de CO
Monte-Carlo est surtout intressante en grande dimension.

Soit p une densit de probabilit sur RdZ, dont le support contient celui de f (f (x) 6=
f (x)
Z
0 p(x) > 0). Alors I = f (x)dx = p(x)dx, et I scrit donc comme
Rd Rd p(x)
E
I = E((X)) avec = f /p , QU p .
X de densit
I
Par hypothse, f est intgrable et cela entrane T
que
HN
E C(X) L1 .
P O LY
L E nous savons gnrer des variables alatoires
Si p est une densit facilement simulable,
deOdensit p. Nous avons vu que la moyenne
et C
X1 , . . . , Xn indpendantes
1
In = ((X1 ) + . . . + (Xn ))
n
constitue une approximation (en fait, une estimation au sens statistique du terme)
de I. La loi des grands nombres entrane que In converge vers I (en probabilit, et
presque-srement)lorsque n et le thorme de la limite centrale nous renseigne,
lorsque E (X1 )2 < , sur la distribution de lerreur In I. En procdant comme
dans le paragraphe prcdent, nous obtenons un intervalle de confiance pour I avec
un niveau de confiance de 95%, de la forme
1, 96 1, 96

In , In + .
n n
176 Chapitre 6 Fonctions caractristiques et convergence en loi

Cela veut dire que la probabilit que la simulation obtenue ne donne pas un rsultat
appartenant cet intervalle vaut 0, 05.

Ici,
f (x)2
Z
2 = V ar((X1 )) = dx I 2 (6.5.3)
Rd p(x)
est le plus souvent inconnu, de sorte quil faut aussi estimer sa valeur. Nous dfinissons
alors lestimateur !1/2E
1X
n
IQU
2 N 2
(X1H
n i=1T E C
n = ) In ,

qui converge vers quand nEtendP O LY


O LSlutskyvers linfini, daprs la loi des grands nombres. Nous
C
utilisons alors le lemme de
considrer lintervalle de confiance
(Thorme 6.3.8) pour montrer que lon peut alors


1, 96n 1, 96n
In , In + , (6.5.4)
n n E
N IQU
o lon a remplac par lestimateur n . Nous
Y T ECH pouvons vrifier que cet intervalle
L
(alatoire) constitue encore un intervalle de confiance pour I de niveau 95%. Si lon
nOet n , calcules partir des valeurs simules,
P
LE
connat les valeurs numriques de I
C O destimation de la mthode.
nous obtiendrons la fourchette

6.6 Exercices sur le chapitre 6


E
N IQU
TE CH
EXERCICE 6.6.1 Soient X et Y deux variables alatoires indpendantes de carr
Y
intgrable, de mme loi et centres. Soit Lleur fonction caractristique commune.
P2Oa mme loi que X et Y . Montrer que ces
On suppose que la variable alatoireEX+Y

L
CdeOloi normale.
variables sont ncessairement

EXERCICE 6.6.2 Reprenons les notations de lexercice 5.4.7 du chapitre 5 concer-


nant les mthodes de rduction de variance. Pour g(x) = x2 , dterminer pour chaque
estimateur An et Bn combien de simulations sont ncessaires pour obtenir une prci-
sion relative de lordre de 1% sur le calcul de m avec probabilit 95%. Commenter.
EXERCICE 6.6.3 Soit X une variable alatoire de Cauchy.

1) Calculer la fonction caractristique de X.

2) Montrer que 2X = (X )2 .
6.6 Exercices sur le chapitre 6 177

EXERCICE 6.6.4 Soient X et Y deux variables alatoires indpendantes et a > 0.

1) La loi de X a pour densit a2 e|x|a . Quelle est la fonction caractristique de X ?

1
2) La loi de Y a pour densit y 2 1y1 .

X
Justifier que Y est dfinie presque-srement.

E
IQU d
X
Calculer la fonction caractristique de Y .
N
Y T E C H centr de R . Soit F
EXERCICE 6.6.5 Soit X un vecteur gaussien un sous-espace

POL
vectoriel de Rd .
L E
C Oest de montrer que P(X F ) = 0 ou 1.
Le but de lexercice

1) Soient X1 et X2 deux vecteurs indpendants de mme loi que X.

Montrer que les ensembles A(), dfinis pour [0, 2 [ par


UE
Q X2 () cos / F }
N Isin
A() = {, X1 () cos + X2 () sin F ; X1 ()
TE CH
sont disjoints pour des diffrents. LY
PO
O LE
C = P(A(0)),
2) Montrer que P(A()) pour tout
. On montrera que pour tout ,
X1 cos + X2 sin X1
a mme loi que .
X1 sin X2 cos X2

3) Montrer que P(A(0)) = 0. En dduire le rsultat.


E
EXERCICE 6.6.6 Gnralisation du thorme de Slutsky.
N I Q UMontrer que si deux
EC
suites de variables alatoires (Xn )n et (Yn )n sont tellesHque Xn converge en loi vers X
et Yn converge en probabilit vers une constante Y T alors le couple (Xn , Yn ) converge
POL
y,
en loi vers (X, y).
C OLE
En dduire que Xn + Yn et Xn Yn convergent en loi, respectivement vers X + y et Xy.
EXERCICE 6.6.7 Une autre preuve du thorme de la limite centrale (due Lin-
deberg).

Soit une suite (Xn )n de variables alatoires indpendantes de carr


P intgrable, centres
et de variance 1. Nous voulons prouver que la suite Tn = 1n ni=1 Xi converge en loi
vers une variable alatoire T de loi N (0, 1).

Prliminaire : Montrer que Tn converge en loi vers T ds que E(f (Tn )) converge vers
E(f (T)), pour f borne de classe C 2 avec drives premire et seconde bornes et
uniformment continues.
178 Chapitre 6 Fonctions caractristiques et convergence en loi

Soit (Yn )n une suite de variables alatoires indpendantes Pde loi N (0, 1), indpen-
dantes de la suite (Xn )n . Nous savons qualors Tn0 = 1n ni=1 Yi est de loi N (0, 1).
Le but est de montrer que |E(f (Tn )) E(f (Tn0 ))| 0, quand n tend vers linfini,
pour toute fonction f borne de classe C 2 avec drives premire et seconde bornes
et uniformment continues.

, Yi,n = Yin , et Wi,n = i1


Xi Pn
1) Notons Xi,n = j=1 Yj,n + j=i+1 Xj,n .
P
n

Montrer que
IQ UE
n
HN
T E+CXi,n ) f (Wi,n + Yi,n )) .
X
f (Tn ) f (Tn0 ) = (f (Wi,n (6.6.1)
Y
POL
i=1

LE
2) Montrer que CO
1
f (Wi,n + Xi,n ) = f (Wi,n ) + f 0 (Wi,n )Xi,n + f 00 (Wi,n )(Xi,n )2 + RX,i,n ,
2
U E
et que pour tout > 0, il existe > 0, tel que
H NIQ
|RX,i,n | (Xi,n )2 1|XY T E+C||f 00
L

|| 1|Xi,n |> .
PO
i,n |

C OLE
3) En dduire que

|E(f (Tn )) E(f (Tn0 ))| 2 + ||f 00 || E X12 1|X1 |>n + Y12 1|Y1 |>n .

4) Conclure.
E
IQU
EXERCICE 6.6.8 Soient (Xj )j des variables alatoires
E C H Nindpendantes et de mme
T
Pn
Y1
2 2
loi, de carr intgrable, avec E(X1 ) = 0, et X = > 0. Soit S = i=1 Xi .
POL
n

OL E
C pas en probabilit.
Sn
1) Montrer que
n
ne converge

2) Montrer que (n Snn m )n converge en probabilit vers 0, (respectivement


vers +), quand < 1/2, (respectivement > 1/2).

EXERCICE 6.6.9 On veut valuer la proportion p de foyers dun dpartement dis-


posant dun poste de tlvision et dsireux de recevoir les missions par cble. Ne
voulant pas procder un recensement complet de la population, on se propose des-
timer cette proportion partir dun chantillon de taille n prlev au hasard dans la
population du dpartement. On dfinit une variable alatoire Xn , dont la ralisation
est xn , frquence observe dans lchantillon des mnages concerns par la tlvision
cble.
6.6 Exercices sur le chapitre 6 179

1) Prciser lesprance et la variance de Xn .

2) Justifier que Xn converge en un sens prciser vers p.

3) Soit n = 100 et xn = 0, 64.

Dterminer un intervalle de confiance pour p au niveau 0, 9 en utilisant la borne


suprieure du produit p(1 p). En dduire une fourchette destimation pour p au
niveau de confiance 0, 9. UE
IQ
N
YT ECH
P O L
LE
CO

U E
NIQ
TE CH
LY
PO
LE
CO

IQ UE
C HN
O LYTE
P
LE
CO
IQ UE
C HN
O LYTE
P
LE
CO

U E
NIQ
TE CH
LY
PO
LE
CO

IQ UE
C HN
O LYTE
P
LE
CO
Chapitre 7
IQ UE
C HN
O LYTE
ModlesCOdynamiques
LE alatoires P

E le sentiment fonda-
UCest
I Q
Le mystrieux veille en nous les plus belles motions.
Nne la pas prouv ne sait plus
T
smerveiller ou se laisser surprendre, ilYest
C Hainsi
mental, berceau de lart et de la science. Celui qui
Epour dire mort et ses yeux sont
teints. P O L
LE
CO Albert Einstein, Mein Weltbild - 1934.

Nous allons dans ce chapitre dvelopper quelques exemples de phnomnes alatoires


qui voluent au cours du temps. Plus prcisment, nous nous intresserons des suites

I Q U Edun systme ala-


de variables alatoires (Yn )n qui dcrivent chaque instant n ltat
H N
toire dfini par rcurrence. Un exemple fondamental est celui des chanes de Markov,
C
Y E dans de trs nombreuses ap-
pour lesquelles la loi des tats futurs du processusTne dpend du pass que par ltat du
processus au prsent. Ces processus sont O
P L
fondamentaux
plications, en Physique, en Biologie,LE en Informatique, en Mathmatiques financires...
CO
Nous naborderons pas de manire systmatique cette notion extrmement riche, mais
nous allons donner quelques exemples de tels processus qui sont trs importants en
probabilit. Ce chapitre, fondamental pour les applications, peut ainsi tre vu comme
une introduction un cours sur les chanes de Markov. (Voir par exemple les livres
de Benam-El Karoui, Graham, Pardoux).

Soulignons que jusqu prsent, nous avons surtout tudi des suites de variables
alatoires indpendantes. Dans ce chapitre, les variables alatoires que nous tudierons
ne seront pas indpendantes, mais les relations de rcurrence qui les dfinissent vont
nous permettre den dduire des informations sur leur comportement asymptotique,
quand n tend vers linfini.

181
182 Chapitre 7 Modles dynamiques alatoires

7.1 Marche alatoire

Dfinition 7.1.1 Nous appelons marche alatoire la suite (Sn )n dfinie par
n
X
Sn = S0 + Xi = Sn1 + Xn ,
i=1

o les variables alatoires relles (Xi )iN sont indpendantes et de mme loi.
E
N IQU
H N sont des variables dpendantes.
SnC, n
Remarquons que les variables alatoires E
Y T
E P O Limportance fondamentale : elles modlisent le d-
L
Ces marches alatoires sont dune
C O la promenade dun individu, un cours de la bourse, la taille
placement dune particule,
dune population, la taille dune file dattente, et dinnombrables autres phnomnes
alatoires.

La marche peut se dplacer sur un rseau rgulier ou sur des E


Ugraphes plus complexes.
N IQ
YT ECH
Marche alatoire simple sur Zd
P O L
O LE
Cette marche modliselaCdynamique de particules sur le rseau Zd . Elle est trs
utilise en physique statistique par exemple. Notons (e1 , . . . , ed ) la base canonique de
Zd . Imaginons une particule qui se dplace sur ce rseau. Sa position linstant n,
note par Sn , est dfinie par la relation de rcurrence alatoire

S0 = 0 ; Sn+1 = Sn + Xn+1 ,
E
IQU
o les variables alatoires Xi H N et de mme loi sur
sont indpendantes
C
{e1 , . . . , ed , e1 , . . . , ed }.
O LYTE
P
LE
CO
La marche alatoire est ditesymtrique si la loi des Xi est uniforme.

Problme de la ruine du joueur : Un joueur lance une pice (ventuellement


biaise) de manire rpte. Quand la pice tombe sur Pile, il reoit 1 euro de son
adversaire, et quand la pice tombe sur Face, il lui donne 1 euro. Notant Sn la fortune
du joueur aprs n lancers, on a Sn+1 = Sn + Xn+1 avec Xn+1 = +1 avec probabilit
p (probabilit que la pice tombe sur Pile) et Xn+1 = 1 avec probabilit 1 p. Les
variables Xn , n 1, sont supposes indpendantes, et la fortune initiale du joueur
est une constante, S0 = k. Donc
n
X
Sn = k + Xi (7.1.1)
i=1
7.1 Marche alatoire 183

IQ UE
C HN
O LYTE
E P
OL
Fig. 7.1: Cas uneCdimension : la marche peut faire un pas vers la droite avec
probabilit p, un pas vers la gauche avec probabilit 1 p. Cas deux dimensions :
un pas en avant avec probabilit p1 , un pas en arrire avec probabilit p2 , un pas
sur le ct avec probabilit p3 , un pas de lautre ct avec probabilit p4 , telles que
p1 + . . . + p4 = 1. E
U
IQ
C HN
LY TE
est une marche alatoire.
PO
LE
C Oparticulier de la ruine du joueur, la somme totale m
En ralit, dans le problme
dargent mise en jeu est fixe et le jeu sarrte ds que le joueur est ruin, (Sn = 0) ou
que son adversaire lest, (Sn = m). Remarquons que m k est la fortune initiale de
ladversaire. La formule (7.1.1) nest vraie que jusqu la fin du jeu, aprs quoi Sn reste
constant. Ainsi cette marche alatoire est dite absorbe aux points 0 et m. Le modle
(7.1.1) peut aussi dcrire le mouvement dun poisson qui se dplace E transversalement
dans une rivire. Deux filets de pche sont placs en traversI Q deU la rivire, en position
N
C H et reste immobile.
0 et m. Si le poisson atteint lun des filets, il est captur
O LYTE
P
LE
Larrt du jeu correspond des barrires absorbantes aux points 0 et m. Il est
commode de reprsenter la CO
dynamique de cette marche par le diagramme suivant qui
indique la probabilit des diffrents sauts possibles.

Probabilit de ruine : Notant R lvnement le joueur est finalement ruin ,


nous allons dterminer sa probabilit k = Pk (R) lorsque le joueur dmarre avec une
fortune initiale k. Lindice k de Pk fait rfrence au point de dpart de Sn . Daprs
184 Chapitre 7 Modles dynamiques alatoires

les formules de conditionnement (voir Chapitre 2),


Pk (R) = Pk (R | X1 = +1) P (X1 = +1) + Pk (R | X1 = 1) P (X1 = 1) . (7.1.2)
Si le premier lancer donne Pile, la fortune du joueur devient k + 1 et le jeu se droule
alors comme sil tait parti de la fortune k + 1. Do
k = p k+1 + (1 p) k1 (7.1.3)
pour k {1, . . . , m 1}, avec les conditions aux limites 0 = 1, m = 0. Lquation
U E dabord les solutions de
(7.1.3) est une rcurrence linaire, pour laquelle on cherche
NIQ
la forme k = rk : r doit satisfaire lquation caractristique
Yr T
p r2L
ECH
+ (1 p) = 0 ,
PO
dont les solutions sont O LE
C r1 = 1, r2 = (1 p)/p. Deux cas se prsentent alors.
i) p 6= 1/2 (jeu biais). Les deux racines sont diffrentes, les solutions de (7.1.3)
sont de la forme k = r1k + r2k et nous dterminons et par les conditions
aux limites. Nous obtenons
1p m 1p k
Q UE

I
H N, 0 k < m.
p p
(7.1.4)
TE1 C
Pk (R) =
1p m

P O LYp

O L E (7.1.3), avec dautres conditions aux limites (0 =


Procdant de mme pour lvnement G : " le joueur finit par gagner ", nous
constatons que Pk C satisfait
(G)
0, m = 1). Nous trouvons alors que Pk (G) = 1 Pk (R), si bien que le jeu
sarrte en un temps fini, avec probabilit 1.
ii) p = 1/2 (jeu quitable). Alors r1 = r2 = 1, les solutions de (7.1.3) sont de la
forme k = + k et en tenant compte des conditions limites nous obtenons
E
k
N IkQ, U
ECH m
Pk (R) = 1 , Pk (G) = (7.1.5)
m
Y T
POL
et ici encore le jeu finit par sarrter.
LE
ClaOdure moyenne du jeu, Vk = Ek () avec
Dure du jeu : Dterminons
= min{k 1 : Sn = 0 ou m},
et Ek dsigne lesprance sous Pk . Comme dans (7.1.2), nous conditionnons suivant
les valeurs de X1
Ek () = Ek ( | X1 = 1) P(X1 = 1) + Ek ( | X1 = 1) P(X1 = 1)
et nous remarquons que cette fois Ek ( | X1 = 1) = Vk1 + 1 puisquune unit de
temps sest coule. Nous obtenons donc lquation de rcurrence linaire avec second
membre
Vk = p(1 + Vk+1 ) + (1 p) (1 + Vk1 ) (7.1.6)
7.2 Processus de branchement 185

pour 1 k m 1, avec V0 = Vm = 0. Nous rsolvons cette quation en trouvant


solutions gnrales et solution particulire :
1p k

1 1 p
Ek ( ) = km si p =
6 1/2 ,
1 2p 1p m

1 p

= k(m k) si p = 1/2 .
Barrire rflchissante : Dans le problme prcdent, E nous supposons que le joueur
Q U
H N I quand
a un oncle trs riche qui lui garantit de ne pas perdre : lorsque Sn = 0, loncle lui
donne 1 euro et Sn+1 = 1. Le jeu sarrte
Y T EC encore la fortune Sn du joueur

P L
atteint la valeur m. Ladversaire nest
Odcideplus ncessairement ruin mais le capital de m

O E
euros suffit encore au joueur,
Lque qui darrter le jeu. Nous disons ici que le point
C
0 est rflchissant,tandis le point m reste absorbant. Nous avons le diagramme
suivant :

U E
NIQ
TE CH
LY
PO
Commentaire : Un joueur dans L E un casino est dans la situation suivante. Il joue
un jeu dfavorable contre CunOadversaire (presque) infiniment riche, mais qui accepte
toujours de jouer tandis que le joueur peut sarrter sa guise. Si le joueur a une
fortune initiale de k units, puis parie une unit chaque jeu, et joue jusqu atteindre
la fortune m ou la ruine, alors sa probabilit dtre ruin est donne par (7.1.4) ; ici
p < 1/2. Son destin est rsum dans le tableau 7.1. Notons que, puisque le jeu est

I Q UE
dfavorable, son gain moyen est ngatif mme quand il a une probabilit suprieure
1/2 datteindre la fortune m. N
CH
O LYTE
P
EXERCICE 7.1.2 Montrer que LlaEdure moyenne du jeu (avec barrire rflchis-
O avec dautres conditions aux limites : V = 0,
Cmais
sante) vrifie encore (7.1.6), m
V0 = 1 + V1 . Dterminer Vk .

7.2 Processus de branchement

Ces modles sont absolument fondamentaux en cologie et pour ltude de la dyna-


mique des populations, dont ils dcrivent lvolution.

Dans un premier temps, nous nous intressons la loi de la somme dun nombre
alatoire de variables alatoires indpendantes.
186 Chapitre 7 Modles dynamiques alatoires

fortune fortune p proba. gain dure


initiale (k) totale (m) de ruine moyen moyenne
9 10 0,5 0,1 0 9
9 10 0,45 0,21 -1,1 11
90 100 0,5 0,1 0 900
90 100 0,45 0,866 -76,6 756,6
90 100 0,4 E
0,983Q U -88,3 441,3
H NI
99 100 TE
0,45 C 0,182 -17,2 171,8
LY
E PO
O L Tab. 7.1 : Le destin du joueur
C
7.2.1 Somme alatoire de variables alatoires indpendantes
UE
N I Q davoir considrer des
Il arrive frquemment, dans la modlisation probabiliste,
H
C termes lui-mme est alatoire.
T Ede
sommes de variables alatoires dont le nombre
P O LY
LE
Nous pouvons par exemple considrer
CO
a) le nombre de filles dune famille i=1 1Fi puisque le sexe de chaque enfant ainsi
P
que le nombre total denfants sont alatoires (Fi dsigne lvnement : le ime
enfant est une fille) ;
b) le temps de service journalier i=1 Xi effectu par un organe de service lorsque
U E dautre part sont
P
les temps de service Xi dune part et le nombre deI Q clients
N
alatoires. CH
O LYTE
P
LE
CO
La fonction gnratrice dune telle somme sobtient trs simplement lorsque les va-
riables alatoires en jeu sont toutes indpendantes et valeurs entires.
Proposition 7.2.1 Si (Xn , n 1) est une suite infinie de variables alatoires entires
positives, indpendantes et de mme loi donne par la fonction gnratrice

g(x) = E(xXn ) (x [0, 1], n 1)

et si est une variable alatoire entire positive, indpendante de la suite (Xn , n


1), (cest--dire indpendante du vecteur (X1 , . . . Xn ) quel que soit n), de fonction
gnratrice
G(x) = E(x ) ,
7.2 Processus de branchement 187

alors la fonction gnratrice de la somme



X
S = Xm (S = 0 si = 0) (7.2.1)
m=1

des premires variables alatoires Xm , est la fonction compose de g et G, soit

E(xS ) = G g(x) ( x, x [0, 1]). (7.2.2)

IQ UE
N
Pn
Y ECH
Preuve. Soient Sn = m=1 Xm , (n T1), les sommes partielles des Xm . Nous sup-
=O
posons par convention que S0 P 0.LAlors la variable alatoire S scrit explicitement
sur OLE
C
S() = S() () (7.2.3)

et dpend donc de deux manires de .


I Q UE
Comme les ensembles ({ = n}, n N) formentH N
T E C une partition de , nous pouvons
crire
OL Y
E P
1L
E(xCSO
X X
E(xS ) =
{=n} ) =

E(xS 1{=n} ) n

n n
X
= E(xSn ) P( = n) ( par indpendance de Sn et de )
n
X
= g(x)n P( = n) ( par indpendance des Xi , i n)
UE
n
IQ
HN
= G(g(x)).
C
O LYTE 
P
C OLE
Exemple 7.2.2 Sous les hypothses dindpendance prcdentes, si suit une loi de
Poisson de paramtre et si les Xm suivent une loi de Bernoulli de paramtre p, on a

E(x ) = exp((x 1)) et E(xXm ) = xp + (1 p)

de sorte que

E(xS ) = exp((xp + (1 p) 1)) = exp(p(x 1)) ,

ce qui montre que S suit une loi de Poisson de paramtre p. Nous avions dj obtenu
ce rsultat dans lexemple 3.6.8
188 Chapitre 7 Modles dynamiques alatoires

7.2.2 Processus de branchement

Les premires tudes marquantes sur les processus de branchement, dues Galton et
Watson (1875), ont t en particulier motives par ltude de la survivance des noms
de familles (de nobles anglais), et donc de la non-extinction des descendants mles qui
seuls transmettaient le nom. Ces processus avaient dj t introduits par Bienaym
(1845). Ils sont connus sous le nom de processus de Galton-Watson ou processus de
Bienaym-Galton-Watson.
UE
De nombreux phnomnes dvolution de population
H N I Q peuvent en fait tre modliss
Cest simple, mais qui prsentent nanmoins
T Epeut
par ce type de processus, dont la description
L Y
un comportement non trivial. Le
E
population de cellules, ouLdu
PO modle aussi bien dcrire la croissance dune
nombre de neutrons dans un racteur, ou encore dune
CO
pidmie dans unepopulation.

Nous tudions lvolution du nombre Zn dindividus de cette population au cours de


ses gnrations successives n = 0, 1, 2, . . . en supposant que chacun des Zn individus

I Q U E (1 i Zn ), au
de la nime gnration engendre un nombre alatoire Yin denfants
temps n, de sorte que
EC HN
Zn Y T
X L
Zn+1E=P O Yin (n 0) . (7.2.4)
L
CO i=1

Les variables alatoires Yin sont supposes indpendantes entre elles et de mme loi de
probabilit (pk , k N), caractrise par sa fonction gnratrice g(x) = E(xY ). Cette
loi de Y est appele la loi de reproduction du processus de Galton-Watson. Dans la
suite, nous exclurons le cas inintressant o Y serait gale 1 avec probabilit un,
cest--dire le cas o g(x) x. E
N IQU
T E C H0 3, lorsque Z0 = 1, Y10 =
La figure 7.2 reprsente les individus des gnrations
O Y 4
2, Y1 = 3, Y2 = 1, Y1 = 2, Y2 = 0, Y3 L
1 1 2 2 2 2
= 1, Y = 3. Cette figure reprsente un
P
arbre alatoire.
LE
CO
Exemple 7.2.3 (i) Division cellulaire. La reproduction est binaire ou la cellule
meurt : P(Y = 0) = P(Y = 2) = 21 . Alors g(x) = p0 + p2 x2 .

(ii) Un chane de N nuclotides dADN (Voir Delmas-Jourdain). En une unit de


temps, la chane est rplique. Chaque nuclotide est copi de faon correcte avec
probabilit q. La chane est dtruite avec probabilit p ou donne naissance deux mo-
lcules avec probabilit 1 p. Le processus comptant chaque gnration le nombre
de chanes correctes est un processus de Bienaym-Galton-Watson de loi de repro-
duction p0 = p (destruction), p1 = (1 p)(1 q N ) (non destruction mais rplication
incorrecte), p2 = (1 p) q N (non destruction mais rplication correcte) et pk = 0 pour
k 3.
7.2 Processus de branchement 189

Z0=1

IQ UE
C HN
YTE
Z1=2

P O L Z2=4

OLE
Z3=6

C
Fig. 7.2 : Larbre gnalogique du processus de branchement

La Proposition 7.2.1 montre alors que la fonction gnratrice Gn (x) = GZn (x) de Zn
E
vrifie pour tout x [0, 1], IQU
N
CH
YGTnE(g(x)) (7.2.5)
POL
Gn+1 (x) = GZn+1 (x) = (n 0)

=L
et si nous supposons que Z0 O 1E
de sorte que G0 (x) x, nous trouvons que pour tout
n1: C
Gn (x) = gn (x) o gn = g g . . . g n fois . (7.2.6)

Ce rsultat va dj nous permettre dtudier le comportement asymptotique de la


E de la population.
suite (Zn )n0 et de calculer notamment la probabilit dextinction
N IQU
Remarquons que Zn+1 = 0 si Zn = 0 dans le E
T C H prcdent et donc que les
modle
OL Y
vnements {Zn = 0} croissent avec n. Lvnement A = Extinction de la population
est donc naturellement dfini par E P
L
CO A = n {Zn = 0} (7.2.7)

et sa probabilit donne par

P(E) = lim gn (0) .


n

(puisque P(Z = 0) = GZ (0) pour toute variable alatoire Z entire positive).

Deux cas se prsentent, comme nous allons le voir dans le thorme suivant.
190 Chapitre 7 Modles dynamiques alatoires

Thorme 7.2.4

(i) Si le nombre moyen denfants E(Y ) de chaque individu est infrieur ou gal 1,
la population steint presque srement : P(A) = 1.

(ii) Si E(Y ) > 1, la probabilit dextinction P(A) est gale au nombre positif v stric-
tement infrieur 1, solution unique de g(v) = v dans [0, 1[.

Remarque 7.2.5 Par indpendance des variables (Yin ; n 1, i 1) nous dduisons


U En1 ) = (E(Y ))n (par rcur-
QE(Z
de (7.2.4) et de lexercice 7.5.2 que E(Zn ) = E(Y )I
N
rence). Cette dernire galit entrane queClaHpopulation steint lorsque E(Y ) < 1.
En effet, il est facile de voir que LY T
E
E PO
L
O P(Zn 6= 0) E(Zn ) = (E(Y ))n .
C
(7.2.8)

Dans le thorme 7.2.4, nous obtenons un rsultat plus complet.

E
Q U analytique suivant.
Preuve. La dmonstration du thorme repose sur le lemme
I
HN
C vers 1 lorsque n % pour tout
Lemme 7.2.6 T Ecrot
a) Si g 0 (1) 1, alors gn (x)
x [0, 1].
P O LY
L E= v possde une solution unique dans [0, 1[ et gn (x)
Si g 0 (1) > 1, lquationOg(v)
b)
C
crot vers v (resp. dcrot) lorsque n % , pour tout x [0, v], (resp. tout
x [v, 1[).

Preuve. du lemme.

UE
a) Lapplication x g(x) de lintervalle [0, 1] dans lui-mme est croissante et
strictement convexe car les drives
N I Q
00 T E
CH
0 Y 1
) et LgY (x) = E Y (Y 1)xY 2

g (x) = E(Y x
O
OL EP
sont positives en tant quesprances de variables alatoires relles discrtes po-
sitives. De plus g(1) = C1. Comme nous avons exclu le cas g(x) x, la courbe
g ne coupe pas ou au contraire coupe la diagonale du carr [0, 1]2 en un point
distinct de (1, 1), selon que g 0 (1) 1 ou que g 0 (1) > 1 ; ceci se voit bien sur
la figure 7.3. Ainsi, selon le cas, lquation de point fixe g(v) = v na pas de
solution ou possde une unique solution dans [0, 1[.

b) Lorsque g 0 (1) 1, nous avons x g(x) et donc gn (x) gn+1 (x) (puisque
gn+1 = g gn ) pour tout x. La limite limn gn (x) est infrieure 1 et solution
de g(u) = u, elle ne peut alors valoir que 1.
7.2 Processus de branchement 191

g 0(1) < 1 g 0(1) > 1


1 1

g3 (x)
g2 (x)
g(x)
g(x)
g2 (x)
g3 (x) E
IQU
C HvN
O LYTE
E P
g(x)L
0 0
CO
0 x 1 0 v g(x) x 1

Fig. 7.3 : La fonction g et ses itres dans les deux cas E(Y ) 1 et E(Y ) > 1

c) De mme, si g 0 (1) > 1, nous avons x g(x) Q


I U Ex g(x) v selon que
v ou
N (resp. dcrot) avec n selon
x v ou que x v ; il sen suit que gn (x)
T E C Hcrot
6=O
infrieure 1, (du moins si x P
LY
le cas. La limite limn gn (x), qui est solution de g(u) = u et est strictement
1), est alors ncessairement gale v.
LE
CO 

Ainsi donc, en appliquant les rsultats du lemme, nous obtenons immdiatement que

UE
1) si E(Y ) = g 0 (1) 1, alors, grce (7.2.7),
IQ
P(A) = lim gn (0) = 1C. H N
YTE
n

O L
2) si E(Y ) = g 0 (1) > 1, alors C O L
EP

P(A) = lim gn (0) = v .
n

Remarque 7.2.7 Lorsque E(Y ) = 1, alors dune part E(Zn ) = 1, et dautre part
Zn converge presque-srement vers 0. Nous en dduisons un contre-exemple pour le
thorme de convergence domine, o il y a convergence presque-sre et pas conver-
gence des esprances (ceci est d au fait que les Zn ne sont pas bornes). Par ailleurs,
si E(Y ) > 1, alors E(Zn ) = (E(Y ))n tend vers linfini quand n tend vers linfini alors
que lensemble o Zn tend vers 0 est de probabilit strictement positive. L-aussi,
nous avons un rsultat qui peut paratre contraire lintuition.
192 Chapitre 7 Modles dynamiques alatoires

Remarque 7.2.8 Lorsque E(Y ) > 1, lextinction nest pas certaine. Que se passe-t-il
lorsque le processus survit ? En fait, la population explose lorsquelle ne steint pas,
cest dire que P(Zn | Ac ) = 1.

En effet, pour tout entier a > 0 et quel que soit x que lon se sera fix dans ]0, 1[,
nous obtenons, en utilisant lingalit de Markov (4.7.1),
P(0 < Zn a) = P(Zn a|Zn > 0)P(Zn > 0) = P(xZn xa |Zn > 0)P(Zn > 0)
X
xa E(xZn |Zn > 0)P(Zn > 0) = xaE xk P(Zn = k)
N I Q U k1
YT
= xa (gn (x) gn (0)) ECH
OL
E Pvers linfini. Il en rsulte dj la proprit plus faible
qui tend vers 0 lorsque nLtend
O
que P(0 < Zn a |AC) 0, a > 0.
c
n

En outre une analyse plus dtaille de la convergence des gn montre que cette conver-
cn |x v| pour c = g 0 (v) et x infrieur
gence est exponentielle, i.e. |gn (x) v| P
0
v. Comme g (v) < 1, cela implique que P(0 < ZnI QU
E
a) < , et le lemme de
n
C HN
Borel-Cantelli (Thorme 2.5.14) montre que
L Y T Epresque-srement, Zn = 0 ou Zn > a

E PO
pour tout n partir dun certain rang. Comme Z n = 0 implique que Zn0 = 0 pour
tout n0 > n, deux cas seulement L sont possibles : ou bien partir dun certain
C Obien Zn > a partir dun certain
Z n = 0
rang (cest lextinction), ou rang et comme a est
arbitraire : Zn (cest lexplosion). Ces deux vnements complmentaires ont
pour probabilits respectives v et 1 v.

Signalons pour terminer que :


E la probabilit de
I Q Ugomtrique
a) lorsque E(Y ) < 1 (processus de branchement sous-critique),
N
comme nous lavons vu, T E CH
" non extinction linstant n " tend vers 0 une vitesse puisque,
Y
P(ZnP6=O0)L (E(Y ))n .
LE
C O de branchement critique), cette mme probabilit
b) lorsque E(Y ) = 1 (processus
tend beaucoup plus lentement vers zro. Plus prcisment, on peut montrer que
si E(Y 2 ) < ,
P(Zn 6= 0) c/n lorsque n
avec c = 2/E (Y (Y 1)). (Voir exercice 7.5.4).
c) lorsque E(Y ) > 1 (processus de branchement sur-critique), la taille de la popu-
lation Zn explose une vitesse gomtrique lorsquil ny a pas extinction, du
moins si E(Y 2 ) < car dans ce cas, on peut montrer que
n
Zn / (E(Y )) W
lorsque n pour une variable alatoire W strictement positive sur Ac . (cf.
Benam-El Karoui).
7.2 Processus de branchement 193

7.2.3 Percolation sur un arbre

Les modles de percolation sont utiliss pour dcrire la matire molle ou dsordonne :
verres en physique, gels et polymres en chimie, . . .

Le modle suivant rend compte dune pierre poreuse plonge dans leau. Leau ne
peut atteindre le centre de la pierre quen empruntant une suite de canaux (ou micro-
fissures). Chaque canal est identifi une arte dun arbre binaire. Chaque canal peut

I Q U E naturelle
tre ouvert ou ferm, et on note p la proportion de canaux ouverts (i.e., de largeur
suffisante pour permettre le passage de leau). La
H N question est de savoir si
E
leau va pntrer jusquau coeur de la pierreC ou non.
O L YT
E P Considrons larbre binaire infini A, dont les artes
Posons plus prcisment leLmodle.
O
Cles suites finies non vides u = w1 w2 . . . wn de longueur |u| =
sont numrotes par
n (n 1, wi {a, b}). Dans la figure 7.4, nous avons reprsent larbre jusqu la
profondeur 3, cest--dire le sous-ensemble A3 des artes numrotes par les suites de
longueur infrieure ou gale 3. On dit que larte u prcde larte v dans larbre si

I Q U0 E
u est un dbut de v (cest--dire, si v est de la forme v = uu ), et nous crivons alors
u v ; nous noterons u < v si u v, u 6= v. H N
TE C
LY
PO
LE
CO

IQ UE
C HN
O LYTE
P
L E7.4 : Larbre A3
CO
Fig.

A chaque arte u A est associe une variable alatoire binaire Xu , et nous supposons
ces variables alatoires (Xu )uA indpendantes et de mme loi donne par P(Xu =
1) = p = 1 P(Xu = 0), o p ]0, 1[. Larte u est ouverte si Xu = 1, et permet
alors le passage de leau ; elle est ferme sinon. Nous dfinissons alors
X
Su = Xv , u A
vu
[
Cn = {u A ; |u| = n, Su = n} , C= Cn
n1
194 Chapitre 7 Modles dynamiques alatoires

Lensemble C (resp. Cn ) est constitu des artes de larbre (respectivement des artes
de larbre la profondeur n), qui sont ouvertes et relies la racine (le centre de la
pierre) par des artes ouvertes. Notons que le centre de la pierre sera mouill si et
seulement si C est infini.

Ce modle est un modle de branchement. Le cardinal Zn = |Cn | de Cn est la


taille de la population des descendants de la nime gnration de lanctre (ici, la
racine de larbre). La loi de reproduction est une loi binomiale B(2, p), puisque dun
noeud de larbre partent 2 canaux en direction de leau : ce noeud aura donc 0,1 ou 2
SaU
enfants avec probabilit (1 p)2 , 2p(1 p), ou p2 .I Q
E
fonction gnratrice vaut donc
N
ECH
2
g(x) = (1 p + px) comme nous lavons vu prcdemment. Lensemble dextinction
correspondant est {|C| < }. LY T
O
aO
Lquation g(x) = x C pour
EP
L racines dans [0, 1] :

(i) si p 1/2 , x = 1
2
1p

(ii) si p > 1/2 , x = v et x = 1 avec v = < 1.
p
U E
NIQ
ECH
Daprs ltude prcdente, nous concluons que :
Y Tartes ouvertes connectes au centre par
(i) si p 1/2, lensemble alatoire C Ldes
O
P
L E est fini avec probabilit un. Le centre de la pierre
un chemin dartes ouvertes,
restera sec.
CO
(ii) si p > 1/2, avec probabilit strictement positive, lensemble C est infini et leau
cheminera jusquau centre de la pierre.
Nous pouvons aussi montrer que dans ce cas, avec probabilit un, leau atteint un
nombre infini de noeuds de larbre : si elle ne chemine pas ncessairement jusquau
E
QU
centre, leau atteint cependant des points voisins du centre.
NI
C H
ECe terme voque le percolateur
O L Y Tles
Dans le cas p > 1/2, on dit quil y a percolation.
E P
caf, o leau se fraie un passage (percole) entre particules de caf moulu jusqu
L
CO
la tasse.

7.3 Files dattente

Les modles de files dattente dcrivent des units de service o se prsentent des
clients selon un flux alatoire : un serveur son guichet, un standard tlphonique,
un canal de transmission, etc, jusquaux cas plus complexes des rseaux de communi-
cation (ethernet, internet, . . . ). Nous nous intressons la fluidit du fonctionnement
de lunit (stabilit de la queue, taille, engorgement) en fonction du flux darrive et
de la dure de service.
7.3 Files dattente 195

7.3.1 Un modle simple en temps discret

chaque instant n N, un serveur unique dlivre un service de dure 1 au premier


client ventuellement en attente. Le flot darrive des clients est homogne, et les
nombres Yn de clients se prsentant dans les intervalles de temps ]n 1, n] sont
des variables alatoires entires de mme loi, que lon supposera indpendantes et
intgrables. Le nombre Xn de clients prsents dans la queue linstant n N, qui est
donc la taille de la file dattente, volue selon la dynamique suivante :
E
IQU
si Xn = 0 alors Xn+1 = Yn+1 , et
si Xn 1 alors Xn+1 = (Xn 1) + Yn+1 . N
Notant a+ = max{a; 0} la partie positive T EdeC Ha R, Xn satisfait donc la relation de
Y
rcurrence POL
LE
C OXn+1 = (Xn 1)+ + Yn+1 , nN (7.3.1)

qui la dtermine entirement en fonction des Yn et de ltat initial X0 que lon sup-
posera indpendant de la suite (Yn )n .
E
i) U
Si q est la loi commune des Yn , cest--dire que P(YnN=I Q = q(i) pour i N, la loi
H
L Y T C
conditionnelle de Xn+1 sachant Xn est donneEpar

P O q(j)

O L E si i = 0 ,
C
P(Xn+1 =
j | Xn = i) =
q(j i 1) si i 1
(7.3.2)

(on convient que q(i) = 0 si i


/ N).

Pour le bon fonctionnement de la file dattente, il est ncessaire que la file ne sengorge
UE
pas. Nous tudions tout dabord la finitude de la variable alatoire
NIQ
T0 = min{n 1 ; Xn = 0}
YT ECNH
{+} ,
O L
P Remarquons que T0 = + si Xn > 0 pour
qui est le premier instant o la file se vide.
O LE
tout temps n 1.
C
Ici et dans toute la suite, pour i N, la notation Pi dsignera la loi de la file dattente
partant de ltat initial constant X0 = i, cest--dire une probabilit sur lespace de
probabilit telle que
Pi (X0 = i) = 1.

Remarquons que si la file dmarre vide (X0 = 0) ou avec un client en attente (X0 = 1),
alors elle sera la mme linstant 1, et donc aussi aux instants ultrieurs, de sorte
que nous avons
P0 (T0 < ) = P1 (T0 < ).
Appelons v cette probabilit que la file se vide : v := P0 (T0 < ) = P1 (T0 < ).
196 Chapitre 7 Modles dynamiques alatoires

Puisque trivialement a+ a, il rsulte de (7.3.1) que Xn+1 Xn 1 + Yn+1 , pour


tout n 0, et par sommation,
n
X
Xn Yk n + X0 . (7.3.3)
k=1

Nous en dduisons que


n
Xn 1X X0
Yk 1 + . (7.3.4)
n n n E
k=1
IQU
Or, la loi des grands nombres montre que, C HN
avec probabilit 1,
LY Tn E
O
Plim 1
LE
X
Y = E(Y1 ).
CO
k
n n
k=1

Ainsi, presque-srement, lim inf n Xnn va tre suprieure E(Y1 ) 1. Le signe de cette
diffrence va donc jouer un grand rle. Rappelons que le paramtre = E(Y1 ) repr-
sente la charge moyenne de travail par unit de temps pour le serveur.
I Q UE
Lorsque E(Y1 ) > 1, la file dattente est instable,C
E HN
elle sengorge :
LY T
:= E(Y1 ) > 1 = lim
P OX n = + avec probabilit 1 .
E n
O LT0 , nous avons (Xn 1)+ = Xn 1 et
Dautre part, tant quenC < donc ga-
lit dans (7.3.3). Nous en dduisons que lorsque < 1, le membre de droite de
(7.3.3)
n tend vers daprs la loi des grands nombres, et lvnement {T0 = }
Yk n + X0 1, n 1 est de probabilit nulle. Ainsi la file reste stable dans
P
k=1
ce cas :
E
:= E(Y1 ) < 1 = T0 < avec probabilit Q U1 .
NI
C Hle rsultat plus prcis suivant.
Le cas critique = 1 est plus difficile. Il est dcritEpar
O LYT
P
LE
7.3.2 CO
Stabilit : tude analytique

Thorme 7.3.1 La probabilit que la file dattente (7.3.1) dmarrant de X0 = 0 ou


1 finisse par se vider, qui vaut
v := P0 (T0 < ) = P1 (T0 < ),
est la plus petite solution de g(v) = v dans [0, 1], o g est la fonction gnratrice de
Y1 ,
 X i
g(x) = E xY1 = x q(i) .
i1

En particulier, v = 1 si et seulement si = E(Y1 ) 1.


7.3 Files dattente 197

Preuve. Chaque priode dactivit du serveur peut se dcrire laide dun processus
de branchement. La file dmarrant de X0 = 1, le client prsent linstant n = 0
est lanctre du processus de branchement. Ses enfants sont les Y1 clients arrivant
dans la file pendant son service ; ils constituent la premire gnration (Z1 = Y1 ).
Plus gnralement, le client C2 est un enfant du client C1 si C2 arrive dans la
file pendant le service de C1 . Nous dfinissons rcursivement la (N + 1)-ime gn-
ration comme lensemble des enfants dindividus de la N -ime gnration. Les tailles
Z0 = 1, Z1 , Z2 , . . . ZN des gnrations successives constituent alors un processus de
branchement dont la loi de reproduction est q = (q(i), iE N ). Nous pouvons crire
U
Z0 = 1, Z1 = Y1 , et pour N 0
H NIQ
EC
LY T
X
ZN +1 = Yk , (7.3.5)
PZO+...+Z
OLE
0 N 1 kZ0 +...+ZN 1

C
que la somme sur lensemble vide est 0). En particulier, Z2 =
(avec la convention
PZ1
k=1 Yk .

Lexpression (7.3.5) nest pas exactement de la forme (7.2.4) trouve pour le modle
de branchement, mais elle dfinit bien la mme loi. ParI Q U E la probabilit
exemple,
N
T E CH
Y i
!
P(Z1 = i, Z2 = j) = P(Z2 = j|Z1P= L 1 = i) = P(Y1 = i) P
Oi)P(Z
X
Yk = j
LE
CO
k=1

est la mme pour (7.3.5) et pour (7.2.4). Plus gnralement, la suite (ZN , N 1) a
mme loi que le processus de branchement. Nous dcrivons ainsi toute la priode dac-
tivit du serveur, cest--dire la priode de service ininterrompu dbutant au temps
n = 0.

Le processus de branchement Z steint si et seulement siI Q la U


E
file finit par se vider.
H N
Si A dsigne lvnement alatoire le processus deCbranchement Z steint , alors
T
la probabilit v que la file se vide est galeLY
E
v = P1 (T0 < ) = P(A). Daprs le
E
thorme 7.2.4, v est donc la plus petiteP Osolution dans [0, 1] de lquation v = g(v).
De mme, v = 1 1. C O L

Ainsi le serveur finit par se reposer si 1. Il y a cependant une diffrence importante
entre les cas < 1 et = 1. Remarquant que la taille totale de la ligne est gale
la dure de la priode dactivit, soit
X
ZN = T 0 ,
N 1

et rappelant que E(ZN ) = ((E(Y1 ))N = N , nous constatons que la dure moyenne
de la priode dactivit nest finie que si < 1

E(T0 ) < = E(Y1 ) < 1 .


198 Chapitre 7 Modles dynamiques alatoires

Le cas = 1, stable au sens o v = 1, ne lest que dans un sens faible puisque la dure
moyenne de la priode dactivit est infinie. Le serveur dans ce cas doit sattendre
des journes de travail ininterrompu, et au mcontentement de ses clients en attente
dans la file ! 

Preuve. Voici une autre preuve du thorme 7.3.1, qui nutilise pas le processus de
branchement.
E
Y1N
(i) En conditionnant suivant les valeurs deH
IQU
C
O LYTE
E P
PL
X

CO
1 (T0 < ) = P1 (T0 < , Y1 = i)
i0
X
= P1 (T0 < | Y1 = i) q(i)
i0

I Q UE
N < ) q(i) .
X
C Hi 0
= q(0) + P (T (7.3.6)
Y T E
i1

POL
LE
Otant indpendants et de mme loi, la loi de (X2 , X3, . . . )
En effet, les (Yk , kC1)
conditionne en X1 = i (ou Y1 = i) est la mme que celle de (X1 , X2 , . . . )
dmarrant de X0 = i.
Introduisons, pour tout i N, le temps datteinte Ti de ltat i, dfini par
Ti = min {n 1 : Xn = i}. Montrons que lon a :

IQ UE
C HN
T<E)
Pi (Ti1 < ) = v i 1 , (7.3.7)
L Y
E P O i2
Pi (T0 < ) = Pi (Ti1 < ) Pi1 (T . . . P1 (T0 < ) . (7.3.8)
L
CO
Pour montrer (7.3.7), nous remarquons que pour la file commenant i 1,
Ti1 = n si et seulement si

n = min {k 1 : i + (Y1 1) + . . . + (Yk 1) = i 1}

= min {k 1 : Y1 + . . . + Yk = k 1} .

Ainsi Pi (Ti1 = n) ne dpend pas de i, et donc Pi (Ti1 = n) = P1 (T0 = n), ce


qui entrane que Pi (Ti1 < ) = v, en sommant sur n. Nous tablissons (7.3.8)
par rcurrence, en montrant que Pi (T0 < ) = Pi (Ti1 < ) Pi1 (T0 < ),
7.3 Files dattente 199

i 2. Pour cela nous crivons



X
Pi (T0 < ) = Pi (T0 < , Ti1 = `)
`=1
X
= Pi (T0 < | Ti1 = `) Pi (Ti1 = `)
`=1

UE
X
= Pi1 (T0 < ) Pi (Ti1 = `)
IQ
HN
`=1

TEC
)LY Pi (Ti1 = `) = Pi1 (T0 < ) Pi (Ti1 < )
= Pi1 (T0 < O
X
P
LE
CO
`=1

par un argument analogue celui utilis dans (7.3.6). En utilisant (7.3.7), (7.3.8)
et le fait que P1 (T0 < ) = v, (7.3.6) se transforme en
X
v = q(0) + v i q(i),
U E
NIQ
x1
H
et la relation v = g(v) est dmontre. T E C
(ii) Nous avons vu dans ltude du P LY
Oprocessus de branchement que lquation z =
L E
C OPour complter la preuve, il suffit donc de montrer que
g(z), z [0, 1], admet z = 1 pour unique solution si 1, et deux solutions
z 0 < 1, z 00 = 1 sinon.
v z si z est un point fixe positif de g. De faon analogue (7.3.8), (7.3.7),
nous avons

Pi (T0 n) Pi (Ti1 n) Pi1 (Ti2 n) . . . P1 (T0 n) ,

IQ UE
HN
Pi (Ti1 n) = P1 (T0 n) ,
C
O LYTE
et, de faon analogue (7.3.6), nous avons
EP
P1 (T0 nO+L1) = q(0) +
X
Pi (T0 n) q(i) .
C i1

Il en rsulte que vn = P1 (T0 n) vrifie


X
vn+1 q(0) + vni q(i) = g(vn ) .
i1

Mais v0 = 0 z et par un argument de rcurrence, nous en dduisons que


vn g(z) = z puisque g est croissante sur [0, 1]. Le rsultat dsir en dcoule :

v = P1 (T0 < ) = lim P1 (T0 n) = lim vn z .


n n

200 Chapitre 7 Modles dynamiques alatoires

7.4 Suites rcurrentes alatoires discrtes

Ce paragraphe unifie les modles tudis prcdemment.

7.4.1 Probabilits de transition

Dfinition 7.4.1 Soient E, F deux espaces dnombrables, E et f : E F E une


I Q U indpendantes et de mme
fonction. Soit Un : F une suite de variablesNalatoires

YT E C Hpar rcurrence par


loi. Les variables alatoires Xn : E dfinies
O L
Xn+1P= f (Xn , Un+1 )
OLE
, nN (7.4.1)
C
forment une suite appele suite rcurrente alatoire.

La valeur initiale X0 sera choisie dterministe ou alatoire et indpendante de


(Un , n 1). UE
H NIQ
tion de rcurrence L Y T E Cest lvolution dcrite par une qua-
Lanalogue dterministe dune telle suite alatoire
O = f (x )
Pxn+1
O L E n
C
homogne en temps. Cette dpendance au premier ordre se traduit dans le cas alatoire
par la proprit de Markov.

Proposition 7.4.2 Pour tout n, la loi de ltat futur Xn+1 ne dpend du pass
(X1 , . . . , Xn ) jusquau temps n, que par ltat prsent Xn . Cette proprit scrit
E
en terme de probabilits conditionnelles
NIQU
C H
P(Xn+1 = i | X0 = i0 , X1 = i1 , . . . , Xn = inT)E (7.4.2)
O LY = P(Xn+1 = i | Xn = in ),
pour tous n N, i0 , . . . in , i E. L E
P
C O
Dfinition 7.4.3 Une suite (Xn )nN vrifiant la proprit (7.4.2) est appele une
chane de Markov.

Preuve. La dfinition (7.4.1) entrane que


X
P(X0 = i0 , . . . , Xn = in , Xn+1 = i) = P(X0 = i0 , . . . , Xn = in , Un+1 = j) .
j: f (in ,j)=i
(7.4.3)

Or les variables X0 , . . . , Xn ne dpendent que de X0 , U0 , . . . , Un , elles sont ind-


pendantes de Un+1 et le terme gnral du second membre de (7.4.3) est gal
7.4 Suites rcurrentes alatoires discrtes 201

P(X0 = i0 , . . . , Xn = in ) P(Un+1 = j). Par dfinition des probabilits conditionnelles,


nous en dduisons
X
P(Xn+1 = i | X0 = i0 , . . . , Xn = in ) = P(Un+1 = j) . (7.4.4)
j: f (in ,j)=i

En sommant dans (7.4.3) sur i0 , . . . , in1 , nous obtenons par le mme argument que
le membre de droite de (7.4.4) est aussi gal P(Xn+1 = i | Xn = in ). 

E
N IQU
Plus gnralement, tout le futur (Xn+k , kEC0) Hdune chane de Markov ne dpend de
Y T
POL
lhistoire (X0 , . . . Xn ) que par ltat prsent Xn . Les probabilits
L E
C O Q(i, j) = P(Xn+1 = j | Xn = i) (7.4.5)

dcrivent la loi dvolution de la suite entre deux temps successifs. On les appelle
probabilits de transition.
U E
H NIQ
EdeCX0 et des probabilits de transition
LY T Plus prcisment, si X0 est de loi p(),
Proposition 7.4.4 La connaissance de la loi
Q(i, j) suffit caractriser la loi dePlaOchane.
alors
C OLE
P(X0 = i0 , X1 = i1 , . . . , Xn = in ) = p(i0 ) Q(i0 , i1 ) Q(i1 , i2 ) . . . Q(in1 , in ) .

Preuve. Nous avons


E
P(X0 = i0 , X1 = i1 , . . . , Xn = in )
N IQU
, . .H
= P(X0 = i0 , X1 = i1 , . . . , Xn = in | X0 = i0C
TE
. , Xn1 = in1 )
P(X0 = i0 , . . . , Xn1 = in1 )O LY
P
. ,EXn1 = in1 | X0 = i0 , . . . , Xn2 = in2 )
. .L
= Q(in1 , in ) P(X0 = i0 ,O
C
P(X0 = i0 , . . . ,Xn2 = in2 ).

Nous obtenons le rsultat en itrant le raisonnement. 

Exemples :

1. Promenade alatoire : une particule se dplace sur le rseau Zd en progressant


au hasard chaque instant n, dun vecteur Un+1 et sa position Xn linstant
n est donne par
Xn+1 = Xn + Un+1
202 Chapitre 7 Modles dynamiques alatoires

avec les Un indpendants et de mme loi q(). Dans ce cas,

Q(i, j) = P(Xn+1 = j | Xn = i)
= q(j i)

Une variante intressante est de supposer que la particule est absorbe lorsquelle
sort dun domaine D Zd . Dans ce cas,

UXEn 1Xn D
Xn+1 = (Xn + Un+1 ) 1Xn D +
N IQ /

ECH
Y T Les questions importantes sont alors : la
ce qui est encore de la forme (7.4.1).
P
particule finit-elle par treO L
absorbe ? Quand et o est-elle absorbe ?
L E
C O est de supposer que la particule est confine dans D, avec
Une autre variante
rflexion au bord. Par exemple en dimension d = 1, avec D := N Z, on a

Xn+1 = |Xn + Un+1 | .


U E
2. Dans le modle de file dattente (7.3.1), on aH NIQ
L Y T E C+
P O= (Xn 1) + Yn+1
Xn+1
E
O L
C
(7.3.2).
et Q est donne par
3. Pour le processus de branchement, ZN +1 = Z
P N N N
i=1 Yi , o Yi est le nombre
denfants issu du i-me individu de la N -ime gnration, est bien de la forme
(7.4.1).
E chaque instant
I Q U des demandes Un+1
4. Un modle dinventaire : Le stock dun entrept est reprsent
n N par une v.a. entire positive Xn . La clientle N effectue
entre les instants n et n + 1, (n N) que Tlon
H
E Csuppose tre des variables ala-
L Y
E P O
toires entires positives indpendantes et de mme loi (q(i), i N). La politique
L
de rapprovisionnement consiste, chaque instant pour lequel Xn a, r-
CO
n
approvisionner au niveau b (0 < a < b), ce qui se fait instantanment. Sous ces
hypothses, nous pouvons crire que

Xn+1 = (Xn Un+1 )+ si Xn > a ,


= (b Un+1 )+ sinon ,

tant entendu que toute demande Un nest satisfaite que dans les limites du
stock.
La suite (Xn , n N ) est une chane de Markov de la forme (7.4.1). Nous pouvons
nous intresser au comportement asymptotique (n ) de la loi de Xn , la
frquence des rapprovisionnements ncessaires (vnements {Xn a}) et
celle des ruptures de stock (vnements {Xn = 0}).
7.4 Suites rcurrentes alatoires discrtes 203

7.4.2 Stabilit

Ltude de la stabilit des suites rcurrentes dterministes xn+1 = f (xn ) passe par
ltude des points fixes de f (les points x tels que x = f (x)), et des cycles limites.
Lquation analogue pour les suites alatoires de la dfinition 7.4.1 est X a mme loi
que f (X, U ) o lon suppose que X et U sont indpendantes. Ici, U est une variable
alatoire de mme loi que U1 . Cette quation ne porte pas sur la variable X, mais sur
sa loi, que lon appelle loi invariante.
E
IQU
N probabilit invariante pour la
Dfinition 7.4.5 La probabilit sur E estHdite
T E C
O LY
suite rcurrente alatoire si
P
C O L E de U f (X, U ) suit la loi .
X indpendante
X de loi
Dans ce cas, si X0 est de loi , alors X1 = f (X0 , U0 ) est de loi et par consquent Xn
a pour loi la loi . La suite se trouve alors dans un tat stationnaire. En particulier
elle dcrit un phnomne stable. UE
IQ
N
T
Pour tudier la stabilit dune suite, onYchercheraECH
dventuelles probabilits inva-
O L de probabilits de transition.
riantes. Voil un premier critre enPterme
LE
CO
Proposition 7.4.6 Laprobabilit sur E est invariante si et seulement si :
X
(i) Q(i, j) = (j) , j E .
iE

Preuve. En effet, si X est indpendant de U et de loi ,


E
=U
P(f (i, U ) = j , XI Q
X
HN
P(f (X, U ) = j) = i)
EC
LY T
iE

P OP(f (i, U ) = j) (i)


X
=
O L E
C
iE
X
= Q(i, j) (i)
iE

daprs (7.4.4) et (7.4.5). Ceci montre la proposition. 

Exemple 7.4.7 Modle de diffusion dEhrenfest. Dans deux enceintes spares par
une paroi poreuse sont rparties N molcules de gaz. chaque unit de temps une
molcule choisie au hasard change denceinte.
(i) Vision microscopique : ltat du systme est reprsent comme un vecteur dans
{0, 1}N , la iime composante valant 0 et 1 selon que la iime particule est dans
204 Chapitre 7 Modles dynamiques alatoires

lenceinte de droite ou dans celle de gauche. Le systme effectue alors une pro-
menade alatoire sur le cube {0, 1}N dite au plus proche voisin : chaque
instant, le systme saute dun sommet du cube lun des N sommets voisins.
La probabilit uniforme sur {0, 1}N est une probabilit invariante.
(ii) Vision macroscopique : les particules sont indistinguables. Le systme est alors
reprsent linstant n par le nombre Xn de particules dans lenceinte de gauche.
Le mcanisme dvolution se traduit ainsi : introduisons une suite de variables
alatoires (Un , n 1) indpendantes de loi uniforme sur {1, 2, . . . N }. Nous
E
IQU
posons
Xn + 1H N
(
si Un+1 > Xn
Xn+1 = T E C
PO LY Xn 1 si Un+1 Xn
L E
C O(7.4.1). Ses probabilits de transition sont pour i {0, . . . N },
qui est de la forme

i i
Q(i, i + 1) = 1 , Q(i, i 1) =
n n
et Q(i, j) = 0 sinon. Lespace dtat est lespace fini
I Q UEE = {0, . . . N }, et aucune
H N les probabilits invariantes
instabilit ne peut se produire. Plutt que de C chercher
T Erapide
laide de la proposition 7.4.6, il estYplus dutiliser lexercice 7.5.8 (ii), et
P
de chercher les solutions de (i)O L j). Nous trouvons aisment
LE
Q(i, j) = (j) Q(i,
que (j) = nj (1/2)CNO , cest--dire que est la loi binomiale B(N, 1/2).

7.5 Exercices sur le chapitre 7


E
I
SnNdonne
EXERCICE 7.5.1 On considre la marche alatoireH
QU
par (7.1.1). On d-
finit les vnements TE C
P O LY
| SLn E
Am = {nO = 0 , Si < m i < n}
C
o la marche visite 0 avant m, (m k + 1), et

A = {n | Sn = 0}

o la marche visite 0.
1) Montrer que la probabilit P(Am ) est donne par (7.1.4) ou (7.1.5), selon que
p 6= 1/2 ou p = 1/2.
2) Montrer que Am Am+1 et calculer la probabilit P(Am ).
m

3)) Montrer que A = Am . Quen dduire ?


m
7.5 Exercices sur le chapitre 7 205

EXERCICE 7.5.2 Dduire de la proposition 7.2.1 P que pour des variables alatoires Xi
et N indpendantes et de carr intgrable et SN = Ni=1 Xi ,

E(SN ) = E(N )E(X) , V ar(SN ) = V ar(N )(E(X))2 + E(N )V ar(X) ,

o E(X) et V ar(X) dsignent respectivement les esprance et variance communes


aux Xi . Comment scrivent ces formules lorsque N est dterministe ?

E
EXERCICE 7.5.3 Si N, X1 , X2 , . . . sont des variables
N I Q U alatoires strictement posi-
E C H la mme loi gomtrique sur N des-
tives indpendantes, si N suit une loi gomtrique sur N desprance a avec a > 1
Y
(P(N = k) = a1 (1 a1 )k ), et si les X iTsuivent
prance b (b > 1), montrer E ONL= PNi=1 Xi suit une loi gomtrique desprance
queP S
L
ab.
CO
EXERCICE 7.5.4 Nous considrons un processus de Galton-Watson (Zn )n cri-
tique : sa loi de reproduction est desprance E(Y ) = 1. Nous supposons que Y est
de carr intgrable et nous notons g sa fonction gnratrice.ENous voulons montrer
que N IQU
P(Zn 6= 0) n T E
CH2
O Y
L nE(Y (Y 1))
.

1) Notons m2 = E(Y 2 ) etC =L


aO
EP
m2 1
2 . Montrer, en utilisant un dveloppement limit de
1
g au voisinage de 1, que pour x [0, 1[, 1g(x) 1
= 1x +a+(x), avec limx1 (x) = 0.

1 1
2) Soit gn (x) = g . . . g(x), n fois. Montrer que 1gn (x) = 1x + na + n (x), o
n (x) = n1 j=0 (gj (x)).
P

3) Montrer que 1 gn (x) n 2


n(m2 1) . IQ UE
C HN
En dduire le rsultat.
O LYTE
E P
)nL, (Yn )n , (Zn )n , des suites de variables indpen-
CnO
EXERCICE 7.5.5 Soient (X
dantes quidistribues, prenant les valeurs +1 et 1 avec probabilit 21 .

1) On note n = (Xn , Yn , Zn ), et Sn = nj=1 j , avec par convention S0 = (0, 0, 0).


P

Soit a = (x, y, z) Z3 et Na = 1Sn =a .


P
n0

1-a) Calculer P(Sn = (0, 0, 0)).

1-b) Montrer que


E(N(0,0,0) ) < +.
(Et donc en consquence, P(N(0,0,0) < +) = 1.)
206 Chapitre 7 Modles dynamiques alatoires

1-c) Reprendre le calcul pour a quelconque.

2) Soit r > 0 et Br = {x Z3 , |x| r}. Montrer que le nombre de visites de la


marche alatoire Sn dans Br est presque-srement fini.

En dduire que |Sn | converge vers + presque-srement, pour toute norme |.| sur
R3 .

Comparer avec la marche alatoire simple sur Z.


E
NI QU
E C H
EXERCICE 7.5.6 Soit un processus de branchement (Zn ) tel que Z0 = 1 et soit
(x) la fonction gnratrice de Z1 . OnTsuppose que Z1 est de carr intgrable, et on
O LY
dfinit = E(Z1 ), 2 = V ar(ZP1 ).

1) Rappeler la
formule
OLE
C donnant lexpression de la fonction gnratrice Gn de Zn
en fonction de .

2) Calculer E(Zn ) et V ar(Zn ) en fonction de et de 2 .


U E
NIQ
Y T E C H(Zn , Zm ), n > m, en fonction de
3) Exprimer la fonction gnratrice du couple
Gm et Gnm . OL P
O LE
4) Si Cque
n > m, montrer E(Zn Zm ) = nm E(Zm
2
).

Zn
5) On suppose que > 1. On considre la suite (Wn )n dfinie par Wn = n .

Montrer que pour p > 0, la suite


U E
Q.
E((Wm+p Wm )2 ) converge vers 0 quand mI ()
HN
TEC
LY(*) converge en moyenne quadratique :
On acceptera que toute suite de Cauchy auOsens
2E P
il existe donc une variable W LL telle que Wn converge en moyenne quadratique
CWO)2 ) 0).
vers W . (i.e. telle que E(Wn

Montrer que X
E((Wn W )2 ) < .
n
En dduire que (Wn )n converge presque-srement vers W .

Donner la valeur de lesprance et de la variance de W .


EXERCICE 7.5.7 1) On considre une variable alatoire Y valeurs dans N, de
loi gomtrique dfinie pour p ]0, 1[ par
P(Y = k) = pk (1 p).
7.5 Exercices sur le chapitre 7 207

Calculer la fonction gnratrice de Y . Que vaut lesprance E(Y ) ?

2) Soit (Zn )n un processus de branchement tel que Z0 = 1. On suppose que


1p
E(xZ1 ) = , pour tout x [0, 1[,
1 px
avec p 6= 12 .

E
IQU
Montrer par rcurrence sur n que
n E H
1C
N
x(n1 1)
E(xZ ) = Y
L
n
T ,
P O n+1 1 x(n 1)
O LE
C
p
o lon a pos = 1p .

3) On suppose partir de maintenant que p < 12 . Que vaut dans ce cas la proba-
bilit dextinction de Zn ?
I Q UE
4) Soit prsent (Zn )n un nouveau processusHde Nbranchement tel que Z0 = 1.
E C
Chaque individu vivant donne naissance un
O L Y Tdenombre alatoire de descendants dont

E P
la loi est celle de Z1 . De plus, chaque instant naissance, on augmente la population
L
CO
dun nouvel individu (modle de processus de branchement avec immigration).

4-a) Soit (Zn )n une famille de variables alatoires indpendantes telles que, pour
tout n, Zn a mme loi que Zn . Montrer que Zn a mme loi que 1 + Z1 + . . . + Zn .

4-b) Montrer que


E
= L(x). I Q U
x(1 )
lim E(xZn ) =
1 x H N
n
C
O LYTE
4 - c) Montrer que P
L EZ
C OE(x
lim | Zn > 0) = L(x).
n

n
Quen conclure ?

5) On suppose que la loi de Z1 est donne par

P(Z1 = k) = 2(k+1) , k 0.

Montrer que Z1 suit une loi gomtrique dont on donnera le paramtre.

Montrer par rcurrence que Gn (x) = E(xZn ) vrifie dans ce cas que
n (n 1)x
Gn (x) = .
n + 1 nx
208 Chapitre 7 Modles dynamiques alatoires

En dduire que
Zn

lim E | Zn > 0 = 1.
n n
Quen conclure ?

EXERCICE 7.5.8 Rversibilit.

Soit E un espace dnombrable. Soit Q(i, j) les noyaux de transition dune chane de
Markov sur E, et une probabilit sur E telle que
E
N IQU
Y T E C Hi) i, j E .
(i) Q(i, j) = (j) Q(j,

(i)
E P O L invariante pour la chane.
Montrer que est une probabilit
L
(ii)
O initial X0 est de loi , alors (X0 , X1 )
Montrer que siCltat a mme loi que
(X1 , X0 ). Le processus est alors appel rversible, car sa loi ne change pas lorsque
lon inverse le sens du temps.

U E
NIQ
TE CH
LY
PO
LE
CO

IQ UE
C HN
O LYTE
P
LE
CO
Chapitre 8
IQ UE
C HN
O LYTE
Corrections
CO
L E des exercices
P

8.1 Corrigs des exercices du chapitre I Q UE 2


N
T E CH
Y
P O L Alors
Exercice 2.6.1 : 1) Soit Pn cetteEprobabilit.
L
CO
Pn = 1 P(il nya pas de personnes ayant leur anniversaire le mme jour)
365 364 . . . (365 n + 1)
= 1 .
(365)n

Le calcul donne :
E
IQU
N ; P64 = 0, 997.
H891
T E C365!
P4 = 0, 016 ; P16 = 0, 284 ; P22 = 0, 476 ; P40 = 0,
LY
O que (365n)!(365)
2) Nous cherchons le plus petit entier nPtel 12 . Avec une galit,
L E n

CO
la formule de Stirling donne alors quapproximativement,
1
 n (365+ 2 n)
en 1 = 0, 5.
365
En passant au logarithme et en ne gardant que les termes prpondrants, nous obte-
n2 n
nons 2(365) = 0, 693, do n = 23.

Exercice 2.6.2 : Cette formule se montre par rcurrence sur n. Elle est triviale pour
n = 1. Remarquons que pour n = 2,

P(A1 A2 ) = P(A1 ) + P(A2 ) P(A1 A2 ). (8.1.1)

209
210 Chapitre 8 Corrections des exercices

La formule est donc vrifie puisque dans ce cas, p1 = P(A1 ) + P(A2 ) et p2 = P(A1
A2 ). Supposons que la formule soit vraie pour toute runion de n 1 vnements.
Montrons-la pour n. Posons B1 = A1 . . . An1 et B2 = An . En appliquant (8.1.1)
B1 et B2 et la formule de rcurrence pour calculer P(B1 ) et P((A1 An ) . . .
(An1 An )), nous obtenons immdiatement le rsultat.

Exercice 2.6.3 :
E
Q U parmi les n! possibilits. La
1) Il y a une seule possibilit de bonne remise de Ilettres
1 HN
probabilit de bonne rpartition est donc n!C.
O LYTE
2) Numrotons de 1 n les
O E P et numrotons par les mmes numros les botes qui
Llettres
C
sont censes leur correspondre. Appelons Ai lvnement La lettre numro i arrive
dans la bote numro i. Ainsi, Ai sera ralis si la remise de la lettre i est fixe la
bonne valeur, indpendamment de la manire alatoire dont les n 1 autres lettres
sont distribues. Nous en dduisons que P(Ai ) = (n1)!
n! . De mme, pour deux numros
quelconques i1 et i2 , on aura P(Ai1 Ai2 ) = n! . I Q U E
(n2)!
N
Lvnement E "une lettre au moins Y arrive
CH
T E la bonne adresse" est gal E =
L
P O la formule de Poincar.
A1 An . On peut donc appliquer

On L E
CX X
P(E) = (1)k1 P(Ai1 ... Aik )
k=1 1i1 <...<ik n
n n
X
k1 n (n k)! X (1)k1
= (1) = .
k n! k!
k=1 k=1
E
I Q Uvers 1 e1 ' 0.632.
Remarquons que quand n tend vers linfini, cette quantit tend
N
On se convaincra que pour des valeurs modres EdeCnH(n=7) on est trs proche de
cette limite. LY T
PO
OLE
C lettre narrive destination vaut alors
3) La probabilit pour quaucune
n
X (1)k
P(E c ) = 1 P(E) = ,
k!
k=0

qui tend donc vers e1 = 0, 368 quand n tend vers linfini.

4) dn = n! P(E c ). 

Exercice 2.6.4 : Il est immdiat de montrer que pour tout n N , 0 pn 1 et que


nN pn = 1.
P
8.1 Corrigs des exercices du chapitre 2 211

Exercice 2.6.5 : Notons F et G les vnements "fille" ou "garon".


1. Une configuration possible (F,F) sur 4 configurations : 14 .
2. Une configuration possible sur les 2 configurations (F,F), (F,G) : 12 .
3. Une configuration possible sur les 3 configurations (F,F), (F,G), (G,F) : 13 .

Exercice 2.6.6 : Les probabilits des diffrents gnotypes valent alors, par indpen-
dance
P(AA) = p2 , P(Aa) = 2p q , P(aa) E= q .
2

I QU
H N sera alors
La proportion dallle A dans la deuxime gnration
TEC
Y P(AA) + P(A| individu de gnotype Aa) P(Aa)
O LAA)
P(A) = P(A| individu de gnotype
P
= p2 +
2pq
=Cp,O
LE
2
et de mme la proportion dallle a sera q.

E
Q Ule contraire. Nous savons
Exercice 2.6.7 : Notons H le fait dtre hmophile et INH
N
que
Y T ECH
1 E PO
L 3
1
P(Reine H) =
O L ; P(3 fils NH|Reine H) = ,
C 2 2
par indpendance des naissances. Nous cherchons calculer P(Reine H|3 fils NH).
Nous allons utiliser la formule de Bayes. Nous avons

P( 3 fils NH ) = P( 3 fils NH | Reine H ) P( Reine H )


E NH )
IQU
+ P(3 fils NH| Reine NH ) P( Reine
3
1 1 1 9 CH N
= + = T4E ,
2 2 2LY 2
O
( 12L
EP
CO
3
1
2 ) 1
do P(Reine H|3 fils NH) = 9 = 24
9 = 19 .
24 24

De plus,
P(4me fils H|3 fils NH) = P(4me fils H|3 fils H, Reine H) P(Reine H|3 fils NH) =
1 1 1
2 9 = 18 .

Exercice 2.6.8 : Notons A (resp. B, C) lvnement la Ferrari est derrire la porte


A" (resp. B, C). Soit E lvnement le prsentateur annonce au joueur quelle nest
pas derrire la porte B". On a
1
P(A) = P(B) = P(C) = .
3
212 Chapitre 8 Corrections des exercices

Par ailleurs,
1
P(E|A) = , P(E|B) = 0, P(E|C) = 1
2
En effet, si la voiture est derrire A, le prsentateur a le choix entre B et C, alors que
si elle est derrire C, il na pas le choix puisquil ne peut pas parler de A. Ainsi,
1 1 1 1
P(E) = P(E|A)P(A) + P(E|B)P(B) + P(E|C)P(C) = + = .
2 3 3 2
On en dduit que E
N IQU
P(A E) C H 1
Y T E=
P(E|A)P(A)
P(A|E) = = .
PO L
P(E) P(E) 3
De mme O L E
C P(C|E) =
P(E|C)P(C) 2
= .
P(E) 3
Il faut donc que le joueur rvise son choix.
U E
NIQ
Exercice 2.6.9 : 1)
Y T ECH
PO L
=E
P(E2 F2 ) P(E2 )P(F2 |E2 )
P(E2 |F2 )L
CO
= .
P(F2 ) P(F2 )
+
X n 1
P(F2 ) = P(F2 |En )P(En ) et P(F2 |En ) = .
n=2
2 2n
On a P(F2 |E0 ) = P(F2 |E1 ) = 0.
E
+
n 1 (1 2a) XH N
+ IQU 1
2 TE
C n(n 1) n2 .
X
P(F2 ) = pn =
2 2n 4Y 4
POL
n=2 n=2
E
L de la srie entire Pn xn .
CO
Calcul de la somme : drive seconde
8(12a)
On obtient P(F2 ) = 27 , et
1
p2 4 27
P(E2 |F2 ) = 8(12a)
= ' 0, 42.
64
27

P(G2 F2 )
2) On calcule P(G2 |F2 ) = P(F2 ) .

1 4 1 3(1 2a)
P(G2 F2 ) = P(E4 )P(G2 F2 |E4 ) = (1 2a) 3 = .
2 2 24 64
8.1 Corrigs des exercices du chapitre 2 213

81
P(G2 |F2 ) = ' 0, 158.
512

Exercice 2.6.10 : Remarquons que les vnements alatoires Ak sont indpendants.


Ainsi, par le lemme de Borel-Cantelli 2.5.14, P(lim supk Ak ) sera gale 0 ou 1 suivant
que la srie de terme gnral P(Ak ) converge ou diverge. La ralisation de Ak entrane
lexistence dun nombre i {2k , . . . , 2k+1 k} tel que les lancers i, i + 1, . . . , i + k
donnent tous Face. En appelant Ak,i cet vnement, nous obtenons
E
2k+1
Xk N I Q Uk k k
P(Ak,i ) = (2C k H
YTE
P(Ak ) k + 1) p 2 p .
i=2k
P O L
OL
Donc, si p < 21 , nous en E
dduisons que la srie
P
P(Ak ) converge, et par le lemme
C
de Borel-Cantelli, que P(lim supk Ak ) = 0.
k

Nous allons maintenant montrer que si p 12 , la srie diverge. Dcoupons


E k, {2k , . . . , 2k +
k
{2k , . . . , 2k+1 1} en peu prs 2k morceaux de longueur
Q U
I tous les lancers du ime
HN
k k
k}, . . . , {2 + k + 1, . . . , {2 + 2k}. Notons Bk,i lvnement
morceau donnent Face. Alors E C
L Y T
P O

2k
P(Ak ) P i L E{1, . . . , ; Bk,i est ralis .
CO k
Or les Bk,i ne concernent pas les mmes lancers et sont donc indpendants. Nous
avons alors
 2k  (2p)k
P(Ack ) P i Bk,i
c
est ralis = (1 pk ) k k e k ,


E P(Ak ) 1
puisque pk 0 quand k tend vers linfini. Ainsi, pour k assezUgrand,
IQ
pour une constante arbitraire proche de 1.C H N
(2p)k
Ce
YTE
k

k
P O L
Si p > 1 (2p)
2, E
et donc P(Ak ) >
L
1

CO
k 2

Exercice 2.6.11 : Remarquons que si p et q sont des nombres premiers, alors pNqN =
pqN. Par ailleurs, si cette probabilit existe, nous aurons
1
P(pqN) = = P(pN) P(qN).
pq
Les P
vnements pN et qN sont donc indpendants, et de mme pour toute suite finie.
Or p premier P(pN) = + (srie harmonique), et donc par le lemme de Borel-
Cantelli, nous avons que P(lim supp premier pN) = 1. Ce qui voudrait dire que P-
presque srement tout nombre entier serait multiple dune infinit de nombres pre-
miers, et en particulier que lensemble des nombres entiers multiples dune infinit de
nombres premiers serait non vide, ce qui est faux.
214 Chapitre 8 Corrections des exercices

8.2 Corrigs des exercices du chapitre 3


k
Exercice 3.7.1 : Pour k 1, P(X = k) = (k+1)! . Nous en dduisons que E(X) = e 1
et V ar(X) = 3 e e2 .

Exercice 3.7.2 : Nous pouvons crire : X = kN 1k<X . Ainsi,


P


U E
! !
I Q
X X X X
E(X) = E 1k<X = pP N1
H k<X = p = p P(X = p),
kN
Y T E CkN
p=0 p=0
L
P O de Fubini pour les sries doubles de termes positifs.
o nous avons appliqu le thorme
L E
CO
P 3.7.3 : Soit Xi le nombre de blesss dans le i-me accident. Nous avons
Exercice
Y = N i=1 Xi . Ainsi, pour s [0, 1[,
 PN  X  PN
XU E
Q

GY (s) = E(sY ) = E s i=1 Xi = I
E s i=1 i
| N = k
N
P(N = k)
k CH
T E
LY
X
X1 Xk
. . . E sO
 
= E s P(N = k),
P
k
O LE
C
par indpendance des variables alatoires N, X , Xk . Nous en dduisons que
1, . . .
X
GY (s) = P(N = k) (GX (s))k = GN (GX (s)).
k

1 et G0Y (1) = E(Y ),


Ainsi, en drivant cette formule en 1 et en utilisant que GX (1) = E
0 0
GX (1) = E(X), GN (1) = E(N ), nous obtenons IQ U
E C HN
T
O LY
E(Y ) = E(N ) E(X) = m .
P
De mme, en drivant de nouveau
C O LlaE fonction gnratrice, nous pouvons en dduire
la variance de Y . Tous calculs faits, nous obtenons

V ar(Y ) = V ar(N ) (E(X))2 + E(N ) V ar(X) = 2 2 + m 2 .

Exercice 3.7.4 : a) Nous savons que S suit la loi de Poisson de paramtre +, comme
somme de variables alatoires indpendantes, de loi de Poisson de paramtres et .

b) La loi conditionnelle de X sachant S = n (n 0) est par dfinition


k nk
pX,S (k, n)

X|S=n n
pk = =
pS (n) k + +
8.2 Corrigs des exercices du chapitre 3 215

X|S=n
 
pour k [0, n] entier, et pk = 0 sinon. Cette loi est la loi binomiale B n, .
+

On peut alors calculer E(X | S = n) en utilisant (3.6.5), mais il est plus rapide duti-
liser la valeur np de lesprance dune variable de loi B(n, p) (voir (3.5.4)). Ainsi,

E(X | S = n) = n , ou encore
+


E(X | S) = S .
+
IQ UE
C HN
O LYTE
P
E lois de Z, Y , et X :
Exercice 3.7.5 : Calculons les
L
CO
Pk e2 2k
Loi de Z : P(Z = k) = n=0 pk,n = k! . Cest une loi de Poisson de paramtre 2.

Loi de X : P(X = n) =
P
pk,n = e1,04 (1,04)n
I.Q U Eune
Cest loi de Poisson de
N
ECH
k=n n!
paramtre 1, 04.
O L YT
P Z et X ne sont pas indpendantes puisque
LE
Nous remarquons immdiatement que
C O
P(Z= k) P(X = n) 6= P(Z = k; X = n).

Loi de Y = Z X :

e0,96 (0, 96)m


E .
I Qm!U
X
P(Y = m) = P(Z = X + m) = pn+m,n =
HN
TEC
n

Cest une loi de Poisson de paramtre L


0, 96. Y
PO
LE
Nous observons que que
CO
P(X = n; Y = m) = P(Z = n + m ; X = n) = P(X = n) P(Y = m).

Les v.a. X et Y sont indpendantes.

Loi conditionnelle de X sachant Z = k : pour tout 0 n k, nous avons



P(X = n; Z = k) k
P(X = n|Z = k) = = (0, 52)n (0, 48)kn .
P(Z = k) n

La loi conditionnelle de X sachant Z = k est donc une loi binomiale B(k; 0, 52). Son
esprance vaut donc E(X|Z = k) = 0, 52 k, et E(X|Z) = 0, 52 Z.
216 Chapitre 8 Corrections des exercices

Exercice 3.7.6 :

1)

P(Xn 6= Xn1 ) = P(Xn = 0, Xn1 = 1) + P(Xn = 1, Xn1 = 0)


= (1 p)p + p(1 p) = 2p(1 p).

Par ailleurs,
En = 1, Xn1 = 0, Xn+1 = 0)
N I+ U
P(An An1 ) = P(Xn = 0, Xn1 = 1, Xn+1 = 1) Q P(X
2 2
= p (1 p) + p(1 p) = p(1H p).
EC
O LYT
P
Ainsi
LE
CO 1
P(An An1 ) = P(A ) P(A
n n1 ) p(1 p) = 4p2 (1 p)2 p = .
2
Cette condition est suffisante pour avoir lindpendance de la suite (An )n . En effet, ds
que les indices k et n sont distants de plus dune unit, AkU etEAn sont indpendants,
I Q
HN
par dfinition, car les variables alatoires Xn le sont.
TEC
=YXn1 ; Xn1 6= Xn ) = pn1 (1 p) + p(1
. .L
2-a) For n 2, P(T = n) = P(X1 = .O
P
p)n1
. LE
CO
2-b) P(T < ) = P(n2 {T = n}) = (1 p) pn + p n1 (1 p)n = 1.
P P
n1

3)
X
UE
P((XT , XT +1 ) = (0, 1)) = P((Xn , Xn+1 ) = (0, 1); T = n)
IQ
HN
n2

XC
. .E
X
= P(X1 = . T n1 = 1, Xn = 0, Xn+1 = 1)
Y
n2
E POL n
= L (1 p)p
C O n2
X
= p2 .

Puisque nous avons galement P((XT , XT +1 ) = (1, 0)) = (1 p)2 , ces deux quantits
sont gales si et seulement si p = 12 .

Exercice 3.7.7 :

1) Remarquons que {Up (x) = n} = {x = pn y, y N , premier avec p}. Ainsi,


X X c c X 1
Q(Up = n) = Q(pn y) = = .
y;yp=1 y;yp=1
p2n y 2 p2n y;yp=1
y2
8.2 Corrigs des exercices du chapitre 3 217

P
Mais Q(U = n) = 1, do c P 1
y;yp=1 y 2 = 1. Ainsi Kp =
1
P P
n=0
p n=0 p2n

y;yp=1 y 2

vrifie cKp 11 1 = 1, et cKp = 1 p12 . Finalement, Q(Up = n) = 1 p12 p2n 1
.
p2

c 1 1 1
2) Q(Up n) = Q({x = pn y, y N }) = = car c = 1,
P P
p2n yN y 2 p2n yN y 2
puisque Q est une probabilit.

3) Comme ci-dessus,

Q(Up1 n1 , . . . , Upk nk ) = Q(x, x Q =U pn1E . . . pnk k y, y N )


I
1

N
T=E C H2n 1 2n .
PO LY p1 1 . . . pk k
LE
Ainsi
Op
les vnementsC{U
1 n1 }, . . . , {Upk nk } sont indpendants. Il en est de
mme des vnements {Up1 = n1 }, . . . , {Upk = nk }, et donc des variables alatoires.

p2 1 1
4) Le calcul donne G(x) = p2 x , pour x [0, 1]. Il en rsulte E(Up ) = p2 1 et
UE
2
p
V ar(Up ) = (p2 1)2 .
N IQ
YT ECH
Exercice 3.7.8 : P O L
LE
CO
1-a) Cest vident.

1-b) La condition suffisante P


est immdiate.P
Elle est ncessaire car 0, ne sannule
quen 0 ou en 1, et H(p) = i (pi ) avec i pi = 1.

1-c) On utilise le rappel avec lingalit inverse car est concave.


 1  QUE
1X
n
(pi )
1 Xn 
I
pi = H N .
n i=1 E C n
YT
n i=1
  POL
1 E
Donc H(p) = i=1 (pi ) n O L
Pn
  C n = ln n. Lgalit a lieu si et seulement si p =
1 1
n, . . . , n car est strictement concave.

Linterprtation des deux proprits prcdentes est la suivante : lentropie quantifie


lincertitude sur ltat p. Dans le cas extrme o p est une mesure de Dirac, lentropie
est nulle. Elle est maximale quand tous les tats ont la mme probabilit n1 .

2-a) Observons que ln Z(0) = ln n.

() +
2-b) On a (0 ) 0 si U () > U ( 0 ). Nous en dduisons que quand tend
vers linfini, devient une probabilit uniforme sur lensemble min := {; U () =
min U }.
218 Chapitre 8 Corrections des exercices

De mme que lorsque , devient une probabilit uniforme sur max :=


{; U () = max U }. Les limites (3.7.1) sen suivent immdiatement.

2-c) Z() est non nulle et de classe C sur R, il en est donc de mme pour
ln Z(). On calcule
n
Z 0 () 1 X
ln Z)0 () = = U (i )eU(i ) = hU i
Z() Z() i=1
1 X 2 E U(i )
2
Z 00 ()
0
Z ()
U U(i )e
2
Z()NiI Q
00
ln Z) () = = hU i
Z() Z()
= Var (U ) 0. LY T
ECH
PO
L E et strictement convexe si et seulement si la variance
Ainsi, 7 ln Z() est convexe
C O si U nest pas constante.
ne sannule pas, cest--dire

3-a) Nous dduisons de la question prcdente que 7 hU i est strictement d-


croissante. Comme elle est continue, elle est donc bijective. (3.7.1) nous permet de
conclure.
I Q UE
3-b) On a H( ) = i (i ) ln (i ). T E C
P HN
P O LY
Recherchons les extrmas de FL E
: F
= ln i 1 U (i ) = 0 donne (i ) =
C O par la condition que est une probabilit :
i
eU( )1 . On dtermine
i

n
X
+ 1 = ln eU(i ) = ln Z().
i=1

Ainsi, si maximise lentropie, on aura


ln U
ln (i ) = U (i ) 1 = U (i ) I Q Z(),
E
C HN
do le rsultat.
O LYTE
P
Econvexit pour la fonction ..
3-c) Nous allons utiliser lingalitLde
X XCO 
pi ln pi + U (i ) pi ln Z()
i i
X X X
= pi ln pi + pi ln eU(i ) pi ln Z()
i i i
X pi
= pi ln
i
(i )
pi pi pi
X X
= (i ) ln = (i )
i
(i ) (i ) i
(i )
pi
X
(i ) = (1) = 0.
(i )
8.3 Corrigs des exercices du chapitre 4 219

Nous avons donc montr que pour toute proba p :



H(p) + h U ip ln Z().

On sait que atteint le maximum de p 7 H(p)+h U ip qui vaut ln Z(). Puisque



est strictement concave, lingalit de convexit nest sature que si pi / (i ) est
un constante, qui ne peut tre autre que 1. Donc pi = (i ) et est lunique
probabilit qui maximise lentropie tant donne lesprance E.
E tout R,
N IQU
Ainsi, nous avons dmontr le principe variationnel : pour
H
T E=C sup H(p) + h U ip .
  

O LY
H( ) + h U i = ln Z()
E P p probabilit

L
C Oprobabilit qui atteint le maximum.
De plus, est lunique

8.3 Corrigs des exercices du chapitreE 4


N IQU
Exercice 4.12.1 : Il suffit dcrire Y T ECH
2L E
POL
CO
E((X a) ) = E((X E(X))2 ) + (E(X) a)2 .

Rx
Exercice 4.12.2 : Puisque g est de classe C 1 , nous avons g(x) = 0
g 0 (t)dt. Alors

UE
X x
Z Z Z
E(g(X)) = E 0
g (t)dt = g 0 (t)dtI Q
f (x)dx,
0 0
EC
0 HN
LY T
O le thorme de Fubini, nous obtenons
EP
o f est la densit de X. Alors en appliquant
ZOL
Z
0
C Z
E(g(X)) = g (t) 1{t<x} f (x)dx dt = g 0 (t)P(X > t)dt.
0 0 0
R
Remarquons que pour g(t) = t, nous obtenons E(X) = 0
P(X > t)dt.

En fait, cette proprit est vraie pour toute variable alatoire X positive. Il faut pour
cela appliquer le thorme de Fubini la mesure abstraite P(d) dt.

Exercice 4.12.3 : 1) La position de lincendie X suit une loi uniforme sur [0, A]. Nous
RA
cherchons placer a tel que E(|X a|) = A1 0 |xa|dx soit minimum. Il est immdiat
de montrer que ce minimum vaut a = A 2.
220 Chapitre 8 Corrections des exercices

R
2) Nous devons alors minimiser la quantit 0
ex |x a|dx. Tous calculs faits,
nous obtenons que a = ln2 .

R
Exercice 4.12.4 : Rappel sur la fonction : () = 0 x1 ex dx est convergente
si et seulement si > 0. De plus ( + 1) = (), do nous dduisons que pour n
entier, (n + 1) = n!.

Ainsi, si X est variable alatoire de densit Cx1 epx sur R+ , pour , p > 0, alors
E
IQU
p
C = () .
N
T E CH
O LY
Nous pouvons utiliser ces prliminaires pour montrer que si X est la dure de fonc-
tionnement de la lampe, alors P
C OLE
1) f est une densit de probabilit,

2) E(X) = 8, V ar(X) = 32.


E obtenons galement
Unous
N I Q
3) Par changement de variable et intgration par parties,
CH
5 32
que : P(X 6) = 2 e .
LY TE
PO
E Y [0, c]. De plus, P(Y = 0) = P(X < 0). Donc,
Exercice 4.12.5 : Remarquons
C O Lque
si P(X < 0) 6= 0, Y ne peut pas avoir de densit. Si P(X < 0) = 0, introduisons une
fonction g continue et borne sur [0, c]. Alors
Z Z c
1 y 1

E(g(Y )) = g(cex ) fX (x)dx = g(y) fX ln dy,
0 0 c y
1 Uy
E
grce au changement de variable : y = cex x =
N IQ ln c , pour x R+ et
y [0, c]. La densit de Y , dans ce cas, vaut doncE C H
LY
T
1 P O 1 y
fY (y) = L E fX ln 1]0,c[ (y).
C Oy
c

Exercice 4.12.6 : 1)
+ +
1 1
Z Z
x2 (x)2 2 2
E(eX ) = ex e 2 dx = e 2 e 2 dx = e 2 .
2 2

2) Puisque eX ea 1Xa , nous avons

E(eX ) 2
P(X a) e 2 a ,
ea
8.3 Corrigs des exercices du chapitre 4 221

pour tout > 0. En minimisant le terme de droite en , (minimum atteint en = a),


nous obtenons finalement que
a2
P(X a) e 2 .

3)
+ +
1 1 1
Z 2
Z
x2
x2
P(X a) = e dx = x e 2 dx.
2 a 2
U a E x
Une intgration par parties donne NIQ
Y T E C H Z +
Z +
1 L 1
x eP Odx = e
x2 1 a2 x2

xL E
2 e 2 2 dx.
O a x2

C
a a

Or
Z + + +
1 x22
Z
1 x22 1
Z
x2 1 a22
e dx = x e dx 3 x e 2 dx = e .
x2 x3 a
U E a3
NIQ
a a a

Nous en dduisons lingalit voulue.


TE CH
LY
E PO
Exercice 4.12.7 : 1) Il estC O L de vrifier que f est positive et dintgrale 1.
immdiat

2) P(X > x) = xa si x > a et P(X > x) = 1 si x a.

3) Soit X > a. Alors

x E
 
a x
U

P(X > x + y|X > x) = = IQ .
N x+y
ECH
x+y a
T
LYlinfini.
Cette quantit tend vers 1 quand x tend vers
E PO
L
CO
Cela veut dire que plus X prend de grandes valeurs, plus elle a de chances den prendre
de plus grandes. Cela nest pas vrai pour la loi exponentielle qui na pas de mmoire.
Cette loi fut introduite par le marquis de Pareto comme modle de richesse, celui-ci
ayant remarqu au dbut du 20me sicle que 20% de la population possdait 80% des
richesses. Dautres phnomnes ont ce mme type de proprit : pour un service, 20%
des clients sont responsables de 80% des rclamations ; pour une activit sportive,
20% dentranement supplmentaire peut amener 80% de performance en plus.

4)
+
x
Z
E(X) = a dx < + > 1.
a x+1
a
Dans ce cas, E(X) = 1 .
222 Chapitre 8 Corrections des exercices

5) De mme,
E(X 2 ) < + > 2.
a2 a2
Dans ce cas, E(X 2 ) = 2 , et V ar(X) = (2)(1)2 .

Exercice 4.12.8 : 1) Loi de X : loi de densit

1 1
Z Z
x2 x2 y 2 x2
fX (x) = f (x, y)dy = |x|e 2 e 2 dyE= e 2 .
2 IQU 2
HN
X suit une loi normale centre rduite.T E C
P O LY
Un calcul analogue montre
O LEque la densit de Y vaut fY (y) = 1 1+y
1
. Y suit donc une
C
2

loi de Cauchy. En
particulier, Y na pas desprance.

Puisque le produit de fX et fY nest clairement pas gal f , les deux variables


alatoires X et Y ne sont pas indpendantes.
UE
2)
R Soit g une fonction continue et borne sur H NRI Q
2
. On a E(g(X, XY )) =
TRE C
g(x, xy)f (x, y)dxdy. Considrons le changement de variable (x, y) 7 (x, z = xy).
LY
P O)) = 2 g(x, z)e 2 e 2 dxdz. X et XY sont
1 x2 z2

Le jacobien vaut x. Ainsi, E(g(X, XY
L E
indpendantes, et Z = XY
COsuit une loi normale centre rduite.

3) X(1 + Y ) = X + Z, avec X et Z indpendantes. La somme de deux variables


alatoires indpendantes de loi normale N (0, 1) suit une loi normale N (0, 2).

Exercice 4.12.9 : 1) Avec les notations du cours, la densit f du E


Ucouple (X, Y ) vaut
N IQ
f (x, y) = fX|Y =y fY (y) = 1R+Y
(x) E1 C H
Ty2 1[1,+[ (y)xexy .
PO L
LE
O sur R2+ . Le changement de variable (x, y) 7
Soit g une fonction continue Cborne
(t
R= R xy, y), tde jacobien y, donne alors que E(g(T, Y )) = E(g(XY, Y )) =
t t t
1 0
g(t, y)e y 2 dtdy. Comme la densit du couple (T, Y ), qui vaut e y 2 1R+ (t)
1[1,+[ (y) scrit comme produit dune fonction de t et dune fonction de y, nous en
dduisons que T et Y sont indpendantes et que T a la densit tet 1R+ (t).
R
2) La loi de X a pour densit fX (x) = 1 exy xdy = ex . Ainsi X suit une loi
exponentielle de paramtre 1 et la loi conditionnelle de Y sachant X = x admet la
densit fY |X=x (y) = ffX (x,y)
(x) = xe
x(y1)
1[1,+[ (y), pour x > 0.
R x+1
3) Nous en dduisons que E(Y |X = x) = y xex(y1) dy = 1R+ (x). Ainsi,

1 x
E(Y |X) = X+1
X .
8.3 Corrigs des exercices du chapitre 4 223

Exercice 4.12.10 :

Soit h une fonction continue borne sur R+ . Comme X et Y sont indpendantes,


nous avons
XZ 1 X Z 1
E(h(XY )) = h(ny)P(X = n)dy = P(X = n) h(ny)dy.
n 0 n 0

Pour n 6= 0, posons z = ny. Alors


U 1E n
Z
Q
N I n) n 0 h(z)dz
X
E(h(XY )) = h(0)P(X = 0) + P(X =
nC H

O LY T EZ X P(X = n)
P = 0) +
LE
= h(0)P(X 1[0,n] (z) h(z)dz.
C O n
n

Ainsi, Z admet une densit si et seulement si P(X = 0) = 0.

Exercice 4.12.11 :
U E
NIQ
Loi de X :
YnT
ECH
(y) O L
n n
(n + 1)
Z
P(X = n) = e(+)y
E Pdy = n! ( + )n+1 = .
L n! + +
CO
0

Ainsi, X suit une loi gomtrique de paramtre + .

Loi de Y :
y n y
(+)u (u)
X Z Z
P(Y y) = e du = e u du.
UE
0 n! 0
IQ
n0

Ainsi, Y suit une loi exponentielle de paramtre . C HN


O LYTE
P
Exercice 4.12.12 : 1) Soit hOune
R 1 RC
L E fonction continue borne sur [0, 1]n. Alors
1
E(h(U1 , . . . , Un )) = 0 . . . 0 h(x1 , x1 x2 , . . . , x1 . . . xn )dx1 . . . dxn . On pose u1 =
x1 , u2 = x1 x2 , . . . , un = x1 . . . xn . Le jacobien de R cette transformation vaut
u1 . . . un1 . Nous en dduisons que E(h(U1 , . . . , Un )) = h(u1 , . . . , un )10u1 ...un 1
1 1
u1 ...un1 du1 . . . dun . La loi de (U1 , . . . , Un ) a donc la densit 10u1 ...un 1 u1 ...un1 .

2) Un = Un1 Xn , et Un1 et Xn sont indpendantes. Do si g est une fonction


continue borne sur [0, 1]2 ,
Z
E(g(Un , Un1 )) = g(un1 xn , un1 )fXn (xn )fUn1 (un1 )dun1 dxn
Z 1Z u
1
= g(z, u)fUn1 (u) dzdu.
0 0 u
224 Chapitre 8 Corrections des exercices

Ainsi, la loi conditionnelle de Un sachant Un1 = u aura la densit z 7 u1 1zu .

Exercice 4.12.13 : 1) Soit f une fonction continue borne sur R+ [0, 2[ . Alors
R + R + x2 +y2 R R 2 r2
1 1
E(f (R, ) = 2
f (r, )e 2 dxdy = 2 0 0
f (r, )e 2 rdrd. Do
r2
R admet la loi de densit re 2 1r>0 et la loi uniforme sur [0, 2], et R et sont
indpendants.
IQ UE
R2 et sont indpendants, et si h est une
H N
C z/2
fonction continue borne sur R+ ,
E(h(R2 )) = 0 h(r2 )rer /2 dr = 21 T
R 2 R
Y0 E
h(z)e dz. R 2
suit une loi exponentielle
de paramtre 21 . P O L
C O L2 E
2) Nous avons vu que R peut se simuler en prenant 2 ln U , o U suit une loi
uniforme sur [0, 1]. va tre simule par 2V , o V suit une loi uniforme
sur [0, 1], et
2
U et V sont
indpendants (comme R et ). Alors X = R cos = 2 ln U cos(2V )
et Y = 2 ln U sin(2V ).
I Q UE
3) Soit g une fonction continue borne sur R
E C H+N Y
. E(g( X )) = E(g(tan )) =
1
R 2 1

2 0 g(tan )d = g(tan )d. La


R 2
LY T
fonction 7 tan est inversible sur ] 2 , 2 [.

dt P
O
LE
2
Y
On obtient E(g( X )) = 1 R f (t) Y
1+t . Donc X suit une loi de Cauchy.
R

C O 2

Exercice 4.12.14 : 1) Soit x y.

P(X x; Y y) = P(Zk y, k) P(x < Zk y, k) = F (y)nUE(F (y) F (x))n ,


N IQ
ECH n
(1T F (x)) , et FY (y) = F (y)n .
par indpendance des Zk . Ainsi, FX (x) = 1 Y
E POL
O L X admet une densit qui vaut fX (x)
0
2) F est drivable de drive f . Ainsi, = FX (x) =
n(1 F (x)) n1 C
f (x), et de mme Y admet la densit fY (y) = n(F (y))n1
f (y).
2

La densit du couple (X, Y ) vaut h(x, y) = xy F (x, y), o F (x, y) = P(X x; Y
y). Ainsi, nous obtenons h(x, y) = n(n 1)(F (Y ) F (x))n2 f (x)f (y).
n n1 n
3) F (x) = x. Nous avons donc fX (x) = (ba)n (b x) 1]a,b[ (x), fY (y) = (ba)n (y
n(n1)
a)n1 1]a,b[ (y), h(x, y) = (ba)n (y x)n2
1axyb .

ba ba
Les calculs donnent E(X) = a + n+1 , E(Y ) = b n+1 , V ar(X) = V ar(Y ) =
2 2
n(ba) (ba) 1
(n+1)2 (n+2) Cov(X, Y ) = (n+1)2 (n+2) ,
et (X, Y ) = n.
Ainsi, plus n est grand, moins
les variables X et Y sont corrles, ce qui est raisonnable !
8.4 Corrigs des exercices du chapitre 5 225

Exercice 4.12.15 : 1)
b (+)a
Z Z
P(M > a; D > b; X > Y ) = ex ey dxdy = e e .
y>a x>y+b +


2) P(X > Y ) = P(M > 0; D > 0; X > Y ) = + , P(X < Y ) = + , P(M >
(+)a (+)a
a; X > Y ) = + e , P(M > a; X < Y ) = + e . Ainsi, M suit une loi
exponentielle de paramtre + . De plus,
QX > Y ) b UE
>Ib;
P(M > 0; DN
H
TEC
P(D > b|X > Y ) = =e .
P(X > Y )
P O LY
E
La loi conditionnelle de DLsachant X > Y est donc une loi exponentielle de paramtre
CO
. De mme, la loiconditionnelle de D sachant X < Y est une loi exponentielle de
paramtre .

3) Nous remarquons que P(M > a; X > Y ) = P(M > a)P(X > Y ).

IQ UE
4) Nous pouvons montrer par rcurrence que min1in
H NX i suit une loi exponentielle de
paramtre 1in i , que P(Xk = min1in E XCi) =
k
, et que min1in Xi
P
YT
P

POL
1in i

et { Xk = min1in Xi } sont indpendants.


LE
CO
8.4 Corrigs des exercices du chapitre 5

Exercice 5.4.1 : 1) E(Xn ) = 1.


E
2) Puisque n1 un < +, la suite (un )n tend versH0N
P QU
etI donc u1n tend vers +.
C = 1 ) = u qui tend vers 0.
T EP(X
O LY
Ainsi, pour fix et n assez grand, P(Xn > ) = n un n
P
LE
P
Donc Xn 0.
CO
Les ensembles An = {|Xn | > } vrifient que n P(An ) < , par hypothse.
P
Alors, par la premire partie du lemme de de Borel-Cantelli (Thorme 2.5.14),
P(lim supn An ) = 0. Ainsi presque-srement, au plus un nombre fini de An sont ra-
p.s.
liss. Il en rsulte que Xn 0.

X1 ++Xn p.s.
3) Nous en dduisons par un argument de limite de Csaro que n 0 quand
n tend vers linfini.

C rsultat nest pas en contradiction avec la loi des grands nombres, bien que
E(Xn ) = 1. En effet, les variables alatoires Xn nont pas les mmes lois, donc nous
ne sommes pas sous les hypothses de la LGN.
226 Chapitre 8 Corrections des exercices

Exercice 5.4.2 : Considrons un rel M > 0 donn. Alors les variables alatoires bor-
nes Xi M satisfont les hypothses de la loi des grands nombres. Nous en dduisons
p.s.
que X1 M++X
n
n M
E(X1 M ).

Soit maintenant une suite Mk de rels qui tend vers linfini. Pour chaque k, il existe
un ensemble ngligeable Nk en dehors duquel pour tout , X1 ()Mk ++X
n
n ()Mk

E(X1 Mk ). Alors N = k Nk est encore ngligeable (comme runion dnombrable
/ N , k, X1 ()Mk ++X
densembles ngligeables), et pour n
n ()Mk
E(X1 Mk ).
Nous pouvons alors faire tendre k vers linfini, et nousUenEdduisons que pour / N,
I Q
H N presque-sure de
X1 ()++Xn () X1 ++Xn
E(X1 ) = +, do la convergence vers
TEC
n n
+.
P O LY
OLE
LaCloi des grands nombres entrane que Mn = X ++X
Exercice 5.4.3 : 1) 1 n
p.s. x
n
et donc, puisque f est continue,
X1 + + Xn

f p.s. f (x).
n U E
NIQ
T E
f tant continue sur [0, 1], elle est borne. Ainsi, ClesHvariables alatoires f X1 ++Xn


LY le thorme de convergence domine,


n
le sont galement. Nous pouvons alorsOappliquer
P
et LE
C O X n
X1 + + Xn k

E f = f xk (1 x)nk f (x).
n n
k=1
Pn k
On appelle les polynmes Pn (x) = xk (1x)nk polynmes de Bernstein.

k=1 f n
E
Uy [0, 1] , |x y| <
I Qx,
2) f est uniformment continue sur [0, 1] : > 0, , tel que
N
|f (x) f (y)| < . Nous avons alors CH E
|E (f (Mn )) f (x)| P O LY T
L E
E |f (Mn ) f (x)|C1O

{|Mn x|} + E |f (Mn ) f (x)| 1{|Mn x|<}
2kf kP(|Mn x| ) +
V ar(X1 ) kf k
2kf k 2
+ + ,
n 2 n2
par lingalit de Bienaym-Chebyshev, puisque V ar(X1 ) = x (1 x) 14 .

Nous avons donc prouv : Toute fonction continue sur [0, 1] est approche uniform-
ment par une suite de polynmes. (Thorme de Weierstrass)

2
2 /2
Exercice 5.4.4 : 1) M (u) = eu .
8.4 Corrigs des exercices du chapitre 5 227

2) Nous avons : eu(Sn nm) eua 1Sn nma , do

E(eu(Sn nm) ) n
P(Sn nm a) = eua (M (u)) ,
eua
par indpendance des Xi .

3)

P(|Yn m| ) = P(Sn nm n) + P(Sn Q


I nmUE n)
e nu
(M (u)) + e C H
n N
n(u)()
(M (u))n = 2enu (M (u))n
TE
O LY/2 ,
2 2
2enu enu u 0.
P
OLE
C va tre obtenue en minimisant lexposant, cest--dire pour
La meilleure majoration
u = . Nous en dduisons lingalit de Chernov.

4) Par lingalit de Bienaym-Chebyshev, P(|Yn m| ) V ar(Y n)


. Ainsi, P(|Yn
U E 2
Q05, il vient que n 80000.
2

m| ) ds que 1 n2 1 = 0, 05. Avec =I0,
N
T E CH
OdeLlaY
2
n
Par lingalit de Chernov, nous obtenons 2e 0, 05. Il vient que n 29512. Pour
20

P
O L Eplus petit si nous utilisons
avoir une valuation du mme ordre probabilit cherche, nous pouvons donc
C
prendre un chantillon beaucoup lingalit de Chernov. A
taille dchantillon fixe, nous aurons une meilleure valuation avec cette ingalit.

Exercice 5.4.5 :
n
I Q UE !
n H N ln(1 + Rk ) .
1X
Sn = S0 (1 + R1 ) . . . (1 + Rn ) = S0 exp C
TE n
O LY
k=1
P
Eet ln(1+E(R1 )) < . Par lingalit de Jensen,
<L
Or, R1 > 1, donc 1 < E(R1 ) O ,
C
nous en dduisons que E(ln(1 + R1 )) P
ln(1 + E(R1 )) < . Nous pouvons alors
appliquer la loi des grands nombres : n1 nk=1 ln(1 + Rk ) E(ln(1 + R1 )). Ainsi, pour
n assez grand, Sn va se comporter presque-srement comme S0 exp (nE(ln(1 + R1 ))).

Si E(R1 ) = 0, (et R1 non identiquement nulle), alors E(ln(1 + R1 )) < 0, et Sn va


dcrotre exponentiellement vite vers 0.

Exercice 5.4.6 : Les deux premires questions se rsolvent comme dans lexercice 5.4.3.

3) Supposons que les Xi suivent des lois uniformes sur [0, 1]. Alors a = 21 , et limn In =
g( 12 ).
228 Chapitre 8 Corrections des exercices

4) Le rsultat sur la somme de variables alatoires indpendantes de loi exponentielle


se dmontre par rcurrence. En appliquant ce rsultat, nous aurons donc
Z Z
1 z z 1 nt
f (a) = lim f z n1 e a dz = lim n f (t)nn1 tn1 e a ndt.
n an (n 1)! 0
n n a (n 1)!
0
R
En posant F (t) = 0 f (x)etx dx, nous obtenons
R nt
F (n1) ( na ) = (1)n1 0 f (t)tn1 e a dt. Do le rsultat.

UE
Exercice 5.4.7 : 1) E(U ) = E(V ) = E(W ) = m.
H N IVQRar(U ) = m(1 m) ; V ar(V ) =
R1 2
g (x)dx m V ar(U ), car g 1. T
2 C
E ) = 2 0 (g (x) + g(x)g(1 x))dx m2 .
V ar(W 1 1 2

O LY
0
P
L E alatoires indpendantes de loi uniforme sur [0, 1]. On
2) Soient Xi et Yi des variables
CdesO
peut appliquer la loi grands nombres
P aux variables correspondantesPUi , Vi et Wi .
Ainsi, nous aurons : n1 ni=1 g(Xi ), 2n
1 n
+ g(1 Xi )) et 1 n
P
i=1 (g(Xi ) n i=1 1Yi g(Xi )
convergent presque-srement vers m.

I Q UE
3) La monotonie de g entrane que E((g(X)g(Y ))(g(1X)g(1Y ))) 0. Nous en
RH
dduisons que 2E(g(X)g(1 X)) 2E(g(Y )g(1 X)) N
0. Or, E(g(Y )g(1 X)) = m2 .
2E C 1 2
T 0 g (x)dx. Finalement, nous avons
R1 2

O LYm
Donc 0 g(x)g(1 x)dx m . Par ailleurs,
ZP
O 1E 1 2
L

1
V ar(W C
) 2 0 g (x)dx m 2 V ar(V ).
2

1 1
4) V ar(An ) = 2n V ar(V ) et V ar(Bn ) = nV ar(W ). La comparaison ci-dessus entrane
que Bn est le meilleur.
E
N IQU
Y T ECH
8.5
P OL
Corrigs des exercices du chapitre 6
LE
CO 2
Exercice 6.6.1 : Soit t un rel. Alors (t) = X+Y

(t) = X+Y ( t2 ) = ( t2 ) .
2
2n
Par rcurrence, nous en dduisons que pour tout n, (t) = t2n =

n t 2 2
exp 2 ln 2n . Comme X est centre et a un moment dordre 2 = E(X ),

est deux fois drivable en 0 et


t2
2
t t

n = 1 2 n + o n .
2 2 2
2n 2 2
Nous en dduisons que limn t2n = et /2 . Ainsi, (t) = et /2 , et X et
Y suivent des lois N (0, 1).
8.5 Corrigs des exercices du chapitre 6 229

R1
Exercice 6.6.2 : m = 0 x2 dx = 13 . V ar(g(X)) = 45 4
= 2 . Le TCL nous dit que
(An m)
2n converge vers une variable alatoire de loi N (0, 1). Nous aurons

(An m)

2n 2n
P(|An m| > ) = P 2n > = 0, 05 = 1, 96.

En prenant = 0, 01, nous obtenons n = 1708.
R1
Etudions maintenant lestimateur Bn . V ar(W ) = 12 0 (g 2 (x)+g(x)g(1x))dxm2 =
1 2
180 = . Le mme raisonnement que prcdemment U E dit que n dans ce cas doit
I Q nous
vrifier = 1, 96 avec = 0, 01. Cela C
n N
H n = 214, ce qui est bien meilleur
Y T E donne
comme nous lavions prvu. L PO
L
O RE
Exercice 6.6.3 : 1)
C
X (t) = 1 + eitx
Npus appliquons le thorme des rsidus.
1+x2 dx.
eitz eitz

1 1
Nous considrons la fonction de variable complexe f (z) = (1+z 2 ) = 2i zi z+i
qui a les deux ples i et i. Pour t > 0, prenons comme contour le demi-cercle
suprieur de centre 0 et de rayon R, qui encercle i. Alors laU E des rsidus donne
formule
et I Q
f (z)dz = 2iRes(f, i). Nous avons Res(f, i) = H N, do
R

T E C 2i
O2LdxY+
Z R
eitx
Z
et = P
L E1 + x
f (z)dz.
C Oe
R \[R,R]
itR cos tR sin
e
Mais sur ce contour, f (z) = 1+z 2 qui tend vers 0 quand R tend vers linfini
(car sin > 0). Pour t < 0, nous prenons lautre contour et nous obtenons et . Ainsi,
la fonction caractristique dune variable alatoire de Cauchy vaut X (t) = e|t| .

2) 2X (t) = e|2t| = (X (t))2 .


IQ UE
C HN
Y=T E
R + 2
Exercice 6.6.4 : 1) X (t) = eitx a2 e|x|a dx a
a2 +t2 .
POL

L Ey 1. Donc Y > 0 presque-srement.


Oque
2) Y a une densit qui ne charge
C
Soit f la densit de X et g celle de Y . Nous avons (par le thorme de Fubini et la
question prcdente),

+ + + +
Z Z Z Z
it x it x
X (t) = e y f (x)g(y)dxdy = g(y)dy e y f (x)dx
Y

Z + +
y 2 a2 1 y 2 a2
Z
= g(y) dy = dy
y 2 a 2 + t2 1 y 2 y 2 a 2 + t2
a a

= arctan .
|t| 2 |t|
230 Chapitre 8 Corrections des exercices

Exercice 6.6.5 : 1) Supposons que A() A(0 ) 6= . Si A() A(0 ), alors


X1 () cos + X2 () sin F et X1 () cos 0 + X2 () sin 0 F . Puisque 6= 0 , tous
deux dans [0, 2 [, cos sin 0 sin cos 0 = sin(0 ) 6= 0. Cela entrane que X1 () F
et X2 () F . Contradictoire avec le fait que X1 () sin X2 () cos / F.

X1
2) Comme X1 et X2 sont indpendantes, le vecteur V = est gaussien
X2
centr et de matrice de covariance diagonale par bloc, chaque bloc tant
la
matrice de

X1 cos + X2 sin X1
EX2 cos
covariance de X. Nous remarquons que W = .
I Q
X1 sin U = M
X2
N
CMHet obtenons que CW = CV . Les deux
t
Nous utilisons alors la formule CW = M CX
T E
O LY
vecteurs gaussiens, ayant mme esprance et mme matrice de covariance, ont donc
mme loi. E P
L
CO
Nous en dduisonsen particulier que P(A()) = P(A(0)), pour tout .

3) Supposons que P(A(0)) = > 0. Alors pour n angles i distincts de [0, 2 [, comme
les A(i ) sont disjoints, nous aurions P(ni=1 A(i )) = n. Pour n grand, nous obtien-
E
drions que cette probabilit est strictement suprieureIQ1Uce qui est absurde. Do
N
P(A(0)) = 0.
TE CH
LY
PO
O LE
deCprouver
Exercice 6.6.6 : Il suffit que pour f1 et f2 des fonctions continues bornes,
et f2 lipschitzienne de constante de lipschitzianit C, E(f1 (Xn )f2 (Yn )) converge vers
E(f1 (X)f2 (y)) = f2 (y) E(f1 (X)), puisque y est constante.

En nous inspirant de la preuve du lemme de Slutsky 6.3.8, nous crivons pour > 0,
E
|E(f1 (Xn )f2 (Yn )) E(f1 (X)f2 (y))|
N IQU
|f2 (y)| |E(f1 (Xn )) E(f1 (X))| + E (|f1 (XE C|fH2 (Yn ) f2 (y)|)
n )|
+O
kf2 k |E(f1 (Xn )) E(f1 (X))| P
YT
CLkf1 k + 2kf1 k kf2 k P(|Yn y| > ).

C OLE
Les termes de gauche et de droite tendent
vers 0 quand n tend vers linfini, par
hypothse. Comme lingalit est vraie pour tout > 0, nous en dduisons le rsultat.

Puisque (x, y) 7 x + y et (x, y) 7 xy sont des fonctions continues, il est immdiat


que Xn + Yn et Xn Yn convergent en loi respectivement vers X + y et Xy.

Exercice 6.6.7 : Prliminaire : Il suffit dadapter la preuve de la proposition 6.3.5 en


approchant les indicatrices dintervalles ] , b] par des fonctions bornes de classe
C 2 avec drives premire et seconde bornes et uniformment continues.

1) Nous avons Wi,n + Xi,n = Wi1,n + Yi1,n . Ainsi, par un argument de somme
8.5 Corrigs des exercices du chapitre 6 231

tlescopique, nous obtenons


n
X
(f (Wi,n + Xi,n ) f (Wi,n + Yi,n )) = f (W1,n + X1,n ) f (Wn,n + Yn,n ) = f (Tn ) f (Tn0 ).
i=1

2) Puisque Xi,n et Yi,n sont petits pour n grand, nous allons utiliser un dveloppement
de Taylor. Nous pouvons crire
1 00
f (Wi,n + Xi,n ) = f (Wi,n ) + f 0 (Wi,n )Xi,n + fQ E )(Xi,n )2 + RX,i,n ,
Ui,n
N2 I (W

o RX,i,n = 21 (Xi,n )2 (f 00 (Wi,n +Xi,nY


)f
CH
T E00 (Wi,n )) pour un 0 1. Dune part nous
O L
avons |RX,i,n | (Xi,n ) ||f ||P. Dautre part, puisque f 00 est uniformment continue,
2 00

pour > 0 donn, ilC


O L E > 0, tel que |RX,i,n | (Xi,n )2 , pour |Xi,n | . Nous
existe
en dduisons que
|RX,i,n | (Xi,n )2 1|Xi,n | + ||f 00 || 1|Xi,n |> .


3) Une ingalit similaire ci-dessus est vrai pour N IQ


Yi,n
UE
. Nous substituons alors ces
approximations de Taylor dans (6.6.1). En prenantE C H
lesprance, du fait que Xi,n et Yi,n
Y2 T
2
sont centres, et que E(Xi,n ) = n1 = O
P L
E(Y i,n ), et que Xi,n et Yi,n sont indpendantes
de Wi,n , nous en dduisons queLE O
C
X
n

|E(f (Tn ) E(f (Tn0 )| E(|RX,i,n | + |RY,i,n |)


i=1
n
X 2 2
) + ||f 00 || E(Xi,n
2 2

E(Xi,n + Yi,n 1|Xi,n |> + Yi,n 1|Yi,n |> )
E
i=1
U
NIQ
2 + ||f 00 || E X12 1|X1 |>n + Y12 1|Y1 |>n .
CH
O LYTE
4) Comme E(X12 ) = 1, limn E X12L1E
P
O |X1 |> n = 0, et de mme pour Y1 . Puisque le

C 0
choix de est arbitraire, nous en dduisons finalement que |E(f (Tn ) E(f (Tn )| 0,
quand n tend vers linfini, do le thorme de la limite centrale.

Sn S2n Sn
Exercice 6.6.8 : 1) Si n
converge en probabilit, alors 2n
n
converge en probabi-
lit vers 0. Cette diffrence vaut ( 2n n )(X1 + . . .+ Xn )+ 12n (X2n+1 + . . .+ X2n ).
1 1

Cest la somme de deux variables alatoires indpendantes. Cest donc une variable
alatoire centre de variance n1 (n 2 ) + 2n
n 2
= 33 2 . Cette quantit ne peut donc pas
tendre en probabilit vers 0.

2) Si < 1/2, alors pour tout > 0 fix, on a n1/2 + quand n . Alors
pour tout A > 0, n0 , tel que n n0 = n1/2 > A. Alors P(n | Snn m| > ) =
232 Chapitre 8 Corrections des exercices


P( n| Snn m| > n1/2 ) P( n| Snn m| > A). Comme n( Snn m) converge en loi
vers une variable alatoire de loi N (0, 1) ayant une fonction de rpartition continue, les
fonctions de rpartition convergent, et en particulier, lim supn P(n | Snn m| > )
3 Sn
2 P(|N (0, 1)| > A). Si A tend vers linfini, nous obtenons que lim supn P(n | n m| >
) = 0.

Pour > 1/2, un raisonnement analogue permet de montrer que lim supn P( n | S1n m|
n
> 1
) = 0, do n | Snn m| tend vers + en probabilit.

IQ UE
HN
Cp(1p) .
XnT) E
Exercice 6.6.9 : 1) E(Xn ) = p, V ar(Y =
POL
n

O L E implique que Xn converge presque-srement et dans L


1
2) La loi des grands nombres
vers p. C
Rc
3) Lintervalle de confiance aura la forme [Xn 2c n ; Xn + 2c n ], o c g(x)dx = 0, 9,
avec g la densit de la loi normale N (0, 1). La table numrique donne c = 1, 645. Nous
en dduisons alors la fourchette destimation 0, 64 1,645 I Q UEp 0, 64 + 1,64520 , soit
H N 20
encore 0, 56 p 0, 72.
TE C
LY
PO
LE
CO
8.6 Corrigs des exercices du chapitre 7

Exercice 7.5.1 : 1) P(Am ) est la probabilit que partant de k, la marche revienne 0


avant datteindre m, ce qui est calcul dans (7.1.4) et (7.1.5). E
N IQU
Y T E C H P(m Am )k= limm P(Am ).
2) Linclusion est immdiate. Comme les Am sont croissants,

P OpL> 1/2, P(mAm ) = p .


1p
Ainsi, pour p 1/2, P(Am ) = 1, et pour
m
L E
3) Remarquons que {S =
CO
0} A pour chaque n, puisque la marche alatoire
n n+k+1
partant de k ne peut pas monter en n + k + 1 en moins de n tapes. Ainsi, A =
n {Sn = 0} m Am . Lautre inclusion est immdiate. Nous en dduisons que si
p 1/2, la marche alatoire atteindra 0 en partant de nimporte quelle valeur k avec
probabilit 1 alors que si p > 1/2, elle natteindra pas 0 avec probabilit strictement
positive.

Exercice 7.5.2 : Soit g la fonction gnratrice de X et G celle de N . Alors celle de SN


vaut = G g, comme nous lavons vu la proposition 7.2.1. Nous avons donc

0 (x) = G0 (g(x)) g 0 (x).


8.6 Corrigs des exercices du chapitre 7 233

Ainsi, 0 (1) = G0 (1) g 0 (1), do E(SN ) = E(N )E(X). Nous avons galement 00 (x) =
G00 (g(x)) (g 0 (x))2 +G0 (g(x)) g 00 (x). Or 00 (1) = E(SN
2
SN ). En remplaant galement
00 00
g (1) et G (1) par leurs valeurs, nous trouvons la formule demande.

Quand N est dterministe, nous retrouvons les formules classiques pour les variables
alatoires indpendantes : E(SN ) = N E(X) et V ar(SN ) = N V ar(X).

E dune loi gomtrique


Exercice 7.5.3 : Nous avons vu que la fonction gnratrice
U
de paramtre a1 est gale Ga (x) = a(a1)x
x
NI Q
. Ainsi la fonction gnratrice de SN
H
TEC
x
vaudra Ga Gb (x) = ab(ab1)x . Nous reconnaissons la fonction gnratrice dune loi
gomtrique de paramtre ab. O LY
P
LE
CO
Exercice 7.5.4 : 1) Comme g(1) = 1, g 0 (1) = 1, et g 00 (1) = m2 1, un dveloppement
limit de g au voisinage de 1 donne que pour x [0, 1[,
E
1 g(x) = (1 x) (1 x)2 a + (x Q1)U2 (x),
I
E C HN
o (x) tend vers 0 quand x tend vers Y 1. TEn prenant les inverses, nous obtenons
1 1
avec P O L
1g(x) = 1x + a + (x),
L E
lim x1 (x) = 0.
CO
2) En ritrant cette galit en changeant x en g(x) nous obtenons la formule pour
n = 2 et de proche en proche pour n.

3) A x fix, nous savons que gj (x) tend vers 1 = m quand j tend vers linfini (car 1 est
le seul point fixe de g(s) = s). Ainsi, (gj (x)) tend vers 0 quand j tend vers linfini,
et il en est de mme pour la somme de Csaro nn(x) = n1 Q U
Pn1E
N I j=0 (gj (x)) quand n
tend vers linfini. Ainsi,
CH
O LYTE
1 1 P 1 2
O L E+ na(x)
1 gn (x) = n = .
na 1 + 1 na n(m2 1)
C
n
na(1x)

Exercice 7.5.5 : 1-a) P(Sn = (0, 0, 0)) = (P( nj=1 Xj = 0))3 . Or P( nj=1 Xj = 0) = 0
P P
1 2k
si n est impair, et si n = 2k, P( 2k 2k
.
 
j=1 Xj = 0) = k
P
2

 1 2k
1-b) E(N(0,0,0) ) = P(Sn = (0, 0, 0)) = k 2k . Or par la formule de Stir-
P P
n k k
k 2
ling (i.e. k! k 2k e ), nous en dduisons que le terme gnral de la s-

3
rie est quivalent, quand k tend vers linfini, 1k . La srie converge donc, et
E(N(0,0,0) ) < +.
234 Chapitre 8 Corrections des exercices

1-c) Si a = (a1 , a2 , a3 ), alors, par un raisonnement similaire, P(Sn = a) =


te 3
Q3 n  1 n
i=1 ai +n 2 . Nous pouvons montrer que P(Sn = a) C
n
, et donc la s-
2
rie de terme gnral P(Sn = a) converge. Nous en dduisons que E(Na ) = n P(Sn =
P
a) < +.

2) Par la question prcdente, nous savons que Na < + presque-srement. Comme


Br est fini, il en est de mme de aBr Na . Alors, avec probabilit 1, il existe N
P
tel que Sn / Br pour tout n N . Nous en dduisons que |Sn | converge vers +
presque-srement. UE
H NIQ
Ce comportement, dit transient, est trs EC diffrent de celui de la marche alatoire
YaTpresque-srement
: ilLy
simple sur Z, qui est rcurrente O une infinit de retours 0
E P
ou dans chaque tat. L
CO
Exercice 7.5.6 : 1) Gn = . . . , n fois.

2) Par lexercice 7.5.2, nous obtenons E(Zn ) = n , et V ar(ZnE


) vrifie
) +N 2 n .
V ar(Zn+1 ) = 2 V ar(ZCn H
IQU
TE
O LY que V ar(Zn ) = 2 (2n2 + . . . + n1 ).
Nous pouvons alors montrer par rcurrence
P
LE
3) CO
X X
G(x, y) = P(Zm = k, Zn = l)xk y l = P(Zm = k)P(Zn = l|Zm = k)xk y l .
k,l k,l

Si Zm = k, alors Zn est la somme de k variables alatoires indpendantes de mme


loi que Znm , issu de chacun des m individus de la gnration m.EAinsi,
N I QU
C HX
k

Y T Ex
X X l k k k
G(x, y) = P(Zm = k) P(Znm = l)y = P(Zm = k)x (Gnm (y))
P O L
LE
k l k

CO
= Gm (x Gnm (y)).

2
4) On a E(Zm Zn ) = xy G(x, y)(1, 1). On calcule

2
xy G(x, y)(x, y) = G0m (x Gnm (y)) G0nm (y)+Gnm (y) x G0nm (y) (Gm )00 (x Gnm (y)).

Nous en dduisons que E(Zm Zn ) = n +nm (Gm )00 (1) = n +nm (E(Xm
2
)m ) =
nm 2
E(Zm ).
2
E(Zn ) V ar(Zn )+2n n1
5) On a E Wn2 = = 1 + 2 2n (1 + + . . . + n1 ) = 1 +

2n = 2n
2

1
(1) 1 n .
8.6 Corrigs des exercices du chapitre 7 235

Nous avons E((Wn+p Wn )2 ) = E((Wn+p )2 ) E((Wn )2 ), car E(Wn+p Wn ) =


p E((Wn )2 ) par la question prcedente. Ainsi,

2 1 1 2 1

E((Wn+p Wn )2 ) = n+p = (p 1) n+p ,
( 1) n ( 1)

qui tend vers 0 quand n tend vers linfini.

En faisant tendre p vers linfini dans lexpression ci-dessus, nous obtenons que E((W
2
Wn )2 ) = (1) 1 U E E((W Wn )2 ) converge.
I Qgnral
n , et > 1. Ainsi la srie de terme
N
Par suite, la variable alatoire
P
n (Wn T EW C)H
2
est finie presque-srement, et donc en
particulier son terme gnral tend O L Y
vers 0. Nous en concluons donc que (Wn W )2
P
converge presque-srement L Evers 0.
CO 2
Nous avons E(W ) = limn E(Wn ) = 1 et V ar(W ) = limn V ar(Wn ) = (1) .

E
=U k xk pk (1 p) =
Exercice 7.5.7 : 1) Soit x [0, 1[. Alors g(x) = E(xY I)Q 1p
N 1px .
P
p
E(Y ) = g 0 (1) = 1p = .
YT ECH
O L
P de Zn vaut g . . . g, n fois. La formule se
LE
2) Rappelons que la fonction gnratrice
O
C
vrifie aisment. Remarquons que 1 se met en facteur dans chaque terme.
p
3) Si p < 12 , alors 1p < 21 . Ainsi, lesprance de la loi de reproduction est inf-
rieure 1, nous sommes dans le cas dun branchement sous-critique et la probabilit
dextinction vaut 1.
E
4-a) A chaque temps n, Zn est compos de un migrant, plus
N QlaUpremire gnration
Iissu
E C H
Z1 issu du migrant prcdent, plus la deuxime gnration du migrant arriv au
L Y
temps davant plus . . . plus la population issuTde lanctre. Comme les racines de
P O
ces processus de branchement sont indpendantes, les arbres qui en sont issus sont
L
O n
indpendants, et de mme loi.CAinsi,
EZ
a mme loi que 1 + Z + . . . + Z n o les Zn
,
sont indpendants et Zn deloi Zn .
1


4-b) Nous en dduisons que E(xZn ) = xG1 (x) . . . Gn (x), o Gn est la fonction gn-
ratrice de Zn . Ainsi, par la question 2),
n
Y j 1 x(j 1) 1
E xZn = x j+1 j
= x n+1 .
j=1
1 x( 1) 1 x(n 1)

1 (12p)
Comme < 1, n tend vers 0. Ainsi, limn E(xZn ) = x 1x = x 1p(1+x) =
L(x).
236 Chapitre 8 Corrections des exercices

4 - c) Par la question prcdente,

E(xZn 1Zn >0 ) E(xZn ) P(Zn = 0)


E(xZn | Zn > 0) = =
P(Zn > 0) 1 P(Zn = 0)
n 1x(n1 1) n 1
n+1 1x(n 1) n+1 1
= n 1 .
1 n+1 1

E
Le calcul montre que cette probabilit conditionnelle converge vers x(1) . quand n
Q
tend vers linfini. Cette fonction gnratrice est InonUtriviale, ce qui1x
veut dire que
N
E C H converge vers une variable alatoire
le processus conditionn ne jamais steindre
T
O LY
strictement positive, et finie presque-srement,
P
de mme loi que la limite de Zn lorsque
n tend vers linfini.. E L
CO 1
5) La loi de Z1 est alors une loi gomtrique de paramtre 2. Ainsi lesprance vaut
1 et le branchement est critique.

E
La rcurrence donnant la valeur de Gn stablit sans problme.
U
IQ
On a P(Zn = 0) = n
n+1 . Nous en dduisons que C HN
LY TE
PZO
=E n
1
Zn E n 1Zn >0 n+1
Zn > 0O L

n
E = n = ,
n C P(Z n > 0) 1 n+1 n

qui tend vers 1 quand n tend vers linfini. Ainsi, dans ce cas critique, lesprance du
processus conditionn la non-extinction tend vers linfini quand n tend vers linfini.

E
I =U(j). Par la proprit
Exercice 7.5.8 : (i) Nous devons montrer que i (i) Q(i, j)Q
P
de rversibilit, nous avons H N
Y T E CX
(j) P O Li) = (j) Q(j, i) = (j).
X X
(i) Q(i, j) = Q(j,
LE
CO
i i i

(ii) Soit (i, j) E 2 . Nous avons

P((X0 , X1 ) = (i, j)) = (i) Q(i, j) = (j) Q(j, i) = P((X1 , X0 ) = (i, j)).

Nous en dduisons le rsultat.


Chapitre 9
IQ UE
C HN
O LYTE
Textes et
CO
Lcorrigs
E dexamens P

Examen Ecole Polytechnique 2007 I Q UE


N
T E CH
Exercice
P O LY
C OLE
Soit un couple (X, Y ) de variables alatoires relles, admettant la densit suivante sur
R2 :
1
f (x, y) = ey 1D (x, y), o D = {(x, y) : x > 0, y > 0, y 2 > x}.
2 x

IQ UE
1) Les variables X et Y sont-elles indpendantes ?E C HN
O LYT
P
LE
2) Quelles sont les densits de XOet de Y ?
C

3) Calculer la densit du couple (X, Z), o Z = Y X. Les variables X et Z
sont-elles indpendantes ?

Problme 1 : La mtaphore de la cantine.

Soit un rel strictement positif. Des individus numrots 1, 2, . . . , n, . . . arrivent


successivement dans une salle de restaurant contenant une infinit de tables infiniment
longues. Le premier individu sassied une table. Pour tout entier k 1, lorsque
lindividu k + 1 arrive, il choisit au hasard un des k convives dj attabls avec la

237
238 Chapitre 9 Textes et corrigs dexamens

1
probabilit k+ et sassied la mme table, ou occupe une nouvelle table avec la

probabilit k+ , indpendamment de ce qui sest pass avant.

Lentier Kn dsigne le nombre de tables occupes lorsque n convives sont installs


et pour 1 i n, on note
qn,i = P(Kn = i).

Remarque : ce modle est utilis pour dcrire la loi du nombre despces et des abon-
E
Q U de n individus.
dances respectives de chaque espce, dans un chantillon
NI
H
TEC
1. a) Montrer que P O LY
LE = n!
CO
qn+1,1
(n + )(n 1 + ) . . . (1 + )
.

1.b) Pour tous 2 i n, trouver une relation entre qn+1,i , qn,i et qn,i1 .

U E
2. Soit Pn le polynme dfini pour tout x R par NIQ
nT E
CH
OL
PnP(x) =
YX
qn,i xi .
OL E
C
i=1

2.a) Donner une relation de rcurrence vrifie par (Pn )n .

2.b) En dduire que


n1
E
Ln (x)
Qi).U
(xI+
Y
Pn (x) = , o Ln (x) =
Ln () H N
TEC
i=0

P O LY
L E la loi de Kn.
Justifier que cette quation caractrise
CO
3) Calculer E(Kn ) et V ar(Kn ). (On laissera le rsultat sous forme de somme.)

4) Dans cette question, on cherche retrouver directement les rsultats prcdents.

4.a) Montrer, partir du modle, que


n
X
Kn = i ,
i=1

o les i , i = 1, . . . , n sont des variables alatoires de Bernoulli indpendantes dont


on prcisera les paramtres.
Chapitre 9 Textes et corrigs dexamens 239

4.b) Retrouver par cette mthode les valeurs de E(Kn ) et de V ar(Kn ).

5. a) Montrer que
n n1

Z Z
dx E(Kn ) 1 + dx.
0 +x 0 +x

5.b) En dduire un quivalent de E(Kn ) quand n +.


E
N IQU
5.c) Etudier la diffrence V ar(Kn ) E(K H en dduire un quivalent de V ar(Kn )
EnC) et
Y T
POL
quand n +.
L E
5.d) En dduire que ClnKO
n converge en probabilit vers , quand n +.
n

U E
Problme 2
NIQ
Y T ECH
L alatoires relles indpendantes, de mme
P Otout
On considre une suite (Sn )n1 de variables
loi exponentielle de paramtreL1.EPour entier n 1, on pose
CO T = S + . . . + S ,
n 1 n

T0 = 0 et T = limn Tn .

On pose Nt = n si Tn t < Tn+1 pour un entier n, et Nt = si T t.

IQ UE
1) Calculer lesprance et la variance de chaque Tn . C HN
O LYTE
P
L E de la suite
2) Dcrire le comportement asymptotique
O
( Tnn )n quand n tend vers linfini.
C
En dduire que P(T = ) = 1.

3) Montrer que pour tout entier n 1, la loi de la variable Tn a la densit

xn1 x
fn (x) = e 1[0,[ (x).
(n 1)!

4) En dduire que pour tout t > 0, Nt suit une loi de Poisson de paramtre t.

N
t t
5) Trouver la limite en loi des variables t
lorsque t tend vers linfini.
240 Chapitre 9 Textes et corrigs dexamens

6) Soit U1 , . . . , Un , . . . une suite de variables alatoires indpendantes de mme loi


uniforme sur [0, 1], et Z une variable indpendante des prcdentes, de loi de Poisson
de paramtre 1.

Si Z = 0, on pose Yt = 0 pour tout t [0, 1]. Sinon, on note Yt le nombre de variables


Un telles que 1 n Z et Un t.

Montrer que pour tout t dans [0, 1], les variables Nt et Yt ont mme loi.

E
I QU
H N2007
Corrig de lexamen Ecole Polytechnique
C
O LYTE
P
LE
Exercice
CO
1) Les variables X et Y ne sont pas indpendantes car la densit du couple ne se met
pas sous la forme dun produit dune fonction de x par une fonction de y (puisque D
nest pas un rectangle).
U E
NIQ
2) Les densits fX et fY de X et Y sont
ECH
Z LY T
O 1 y
= P
Z
1
fX (x) = L
f (x, y)dy E e 1R+ (x)dy = e x 1R+ (x),
CO x 2 x 2 x
Z

Z y2
1
fY (y) = f (x, y)dx = ey 1R+ (y)dx = yey 1R+ (y).
0 2 x

E
3) Pour toute fonction borne g sur R2 on a
Z CZ HN
IQU

=T
E 1
Z Z
E(g(X, Z)) = f (x, y)g(x, y x)dxdyLY ey g(x, y x)dxdy.
E PO D 2 x
L
C O (x, y) 7 (x, z) avec z0 = y 2 x, qui sinverse en

On fait le changement
de variables
x = x et y = z + x. Le domaine D est transform en D = R+ , et le jacobien est 1,
donc
1
Z Z
E(g(X, Z)) = ez x g(x, z)dxdz
D0 2 x

1
et la densit de (X, Z) est f(X,Z) (x, z) =
2 x
ez x 1R+ (x)1R+ (z).

Cette fonction est le produit dune fonction de x par une fonction de z, donc les
variables X et Z sont indpendantes.
Chapitre 9 Textes et corrigs dexamens 241

Problme 1

1
1.a) Montrons la formule par rcurrence. On a immdiatement P(K2 = 1) = 1+ . De
plus,

qn+1,1 = P(Kn+1 = 1) = P(Kn+1 = 1|Kn = 1) P(Kn = 1)


n (n 1)! n!
= = .
n + (n 1 + ) . . . (1 + ) (n + )(n 1 + ) . . . (1 + )
IQ UE
C HN
1.b) Soit 2 i n. On a
O LYTE
P
qn+1,i = i) L E
P(Kn+1 = O
C
= i|Kn = i) P(Kn = i) + P(Kn+1 = i|Kn = i 1) P(Kn = i 1)
= P(Kn+1
n
= qn,i + qn,i1 .
n+ n+
U E
NIQ
2.a)
TE CH
LY
E
n+1 PO
L
C O qn+1,i x
X
i
Pn+1 (x) =
i=1
n
X
= qn+1,1 x + qn+1,i xi + qn+1,n+1 xn+1 .
i=2

n
U E=
On applique alors la relation de rcurrence et le fait que qn+1,n+1 (1+)...(n+) , ce
qui entrane que
NI Q
n + x
PE C H
T
Pn+1 (x) = n (x).
nL+Y
PO
C OLE
2.b) La forme de Pn dcoule immdiatement de la formule prcdente. Remarquons
que Pn est gal pour x [0, 1] la fonction gnratrice de Kn et donc la connaissance
de Pn suffit caractriser la loi de Kn .

3) Puisque Pn est indfiniment drivable en 1, on sait par le cours que

E(Kn ) = Pn0 (1) ; V ar(Kn ) = Pn00 (1) + Pn0 (1) (Pn0 (1))2 .

En utilisant les drives logarithmiques de Pn , on obtient


n1 n1
!
X X
0
Pn (x) = Pn (x) , do Pn0 (1) =
i=0
i + x i=0
i+
242 Chapitre 9 Textes et corrigs dexamens

et de mme,
n1 2 n1
!2
X X
Pn00 (1) = + .
i=0
i+ i=0
i+

On en dduit que
n1

X
V ar(Kn ) = 1 .
i=0
i+ i+

IQ UE
HN
L Y T E Clealatoire
4.a) Au convive i 1, on associe la variable de Bernoulli i qui vaut 1 si i
O

choisit une nouvelle table et 0 sinon. Ainsi, paramtre de cette variable est +i1 .
E P
L
Les variables sont par hypothses indpendantes.
CO
4.b) E(Kn ) = ni=1 E(i ) = ni=1 Pn1
= i=0 i+ . De mme, puisque les i sont
P P
+i1
indpendantes,
E
I Q U
n
1 N

i 1 +EC H i 1 +
X
V ar(Kn ) =
T
O LY
i=1

E P
n1


L=
CO
X
1 .
i=0
i+ i+


5.a) On utilise la dcroissance de la fonction x +x pour obtenir lencadrement, en

remarquant que +i est la borne suprieure de la fonction sur lintervalle [i, i + 1[ et
E
la borne infrieure sur lintervalle [i 1, i[. IQU
EC HN
LY T
5.b) En intgrant de part et dautre deOE(Kn ), on obtient immdiatement quun
P
quivalent de E(Kn ) est ln n. L E
CO
2
5.c) On a V ar(Kn ) E(Kn ) = n1
. Cest une somme partielle de s-
P
i=0 i+
rie convergente, qui tend donc vers une constante quand n tend vers linfini. Ainsi,
V ar(Kn ) a galement pour quivalent ln n.

5.d) En utilisant lingalit triangulaire, on a



Kn Kn E(Kn ) E(Kn )


P P + P
2 .
ln n ln n ln n 2 ln n

Le deuxime terme tend vers 0 par la question 5.b.


Chapitre 9 Textes et corrigs dexamens 243

En utilisant lingalit de Bienaym-Chebyshev, on a


Kn
4V ar( ln n) C te

Kn 4

P 2
= 2 2
V ar(Kn ) 2 .
ln n 2 (ln n) ln n
Kn
Ainsi, ln n converge en probabilit vers .

Problme 2
E
N I QR U x
1) On a E(Tn ) = nE(S1 ) par linarit. On a C H1 ) = 0 xe dx = 1, donc E(Tn ) = n.
TE
E(S
On a V ar(Tn ) = nV ar(S1 ) car les LSY
1 , . . . , Sn sont indpendantes et de mme loi. Il
est facile de voir que V ar(SE =O
1) P 1, et donc
O L
C E(Tn ) = n ; V ar(Tn ) = n.

2) Daprs la loi des grands nombres, la suite Tn /n converge presque srement vers
U
la moyenne E(S1 ) = 1, donc Tn p.s., et par suite ITQ
E
= + p.s.
N
T E CH
P O LSY
3) Le rsultat se montre par rcurrence. Clairement, la densit de T1 = S1 vaut f1 .
On remarque que Tn = Tn1 +
O L En
S , que n admet la densit f1 , et que les variables
C
Tn1 et Sn sont indpendantes. Par suite, la loi de Tn est le produit de convolution
des lois de Tn1 et de Sn , et donc admet une densit note fn . Comme de plus Tn 0
p.s., on peut choisir fn nulle sur R .

Daprs la forme du produit de convolution, on sait que si x 0 :

U E1 (y)dy.
Z Z x
fn (x) = fn1 (x y)f1 (y)dy = Qy)f
fn1 (xI
EC
0 HN
Le calcul de fn est alors immdiat.
PO LY T
4) On a {N0 = 0} = {T1 >t},
OLE
C donc P(Nt = 0) = P(T1 > t) = et . Si n 1 on a
{Nt = n} = {Tn t < Tn+1 } = {Tn t}\{Tn+1 t}. Ainsi, P(Nt = n) = P(Tn
t) P(Tn+1 t). Une intgration par parties sur P(Tn t) donne
Z t Z t n
xn1 x t t
n
x x
P(Tn t) = e dx = e + e dx,
0 (n 1)! n! 0 n!
n
do lon dduit que P(Nt = n) = P(Tn t) P(Tn+1 t) = et tn! .

N
t t
5) La fonction caractristique de Vt = t
est

tt+teiu/ t
t (u) = E(eiu(Nt t)/ t)
= eiu t
E(ei(u/ t)Nt
) = eiu .
244 Chapitre 9 Textes et corrigs dexamens

Il est trs facile de vrifier que lexposant de lexponentielle ci-dessus converge vers
2
u2 /2 quand t . Comme u 7 eu /2 est la fonction caractristique de la loi
normale centre rduite, on dduit alors du thorme de Lvy que Vt converge en loi
vers une variable normale centre rduite.

6) Fixons n et t. Soit Ak lensemble sur lequel, parmi les k premires variables


U1 , . . . , Uk , il y en a exactement n qui sont infrieures ou gales t. On a {Yt =
n} = kn ({Z = k} Ak ), de sorte que
E

N IQ U
E k})H= k=n P(Ak |Z = k)P(Z = k)
P(Ak {Z = C
X X
P(Yt = n) =
Y T
PO1L
k=n

= L
E
C O k=n k! k
X
1
e P(A |Z = k).

Remarquons que P(A0 |Z = 0) = 1 si n = 0. Si maintenant k 1, les k variables


U1 , . . . , Uk tant indpendantes et de mme loi, le nombre de ces variables infrieures
ou gales t suit clairement une loi binomiale de taille k etQ E
deUparamtre P(U1 t) = t.
N I
k! n
Donc P(Ak |Z = k) = n!(kn)! t (1 t) kn
si n Ck.H Il vient alors
LY TE

PO
LE 1 tn
X
e1
P(Yt = n) = O tn (1 t)kn = et ,
C k=n
n!(k n)! n!

do le rsultat, en vertu de la question 4.

UE
H NIQ
LY TEC
Examen Ecole Polytechnique 2008
E PO
L
Exercice I CO

On considre un couple (X, Y ) de variables alatoires relles indpendantes. On sup-


pose que X suit la loi uniforme sur [0, 1] et que Y suit une loi Gamma (2, 1) de
densit yey 1{y>0} . On pose T = X + Y .

1) Donner la loi du couple (X, T ).

2) Quelle est la loi de T conditionnellement X = x ?


Chapitre 9 Textes et corrigs dexamens 245

Calculer lesprance conditionnelle E(T |X).

3) Quelle est la loi marginale de T ?

Calculer par au moins deux mthodes diffrentes lesprance de T .

Exercice II
IQ UE
HN
L Y T E C indpendantes telle que Xj a une loi
Soit (Xj )j1 une suite de variables alatoires
uniforme sur [j, j]. PO
LE
CO
1) Montrer que pour tout j, la fonction caractristique de Xj est gale pour tout
uR
sin(uj)
UE
Xj (u) = .
uj
N IQ
YT ECH
O L
P la fonction caractristique
2) On note Sn = X1 + ... + Xn . E
Calculer Sn de Sn .
O L
C
3) Montrer que
n
X u2 2
ln Sn (u) n+ j
n3/2
j=1
6n3

IQ UE
C HN
4) En dduire que
O LYTE
P u2

LE lim (u) = e ,
Sn 18

CO
n+ n3/2

Sn
puis que la suite de variables alatoires n3/2
converge en loi vers une variable alatoire
Z dont on prcisera la loi.

Pn n(n+1)(2n+1)
(On rappelle que j=1 j2 = 6 ).

5) On note j2 la variance de la variable alatoire Xj . Calculer j2 .

Montrer que la suite de variables alatoires pPSnn converge en loi vers une variable
j=1
j2
alatoire normale centre rduite.
246 Chapitre 9 Textes et corrigs dexamens

Comparer ce rsultat avec le thorme de la limite centrale ?

Problme

Question prliminaire : Soit X une variable alatoire intgrable. Montrer que pour
tout m R, on a
E
N I QU
E H
2 2
E((X E(X)) ) C
E((X m) ).
Y T
E P O L *****
L
CO
Soit X une variable alatoire dfinie sur un espace alatoire fini, muni dune
probabilit P (dfinie sur lensemble des parties de ). On appelle X() lensemble
de ses valeurs, qui est donc un ensemble fini {x1 , , xn }. On note sup X = supni=1 xi
et inf X = inf ni=1 xi . On appelle oscillation de X, noteI Q U E le nombre
Osc(X)
N
T E CH
O LY
Osc(X) = sup X inf X.
P
LE
CO
1-a) Pour chaque t R, on introduit une nouvelle application Pt dfinie sur lensemble
des parties de par

E(1A . etX )
Pt (A) = .
UE
E(etX )
IQ
HN
TEC
LY telle que 1A () = 1 si A et
On rappelle que 1A dsigne la variable O
alatoire
P
1A () = 0 si
/ A. LE
CO
Montrer que Pt dfinit une nouvelle probabilit sur telle que

P({}) etX()
Pt ({}) = .
E(etX )

1-b) En dduire la valeur de lesprance Et (Y ) dune variable alatoire Y sous cette


nouvelle probabilit Pt , en fonction de lesprance sous P.

1-c) Que vaut Et (Y ) si les variables alatoires Y et X sont indpendantes ?


Chapitre 9 Textes et corrigs dexamens 247

1-d) Exemple : = {0, , n}, X est une variable binomiale de paramtres n et p


et Y = 2X .

Calculer Et (Y ).

2) Montrer que pour tout t R,


1 2E
IQU
Et ((X Et (X))2 ) Osc(X) .
4
N
T E C HOsc(X)
(Pour cela, on pourra introduire m Y
= inf X + 2 ).
P OL
C OLE
3) On dfinit

f (t) = ln E et(XE(X)) .
E
I QfU(0), f 0 (0), f 0 (t) et f 00 (t),
Justifier que la fonction f est de classe C 2 sur R. Calculer
N
pour t R en utilisant loprateur Et . ECH
YT
P O L
L E
C Ot R,
4) En dduire que pour tout

t2
Osc(X)2

E et(XE(X)) e 8 . (9.0.1)

E
I Q U(9.0.1) est optimale.
1
5) Nous souhaitons montrer que la constante obtenue dans
N 8

T E CH
Considrons la variable alatoire S de loi : LY
E PO
L
C=O1) = P(S = 1) = 2 .
1
P(S

1
Calculer limt0 t2 ln E(etS ) et la comparer Osc(S).

1
En dduire que la constante 8 est optimale.

6) Montrer que pour tout t > 0 et r > 0,


2
1
Osc(X)2 tr
P(X E(X) > r) e 8 t ,
248 Chapitre 9 Textes et corrigs dexamens

puis que
2r 2
Osc(X)
P(X E(X) > r) e 2
.

7) Soit (Xn )n une suite de variables alatoires indpendantes de mme loi que X.

Montrer que
E
N IQU
H
Pn 1 2 2

TEC
t( Xi nE(X)) n t Osc(X)
E e i=1 e 8 .
Y
8) En dduire que POL
LE
CO n
!
2n r2
1X
P Xi E(X) > r e Osc(X)2 .
n i=1

Commenter ce rsultat. U E
NIQ
TE CH
LY
PO
LE
CO
Corrig de lexamen Ecole Polytechnique 2008

Exercice I

1) La loi du couple (X, Y ) admet la densit 1[0,1] (x)yey N I Q(y). La transformation


1]0,[
UE
H
E C (X, T ) admet donc la densit
dfinie par x = x, y = t x est de jacobien 1. LeTcouple

f (x, t) = 1[0,1]E
O LY
P x)e(tx) 1]x,[(t).
L
(x)(t
CO
2) La loi conditionnelle de T sachant T = x est donne par la densit suivante :
x [0, 1],
f (x, t)
fT |X=x (t) = = (t x)e(tx) 1]x,[ (t).
fX (x)
On calcule alors, pour x [0, 1],
Z Z
E(T |X = x) = t fT |X=x (t)dt = t(t x)e(tx) dt
Z0 x

u
= (u + x)ue du = x + 2.
0
Chapitre 9 Textes et corrigs dexamens 249

Ainsi,
E(T |X) = X + 2.

3) La densit marginale de T admet la densit :


Z Z
fT (t) = f (x, t)dx = 1[0,1] (x)(t x)e(tx) 1[0,t] (x)dx.

Si 0 < t 1, on a
IQ UE
t
C t HN
Y T=E ye dy = 1 (1 + t)e .
Z Z
fT (t) = (t x)e(tx) dx y t
0
POL 0

Si t 1, on a
C OLE
Z 1 Z t
fT (t) = (t x)e(tx) dx = yey dy = te1t (1 + t)et .
0 t1
E
I Q:U
On peut calculer lesprance E(T ) de diffrentes manires
N
T E CZ H
E(T ) =
Z
tfT (t)dt =
Z 1
+O
(t2 P
(t E
LY
t)et )dt +

(t2 e1t (t2 + t)et )dt =
5
.
L
CO
0 0 1 2
Mais on a plus simple !
1 5
E(T ) = E(X + Y ) = E(X) + E(Y ) = + 2 = ;
2 2
5
Z Z
E(T ) =
U E = 2.
E(T |T = x)fX (x)dx = (x + 2)fX (x)dx
Q NI
H
TEC
P O LY
Exercice II LE
CO
1)
j
1 sin uj
Z
Xj (u) = ei ux dx = .
2j j uj

2) Puisque les variables alatoires Xi sont indpendantes, nous avons


n n
sin uj 1
Y Y
Sn (u) = = (sin uj) .
j=1
uj un n! j=1
250 Chapitre 9 Textes et corrigs dexamens

3) En utilisant la question 2), nous obtenons immdiatement que


3n n
n 2 Y u 
Sn (u) = sin j .
n3/2 un n! j=1 n3/2

En utilisant un dveloppement limit lordre 3 de sin x au voisinage de 0, puis de


u
ln sinx x lordre 2, pris au point n3/2 , nous en dduisons lquivalent voulu.

E
Q U immdiatement que
Pn
4) En utilisant la valeur de j 2 , nous en dduisons
j=1
H NI
limLY
TEC (u) = e
u2
.
O
18

Pn+
Sn

O L E n3/2

On remarque que cette C limite est la fonction caractristique dune loi normale centre
et de variance 91 . Daprs le thorme de Lvy nous pouvons en conclure que la suite
( nS3/2
n
)n converge en loi, quand n tend vers linfini, vers une variable alatoire de loi
normale N (0, 19 ).
U E
H NIQ
T E C on a
5) Puisque les variables alatoires Xj sont centres,
Y
POL
LE
CO 1
Z j
j2
j2 = x2 dx = .
2j j 3

On a donc que
E
n3I Q U

n
n(n + 1)(2n + 1)
N
ECH 9
X
j2 = n .
18
j=1
O LYT
P
C O L E caractristique de pPSnn
Ainsi donc, si nous calculons la fonction
j=1
j2
au point u, nous
avons
u2
pPSn (u) = Sn (3u) n e 2 .
n
2 n3/2
j=1 j

Toujours par le thorme de Lvy, nous obtenons le rsultat voulu.

Nous avons ainsi montr un thorme de la limite centrale dans un cas o les variables
alatoires (Xj ) sont indpendantes mais pas de mme loi. Il y a de nombreuses va-
riantes de telles gnralisations, imposant des conditions sur les suites des esprances
et variances des Xj .
Chapitre 9 Textes et corrigs dexamens 251

Problme

Question prliminaire :

Soit Q(m) le polynme dfini par Q(m) = E((X m)2 ). On a alors

Q(m) = E(X 2 ) 2mE(X) + m2 ,


et ce polynme atteint son minimum en m = E(X).
IQ UE
C HN
E = 1 et que Pt est additive sur lensemble
1-a) On a de manire vidente que Y PtT()
L tels
des parties de : pour tous APetOB que A B = ,
LE
CO Pt (A B) = Pt (A) + Pt (B).

Cela suffit, puisque est un ensemble fini, pour assurer que Pt est une probabilit.

E
Udemande.
En prenant A = {}, on obtient immdiatement la formule
N IQ
YT ECH
1-b) On a alors